JP7111424B2 - Mobile object, position estimation device, and computer program - Google Patents

Mobile object, position estimation device, and computer program Download PDF

Info

Publication number
JP7111424B2
JP7111424B2 JP2019539337A JP2019539337A JP7111424B2 JP 7111424 B2 JP7111424 B2 JP 7111424B2 JP 2019539337 A JP2019539337 A JP 2019539337A JP 2019539337 A JP2019539337 A JP 2019539337A JP 7111424 B2 JP7111424 B2 JP 7111424B2
Authority
JP
Japan
Prior art keywords
estimated
orientation
agv
moving object
estimation device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019539337A
Other languages
Japanese (ja)
Other versions
JPWO2019044499A1 (en
Inventor
慎治 鈴木
哲夫 佐伯
政次 中谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Shimpo Corp
Original Assignee
Nidec Shimpo Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Shimpo Corp filed Critical Nidec Shimpo Corp
Publication of JPWO2019044499A1 publication Critical patent/JPWO2019044499A1/en
Application granted granted Critical
Publication of JP7111424B2 publication Critical patent/JP7111424B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0011Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement
    • G05D1/0038Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots associated with a remote control arrangement by providing the operator with simple or augmented images from one or more cameras located onboard the vehicle, e.g. tele-operation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/08Control of attitude, i.e. control of roll, pitch, or yaw
    • G05D1/0891Control of attitude, i.e. control of roll, pitch, or yaw specially adapted for land vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Optics & Photonics (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)

Description

本開示は、移動体、位置推定装置、およびコンピュータプログラムに関する。 The present disclosure relates to mobile objects, position estimation devices, and computer programs.

無人搬送車(無人搬送台車)および移動ロボットのように自律移動可能な移動体の開発が進められている。 Autonomous mobile bodies such as automated guided vehicles (automated guided vehicles) and mobile robots are being developed.

特開2008-250906号公報は、レーザレンジファインダから取得した局所地図と、前もって用意された地図とのマッチングによって自己位置推定を行う移動ロボットを開示している。 Japanese Patent Application Laid-Open No. 2008-250906 discloses a mobile robot that estimates its own position by matching a local map obtained from a laser range finder with a map prepared in advance.

特開2008-250906号公報JP 2008-250906 A

特開2008-250906号公報に開示されている移動ロボットは、マッチングを行うとき、光ファイバジャイロの出力と、モータまたは駆動輪に取り付けられたロータリエンコーダ(以下、単に「エンコーダ」と称する)の出力とを用い、自己位置の推定を行っている。 When performing matching, the mobile robot disclosed in Japanese Patent Application Laid-Open No. 2008-250906 uses the output of an optical fiber gyro and the output of a rotary encoder (hereinafter simply referred to as "encoder") attached to a motor or drive wheel. is used to estimate the self-position.

本開示の実施形態は、エンコーダの出力を用いることなく自己位置推定を行うことが可能な移動体を提供する。 Embodiments of the present disclosure provide a mobile object capable of self-position estimation without using the output of an encoder.

本開示の移動体は、非限定的で例示的な実施形態において、環境をスキャンしてスキャンデータを周期的に出力する外界センサと、環境地図を記憶する記憶装置と、前記センサデータと前記記憶装置から読み出された前記環境地図とのマッチングを行い、前記移動体の位置および姿勢を推定する自己位置推定装置とを備える。前記自己位置推定装置は、前記移動体の推定位置および推定姿勢の履歴に基づいて、現在の前記移動体の位置および推定の予測値を決定し、前記予測値を用いて前記マッチングを行う。 In a non-limiting exemplary embodiment, the mobile body of the present disclosure comprises: an external sensor that scans the environment and periodically outputs scan data; a storage device that stores an environment map; a self-position estimation device that performs matching with the environment map read out from the device and estimates the position and orientation of the moving object. The self-position estimation device determines a predicted value of the current position and estimation of the moving object based on the history of the estimated position and the estimated attitude of the moving object, and performs the matching using the predicted value.

本開示の位置推定装置は、非限定的で例示的な実施形態において、環境をスキャンしてスキャンデータを周期的に出力する外界センサと、環境地図を記憶する記憶装置とに接続される、移動体の位置推定装置であって、プロセッサと、前記プロセッサを動作させるコンピュータプログラムを記憶するメモリとを備える。前記プロセッサは、前記コンピュータプログラムの指令にしたがって、前記移動体の推定位置および推定姿勢の履歴に基づいて、現在の前記移動体の位置および推定の予測値を決定すること、および、前記予測値を用いて、前記センサデータと前記記憶装置から読み出された前記環境地図とのマッチングを行い、前記移動体の位置および姿勢を推定することを実行する。 A position estimation device of the present disclosure, in a non-limiting exemplary embodiment, is a mobile device connected to an external sensor that scans the environment and outputs scan data periodically, and a storage device that stores a map of the environment. A body position estimation device comprising a processor and a memory storing a computer program for operating the processor. The processor, according to instructions of the computer program, determines a predicted value of the current position and the estimated attitude of the moving object based on a history of the estimated position and the estimated attitude of the moving object; Using this, matching is performed between the sensor data and the environment map read out from the storage device, and the position and orientation of the moving object are estimated.

本開示のコンピュータプログラムは、非限定的で例示的な実施形態において、上記の位置推定装置に使用されるコンピュータプログラムである。 A computer program of the present disclosure, in a non-limiting exemplary embodiment, is a computer program for use in the position estimation device described above.

本開示の移動体の実施形態によれば、エンコーダの出力を用いることなく自己位置推定を行うことが可能である。 According to the embodiment of the mobile object of the present disclosure, self-position estimation can be performed without using the output of the encoder.

図1は、本開示による移動体の実施形態の構成を示す図である。FIG. 1 is a diagram showing the configuration of an embodiment of a mobile object according to the present disclosure. 図2は、移動体が移動する環境の例を模式的に示す平面レイアウト図である。FIG. 2 is a plan layout diagram schematically showing an example of an environment in which a moving object moves. 図3は、図2に示される環境の環境地図を示す図である。3 is an environmental map of the environment shown in FIG. 2; FIG. 図4は、外界センサが時刻tに取得したスキャンデータSD(t)の例を模式的に示す図である。FIG. 4 is a diagram schematically showing an example of scan data SD(t) acquired by the external sensor at time t. 図5Aは、環境地図に対するスキャンデータSD(t)のマッチングを開始するときの状態を模式的に示す図である。FIG. 5A is a diagram schematically showing a state when matching of scan data SD(t) with an environment map is started. 図5Bは、環境地図に対するスキャンデータSD(t)のマッチングが完了した状態を模式的に示す図である。FIG. 5B is a diagram schematically showing a state in which matching of the scan data SD(t) with respect to the environment map is completed. 図6Aは、スキャンデータを構成する点群が初期の位置から回転および並進して、環境地図の点群に近づく様子を模式的に示す図である。FIG. 6A is a diagram schematically showing how a point group that constitutes scan data rotates and translates from its initial position and approaches the point group of the environment map. 図6Bは、スキャンデータの剛体変換後の位置および姿勢を示す図である。FIG. 6B is a diagram showing the position and orientation of scan data after rigid transformation. 図7は、外界センサが時刻t+Δtに取得したスキャンデータSD(t+Δt)の例を模式的に示す図である。FIG. 7 is a diagram schematically showing an example of scan data SD(t+Δt) acquired by the external sensor at time t+Δt. 図8Aは、環境地図に対するスキャンデータSD(t+Δt)のマッチングを開始するときの状態を模式的に示す図である。FIG. 8A is a diagram schematically showing a state when matching of scan data SD(t+Δt) with an environment map is started. 図8Bは、環境地図に対するスキャンデータSD(t+Δt)のマッチングが開始するときの移動体の位置および姿勢の初期値として、位置および姿勢の履歴に基づいて算出した予測値を用いた状態を模試的に示す図である。FIG. 8B schematically shows a state in which predicted values calculated based on the history of the position and orientation are used as the initial values of the position and orientation of the moving object when matching of the scan data SD(t+Δt) with the environment map is started. is a diagram shown in FIG. 図9は、位置推定装置によって過去に得られた移動体の位置および姿勢の履歴と、現在の位置および姿勢の予測値を模式的に示す図である。FIG. 9 is a diagram schematically showing the history of the position and orientation of the moving object obtained in the past by the position estimation device and the predicted values of the current position and orientation. 図10は、本開示の実施形態における位置推定装置の動作の一部を示すフローチャートである。FIG. 10 is a flow chart showing part of the operation of the position estimation device in the embodiment of the present disclosure. 図11は、本開示の実施形態における位置推定装置の動作の一部を示すフローチャートである。FIG. 11 is a flow chart showing part of the operation of the position estimation device according to the embodiment of the present disclosure. 図12は、本開示の移動体の他の構成例を示す図である。FIG. 12 is a diagram showing another configuration example of the mobile object of the present disclosure. 図13は、本開示による、各AGVの走行を制御する制御システムの概要を示す図である。FIG. 13 is a schematic diagram of a control system that controls travel of each AGV according to the present disclosure. 図14は、AGVが存在する環境の一例を示す斜視図である。FIG. 14 is a perspective view showing an example of an environment in which an AGV exists. 図15は、接続される前のAGVおよび牽引台車を示す斜視図である。FIG. 15 is a perspective view showing the AGV and towing truck before being connected. 図16は、接続されたAGVおよび牽引台車を示す斜視図である。FIG. 16 is a perspective view showing the connected AGV and tow truck. 図17は、本実施形態にかかる例示的なAGVの外観図である。FIG. 17 is an external view of an exemplary AGV according to this embodiment. 図18Aは、AGVの第1のハードウェア構成例を示す図である。FIG. 18A is a diagram showing a first hardware configuration example of the AGV. 図18Bは、AGVの第2のハードウェア構成例を示す図である。FIG. 18B is a diagram showing a second hardware configuration example of the AGV. 図19は、運行管理装置のハードウェア構成例を示す図である。FIG. 19 is a diagram showing a hardware configuration example of an operation management device.

<用語>
「無人搬送車」(AGV)とは、本体に人手または自動で荷物を積み込み、指示された場所まで自動走行し、人手または自動で荷卸しをする無軌道車両を意味する。「無人搬送車」は、無人牽引車および無人フォークリフトを含む。
<Term>
"Automated Guided Vehicle" (AGV) means a trackless vehicle that loads cargo manually or automatically into its main body, travels automatically to a designated location, and unloads manually or automatically. "Automated guided vehicle" includes automated towing vehicles and automated forklifts.

「無人」の用語は、車両の操舵に人を必要としないことを意味しており、無人搬送車が「人(たとえば荷物の積み下ろしを行う者)」を搬送することは除外しない。 The term "unmanned" means that no person is required to steer the vehicle, and does not exclude that the AGV carries "persons (e.g., those loading and unloading goods)".

「無人牽引車」とは、人手または自動で荷物の積み込み荷卸しをする台車を牽引して、指示された場所まで自動走行する無軌道車両である。 An “unmanned tractor” is a trackless vehicle that automatically travels to a designated location by towing a trolley that loads and unloads cargo manually or automatically.

「無人フォークリフト」とは、荷物移載用のフォークなどを上下させるマストを備え、フォークなどに荷物を自動移載し指示された場所まで自動走行し、自動荷役作業をする無軌道車両である。 An “unmanned forklift” is a trackless vehicle equipped with a mast that raises and lowers a fork for loading and unloading cargo.

「無軌道車両」とは、車輪と、車輪を回転させる電気モータまたはエンジンを備える移動体(vehicle)である。 A "trackless vehicle" is a vehicle that has wheels and an electric motor or engine that rotates the wheels.

「移動体」とは、人または荷物を載せて移動する装置であり、移動のための駆動力(traction)を発生させる車輪、二足または多足歩行装置、プロペラなどの駆動装置を備える。本開示における「移動体」の用語は、狭義の無人搬送車のみならず、モバイルロボット、サービスロボット、およびドローンを含む。 A “moving body” is a device that moves with a person or load on it, and includes driving devices such as wheels, a bipedal or multipedal walking device, and a propeller that generate a driving force (traction) for movement. The term “mobile” in the present disclosure includes mobile robots, service robots, and drones as well as automated guided vehicles in the narrow sense.

「自動走行」は、無人搬送車が通信によって接続されるコンピュータの運行管理システムの指令に基づく走行と、無人搬送車が備える制御装置による自律的走行とを含む。自律的走行には、無人搬送車が所定の経路に沿って目的地に向かう走行のみならず、追尾目標に追従する走行も含まれる。また、無人搬送車は、一時的に作業者の指示に基づくマニュアル走行を行ってもよい。「自動走行」は、一般には「ガイド式」の走行および「ガイドレス式」の走行の両方を含むが、本開示では「ガイドレス式」の走行を意味する。 "Automatic driving" includes driving based on commands of a computer operation management system to which the automatic guided vehicle is connected by communication, and autonomous driving by a control device provided in the automatic guided vehicle. Autonomous travel includes not only travel by an automatic guided vehicle toward a destination along a predetermined route, but also travel following a tracking target. Also, the automatic guided vehicle may temporarily travel manually based on instructions from the operator. "Automated driving" generally includes both "guided" driving and "guideless" driving, but in this disclosure means "guideless" driving.

「ガイド式」とは、誘導体を連続的または断続的に設置し、誘導体を利用して無人搬送車を誘導する方式である。 The “guide type” is a system in which derivatives are installed continuously or intermittently, and the guides are used to guide an automatic guided vehicle.

「ガイドレス式」とは、誘導体を設置せずに誘導する方式である。本開示の実施形態における無人搬送車は、自己位置推定装置を備え、ガイドレス式で走行することができる。 The “guideless type” is a method of guiding without installing a derivative. An automatic guided vehicle according to an embodiment of the present disclosure includes a self-position estimation device and can travel without a guide.

「位置推定装置」は、レーザレンジファインダなどの外界センサによって取得されたセンサデータに基づいて環境地図上における自己位置を推定する装置である。 A "position estimation device" is a device that estimates its own position on an environmental map based on sensor data acquired by an external sensor such as a laser range finder.

「外界センサ」は、移動体の外部の状態をセンシングするセンサである。外界センサには、たとえば、レーザレンジファインダ(測域センサともいう)、カメラ(またはイメージセンサ)、LIDAR(Light Detection and Ranging)、ミリ波レーダ、超音波センサ、および磁気センサがある。 The "external sensor" is a sensor that senses the state of the exterior of the moving object. External sensors include, for example, laser range finders (also called range sensors), cameras (or image sensors), LIDAR (Light Detection and Ranging), millimeter wave radars, ultrasonic sensors, and magnetic sensors.

「内界センサ」は、移動体の内部の状態をセンシングするセンサである。内界センサには、たとえばロータリエンコーダ(以下、単に「エンコーダ」と称することがある)、加速度センサ、および角加速度センサ(たとえばジャイロセンサ)がある。 An "internal sensor" is a sensor that senses the internal state of a moving object. Internal sensors include, for example, rotary encoders (hereinafter sometimes simply referred to as "encoders"), acceleration sensors, and angular acceleration sensors (eg, gyro sensors).

「SLAM(スラム)」とは、Simultaneous Localization and Mappingの略語であり、自己位置推定と環境地図作成を同時に行うことを意味する。 "SLAM" is an abbreviation for Simultaneous Localization and Mapping, which means performing self-localization and environmental map creation at the same time.

<本開示における移動体の基本構成>
図1を参照する。本開示の移動体10は、図1に示される例示的な実施形態において、環境をスキャンしてスキャンデータを周期的に出力する外界センサ102を備える。外界センサ102の典型例は、レーザレンジファインダ(LRF)である。LRFは周期的にたとえば赤外線または可視光のレーザビームを周囲に放射して周囲の環境をスキャンする。レーザビームは、たとえば、壁、柱等の構造物、床の上に置かれた物体などの表面で反射される。LRFは、レーザビームの反射光を受けて各反射点までの距離を計算し、各反射点の位置が示された測定結果のデータを出力する。各反射点の位置には、反射光の到来方向および距離が反映されている。測定結果のデータ(スキャンデータ)は、「環境計測データ」または「センサデータ」と呼ばれることがある。
<Basic configuration of moving body in the present disclosure>
Please refer to FIG. The mobile object 10 of the present disclosure, in the exemplary embodiment shown in FIG. 1, includes an external sensor 102 that scans the environment and periodically outputs scan data. A typical example of the external sensor 102 is a laser range finder (LRF). The LRF periodically emits, for example, an infrared or visible laser beam into the environment to scan the surrounding environment. The laser beam is reflected by surfaces such as walls, structures such as columns, and objects placed on the floor. The LRF receives the reflected light of the laser beam, calculates the distance to each reflection point, and outputs measurement result data indicating the position of each reflection point. The position of each reflection point reflects the arrival direction and distance of the reflected light. The measurement result data (scan data) is sometimes called "environmental measurement data" or "sensor data".

外界センサ102による環境のスキャンは、たとえば、外界センサ102の正面を基準として左右135度(合計270度)の範囲の環境に対して行われる。具体的には、水平面内において所定のステップ角度ごとに方向を変化させながらパルス状のレーザビームを放射し、各レーザビームの反射光を検出して距離を計測する。ステップ角度が0.3度であれば、合計901ステップ分の角度で決まる方向における反射点までの距離の測定データを得ることができる。この例において、外界センサ102が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかし、外界センサは、三次元的なスキャンを行ってもよい。 The scanning of the environment by the external sensor 102 is performed, for example, on the environment within a range of 135 degrees to the left and right (270 degrees in total) with respect to the front of the external sensor 102 . Specifically, a pulsed laser beam is emitted while changing the direction at every predetermined step angle in a horizontal plane, and the reflected light of each laser beam is detected to measure the distance. If the step angle is 0.3 degrees, measurement data of the distance to the reflection point in the direction determined by the angle for a total of 901 steps can be obtained. In this example, the scanning of the surrounding space performed by the external sensor 102 is substantially parallel to the floor surface and planar (two-dimensional). However, the external sensor may perform three-dimensional scanning.

スキャンデータの典型例は、スキャンごとに取得される点群(point cloud)を構成する各点の位置座標によって表現され得る。点の位置座標は、移動体10とともに移動するローカル座標系によって規定される。このようなローカル座標系は、移動体座標系またはセンサ座標系と呼ばれ得る。本開示においては、移動体10に固定されたローカル座標系の原点を移動体10の「位置」と定義し、ローカル座標系の向き(orientation)を移動体10の「姿勢」と定義する。以下、位置および姿勢を合わせて「ポーズ」と称することがある。 A typical example of scan data can be represented by the position coordinates of each point that constitutes a point cloud acquired for each scan. The position coordinates of the points are defined by a local coordinate system that moves together with the moving body 10 . Such a local coordinate system may be called a mobile coordinate system or a sensor coordinate system. In the present disclosure, the origin of the local coordinate system fixed to the mobile body 10 is defined as the “position” of the mobile body 10 and the orientation of the local coordinate system is defined as the “attitude” of the mobile body 10 . Hereinafter, the position and posture may be collectively referred to as "pose".

スキャンデータは、極座標系で表示される場合、各点の位置をローカル座標系における原点からの「方向」および「距離」で示す数値セットから構成され得る。極座標系の表示は、直交座標系の表示に変換され得る。以下の説明では、簡単のため、外界センサから出力されたスキャンデータは、直交座標系で表示されているとする。 The scan data, when displayed in a polar coordinate system, may consist of a set of numerical values that indicate the location of each point in "direction" and "distance" from the origin in the local coordinate system. The polar coordinate system representation can be converted to a rectangular coordinate system representation. In the following explanation, for the sake of simplicity, it is assumed that the scan data output from the external sensor is displayed in an orthogonal coordinate system.

移動体10は、環境地図を記憶する記憶装置104と、位置推定装置(自己位置推定)106とを備える。環境地図は複数の地図に区分されていてもよい。位置推定装置106は、外界センサ102から取得したスキャンデータと、記憶装置104から読み出された環境地図とのマッチングを行い、移動体10の位置および姿勢、すなわちポーズを推定する。このマッチングは、パターンマッチングまたはスキャンマッチングと呼ばれ、種々のアルゴリズムにしたがって実行され得る。マッチングアルゴリズムの典型例は、Iterative Closest Point (ICP:反復最近接点)アルゴリズムである。 The moving object 10 includes a storage device 104 that stores an environment map and a position estimation device (self-position estimation) 106 . The environmental map may be divided into multiple maps. The position estimation device 106 performs matching between the scan data acquired from the external sensor 102 and the environment map read out from the storage device 104, and estimates the position and posture of the mobile object 10, that is, the pose. This matching is called pattern matching or scan matching and can be performed according to various algorithms. A typical example of a matching algorithm is the Iterative Closest Point (ICP) algorithm.

図示されている例において、移動体10は、さらに、駆動装置108、自動走行制御装置110、および通信回路112を備えている。駆動装置108は、移動体10が移動するための駆動力を発生する装置である。駆動装置108の例は、電気モータまたはエンジンによって回転する車輪(駆動輪)、モータまたは他のアクチュエータによって動作する二足または多足歩行装置を含む。車輪は、メカナムホイールなどの全方位ホイールであってもよい。また、移動体10が空中または水中を移動する移動体、あるいはホバークラフトであってもよく、その場合の駆動装置108は、モータによって回転するプロペラを含む。 In the illustrated example, the mobile unit 10 further includes a drive device 108 , an automatic cruise control device 110 and a communication circuit 112 . The driving device 108 is a device that generates a driving force for moving the moving body 10 . Examples of drive devices 108 include wheels rotated by an electric motor or engine (drive wheels), bipedal or multipedal walking devices operated by motors or other actuators. The wheels may be omnidirectional wheels, such as Mecanum wheels. Further, the mobile body 10 may be a mobile body that moves in the air or water, or a hovercraft, and the drive device 108 in that case includes a propeller rotated by a motor.

自動走行制御装置110は、駆動装置108を操作して移動体10の移動条件(速度、加速度、移動方向など)を制御する。自動走行制御装置110は、所定の走行経路に沿って移動体10を移動させてもよく、外部から与えられる指令にしたがって移動させてもよい。位置推定装置106は、移動体10の移動中または停止中において、移動体10の位置および姿勢の推定値を算出する。自動走行制御装置110は、この推定値を参照して移動体10の走行を制御する。 The automatic cruise control device 110 operates the drive device 108 to control the movement conditions (speed, acceleration, movement direction, etc.) of the mobile body 10 . The automatic travel control device 110 may move the mobile body 10 along a predetermined travel route, or may move it according to a command given from the outside. The position estimation device 106 calculates estimated values of the position and orientation of the mobile body 10 while the mobile body 10 is moving or stopped. The automatic travel control device 110 controls travel of the moving body 10 by referring to this estimated value.

位置推定装置106および自動走行制御装置110を、全体として、走行制御装置120と呼んでもよい。走行制御装置120は、プロセッサと、プロセッサの動作を制御するコンピュータプログラムを格納したメモリによって構成され得る。このようなプロセットおよびメモリは、1個または複数の半導体集積回路によって実現され得る。 Position estimator 106 and automatic cruise controller 110 may be collectively referred to as cruise controller 120 . Travel control device 120 may be configured by a processor and a memory storing a computer program for controlling the operation of the processor. Such processors and memories may be implemented by one or more semiconductor integrated circuits.

通信回路112は、移動体10が外部の管理装置、他の移動体、または操作者のモバイル端末機器などを含む通信ネットワークに接続してデータおよび/または指令のやりとりを行う回路である。 The communication circuit 112 is a circuit for exchanging data and/or commands by connecting the mobile unit 10 to a communication network including an external management device, another mobile unit, or an operator's mobile terminal device.

<環境地図>
図2は、移動体10が移動する環境200の例を模式的に示す平面レイアウト図である。環境200は、より広い環境の一部である。図2において、太い直線は、たとえば建造物の固定壁202を示している。
<Environmental map>
FIG. 2 is a plan layout diagram schematically showing an example of an environment 200 in which the mobile object 10 moves. Environment 200 is part of a wider environment. In FIG. 2, thick straight lines indicate fixed walls 202 of a building, for example.

図3は、図2に示される環境200の地図(環境地図M)を示す図である。図中の各ドット204は、環境地図Mを構成する点群の各点に相当する。本開示において、環境地図Mの点群を「参照点群」と称し、スキャンデータの点群を「データ点群」または「ソース点群」と称する場合がある。マッチングは、たとえば、位置が固定された環境地図(参照点群)に対して、スキャンデータ(データ点群)の位置合わせを行うことである。ICPアルゴリズムによるマッチングを行う場合、具体的には、参照点群とデータ点群との間で対応する点のペアが選択され、各ペアを構成する点同士の距離(誤差)を最小化するようにデータ点群の位置および向きが調整される。 FIG. 3 is a diagram showing a map (environment map M) of the environment 200 shown in FIG. Each dot 204 in the figure corresponds to each point of the point group forming the environmental map M. In this disclosure, the environment map M point cloud may be referred to as the "reference point cloud" and the scan data point cloud may be referred to as the "data point cloud" or "source point cloud." Matching is, for example, aligning scan data (data point group) with an environment map (reference point group) whose position is fixed. When performing matching by the ICP algorithm, specifically, corresponding point pairs are selected between the reference point group and the data point group, and the distance (error) between the points forming each pair is minimized. , the position and orientation of the data point cloud are adjusted to .

図3において、ドット204は、簡単のため、複数の線分上に等間隔で配列されている。現実の環境地図Mにおける点群は、より複雑な配置パターンを有していてもよい。環境地図Mは、点群地図に限定されず、直線または曲線を構成要素とする地図であってもよいし、占有格子地図であってもよい。すなわちスキャンデータと環境地図Mとの間でマッチングを行うことが可能な構造を環境地図Mが備えていればよい。 In FIG. 3, the dots 204 are arranged on a plurality of line segments at regular intervals for simplicity. The point cloud in the real environment map M may have a more complicated arrangement pattern. The environmental map M is not limited to a point cloud map, and may be a map having straight lines or curved lines as constituent elements, or may be an occupation grid map. That is, the environment map M only needs to have a structure that enables matching between the scan data and the environment map M. FIG.

移動体10が図3に示される位置PA、位置PB、および位置PCのそれぞれにあるときに、移動体10の外界センサ102が取得するスキャンデータは、それぞれ、異なる点群の配列を有する。移動体10が位置PAから、位置PBを経て位置PCに達するまでの移動時間が、外界センサ102によるスキャンの周期に比べて十分に長い場合、すなわち、移動体10の移動が遅い場合、時間軸上で隣接する2つのスキャンデータは極めて類似している。しかし、移動体10の移動が著しく速い場合は、時間軸上で隣接する2つのスキャンデータは大きく異なってしまう可能性がある。 The scan data acquired by the external sensor 102 of the mobile body 10 when the mobile body 10 is at each of the positions PA, PB, and PC shown in FIG. 3 have different point group arrangements. When the movement time of the moving body 10 from the position PA to the position PC via the position PB is sufficiently longer than the scanning period of the external sensor 102, that is, when the movement of the moving body 10 is slow, the time axis The two adjacent scan data above are very similar. However, if the moving body 10 moves extremely fast, there is a possibility that two adjacent scan data on the time axis will be significantly different.

このように外界センサ102から順次出力されるスキャンデータのうち、最新のスキャンデータがその直前のスキャンデータに類似している場合は、マッチングは相対的に容易であり、短時間で信頼度の高いマッチングが期待される。しかし、移動体10の移動速度が相対的に高い場合は、最新のスキャンデータがその直前のスキャンデータに類似していない可能性かあり、マッチングに要する時間が長くなったり、所定時間内にマッチングが完了しないことがあり得る。 When the latest scan data among the scan data sequentially output from the external sensor 102 is similar to the immediately preceding scan data in this way, matching is relatively easy and can be performed in a short time with high reliability. A match is expected. However, if the moving speed of the moving body 10 is relatively high, the latest scan data may not be similar to the immediately preceding scan data, and the time required for matching may increase or the matching may be completed within a predetermined time. may not complete.

<マッチング>
図4は、外界センサが時刻tに取得したスキャンデータSD(t)の例を模式的に示す図である。スキャンデータSD(t)は、移動体10とともに位置および姿勢が変わるセンサ座標系で表示されている。スキャンデータSD(t)は、外界センサ102の真正面をV軸として、V軸から時計周りに90°回転した方向をU軸とするUV座標系によって表現される(図9参照)。UV座標系の原点に移動体10、より正確には外界センサ102が位置している。本開示では、移動体10が前進するとき、移動体10は、外界センサ102の真正面、すなわちV軸の方向に進む。わかりやすさのため、スキャンデータSD(t)を構成する点は白丸で記載されている。
<Matching>
FIG. 4 is a diagram schematically showing an example of scan data SD(t) acquired by the external sensor at time t. The scan data SD(t) is displayed in a sensor coordinate system whose position and orientation change with the mobile object 10 . The scan data SD(t) is represented by a UV coordinate system whose V axis is directly in front of the external sensor 102 and whose U axis is rotated 90° clockwise from the V axis (see FIG. 9). The moving body 10, more precisely, the external sensor 102 is located at the origin of the UV coordinate system. In the present disclosure, when moving body 10 moves forward, moving body 10 moves directly in front of external sensor 102, that is, in the direction of the V-axis. For clarity, the points that make up the scan data SD(t) are indicated by white circles.

図5Aは、環境地図Mに対するスキャンデータSD(t)のマッチングを開始するときの状態を模式的に示す図である。図5Aに示される移動体10の位置および姿勢は、マッチング開始時における初期値として与えられる。この初期位置が実際の移動体10の位置および姿勢に近いとき、マッチングの完了状態に達するまでの時間は充分に短い。 FIG. 5A is a diagram schematically showing a state when matching of scan data SD(t) with environment map M is started. The position and orientation of the moving object 10 shown in FIG. 5A are given as initial values at the start of matching. When this initial position is close to the actual position and orientation of the moving body 10, the time to reach the matching completion state is sufficiently short.

図5Bは、環境地図Mに対するスキャンデータSD(t)のマッチングが完了した状態を模式的に示す図である。マッチングが完了した状態では、外界センサがスキャンデータSD(t)を取得したときのセンサ座標系の位置および姿勢と環境地図Mの座標系の位置および姿勢との関係が確定する。こうして、時刻tにおける移動体10の位置(センサ座標系の原点)および姿勢(センサ座標系の向き)の推定値が決定される(位置同定)。 FIG. 5B is a diagram schematically showing a state in which matching of the scan data SD(t) with the environment map M is completed. When the matching is completed, the relationship between the position and orientation of the sensor coordinate system when the external sensor acquires the scan data SD(t) and the position and orientation of the environment map M coordinate system is determined. In this way, estimated values of the position (origin of the sensor coordinate system) and orientation (orientation of the sensor coordinate system) of the moving body 10 at time t are determined (position identification).

図6Aは、スキャンデータを構成する点群が初期の位置から回転および並進して、環境地図の点群に近づく様子を模式的に示す図である。時刻tにおけるスキャンデータの点群を構成するK個の点のうちのk番目(k=1、2、・・・、K-1、K)の点の座標値をZt,k、この点に対応する環境地図上の点の座標値をmkとする。このとき、2つの点群における対応点の誤差は、K個の対応点について計算した誤差の二乗和であるΣ(Zt,k-mk2をコスト関数として評価することができる。Σ(Zt,k-mk2を小さくするように回転および並進の剛体変換が決定される。剛体変換は、回転の角度および並進のベクトルをパラメータとして含む変換行列(同次変換行列)によって規定される。FIG. 6A is a diagram schematically showing how a point group that constitutes scan data rotates and translates from its initial position and approaches the point group of the environment map. Let Z t,k be the coordinate value of the k-th point (k=1, 2, . Let m k be the coordinate value of the point on the environmental map corresponding to . At this time, the error of the corresponding points in the two point groups can be evaluated using Σ(Z t,k −m k ) 2 , which is the sum of the squares of the errors calculated for the K corresponding points, as a cost function. Rotational and translational rigid transformations are determined to reduce Σ(Z t,k −m k ) 2 . A rigid transformation is defined by a transformation matrix (homogeneous transformation matrix) that includes the angle of rotation and the vector of translation as parameters.

図6Bは、スキャンデータの剛体変換後の位置および姿勢を示す図である。図6Bに示される例において、スキャンデータと環境地図とのマッチングは完了しておらず、2つの点群の間には、まだ大きな誤差(位置ずれ)が存在している。この位置ずれを縮小するため、剛体変換をさらに行う。こうして、誤差が所定値を下回る大きさになったとき、マッチングは完了する。 FIG. 6B is a diagram showing the position and orientation of scan data after rigid transformation. In the example shown in FIG. 6B, matching between the scan data and the environment map is not complete, and there is still a large error (displacement) between the two point clouds. In order to reduce this misalignment, a rigid body transformation is further performed. Thus, matching is complete when the error is of a magnitude below a predetermined value.

図7は、外界センサが時刻t+Δtに取得したスキャンデータSD(t+Δt)の例を模式的に示す図である。図4と同様に、スキャンデータSD(t+Δt)は、移動体10とともに位置および姿勢が変わるセンサ座標系で表示され、スキャンデータSD(t+Δt)を構成する点は白丸で記載されている。時間Δtの間に移動体10の位置および姿勢が大きく変化した場合、時刻t+Δtに取得されるスキャンデータの点群の配置は、その前の時刻tに取得されるスキャンデータの点群の配置から大きく変化し得る。この例では、図7に示される点群の配置は、図4に示される点群の配置から大きく変化している。このような場合において、時刻tにおける移動体10の位置および姿勢を初期値としてマッチングを開始すると、スキャンデータと環境地図との差異が大きすぎて、マッチングに要する時間が長大になり得る。 FIG. 7 is a diagram schematically showing an example of scan data SD(t+Δt) acquired by the external sensor at time t+Δt. As in FIG. 4, the scan data SD(t+Δt) is displayed in a sensor coordinate system whose position and orientation change with the moving object 10, and the points forming the scan data SD(t+Δt) are indicated by white circles. When the position and orientation of the moving body 10 change significantly during time Δt, the arrangement of the point cloud of scan data acquired at time t+Δt is changed from the arrangement of the point cloud of scan data acquired at time t before that. can vary greatly. In this example, the placement of the point cloud shown in FIG. 7 has changed significantly from the placement of the point cloud shown in FIG. In such a case, if matching is started using the position and orientation of the mobile object 10 at time t as initial values, the difference between the scan data and the environment map may be too large, and the time required for matching may be lengthy.

図8Aは、環境地図Mに対するスキャンデータSD(t+Δt)のマッチングを開始するときの状態を模式的に示す図である。 FIG. 8A is a diagram schematically showing a state when matching of scan data SD(t+Δt) with environment map M is started.

これに対して、図8Bは、環境地図Mに対するスキャンデータSD(t+Δt)のマッチングを開始するときの移動体10の位置および姿勢の初期値として、次に説明する計算によって求めた予測値を用いた状態を模試的に示す図である。 On the other hand, FIG. 8B uses predicted values obtained by the calculation described below as the initial values of the position and orientation of the moving body 10 when matching of the scan data SD(t+Δt) with the environment map M is started. FIG. 10 is a diagram schematically showing a state in which

図8Bから明らかなように、マッチングを開始するときに環境地図Mに対するスキャンデータSD(t+Δt)の位置ずれは、図8Aの場合に比べて小さい。このため、マッチングに要する時間が短縮される。 As is clear from FIG. 8B, the displacement of the scan data SD(t+Δt) with respect to the environment map M at the start of matching is smaller than in FIG. 8A. Therefore, the time required for matching is shortened.

<初期値予測>
次に、図9を参照しながら、移動体10の位置および姿勢の予測について説明する。図9は、図1の位置推定装置106によって過去に得られた移動体10の位置および姿勢の履歴と、現在の位置および姿勢の予測値を模式的に示す図である。位置および姿勢の履歴は、位置推定装置10の内部のメモリに記憶される。このような履歴の一部または全部は、位置推定装置10の外部の記憶装置、たとえば図1の記憶装置104に記憶されていても良い。
<Initial value prediction>
Next, prediction of the position and orientation of the moving body 10 will be described with reference to FIG. FIG. 9 is a diagram schematically showing the history of the position and orientation of the moving object 10 obtained in the past by the position estimation device 106 of FIG. 1 and the predicted values of the current position and orientation. The position and attitude histories are stored in the internal memory of the position estimation device 10 . A part or all of such history may be stored in a storage device external to the position estimation device 10, such as the storage device 104 in FIG.

図9には、移動体10のローカル座標系(センサ座標系)であるUV座標系も示されている。スキャンデータは、UV座標系によって表現される。環境地図M上における移動体10の位置は、環境地図Mの座標系におけるUV座標系の原点の座標値(xi,yi)である。移動体10の姿勢(向き)は、環境地図Mの座標系に対するUV座標系の向き(θi)である。θiは半時計回りを「正」とする。 FIG. 9 also shows the UV coordinate system, which is the local coordinate system (sensor coordinate system) of the moving body 10 . Scan data is represented by a UV coordinate system. The position of the moving object 10 on the environment map M is the coordinate value (xi, yi) of the origin of the UV coordinate system in the environment map M coordinate system. The attitude (orientation) of the moving body 10 is the orientation (θi) of the UV coordinate system with respect to the environmental map M coordinate system. For θi, the counterclockwise direction is defined as "positive".

本開示の実施形態では、位置推定装置によって過去に得られた推定位置および推定姿勢の履歴から、現在の位置および姿勢の予測値を算出する。 In the embodiment of the present disclosure, predicted values of the current position and orientation are calculated from the history of estimated positions and orientations obtained in the past by the position estimation device.

前回のマッチングによって得られた移動体の推定位置および推定姿勢を(xi-1,yi-1,θi-1)、さらにその前のマッチングによって得られた移動体の推定位置および推定姿勢を(xi-2,yi-2,θi-2)とする。また、現在の移動体の位置および姿勢の予測値を(xi,yi,θi)とする。このとき、以下の仮定が成立するとする。The estimated position and the estimated attitude of the moving object obtained by the previous matching are (x i-1 , y i-1 , θ i-1 ), and the estimated position and the estimated attitude of the moving object obtained by the previous matching are be (x i-2 , y i-2 , θ i-2 ). Let (x i , y i , θ i ) be the predicted values of the current position and orientation of the moving object. At this time, suppose that the following assumption holds.

仮定1:推定位置(xi-1,yi-1)から現在位置(xi,yi)までの移動に要する時間は、推定位置(xi-2,yi-2)から推定位置(xi-1,yi-1)までの移動に要した時間に等しい。Assumption 1: The time required to move from the estimated position (x i-1 , y i-1 ) to the current position (x i , y i ) is the estimated position (x i-2 , y i-2 ) It is equal to the time required to move to (x i-1 , y i-1 ).

仮定2:推定位置(xi-1,yi-1)から現在位置(xi,yi)までの移動時の移動速度(推定位置の変化率)は、推定位置(xi-2,yi-2)から推定位置(xi-1,yi-1)までの移動速度に等しい。Assumption 2: The moving speed (rate of change of the estimated position) when moving from the estimated position (x i-1 , y i-1 ) to the current position (x i , y i ) is the estimated position (x i-2 , y i-2 ) to the estimated position (x i-1 , y i-1 ).

仮定3:移動体の姿勢(向き)の変化θi-θi-1は、Δθ=θi-1-θi-2に等しい。Assumption 3: A change in attitude (orientation) of the moving object θ ii-1 is equal to Δθ=θ i-1i-2 .

上記の過程のもと、以下の数1の式が設立する。

Figure 0007111424000001
ここで、Δθは、上述の通り、θi-1-θi-2である。Under the above process, the following Equation 1 is established.
Figure 0007111424000001
Here, Δθ is θ i-1 - θ i-2 as described above.

移動体の姿勢(向き)については、仮定3から、以下の数2の関係が成立する。
(数2)
θi=θi-1+Δθ
Regarding the posture (orientation) of the moving object, the following relationship of Equation 2 holds from Assumption 3.
(Number 2)
θi = θi -1 + Δθ

なお、Δθがゼロであるとの近似を行うと、数2の右辺第2項の行列は単位行列として計算が単純化され得る。 By approximating that Δθ is zero, the calculation can be simplified assuming that the matrix of the second term on the right side of Equation 2 is a unit matrix.

上記の仮定1が成立しない場合、位置(xi-1,yi-1)から位置(xi,yi)までの移動に要する時間をΔt、位置(xi-2,yi-2)から位置(xi-1,yi-1)までの移動に要した時間をΔsとする。この場合、数1の右辺における(xi-1-xi-2)および(yi-1-yi-2)を、それぞれ、Δt/Δs倍する補正と、数1の右辺の行列におけるΔθをΔt/Δs倍する補正を行えばよい。If the above assumption 1 does not hold, the time required to move from the position (x i-1 , y i-1 ) to the position (x i , y i ) is Δt, and the position (x i-2 , y i-2 ) to the position (x i-1 , y i-1 ) is Δs. In this case, (x i-1 −x i-2 ) and (y i-1 −y i-2 ) on the right side of Equation 1 are corrected by multiplying Δt/Δs, respectively, and the matrix on the right side of Equation 1 is Correction may be performed by multiplying Δθ by Δt/Δs.

位置および姿勢の「履歴」は、推定値の時系列データである。履歴の中には、信頼度が相対的に低い推定値が含まれたり、移動経路から大きく外れた異常値が含まれる場合がある。このような値は、予測の計算から排除してもよい。 The position and attitude "history" is the time-series data of the estimates. The history may include estimated values with relatively low reliability or abnormal values that deviate greatly from the movement route. Such values may be excluded from the prediction calculation.

後述するような運行管理装置からの指示にしたがって移動体が移動する場合は、指示内容を予測に利用することも可能である。指示内容の例は、移動経路が直線か曲線の指定、移動速度の指定を含む。 When the moving body moves according to an instruction from an operation management device as described later, it is also possible to use the contents of the instruction for prediction. Examples of instruction contents include specification of a straight or curved path, and specification of the speed of movement.

また、時刻t-Δsから時刻tまでの短い期間だけではなく、より長い期間の履歴を用いることにより、正確度および精度のより高い予測が可能になる。例えば、履歴のうち、異なる3個以上の時刻における移動体の推定位置および推定姿勢を選択して移動体の位置および姿勢を予測してもよい。 In addition, by using not only the history of the short period from time t−Δs to time t, but also the history of a longer period, prediction with higher accuracy and precision becomes possible. For example, the estimated position and orientation of the moving object at three or more different times may be selected from the history to predict the position and orientation of the moving object.

移動体の推定位置および推定姿勢の履歴から現在の位置および姿勢を予測する方法は、演算によって行うことに限定されない。この予測は、ディープラーニングなどの機械学習によって用意された学習済みモデルを用いて行ってもよい。 The method of predicting the current position and orientation from the history of the estimated position and orientation of the moving object is not limited to computation. This prediction may be performed using a trained model prepared by machine learning such as deep learning.

<位置推定装置の動作フロー>
図1、図10および図11を参照しながら、本開示の実施形態における位置推定装置の動作フローを説明する。
<Operation flow of position estimation device>
The operation flow of the position estimation device according to the embodiment of the present disclosure will be described with reference to FIGS. 1, 10 and 11. FIG.

まず、図10を参照する。 First, refer to FIG.

ステップS22において、位置推定装置106は、外界センサ102からスキャンデータを取得する。 In step S<b>22 , the position estimation device 106 acquires scan data from the external sensor 102 .

ステップS24において、位置推定装置106は、上記の方法で現在の位置および姿勢を履歴から予測し、予測値を決定する。 In step S24, position estimator 106 predicts the current position and orientation from the history in the manner described above and determines the predicted values.

ステップS26において、位置推定装置106は、上記の予測値を用いて初期位置合わせを行う。 In step S26, the position estimator 106 performs initial alignment using the predicted values.

ステップS28において、位置推定装置106は、ICPアルゴリズムによる位置ずれ補正を行う。 In step S28, the position estimation device 106 corrects the positional deviation by the ICP algorithm.

次に図11を参照して、ステップS28における位置ずれ補正を説明する。 Next, referring to FIG. 11, positional deviation correction in step S28 will be described.

まず、ステップS32において、対応点の探索を行う。具体的には、スキャンデータに含まれる点群を構成する各点に対応する、環境地図上の点を選択する。 First, in step S32, a search for corresponding points is performed. Specifically, a point on the environment map corresponding to each point forming the point group included in the scan data is selected.

ステップS34において、スキャンデータと環境地図との間にある対応点間距離を縮小するように、スキャンデータの回転および並進の剛体変換(座標変換)を行う。これは、対応点間距離、すなわち、対応点の誤差の総和(二乗和)を小さくするように、座標変換行列のパラメータを最適化することである。この最適化は反復計算によって行われる。 In step S34, the scan data is subjected to rigid transformation (coordinate transformation) of rotation and translation so as to reduce the distance between corresponding points between the scan data and the environment map. This is to optimize the parameters of the coordinate transformation matrix so as to reduce the distance between corresponding points, that is, the sum of errors (sum of squares) of corresponding points. This optimization is done by iterative calculations.

ステップS36において、反復計算の結果が収束したか否かを判定する。具体的には、座標変換行列のパラメータを変化させても対応点の誤差の総和(二乗和)の減少量が所定値を下回ったとき、収束したと判定する。収束しなかったときは、ステップS32に戻り、対応点の探索からの処理を繰りかえす。ステップS36において、収束したと判定されたときは、ステップS38に進む。 In step S36, it is determined whether or not the result of the iterative calculation has converged. Specifically, it is determined that convergence has occurred when the amount of decrease in the sum of errors (sum of squares) of corresponding points is less than a predetermined value even when the parameters of the coordinate transformation matrix are changed. If it does not converge, the process returns to step S32, and the process from the search for the corresponding points is repeated. When it is determined in step S36 that convergence has occurred, the process proceeds to step S38.

ステップS38では、座標変換行列を用いてスキャンデータの座標値をセンサ座標系の値から環境地図の座標系の値に変換する。こうして得たスキャンデータの座標値は、環境地図の更新に用いることができる。 In step S38, the coordinate conversion matrix is used to convert the coordinate values of the scan data from the sensor coordinate system values to the environmental map coordinate system values. The coordinate values of the scan data thus obtained can be used to update the environmental map.

本開示の移動体によれば、移動体10の移動速度が高く、外界センサ102から周期的に取得するスキャンデータの変化が著しい場合でも、マッチングに要する時間が大きく増加したり、あるいは、マッチングが所定時間内に完了せず、位置同定に失敗するという可能性が低減する。 According to the moving body of the present disclosure, even when the moving speed of the moving body 10 is high and the change in the scan data periodically acquired from the external sensor 102 is significant, the time required for matching is greatly increased, or the matching is not performed. Possibility of failure in localization due to failure to complete within a predetermined time is reduced.

また、ロータリエンコーダなどの内界センサの出力を用いて位置および姿勢の推定を行う必要がなくなる。特にロータリエンコーダは、車輪がスリップしたときには大きな誤差が発生し、その誤差は累積されるため、測定値の信頼度が低い。さらにロータリエンコーダによる測定は、メカナムホイールなどの全方位ホイール、二足または多足歩行装置を用いて移動する移動体、あるいは、バークラフトおよびドローンなどの飛行体には適用できない。これに対して、本開示による位置推定装置は、多用な駆動装置によって移動する種々の移動体に適用可能である。 In addition, there is no need to estimate the position and orientation using the output of an internal sensor such as a rotary encoder. A rotary encoder, in particular, generates a large error when a wheel slips, and the error is accumulated, so the reliability of the measured value is low. Furthermore, measurements by rotary encoders are not applicable to mobile objects that move using omnidirectional wheels such as mecanum wheels, bipedal or multipedal locomotion devices, or flying objects such as barcraft and drones. On the other hand, the position estimation device according to the present disclosure can be applied to various moving objects that are moved by various driving devices.

本開示の移動体は、駆動装置を備えている必要がない。たとえばユーザによって駆動される手押し車であってもよい。このような移動体は、位置推定装置から取得した移動体の位置、または、位置および姿勢をユーザのために表示装置の地図上に表示したり、音声で伝えてもよい。 The moving body of the present disclosure does not need to be equipped with a driving device. For example, it may be a wheelbarrow driven by the user. Such a moving object may display the position or position and orientation of the moving object obtained from the position estimating device on a map of the display device for the user, or may communicate by voice.

図12は、本開示の移動体10の他の構成例を示す図である。この図に示される移動体10は、位置推定装置106から出力された移動体の位置、または、位置および姿勢の情報を用いてユーザを案内するナビゲーション装置114を備えている。このナビゲーション装置114は、画像または音声により、ユーザを案内するため表示装置116に接続されている。表示装置116は、現在位置および目的位置を地図上に表示したり、「停止」または「右に曲がれ」などの音声を発したりすることができる。このため、ユーザは、移動体10を押して目的地まで移動させることができる。このような移動体10の例は、手押し車、その他のカートである。 FIG. 12 is a diagram showing another configuration example of the mobile body 10 of the present disclosure. The moving body 10 shown in this figure is provided with a navigation device 114 that guides the user using the position or position and orientation information of the moving body output from the position estimation device 106 . The navigation device 114 is connected to a display device 116 for guiding the user by means of images or sounds. The display device 116 can display the current position and the target position on a map, and emit sounds such as "stop" or "turn right". Therefore, the user can push the mobile object 10 to move it to the destination. Examples of such vehicles 10 are wheelbarrows and other carts.

図12に示される構成を備えた移動体10によれば、ナビゲーション装置114内のメモリ(不図示)に予め記憶された目的地または経路に基づいて、ルート案内が実行される。 According to the mobile body 10 having the configuration shown in FIG. 12, route guidance is executed based on the destination or route pre-stored in the memory (not shown) within the navigation device 114 .

<例示的な実施形態>
以下、本開示による移動体の実施形態をより詳細に説明する。本実施形態では、移動体の一例として無人搬送車を挙げる。以下の説明では、略語を用いて、無人搬送車を「AGV:Automatic Guided Vehicle)」と記述する。以下、「AGV」についても、移動体10と同様に参照符号「10」を付す。
<Exemplary embodiment>
In the following, embodiments of mobile objects according to the present disclosure will be described in more detail. In this embodiment, an automatic guided vehicle is taken as an example of a mobile object. In the following description, an abbreviation is used to describe an automatic guided vehicle as an "AGV (Automatic Guided Vehicle)". Hereinafter, "AGV" will also be denoted by reference numeral "10" in the same manner as the moving body 10. As shown in FIG.

(1)システムの基本構成
図13は、本開示による例示的な移動体管理システム100の基本構成例を示している。移動体管理システム100は、少なくとも1台のAGV10と、AGV10の運行管理を行う運行管理装置50とを含む。図13には、ユーザ1によって操作される端末装置20も記載されている。
(1) Basic Configuration of System FIG. 13 shows a basic configuration example of an exemplary mobile management system 100 according to the present disclosure. The mobile management system 100 includes at least one AGV 10 and an operation management device 50 that manages operation of the AGV 10 . A terminal device 20 operated by the user 1 is also shown in FIG.

AGV10は、走行に磁気テープなどの誘導体が不要な「ガイドレス式」走行が可能な無人搬送台車である。AGV10は、自己位置推定を行い、推定の結果を端末装置20および運行管理装置50に送信することができる。AGV10は、運行管理装置50からの指令にしたがって環境S内を自動走行することが可能である。 The AGV 10 is an unmanned guided vehicle capable of "guideless" travel that does not require a dielectric such as a magnetic tape for travel. The AGV 10 can estimate its own position and transmit the estimation result to the terminal device 20 and the operation management device 50 . The AGV 10 can automatically travel within the environment S in accordance with commands from the operation management device 50 .

運行管理装置50は各AGV10の位置をトラッキングし、各AGV10の走行を管理するコンピュータシステムである。運行管理装置50は、デスクトップ型PC、ノート型PC、および/または、サーバコンピュータであり得る。運行管理装置50は、複数のアクセスポイント2を介して、各AGV10と通信する。たとえば、運行管理装置50は、各AGV10が次に向かうべき位置の座標のデータを各AGV10に送信する。各AGV10は、定期的に、たとえば250ミリ秒ごとに自身の位置および姿勢(orientation)を示すデータを運行管理装置50に送信する。指示した位置にAGV10が到達すると、運行管理装置50は、さらに次に向かうべき位置の座標のデータを送信する。AGV10は、端末装置20に入力されたユーザ1の操作に応じて環境S内を走行することも可能である。端末装置20の一例はタブレットコンピュータである。 The operation management device 50 is a computer system that tracks the position of each AGV 10 and manages the running of each AGV 10 . The traffic management device 50 can be a desktop PC, a notebook PC, and/or a server computer. The operation management device 50 communicates with each AGV 10 via multiple access points 2 . For example, the operation management device 50 transmits to each AGV 10 the coordinate data of the position to which each AGV 10 should go next. Each AGV 10 periodically transmits data indicating its own position and orientation to the operation management device 50, for example, every 250 milliseconds. When the AGV 10 reaches the instructed position, the operation management device 50 further transmits coordinate data of the position to which the vehicle should go next. The AGV 10 can also travel within the environment S according to the user's 1 operation input to the terminal device 20 . An example of the terminal device 20 is a tablet computer.

図14は、3台のAGV10a,10bおよび10cが存在する環境Sの一例を示している。いずれのAGVも図中の奥行き方向に走行しているとする。AGV10aおよび10bは天板に載置された荷物を搬送中である。AGV10cは、前方のAGV10bに追従して走行している。なお、説明の便宜のため、図14では参照符号10a,10bおよび10cを付したが、以下では、「AGV10」と記述する。 FIG. 14 shows an example of an environment S in which three AGVs 10a, 10b and 10c are present. It is assumed that both AGVs are running in the depth direction in the figure. The AGVs 10a and 10b are in the process of transporting loads placed on the top plate. The AGV 10c is running following the AGV 10b in front. For convenience of explanation, reference numerals 10a, 10b and 10c are attached in FIG. 14, but they are described as "AGV 10" below.

AGV10は、天板に載置された荷物を搬送する方法以外に、自身と接続された牽引台車を利用して荷物を搬送することも可能である。図15は接続される前のAGV10および牽引台車5を示している。牽引台車5の各足にはキャスターが設けられている。AGV10は牽引台車5と機械的に接続される。図16は、接続されたAGV10および牽引台車5を示している。AGV10が走行すると、牽引台車5はAGV10に牽引される。牽引台車5を牽引することにより、AGV10は、牽引台車5に載置された荷物を搬送できる。 The AGV 10 can also transport a load by using a towing truck connected to itself, in addition to the method of transporting the load placed on the top board. FIG. 15 shows the AGV 10 and the tow truck 5 before being connected. Each leg of the tow truck 5 is provided with a caster. The AGV 10 is mechanically connected with the towing truck 5 . FIG. 16 shows the AGV 10 and towing truck 5 connected. When the AGV 10 travels, the tow truck 5 is towed by the AGV 10. - 特許庁By towing the tow truck 5, the AGV 10 can transport the load placed on the tow truck 5. - 特許庁

AGV10と牽引台車5との接続方法は任意である。ここでは一例を説明する。AGV10の天板にはプレート6が固定されている。牽引台車5には、スリットを有するガイド7が設けられている。AGV10は牽引台車5に接近し、プレート6をガイド7のスリットに差し込む。差し込みが完了すると、AGV10は、図示されない電磁ロック式ピンをプレート6およびガイド7に貫通させ、電磁ロックをかける。これにより、AGV10と牽引台車5とが物理的に接続される。 The connection method between the AGV 10 and the towing truck 5 is arbitrary. An example is described here. A plate 6 is fixed to the top plate of the AGV 10 . The towing carriage 5 is provided with a guide 7 having a slit. The AGV 10 approaches the tow truck 5 and inserts the plate 6 into the slit in the guide 7. When the insertion is completed, the AGV 10 causes an electromagnetic locking pin (not shown) to pass through the plate 6 and the guide 7 to apply an electromagnetic lock. As a result, the AGV 10 and the towing truck 5 are physically connected.

再び図13を参照する。各AGV10と端末装置20とは、たとえば1対1で接続されてBluetooth(登録商標)規格に準拠した通信を行うことができる。各AGV10と端末装置20とは、1または複数のアクセスポイント2を利用してWi-Fi(登録商標)に準拠した通信を行うこともできる。複数のアクセスポイント2は、たとえばスイッチングハブ3を介して互いに接続されている。図13には2台のアクセスポイント2a,2bが記載されている。AGV10はアクセスポイント2aと無線で接続されている。端末装置20はアクセスポイント2bと無線で接続されている。AGV10が送信したデータはアクセスポイント2aで受信された後、スイッチングハブ3を介してアクセスポイント2bに転送され、アクセスポイント2bから端末装置20に送信される。また、端末装置20が送信したデータは、アクセスポイント2bで受信された後、スイッチングハブ3を介してアクセスポイント2aに転送され、アクセスポイント2aからAGV10に送信される。これにより、AGV10および端末装置20の間の双方向通信が実現される。複数のアクセスポイント2はスイッチングハブ3を介して運行管理装置50とも接続されている。これにより、運行管理装置50と各AGV10との間でも双方向通信が実現される。 Refer to FIG. 13 again. Each AGV 10 and the terminal device 20 are connected, for example, one-to-one, and can perform communication conforming to the Bluetooth (registered trademark) standard. Each AGV 10 and the terminal device 20 can also perform Wi-Fi (registered trademark) compliant communication using one or a plurality of access points 2 . A plurality of access points 2 are connected to each other via a switching hub 3, for example. FIG. 13 shows two access points 2a and 2b. The AGV 10 is wirelessly connected to the access point 2a. The terminal device 20 is wirelessly connected to the access point 2b. The data transmitted by the AGV 10 is received by the access point 2a, transferred to the access point 2b via the switching hub 3, and transmitted to the terminal device 20 from the access point 2b. Also, the data transmitted by the terminal device 20 is received by the access point 2b, transferred to the access point 2a via the switching hub 3, and transmitted from the access point 2a to the AGV 10. FIG. Thereby, bidirectional communication between the AGV 10 and the terminal device 20 is realized. A plurality of access points 2 are also connected to an operation management device 50 via a switching hub 3 . Thereby, two-way communication is also realized between the operation management device 50 and each AGV 10 .

(2)環境地図の作成
自己位置を推定しながらAGV10が走行できるようにするため、環境S内の地図が作成される。AGV10には位置推定装置およびLRFが搭載されており、LRFの出力を利用して地図を作成できる。
(2) Creation of Environment Map A map of the environment S is created so that the AGV 10 can travel while estimating its own position. The AGV 10 is equipped with a position estimator and an LRF, and the output of the LRF can be used to create a map.

AGV10は、ユーザの操作によってデータ取得モードに遷移する。データ取得モードにおいて、AGV10はLRFを用いたセンサデータの取得を開始する。 The AGV 10 transitions to the data acquisition mode by user's operation. In data acquisition mode, the AGV 10 begins acquiring sensor data using the LRF.

位置推定装置は、センサデータを記憶装置に蓄積する。環境S内のセンサデータの取得が完了すると、記憶装置に蓄積されたセンサデータが外部装置に送信される。外部装置は、たとえば信号処理プロセッサを有し、かつ、地図作成コンピュータプログラムがインストールされたコンピュータである。 The position estimation device accumulates sensor data in a storage device. When acquisition of the sensor data in the environment S is completed, the sensor data accumulated in the storage device are transmitted to the external device. The external device is for example a computer having a signal processor and installed with a cartographic computer program.

外部装置の信号処理プロセッサは、スキャンごとに得られたセンサデータ同士を重ね合わせる。信号処理プロセッサが重ね合わせる処理を繰り返し行うことにより、環境Sの地図を作成することができる。外部装置は、作成した地図のデータをAGV10に送信する。AGV10は、作成した地図のデータを内部の記憶装置に保存する。外部装置は、運行管理装置50であってもよいし、他の装置であってもよい。 A signal processor in the external device superimposes the sensor data obtained for each scan. A map of the environment S can be created by repeating the process of superimposition by the signal processor. The external device transmits the created map data to the AGV 10 . The AGV 10 saves the created map data in an internal storage device. The external device may be the operation management device 50 or may be another device.

外部装置ではなくAGV10が地図の作成を行ってもよい。上述した外部装置の信号処理プロセッサが行った処理を、AGV10のマイクロコントローラユニット(マイコン)などの回路が行えばよい。AGV10内で地図を作成する場合には、蓄積されたセンサデータを外部装置に送信する必要がなくなる。センサデータのデータ容量は一般には大きいと考えられる。センサデータを外部装置に送信する必要がないため、通信回線の占有を回避できる。 The AGV 10 may create the map instead of the external device. A circuit such as a microcontroller unit (microcomputer) of the AGV 10 may perform the processing performed by the signal processing processor of the external device described above. When creating a map within the AGV 10, there is no need to transmit the accumulated sensor data to an external device. The data volume of sensor data is generally considered to be large. Since there is no need to transmit sensor data to an external device, occupation of communication lines can be avoided.

なお、センサデータを取得するための環境S内の移動は、ユーザの操作にしたがってAGV10が走行することによって実現し得る。たとえば、AGV10は、端末装置20を介して無線でユーザから前後左右の各方向への移動を指示する走行指令を受け取る。AGV10は走行指令にしたがって環境S内を前後左右に走行し、地図を作成する。AGV10がジョイスティック等の操縦装置と有線で接続されている場合には、当該操縦装置からの制御信号にしたがって環境S内を前後左右に走行し、地図を作成してもよい。LRFを搭載した計測台車を人が押し歩くことによってセンサデータを取得してもよい。 Note that movement within the environment S for acquiring sensor data can be realized by the AGV 10 running according to the user's operation. For example, the AGV 10 wirelessly receives a travel command from the user via the terminal device 20 to move in the front, back, left, and right directions. The AGV 10 travels forward, backward, left and right in the environment S according to the travel command to create a map. When the AGV 10 is wired to a control device such as a joystick, the AGV 10 may travel forward, backward, left and right in the environment S according to control signals from the control device to create a map. Sensor data may be acquired by a person pushing a measurement trolley equipped with an LRF.

なお、図13および図14には複数台のAGV10が示されているが、AGVは1台であってもよい。複数台のAGV10が存在する場合、ユーザ1は端末装置20を利用して、登録された複数のAGVのうちから一台のAGV10を選択して、環境Sの地図を作成させることができる。 Although a plurality of AGVs 10 are shown in FIGS. 13 and 14, the number of AGVs may be one. When a plurality of AGVs 10 exist, the user 1 can use the terminal device 20 to select one AGV 10 from among the plurality of registered AGVs and create a map of the environment S.

地図が作成されると、以後、各AGV10は当該地図を利用して自己位置を推定しながら自動走行することができる。 After the map is created, each AGV 10 can automatically travel while estimating its own position using the map.

(3)AGVの構成
図17は、本実施形態にかかる例示的なAGV10の外観図である。AGV10は、2つの駆動輪11aおよび11bと、4つのキャスター11c、11d、11eおよび11fと、フレーム12と、搬送テーブル13と、走行制御装置14と、LRF15とを有する。2つの駆動輪11aおよび11bは、AGV10の右側および左側にそれぞれ設けられている。4つのキャスター11c、11d、11eおよび11fは、AGV10の4隅に配置されている。なお、AGV10は、2つの駆動輪11aおよび11bに接続される複数のモータも有するが、複数のモータは図17には示されていない。また、図17には、AGV10の右側に位置する1つの駆動輪11aおよび2つのキャスター11cおよび11eと、左後部に位置するキャスター11fとが示されているが、左側の駆動輪11bおよび左前部のキャスター11dはフレーム12の蔭に隠れているため明示されていない。4つのキャスター11c、11d、11eおよび11fは、自由に旋回することができる。以下の説明では、駆動輪11aおよび駆動輪11bを、それぞれ車輪11aおよび車輪11bとも称する。
(3) Configuration of AGV FIG. 17 is an external view of an exemplary AGV 10 according to this embodiment. The AGV 10 has two drive wheels 11a and 11b, four casters 11c, 11d, 11e and 11f, a frame 12, a carrier table 13, a travel control device 14, and an LRF 15. Two drive wheels 11a and 11b are provided on the right and left sides of the AGV 10, respectively. Four casters 11c, 11d, 11e and 11f are arranged at the four corners of the AGV 10. As shown in FIG. Note that the AGV 10 also has multiple motors connected to the two drive wheels 11a and 11b, but the multiple motors are not shown in FIG. FIG. 17 also shows one drive wheel 11a and two casters 11c and 11e positioned on the right side of the AGV 10 and a caster 11f positioned on the left rear, but the left drive wheel 11b and the left front The caster 11d is hidden behind the frame 12 and is not shown. The four casters 11c, 11d, 11e and 11f are freely swivelable. In the following description, the drive wheels 11a and 11b are also referred to as wheels 11a and 11b, respectively.

走行制御装置14は、AGV10の動作を制御する装置であり、主としてマイコン(後述)を含む集積回路、電子部品およびそれらが搭載された基板を含む。走行制御装置14は、上述した、端末装置20とのデータの送受信、および、前処理演算を行う。 The travel control device 14 is a device that controls the operation of the AGV 10, and mainly includes an integrated circuit including a microcomputer (described later), electronic components, and a board on which they are mounted. The traveling control device 14 performs data transmission/reception with the terminal device 20 and preprocessing calculations as described above.

LRF15は、たとえば赤外のレーザビーム15aを放射し、当該レーザビーム15aの反射光を検出することにより、反射点までの距離を測定する光学機器である。本実施形態では、AGV10のLRF15は、たとえばAGV10の正面を基準として左右135度(合計270度)の範囲の空間に、0.25度ごとに方向を変化させながらパルス状のレーザビーム15aを放射し、各レーザビーム15aの反射光を検出する。これにより、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点までの距離のデータを得ることができる。なお、本実施形態では、LRF15が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかしながら、LRF15は高さ方向のスキャンを行ってもよい。 The LRF 15 is an optical device that emits an infrared laser beam 15a, for example, and detects the reflected light of the laser beam 15a to measure the distance to the reflection point. In this embodiment, the LRF 15 of the AGV 10 radiates a pulsed laser beam 15a into a space within a range of 135 degrees (270 degrees in total) from the front of the AGV 10, for example, while changing the direction every 0.25 degrees. Then, the reflected light of each laser beam 15a is detected. As a result, it is possible to obtain data on the distance to the reflection point in the direction determined by the angles of 1081 steps in total, every 0.25 degrees. In this embodiment, the scanning of the surrounding space performed by the LRF 15 is substantially parallel to the floor surface and planar (two-dimensional). However, the LRF 15 may perform vertical scanning.

AGV10の位置および姿勢(向き)と、LRF15のスキャン結果とにより、AGV10は、環境Sの地図を作成することができる。地図には、AGVの周囲の壁、柱等の構造物、床の上に載置された物体の配置が反映され得る。地図のデータは、AGV10内に設けられた記憶装置に格納される。 The AGV 10 can create a map of the environment S from the position and orientation (orientation) of the AGV 10 and the scan results of the LRF 15 . The map may reflect the placement of the walls around the AGV, structures such as pillars, and objects placed on the floor. Map data is stored in a storage device provided in the AGV 10 .

AGV10の位置および姿勢、すなわちポーズ(x,y,θ)を、以下、単に「位置」と呼ぶことがある。 The position and orientation of the AGV 10, ie pose (x, y, θ), may hereinafter be simply referred to as "position".

走行制御装置14は、前述したようにして、LRF15の測定結果と、自身が保持する地図データとを比較して、自身の現在位置を推定する。地図データは、他のAGV10が作成した地図データであってもよい。 As described above, the travel control device 14 compares the measurement result of the LRF 15 with the map data held by itself, and estimates its own current position. The map data may be map data created by another AGV 10 .

図18Aは、AGV10の第1のハードウェア構成例を示している。また図18Aは、走行制御装置14の具体的な構成も示している。 FIG. 18A shows a first hardware configuration example of the AGV 10. As shown in FIG. FIG. 18A also shows a specific configuration of the travel control device 14. As shown in FIG.

AGV10は、走行制御装置14と、LRF15と、2台のモータ16aおよび16bと、駆動装置17と、車輪11aおよび11bとを備えている。 The AGV 10 includes a travel control device 14, an LRF 15, two motors 16a and 16b, a driving device 17, and wheels 11a and 11b.

走行制御装置14は、マイコン14aと、メモリ14bと、記憶装置14cと、通信回路14dと、位置推定装置14eとを有している。マイコン14a、メモリ14b、記憶装置14c、通信回路14dおよび位置推定装置14eは通信バス14fで接続されており、相互にデータを授受することが可能である。LRF15もまた通信インタフェース(図示せず)を介して通信バス14fに接続されており、計測結果である計測データを、マイコン14a、位置推定装置14eおよび/またはメモリ14bに送信する。 The traveling control device 14 has a microcomputer 14a, a memory 14b, a storage device 14c, a communication circuit 14d, and a position estimation device 14e. The microcomputer 14a, the memory 14b, the storage device 14c, the communication circuit 14d, and the position estimation device 14e are connected by a communication bus 14f, and can exchange data with each other. The LRF 15 is also connected to the communication bus 14f via a communication interface (not shown), and transmits measurement data, which are measurement results, to the microcomputer 14a, the position estimation device 14e and/or the memory 14b.

マイコン14aは、走行制御装置14を含むAGV10の全体を制御するための演算を行うプロセッサまたは制御回路(コンピュータ)である。典型的にはマイコン14aは半導体集積回路である。マイコン14aは、制御信号であるPWM(Pulse Width Modulation)信号を駆動装置17に送信して駆動装置17を制御し、モータに印加する電圧を調整させる。これによりモータ16aおよび16bの各々が所望の回転速度で回転する。 The microcomputer 14a is a processor or control circuit (computer) that performs calculations for controlling the entire AGV 10 including the travel control device 14. FIG. The microcomputer 14a is typically a semiconductor integrated circuit. The microcomputer 14a transmits a PWM (Pulse Width Modulation) signal, which is a control signal, to the driving device 17 to control the driving device 17 and adjust the voltage applied to the motor. This causes each of the motors 16a and 16b to rotate at the desired rotational speed.

左右のモータ16aおよび16bの駆動を制御する1つ以上の制御回路(たとえばマイコン)を、マイコン14aとは独立して設けてもよい。たとえば、モータ駆動装置17が、モータ16aおよび16bの駆動をそれぞれ制御する2つのマイコンを備えていてもよい。 One or more control circuits (for example, microcomputers) for controlling the driving of the left and right motors 16a and 16b may be provided independently of the microcomputer 14a. For example, the motor driving device 17 may include two microcomputers that respectively control the driving of the motors 16a and 16b.

メモリ14bは、マイコン14aが実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ14bは、マイコン14aおよび位置推定装置14eが演算を行う際のワークメモリとしても利用され得る。 The memory 14b is a volatile storage device that stores computer programs executed by the microcomputer 14a. The memory 14b can also be used as a work memory when the microcomputer 14a and the position estimation device 14e perform calculations.

記憶装置14cは、不揮発性の半導体メモリ装置である。ただし、記憶装置14cは、ハードディスクに代表される磁気記録媒体、または、光ディスクに代表される光学式記録媒体であってもよい。さらに、記憶装置14cは、いずれかの記録媒体にデータを書き込みおよび/または読み出すためのヘッド装置および当該ヘッド装置の制御装置を含んでもよい。 The storage device 14c is a non-volatile semiconductor memory device. However, the storage device 14c may be a magnetic recording medium typified by a hard disk, or an optical recording medium typified by an optical disc. Further, the storage device 14c may include a head device for writing data to and/or reading data from any recording medium and a control device for the head device.

記憶装置14cは、走行する環境Sの環境地図M、および、1または複数の走行経路のデータ(走行経路データ)Rを記憶する。環境地図Mは、AGV10が地図作成モードで動作することによって作成され記憶装置14cに記憶される。走行経路データRは、環境地図Mが作成された後に外部から送信される。本実施形態では、環境地図Mおよび走行経路データRは同じ記憶装置14cに記憶されているが、異なる記憶装置に記憶されてもよい。 The storage device 14c stores an environment map M of an environment S in which the vehicle travels, and data (travel route data) R of one or more travel routes. The environment map M is created by the AGV 10 operating in the map creation mode and stored in the storage device 14c. The travel route data R is transmitted from the outside after the environmental map M is created. Although the environment map M and the travel route data R are stored in the same storage device 14c in this embodiment, they may be stored in different storage devices.

走行経路データRの例を説明する。 An example of travel route data R will be described.

端末装置20がタブレットコンピュータである場合には、AGV10はタブレットコンピュータから走行経路を示す走行経路データRを受信する。このときの走行経路データRは、複数のマーカの位置を示すマーカデータを含む。「マーカ」は走行するAGV10の通過位置(経由点)を示す。走行経路データRは、走行開始位置を示す開始マーカおよび走行終了位置を示す終了マーカの位置情報を少なくとも含む。走行経路データRは、さらに、1以上の中間経由点のマーカの位置情報を含んでもよい。走行経路が1以上の中間経由点を含む場合には、開始マーカから、当該走行経由点を順に経由して終了マーカに至る経路が、走行経路として定義される。各マーカのデータは、そのマーカの座標データに加えて、次のマーカに移動するまでのAGV10の向き(角度)および走行速度のデータを含み得る。AGV10が各マーカの位置で一旦停止し、自己位置推定および端末装置20への通知などを行う場合には、各マーカのデータは、当該走行速度に達するまでの加速に要する加速時間、および/または、当該走行速度から次のマーカの位置で停止するまでの減速に要する減速時間のデータを含み得る。 If the terminal device 20 is a tablet computer, the AGV 10 receives travel route data R indicating a travel route from the tablet computer. The travel route data R at this time includes marker data indicating the positions of a plurality of markers. A "marker" indicates a passing position (way point) of the traveling AGV 10 . The travel route data R includes at least position information of a start marker indicating a travel start position and an end marker indicating a travel end position. The travel route data R may further include position information of markers of one or more intermediate waypoints. When the travel route includes one or more intermediate waypoints, the route from the start marker to the end marker via the travel waypoints in order is defined as the travel route. The data of each marker can include the direction (angle) and travel speed data of the AGV 10 until it moves to the next marker, in addition to the coordinate data of that marker. When the AGV 10 temporarily stops at the position of each marker and performs self-position estimation and notification to the terminal device 20, etc., the data of each marker is the acceleration time required for acceleration to reach the running speed, and / or , data of the deceleration time required for deceleration from the running speed to stop at the position of the next marker.

端末装置20ではなく運行管理装置50(たとえば、PCおよび/またはサーバコンピュータ)がAGV10の移動を制御してもよい。その場合には、運行管理装置50は、AGV10がマーカに到達する度に、次のマーカへの移動をAGV10に指示してもよい。たとえば、AGV10は、運行管理装置50から、次に向かうべき目的位置の座標データ、または、当該目的位置までの距離および進むべき角度のデータを、走行経路を示す走行経路データRとして受信する。 The movement of the AGV 10 may be controlled by the operation management device 50 (eg, PC and/or server computer) instead of the terminal device 20 . In that case, the operation management device 50 may instruct the AGV 10 to move to the next marker each time the AGV 10 reaches the marker. For example, the AGV 10 receives, from the operation management device 50, the coordinate data of the next target position, or the data of the distance to the target position and the angle to be traveled, as the travel route data R indicating the travel route.

AGV10は、作成された地図と走行中に取得されたLRF15が出力したセンサデータとを利用して自己位置を推定しながら、記憶された走行経路に沿って走行することができる。 The AGV 10 can travel along the stored travel route while estimating its own position using the created map and the sensor data output by the LRF 15 acquired during travel.

通信回路14dは、たとえば、Bluetooth(登録商標)および/またはWi-Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。いずれの規格も、2.4GHz帯の周波数を利用した無線通信規格を含む。たとえばAGV10を走行させて地図を作成するモードでは、通信回路14dは、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1で端末装置20と通信する。 The communication circuit 14d is, for example, a wireless communication circuit that performs wireless communication conforming to the Bluetooth (registered trademark) and/or Wi-Fi (registered trademark) standards. Both standards include wireless communication standards using frequencies in the 2.4 GHz band. For example, in a mode in which the AGV 10 is driven to create a map, the communication circuit 14d performs wireless communication conforming to the Bluetooth (registered trademark) standard and communicates with the terminal device 20 on a one-to-one basis.

位置推定装置14eは、地図の作成処理、および、走行時には自己位置の推定処理を行う。位置推定装置14eは、AGV10の位置および姿勢とLRFのスキャン結果とにより、環境Sの地図を作成する。走行時には、位置推定装置14eは、LRF15からセンサデータを受け取り、また、記憶装置14cに記憶された環境地図Mを読み出す。LRF15のスキャン結果から作成された局所的地図データ(センサデータ)を、より広範囲の環境地図Mとのマッチングを行うことにより、環境地図M上における自己位置(x,y,θ)を同定する。位置推定装置14eは、局所的地図データが環境地図Mに一致した程度を表す「信頼度」のデータを生成する。自己位置(x,y,θ)、および、信頼度の各データは、AGV10から端末装置20または運行管理装置50に送信され得る。端末装置20または運行管理装置50は、自己位置(x,y,θ)、および、信頼度の各データを受信して、内蔵または接続された表示装置に表示することができる。 The position estimation device 14e performs map creation processing and self-position estimation processing during travel. The position estimation device 14e creates a map of the environment S based on the position and orientation of the AGV 10 and the LRF scan results. During running, the position estimating device 14e receives sensor data from the LRF 15 and reads the environment map M stored in the storage device 14c. By matching local map data (sensor data) created from the scan results of the LRF 15 with a wider environmental map M, the self position (x, y, θ) on the environmental map M is identified. The position estimator 14e generates "confidence" data representing the extent to which the local map data matches the environmental map M. FIG. Self-position (x, y, θ) and reliability data can be transmitted from the AGV 10 to the terminal device 20 or the operation management device 50 . The terminal device 20 or the operation management device 50 can receive the self-position (x, y, θ) and reliability data and display them on a built-in or connected display device.

本実施形態では、マイコン14aと位置推定装置14eとは別個の構成要素であるとしているが、これは一例である。マイコン14aおよび位置推定装置14eの各動作を独立して行うことが可能な1つのチップ回路または半導体集積回路であってもよい。図18Aには、マイコン14aおよび位置推定装置14eを包括するチップ回路14gが示されている。以下では、マイコン14aおよび位置推定装置14eが別個独立に設けられている例を説明する。 In this embodiment, the microcomputer 14a and the position estimation device 14e are separate components, but this is just an example. A single chip circuit or a semiconductor integrated circuit capable of independently performing each operation of the microcomputer 14a and the position estimation device 14e may be used. FIG. 18A shows a chip circuit 14g that encompasses the microcomputer 14a and the position estimator 14e. An example in which the microcomputer 14a and the position estimation device 14e are provided independently will be described below.

2台のモータ16aおよび16bは、それぞれ2つの車輪11aおよび11bに取り付けられ、各車輪を回転させる。つまり、2つの車輪11aおよび11bはそれぞれ駆動輪である。本明細書では、モータ16aおよびモータ16bは、それぞれAGV10の右輪および左輪を駆動するモータであるとして説明する。 Two motors 16a and 16b are attached to the two wheels 11a and 11b respectively to rotate each wheel. That is, the two wheels 11a and 11b are drive wheels respectively. Motors 16a and 16b are described herein as being motors that drive the right and left wheels of AGV 10, respectively.

駆動装置17は、2台のモータ16aおよび16bの各々に印加される電圧を調整するためのモータ駆動回路17aおよび17bを有する。モータ駆動回路17aおよび17bの各々はいわゆるインバータ回路を含む。モータ駆動回路17aおよび17bは、マイコン14aまたはモータ駆動回路17a内のマイコンから送信されたPWM信号によって各モータに流れる電流をオンまたはオフし、それによりモータに印加される電圧を調整する。 The drive device 17 has motor drive circuits 17a and 17b for adjusting the voltage applied to each of the two motors 16a and 16b. Each of motor drive circuits 17a and 17b includes a so-called inverter circuit. The motor drive circuits 17a and 17b turn on or off the current flowing through each motor according to the PWM signal sent from the microcomputer 14a or the microcomputer in the motor drive circuit 17a, thereby adjusting the voltage applied to the motor.

図18Bは、AGV10の第2のハードウェア構成例を示している。第2のハードウェア構成例は、レーザ測位システム14hを有する点、および、マイコン14aが各構成要素と1対1で接続されている点において、第1のハードウェア構成例(図18A)と相違する。 FIG. 18B shows a second hardware configuration example of the AGV 10. As shown in FIG. The second hardware configuration example differs from the first hardware configuration example (FIG. 18A) in that it has a laser positioning system 14h and that the microcomputer 14a is connected to each component on a one-to-one basis. do.

レーザ測位システム14hは、位置推定装置14eおよびLRF15を有する。位置推定装置14eおよびLRF15は、たとえばイーサネット(登録商標)ケーブルで接続されている。位置推定装置14eおよびLRF15の各動作は上述した通りである。レーザ測位システム14hは、AGV10のポーズ(x,y,θ)を示す情報をマイコン14aに出力する。 Laser positioning system 14 h has position estimator 14 e and LRF 15 . The position estimation device 14e and the LRF 15 are connected, for example, by an Ethernet (registered trademark) cable. Each operation of the position estimation device 14e and the LRF 15 is as described above. The laser positioning system 14h outputs information indicating the pose (x, y, θ) of the AGV 10 to the microcomputer 14a.

マイコン14aは、種々の汎用I/Oインタフェースまたは汎用入出力ポート(図示せず)を有している。マイコン14aは、通信回路14d、レーザ測位システム14h等の、走行制御装置14内の他の構成要素と、当該汎用入出力ポートを介して直接接続されている。 The microcomputer 14a has various general-purpose I/O interfaces or general-purpose input/output ports (not shown). The microcomputer 14a is directly connected to other components in the travel control device 14, such as the communication circuit 14d and the laser positioning system 14h, via the general-purpose input/output port.

図18Bに関して上述した構成以外は、図18Aの構成と共通である。よって共通の構成の説明は省略する。 The configuration is common to that of FIG. 18A except for the configuration described above with respect to FIG. 18B. Therefore, the description of the common configuration is omitted.

本開示の実施形態におけるAGV10は、図示されていない障害物検知センサおよびバンパースイッチなどのセーフティセンサを備えていてもよい。 The AGV 10 in embodiments of the present disclosure may include safety sensors, such as obstacle detection sensors and bumper switches, not shown.

(4)運行管理装置の構成例
図19は、運行管理装置50のハードウェア構成例を示している。運行管理装置50は、CPU51と、メモリ52と、位置データベース(位置DB)53と、通信回路54と、地図データベース(地図DB)55と、画像処理回路56とを有する。
(4) Configuration Example of Traffic Management Device FIG. 19 shows a hardware configuration example of the traffic management device 50 . The operation management device 50 has a CPU 51 , a memory 52 , a position database (position DB) 53 , a communication circuit 54 , a map database (map DB) 55 and an image processing circuit 56 .

CPU51、メモリ52、位置DB53、通信回路54、地図DB55および画像処理回路56は通信バス57で接続されており、相互にデータを授受することが可能である。 The CPU 51, memory 52, position DB 53, communication circuit 54, map DB 55, and image processing circuit 56 are connected by a communication bus 57, and can exchange data with each other.

CPU51は、運行管理装置50の動作を制御する信号処理回路(コンピュータ)である。典型的にはCPU51は半導体集積回路である。 The CPU 51 is a signal processing circuit (computer) that controls the operation of the operation management device 50 . The CPU 51 is typically a semiconductor integrated circuit.

メモリ52は、CPU51が実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ52は、CPU51が演算を行う際のワークメモリとしても利用され得る。 The memory 52 is a volatile storage device that stores computer programs executed by the CPU 51 . The memory 52 can also be used as a work memory when the CPU 51 performs calculations.

位置DB53は、各AGV10の行き先となり得る各位置を示す位置データを格納する。位置データは、たとえば管理者によって工場内に仮想的に設定された座標によって表され得る。位置データは管理者によって決定される。 The position DB 53 stores position data indicating each potential destination of each AGV 10 . The position data may be represented by coordinates set virtually within the factory by an administrator, for example. Location data is determined by an administrator.

通信回路54は、たとえばイーサネット(登録商標)規格に準拠した有線通信を行う。通信回路54はアクセスポイント2(図13)と有線で接続されており、アクセスポイント2を介して、AGV10と通信することができる。通信回路54は、AGV10に送信すべきデータを、バス57を介してCPU51から受信する。また通信回路54は、AGV10から受信したデータ(通知)を、バス57を介してCPU51および/またはメモリ52に送信する。 Communication circuit 54 performs wired communication conforming to the Ethernet (registered trademark) standard, for example. The communication circuit 54 is connected to the access point 2 ( FIG. 13 ) by wire, and can communicate with the AGV 10 via the access point 2 . The communication circuit 54 receives data to be transmitted to the AGV 10 from the CPU 51 via the bus 57 . The communication circuit 54 also transmits data (notification) received from the AGV 10 to the CPU 51 and/or the memory 52 via the bus 57 .

地図DB55は、AGV10が走行する工場等の内部の地図のデータを格納する。各AGV10の位置と1対1で対応関係を有する地図であれば、データの形式は問わない。たとえば地図DB55に格納される地図は、CADによって作成された地図であってもよい。 The map DB 55 stores map data of the inside of a factory or the like where the AGV 10 travels. The data format does not matter as long as the map has a one-to-one correspondence with the position of each AGV 10 . For example, the map stored in the map DB 55 may be a map created by CAD.

位置DB53および地図DB55は、不揮発性の半導体メモリ上に構築されてもよいし、ハードディスクに代表される磁気記録媒体、または光ディスクに代表される光学式記録媒体上に構築されてもよい。 The position DB 53 and the map DB 55 may be constructed on a non-volatile semiconductor memory, or may be constructed on a magnetic recording medium typified by a hard disk, or an optical recording medium typified by an optical disc.

画像処理回路56はモニタ58に表示される映像のデータを生成する回路である。画像処理回路56は、専ら、管理者が運行管理装置50を操作する際に動作する。本実施形態では特にこれ以上の詳細な説明は省略する。なお、モニタ58は運行管理装置50と一体化されていてもよい。また画像処理回路56の処理をCPU51が行ってもよい。 The image processing circuit 56 is a circuit that generates image data to be displayed on the monitor 58 . The image processing circuit 56 operates exclusively when the manager operates the operation management device 50 . In this embodiment, a more detailed description is omitted. Note that the monitor 58 may be integrated with the operation management device 50 . Alternatively, the processing of the image processing circuit 56 may be performed by the CPU 51 .

上述の実施形態の説明では、一例として二次元空間(床面)を走行するAGVを挙げた。しかしながら本開示は三次元空間を移動する移動体、たとえば飛行体(ドローン)、にも適用され得る。ドローンが飛行しながら三次元空間地図を作成する場合には、二次元空間を三次元空間に拡張することができる。 In the description of the above embodiments, an AGV that travels in a two-dimensional space (floor surface) is taken as an example. However, the present disclosure can also be applied to mobile objects that move in three-dimensional space, such as flying objects (drones). A two-dimensional space can be extended to a three-dimensional space when a drone creates a three-dimensional space map while flying.

上記の包括的な態様は、システム、方法、集積回路、コンピュータプログラム、または記録媒体によって実現されてもよい。あるいは、システム、装置、方法、集積回路、コンピュータプログラム、および記録媒体の任意な組み合わせによって実現されてもよい。 The above generic aspects may be implemented by systems, methods, integrated circuits, computer programs, or recording media. Alternatively, it may be implemented by any combination of systems, devices, methods, integrated circuits, computer programs, and recording media.

本開示の移動体は、工場、倉庫、建設現場、物流、病院などで荷物、部品、完成品などの物の移動および搬送に好適に利用され得る。 The mobile body of the present disclosure can be suitably used for moving and transporting goods such as packages, parts, and finished products in factories, warehouses, construction sites, logistics, hospitals, and the like.

1・・・ユーザ、2a、2b・・・アクセスポイント、10・・・AGV(移動体)、11a、11b・・・駆動輪(車輪)、11c、11d、11e、11f・・・キャスター、12・・・フレーム、13・・・搬送テーブル、14・・・走行制御装置、14a・・・マイコン、14b・・・メモリ、14c・・・記憶装置、14d・・・通信回路、14e・・・位置推定装置、16a、16b・・・モータ、15・・・レーザレンジファインダ、17a、17b・・・モータ駆動回路、20・・・端末装置(タブレットコンピュータなどのモバイルコンピュータ)、50・・・運行管理装置、51・・・CPU、52・・・メモリ、53・・・位置データベース(位置DB)、54・・・通信回路、55・・・地図データベース(地図DB) Reference Signs List 1 User, 2a, 2b Access point, 10 AGV (moving body), 11a, 11b Driving wheel (wheel), 11c, 11d, 11e, 11f Caster, 12 Frame 13 Carrying table 14 Travel control device 14a Microcomputer 14b Memory 14c Storage device 14d Communication circuit 14e Position estimation device 16a, 16b motor 15 laser range finder 17a, 17b motor drive circuit 20 terminal device (mobile computer such as tablet computer) 50 operation Management device 51 CPU 52 memory 53 position database (position DB) 54 communication circuit 55 map database (map DB)

Claims (11)

移動体であって、
環境をスキャンしてスキャンデータを周期的に出力する外界センサと、
環境地図を記憶する記憶装置と、
前記スキャンデータと前記記憶装置から読み出された前記環境地図とのマッチングを行い、前記移動体の位置および姿勢を推定する位置推定装置と、
を備え、
前記位置推定装置は、
過去のマッチングによって得られた前記移動体の推定位置および推定姿勢の履歴に基づいて、現在の前記移動体の位置および姿勢の予測値を決定し、
前記予測値を初期値として用いて、現在の前記移動体の位置および姿勢を推定するためのマッチングを開始する、移動体。
being mobile,
an external sensor that scans the environment and periodically outputs scan data;
a storage device that stores an environment map;
a position estimation device that performs matching between the scan data and the environment map read from the storage device to estimate the position and orientation of the mobile body;
with
The position estimation device,
determining a predicted value of the current position and orientation of the moving object based on the history of the estimated position and the estimated orientation of the moving object obtained by past matching;
A moving body that uses the predicted values as initial values to start matching for estimating the current position and attitude of the moving body.
前記位置推定装置は、
前記移動体の推定位置および推定姿勢の履歴に基づいて前記推定位置および前記推定姿勢の変化率を決定し、前記変化率に基づいて前記移動体の位置および姿勢を予測する、請求項1に記載の移動体。
The position estimation device,
2. The method according to claim 1, wherein a rate of change of said estimated position and said estimated attitude is determined based on a history of said estimated position and said estimated attitude of said moving body, and said position and attitude of said moving body are predicted based on said rate of change. mobile.
前記位置推定装置は、反復最近接点アルゴリズムによって前記マッチングを行う、請求項1または2に記載の移動体。 3. The mobile body according to claim 1, wherein said position estimation device performs said matching by an iterative closest point algorithm. 全方位ホイール、二足または多足歩行装置のいずれかを備える、請求項1から3のいずれかに記載の移動体。 4. The moving object according to any one of claims 1 to 3, comprising either an omnidirectional wheel, a bipedal or multipedal walking device. 前記位置推定装置が推定した前記移動体の前記位置、または、前記位置および前記姿勢を画像および/または音声によって表示する表示装置を備える、請求項1から4のいずれかに記載の移動体。 5. The moving body according to any one of claims 1 to 4, further comprising a display device for displaying said position, or said position and said orientation of said moving body estimated by said position estimation device, by means of images and/or sounds. 目的地と、前記位置推定装置が推定した前記移動体の前記位置および前記姿勢とに基づいて、ユーザに経路をガイドするナビゲーション装置を備える、請求項5に記載の移動体。 6. The moving object according to claim 5, comprising a navigation device that guides a user on a route based on a destination and said position and said attitude of said moving object estimated by said position estimation device. 前記位置推定装置は、
前記移動体の推定位置および推定姿勢の履歴に基づいて前記推定位置および前記推定姿勢の変化率を決定するとき、前記履歴に含まれる前記推定位置または前記推定姿勢を信頼度に応じて選択する、請求項2に記載の移動体。
The position estimation device,
when determining the rate of change of the estimated position and the estimated posture based on the history of the estimated position and the estimated posture of the moving body, selecting the estimated position or the estimated posture included in the history according to reliability; The moving object according to claim 2.
前記位置推定装置は、運行管理装置からの指示にしたがって移動するとき、前記指示の内容および前記履歴に基づいて前記移動体の位置および姿勢を予測する、請求項1から6のいずれかに記載の移動体。 7. The position estimating device according to any one of claims 1 to 6, wherein, when moving in accordance with an instruction from an operation management device, said position estimating device predicts the position and orientation of said moving object based on the content of said instruction and said history. Mobile. 前記位置推定装置は、前記履歴のうち、異なる3個以上の時刻における前記移動体の推定位置および推定姿勢を選択して前記移動体の位置および姿勢を予測する、請求項1から6のいずれかに記載の移動体。 7. The position estimating device according to any one of claims 1 to 6, wherein the position estimation device selects the estimated position and the estimated orientation of the moving object at three or more different times from the history to predict the position and the orientation of the moving object. The moving body described in . 環境をスキャンしてスキャンデータを周期的に出力する外界センサと、環境地図を記憶する記憶装置とに接続される、移動体の位置推定装置であって、
プロセッサと、
前記プロセッサを動作させるコンピュータプログラムを記憶するメモリと、
を備え、
前記プロセッサは、前記コンピュータプログラムの指令にしたがって、
前記スキャンデータと前記記憶装置から読み出された前記環境地図との過去のマッチングによって得られた前記移動体の推定位置および推定姿勢の履歴に基づいて、現在の前記移動体の位置および姿勢の予測値を決定すること、および
前記予測値を初期値として用いて、現在の前記移動体の位置および姿勢を推定するためのマッチングを開始すること、を実行する、位置推定装置
A mobile body position estimation device connected to an external sensor that scans the environment and periodically outputs scan data and a storage device that stores an environment map,
a processor;
a memory storing a computer program for operating the processor;
with
The processor, according to instructions of the computer program,
Predicting the current position and orientation of the moving object based on a history of the estimated position and the estimated orientation of the moving object obtained by past matching between the scan data and the environment map read from the storage device. determining a value; and using the predicted value as an initial value to initiate matching for estimating the current position and attitude of the moving object .
請求項10に記載の位置推定装置に使用されるコンピュータプログラム。 A computer program used in the position estimation device according to claim 10.
JP2019539337A 2017-09-04 2018-08-14 Mobile object, position estimation device, and computer program Active JP7111424B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2017169727 2017-09-04
JP2017169727 2017-09-04
PCT/JP2018/030307 WO2019044499A1 (en) 2017-09-04 2018-08-14 Mobile body, location estimation device, and computer program

Publications (2)

Publication Number Publication Date
JPWO2019044499A1 JPWO2019044499A1 (en) 2020-08-20
JP7111424B2 true JP7111424B2 (en) 2022-08-02

Family

ID=65527476

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019539337A Active JP7111424B2 (en) 2017-09-04 2018-08-14 Mobile object, position estimation device, and computer program

Country Status (4)

Country Link
US (1) US11537140B2 (en)
JP (1) JP7111424B2 (en)
CN (1) CN111033426A (en)
WO (1) WO2019044499A1 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11604476B1 (en) * 2018-10-05 2023-03-14 Glydways Inc. Road-based vehicle guidance system
JP7221839B2 (en) * 2019-10-08 2023-02-14 国立大学法人静岡大学 Autonomous Mobile Robot and Control Program for Autonomous Mobile Robot
JP6999625B2 (en) * 2019-11-06 2022-02-04 財団法人車輌研究測試中心 Methods and systems for generating dynamic map information that can provide environmental information
CN111192458B (en) * 2020-04-16 2020-09-11 清华大学 Automatic driving decision method and system for storing decision knowledge base in map
JP7482811B2 (en) * 2021-02-16 2024-05-14 三菱ロジスネクスト株式会社 MOBILE BODY CONTROL METHOD, MOBILE BODY, AND PROGRAM
DE102023107599A1 (en) * 2023-03-27 2024-10-02 Sick Ag DRIVERLESS TRANSPORT VEHICLE

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009159784A (en) 2007-12-27 2009-07-16 Equos Research Co Ltd Vehicle
JP2009276823A (en) 2008-05-12 2009-11-26 Asyst Technologies Japan Inc Carrying system
JP2014203144A (en) 2013-04-02 2014-10-27 パナソニック株式会社 Autonomous mobile apparatus
JP2017021791A (en) 2015-07-09 2017-01-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Map generation method, mobile robot, and map generation system
JP2017097537A (en) 2015-11-20 2017-06-01 日本精工株式会社 Guiding robot

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5850197A (en) * 1997-08-25 1998-12-15 Trimble Navigation Attitude determination using fewer than three antennas
JP4652886B2 (en) * 2005-04-28 2011-03-16 株式会社エヌ・ティ・ティ・ドコモ Position estimation apparatus and position estimation method
WO2007012198A1 (en) * 2005-07-26 2007-02-01 Macdonald, Dettwiler & Associates Inc. Guidance, navigation, and control system for a vehicle
JP2008250906A (en) 2007-03-30 2008-10-16 Sogo Keibi Hosho Co Ltd Mobile robot, and self-location correction method and program
JP5930346B2 (en) * 2012-11-19 2016-06-08 株式会社日立製作所 Autonomous mobile system and control device
CN103048996A (en) * 2012-12-27 2013-04-17 深圳先进技术研究院 Automatic guided vehicle based on laser scanning distance meter, and system and navigation method of automatic guided vehicle
CN105973265B (en) * 2016-05-19 2019-03-19 杭州申昊科技股份有限公司 A kind of mileage estimation method based on scanning laser sensor
CN106767827B (en) * 2016-12-29 2020-02-28 浙江大学 Mobile robot point cloud map creation method based on laser data
CN107276920B (en) * 2017-07-28 2020-01-17 南京航空航天大学 Distributed flow control system and method applied to hybrid three-dimensional network on chip

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009159784A (en) 2007-12-27 2009-07-16 Equos Research Co Ltd Vehicle
JP2009276823A (en) 2008-05-12 2009-11-26 Asyst Technologies Japan Inc Carrying system
JP2014203144A (en) 2013-04-02 2014-10-27 パナソニック株式会社 Autonomous mobile apparatus
JP2017021791A (en) 2015-07-09 2017-01-26 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Map generation method, mobile robot, and map generation system
JP2017097537A (en) 2015-11-20 2017-06-01 日本精工株式会社 Guiding robot

Also Published As

Publication number Publication date
JPWO2019044499A1 (en) 2020-08-20
US11537140B2 (en) 2022-12-27
CN111033426A (en) 2020-04-17
US20200233431A1 (en) 2020-07-23
WO2019044499A1 (en) 2019-03-07

Similar Documents

Publication Publication Date Title
JP6816830B2 (en) A position estimation system and a mobile body equipped with the position estimation system.
JP6825712B2 (en) Mobiles, position estimators, and computer programs
JP7111424B2 (en) Mobile object, position estimation device, and computer program
JP7168211B2 (en) Mobile object that avoids obstacles and its computer program
US20200110410A1 (en) Device and method for processing map data used for self-position estimation, mobile body, and control system for mobile body
JP2019168942A (en) Moving body, management device, and moving body system
JP7081881B2 (en) Mobiles and mobile systems
JP7136426B2 (en) Management device and mobile system
CN111971633B (en) Position estimation system, mobile body having the position estimation system, and recording medium
JP7164085B2 (en) Work transport method using moving body, computer program, and moving body
JP2019053391A (en) Mobile body
JP2019175137A (en) Mobile body and mobile body system
JP7243014B2 (en) moving body
JP2020166702A (en) Mobile body system, map creation system, route creation program and map creation program
CN112578789A (en) Moving body
WO2020213645A1 (en) Map creation system, signal processing circuit, moving body, and map creation method
JP2019067001A (en) Moving body
JPWO2019059299A1 (en) Operation management device
JP2020166701A (en) Mobile object and computer program
JP2019175138A (en) Mobile body and management device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210413

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211130

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220119

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20220131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20220131

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220621

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220714

R150 Certificate of patent or registration of utility model

Ref document number: 7111424

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150