JP7396353B2 - Map creation system, signal processing circuit, mobile object and map creation method - Google Patents

Map creation system, signal processing circuit, mobile object and map creation method Download PDF

Info

Publication number
JP7396353B2
JP7396353B2 JP2021514198A JP2021514198A JP7396353B2 JP 7396353 B2 JP7396353 B2 JP 7396353B2 JP 2021514198 A JP2021514198 A JP 2021514198A JP 2021514198 A JP2021514198 A JP 2021514198A JP 7396353 B2 JP7396353 B2 JP 7396353B2
Authority
JP
Japan
Prior art keywords
distance
map
processing circuit
signal processing
reflected light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021514198A
Other languages
Japanese (ja)
Other versions
JPWO2020213645A1 (en
Inventor
慎治 鈴木
哲夫 佐伯
優一 池内
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nidec Corp
Original Assignee
Nidec Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nidec Corp filed Critical Nidec Corp
Publication of JPWO2020213645A1 publication Critical patent/JPWO2020213645A1/ja
Application granted granted Critical
Publication of JP7396353B2 publication Critical patent/JP7396353B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Description

本開示は、レーザレンジファインダを備える移動体が自己位置推定に利用する地図データを作成するための地図作成システム、信号処理回路、移動体および地図作成方法に関する。 The present disclosure relates to a map creation system, a signal processing circuit, a mobile object, and a map creation method for creating map data used for self-position estimation by a mobile object equipped with a laser range finder.

無人搬送車(無人搬送台車)および移動ロボットのような自律移動可能な移動体の開発が進められている。 BACKGROUND ART The development of autonomously movable objects such as unmanned guided vehicles (unmanned guided vehicles) and mobile robots is progressing.

スキャンポイント取得部と記憶部とを有する自律移動装置を開示されている(例えば、日本国公開公報特開2009-223900号公報)。スキャンポイント取得部は、電磁波または音波を用いて前方空間をスキャンし、壁などの平面状障害物等からの反射波を受信して、その障害物の位置座標をスキャンポイントとして取得する。記憶部には、地図情報として、稼働領域における壁、フェンス、柵などの平面状障害物を表現する線分の集合がマップセグメントとして予め設定されている。自律移動装置は、稼働環境に応じて、スキャンポイント取得部による物体座標の計測可能な領域の中に、原点(スキャンポイント取得部の位置)からの距離が所定距離以内である領域を設定する。 An autonomous mobile device having a scan point acquisition unit and a storage unit has been disclosed (for example, Japanese Patent Publication No. 2009-223900). The scan point acquisition unit scans the space ahead using electromagnetic waves or sound waves, receives reflected waves from planar obstacles such as walls, and acquires the position coordinates of the obstacles as scan points. As map information, a collection of line segments representing planar obstacles such as walls, fences, fences, etc. in the operating area is preset as map segments in the storage unit. The autonomous mobile device sets an area within a predetermined distance from the origin (the position of the scan point acquisition unit) in the area where the object coordinates can be measured by the scan point acquisition unit, depending on the operating environment.

自律移動装置は、領域内のスキャン結果から得られたスキャンセグメントとマップセグメントとを照合して平面状障害物の位置を地図上で特定する。スキャンポイントの数を減らすことにより、自己位置認識部の計算量を削減することができ、それにより自律移動のための判断をより速く行うことが可能になる。 The autonomous mobile device identifies the position of the planar obstacle on the map by comparing the scan segment obtained from the scan result within the area with the map segment. By reducing the number of scan points, the amount of computation of the self-location recognition unit can be reduced, thereby making it possible to make decisions for autonomous movement faster.

日本国公開公報:特開2009-223900号公報Japanese publication: Japanese Patent Application Publication No. 2009-223900

自己位置を正確に特定するためには、地図の精度を向上させることが好ましい。 In order to accurately identify one's own location, it is preferable to improve the accuracy of the map.

本開示の実施形態は、上記の課題を解決する、地図を作成するための地図作成システム、信号処理回路、移動体および地図作成方法を提供する。 Embodiments of the present disclosure provide a map creation system, a signal processing circuit, a mobile object, and a map creation method for creating a map, which solve the above problems.

本開示の地図作成システムは、非限定的で例示的な実施形態において、移動体が自己位置を推定するために参照する地図を作成する地図作成システムであって、第1角度範囲内で角度を変えながらレーザビームを出射して反射光を取得し、出射した前記レーザビームと前記反射光との関係を利用して、前記角度ごとに、計測可能な第1距離以内に存在する反射点までの距離を示す距離データを取得するレーザレンジファインダと、前記第1角度範囲および前記第1距離によって規定される計測可能領域の中から、前記計測可能領域よりも小さい1以上の部分領域を選択し、前記1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する信号処理回路とを備え、前記1以上の部分領域は、前記移動体が自己位置を推定する際に用いるレーザレンジファインダの計測領域よりも狭い。 In a non-limiting exemplary embodiment, the map creation system of the present disclosure is a map creation system that creates a map that a mobile object refers to in order to estimate its own position, the map creation system comprising: A laser beam is emitted while changing the angle, the reflected light is obtained, and the relationship between the emitted laser beam and the reflected light is used to calculate the distance to the reflection point existing within a measurable first distance for each angle. selecting one or more partial areas smaller than the measurable area from a measurable area defined by a laser range finder that acquires distance data indicating the distance, the first angular range and the first distance; and a signal processing circuit that creates a map using distance data indicating a distance to a reflection point included in the one or more partial areas, wherein the one or more partial areas are used by the mobile object to estimate its own position. It is narrower than the measurement area of the laser range finder used in the actual measurement.

本開示の信号処理回路は、非限定的で例示的な実施形態において、移動体が自己位置を推定するために参照する地図を作成する地図作成システムで用いられる信号処理回路であって、前記地図作成システムはレーザレンジファインダを有しており、前記レーザレンジファインダは、第1角度範囲内で角度を変えながらレーザビームを出射して反射光を取得し、出射した前記レーザビームと前記反射光との関係を利用して、前記角度ごとに、計測可能な第1距離以内に存在する反射点までの距離を示す距離データを取得し、前記信号処理回路は、前記第1角度範囲および前記第1距離によって規定される計測可能領域の中から、前記計測可能領域よりも小さい1以上の部分領域を選択する処理と、 前記1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する処理とを実行し、前記1以上の部分領域として、前記移動体が自己位置を推定する際に用いるレーザレンジファインダの計測領域よりも狭い領域を選択する。 In a non-limiting exemplary embodiment, the signal processing circuit of the present disclosure is a signal processing circuit used in a map creation system that creates a map that a mobile object refers to in order to estimate its own position, The production system has a laser range finder, and the laser range finder emits a laser beam while changing the angle within a first angle range, obtains reflected light, and combines the emitted laser beam and the reflected light. The signal processing circuit acquires distance data indicating the distance to a reflection point existing within a measurable first distance for each angle by using the relationship between the first angle range and the first measurable distance. A process of selecting one or more partial areas smaller than the measurable area from among the measurable area defined by the distance, and distance data indicating a distance to a reflection point included in the one or more partial areas. A process of creating a map using the mobile object is performed, and an area narrower than a measurement area of a laser range finder used when the mobile body estimates its own position is selected as the one or more partial areas.

本開示の移動体は、非限定的で例示的な実施形態において、上記信号処理回路と、前記レーザレンジファインダと、移動のための駆動装置とを備える。 In a non-limiting exemplary embodiment, a moving object of the present disclosure includes the signal processing circuit, the laser range finder, and a driving device for movement.

本開示の地図作成方法は、非限定的で例示的な実施形態において、移動体が自己位置を推定するために参照する地図を作成する地図作成方法であって、レーザレンジファインダを用いて、第1角度範囲内で角度を変えながらレーザビームを出射して反射光を取得し、出射した前記レーザビームと前記反射光との関係を利用して、前記角度ごとに、計測可能な第1距離以内に存在する反射点までの距離を示す距離データを取得し、前記第1角度範囲および前記第1距離によって規定される計測可能領域の中から、前記計測可能領域よりも小さい1以上の部分領域であって、前記移動体が自己位置を推定する際に用いるレーザレンジファインダの計測領域よりも狭い1以上の部分領域を選択し、前記1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する。 In a non-limiting exemplary embodiment, the map creation method of the present disclosure is a map creation method for creating a map that a mobile object refers to in order to estimate its own position, and the map creation method uses a laser range finder to A laser beam is emitted while changing the angle within one angle range to obtain reflected light, and by using the relationship between the emitted laser beam and the reflected light, the distance is within a first measurable distance for each angle. acquire distance data indicating a distance to a reflection point existing in select one or more partial areas narrower than a measurement area of a laser range finder used by the mobile object to estimate its own position, and indicate the distance to a reflection point included in the one or more partial areas; Create a map using distance data.

本開示のさらなる地図作成システムは、非限定的で例示的な実施形態において、移動体が自己位置を推定するために参照する地図を作成する地図作成システムであって、第1角度範囲内で角度を変えながらレーザビームを出射して反射光を取得し、出射した前記レーザビームと前記反射光との関係を利用して、前記角度ごとに、計測可能な第1距離以内に存在する反射点までの距離を示す距離データを取得するレーザレンジファインダと、前記第1角度範囲および前記第1距離によって規定される計測可能領域の中から、前記計測可能領域よりも小さい1以上の部分領域を選択し、前記1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する信号処理回路とを備える。 A further mapping system of the present disclosure, in a non-limiting exemplary embodiment, is a mapping system that creates a map for reference by a mobile object to estimate its own position, the mapping system comprising: an angle within a first angular range; emit a laser beam and obtain reflected light while changing the angle, and use the relationship between the emitted laser beam and the reflected light to reach a reflection point that exists within a measurable first distance for each angle. a laser range finder that acquires distance data indicating a distance, and one or more partial areas smaller than the measurable area from among the measurable area defined by the first angular range and the first distance. , and a signal processing circuit that creates a map using distance data indicating a distance to a reflection point included in the one or more partial areas.

本開示の実施形態によれば、レーザレンジファインダの計測誤差が抑制されたスキャンデータから地図を作成するため、より正確な地図を得ることが可能になる。当該地図を用いることにより、AGVはより正確に自律走行を行うことが可能になる。 According to the embodiment of the present disclosure, a map is created from scan data in which measurement errors of the laser range finder are suppressed, so it is possible to obtain a more accurate map. By using the map, the AGV can more accurately drive autonomously.

図1Aは、本開示による移動体の実施形態の構成を示す図である。FIG. 1A is a diagram showing the configuration of an embodiment of a mobile object according to the present disclosure. 図1Bは、本開示による地図作成システムの実施形態の構成を示す図である。FIG. 1B is a diagram showing the configuration of an embodiment of a map creation system according to the present disclosure. 図2は、移動体10のLRF102から出射される、ステップ角度ごとの複数のレーザビーム(実線)を示す図である。FIG. 2 is a diagram showing a plurality of laser beams (solid lines) emitted from the LRF 102 of the moving body 10 for each step angle. 図3は、広がりを有するレーザビーム15wの検出誤差を説明するための図である。FIG. 3 is a diagram for explaining the detection error of the laser beam 15w having a spread. 図4は、広がりを有するレーザビーム15wが検出誤差を増大させることを説明するための図である。FIG. 4 is a diagram for explaining that the laser beam 15w having a spread increases the detection error. 図5は、実際に存在する物体Grealが、より大きな物体Gvirtualとして検出されることを説明するための図である。FIG. 5 is a diagram for explaining that an actually existing object G real is detected as a larger object G virtual . 図6Aは、ある移動環境をスキャンする移動体の位置を模式的に示す平面レイアウト図である。FIG. 6A is a plan layout diagram schematically showing the position of a moving body scanning a certain moving environment. 図6Bは、図6Aに示される環境200の地図(地図M)を示す図である。FIG. 6B is a diagram showing a map (map M) of the environment 200 shown in FIG. 6A. 図7は、移動体10および移動体10の計測可能領域SAを示す図である。FIG. 7 is a diagram showing the mobile body 10 and the measurable area SA of the mobile body 10. 図8Aは、計測可能領域SAと、移動体10が地図作成時に利用する部分領域SBとの関係を示す図である。FIG. 8A is a diagram showing the relationship between the measurable area SA and the partial area SB used by the mobile object 10 when creating a map. 図8Bは、移動体10が移動して物体Gに接近したときの移動体10と物体Gとの位置関係を示す図である。FIG. 8B is a diagram showing the positional relationship between the moving body 10 and the object G when the moving body 10 moves and approaches the object G. 図8Cは、移動体10がさらに移動して物体Gに接近したときの移動体10と物体Gとの位置関係を示す図である。FIG. 8C is a diagram showing the positional relationship between the moving body 10 and the object G when the moving body 10 moves further and approaches the object G. 図9Aは、地図作成時の移動体10の計測可能領域SAを示す図である。FIG. 9A is a diagram showing the measurable area SA of the mobile object 10 at the time of map creation. 図9Bは、物体Gが計測可能領域SA内に入ったときの移動体10と物体Gとの位置関係を示す図である。FIG. 9B is a diagram showing the positional relationship between the moving body 10 and the object G when the object G enters the measurable area SA. 図9Cは、計測可能領域SAに設定された除外領域SVと、選択された部分領域SB-1およびSB-2とを示す図である。FIG. 9C is a diagram showing the exclusion region SV set in the measurable region SA and the selected partial regions SB-1 and SB-2. 図9Dは、移動体10が引き続き移動したときの移動体10と物体Gとの位置関係を示す図である。FIG. 9D is a diagram showing the positional relationship between the moving body 10 and the object G when the moving body 10 continues to move. 図9Eは、物体Gからの反射光の強度が強度閾値ITH以下になったときの移動体10と物体Gとの位置関係を示す図である。FIG. 9E is a diagram showing the positional relationship between the moving body 10 and the object G when the intensity of the reflected light from the object G becomes equal to or less than the intensity threshold value ITH . 図10は、移動体10が移動する環境200において、上述の第1例または第2例の動作によって取得された点群を並べて作成された地図204Mを示す図である。FIG. 10 is a diagram illustrating a map 204M created by arranging point groups acquired by the operations of the first example or the second example described above in the environment 200 in which the mobile object 10 moves. 図11は、計測範囲を制限した地図の作成処理フローを示す図である。FIG. 11 is a diagram showing a process flow for creating a map with a limited measurement range. 図12Aは、部分領域を選択する第1の処理フローを示す図である。FIG. 12A is a diagram showing a first processing flow for selecting a partial area. 図12Bは、部分領域を選択する第2の処理フローを示す図である。FIG. 12B is a diagram showing a second processing flow for selecting a partial area. 図13は、地図作成時および自己位置推定時のそれぞれにおいて移動体10が利用する計測領域の違いを説明するための一覧図である。FIG. 13 is a list diagram for explaining the difference in measurement areas used by the mobile body 10 at the time of map creation and self-position estimation. 図14は、本開示による、各AGVの走行を制御する制御システムの概要を示す図である。FIG. 14 is a diagram showing an overview of a control system that controls travel of each AGV according to the present disclosure. 図15は、AGVが存在する環境の一例を示す斜視図である。FIG. 15 is a perspective view showing an example of an environment in which an AGV exists. 図16は、接続される前のAGVおよび牽引台車を示す斜視図である。FIG. 16 is a perspective view showing the AGV and tow truck before being connected. 図17は、接続されたAGVおよび牽引台車を示す斜視図である。FIG. 17 is a perspective view showing the connected AGV and tow truck. 図18は、本実施形態にかかる例示的なAGVの外観図である。FIG. 18 is an external view of an exemplary AGV according to this embodiment. 図19Aは、AGVの第1のハードウェア構成例を示す図である。FIG. 19A is a diagram illustrating a first example of the hardware configuration of the AGV. 図19Bは、AGVの第2のハードウェア構成例を示す図である。FIG. 19B is a diagram showing a second example of the hardware configuration of the AGV. 図20は、運行管理装置のハードウェア構成例を示す図である。FIG. 20 is a diagram showing an example of the hardware configuration of the traffic management device.

<用語>



「無人搬送車」(AGV:Automatic Guided Vehicle)とは、本体に人手または自動で荷物を積み込み、指示された場所まで自動走行し、人手または自動で荷卸しをする無軌道車両を意味する。「無人搬送車」は、無人牽引車および無人フォークリフトを含む。
<Term>



The term "Automatic Guided Vehicle" (AGV) refers to a trackless vehicle that loads cargo manually or automatically, travels automatically to a designated location, and unloads the vehicle manually or automatically. "Automated guided vehicle" includes an unmanned tow vehicle and an unmanned forklift.

「無人」の用語は、車両の操舵に人を必要としないことを意味しており、無人搬送車が「人(例えば荷物の積み下ろしを行う者)」を搬送することは除外しない。 The term "unmanned" means that no human is required to steer the vehicle, and does not exclude that the automated guided vehicle transports "people (for example, those who load and unload cargo)."

「無人牽引車」とは、人手または自動で荷物の積み込み荷卸しをする台車を牽引して、指示された場所まで自動走行する無軌道車両である。 An "unmanned towing vehicle" is a trackless vehicle that automatically travels to a designated location, towing a trolley that loads and unloads cargo manually or automatically.

「無人フォークリフト」とは、荷物移載用のフォークなどを上下させるマストを備え、フォークなどに荷物を自動移載し指示された場所まで自動走行し、自動荷役作業をする無軌道車両である。 An "unmanned forklift" is a trackless vehicle that is equipped with a mast that raises and lowers forks for transferring cargo, automatically transfers cargo onto the forks, automatically travels to a designated location, and performs automatic cargo handling operations.

「無軌道車両」とは、車輪と、車輪を回転させる電気モータまたはエンジンを備える移動体(vehicle)である。 A "trackless vehicle" is a vehicle that has wheels and an electric motor or engine that rotates the wheels.

「移動体」とは、人または荷物を載せて移動する装置であり、移動のための駆動力(traction)を発生させる車輪、二足または多足歩行装置、プロペラなどの駆動装置を備える。本開示における「移動体」の用語は、狭義の無人搬送車のみならず、モバイルロボット、サービスロボット、およびドローンを含む。 A "mobile object" is a device that carries people or cargo and is equipped with a driving device such as wheels, a bipedal or multipedal walking device, a propeller, etc. that generates traction for movement. The term "mobile object" in this disclosure includes not only an automatic guided vehicle in a narrow sense, but also a mobile robot, a service robot, and a drone.

「自動走行」は、無人搬送車が通信によって接続されるコンピュータの運行管理システムの指令に基づく走行と、無人搬送車が備える制御装置による自律的走行とを含む。自律的走行には、無人搬送車が所定の経路に沿って目的地に向かう走行のみならず、追尾目標に追従する走行も含まれる。また、無人搬送車は、一時的に作業者の指示に基づくマニュアル走行を行ってもよい。「自動走行」は、一般には「ガイド式」の走行および「ガイドレス式」の走行の両方を含むが、本開示では「ガイドレス式」の走行を意味する。 "Automatic driving" includes driving based on commands from a computer operation management system to which the automatic guided vehicle is connected via communication, and autonomous driving by a control device included in the automatic guided vehicle. Autonomous driving includes not only the movement of an automatic guided vehicle toward a destination along a predetermined route, but also the movement of the automated guided vehicle to follow a tracking target. Further, the automatic guided vehicle may temporarily perform manual travel based on instructions from a worker. "Automatic driving" generally includes both "guided" driving and "guideless" driving, but in this disclosure it means "guideless" driving.

「ガイド式」とは、誘導体を連続的または断続的に設置し、誘導体を利用して無人搬送車を誘導する方式である。 The "guide type" is a method in which a guide is installed continuously or intermittently, and the guide is used to guide the automatic guided vehicle.

「ガイドレス式」とは、誘導体を設置せずに誘導する方式である。本開示の実施形態における無人搬送車は、自己位置推定装置を備え、ガイドレス式で走行することができる。 The "guideless type" is a method of guiding without installing a guide. The automatic guided vehicle in the embodiment of the present disclosure is equipped with a self-position estimating device and can travel in a guideless manner.

「位置推定装置」は、レーザレンジファインダなどの外界センサによって取得されたセンサデータに基づいて地図上における自己位置を推定する装置である。 A "position estimating device" is a device that estimates one's own position on a map based on sensor data acquired by an external sensor such as a laser range finder.

「外界センサ」は、移動体の外部の状態をセンシングするセンサである。外界センサには、例えば、レーザレンジファインダ(測域センサともいう)、カメラ(またはイメージセンサ)、LIDAR(Light Detection and Ranging)、ミリ波レーダ、超音波センサ、および磁気センサがある。 The "external world sensor" is a sensor that senses the external state of a moving object. External sensors include, for example, laser range finders (also referred to as range sensors), cameras (or image sensors), LIDAR (Light Detection and Ranging), millimeter wave radars, ultrasonic sensors, and magnetic sensors.

「内界センサ」は、移動体の内部の状態をセンシングするセンサである。内界センサには、例えばロータリエンコーダ(以下、単に「エンコーダ」と称することがある)、加速度センサ、および角加速度センサ(例えばジャイロセンサ)がある。 The "internal world sensor" is a sensor that senses the internal state of a moving body. Internal sensors include, for example, rotary encoders (hereinafter sometimes simply referred to as "encoders"), acceleration sensors, and angular acceleration sensors (eg, gyro sensors).

「SLAM(スラム)」とは、Simultaneous Localization and Mappingの略語であり、自己位置推定と地図作成を同時に行うことを意味する。 "SLAM" is an abbreviation for Simultaneous Localization and Mapping, which means self-location estimation and map creation at the same time.

以下に説明する実施形態では、外界センサはレーザレンジファインダ(LRF)であるとする。ただしLIDARを採用してもよい。 In the embodiment described below, it is assumed that the external sensor is a laser range finder (LRF). However, LIDAR may also be used.

<本開示における移動体の基本構成>



図1Aを参照する。本開示の移動体10は、図1Aに示される例示的な実施形態において、環境(移動体10の周囲)をスキャンしてスキャンデータを周期的に出力するレーザレンジファインダ102を備える。以下では、レーザレンジファインダ102を「LRF102」と略記する。LRF102はレーザ素子から出射されるレーザビームを利用して距離を計測する装置である。LRF102は周期的に例えば赤外線または可視光のレーザビームを周囲に出射して環境をスキャンする。レーザビームは、例えば、壁、柱等の構造物、床の上に置かれた物体などの表面で反射される。LRF102は、レーザビームの反射光を受けて各反射点までの距離を計算し、各反射点の位置が示された測定結果のデータを出力する。各反射点の位置には、反射光の到来方向および距離が反映されている。測定結果のデータ(スキャンデータ)は、「環境計測データ」または「センサデータ」と呼ばれることがある。
<Basic configuration of mobile object in the present disclosure>



See FIG. 1A. In the exemplary embodiment shown in FIG. 1A, the mobile object 10 of the present disclosure includes a laser range finder 102 that scans the environment (around the mobile object 10) and periodically outputs scan data. Below, the laser range finder 102 will be abbreviated as "LRF102". The LRF 102 is a device that measures distance using a laser beam emitted from a laser element. The LRF 102 scans the environment by periodically emitting a laser beam of, for example, infrared or visible light. The laser beam is reflected by surfaces such as structures such as walls and pillars, and objects placed on the floor. The LRF 102 receives the reflected light of the laser beam, calculates the distance to each reflection point, and outputs measurement result data indicating the position of each reflection point. The arrival direction and distance of the reflected light are reflected in the position of each reflection point. Measurement result data (scan data) is sometimes called "environmental measurement data" or "sensor data."

距離の計算方法として、LRF102は、例えばTOF(Time Of Flight)方式または位相差方式を採用する。TOF方式では、LRF102は、レーザビームを出射時刻と、反射光の受光時刻との差からレーザビームが往復に要した時間を算出する。光速と往復時間との積が反射点までの往復の距離を示す。これにより、LRF102は反射点までの距離のデータを取得できる。位相差方式では、LRF102は連続光の強度を所定の周波数で変調して出射し、変調した出射光と受信した反射光との位相差を検出する。出射光の位相と反射光の位相との間には、反射点までの往復の距離(光路長)に応じた位相差が生じる。位相差を検出することにより、LRF102は反射点までの距離のデータを取得できる。なお、位相遅れを検出できるのは最大で360度分、すなわち一波長分である。変調周波数の異なった複数の波(複合波)等を使用することにより、距離分解能(位相分解能)および計測距離を大きくすることができる。 As a distance calculation method, the LRF 102 employs, for example, a TOF (Time Of Flight) method or a phase difference method. In the TOF method, the LRF 102 calculates the time required for the laser beam to travel back and forth from the difference between the time when the laser beam is emitted and the time when the reflected light is received. The product of the speed of light and the round trip time indicates the round trip distance to the reflection point. Thereby, the LRF 102 can acquire data on the distance to the reflection point. In the phase difference method, the LRF 102 modulates the intensity of continuous light at a predetermined frequency and emits it, and detects the phase difference between the modulated emitted light and the received reflected light. A phase difference occurs between the phase of the emitted light and the phase of the reflected light depending on the round trip distance (optical path length) to the reflection point. By detecting the phase difference, the LRF 102 can acquire data on the distance to the reflection point. Note that phase delay can be detected for a maximum of 360 degrees, that is, for one wavelength. By using multiple waves (complex waves) with different modulation frequencies, distance resolution (phase resolution) and measurement distance can be increased.

LRF102による環境のスキャンは、例えば、LRF102の正面を基準として左右135度(合計270度)の角度範囲の環境に対して行われる。具体的には、LRF102は、水平面内において所定のステップ角度ごとに方向を変化させながらパルス状のレーザビームを出射し、各レーザビームの反射光を検出する。LRF102は、出射したレーザビームと反射光との関係を利用して、ステップ角度ごとに距離を計測する。ステップ角度が0.3度であれば、合計901ステップ分の角度で決まる方向における反射点までの距離の測定データを得ることができる。この例において、LRF102が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかし、LRF102は、三次元的なスキャンを行ってもよい。 The environment scan by the LRF 102 is performed, for example, in an angular range of 135 degrees left and right (total 270 degrees) with the front of the LRF 102 as a reference. Specifically, the LRF 102 emits a pulsed laser beam while changing its direction at every predetermined step angle within a horizontal plane, and detects the reflected light of each laser beam. The LRF 102 measures the distance for each step angle using the relationship between the emitted laser beam and the reflected light. If the step angle is 0.3 degrees, measurement data of the distance to the reflection point in the direction determined by the angle for a total of 901 steps can be obtained. In this example, the scan of the surrounding space performed by the LRF 102 is substantially parallel to the floor and is planar (two-dimensional). However, the LRF 102 may also perform three-dimensional scanning.

LRF102は、設計時に計測が保証される距離が決められている。本開示では、LRF102は、例えば30mの距離以内に存在する反射点までの距離を示す距離データを取得することが可能である。 For the LRF 102, the distance at which measurement is guaranteed is determined at the time of design. In the present disclosure, the LRF 102 can acquire distance data indicating the distance to a reflection point that is within a distance of, for example, 30 m.

以下では、270度の範囲のスキャンの開始時刻を便宜的に「スキャン時刻」と称することがある。例えば-135度から+135度までステップ角度ごとに順次レーザビームを出射してスキャンを行う場合、-135度の角度方向にレーザビームを出射した時刻を「スキャン時刻」と呼ぶ。 Hereinafter, the start time of the scan in the 270 degree range may be referred to as "scan time" for convenience. For example, when scanning is performed by sequentially emitting a laser beam at each step angle from -135 degrees to +135 degrees, the time when the laser beam is emitted in the angular direction of -135 degrees is called the "scan time".

スキャンデータの典型例は、スキャンごとに取得される点群(point cloud)を構成する各点の位置座標によって表現され得る。点の位置座標は、移動体10とともに移動するローカル座標系によって規定される。このようなローカル座標系は、移動体座標系またはセンサ座標系と呼ばれ得る。本開示においては、移動体10に固定されたローカル座標系の原点を移動体10の「位置」と定義し、ローカル座標系の向き(orientation)を移動体10の「姿勢」と定義する。以下、位置および姿勢を合わせて「ポーズ」と称することがある。 A typical example of scan data may be represented by the position coordinates of each point making up a point cloud acquired for each scan. The position coordinates of the points are defined by a local coordinate system that moves together with the moving body 10. Such a local coordinate system may be called a mobile coordinate system or a sensor coordinate system. In the present disclosure, the origin of the local coordinate system fixed to the moving body 10 is defined as the "position" of the moving body 10, and the orientation of the local coordinate system is defined as the "posture" of the moving body 10. Hereinafter, the position and posture may be collectively referred to as a "pose."

スキャンデータは、極座標系で表示される場合、各点の位置をローカル座標系における原点からの「方向」および「距離」で示す数値セットから構成され得る。ただし、反射光が検出されなかった場合には、当該角度についての点は存在しない。極座標系の表示は、直交座標系の表示に変換され得る。以下の説明では、簡単のため、LRF102から出力されたスキャンデータは、直交座標系で表示されているとする。 When displayed in a polar coordinate system, the scan data may consist of a set of numerical values indicating the position of each point in terms of "direction" and "distance" from the origin in the local coordinate system. However, if no reflected light is detected, no point exists for that angle. A polar coordinate system representation may be converted to a rectangular coordinate system representation. In the following description, for the sake of simplicity, it is assumed that the scan data output from the LRF 102 is displayed in an orthogonal coordinate system.

図1Aに示す移動体10は、環境地図(以下、「地図」と称する)の作成を行うこと、および、作成された地図を参照しながら自律的に移動すること、のいずれをも行うことができる。ただし、移動体10が両方行うことは必須ではない。本実施形態においては、少なくとも地図の作成を行うことができればよい。 The mobile object 10 shown in FIG. 1A is capable of both creating an environmental map (hereinafter referred to as a "map") and moving autonomously while referring to the created map. can. However, it is not essential for the moving body 10 to perform both. In this embodiment, it is only necessary to be able to at least create a map.

移動体10は、ストレージ装置104と、信号処理回路106とを備える。ストレージ装置104は、地図作成時にはスキャンデータを蓄積しつつ当該スキャンデータから作成した地図を格納し、更新し、自律移動時には予め作成された地図を格納する。なお、格納される地図は1つでなく複数であり得る。 The mobile body 10 includes a storage device 104 and a signal processing circuit 106. The storage device 104 stores and updates a map created from the scan data while accumulating scan data when creating a map, and stores a map created in advance during autonomous movement. Note that the number of stored maps may be not one but multiple.

信号処理回路106は、例えば半導体集積回路であり、CPU(Central Processing Unit)、MPU(Micro Processing Unit)またはASIC(Application Specific IC)であり得る。信号処理回路106は、地図の作成時には地図作成装置として動作し、地図作成後の自律移動時には位置推定装置として動作する。 The signal processing circuit 106 is, for example, a semiconductor integrated circuit, and may be a CPU (Central Processing Unit), an MPU (Micro Processing Unit), or an ASIC (Application Specific IC). The signal processing circuit 106 operates as a map creation device when creating a map, and operates as a position estimating device during autonomous movement after map creation.

地図の作成時には、信号処理回路106は、LRF102から取得したスキャンデータの点群を、レーザビームを照射した角度および距離に従って配列する。これにより、そのスキャン範囲に関する部分地図が得られる。続いて信号処理回路106は、次のスキャン時刻のスキャンによって得られた点群をその位置座標を用いて当該部分地図を更新する。ここで言う「位置座標」は、先にスキャンデータを取得した位置を基準とした相対座標、または、ユーザが便宜的に設定した絶対座標で表現され得る。上述の処理を繰り返すことにより、部分地図が逐次更新され、最終的にはスキャンした領域全体の地図が得られる。 When creating a map, the signal processing circuit 106 arranges a point group of scan data acquired from the LRF 102 according to the angle and distance at which the laser beam was irradiated. As a result, a partial map regarding the scan range is obtained. Subsequently, the signal processing circuit 106 updates the partial map using the position coordinates of the point group obtained by scanning at the next scan time. The "positional coordinates" referred to here may be expressed as relative coordinates based on the position where the scan data was previously acquired, or as absolute coordinates conveniently set by the user. By repeating the above process, the partial map is updated one after another, and finally a map of the entire scanned area is obtained.

なお、ポーズの変化は、例えば移動体10のオドメトリ情報を利用して検出することができる。移動体10が複数の駆動輪を有するAGVである場合を例示すると、各駆動輪の回転速度、または単位時間当たりの回転数を積算すると、移動体10が移動した距離および方向を推定することができる。各駆動輪の回転速度、または単位時間当たりの回転数の情報は「オドメトリ情報」と呼ばれることがある。オドメトリ情報を利用して移動体10のポーズの変化を検出することにより、新たな点群が、地図上のどの位置で取得されたかを推定することができる。オドメトリ情報は、車輪の空転または摩耗などの要因によって誤差を生じやすい。そのため移動体10は、LRF102を利用するSLAM技術により、ポーズの変化を検出しながら地図を作成してもよい。なお移動体10は、地図の作成時に限らず、自己位置を推定しながら移動する際にもオドメトリ情報を利用することもできる。移動体10は、LRF102によるスキャンとオドメトリ情報とを両方用いて自己位置を推定し得る。 Note that the change in pose can be detected using, for example, odometry information of the moving object 10. For example, if the moving body 10 is an AGV having multiple drive wheels, the distance and direction traveled by the moving body 10 can be estimated by integrating the rotational speed of each drive wheel or the number of rotations per unit time. can. Information about the rotational speed of each drive wheel or the number of rotations per unit time is sometimes called "odometry information." By detecting changes in the pose of the moving object 10 using odometry information, it is possible to estimate at which position on the map the new point group was acquired. Odometry information is prone to errors due to factors such as wheel slipping or wear. Therefore, the mobile object 10 may create a map while detecting pose changes using SLAM technology using the LRF 102. Note that the mobile object 10 can use odometry information not only when creating a map but also when moving while estimating its own position. The mobile object 10 can estimate its own position using both the scan by the LRF 102 and the odometry information.

異なるスキャン時刻にそれぞれスキャンが行われて得られた複数組の点群には、環境内に存在する同じ物体の概ね同様の位置を示す反射点が含まれ得る。全てを別個独立した点として地図に反映すると地図データのデータ量が非常に大きくなる。そこで信号処理回路106は、データ量を制限するため、地図をメッシュ状に分け、メッシュの1区画には1個の反射点のみが含まれるようスキャンデータの数を制限してもよい。メッシュの1区画のサイズは、例えば実際の環境の10cm四方であり得る。 A plurality of sets of points obtained by respectively performing scans at different scan times may include reflection points indicating approximately similar positions of the same object existing in the environment. If all the points were reflected on the map as separate and independent points, the amount of map data would become extremely large. Therefore, in order to limit the amount of data, the signal processing circuit 106 may divide the map into meshes and limit the number of scan data so that one section of the mesh includes only one reflection point. The size of one section of the mesh may be, for example, 10 cm square in the actual environment.

地図作成後の自律移動時には、信号処理回路106は、LRF102から取得したスキャンデータと、ストレージ装置104から読み出された地図とのマッチングを行い、移動体10のポーズを推定する。このマッチングは、パターンマッチングまたはスキャンマッチングと呼ばれ、種々のアルゴリズムにしたがって実行され得る。マッチングアルゴリズムの典型例は、Iterative Closest Point (ICP:反復最近接点)アルゴリズムである。なお、ストレージ装置104から読み出される地図は、移動体10自身が作成した地図であってもよいし、他の装置が作成した地図であってもよい。 During autonomous movement after map creation, the signal processing circuit 106 performs matching between the scan data acquired from the LRF 102 and the map read from the storage device 104, and estimates the pose of the mobile object 10. This matching is called pattern matching or scan matching, and can be performed according to various algorithms. A typical example of a matching algorithm is the Iterative Closest Point (ICP) algorithm. Note that the map read from the storage device 104 may be a map created by the mobile object 10 itself, or may be a map created by another device.

図示されている例において、移動体10は、さらに、駆動装置108、走行制御装置110、通信回路112および入力装置114を備えている。駆動装置108は、移動体10が移動するための駆動力を発生する装置である。駆動装置108の例は、電気モータまたはエンジンによって回転する車輪(駆動輪)、モータまたは他のアクチュエータによって動作する二足または多足歩行装置を含む。車輪は、メカナムホイールなどの全方位ホイールであってもよい。また、移動体10は、空中または水中を移動する移動体、あるいはホバークラフトであってもよく、その場合の駆動装置108は、モータによって回転するプロペラを含む。 In the illustrated example, the moving body 10 further includes a drive device 108, a travel control device 110, a communication circuit 112, and an input device 114. The drive device 108 is a device that generates a driving force for moving the moving body 10. Examples of drive devices 108 include wheels rotated by electric motors or engines, bipedal or multipedal walking devices operated by motors or other actuators. The wheels may be omnidirectional wheels such as mecanum wheels. Furthermore, the moving object 10 may be a moving object that moves in the air or water, or a hovercraft, and the drive device 108 in that case includes a propeller rotated by a motor.

走行制御装置110は、駆動装置108を操作して移動体10の移動条件(速度、加速度、移動方向など)を制御する。走行制御装置110は、所定の走行経路に沿って移動体10を移動させてもよく、外部から与えられる指令にしたがって移動させてもよい。信号処理回路106は、移動体10の移動中または停止中において、移動体10の位置および姿勢の推定値を算出する。走行制御装置110は、この推定値を参照して移動体10の走行を制御する。 The travel control device 110 operates the drive device 108 to control movement conditions (speed, acceleration, movement direction, etc.) of the mobile body 10. The travel control device 110 may move the moving body 10 along a predetermined travel route, or may move the moving body 10 according to a command given from the outside. The signal processing circuit 106 calculates estimated values of the position and orientation of the moving body 10 while the moving body 10 is moving or stopped. The travel control device 110 controls the travel of the mobile object 10 with reference to this estimated value.

信号処理回路106および走行制御装置110を、全体として、走行制御装置(制御システム)120と呼んでもよい。走行制御装置120は、プロセッサと、プロセッサの動作を制御するコンピュータプログラムを格納したメモリによって構成され得る。このようなプロセッサおよびメモリは、1個または複数の半導体集積回路によって実現され得る。 The signal processing circuit 106 and the cruise control device 110 may be collectively referred to as a cruise control device (control system) 120. Travel control device 120 may include a processor and a memory that stores a computer program that controls the operation of the processor. Such a processor and memory may be implemented by one or more semiconductor integrated circuits.

通信回路112は、移動体10が外部の管理装置、他の移動体、または操作者のモバイル端末機器などを含む通信ネットワークに接続してデータおよび/または指令のやりとりを行う回路である。通信回路112は、無線通信および/または有線通信のいずれも行い得る。 The communication circuit 112 is a circuit through which the mobile body 10 connects to a communication network including an external management device, another mobile body, an operator's mobile terminal device, etc., and exchanges data and/or commands. Communication circuit 112 may perform both wireless and/or wired communication.

入力装置114はユーザの指示を受け付ける装置である。入力装置114は、後述する地図作成時に、地図作成に利用される点群の検出範囲(距離、角度範囲)の指定を受け付けるために利用され得る。また入力装置114は、移動条件、走行経路に関する指令の入力を受け付けるためにも利用され得る。入力装置114は、例えば、外部からの指令を受け付ける入力端子、または移動体10に設けられた物理的なボタンである。移動体10にタッチパネルディスプレイが設けられている場合には、入力装置114はタッチパネルまたはソフトウェアボタンであり得る。 The input device 114 is a device that accepts user instructions. The input device 114 can be used to receive a designation of a detection range (distance, angle range) of a point cloud used for map creation when creating a map, which will be described later. The input device 114 can also be used to receive commands regarding travel conditions and travel routes. The input device 114 is, for example, an input terminal that receives commands from the outside, or a physical button provided on the moving body 10. If mobile body 10 is provided with a touch panel display, input device 114 may be a touch panel or software buttons.

上述のストレージ装置104の典型例は、移動体10に搭載され、移動体10とともに移動する記憶装置によって実現されている。しかし、ストレージ装置104は、この例に限定されない。ストレージ装置104は、移動体10の外部に位置し、通信回路112によって移動体10に接続され得る記憶装置またはデータベースであってもよい。このような外部の記憶装置またはデータベースによってストレージ装置104が実現されている場合、地図の作成に利用され得るスキャンデータが移動体10からストレージ装置104へと送信された後、移動体10以外の信号処理回路が地図の作成を行ってもよい。つまり、移動体10が地図の作成を行うことは必須ではない。また、複数の移動体10が共通のストレージ装置104から必要な地図のデータを適宜読み出し、自律走行を行うことも可能になる。 A typical example of the storage device 104 described above is realized by a storage device that is mounted on the mobile body 10 and moves together with the mobile body 10. However, the storage device 104 is not limited to this example. Storage device 104 may be a storage device or a database that is located external to mobile 10 and can be connected to mobile 10 by communication circuitry 112. When the storage device 104 is realized by such an external storage device or database, after scan data that can be used for map creation is transmitted from the mobile body 10 to the storage device 104, signals from other than the mobile body 10 are transmitted. The processing circuit may also create the map. In other words, it is not essential for the mobile object 10 to create a map. Furthermore, it is also possible for a plurality of moving objects 10 to read necessary map data from a common storage device 104 as appropriate and perform autonomous driving.

図1Bは、本開示による地図作成システム300の実施形態の構成を示している。地図作成システム300は、移動体10が自己位置を推定するために参照する地図を作成する。地図作成システム300は、LRF102および信号処理回路106を有している。これらの構成および機能は、図1Aに示す移動体10に設けられたLRF102および信号処理回路106の構成および機能と同じである。ただし信号処理回路106は、地図の作成処理を行う機能のみ有していればよく、自律走行のための位置推定処理は必須ではない。 FIG. 1B shows the configuration of an embodiment of a mapping system 300 according to the present disclosure. The map creation system 300 creates a map that the mobile object 10 refers to in order to estimate its own position. The map creation system 300 includes an LRF 102 and a signal processing circuit 106. These configurations and functions are the same as those of the LRF 102 and signal processing circuit 106 provided in the mobile body 10 shown in FIG. 1A. However, the signal processing circuit 106 only needs to have a function of performing map creation processing, and position estimation processing for autonomous driving is not essential.

地図作成システム300は、移動体10のような1台の装置内に設けられてもよいし、LRF102および信号処理回路106が2つの装置として別個独立した筐体を有していてもよい。後者の場合、各装置はデータの送受信できるよう、相互に通信回線で接続されていればよい。例えば信号処理回路106が1台のPCで実現され、LRF102が人力で移動する台車に設置されてもよい。そしてPCとLRF102とが有線または無線で接続されていればよい。信号処理回路106が作成した地図のデータを格納するストレージ装置104を適宜設けてもよい。例えば信号処理回路106およびストレージ装置104はそれぞれ、後に図14および図20を参照しながら説明する運行管理装置50のCPU51およびメモリ52であり得る。他の例として、地図作成システム300は、LRF102が取得したスキャンデータをフラッシュメモリ等の記憶装置に一旦保存し、当該記憶装置を信号処理回路106に接続して信号処理回路106が地図を作成する形態も含み得る。 The map creation system 300 may be provided in one device such as the mobile object 10, or the LRF 102 and the signal processing circuit 106 may have separate and independent casings as two devices. In the latter case, the devices only need to be connected to each other via communication lines so that they can send and receive data. For example, the signal processing circuit 106 may be realized by one PC, and the LRF 102 may be installed on a cart that is moved manually. It is only necessary that the PC and the LRF 102 be connected by wire or wirelessly. A storage device 104 for storing map data created by the signal processing circuit 106 may be provided as appropriate. For example, the signal processing circuit 106 and the storage device 104 may be the CPU 51 and the memory 52 of the traffic management device 50, which will be described later with reference to FIGS. 14 and 20, respectively. As another example, the map creation system 300 temporarily stores the scan data acquired by the LRF 102 in a storage device such as a flash memory, connects the storage device to the signal processing circuit 106, and the signal processing circuit 106 creates the map. It can also include form.

次に、図1Aの移動体10を例示しながら、従来の地図作成方法には精度を向上させる余地が大きいことを説明する。 Next, while illustrating the mobile object 10 of FIG. 1A, it will be explained that there is a large scope for improving accuracy in the conventional map creation method.

図2は、移動体10のLRF102から出射される、ステップ角度ごとの複数のレーザビーム(実線)を模式的に示している。説明の便宜のためステップ角度を非常に大きく示している。以下、レーザビーム15aに注目して説明するが、他のレーザビームでも同様の説明が当てはまる。 FIG. 2 schematically shows a plurality of laser beams (solid lines) emitted from the LRF 102 of the moving body 10 for each step angle. For convenience of explanation, the step angle is shown very large. The following explanation will focus on the laser beam 15a, but the same explanation applies to other laser beams.

出射されたレーザビームは、コリメートレンズを通した後も完全な平行光になることはなく、0度ではない発散角を有する。したがって、光軸に垂直な平面によるレーザビームの断面は遠方に行くほど大きくなる。図2ではレーザビーム15aは直線で示されているが、実際には、広がりを有するビーム15wが出射される。なおビーム15wの形状も模式的に示しているに過ぎない。本開示ではLRF102が行う周囲の空間のスキャンは実質的に床面に平行であるとしているため、床面に垂直な方向に関するレーザビームの広がりは考慮していない。 The emitted laser beam does not become perfectly parallel light even after passing through the collimating lens, and has a divergence angle that is not 0 degrees. Therefore, the cross section of the laser beam on a plane perpendicular to the optical axis becomes larger as it goes farther away. In FIG. 2, the laser beam 15a is shown as a straight line, but in reality, a beam 15w having a spread is emitted. Note that the shape of the beam 15w is also only shown schematically. In the present disclosure, since the scanning of the surrounding space performed by the LRF 102 is substantially parallel to the floor surface, the spread of the laser beam in the direction perpendicular to the floor surface is not considered.

このような広がりを有するレーザビームは、物体が存在する方向の検出誤差を生じさせ得る。 A laser beam with such a spread can cause a detection error in the direction in which an object exists.

図3は、広がりを有するレーザビーム15wの検出誤差を説明するための図である。LRF102から角度θaの方向にレーザビームが出射されたとする。角度は任意の基準線Sから起算した角度である。径が一定で、かつ十分細いと仮定すれば、レーザビーム15aが出射されることになる。レーザビーム15aは光軸上に存在する物体Gaのみで反射され、LRF102に戻る。レーザビーム15aは、光軸からずれた角度θbまたは角度θcの方向に存在する物体Gbまたは物体Gcでは反射されない。 FIG. 3 is a diagram for explaining the detection error of the laser beam 15w having a spread. Assume that a laser beam is emitted from the LRF 102 in the direction of an angle θa. The angle is an angle calculated from an arbitrary reference line S. Assuming that the diameter is constant and sufficiently thin, a laser beam 15a will be emitted. The laser beam 15a is reflected only by the object Ga existing on the optical axis and returns to the LRF 102. The laser beam 15a is not reflected by the object Gb or Gc that exists in the direction of the angle θb or the angle θc that is deviated from the optical axis.

しかしながら上述のように、LRF102からは広がりを有するレーザビーム15wが放射される。レーザビーム15wは角度θaの方向に存在する物体Gaのみならず、角度θbの方向に存在する物体Gb、および、角度θcの方向に存在する物体Gcでも反射される。つまり、角度θbからθcの間に存在する物体が全て角度θaの方向に存在する物体であるとして検出される。その結果、検出誤差を生じさせる。 However, as described above, the laser beam 15w having a spread is emitted from the LRF 102. The laser beam 15w is reflected not only by the object Ga existing in the direction of the angle θa, but also by the object Gb existing in the direction of the angle θb and the object Gc existing in the direction of the angle θc. That is, all objects existing between angles θb and θc are detected as objects existing in the direction of angle θa. As a result, a detection error occurs.

図4は、広がりを有するレーザビーム15wが検出誤差を増大させることを説明するための図である。レーザビーム15wは、LRF102から距離L1だけ離れた位置では幅HL1の幅を有するが、距離L2(>L1)だけ離れた位置では幅HL2(>HL1)を有する。幅HL2内に存在する物体は全て、その角度方向に存在する物体として検出される。レーザビーム15wは、距離L1の位置で反射された場合よりも距離L2の位置で反射された場合の方が、より大きな検出誤差を生じさせることが理解される。具体的には、L2=30mの場合、HL2=30~40cmにもなり得る。そのような検出誤差を生じさせるレーザビーム15wを用いてスキャンを行うと、実際に存在する物体がより大きな物体として検出される。 FIG. 4 is a diagram for explaining that the laser beam 15w having a spread increases the detection error. The laser beam 15w has a width H L1 at a position away from the LRF 102 by a distance L1, but has a width H L2 (>H L1 ) at a position away from the LRF 102 by a distance L2 (> L1 ). All objects existing within the width H L2 are detected as objects existing in that angular direction. It is understood that a larger detection error occurs when the laser beam 15w is reflected at a distance L2 than when it is reflected at a distance L1. Specifically, when L2 = 30 m, H L2 = 30 to 40 cm. When scanning is performed using the laser beam 15w that causes such a detection error, an actually existing object is detected as a larger object.

図5は、実際に存在する物体Grealが、より大きな物体Gvirtualとして検出されることを説明するための図である。図の-Xから+X方向に沿ってスキャンが行われるとする。まず、幅を有するレーザビーム15w-1の+X側のビーム端でGrealの初めての反射が検出される。その結果、物体Grealは、実際よりも-X側にビームの半径分だけ広がった位置に端部を有すると検出される。スキャンが継続され、幅を有するレーザビーム15w-2の-X側のビーム端で物体Grealの最後の反射が検出される。その結果、物体Grealは、実際よりも+X側にビームの半径分だけ広がった位置に端部を有すると検出される。つまり、実際の物体Grealは、より大きな物体Gvirtualとして検出される。図4を参照しながら説明したように、反射がより遠方で生じるほど検出誤差が大きくなり、物体Gvirtualは実際の物体Grealよりも大きく検出されてしまう。 FIG. 5 is a diagram for explaining that an actually existing object G real is detected as a larger object G virtual . Assume that scanning is performed along the direction from -X to +X in the figure. First, the first reflection of G real is detected at the +X side beam end of the wide laser beam 15w-1. As a result, the object G real is detected to have an end at a position that is wider on the -X side than it actually is by the radius of the beam. The scan continues, and the last reflection of the object G real is detected at the -X side beam end of the wide laser beam 15w-2. As a result, the object G real is detected to have an end at a position that is wider than the actual position on the +X side by the radius of the beam. That is, the actual object G real is detected as a larger object G virtual . As described with reference to FIG. 4, the farther away the reflection occurs, the larger the detection error becomes, and the object G virtual is detected to be larger than the actual object G real .

図6Aは、移動体10が移動する環境200の例を模式的に示す平面レイアウト図である。環境200は、より広い環境の一部である。図6Aにおいて、太い直線は、例えば建造物の固定壁202を示している。移動体10が図6Aに示す位置でスキャンを行い、地図を作成するとする。 FIG. 6A is a plan layout diagram schematically showing an example of an environment 200 in which the mobile object 10 moves. Environment 200 is part of a broader environment. In FIG. 6A, a thick straight line indicates, for example, a fixed wall 202 of a building. Assume that the mobile object 10 performs a scan at the position shown in FIG. 6A and creates a map.

図6Bは、取得された点群を並べて作成された地図202Mを示している。参考のため、建造物の固定壁202を実線で示している。点群202M-1、202M-2および202M-3に含まれる各点の位置の検出誤差は、移動体10から遠い位置ほど大きくなり、地図の歪みが大きくなる。このような歪みの存在は、その地図を参照して自律走行する他の移動体10の走行精度に影響を及ぼす。 FIG. 6B shows a map 202M created by arranging the acquired point clouds. For reference, the fixed wall 202 of the building is shown as a solid line. The detection error of the position of each point included in the point groups 202M-1, 202M-2, and 202M-3 increases as the position is farther from the moving body 10, and the distortion of the map increases. The existence of such distortion affects the running accuracy of other moving objects 10 that autonomously move while referring to the map.

本願発明者は、作成する地図の精度を向上させ、自律走行時に自己位置をより正確に推定することを可能にするための検討を行った。その結果、本願発明者は、レーザビーム15wの検出誤差が実際に地図の精度に影響を与え得るのは、遠方から受けた反射光の強度が大きい場合であると考えた。例えば、遠方の物体表面でレーザビーム15wの鏡面反射や再帰反射が発生した場合には、反射光の強度が大きくなる。鏡面反射や再帰反射が発生しなければ、広がったレーザビーム15wの外縁部分が遠方の物体表面で反射されたとしても、その反射光の強度は小さくノイズとして処理され反射点の位置の検出誤差は実質的には生じない。しかしながら遠方の物体表面で鏡面反射や再帰反射が発生する場合には、広がったレーザビーム15wの外縁部分からの反射光の強度も大きいためノイズとして処理されず、反射点の位置の検出誤差を無視できなくなる。その結果、その反射点の位置を利用して地図を作成すると、歪みが大きくなる。 The inventors of the present application have conducted studies to improve the accuracy of maps to be created and to make it possible to more accurately estimate one's own position during autonomous driving. As a result, the inventor of the present invention considered that the detection error of the laser beam 15w can actually affect the accuracy of the map when the intensity of reflected light received from a distance is large. For example, when specular reflection or retroreflection of the laser beam 15w occurs on the surface of a distant object, the intensity of the reflected light increases. If specular reflection or retroreflection does not occur, even if the outer edge of the expanded laser beam 15w is reflected on the surface of a distant object, the intensity of the reflected light will be small and it will be treated as noise, resulting in a detection error in the position of the reflection point. It does not actually occur. However, when specular reflection or retroreflection occurs on the surface of a distant object, the intensity of the reflected light from the outer edge of the expanded laser beam 15w is also large, so it is not treated as noise, and the detection error of the position of the reflection point is ignored. become unable. As a result, if a map is created using the position of the reflection point, distortion will become large.

上記検討を経て、本願発明者は、以下の地図作成システムを得た。 Through the above studies, the inventor of the present application obtained the following map creation system.

本開示による地図作成システム300(図1B)は、LRF102と信号処理回路106とを有している。LRF102は、第1角度範囲内(例えば270度の範囲内)で角度を変えながらレーザビームを出射して反射光を取得する。そしてLRF102は、出射したレーザビームと反射光との関係を利用して、角度ごとに、計測可能な第1距離以内(例えば30m以内)に存在する反射点までの距離を示す距離データを取得する。ここでいう「関係」を例示すると、例えばレーザビームの出射時刻と反射光の検出時刻との時間差、あるいは出射したレーザビームの位相と反射光の位相との位相差、である。 A map creation system 300 (FIG. 1B) according to the present disclosure includes an LRF 102 and a signal processing circuit 106. The LRF 102 emits a laser beam while changing the angle within a first angle range (for example, within a range of 270 degrees) and acquires reflected light. Then, the LRF 102 uses the relationship between the emitted laser beam and the reflected light to acquire distance data indicating the distance to a reflection point that is within a first measurable distance (for example, within 30 m) for each angle. . Examples of the "relationship" here include, for example, the time difference between the emission time of the laser beam and the detection time of the reflected light, or the phase difference between the phase of the emitted laser beam and the phase of the reflected light.

信号処理回路106は、第1角度範囲および第1距離によって規定される計測可能領域の中から、計測可能領域よりも小さい1以上の部分領域を選択し、1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する。計測可能領域よりも小さい1以上の部分領域の例は、典型的には以下の2つである。 The signal processing circuit 106 selects one or more partial areas smaller than the measurable area from the measurable area defined by the first angular range and the first distance, and selects one or more partial areas smaller than the measurable area, and calculates the reflection included in the one or more partial areas. Create a map using distance data that shows distances to points. Examples of one or more partial areas smaller than the measurable area are typically the following two.

第1例では、第1角度範囲(例えば270度の範囲)と、第1距離よりも短い少なくとも1つの第2距離(例えば10m)とによって規定される部分領域が選択される。これは、比較的近い範囲に存在する物体の反射点を用いて地図を作成することを意味する。第2距離は固定であってもよいし、可変であってもよい。 In a first example, a partial area defined by a first angular range (for example a range of 270 degrees) and at least one second distance shorter than the first distance (for example 10 m) is selected. This means that a map is created using reflection points of objects that exist in a relatively close range. The second distance may be fixed or variable.

第2例では、第1角度範囲(例えば270度の範囲)よりも小さい少なくとも1つの第2角度範囲(例えば120度の範囲)と、第1距離(例えば30m)とによって規定される部分領域が選択される。第2例は、一部の角度範囲を除外した残りの角度範囲からの反射光を利用して地図を作成することを想定している。第2例では、反射点が存在する距離に応じて、反射光の強度の閾値(強度閾値)が設定される。第1距離(30m)近傍から強い反射光が得られたような場合には、スキャンデータとして採用し得るものの検出誤差が大きくなる。そこで信号処理回路106は、物体の反射点までの距離に応じた強度閾値と反射光の強度とを比較し、反射光の強度が強度閾値より大きい場合には、その反射光が到来した方向を含む角度範囲を除外する。そして信号処理回路106は、残された少なくとも1つの第2角度範囲に存在する反射点を用いて地図を作成する。第2角度範囲は可変であり得る。移動体10が走行することにより、強い反射光が受信される方向が変わり得るからである。 In a second example, the partial area is defined by at least one second angular range (e.g. 120 degrees) smaller than the first angular range (e.g. 270 degrees) and the first distance (e.g. 30 m). selected. The second example assumes that a map is created using reflected light from the remaining angular ranges after excluding some angular ranges. In the second example, a threshold for the intensity of reflected light (intensity threshold) is set depending on the distance at which the reflection point exists. If strong reflected light is obtained near the first distance (30 m), the detection error of what can be adopted as scan data becomes large. Therefore, the signal processing circuit 106 compares the intensity of the reflected light with an intensity threshold corresponding to the distance to the reflection point of the object, and if the intensity of the reflected light is greater than the intensity threshold, the signal processing circuit 106 determines the direction from which the reflected light has arrived. Exclude angle range to include. The signal processing circuit 106 then creates a map using the remaining reflection points existing in the at least one second angle range. The second angular range may be variable. This is because the direction in which the strong reflected light is received may change as the moving body 10 travels.

移動体10が移動することにより、移動体10と物体との相対的な距離が変化する。除外された角度範囲について、信号処理回路106は、刻々変化する物体の反射点までの距離に応じた強度閾値と、反射光の強度との比較を継続する。反射光の強度が強度閾値以下になれば、信号処理回路106は、当該強度閾値以下の範囲を上述の第2角度範囲に組み込み、当該第2角度範囲に存在する反射点を用いて地図を作成する。 As the moving body 10 moves, the relative distance between the moving body 10 and the object changes. For the excluded angular range, the signal processing circuit 106 continues to compare the intensity of the reflected light with an intensity threshold value corresponding to the distance to the reflection point of the object, which changes every moment. When the intensity of the reflected light falls below the intensity threshold, the signal processing circuit 106 incorporates the range below the intensity threshold into the second angular range, and creates a map using the reflection points existing in the second angular range. do.

以下、図7から図10を参照しながら、上述の第1例および第2例を具体的に説明する。 Hereinafter, the above-mentioned first and second examples will be specifically explained with reference to FIGS. 7 to 10.

図7は、移動体10および移動体10の計測可能領域SAを示している。計測可能領域SAは、角度範囲θと、最大計測距離LMAXとによって規定される。基本的な移動体10は白矢印の方向に移動しながら計測可能領域SA内で検出された反射点を用いて地図を作成し、または、計測可能領域SA内で検出された反射点と地図とを照合し、自律移動を行う。 FIG. 7 shows the moving body 10 and the measurable area SA of the moving body 10. The measurable area SA is defined by the angle range θ and the maximum measurement distance L MAX . The basic moving object 10 creates a map using reflection points detected within the measurable area SA while moving in the direction of the white arrow, or creates a map using reflection points detected within the measurable area SA and the map. The robot then moves autonomously.

まず、上述の第1例を説明する。第1例は、地図の作成に利用する反射点の検出領域をより小さい領域に固定する例である。 First, the above-mentioned first example will be explained. The first example is an example in which the detection area of reflection points used for map creation is fixed to a smaller area.

図8Aは、計測可能領域SAと、移動体10が地図作成時に利用する部分領域SBとの関係を示している。図8Aに示されるように、部分領域SBは計測可能領域SAよりも小さい。より具体的には、部分領域SBは、計測可能領域SAと同じ角度範囲θと、計測可能領域SAの最大計測距離LMAXよりも小さい距離閾値LTHとによって規定される。移動体10は、部分領域SB内で掲出された反射点を用いて地図を作成する。図8Aに示される物体Gを例に挙げて説明する。物体Gは、例えば環境内に設置された棚である。なお、以下の説明では物体Gが角度範囲θに存在することを前提として、距離に注目して説明する。 FIG. 8A shows the relationship between the measurable area SA and the partial area SB used by the mobile object 10 when creating a map. As shown in FIG. 8A, the partial area SB is smaller than the measurable area SA. More specifically, the partial area SB is defined by the same angle range θ as the measurable area SA and a distance threshold L TH that is smaller than the maximum measurement distance L MAX of the measurable area SA. The mobile object 10 creates a map using the reflection points posted within the partial area SB. The object G shown in FIG. 8A will be explained as an example. The object G is, for example, a shelf installed in the environment. Note that the following explanation will focus on distance, assuming that the object G exists within the angular range θ.

図8Bは、移動体10が移動して物体Gに接近したときの移動体10と物体Gとの位置関係を示している。LRF102は、計測可能領域SAに含まれるが部分領域SBに含まれない領域(部分領域SBの外側の領域)の反射点も計測する。よって、LRF102の出力には物体G上の反射点までの距離は含まれている。しかしながら信号処理回路106は、距離閾値LTHよりも遠い位置に存在する物体G上の反射点を利用した地図の作成を行わない。 FIG. 8B shows the positional relationship between the moving body 10 and the object G when the moving body 10 moves and approaches the object G. The LRF 102 also measures reflection points in an area that is included in the measurable area SA but not included in the partial area SB (an area outside the partial area SB). Therefore, the output of the LRF 102 includes the distance to the reflection point on the object G. However, the signal processing circuit 106 does not create a map using reflection points on the object G located at a position farther than the distance threshold LTH .

図8Cは、移動体10がさらに移動して物体Gに接近したときの移動体10と物体Gとの位置関係を示している。信号処理回路106は、物体G上の反射点までの距離が距離閾値LTH以下であることを検出すると、当該反射点までの距離データを利用して地図を作成する。図8Cには、物体Gの移動体10側の面における反射点の位置を示す点群204が示されている。 FIG. 8C shows the positional relationship between the moving body 10 and the object G when the moving body 10 moves further and approaches the object G. When the signal processing circuit 106 detects that the distance to the reflection point on the object G is less than or equal to the distance threshold LTH, it creates a map using the distance data to the reflection point. FIG. 8C shows a point group 204 indicating the positions of reflection points on the surface of the object G on the moving body 10 side.

上述の処理は、信号処理回路106が、計測可能領域SAの中から部分領域SBを選択し、部分領域SBに含まれる領域からの反射点を利用して地図を作成することを意味する。これにより、距離閾値LTHよりも遠い反射点の位置に含まれ得る検出誤差(歪み)をより小さく抑えることができる。 The above processing means that the signal processing circuit 106 selects the partial area SB from the measurable area SA and creates a map using reflection points from areas included in the partial area SB. Thereby, the detection error (distortion) that may be included in the position of the reflection point farther than the distance threshold LTH can be suppressed to a smaller level.

距離閾値LTHの設定方法は任意である。例えば、ストレージ装置104に、予め決定された距離閾値LTHが選択基準データとして格納されており、信号処理回路106がストレージ装置104から当該選択基準データを読み出して距離閾値LTHとして設定してもよい。あるいは、入力装置114を介してユーザが値を入力し、信号処理回路106が当該値を距離閾値LTHとして設定してもよい。つまり入力装置114は、部分領域の指定をユーザから受け付けることができる。 The distance threshold LTH can be set in any way. For example, even if a predetermined distance threshold L TH is stored in the storage device 104 as selection reference data, and the signal processing circuit 106 reads out the selection reference data from the storage device 104 and sets it as the distance threshold L TH . good. Alternatively, the user may input a value via the input device 114, and the signal processing circuit 106 may set the value as the distance threshold LTH . In other words, the input device 114 can receive the specification of a partial area from the user.

例示的な実施形態では、最大計測距離LMAXを30mとしたとき、距離閾値LTHは25m未満の距離、例えば20m、15mまたは10mであり得る。 In an exemplary embodiment, the distance threshold L TH may be a distance less than 25 m, such as 20 m, 15 m or 10 m, where the maximum measured distance L MAX is 30 m.

次に、上述の第2例を説明する。第2例は、地図の作成に利用する反射点の検出領域をより小さい領域に可変的に設定する例である。 Next, the above-mentioned second example will be explained. The second example is an example in which the detection area of reflection points used for map creation is variably set to a smaller area.

図9Aは、地図作成時の移動体10の計測可能領域SAを示している。このときの計測可能領域SAは図7に示す例と同じである。移動体10が走行することにより、移動体10と物体Gとの相対距離が小さくなる。その結果、相対距離が最大計測距離LMAX以内になり、物体Gが計測可能領域SA内に入る。 FIG. 9A shows the measurable area SA of the mobile object 10 at the time of map creation. The measurable area SA at this time is the same as the example shown in FIG. As the moving body 10 travels, the relative distance between the moving body 10 and the object G becomes smaller. As a result, the relative distance becomes within the maximum measurement distance L MAX , and the object G enters the measurable area SA.

図9Bは、物体Gが計測可能領域SA内に入ったときの移動体10と物体Gとの位置関係を示している。図5を参照しながら説明したように、図9Bでは、斜線で示される実際の物体Gが、破線で示されるように、より大きな物体として検出されていることが模式的に示されている。 FIG. 9B shows the positional relationship between the moving body 10 and the object G when the object G enters the measurable area SA. As described with reference to FIG. 5, FIG. 9B schematically shows that the actual object G shown by diagonal lines is detected as a larger object, as shown by the broken line.

本例では、信号処理回路106は、物体Gの反射光の強度をLRF102から、ステップ角度ごとに、距離データとともに反射光の強度を示す強度データを取得する。信号処理回路106は、距離データを用いて物体Gが計測可能領域SA内に存在することを検出する。さらに信号処理回路106は、検出された距離ごとに、強度データと予め決定された強度閾値ITHとを比較して、物体Gの反射光の強度が所定の強度閾値ITHを超えたか否かを判定する。強度閾値ITHは、予め用意された、反射光の強度に関する閾値である。ストレージ装置104は、距離と強度閾値ITHとを対応付けた選択基準データを格納している。選択基準データは、距離と強度閾値ITHとの関数として格納されていてもよいし、複数の距離の値の各々と強度閾値ITHとを対応付けたテーブルとして格納されていてもよい。信号処理回路106はストレージ装置104から当該選択基準データを読み出して、距離に応じた強度閾値ITHを保持しておく。例えば最大計測距離LMAX(例:30m)の強度閾値ITHは、鏡面反射または再帰反射が発生した場合に検出される反射強度よりも小さい値に設定される。 In this example, the signal processing circuit 106 acquires the intensity of the reflected light from the object G from the LRF 102 for each step angle, together with distance data. The signal processing circuit 106 uses the distance data to detect that the object G exists within the measurable area SA. Further, the signal processing circuit 106 compares the intensity data with a predetermined intensity threshold ITH for each detected distance, and determines whether the intensity of the reflected light from the object G exceeds the predetermined intensity threshold ITH . Determine. The intensity threshold value I TH is a threshold value related to the intensity of reflected light, which is prepared in advance. The storage device 104 stores selection criteria data that associates distances with intensity thresholds ITH . The selection criteria data may be stored as a function of the distance and the intensity threshold ITH , or may be stored as a table that associates each of a plurality of distance values with the intensity threshold ITH . The signal processing circuit 106 reads out the selection reference data from the storage device 104 and holds an intensity threshold value ITH corresponding to the distance. For example, the intensity threshold I TH for the maximum measurement distance L MAX (eg, 30 m) is set to a value smaller than the reflection intensity detected when specular reflection or retroreflection occurs.

物体Gが計測可能領域SA内に存在すること、および、物体Gの反射光の強度が、物体Gまでの距離に応じて決定される強度閾値ITHを超えたこと、を信号処理回路106が検出すると、信号処理回路106は、当該物体Gの反射点が含まれる計測可能領域SA内の一部を除外領域SVとして設定する。そして信号処理回路106は、計測可能領域SAのうちの除外領域SV以外の領域を、地図を作成するための領域として選択する。例えば、距離が小さいほど大きく、距離が大きいほど小さい強度閾値ITHの関数を採用すると、距離が大きいにもかかわらず強度も大きい反射点を含む領域は除外領域SVに設定され得る。 The signal processing circuit 106 determines that the object G exists within the measurable area SA and that the intensity of the reflected light from the object G exceeds an intensity threshold ITH determined according to the distance to the object G. When detected, the signal processing circuit 106 sets a part of the measurable area SA that includes the reflection point of the object G as an exclusion area SV. Then, the signal processing circuit 106 selects an area other than the excluded area SV in the measurable area SA as an area for creating a map. For example, if a function is adopted in which the intensity threshold value I TH is larger as the distance is smaller and smaller as the distance is larger, a region including a reflection point with a large intensity despite the large distance can be set as the exclusion region SV.

図9Cは、計測可能領域SA内の除外領域SVと、選択された部分領域SB-1およびSB-2とを例示している。信号処理回路106は、少なくとも物体Gが検出された角度範囲θSVと、最大計測距離LMAXとによって規定される領域を除外領域SVとして設定する。信号処理回路106は、除外領域SV内の反射点を地図の作成に利用せず、部分領域SB-1およびSB-2内の反射点を地図の作成に利用する。部分領域SB-1は、角度範囲θよりも小さい角度範囲θB-1と最大計測距離LMAXとによって規定される。部分領域SB-2は、角度範囲θよりも小さい角度範囲θB-2と最大計測距離LMAXとによって規定される。なお、本開示では残された領域として2つの部分領域SB-1およびSB-2を例示したが、部分領域の数は1つの場合もあり得るし、3つ以上の場合もあり得る。少なくとも1つの部分領域が選択されればよい。 FIG. 9C illustrates the excluded region SV within the measurable region SA and the selected partial regions SB-1 and SB-2. The signal processing circuit 106 sets an area defined by at least the angular range θ SV in which the object G was detected and the maximum measurement distance L MAX as an exclusion area SV. The signal processing circuit 106 does not use the reflection points in the exclusion region SV to create the map, but uses the reflection points in the partial regions SB-1 and SB-2 to create the map. The partial area SB-1 is defined by an angular range θ B-1 smaller than the angular range θ and a maximum measurement distance L MAX . The partial area SB-2 is defined by an angular range θ B-2 smaller than the angular range θ and a maximum measurement distance L MAX . Note that in the present disclosure, two partial areas SB-1 and SB-2 are illustrated as remaining areas, but the number of partial areas may be one, or three or more. It is sufficient that at least one partial area is selected.

なお、部分領域SB-1およびSB-2から取得される反射光には、最大計測距離LMAXの位置からの反射光も含まれ得る。しかしながら上述のように、広がったレーザビーム15wのビーム外縁部分が物体表面で反射されたとしてもその反射光の強度は小さいためにノイズとして処理され得るため地図の作成に利用されることはない。従って、部分領域SB-1およびSB-2が最大計測距離LMAXまで広がっていてもよい。 Note that the reflected light acquired from the partial areas SB-1 and SB-2 may also include reflected light from the position of the maximum measurement distance L MAX . However, as described above, even if the outer edge portion of the spread laser beam 15w is reflected by the object surface, the intensity of the reflected light is so small that it can be treated as noise and is not used for map creation. Therefore, partial areas SB-1 and SB-2 may extend up to the maximum measurement distance L MAX .

図9Dは、移動体10が引き続き移動したときの移動体10と物体Gとの位置関係を示している。除外領域SVを設定した後も、信号処理回路106は、LRF102から物体Gの距離データおよび強度データを継続的に取得する。信号処理回路106は、距離データと選択基準データとを用いて、現在の物体Gの距離に応じた強度閾値ITHを取得し、強度データと当該強度閾値ITHとを比較する。図9Dは、強度データが当該強度閾値ITHよりもまだ僅かに大きい例を示している。参考のため、強度データと強度閾値ITHとが概ね一致する位置を物体Gに接する破線の円弧で示している。 FIG. 9D shows the positional relationship between the moving body 10 and the object G when the moving body 10 continues to move. Even after setting the exclusion region SV, the signal processing circuit 106 continuously acquires distance data and intensity data of the object G from the LRF 102. The signal processing circuit 106 uses the distance data and the selection reference data to obtain an intensity threshold I TH corresponding to the current distance of the object G, and compares the intensity data with the intensity threshold I TH . FIG. 9D shows an example where the intensity data is still slightly larger than the intensity threshold ITH . For reference, the position where the intensity data and the intensity threshold value ITH generally match is shown by a broken line arc touching the object G.

図9Eは、物体Gからの反射光の強度が強度閾値ITH以下になったときの移動体10と物体Gとの位置関係を示している。このときの移動体10と物体Gとの距離を距離LSVとして示している。なおこのときの強度閾値ITHもまた、その強度データを与えた反射点までの距離に応じて求められている。信号処理回路106は、強度データが強度閾値ITH以下になったことを検出すると、角度範囲θSVと、最大計測距離LMAXよりも短い距離LSVとによって規定される部分領域SB-3を、新たに、地図の作成に利用する反射点の検出領域として追加的に選択する。部分領域SB-3の角度範囲θSVは、全体の角度範囲θのうちの角度範囲θB-1およびθB-2以外の範囲である。図9Eには、物体Gの移動体10側の面における反射点の位置を示す点群204が示されている。 FIG. 9E shows the positional relationship between the moving body 10 and the object G when the intensity of the reflected light from the object G becomes equal to or less than the intensity threshold value ITH . The distance between the moving body 10 and the object G at this time is shown as a distance LSV . Note that the intensity threshold value ITH at this time is also determined according to the distance to the reflection point that gave the intensity data. When the signal processing circuit 106 detects that the intensity data has become equal to or less than the intensity threshold I TH , the signal processing circuit 106 creates a partial area SB-3 defined by the angular range θ SV and the distance L SV shorter than the maximum measurement distance L MAX . , is additionally selected as the detection area of the reflection point used for map creation. The angular range θ SV of the partial region SB-3 is a range other than the angular ranges θ B-1 and θ B-2 of the entire angular range θ. FIG. 9E shows a point group 204 indicating the positions of reflection points on the surface of the object G on the moving body 10 side.

部分領域SB-3を追加的に設定する選択した理由は、物体Gの検出誤差が許容可能な範囲に入った時点で、物体Gを地図に反映するためである。例えば、反射光の強度が大きい物体に移動体10が近付き、近傍を通過する場合には除外領域SVが動的に変化する。上述した角度範囲の追加処理がなければ、その物体が存在する領域は常に除外領域SVに設定されてしまい、その物体が地図に反映されなくなる。反射光の強度が強度閾値ITH以下になったことは、移動体10と物体Gとの相対距離が小さくなり、物体Gの検出誤差が許容可能な範囲内に入ったと考えることができる。その時点で物体Gを地図に反映すれば、地図の精度を担保できる。 The reason for selecting the additional partial area SB-3 is to reflect the object G on the map when the detection error of the object G falls within an acceptable range. For example, when the moving body 10 approaches an object with a high intensity of reflected light and passes nearby, the exclusion region SV changes dynamically. Without the above-mentioned angle range addition process, the area where the object exists will always be set as the exclusion area SV, and the object will not be reflected on the map. The fact that the intensity of the reflected light has become equal to or less than the intensity threshold value I TH can be considered to mean that the relative distance between the moving body 10 and the object G has become small, and the detection error of the object G has fallen within an allowable range. If the object G is reflected on the map at that point, the accuracy of the map can be guaranteed.

図9Cの例では、最初に除外領域SVを設定し、残された部分領域SB-1およびSB-2を決定した。しかしながら、その時点で除外領域SVを設定しなくてもよい。信号処理回路106が、物体Gが単に計測可能領域SAに入ったことを検出すると、物体Gを含む全ての反射光の強度が、距離に応じた強度閾値以下である領域を、部分領域SB-1およびSB-2として選択してもよい。 In the example of FIG. 9C, an exclusion region SV is first set, and remaining partial regions SB-1 and SB-2 are determined. However, it is not necessary to set the exclusion area SV at that point. When the signal processing circuit 106 detects that the object G has simply entered the measurable area SA, the area where the intensity of all reflected light including the object G is equal to or less than the intensity threshold according to the distance is designated as a partial area SB-. 1 and SB-2.

図10は、移動体10が移動する環境200において、上述の第1例または第2例の動作によって取得された点群を並べて作成された地図204Mを示している。図6Bと同様、参考のため、建造物の固定壁202を実線で示している。図6Bの例と異なり、上述の第1例または第2例の動作により、距離閾値LTHよりも遠い位置の反射点は地図の作成に利用されず、距離閾値LTH以下の、近い位置の反射点が地図の作成に利用される。その結果、点群204M-1および204M-2に含まれる各点の位置の検出誤差は十分小さくなる。なお、点群204M-3は、移動体10が図6Aに示す位置に到達する前から、上述の第1例または第2例の動作を行って取得されたことを想定した。 FIG. 10 shows a map 204M created by arranging the point clouds acquired by the operations of the first example or the second example described above in the environment 200 in which the mobile object 10 moves. Similar to FIG. 6B, the fixed wall 202 of the building is shown by a solid line for reference. Unlike the example in FIG. 6B, due to the operation of the first or second example described above, reflection points located further away than the distance threshold L TH are not used for map creation, and reflection points located closer than the distance threshold L TH are used. Reflection points are used to create maps. As a result, the detection error of the position of each point included in the point groups 204M-1 and 204M-2 becomes sufficiently small. It is assumed that the point group 204M-3 is obtained by performing the operation of the first example or the second example described above before the moving body 10 reaches the position shown in FIG. 6A.

次に、図11から図13を参照しながら、例として移動体10が上記の処理を行う場合の処理フローを説明する。各処理フローは信号処理回路106によって実行される。 Next, a processing flow when the mobile body 10 performs the above processing will be described as an example with reference to FIGS. 11 to 13. Each processing flow is executed by the signal processing circuit 106.

図11は、計測範囲を制限した地図の作成処理フローを示す図である。 FIG. 11 is a diagram showing a process flow for creating a map with a limited measurement range.

ステップS10において、信号処理回路106はLRF102に指令を送り、レーザビームの出射を開始させる。本例では、-135度から+135度まで、0.3度のステップ角度ごとにレーザビームを出射させ、周囲の環境のスキャンが行われる。 In step S10, the signal processing circuit 106 sends a command to the LRF 102 to start emitting a laser beam. In this example, the surrounding environment is scanned by emitting a laser beam at every step angle of 0.3 degrees from -135 degrees to +135 degrees.

ステップS12において、信号処理回路106はLRF102からステップ角度ごとの距離データを取得する。距離データは、LRF102が、出射したレーザビームと受信した反射光との関係を利用して算出する。「関係」は上述の通りであるから再度の説明は省略する。なお信号処理回路106は、ステップ角度ごとに、1組の反射点の位置座標データおよび距離データをLRF102から受け取ってもよいし、反射点の方位データと距離データとをLRF102から受け取ってもよい。なお、方位はステップ角度ごとに変化するため既知である。得られた距離データが順序付けられて配列されていれば、方位データを含めることは必須ではない。 In step S12, the signal processing circuit 106 acquires distance data for each step angle from the LRF 102. The distance data is calculated by the LRF 102 using the relationship between the emitted laser beam and the received reflected light. Since the "relationship" is as described above, further explanation will be omitted. Note that the signal processing circuit 106 may receive position coordinate data and distance data of a set of reflection points from the LRF 102 for each step angle, or may receive azimuth data and distance data of the reflection points from the LRF 102. Note that the orientation is known because it changes for each step angle. It is not essential to include orientation data as long as the obtained distance data is ordered and arranged.

ステップS14において、信号処理回路106は、計測可能領域の中から1以上の部分領域を選択する。部分領域は計測可能領域の部分集合である。 In step S14, the signal processing circuit 106 selects one or more partial regions from the measurable region. A partial area is a subset of a measurable area.

ステップS16において、信号処理回路106は、選択した部分領域に含まれる距離データを用いて地図を作成し、処理を終了する。 In step S16, the signal processing circuit 106 creates a map using the distance data included in the selected partial area, and ends the process.

図12Aおよび図12Bは、図11中のステップS14の具体的な処理のバリエーションである。 12A and 12B are variations of the specific process of step S14 in FIG. 11.

図12Aは、部分領域を選択する第1の処理フローを示している。第1の処理フローは、上述の第1例の処理に対応する。 FIG. 12A shows a first processing flow for selecting a partial area. The first processing flow corresponds to the processing of the first example described above.

ステップS22において、信号処理回路106はストレージ装置104から選択基準データを読み出す。選択基準データは距離閾値LTHを示す数値である。 In step S22, the signal processing circuit 106 reads selection reference data from the storage device 104. The selection criterion data is a numerical value indicating the distance threshold LTH .

ステップS24において、信号処理回路106はLRF102から、計測可能領域SA内の全ての距離データを取得する。 In step S24, the signal processing circuit 106 acquires all distance data within the measurable area SA from the LRF 102.

ステップS26において、信号処理回路106は角度範囲θと距離閾値LTHとによって規定される領域を部分領域SBとして選択する。 In step S26, the signal processing circuit 106 selects the area defined by the angle range θ and the distance threshold LTH as the partial area SB.

上述のステップS26およびステップS16(図11)の処理により、全ての距離データの中から、距離閾値LTH以下の距離データが選択され、地図の作成に利用される。なお図12Aの処理では、角度範囲θはLRF102のスキャン範囲と同じであり、既知であるとした。 Through the processes in step S26 and step S16 (FIG. 11) described above, distance data that is less than or equal to the distance threshold LTH is selected from all the distance data and used for creating the map. Note that in the process of FIG. 12A, it is assumed that the angle range θ is the same as the scan range of the LRF 102 and is known.

図12Bは、部分領域を選択する第2の処理フローを示している。第2の処理フローは、上述の第2例の処理に対応する。 FIG. 12B shows a second processing flow for selecting a partial area. The second processing flow corresponds to the processing of the second example described above.

ステップS32において、信号処理回路106は、ストレージ装置104から選択基準データを取得する。選択基準データは距離に応じた強度閾値ITHを示す数値である。 In step S32, the signal processing circuit 106 acquires selection criteria data from the storage device 104. The selection criterion data is a numerical value indicating an intensity threshold value ITH depending on the distance.

ステップS34において、信号処理回路106はLRF102から、スキャン角度ごとに、距離データおよび反射光の強度データを取得する。 In step S34, the signal processing circuit 106 acquires distance data and reflected light intensity data from the LRF 102 for each scan angle.

ステップS36において、信号処理回路106は、ある距離における強度データ≧その距離における強度閾値ITHとなるスキャン角度を決定する。 In step S36, the signal processing circuit 106 determines a scan angle such that intensity data at a certain distance≧intensity threshold value ITH at that distance.

ステップS38において、信号処理回路106は、決定したスキャン角度を含む領域を除外領域SVとして決定し、計測可能領域SAのうち除外領域SV以外の領域を、部分領域として選択する。図9の例では、信号処理回路106は、1以上の部分領域SB-1およびSB-2を選択する。選択された部分領域内の反射点が地図の作成に利用される。その後、移動体10の継続的な移動に伴い、信号処理回路106は以下のステップS40および42を実行する。 In step S38, the signal processing circuit 106 determines the area including the determined scan angle as the exclusion area SV, and selects an area other than the exclusion area SV in the measurable area SA as a partial area. In the example of FIG. 9, signal processing circuit 106 selects one or more partial areas SB-1 and SB-2. Reflection points within the selected subregion are used to create the map. Thereafter, as the mobile object 10 continues to move, the signal processing circuit 106 executes steps S40 and 42 below.

ステップS40において、信号処理回路106は、除外領域SV内の反射点のうち、ある距離における強度データ≦その距離における強度閾値ITHとなる反射点を決定する。 In step S40, the signal processing circuit 106 determines, among the reflection points within the exclusion region SV, a reflection point for which intensity data at a certain distance≦intensity threshold value ITH at that distance.

ステップS42において、信号処理回路106は、決定した反射点を含む領域を、部分領域として追加的に選択する。図9の例では、信号処理回路106は、部分領域SB-1およびSB-2に加え、部分領域SB-3を選択する。選択された部分領域SB-3内の反射点がさらに地図の作成に利用される。 In step S42, the signal processing circuit 106 additionally selects a region including the determined reflection point as a partial region. In the example of FIG. 9, signal processing circuit 106 selects partial area SB-3 in addition to partial areas SB-1 and SB-2. The reflection points within the selected partial area SB-3 are further used to create a map.

図13は、地図作成時および自己位置推定時のそれぞれにおいて移動体10が利用する計測領域の違いを説明するための一覧図である。最も大きな相違点は、距離閾値LTHを利用する例(上述の第1例、図12A)において利用される部分領域SBは、移動体が自己位置を推定する際に用いるLRF102の計測領域SAよりも狭いことである。または、強度閾値ITHを利用する例(上述の第2例、図12B)において利用される部分領域SB-n(n:1以上の整数)の合計は、移動体が自己位置を推定する際に用いるLRF102の最大の計測領域SAよりも狭いことである。選択した部分領域内の反射点の位置の検出誤差は許容範囲内であるため、当該反射点を用いて地図を作成することにより、作成する地図の精度を向上させることが可能になる。FIG. 13 is a list diagram for explaining the difference in measurement areas used by the mobile body 10 at the time of map creation and self-position estimation. The biggest difference is that the partial area SB used in the example using the distance threshold LTH (first example above, FIG. 12A) is smaller than the measurement area SA of the LRF 102 used by the moving body to estimate its own position. It is also narrow. Alternatively, the sum of the partial areas SB-n (n: an integer of 1 or more) used in the example of using the intensity threshold ITH (the above-mentioned second example, FIG. 12B) is This is narrower than the maximum measurement area SA of the LRF 102 used for this purpose. Since the detection error of the position of the reflection point within the selected partial area is within the permissible range, by creating a map using the reflection point, it is possible to improve the accuracy of the map to be created.

<例示的な実施形態>



以下、本開示による移動体の実施形態をより詳細に説明する。本実施形態では、移動体の一例として無人搬送車を挙げる。以下の説明では、略語を用いて、無人搬送車を「AGV」と記述する。以下、「AGV」についても、移動体10と同様に参照符号「10」を付す。なおストレージ装置104に相当する構成要素は後述の「メモリ」であり、信号処理回路106に相当する構成要素は後述の「マイコン14a」、「位置推定装置14e」またはこれらを包括する「チップ回路14g」である。
<Exemplary Embodiment>



Hereinafter, embodiments of a mobile object according to the present disclosure will be described in more detail. In this embodiment, an automatic guided vehicle is cited as an example of a moving object. In the following description, the automatic guided vehicle will be described as "AGV" using an abbreviation. Hereinafter, the reference numeral "10" will be given to "AGV" as well, similar to the mobile object 10. Note that the component corresponding to the storage device 104 is a "memory" described later, and the component corresponding to the signal processing circuit 106 is a "microcomputer 14a", a "position estimation device 14e", or a "chip circuit 14g" including these, described later. ”.

(1)システムの基本構成



図14は、本開示による例示的な移動体管理システム100の基本構成例を示している。移動体管理システム100は、少なくとも1台のAGV10と、AGV10の運行管理を行う運行管理装置50とを含む。図14には、ユーザ1によって操作される端末装置20も記載されている。
(1) Basic configuration of the system



FIG. 14 shows an example basic configuration of an exemplary mobile management system 100 according to the present disclosure. Mobile body management system 100 includes at least one AGV 10 and an operation management device 50 that manages operation of AGV 10. FIG. 14 also shows a terminal device 20 operated by the user 1.

AGV10は、走行に磁気テープなどの誘導体が不要な「ガイドレス式」走行が可能な無人搬送台車である。AGV10は、自己位置推定を行い、推定の結果を端末装置20および運行管理装置50に送信することができる。AGV10は、運行管理装置50からの指令にしたがって環境S内を自動走行することが可能である。 The AGV10 is an unmanned guided vehicle that can run in a "guideless" manner, requiring no guides such as magnetic tape. The AGV 10 can estimate its own position and transmit the estimation results to the terminal device 20 and the traffic management device 50. The AGV 10 is capable of automatically traveling within the environment S according to commands from the operation management device 50.

運行管理装置50は各AGV10の位置をトラッキングし、各AGV10の走行を管理するコンピュータシステムである。運行管理装置50は、デスクトップ型PC、ノート型PC、および/または、サーバコンピュータであり得る。運行管理装置50は、複数のアクセスポイント2を介して、各AGV10と通信する。例えば、運行管理装置50は、各AGV10が次に向かうべき位置の座標のデータを各AGV10に送信する。各AGV10は、定期的に、例えば250ミリ秒ごとに自身の位置および姿勢(orientation)を示すデータを運行管理装置50に送信する。指示した位置にAGV10が到達すると、運行管理装置50は、さらに次に向かうべき位置の座標のデータを送信する。AGV10は、端末装置20に入力されたユーザ1の操作に応じて環境S内を走行することも可能である。端末装置20の一例はタブレットコンピュータである。 The traffic management device 50 is a computer system that tracks the position of each AGV 10 and manages the travel of each AGV 10. The traffic management device 50 may be a desktop PC, a notebook PC, and/or a server computer. Traffic management device 50 communicates with each AGV 10 via a plurality of access points 2. For example, the traffic management device 50 transmits to each AGV 10 data on the coordinates of the position to which each AGV 10 should go next. Each AGV 10 periodically transmits data indicating its own position and orientation to the traffic management device 50, for example, every 250 milliseconds. When the AGV 10 reaches the designated position, the traffic management device 50 further transmits data on the coordinates of the next position. The AGV 10 can also travel within the environment S according to the user's 1 operation input to the terminal device 20. An example of the terminal device 20 is a tablet computer.

図15は、3台のAGV10a,10bおよび10cが存在する環境Sの一例を示している。いずれのAGVも図中の奥行き方向に走行しているとする。AGV10aおよび10bは天板に載置された荷物を搬送中である。AGV10cは、前方のAGV10bに追従して走行している。なお、説明の便宜のため、図15では参照符号10a,10bおよび10cを付したが、以下では、「AGV10」と記述する。 FIG. 15 shows an example of an environment S in which three AGVs 10a, 10b, and 10c exist. It is assumed that both AGVs are traveling in the depth direction in the figure. The AGVs 10a and 10b are transporting cargo placed on the top plate. The AGV 10c is running following the AGV 10b in front. Note that, for convenience of explanation, reference numerals 10a, 10b, and 10c are given in FIG. 15, but hereinafter, they will be described as "AGV10".

AGV10は、天板に載置された荷物を搬送する方法以外に、自身と接続された牽引台車を利用して荷物を搬送することも可能である。図16は接続される前のAGV10および牽引台車5を示している。牽引台車5の各足にはキャスターが設けられている。AGV10は牽引台車5と機械的に接続される。図17は、接続されたAGV10および牽引台車5を示している。AGV10が走行すると、牽引台車5はAGV10に牽引される。牽引台車5を牽引することにより、AGV10は、牽引台車5に載置された荷物を搬送できる。 In addition to the method of transporting the cargo placed on the top plate, the AGV 10 can also transport the cargo by using a tow truck connected to itself. FIG. 16 shows the AGV 10 and the tow truck 5 before being connected. Each leg of the tow truck 5 is provided with a caster. The AGV 10 is mechanically connected to the tow truck 5. FIG. 17 shows the connected AGV 10 and tow truck 5. When the AGV 10 runs, the tow truck 5 is towed by the AGV 10. By towing the towing truck 5, the AGV 10 can transport the cargo placed on the towing truck 5.

AGV10と牽引台車5との接続方法は任意である。ここでは一例を説明する。AGV10の天板にはプレート6が固定されている。牽引台車5には、スリットを有するガイド7が設けられている。AGV10は牽引台車5に接近し、プレート6をガイド7のスリットに差し込む。差し込みが完了すると、AGV10は、図示されない電磁ロック式ピンをプレート6およびガイド7に貫通させ、電磁ロックをかける。これにより、AGV10と牽引台車5とが物理的に接続される。 The connection method between the AGV 10 and the towing truck 5 is arbitrary. An example will be explained here. A plate 6 is fixed to the top plate of the AGV10. The tow truck 5 is provided with a guide 7 having a slit. The AGV 10 approaches the tow truck 5 and inserts the plate 6 into the slit of the guide 7. When the insertion is completed, the AGV 10 allows an electromagnetic locking pin (not shown) to pass through the plate 6 and the guide 7 to apply an electromagnetic lock. Thereby, the AGV 10 and the tow truck 5 are physically connected.

再び図14を参照する。各AGV10と端末装置20とは、例えば1対1で接続されてBluetooth(登録商標)規格に準拠した通信を行うことができる。各AGV10と端末装置20とは、1または複数のアクセスポイント2を利用してWi-Fi(登録商標)に準拠した通信を行うこともできる。複数のアクセスポイント2は、例えばスイッチングハブ3を介して互いに接続されている。図14には2台のアクセスポイント2a,2bが記載されている。AGV10はアクセスポイント2aと無線で接続されている。端末装置20はアクセスポイント2bと無線で接続されている。AGV10が送信したデータはアクセスポイント2aで受信された後、スイッチングハブ3を介してアクセスポイント2bに転送され、アクセスポイント2bから端末装置20に送信される。また、端末装置20が送信したデータは、アクセスポイント2bで受信された後、スイッチングハブ3を介してアクセスポイント2aに転送され、アクセスポイント2aからAGV10に送信される。これにより、AGV10および端末装置20の間の双方向通信が実現される。複数のアクセスポイント2はスイッチングハブ3を介して運行管理装置50とも接続されている。これにより、運行管理装置50と各AGV10との間でも双方向通信が実現される。 Refer to FIG. 14 again. Each AGV 10 and the terminal device 20 are connected, for example, on a one-to-one basis, and can perform communication based on the Bluetooth (registered trademark) standard. Each AGV 10 and the terminal device 20 can also perform communication based on Wi-Fi (registered trademark) using one or more access points 2. The plurality of access points 2 are connected to each other via a switching hub 3, for example. Two access points 2a and 2b are shown in FIG. 14. The AGV 10 is wirelessly connected to the access point 2a. The terminal device 20 is wirelessly connected to the access point 2b. The data transmitted by the AGV 10 is received by the access point 2a, transferred to the access point 2b via the switching hub 3, and transmitted from the access point 2b to the terminal device 20. Furthermore, data transmitted by the terminal device 20 is received by the access point 2b, then transferred to the access point 2a via the switching hub 3, and transmitted from the access point 2a to the AGV 10. Thereby, bidirectional communication between the AGV 10 and the terminal device 20 is realized. The plurality of access points 2 are also connected to a traffic management device 50 via a switching hub 3. Thereby, bidirectional communication is also realized between the traffic management device 50 and each AGV 10.

(2)地図の作成



自己位置を推定しながらAGV10が走行できるようにするため、環境S内の地図が作成される。AGV10には位置推定装置およびLRF102が搭載されており、LRF102の出力を利用して地図を作成できる。
(2) Creating a map



In order to enable the AGV 10 to travel while estimating its own position, a map within the environment S is created. The AGV 10 is equipped with a position estimation device and an LRF 102, and can create a map using the output of the LRF 102.

AGV10は、ユーザの操作によってデータ取得モードに遷移する。データ取得モードにおいて、AGV10はLRF102を用いたセンサデータの取得を開始する。 The AGV 10 transitions to data acquisition mode by a user's operation. In the data acquisition mode, the AGV 10 starts acquiring sensor data using the LRF 102.

位置推定装置は、センサデータを記憶装置に蓄積する。環境S内のセンサデータの取得が完了すると、記憶装置に蓄積されたセンサデータが外部装置に送信される。外部装置は、例えば信号処理プロセッサを有し、かつ、地図作成コンピュータプログラムがインストールされたコンピュータである。 The position estimation device stores sensor data in a storage device. When the acquisition of sensor data in the environment S is completed, the sensor data accumulated in the storage device is transmitted to the external device. The external device is, for example, a computer having a signal processing processor and installed with a cartographic computer program.

外部装置の信号処理プロセッサは、スキャンごとに得られたセンサデータ同士を重ね合わせる。信号処理プロセッサが重ね合わせる処理を繰り返し行うことにより、環境Sの地図を作成することができる。地図は、前述した地図を加工する装置300(図10参照)を用いて加工される。装置300は、地図から選択された特定領域の位置を示すデータを作成する。外部装置は、加工された地図のデータをAGV10に送信する。AGV10は、加工された地図のデータを内部の記憶装置に保存する。外部装置は、運行管理装置50であってもよいし、他の装置であってもよい。 The signal processing processor of the external device superimposes the sensor data obtained for each scan. A map of the environment S can be created by repeatedly performing the overlapping process by the signal processor. The map is processed using the above-described map processing device 300 (see FIG. 10). The device 300 creates data indicating the location of a specific area selected from the map. The external device transmits the processed map data to the AGV 10. The AGV 10 stores processed map data in an internal storage device. The external device may be the traffic management device 50 or another device.

外部装置ではなくAGV10が地図の作成および加工を行ってもよい。上述した外部装置の信号処理プロセッサが行った処理を、AGV10のマイクロコントローラユニット(マイコン)などの回路が行えばよい。AGV10内で地図を作成する場合には、蓄積されたセンサデータを外部装置に送信する必要がなくなる。センサデータのデータ容量は一般には大きいと考えられる。センサデータを外部装置に送信する必要がないため、通信回線の占有を回避できる。 The AGV 10 may create and process the map instead of the external device. The processing performed by the signal processing processor of the external device described above may be performed by a circuit such as a microcontroller unit (microcomputer) of the AGV 10. When creating a map within the AGV 10, there is no need to transmit accumulated sensor data to an external device. The data capacity of sensor data is generally considered to be large. Since there is no need to transmit sensor data to an external device, it is possible to avoid occupying a communication line.

センサデータを取得するための環境S内の移動は、ユーザの操作にしたがってAGV10が走行することによって実現し得る。例えば、AGV10は、端末装置20を介して無線でユーザから前後左右の各方向への移動を指示する走行指令を受け取る。AGV10は走行指令にしたがって環境S内を前後左右に走行し、地図を作成する。AGV10がジョイスティック等の操縦装置と有線で接続されている場合には、当該操縦装置からの制御信号にしたがって環境S内を前後左右に走行し、地図を作成してもよい。LRF102を搭載した計測台車を人が押し歩くことによってセンサデータを取得してもよい。 Movement within the environment S for acquiring sensor data can be realized by the AGV 10 traveling in accordance with a user's operation. For example, the AGV 10 wirelessly receives, via the terminal device 20, a travel command from a user to instruct movement in each of the forward, backward, left, and right directions. The AGV 10 travels forward, backward, left and right in the environment S according to the travel command, and creates a map. When the AGV 10 is connected by wire to a control device such as a joystick, the AGV 10 may travel forward, backward, left and right in the environment S according to control signals from the control device, and create a map. Sensor data may be acquired by a person pushing a measuring trolley on which the LRF 102 is mounted.

図14および図15には複数台のAGV10が示されているが、AGVは1台であってもよい。複数台のAGV10が存在する場合、ユーザ1は端末装置20を利用して、登録された複数のAGVのうちから一台のAGV10を選択して、環境Sの地図を作成させることができる。 Although a plurality of AGVs 10 are shown in FIGS. 14 and 15, there may be only one AGV. When a plurality of AGVs 10 exist, the user 1 can use the terminal device 20 to select one AGV 10 from among the plurality of registered AGVs to create a map of the environment S.

地図が作成されると、以後、各AGV10は当該地図を利用して自己位置を推定しながら自動走行することができる。 Once the map is created, each AGV 10 can thereafter travel automatically while estimating its own position using the map.

(3)AGVの構成



図18は、本実施形態にかかる例示的なAGV10の外観図である。AGV10は、2つの駆動輪11aおよび11bと、4つのキャスター11c、11d、11eおよび11fと、フレーム12と、搬送テーブル13と、走行制御装置14と、LRF102とを有する。2つの駆動輪11aおよび11bは、AGV10の右側および左側にそれぞれ設けられている。4つのキャスター11c、11d、11eおよび11fは、AGV10の4隅に配置されている。なお、AGV10は、2つの駆動輪11aおよび11bに接続される複数のモータも有するが、複数のモータは図18には示されていない。また、図18には、AGV10の右側に位置する1つの駆動輪11aおよび2つのキャスター11cおよび11eと、左後部に位置するキャスター11fとが示されているが、左側の駆動輪11bおよび左前部のキャスター11dはフレーム12の蔭に隠れているため明示されていない。4つのキャスター11c、11d、11eおよび11fは、自由に旋回することができる。以下の説明では、駆動輪11aおよび駆動輪11bを、それぞれ車輪11aおよび車輪11bとも称する。
(3) AGV configuration



FIG. 18 is an external view of an exemplary AGV 10 according to this embodiment. The AGV 10 includes two drive wheels 11a and 11b, four casters 11c, 11d, 11e, and 11f, a frame 12, a conveyance table 13, a travel control device 14, and an LRF 102. Two drive wheels 11a and 11b are provided on the right and left sides of the AGV 10, respectively. Four casters 11c, 11d, 11e and 11f are arranged at the four corners of the AGV 10. Note that the AGV 10 also has a plurality of motors connected to the two drive wheels 11a and 11b, but the plurality of motors are not shown in FIG. 18. Moreover, although FIG. 18 shows one drive wheel 11a and two casters 11c and 11e located on the right side of the AGV 10, and a caster 11f located on the left rear, the left drive wheel 11b and the left front The casters 11d are hidden behind the frame 12 and are not clearly shown. The four casters 11c, 11d, 11e and 11f can rotate freely. In the following description, the drive wheels 11a and 11b are also referred to as wheels 11a and wheels 11b, respectively.

走行制御装置14は、AGV10の動作を制御する装置であり、主としてマイコン(後述)を含む集積回路、電子部品およびそれらが搭載された基板を含む。走行制御装置14は、上述した、端末装置20とのデータの送受信、および、前処理演算を行う。 The travel control device 14 is a device that controls the operation of the AGV 10, and mainly includes an integrated circuit including a microcomputer (described later), electronic components, and a board on which they are mounted. The travel control device 14 transmits and receives data to and from the terminal device 20 and performs preprocessing calculations, as described above.

LRF102は、例えば赤外のレーザビーム15aを出射し、当該レーザビーム15aの反射光を検出することにより、反射点までの距離を測定する光学機器である。本実施形態では、AGV10のLRF102は、例えばAGV10の正面を基準として左右135度(合計270度)の範囲の空間に、0.25度ごとに方向を変化させながらパルス状のレーザビーム15aを出射し、各レーザビーム15aの反射光を検出する。これにより、0.25度ごと、合計1081ステップ分の角度で決まる方向における反射点までの距離のデータを得ることができる。なお、本実施形態では、LRF102が行う周囲の空間のスキャンは実質的に床面に平行であり、平面的(二次元的)である。しかしながら、LRF102は高さ方向のスキャンを行ってもよい。 The LRF 102 is an optical device that measures the distance to the reflection point by emitting, for example, an infrared laser beam 15a and detecting the reflected light of the laser beam 15a. In this embodiment, the LRF 102 of the AGV 10 emits a pulsed laser beam 15a, for example, into a space within a range of 135 degrees left and right (270 degrees in total) with the front of the AGV 10 as a reference, while changing the direction every 0.25 degrees. Then, the reflected light of each laser beam 15a is detected. As a result, data on the distance to the reflection point in the direction determined by the angle for a total of 1081 steps can be obtained every 0.25 degrees. Note that in this embodiment, the scanning of the surrounding space performed by the LRF 102 is substantially parallel to the floor surface and is planar (two-dimensional). However, the LRF 102 may also scan in the height direction.

AGV10の位置および姿勢(向き)と、LRF102のスキャン結果とにより、AGV10は、環境Sの地図を作成することができる。地図には、AGVの周囲の壁、柱等の構造物、床の上に載置された物体の配置が反映され得る。地図のデータは、AGV10内に設けられた記憶装置に格納される。 The AGV 10 can create a map of the environment S based on the position and orientation (orientation) of the AGV 10 and the scan results of the LRF 102. The map may reflect the arrangement of structures such as walls and pillars around the AGV, and objects placed on the floor. Map data is stored in a storage device provided within the AGV 10.

AGV10の位置および姿勢、すなわちポーズ(x,y,θ)を、以下、単に「位置」と呼ぶことがある。 The position and orientation of the AGV 10, ie, the pose (x, y, θ), may be hereinafter simply referred to as "position."

走行制御装置14は、前述したようにして、LRF102の測定結果と、自身が保持する地図データとを比較して、自身の現在位置を推定する。地図データは、他のAGV10が作成した地図データであってもよい。 As described above, the travel control device 14 compares the measurement results of the LRF 102 with the map data held by the travel control device 14 to estimate its current position. The map data may be map data created by another AGV 10.

図19Aは、AGV10の第1のハードウェア構成例を示している。また図19Aは、走行制御装置14の具体的な構成も示している。 FIG. 19A shows a first hardware configuration example of the AGV 10. FIG. 19A also shows a specific configuration of the travel control device 14.

AGV10は、走行制御装置14と、LRF102と、2台のモータ16aおよび16bと、駆動装置17と、車輪11aおよび11bとを備えている。 The AGV 10 includes a travel control device 14, an LRF 102, two motors 16a and 16b, a drive device 17, and wheels 11a and 11b.

走行制御装置14は、マイコン14aと、メモリ14bと、記憶装置14cと、通信回路14dと、位置推定装置14eとを有している。マイコン14a、メモリ14b、記憶装置14c、通信回路14dおよび位置推定装置14eは通信バス14fで接続されており、相互にデータを授受することが可能である。LRF102もまた通信インタフェース(図示せず)を介して通信バス14fに接続されており、計測結果である計測データを、マイコン14a、位置推定装置14eおよび/またはメモリ14bに送信する。 The travel control device 14 includes a microcomputer 14a, a memory 14b, a storage device 14c, a communication circuit 14d, and a position estimation device 14e. The microcomputer 14a, memory 14b, storage device 14c, communication circuit 14d, and position estimation device 14e are connected by a communication bus 14f, and can exchange data with each other. The LRF 102 is also connected to the communication bus 14f via a communication interface (not shown), and transmits measurement data, which is the measurement result, to the microcomputer 14a, the position estimation device 14e, and/or the memory 14b.

マイコン14aは、走行制御装置14を含むAGV10の全体を制御するための演算を行うプロセッサまたは制御回路(コンピュータ)である。典型的にはマイコン14aは半導体集積回路である。マイコン14aは、制御信号であるPWM(Pulse Width Modulation)信号を駆動装置17に送信して駆動装置17を制御し、モータに印加する電圧を調整させる。これによりモータ16aおよび16bの各々が所望の回転速度で回転する。 The microcomputer 14a is a processor or a control circuit (computer) that performs calculations to control the entire AGV 10 including the travel control device 14. Typically, the microcomputer 14a is a semiconductor integrated circuit. The microcomputer 14a transmits a PWM (Pulse Width Modulation) signal, which is a control signal, to the drive device 17 to control the drive device 17 and adjust the voltage applied to the motor. This causes each of motors 16a and 16b to rotate at a desired rotational speed.

左右のモータ16aおよび16bの駆動を制御する1つ以上の制御回路(例えばマイコン)を、マイコン14aとは独立して設けてもよい。例えば、モータ駆動装置17が、モータ16aおよび16bの駆動をそれぞれ制御する2つのマイコンを備えていてもよい。 One or more control circuits (for example, a microcomputer) that control the drive of the left and right motors 16a and 16b may be provided independently of the microcomputer 14a. For example, the motor drive device 17 may include two microcomputers that respectively control the drive of the motors 16a and 16b.

メモリ14bは、マイコン14aが実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ14bは、マイコン14aおよび位置推定装置14eが演算を行う際のワークメモリとしても利用され得る。 The memory 14b is a volatile storage device that stores computer programs executed by the microcomputer 14a. The memory 14b can also be used as a work memory when the microcomputer 14a and the position estimation device 14e perform calculations.

記憶装置14cは、不揮発性の半導体メモリ装置である。ただし、記憶装置14cは、ハードディスクに代表される磁気記録媒体、または、光ディスクに代表される光学式記録媒体であってもよい。さらに、記憶装置14cは、いずれかの記録媒体にデータを書き込みおよび/または読み出すためのヘッド装置および当該ヘッド装置の制御装置を含んでもよい。 The storage device 14c is a nonvolatile semiconductor memory device. However, the storage device 14c may be a magnetic recording medium such as a hard disk, or an optical recording medium such as an optical disk. Furthermore, the storage device 14c may include a head device for writing and/or reading data on any recording medium and a control device for the head device.

記憶装置14cは、走行する環境Sの地図M、および、1または複数の走行経路のデータ(走行経路データ)Rを記憶する。地図Mは、AGV10が地図作成モードで動作することによって作成され記憶装置14cに記憶される。走行経路データRは、地図Mが作成された後に外部から送信される。本実施形態では、地図Mおよび走行経路データRは同じ記憶装置14cに記憶されているが、異なる記憶装置に記憶されてもよい。 The storage device 14c stores a map M of the driving environment S, and data R of one or more driving routes (driving route data). The map M is created by the AGV 10 operating in map creation mode and is stored in the storage device 14c. The driving route data R is transmitted from outside after the map M is created. In this embodiment, the map M and the driving route data R are stored in the same storage device 14c, but they may be stored in different storage devices.

走行経路データRの例を説明する。 An example of travel route data R will be explained.

端末装置20がタブレットコンピュータである場合には、AGV10はタブレットコンピュータから走行経路を示す走行経路データRを受信する。このときの走行経路データRは、複数のマーカの位置を示すマーカデータを含む。「マーカ」は走行するAGV10の通過位置(経由点)を示す。走行経路データRは、走行開始位置を示す開始マーカおよび走行終了位置を示す終了マーカの位置情報を少なくとも含む。走行経路データRは、さらに、1以上の中間経由点のマーカの位置情報を含んでもよい。走行経路が1以上の中間経由点を含む場合には、開始マーカから、当該走行経由点を順に経由して終了マーカに至る経路が、走行経路として定義される。各マーカのデータは、そのマーカの座標データに加えて、次のマーカに移動するまでのAGV10の向き(角度)および走行速度のデータを含み得る。AGV10が各マーカの位置で一旦停止し、自己位置推定および端末装置20への通知などを行う場合には、各マーカのデータは、当該走行速度に達するまでの加速に要する加速時間、および/または、当該走行速度から次のマーカの位置で停止するまでの減速に要する減速時間のデータを含み得る。 When the terminal device 20 is a tablet computer, the AGV 10 receives travel route data R indicating the travel route from the tablet computer. The travel route data R at this time includes marker data indicating the positions of a plurality of markers. The "marker" indicates a passing position (way point) of the traveling AGV 10. The travel route data R includes at least position information of a start marker indicating a travel start position and an end marker indicating a travel end position. The travel route data R may further include position information of markers at one or more intermediate waypoints. When the travel route includes one or more intermediate waypoints, the route from the start marker to the end marker via the travel waypoints in order is defined as the travel route. In addition to the coordinate data of the marker, the data for each marker may include data on the direction (angle) and travel speed of the AGV 10 until it moves to the next marker. When the AGV 10 temporarily stops at the position of each marker and performs self-position estimation and notification to the terminal device 20, the data of each marker is the acceleration time required for acceleration to reach the relevant traveling speed, and/or , may include data on the deceleration time required for deceleration from the traveling speed to stopping at the next marker position.

端末装置20ではなく運行管理装置50(例えば、PCおよび/またはサーバコンピュータ)がAGV10の移動を制御してもよい。その場合には、運行管理装置50は、AGV10がマーカに到達する度に、次のマーカへの移動をAGV10に指示してもよい。例えば、AGV10は、運行管理装置50から、次に向かうべき目的位置の座標データ、または、当該目的位置までの距離および進むべき角度のデータを、走行経路を示す走行経路データRとして受信する。 The movement of the AGV 10 may be controlled by the operation management device 50 (for example, a PC and/or a server computer) instead of the terminal device 20. In that case, the traffic management device 50 may instruct the AGV 10 to move to the next marker each time the AGV 10 reaches a marker. For example, the AGV 10 receives from the operation management device 50 the coordinate data of the next destination position, or the distance and angle to the destination position, as driving route data R indicating the driving route.

AGV10は、作成された地図と走行中に取得されたLRF102が出力したセンサデータとを利用して自己位置を推定しながら、記憶された走行経路に沿って走行することができる。 The AGV 10 can travel along the stored travel route while estimating its own position using the created map and sensor data output by the LRF 102 acquired during travel.

通信回路14dは、例えば、Bluetooth(登録商標)および/またはWi-Fi(登録商標)規格に準拠した無線通信を行う無線通信回路である。いずれの規格も、2.4GHz帯の周波数を利用した無線通信規格を含む。例えばAGV10を走行させて地図を作成するモードでは、通信回路14dは、Bluetooth(登録商標)規格に準拠した無線通信を行い、1対1で端末装置20と通信する。 The communication circuit 14d is, for example, a wireless communication circuit that performs wireless communication based on Bluetooth (registered trademark) and/or Wi-Fi (registered trademark) standards. Both standards include wireless communication standards using frequencies in the 2.4 GHz band. For example, in a mode in which a map is created by driving the AGV 10, the communication circuit 14d performs wireless communication based on the Bluetooth (registered trademark) standard, and communicates with the terminal device 20 on a one-to-one basis.

位置推定装置14eは、地図の作成処理、および、走行時には自己位置の推定処理を行う。位置推定装置14eは、AGV10の位置および姿勢とLRF102のスキャン結果とにより、環境Sの地図を作成し得る。走行時には、位置推定装置14eは、LRF102からセンサデータを受け取り、また、記憶装置14cに記憶された地図Mおよび特定領域の位置データを読み出す。LRF102のスキャン結果から作成された局所的地図データ(センサデータ)を、より広範囲の地図Mとのマッチングを行うことにより、地図M上における自己位置(x,y,θ)を同定する。位置推定装置14eは、局所的地図データが地図Mに一致した程度を表す「信頼度」のデータを生成する。自己位置(x,y,θ)、および、信頼度の各データは、AGV10から端末装置20または運行管理装置50に送信され得る。端末装置20または運行管理装置50は、自己位置(x,y,θ)、および、信頼度の各データを受信して、内蔵または接続された表示装置に表示することができる。 The position estimating device 14e performs map creation processing and self-position estimation processing when the vehicle is traveling. The position estimation device 14e can create a map of the environment S based on the position and orientation of the AGV 10 and the scan results of the LRF 102. During traveling, the position estimation device 14e receives sensor data from the LRF 102, and also reads out the map M and the position data of the specific area stored in the storage device 14c. The self-position (x, y, θ) on the map M is identified by matching the local map data (sensor data) created from the scan results of the LRF 102 with the map M over a wider range. The position estimating device 14e generates "reliability" data indicating the extent to which the local map data matches the map M. The self-location (x, y, θ) and reliability data may be transmitted from the AGV 10 to the terminal device 20 or the traffic management device 50. The terminal device 20 or the traffic management device 50 can receive data on its own position (x, y, θ) and reliability and display it on a built-in or connected display device.

本実施形態では、マイコン14aと位置推定装置14eとは別個の構成要素であるとしているが、これは一例である。マイコン14aおよび位置推定装置14eの各動作を独立して行うことが可能な1つのチップ回路または半導体集積回路であってもよい。図19Aには、マイコン14aおよび位置推定装置14eを包括するチップ回路14gが示されている。以下では、マイコン14aおよび位置推定装置14eが別個独立に設けられている例を説明する。 In this embodiment, the microcomputer 14a and the position estimation device 14e are separate components, but this is just an example. It may be one chip circuit or a semiconductor integrated circuit that can independently perform each operation of the microcomputer 14a and the position estimating device 14e. FIG. 19A shows a chip circuit 14g that includes a microcomputer 14a and a position estimation device 14e. An example in which the microcomputer 14a and the position estimation device 14e are provided separately and independently will be described below.

2台のモータ16aおよび16bは、それぞれ2つの車輪11aおよび11bに取り付けられ、各車輪を回転させる。つまり、2つの車輪11aおよび11bはそれぞれ駆動輪である。本明細書では、モータ16aおよびモータ16bは、それぞれAGV10の右輪および左輪を駆動するモータであるとして説明する。 Two motors 16a and 16b are attached to two wheels 11a and 11b, respectively, and rotate each wheel. In other words, the two wheels 11a and 11b are each drive wheels. In this specification, motor 16a and motor 16b will be described as motors that drive the right wheel and left wheel of AGV 10, respectively.

駆動装置17は、2台のモータ16aおよび16bの各々に印加される電圧を調整するためのモータ駆動回路17aおよび17bを有する。モータ駆動回路17aおよび17bの各々はいわゆるインバータ回路を含む。モータ駆動回路17aおよび17bは、マイコン14aまたはモータ駆動回路17a内のマイコンから送信されたPWM信号によって各モータに流れる電流をオンまたはオフし、それによりモータに印加される電圧を調整する。 The drive device 17 has motor drive circuits 17a and 17b for adjusting voltages applied to each of the two motors 16a and 16b. Each of motor drive circuits 17a and 17b includes a so-called inverter circuit. The motor drive circuits 17a and 17b turn on or off the current flowing to each motor in response to a PWM signal transmitted from the microcomputer 14a or the microcomputer in the motor drive circuit 17a, thereby adjusting the voltage applied to the motors.

図19Bは、AGV10の第2のハードウェア構成例を示している。第2のハードウェア構成例は、レーザ測位システム14hを有する点、および、マイコン14aが各構成要素と1対1で接続されている点において、第1のハードウェア構成例(図19A)と相違する。 FIG. 19B shows a second example of the hardware configuration of the AGV 10. The second hardware configuration example differs from the first hardware configuration example (FIG. 19A) in that it includes a laser positioning system 14h and that the microcomputer 14a is connected one-to-one with each component. do.

レーザ測位システム14hは、位置推定装置14eおよびLRF102を有する。位置推定装置14eおよびLRF102は、例えばイーサネット(登録商標)ケーブルで接続されている。位置推定装置14eおよびLRF102の各動作は上述した通りである。レーザ測位システム14hは、AGV10のポーズ(x,y,θ)を示す情報をマイコン14aに出力する。 The laser positioning system 14h includes a position estimation device 14e and an LRF 102. The position estimation device 14e and the LRF 102 are connected, for example, by an Ethernet (registered trademark) cable. Each operation of the position estimation device 14e and the LRF 102 is as described above. The laser positioning system 14h outputs information indicating the pose (x, y, θ) of the AGV 10 to the microcomputer 14a.

マイコン14aは、種々の汎用I/Oインタフェースまたは汎用入出力ポート(図示せず)を有している。マイコン14aは、通信回路14d、レーザ測位システム14h等の、走行制御装置14内の他の構成要素と、当該汎用入出力ポートを介して直接接続されている。 The microcomputer 14a has various general-purpose I/O interfaces or general-purpose input/output ports (not shown). The microcomputer 14a is directly connected to other components in the travel control device 14, such as a communication circuit 14d and a laser positioning system 14h, via the general-purpose input/output port.

図19Bに関して上述した構成以外は、図19Aの構成と共通である。よって共通の構成の説明は省略する。 The configuration other than the configuration described above with respect to FIG. 19B is the same as the configuration in FIG. 19A. Therefore, a description of the common configuration will be omitted.

本開示の実施形態におけるAGV10は、図示されていない障害物検知センサおよびバンパースイッチなどのセーフティセンサを備えていてもよい。 The AGV 10 in the embodiment of the present disclosure may include safety sensors such as an obstacle detection sensor and a bumper switch (not shown).

(4)運行管理装置の構成例



図20は、運行管理装置50のハードウェア構成例を示している。運行管理装置50は、CPU51と、メモリ52と、位置データベース(位置DB)53と、通信回路54と、地図データベース(地図DB)55と、画像処理回路56とを有する。
(4) Configuration example of operation management device



FIG. 20 shows an example of the hardware configuration of the traffic management device 50. The traffic management device 50 includes a CPU 51 , a memory 52 , a position database (position DB) 53 , a communication circuit 54 , a map database (map DB) 55 , and an image processing circuit 56 .

CPU51、メモリ52、位置DB53、通信回路54、地図DB55および画像処理回路56は通信バス57で接続されており、相互にデータを授受することが可能である。 The CPU 51, memory 52, position DB 53, communication circuit 54, map DB 55, and image processing circuit 56 are connected by a communication bus 57, and can exchange data with each other.

CPU51は、運行管理装置50の動作を制御する信号処理回路(コンピュータ)である。典型的にはCPU51は半導体集積回路である。 The CPU 51 is a signal processing circuit (computer) that controls the operation of the traffic management device 50. Typically, the CPU 51 is a semiconductor integrated circuit.

メモリ52は、CPU51が実行するコンピュータプログラムを記憶する、揮発性の記憶装置である。メモリ52は、CPU51が演算を行う際のワークメモリとしても利用され得る。 The memory 52 is a volatile storage device that stores computer programs executed by the CPU 51. The memory 52 can also be used as a work memory when the CPU 51 performs calculations.

位置DB53は、各AGV10の行き先となり得る各位置を示す位置データを格納する。位置データは、例えば管理者によって工場内に仮想的に設定された座標によって表され得る。位置データは管理者によって決定される。 The position DB 53 stores position data indicating each possible destination of each AGV 10. The position data may be represented by coordinates virtually set within the factory by an administrator, for example. Location data is determined by the administrator.

通信回路54は、例えばイーサネット(登録商標)規格に準拠した有線通信を行う。通信回路54はアクセスポイント2(図14)と有線で接続されており、アクセスポイント2を介して、AGV10と通信することができる。通信回路54は、AGV10に送信すべきデータを、バス57を介してCPU51から受信する。また通信回路54は、AGV10から受信したデータ(通知)を、バス57を介してCPU51および/またはメモリ52に送信する。 The communication circuit 54 performs wired communication based on, for example, the Ethernet (registered trademark) standard. The communication circuit 54 is connected to the access point 2 (FIG. 14) by wire, and can communicate with the AGV 10 via the access point 2. Communication circuit 54 receives data to be transmitted to AGV 10 from CPU 51 via bus 57. Further, the communication circuit 54 transmits data (notification) received from the AGV 10 to the CPU 51 and/or the memory 52 via the bus 57.

地図DB55は、AGV10が走行する工場等の内部の地図のデータおよび特定領域の位置データを格納する。各AGV10の位置と1対1で対応関係を有する地図であれば、データの形式は問わない。例えば地図DB55に格納される地図は、CADによって作成された地図であってもよい。 The map DB 55 stores map data inside a factory or the like where the AGV 10 runs and position data of a specific area. The data format does not matter as long as the map has a one-to-one correspondence with the position of each AGV 10. For example, the map stored in the map DB 55 may be a map created by CAD.

運行管理装置50は、例えばAGV10が特定領域を迂回するようにAGV10の経路を決定し得る。 Traffic management device 50 can determine the route of AGV 10 so that AGV 10 detours around a specific area, for example.

位置DB53および地図DB55は、不揮発性の半導体メモリ上に構築されてもよいし、ハードディスクに代表される磁気記録媒体、または光ディスクに代表される光学式記録媒体上に構築されてもよい。 The position DB 53 and the map DB 55 may be constructed on a nonvolatile semiconductor memory, a magnetic recording medium such as a hard disk, or an optical recording medium such as an optical disk.

画像処理回路56はモニタ58に表示される映像のデータを生成する回路である。画像処理回路56は、専ら、管理者が運行管理装置50を操作する際に動作する。本実施形態では特にこれ以上の詳細な説明は省略する。なお、モニタ58は運行管理装置50と一体化されていてもよい。また画像処理回路56の処理をCPU51が行ってもよい。 The image processing circuit 56 is a circuit that generates video data displayed on the monitor 58. The image processing circuit 56 operates exclusively when the administrator operates the operation management device 50. In this embodiment, further detailed explanation will be omitted. Note that the monitor 58 may be integrated with the traffic management device 50. Further, the CPU 51 may perform the processing of the image processing circuit 56.

上記の包括的な態様は、システム、方法、集積回路、コンピュータプログラム、または記録媒体によって実現されてもよい。あるいは、システム、装置、方法、集積回路、コンピュータプログラム、および記録媒体の任意な組み合わせによって実現されてもよい。 The general aspects described above may be implemented by a system, method, integrated circuit, computer program, or storage medium. Alternatively, it may be realized by any combination of systems, devices, methods, integrated circuits, computer programs, and recording media.

本開示の移動体は、工場、倉庫、建設現場、物流、病院などで荷物、部品、完成品などの物の移動および搬送に好適に利用され得る。 The moving object of the present disclosure can be suitably used for moving and transporting things such as luggage, parts, and finished products in factories, warehouses, construction sites, logistics, hospitals, and the like.

1・・・ユーザ、2a、2b・・・アクセスポイント、10・・・AGV(移動体)、11a、11b・・・駆動輪(車輪)、11c、11d、11e、11f・・・キャスター、12・・・フレーム、13・・・搬送テーブル、14・・・走行制御装置、14a・・・マイコン、14b・・・メモリ、14c・・・記憶装置、14d・・・通信回路、14e・・・位置推定装置、16a、16b・・・モータ、17a、17b・・・モータ駆動回路、20・・・端末装置(タブレットコンピュータなどのモバイルコンピュータ)、50・・・運行管理装置、51・・・CPU、52・・・メモリ、53・・・位置データベース(位置DB)、54・・・通信回路、55・・・地図データベース(地図DB)、56・・・画像処理回路、100・・・移動体管理システム、102・・・レーザレンジファインダ、104・・・ストレージ装置、106・・・信号処理回路、300・・・地図作成システム DESCRIPTION OF SYMBOLS 1... User, 2a, 2b... Access point, 10... AGV (mobile object), 11a, 11b... Drive wheel (wheel), 11c, 11d, 11e, 11f... Caster, 12 . . . Frame, 13 . . . Transport table, 14 . . . Travel control device, 14a . Position estimation device, 16a, 16b...Motor, 17a, 17b...Motor drive circuit, 20...Terminal device (mobile computer such as a tablet computer), 50...Operation management device, 51...CPU , 52... Memory, 53... Location database (position DB), 54... Communication circuit, 55... Map database (map DB), 56... Image processing circuit, 100... Mobile object Management system, 102... Laser range finder, 104... Storage device, 106... Signal processing circuit, 300... Map creation system

Claims (12)

移動体が自己位置を推定するために参照する地図を作成する地図作成システムであって、



第1角度範囲内で角度を変えながらレーザビームを出射して反射光を取得し、出射した前記レーザビームと前記反射光との関係を利用して、前記角度ごとに、計測可能な第1距離以内に存在する反射点までの距離を示す距離データを取得するレーザレンジファインダと、



前記第1角度範囲および前記第1距離によって規定される計測可能領域の中から、前記計測可能領域よりも小さい1以上の部分領域を選択し、前記1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する信号処理回路とを備え、



前記1以上の部分領域は、前記移動体が自己位置を推定する際に用いるレーザレンジファインダの計測領域よりも狭い、



地図作成システム。
A map creation system that creates a map that a mobile object refers to in order to estimate its own position,



A first distance that can be measured for each angle by emitting a laser beam and acquiring reflected light while changing the angle within a first angle range, and using the relationship between the emitted laser beam and the reflected light. a laser range finder that obtains distance data indicating the distance to reflective points existing within the range;



Select one or more partial areas smaller than the measurable area from the measurable area defined by the first angular range and the first distance, and reach the reflection point included in the one or more partial areas. and a signal processing circuit that creates a map using distance data indicating the distance of



The one or more partial areas are narrower than a measurement area of a laser range finder used by the mobile body to estimate its own position.



Cartography system.
前記信号処理回路は、前記第1角度範囲と、前記第1距離よりも短い少なくとも1つの第2距離とによって規定される領域を、前記1以上の部分領域として選択する、



請求項1に記載の地図作成システム。
The signal processing circuit selects a region defined by the first angular range and at least one second distance shorter than the first distance as the one or more partial regions.



The map creation system according to claim 1.
前記信号処理回路は、前記第1角度範囲よりも小さい少なくとも1つの第2角度範囲と、前記第1距離とによって規定される領域を、前記1以上の部分領域として選択する、



請求項1に記載の地図作成システム。
The signal processing circuit selects a region defined by at least one second angular range smaller than the first angular range and the first distance as the one or more partial regions;



The map creation system according to claim 1.
前記信号処理回路は、前記第1角度範囲よりも小さい少なくとも1つの第2角度範囲と、



前記第1距離とによって規定される1以上の部分領域を選択した後、さらに、前記少なくとも1つの第2角度範囲以外の第3角度範囲であって、かつ、前記第1距離よりも短い少なくとも1つの第3距離に含まれる領域を、前記1以上の部分領域として選択し、



新たに選択した部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する、



請求項3に記載の地図作成システム。
The signal processing circuit has at least one second angular range smaller than the first angular range;



After selecting one or more partial areas defined by the first distance, further select at least one third angular range other than the at least one second angular range and shorter than the first distance. selecting a region included in a third distance as the one or more partial regions;



Create a map using distance data indicating the distance to the reflection point included in the newly selected partial area,



The map creation system according to claim 3.
距離と反射光の強度に関する強度閾値とを対応付けた選択基準データを予め格納した記憶装置をさらに備え、



前記信号処理回路は、前記レーザレンジファインダから、前記角度ごとに、前記距離データおよび前記反射光の強度を示す強度データを取得し、



前記距離データおよび前記選択基準データを利用して、前記距離に応じた前記強度閾値を取得し、



前記強度データが前記強度閾値以下である反射点を含む領域を、前記1以上の部分領域として選択する、



請求項3または4に記載の地図作成システム。
Further comprising a storage device that stores in advance selection criteria data that associates distance with an intensity threshold regarding the intensity of reflected light,



The signal processing circuit acquires the distance data and intensity data indicating the intensity of the reflected light from the laser range finder for each angle,



obtaining the intensity threshold according to the distance using the distance data and the selection criterion data;



selecting a region including a reflection point where the intensity data is less than or equal to the intensity threshold as the one or more partial regions;



The map creation system according to claim 3 or 4.
前記1以上の部分領域の指定をユーザから受け付ける入力装置をさらに備えた請求項1から4のいずれかに記載の地図作成システム。 5. The map creation system according to claim 1, further comprising an input device that receives designation of the one or more partial areas from a user. 前記レーザレンジファインダは、前記レーザビームを出射時刻と、前記反射光の受光時刻との関係を利用して前記距離データを取得する、



請求項1から6のいずれかに記載の地図作成システム。
The laser range finder acquires the distance data using a relationship between a time when the laser beam is emitted and a time when the reflected light is received.



A map creation system according to any one of claims 1 to 6.
前記レーザレンジファインダは、出射された前記レーザビームの位相と前記反射光の位相との関係を利用して前記距離データを取得する、



請求項1から6のいずれかに記載の地図作成システム。
The laser range finder acquires the distance data using the relationship between the phase of the emitted laser beam and the phase of the reflected light.



A map creation system according to any one of claims 1 to 6.
移動体が自己位置を推定するために参照する地図を作成する地図作成システムで用いられる信号処理回路であって、前記地図作成システムはレーザレンジファインダを有しており、



前記レーザレンジファインダは、第1角度範囲内で角度を変えながらレーザビームを出射して反射光を取得し、出射した前記レーザビームと前記反射光との関係を利用して、前記角度ごとに、計測可能な第1距離以内に存在する反射点までの距離を示す距離データを取得し、



前記信号処理回路は、前記第1角度範囲および前記第1距離によって規定される計測可能領域の中から、前記計測可能領域よりも小さい1以上の部分領域を選択する処理と、



前記1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する処理とを実行し、



前記1以上の部分領域として、前記移動体が自己位置を推定する際に用いるレーザレンジファインダの計測領域よりも狭い領域を選択する、



信号処理回路。
A signal processing circuit used in a map creation system that creates a map that a mobile object refers to in order to estimate its own position, the map creation system having a laser range finder,



The laser range finder emits a laser beam while changing angles within a first angle range to obtain reflected light, and utilizes the relationship between the emitted laser beam and the reflected light to: Obtaining distance data indicating the distance to a reflection point existing within a measurable first distance,



The signal processing circuit selects one or more partial regions smaller than the measurable region from the measurable region defined by the first angular range and the first distance;



creating a map using distance data indicating a distance to a reflection point included in the one or more partial areas;



Selecting an area narrower than a measurement area of a laser range finder used when the mobile body estimates its own position as the one or more partial areas;



signal processing circuit.
請求項9に記載の信号処理回路と、前記レーザレンジファインダと、移動のための駆動装置と、を備える移動体。 A moving body comprising the signal processing circuit according to claim 9, the laser range finder, and a driving device for movement. 移動体が自己位置を推定するために参照する地図を作成する地図作成方法であって、



レーザレンジファインダを用いて、第1角度範囲内で角度を変えながらレーザビームを出射して反射光を取得し、



出射した前記レーザビームと前記反射光との関係を利用して、前記角度ごとに、計測可能な第1距離以内に存在する反射点までの距離を示す距離データを取得し、



前記第1角度範囲および前記第1距離によって規定される計測可能領域の中から、前記計測可能領域よりも小さい1以上の部分領域であって、前記移動体が自己位置を推定する際に用いるレーザレンジファインダの計測領域よりも狭い1以上の部分領域を選択し、



前記1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する、



地図作成方法。
A map creation method for creating a map that a mobile object refers to in order to estimate its own position, the method comprising:



Using a laser range finder, emit a laser beam while changing the angle within a first angle range and obtain reflected light,



Utilizing the relationship between the emitted laser beam and the reflected light, obtain distance data indicating the distance to a reflection point existing within a measurable first distance for each angle,



One or more partial areas smaller than the measurable area from the measurable area defined by the first angular range and the first distance, and which are used by the moving body to estimate its own position using a laser beam. Select one or more partial areas narrower than the range finder measurement area,



creating a map using distance data indicating a distance to a reflection point included in the one or more partial areas;



Map creation method.
移動体が自己位置を推定するために参照する地図を作成する地図作成システムであって、



第1角度範囲内で角度を変えながらレーザビームを出射して反射光を取得し、出射した前記レーザビームと前記反射光との関係を利用して、前記角度ごとに、計測可能な第1距離以内に存在する反射点までの距離を示す距離データを取得するレーザレンジファインダと、



前記第1角度範囲および前記第1距離によって規定される計測可能領域の中から、前記計測可能領域よりも小さい1以上の部分領域を選択し、



前記1以上の部分領域内に含まれる反射点までの距離を示す距離データを用いて地図を作成する信号処理回路とを備える地図作成システム。
A map creation system that creates a map that a mobile object refers to in order to estimate its own position,



A first distance that can be measured for each angle by emitting a laser beam and acquiring reflected light while changing the angle within a first angle range, and using the relationship between the emitted laser beam and the reflected light. a laser range finder that obtains distance data indicating the distance to reflective points existing within the range;



selecting one or more partial regions smaller than the measurable region from the measurable region defined by the first angular range and the first distance;



A map creation system comprising: a signal processing circuit that creates a map using distance data indicating a distance to a reflection point included in the one or more partial areas.
JP2021514198A 2019-04-17 2020-04-15 Map creation system, signal processing circuit, mobile object and map creation method Active JP7396353B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019078414 2019-04-17
JP2019078414 2019-04-17
PCT/JP2020/016585 WO2020213645A1 (en) 2019-04-17 2020-04-15 Map creation system, signal processing circuit, moving body, and map creation method

Publications (2)

Publication Number Publication Date
JPWO2020213645A1 JPWO2020213645A1 (en) 2020-10-22
JP7396353B2 true JP7396353B2 (en) 2023-12-12

Family

ID=72837928

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021514198A Active JP7396353B2 (en) 2019-04-17 2020-04-15 Map creation system, signal processing circuit, mobile object and map creation method

Country Status (3)

Country Link
JP (1) JP7396353B2 (en)
CN (1) CN113711153B (en)
WO (1) WO2020213645A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN116449391B (en) * 2023-04-17 2024-05-17 深圳直角设计工程有限公司 Indoor panoramic imaging method and system based on 3D point cloud

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019535014A (en) 2016-09-20 2019-12-05 イノヴィズ テクノロジーズ リミテッド LIDAR system and method

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009031884A (en) * 2007-07-25 2009-02-12 Toyota Motor Corp Autonomous mobile body, map information creation method in autonomous mobile body and moving route specification method in autonomous mobile body
JP2009093308A (en) * 2007-10-05 2009-04-30 Hitachi Industrial Equipment Systems Co Ltd Robot system
JP2010164463A (en) * 2009-01-16 2010-07-29 Mitsubishi Electric Corp Laser three-dimensional image measuring device
JP5639874B2 (en) * 2010-12-24 2014-12-10 株式会社日立製作所 Driving assistance device
JPWO2019054209A1 (en) * 2017-09-13 2020-10-29 日本電産シンポ株式会社 Map making system and map making device
CN107764270A (en) * 2017-10-19 2018-03-06 武汉工控仪器仪表有限公司 A kind of laser scan type indoor map generation and updating device and method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019535014A (en) 2016-09-20 2019-12-05 イノヴィズ テクノロジーズ リミテッド LIDAR system and method

Also Published As

Publication number Publication date
JPWO2020213645A1 (en) 2020-10-22
CN113711153A (en) 2021-11-26
WO2020213645A1 (en) 2020-10-22
CN113711153B (en) 2024-04-19

Similar Documents

Publication Publication Date Title
JP7168211B2 (en) Mobile object that avoids obstacles and its computer program
JP6816830B2 (en) A position estimation system and a mobile body equipped with the position estimation system.
US20190294181A1 (en) Vehicle, management device, and vehicle management system
JP6825712B2 (en) Mobiles, position estimators, and computer programs
US20200110410A1 (en) Device and method for processing map data used for self-position estimation, mobile body, and control system for mobile body
JPWO2019026761A1 (en) Mobile and computer programs
JP7136426B2 (en) Management device and mobile system
US11537140B2 (en) Mobile body, location estimation device, and computer program
WO2019054208A1 (en) Mobile body and mobile body system
WO2019054209A1 (en) Map creation system and map creation device
CN111971633B (en) Position estimation system, mobile body having the position estimation system, and recording medium
JP2019175137A (en) Mobile body and mobile body system
JP7243014B2 (en) moving body
JP7396353B2 (en) Map creation system, signal processing circuit, mobile object and map creation method
JP2019179497A (en) Moving body and moving body system
JP2019067001A (en) Moving body
CN112578789A (en) Moving body
JP2020166702A (en) Mobile body system, map creation system, route creation program and map creation program
JPWO2019059299A1 (en) Operation management device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230324

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231031

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231113

R151 Written notification of patent or utility model registration

Ref document number: 7396353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350