JP2023177532A - guidance system - Google Patents

guidance system Download PDF

Info

Publication number
JP2023177532A
JP2023177532A JP2022090259A JP2022090259A JP2023177532A JP 2023177532 A JP2023177532 A JP 2023177532A JP 2022090259 A JP2022090259 A JP 2022090259A JP 2022090259 A JP2022090259 A JP 2022090259A JP 2023177532 A JP2023177532 A JP 2023177532A
Authority
JP
Japan
Prior art keywords
unit
vehicle
guidance
projection
unmanned flying
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022090259A
Other languages
Japanese (ja)
Other versions
JP7430975B2 (en
Inventor
彰 卯路
Akira Uro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2022090259A priority Critical patent/JP7430975B2/en
Publication of JP2023177532A publication Critical patent/JP2023177532A/en
Application granted granted Critical
Publication of JP7430975B2 publication Critical patent/JP7430975B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Abstract

To enable an operator maneuvering a manned transportation vehicle to intuitively recognize a distance to a cargo handling position, a direction thereof and the like by using a plurality of unmanned flying objects for guiding the manned transportation vehicle.SOLUTION: A guidance system S comprises: a manned transportation vehicle 1 that is operated by an operator O; a plurality of unmanned flying objects 2 capable of hovering in the air; and a management device 3 that controls the unmanned flying objects 2. Each unmanned flying object 2 comprises: a projection unit 23 that projects a guide image 200; and a road surface imaging unit 25 that captures images of a road surface side. The management device 3 comprises: a guide road generation unit 31 that generates a guide road 4 between a vehicle position D1 of the manned transportation vehicle 1 and a cargo handling position D2; an arrangement determination unit 32 that determines a position where the plurality of unmanned flying objects 2 will hover in the air on the guide road 4; and a projection commanding unit 33 that commands the projection unit 23 a direction in which the guide image is projected on the basis of an image captured by the road surface imaging unit 25.SELECTED DRAWING: Figure 4

Description

本発明は、有人搬送車と無人飛行体とを備えた誘導システムに関する。 The present invention relates to a guidance system including a manned guided vehicle and an unmanned flying vehicle.

工場や倉庫等の施設内で使用される有人搬送車(例えば、フォークリフト)は、オペレータが搭乗及び操作することで動作するように構成されている。フォークリフトは、フォークを使って荷物を荷取り及び荷置きする荷役を行うように構成されている。 2. Description of the Related Art Manned guided vehicles (for example, forklifts) used in facilities such as factories and warehouses are configured to operate when an operator rides on and operates them. Forklifts are configured to use their forks to carry out loading and unloading operations.

ところで、オペレータが操作する有人搬送車と、空中停止可能な一台の無人飛行体と、無人飛行体を制御する管理装置と、を備える誘導システムが知られている(特許文献1等参照)。 By the way, a guidance system is known that includes a manned guided vehicle operated by an operator, an unmanned flying vehicle that can be stopped in the air, and a management device that controls the unmanned flying vehicle (see Patent Document 1, etc.).

誘導システムにおいて、無人飛行体は、路面に対して誘導画像を投影するプロジェクタを備えている。誘導画像は、例えば、特定した方向を指し示す矢印が表示されており、有人搬送車の前方の路面に投影される。これにより、有人搬送車を操作中のオペレータは、誘導画像を確認することで、荷役位置に誘導されるように構成されている。 In a guidance system, an unmanned flying vehicle is equipped with a projector that projects a guidance image onto a road surface. The guidance image displays, for example, an arrow pointing in the specified direction, and is projected onto the road surface in front of the manned guided vehicle. Thereby, the operator who is operating the manned guided vehicle is configured to be guided to the cargo handling position by checking the guidance image.

ところで、従来の誘導システムでは、一台の無人飛行体が投影する1つの誘導画像に基づいて有人搬送車を誘導するので、有人搬送車を操作するオペレータが荷役位置までの距離及び方向等を直感的に認識することが難しいという問題がある。 By the way, in conventional guidance systems, the manned guided vehicle is guided based on one guidance image projected by one unmanned flying vehicle, so the operator operating the manned guided vehicle can intuitively know the distance and direction to the cargo handling position. The problem is that it is difficult to recognize the

特開2020-52629号公報Japanese Patent Application Publication No. 2020-52629

そこで、本発明が解決しようとする課題は、有人搬送車を誘導するための無人飛行体を複数台使用して、有人搬送車を操作するオペレータが荷役位置までの距離及び方向等を直感的に認識することができる誘導システムを提供することにある。 Therefore, the problem to be solved by the present invention is to use a plurality of unmanned flying vehicles to guide a manned guided vehicle so that an operator operating the manned guided vehicle can intuitively determine the distance and direction to the cargo handling position. The objective is to provide a guidance system that can be recognized.

上記課題を解決するため、本発明に係る誘導システムは、オペレータが操作する有人搬送車と、空中停止可能な複数台の無人飛行体と、無人飛行体を制御する管理装置と、を備えている。無人飛行体は、誘導画像を投影する投影部と、路面側を撮影する路面撮影部と、を備えている。さらに、管理装置は、有人搬送車の車両位置と荷役位置との間に誘導路を生成する誘導路生成部と、誘導路上で複数台の無人飛行体が空中停止する位置を決定する配置決定部と、路面撮影部による撮影画像に基づいて、誘導画像が投影される方向を投影部に指示する投影指示部と、を備えている。 In order to solve the above problems, a guidance system according to the present invention includes a manned carrier operated by an operator, a plurality of unmanned flying vehicles that can be stopped in the air, and a management device that controls the unmanned flying vehicles. . The unmanned flying vehicle includes a projection section that projects a guidance image and a road surface photographing section that photographs the road side. Furthermore, the management device includes a taxiway generation unit that generates a taxiway between the vehicle position of the manned guided vehicle and the cargo handling position, and a placement determination unit that determines the positions at which the plurality of unmanned aircraft will stop in the air on the taxiway. and a projection instruction section that instructs the projection section in a direction in which the guidance image is projected based on the image taken by the road surface imaging section.

好ましくは、投影指示部は、撮影画像の色に関する色データ及び照度に関する照度データと、オペレータの視認性を示す視認性スコアとの間の関係に基づく教師データを収集する収集部を備えている。また、投影指示部は、収集部に収集された教師データから機械学習を行い、機械学習により学習モデルを生成および記憶する学習モデル生成部と、現時点の色データ及び照度データを所定時間ごとに取得する取得部と、学習モデル生成部で生成された学習モデルに、取得部から取得される現時点の色データ及び照度データを入力することで、視認性スコアを学習モデルから取得する予測部と、予測部によって取得される視認性スコアに基づいて、誘導画像が投影される方向を決定する決定部と、を備えている。 Preferably, the projection instruction section includes a collection section that collects teacher data based on the relationship between color data regarding the color of the photographed image, illuminance data regarding the illuminance, and a visibility score indicating visibility for an operator. In addition, the projection instruction unit performs machine learning from the teacher data collected in the collection unit, and includes a learning model generation unit that generates and stores a learning model by machine learning, and acquires current color data and illuminance data at predetermined intervals. a prediction unit that acquires a visibility score from the learning model by inputting the current color data and illuminance data acquired from the acquisition unit into the learning model generated by the learning model generation unit; and a determination unit that determines a direction in which the guidance image is projected based on the visibility score obtained by the determination unit.

誘導画像が投影される方向は、路面側、棚側および天井側を含むことが望ましい。 It is desirable that the direction in which the guidance image is projected includes the road surface side, the shelf side, and the ceiling side.

また、好ましくは、棚は、誘導画像が投影される被投影面を備える。 Preferably, the shelf includes a projection surface onto which the guidance image is projected.

そして、被投影面は、棚に設けられた投影パネルの平坦面、又は、棚に収納された荷物の平坦面であってもよい。 The projection surface may be a flat surface of a projection panel provided on a shelf or a flat surface of luggage stored on a shelf.

無人飛行体は、さらに、棚側を撮影する棚撮影部と、天井側を撮影する天井撮影部と、を備えていてもよい。投影指示部は、路面撮影部、棚撮影部及び天井撮影部による各撮影画像に基づいて、誘導画像が投影される方向を投影部に指示する。 The unmanned aerial vehicle may further include a shelf photographing section that photographs the shelf side, and a ceiling photographing section that photographs the ceiling side. The projection instruction section instructs the projection section in a direction in which the guide image is projected based on the images taken by the road surface imaging section, the shelf imaging section, and the ceiling imaging section.

好ましくは、投影指示部は、各撮影画像の色に関する色データ及び照度に関する照度データと、オペレータの視認性を示す視認性スコアとの間の関係に基づく教師データを収集する収集部を備えている。また、収集部に収集された教師データから機械学習を行い、機械学習により学習モデルを生成および記憶する学習モデル生成部と、現時点の色データ及び照度データを所定時間ごとに取得する取得部と、学習モデル生成部で生成された学習モデルに、取得部から取得される現時点の色データ及び照度データを入力することで、視認性スコアを学習モデルから取得する予測部と、予測部によって取得される視認性スコアに基づいて、誘導画像が投影される方向を決定する決定部と、を備えている。 Preferably, the projection instruction section includes a collection section that collects teacher data based on the relationship between color data regarding the color and illuminance data regarding the illuminance of each photographed image and a visibility score indicating visibility for an operator. . Also, a learning model generation unit that performs machine learning from the teacher data collected in the collection unit and generates and stores a learning model by machine learning, and an acquisition unit that acquires current color data and illuminance data at predetermined intervals; A prediction unit that acquires a visibility score from the learning model by inputting the current color data and illuminance data acquired from the acquisition unit into the learning model generated by the learning model generation unit; A determination unit that determines a direction in which the guidance image is projected based on the visibility score.

また、配置決定部は、無人飛行体が荷役位置の高さに配置されるよう無人飛行体の空中停止位置を決定してもよい。 Further, the placement determining unit may determine the aerial stop position of the unmanned aerial vehicle so that the unmanned aerial vehicle is positioned at the height of the cargo handling position.

好ましくは、配置決定部は、無人飛行体が荷役位置の高さに配置されるよう無人飛行体の空中停止位置を決定する。また、管理装置は、荷役位置の高さが棚の最下段の高さに相当するとき、無人飛行体が発光するように制御する。 Preferably, the placement determining unit determines the aerial stop position of the unmanned aerial vehicle so that the unmanned aerial vehicle is positioned at the height of the cargo handling position. Furthermore, the management device controls the unmanned flying vehicle to emit light when the height of the cargo handling position corresponds to the height of the lowest shelf.

好ましくは、配置決定部は、無人飛行体が荷役位置の高さに配置されるよう無人飛行体の空中停止位置を決定する。また、管理装置は、荷役位置の高さが棚の最下段の高さに相当するとき、無人飛行体が天井に向けて誘導画像を投影するように制御する投影指示部を備える。 Preferably, the placement determining unit determines the aerial stop position of the unmanned aerial vehicle so that the unmanned aerial vehicle is positioned at the height of the cargo handling position. The management device also includes a projection instruction unit that controls the unmanned flying vehicle to project the guidance image toward the ceiling when the height of the cargo handling position corresponds to the height of the lowest shelf.

配置決定部は、有人搬送車を操作するオペレータの目の高さと荷役位置の高さとを結ぶ直線上に無人飛行体の空中停止位置を決定することが望ましい。 It is preferable that the placement determining unit determines the aerial stopping position of the unmanned flying vehicle on a straight line connecting the eye level of the operator operating the manned guided vehicle and the height of the cargo handling position.

配置決定部は、有人搬送車を操作するオペレータの目に相当する高さと荷役位置の高さとを結ぶ直線上に無人飛行体の空中停止位置を決定してもよい。さらに、管理装置は、無人飛行体が路面に向けて誘導画像を投影するように制御する投影指示部を備える。 The placement determining unit may determine the aerial stopping position of the unmanned aerial vehicle on a straight line connecting a height corresponding to the eyes of an operator operating the manned guided vehicle and a height of the cargo handling position. Furthermore, the management device includes a projection instruction unit that controls the unmanned flying vehicle to project the guidance image toward the road surface.

好ましくは、管理装置は、無人飛行体が天井に向けて誘導画像を投影するように制御する投影指示部を備えている。さらに、配置決定部は、有人搬送車と、有人搬送車に最も近い無人飛行体との間の距離が所定長さになるように無人飛行体を制御する。 Preferably, the management device includes a projection instruction unit that controls the unmanned flying vehicle to project the guidance image toward the ceiling. Further, the placement determining unit controls the unmanned flying object so that the distance between the manned guided vehicle and the unmanned flying object closest to the manned guided vehicle becomes a predetermined length.

また、管理装置は、無人飛行体が路面又は天井に向けて誘導画像を投影するように制御する投影指示部を備えており、無人飛行体の高さに応じて誘導画像のピントを調整するフォーカス調整を行うように制御してもよい。 The management device also includes a projection instruction unit that controls the unmanned aerial vehicle to project a guidance image toward the road surface or ceiling, and a focus that adjusts the focus of the guidance image according to the height of the unmanned aerial vehicle. Control may be performed to make adjustments.

本発明に係る誘導システムは、有人搬送車の車両位置と荷役位置との間で生成された誘導路上に複数台の無人飛行体を空中停止することによって、有人搬送車を操作するオペレータが荷役位置までの距離、位置及び方向等を直感的に認識することができる。 The guidance system according to the present invention suspends a plurality of unmanned flying vehicles in the air on a taxiway generated between the vehicle position of the manned guided vehicle and the cargo handling position, so that an operator operating the manned guided vehicle can move to the cargo handling position. You can intuitively recognize the distance, position, direction, etc.

さらに、投影指示部は、路面の汚れや剥がれなどの状態に応じて、誘導画像が投影される方向を指示するようになっているので、路面に誘導画像を綺麗に投影できない場合であっても、棚や天井等に誘導画像を綺麗に投影することで、有人搬送車を操作するオペレータが誘導画像を認識しやすいようにすることができる。 Furthermore, the projection instruction unit is designed to instruct the direction in which the guidance image is projected depending on the condition of the road surface, such as dirt or peeling, so even if the guidance image cannot be projected neatly on the road surface, By clearly projecting the guidance image onto a shelf, ceiling, etc., it is possible to make it easier for the operator operating the manned guided vehicle to recognize the guidance image.

誘導システムを示す斜視図。FIG. 2 is a perspective view showing the guidance system. 誘導システムを示す平面図。FIG. 2 is a plan view showing the guidance system. 誘導システムを示す側面図であって、(A)は誘導画像が路面に投影された状態、(B)は誘導画像が天井に投影された状態。FIG. 3 is a side view showing the guidance system, in which (A) shows a state in which a guidance image is projected onto a road surface, and (B) shows a state in which a guidance image is projected onto a ceiling. 誘導システムを示す側面図であって、(A)は誘導画像が棚の投影パネルに投影された状態、(B)は誘導画像が棚に収納された荷物に投影された状態。FIG. 3 is a side view showing the guidance system, in which (A) shows a state in which a guidance image is projected onto a projection panel of a shelf, and (B) shows a state in which a guidance image is projected onto luggage stored on a shelf. 誘導システムを示すブロック図。A block diagram showing a guidance system. 投影指示部を説明するためのブロック図。FIG. 3 is a block diagram for explaining a projection instruction section. 他の実施形態1の誘導システムを示す側面図。FIG. 7 is a side view showing another guidance system of Embodiment 1; 他の実施形態2の誘導システムを示す側面図。FIG. 7 is a side view showing a guidance system according to another embodiment 2; 他の実施形態3の誘導システムを示す側面図。FIG. 7 is a side view showing a guidance system according to another embodiment 3; 他の実施形態4の誘導システムを示す側面図。FIG. 7 is a side view showing a guidance system according to another embodiment 4; 他の実施形態5の誘導システムを示す側面図。FIG. 7 is a side view showing a guidance system according to another embodiment 5; 他の実施形態6の誘導システムを示す側面図。FIG. 7 is a side view showing a guidance system according to another embodiment 6;

以下、図面に基づいて、本発明に係る誘導システムの実施形態を説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a guidance system according to the present invention will be described based on the drawings.

<第1実施形態>
図1~図6のとおり、誘導システムSは、オペレータOが操作する有人搬送車1を備える。有人搬送車1は、オペレータOが操作することで動作するように構成されている。本実施形態では、有人搬送車1は、カウンタバランス式のフォークリフトであって、オペレータOが操作することで、車体の走行、及びフォークの昇降を行うことができるように構成されている。
<First embodiment>
As shown in FIGS. 1 to 6, the guidance system S includes a manned guided vehicle 1 operated by an operator O. The manned guided vehicle 1 is configured to operate when an operator O operates it. In this embodiment, the manned guided vehicle 1 is a counterbalance type forklift, and is configured so that the vehicle body can travel and the fork can be raised and lowered by operation by the operator O.

誘導システムSは、工場や倉庫等の施設内に設置された複数の棚Rを備えている。棚Rは、高さ方向に複数の段部を備えており、段部の所定位置に荷物Lを収納できるように構成されている。有人搬送車1は、棚Rの所定位置に対して荷物Lを荷置き及び荷取りして荷役を行う。棚Rは、有人搬送車1が走行及び荷役を行うことができるように、所定幅の間隔を置いて配置されており、対向する棚Rの間に通路Pが形成されている(図2)。 The guidance system S includes a plurality of shelves R installed in a facility such as a factory or warehouse. The shelf R includes a plurality of steps in the height direction, and is configured such that the luggage L can be stored at a predetermined position on the steps. The manned guided vehicle 1 performs cargo handling by loading and unloading the cargo L at a predetermined position on the shelf R. The shelves R are arranged at intervals of a predetermined width so that the manned guided vehicle 1 can travel and handle cargo, and a passage P is formed between the opposing shelves R (FIG. 2). .

誘導システムSは、空中停止可能な複数台の無人飛行体2を備える。無人飛行体2は、ドローンと呼ばれており、複数本のアームの各先端側に設けられた回転翼の回転によって、所定の空中停止位置まで飛行すると共に、所定の空中停止位置でホバリング可能なように構成されている。 The guidance system S includes a plurality of unmanned flying objects 2 that can be stopped in the air. The unmanned flying object 2 is called a drone, and is capable of flying to a predetermined mid-air stopping position and hovering at a predetermined mid-air stopping position by rotating rotary wings provided at the tips of each of a plurality of arms. It is configured as follows.

誘導システムSは、無人飛行体2を制御するための管理装置3を備える(図5)。管理装置3は、記憶部30を備えている。記憶部30は、施設内に設置された棚R及び通路P、施設内に配置された荷物L等によって構成されるマップMが記憶されている。 The guidance system S includes a management device 3 for controlling the unmanned flying vehicle 2 (FIG. 5). The management device 3 includes a storage section 30. The storage unit 30 stores a map M including shelves R and passages P installed within the facility, luggage L placed within the facility, and the like.

さらに、記憶部30は、有人搬送車1によって行われる単数または複数の荷役タスクTが荷役スケジュールJとして記憶されている。即ち、荷役スケジュールJは、所定の棚Rの所定場所から荷物Lを荷取りする荷役タスクT1、所定の棚Rの所定場所に荷物Lを荷置きする荷役タスクT2、出荷場所に荷物Lを荷置きする荷役タスクT3、入荷場所から荷物Lを荷取りする荷役タスクT4等の単数または複数の荷役タスクTが、所定の順序に従って設定されている。また、荷役タスクTは、荷物Lの位置情報、荷物Lに対する荷役(荷取り又は荷置き)情報が含まれている。 Furthermore, the storage unit 30 stores one or more cargo handling tasks T performed by the manned guided vehicle 1 as a cargo handling schedule J. In other words, the cargo handling schedule J includes a cargo handling task T1 for picking up a cargo L from a predetermined location on a predetermined shelf R, a cargo handling task T2 for depositing the cargo L at a predetermined location on a predetermined shelf R, and a cargo handling task T2 for loading the cargo L at a predetermined location on a predetermined shelf R. One or more cargo handling tasks T, such as a cargo handling task T3 for placing the cargo L and a cargo handling task T4 for picking up the cargo L from the receiving location, are set in a predetermined order. Further, the cargo handling task T includes position information of the cargo L and cargo handling (pickup or storage) information for the cargo L.

管理装置3は、荷役指示部34を備えており、荷役指示部34が、記憶部30から送信される荷役スケジュールJの荷役タスクTを有人搬送車1の運転席に設けられた表示部11に表示するように構成されている。 The management device 3 includes a cargo handling instruction section 34, and the cargo handling instruction section 34 displays the cargo handling task T of the cargo handling schedule J transmitted from the storage section 30 on the display section 11 provided in the driver's seat of the manned guided vehicle 1. configured to display.

表示部11は、例えば、タッチパネルディスプレイで構成されており、荷役指示部34は、有人搬送車1が行うべき荷役タスクTを表示部11に表示する。オペレータOは、表示部11に表示された荷役タスクTに従って、有人搬送車1を操作して荷役を行う。荷役タスクTが終了すると、オペレータOは、表示部11に表示された終了ボタン(不図示)を押して、終了信号が荷役指示部34に送信される。荷役指示部34は、終了信号を受信すると、荷役スケジュールJに基づいて、次に有人搬送車1が行うべき荷役タスク(次の荷役タスク)Tを表示部11に表示するように構成されている。 The display unit 11 is configured with, for example, a touch panel display, and the cargo handling instruction unit 34 displays on the display unit 11 the cargo handling task T that the manned guided vehicle 1 should perform. The operator O operates the manned guided vehicle 1 to handle cargo according to the cargo handling task T displayed on the display unit 11. When the cargo handling task T is completed, the operator O presses an end button (not shown) displayed on the display section 11, and an end signal is transmitted to the cargo handling instruction section 34. The cargo handling instruction unit 34 is configured to display the cargo handling task (next cargo handling task) T to be performed by the manned guided vehicle 1 on the display unit 11 based on the cargo handling schedule J upon receiving the end signal. .

有人搬送車1は、位置検出部10を備えている。位置検出部10は、レーザーセンサ、GPSセンサ、電磁誘導センサ等で構成されている。位置検出部10は、有人搬送車1の車両位置D1を検出するように構成されている。 The manned guided vehicle 1 includes a position detection section 10. The position detection unit 10 includes a laser sensor, a GPS sensor, an electromagnetic induction sensor, and the like. The position detection unit 10 is configured to detect the vehicle position D1 of the manned guided vehicle 1.

管理装置3は、誘導路生成部31を備えている。誘導路生成部31は、位置検出部10から送信される有人搬送車1の車両位置D1の情報と、記憶部30から送信される施設マップMと、記憶部30から送信される荷役スケジュールJの荷役タスクTとに基づいて、有人搬送車1の車両位置D1と荷役位置D2との間の誘導路4を生成する。荷役位置D2は、荷役タスクTにおいて有人搬送車1が荷取り及び荷置きする通路P上の位置である(図2)。 The management device 3 includes a guideway generation section 31. The taxiway generation unit 31 generates information on the vehicle position D1 of the manned guided vehicle 1 transmitted from the position detection unit 10, the facility map M transmitted from the storage unit 30, and the cargo handling schedule J transmitted from the storage unit 30. Based on the cargo handling task T, a guide path 4 between the vehicle position D1 of the manned guided vehicle 1 and the cargo handling position D2 is generated. The cargo handling position D2 is a position on the path P where the manned guided vehicle 1 picks up and deposits cargo in the cargo handling task T (FIG. 2).

図2のとおり、誘導路生成部31は、例えば、車両位置D1と荷役位置D2とを通路P上で結ぶ誘導路4を生成するように構成されている。誘導路4は、例えば、有人搬送車1の走行距離が最短となるよう設定される。本実施形態では、図2のとおり、誘導路4は、第1直線部41、屈曲部40、第2直線部42で構成されている。 As shown in FIG. 2, the guideway generation unit 31 is configured to generate, for example, a guideway 4 that connects the vehicle position D1 and the cargo handling position D2 on the passage P. The guideway 4 is set, for example, so that the travel distance of the manned guided vehicle 1 is the shortest. In this embodiment, as shown in FIG. 2, the guideway 4 includes a first straight section 41, a bent section 40, and a second straight section 42.

無人飛行体2は、位置検出部20を備えている(図5)。位置検出部20は、GPSセンサ、ジャイロセンサ、超音波センサ、レーザーセンサ、気圧センサ、コンパス、加速度センサ等で構成されており、無人飛行体2の位置を検出することができる。 The unmanned aerial vehicle 2 includes a position detection section 20 (FIG. 5). The position detection unit 20 includes a GPS sensor, a gyro sensor, an ultrasonic sensor, a laser sensor, an atmospheric pressure sensor, a compass, an acceleration sensor, etc., and can detect the position of the unmanned flying vehicle 2.

無人飛行体2は、飛行制御部21を備えている。飛行制御部21は、回転翼の回転を制御するように構成されている。無人飛行体2は、位置検出部20の検出結果と飛行制御部21の制御とに基づいて、誘導路4上の所定の空中停止位置まで飛行して、空中停止位置で空中停止するようにホバリングすることができる。 The unmanned flying vehicle 2 includes a flight control section 21. The flight control unit 21 is configured to control the rotation of the rotor. Based on the detection result of the position detection unit 20 and the control of the flight control unit 21, the unmanned flying object 2 flies to a predetermined aerial stop position on the taxiway 4 and hovers so as to stop in the air at the air stop position. can do.

管理装置3は、配置決定部32を備えている。配置決定部32は、無人飛行体2の台数を誘導路4の距離に応じて決定するように構成されている。 The management device 3 includes a placement determining section 32. The arrangement determining unit 32 is configured to determine the number of unmanned flying objects 2 according to the distance of the taxiway 4.

配置決定部32は、例えば、無人飛行体2が誘導路4上に等間隔に配置されるようにする場合、誘導路4が長距離のときは、多数の無人飛行体2が配置されるように決定する一方、誘導路4が短距離のときは、少数の無人飛行体2が配置されるように決定する。 For example, when the unmanned aerial vehicles 2 are arranged at equal intervals on the taxiway 4, when the taxiway 4 is long distance, the arrangement determining unit 32 determines that a large number of unmanned aerial vehicles 2 are arranged at equal intervals on the taxiway 4. On the other hand, when the taxiway 4 is short, it is determined that a small number of unmanned flying vehicles 2 are arranged.

配置決定部32は、さらに、誘導路4上で無人飛行体2がホバリングする空中停止位置を決定するよう構成されている。図2のとおり、本実施形態では、無人飛行体2は、誘導路4の第1直線部41及び第2直線部42上で等間隔に空中停止してホバリングすると共に、誘導路4の屈曲部40上に配置される屈曲位置D3、誘導路4上に配置される荷役位置D2で空中停止してホバリングする。 The placement determining unit 32 is further configured to determine an aerial stop position at which the unmanned aerial vehicle 2 hovers on the taxiway 4 . As shown in FIG. 2, in this embodiment, the unmanned aerial vehicle 2 hovers in the air at equal intervals on the first straight section 41 and the second straight section 42 of the taxiway 4, and also hovers at the bending section of the taxiway 4. It stops in the air and hovers at the bending position D3 located on the taxiway 40 and the cargo handling position D2 located on the taxiway 4.

誘導路4上の屈曲位置D3は、有人搬送車1が曲がる重要な位置であることから、屈曲位置D3に無人飛行体2が空中停止してホバリングすることで、オペレータOは、重要な位置である屈曲位置D3を素早く把握することができる。また、誘導路4上の荷役位置D2は、有人搬送車1が荷役作業を行う重要な位置であることから、荷役位置D2に無人飛行体2が空中停止してホバリングすることで、オペレータOは、重要な位置である荷役位置D2を素早く把握することができる。 Since the bending position D3 on the taxiway 4 is an important position where the manned guided vehicle 1 turns, the unmanned flying vehicle 2 stops in the air and hovers at the bending position D3, so that the operator O can move the vehicle at the important position. A certain bending position D3 can be quickly grasped. In addition, since the cargo handling position D2 on the taxiway 4 is an important position where the manned guided vehicle 1 performs cargo handling work, the unmanned flying vehicle 2 is suspended in the air and hovering at the cargo handling position D2, so that the operator O can , the cargo handling position D2, which is an important position, can be quickly grasped.

無人飛行体2は、記憶部22を備えている。記憶部22は、誘導画像200を記憶している。誘導画像200は、例えば、有人搬送車1を荷役位置D2に誘導するための矢印等で構成されており、荷役位置D2に応じて矢印の向きが変化するように表示される(図2)。 The unmanned aerial vehicle 2 includes a storage section 22. The storage unit 22 stores the guidance image 200. The guidance image 200 is composed of, for example, an arrow for guiding the manned guided vehicle 1 to the cargo handling position D2, and is displayed so that the direction of the arrow changes depending on the cargo handling position D2 (FIG. 2).

無人飛行体2は、投影部23を備えている。投影部23は、例えば、プロジェクタ等で構成されており、施設の通路Pの路面に、記憶部22に記憶された誘導画像200を投影することができるようになっている(図1及び図2)。 The unmanned aerial vehicle 2 includes a projection section 23. The projection unit 23 is composed of, for example, a projector, and is capable of projecting the guidance image 200 stored in the storage unit 22 onto the road surface of the passage P of the facility (FIGS. 1 and 2). ).

管理装置3は、投影指示部33を備えている。投影指示部33は、誘導路生成部31による誘導路4に応じて、通路Pに投影すべき誘導画像200を決定して、無人飛行体2の投影部23に投影の指示を送るよう構成されている。 The management device 3 includes a projection instruction section 33. The projection instruction unit 33 is configured to determine the guidance image 200 to be projected onto the path P according to the taxiway 4 generated by the taxiway generation unit 31 and send a projection instruction to the projection unit 23 of the unmanned aerial vehicle 2. ing.

図1及び図2の通り、通常では、投影部23は、通路Pの路面に誘導画像200を投影するように構成されている。 As shown in FIGS. 1 and 2, the projection unit 23 is normally configured to project the guidance image 200 onto the road surface of the passage P.

また、無人飛行体2は、路面撮影部25を備えており、路面撮影部25は、通路Pの路面を撮影するよう構成されている。路面撮影部25は、例えば、CCDセンサ、CMOSセンサ、イメージプロセッサ等を有するカメラでよく、撮影画像を取得するよう構成されている。 Further, the unmanned aerial vehicle 2 includes a road surface photographing section 25, and the road surface photographing section 25 is configured to photograph the road surface of the passage P. The road surface photographing unit 25 may be a camera having, for example, a CCD sensor, a CMOS sensor, an image processor, etc., and is configured to acquire photographed images.

無人飛行体2は、誘導画像200を投影する投影部23を備えているが、投影部23は、例えば、1つのプロジェクタが誘導画像200を投影する方向を変更するか、複数のプロジェクタが異なる方向に誘導画像200を投影するよう構成されており、通路P側、棚R側、天井C側等に誘導画像200を投影することができる。投影部23は、例えば、プロジェクタがモータで回転可能に構成されるか、誘導画像200を反射する反射鏡がモータで回転可能に構成されていて、誘導画像200が投影される方向を変更してもよい。 The unmanned aerial vehicle 2 includes a projection unit 23 that projects the guidance image 200, but the projection unit 23 may, for example, change the direction in which one projector projects the guidance image 200, or change the direction in which a plurality of projectors project the guidance image 200. The guide image 200 can be projected onto the aisle P side, the shelf R side, the ceiling C side, etc. The projection unit 23 is configured such that, for example, a projector is configured to be rotatable by a motor, or a reflecting mirror that reflects the guided image 200 is configured to be rotated by a motor, and the direction in which the guided image 200 is projected is changed. Good too.

また、投影指示部33は、路面撮影部25による撮影画像に基づいて、誘導画像200が投影される方向を投影部23に指示するよう構成されている。投影指示部33は、通路Pの路面の色を記憶しており、撮影画像の全体のうち所定の割合が通路Pの路面の色と異なる色であるときに、路面が汚れていたり剥がれていたりしており、誘導画像200を綺麗に投影できないことから、誘導画像200を通路Pではなく、棚R側や天井C側等に投影するように投影部23に指示してもよい(図3及び図4)。 Furthermore, the projection instruction section 33 is configured to instruct the projection section 23 on the direction in which the guide image 200 is projected based on the image taken by the road surface imaging section 25 . The projection instruction unit 33 stores the color of the road surface of the passage P, and when a predetermined proportion of the entire photographed image has a color different from the color of the road surface of the passage P, it indicates that the road surface is dirty or peeled off. Since the guidance image 200 cannot be projected clearly, the projection unit 23 may be instructed to project the guidance image 200 not on the aisle P but on the shelf R side, the ceiling C side, etc. (see FIGS. 3 and 3). Figure 4).

また、図6の通り、投影指示部33は、機械学習によって、誘導画像200が投影される方向を投影部23に指示してもよい。このとき、投影指示部33は、教師データ46を収集する収集部40を備えている。教師データ46は、通路Pの路面の色に関する色データD1と、通路Pの路面の照度に関する照度データD2とを含む。 Further, as shown in FIG. 6, the projection instruction unit 33 may instruct the projection unit 23 in a direction in which the guided image 200 is projected using machine learning. At this time, the projection instruction section 33 includes a collection section 40 that collects teacher data 46. The teacher data 46 includes color data D1 regarding the color of the road surface of the passage P, and illuminance data D2 regarding the illuminance of the road surface of the passage P.

投影指示部33は、収集部40に収集された教師データ46(色データD1、照度データD2)から機械学習を行い、機械学習により学習モデルを生成および記憶する学習モデル生成部41を備える。本実施の形態の学習モデル生成部41は、教師あり学習を実施する。教師あり学習では、教師データ46、すなわち、入力データIDと出力データODとの組を大量に学習モデル生成部41に入力する。 The projection instruction unit 33 includes a learning model generation unit 41 that performs machine learning from the teacher data 46 (color data D1, illuminance data D2) collected by the collection unit 40, and generates and stores a learning model by machine learning. The learning model generation unit 41 of this embodiment performs supervised learning. In supervised learning, a large amount of teacher data 46, that is, pairs of input data ID and output data OD, are input to the learning model generation unit 41.

入力データIDは、通路Pの路面の色及び照度を含む。出力データODは、視認性スコアである。オペレータが誘導画像200を視認できるか否かの可能性を示す視認性スコアとして、入力データIDを評価し、0から10までの数値パラメータが設定される。 The input data ID includes the color and illuminance of the road surface of the passage P. The output data OD is a visibility score. The input data ID is evaluated and a numerical parameter from 0 to 10 is set as a visibility score indicating the possibility of whether or not the operator can visually recognize the guide image 200.

例えば、視認性スコアの数値パラメータが高い、すなわち、オペレータが誘導画像200を視認できる可能性が高いと判断される場合として、例えば、通路Pの路面の色が、当初の色と同じ色の割合が高いか、同じ色の割合が低かったとしても当初の色に近い色の割合が高くて、照度が高い場合などは、視認性がよいことが多い。 For example, in a case where it is determined that the numerical parameter of the visibility score is high, that is, there is a high possibility that the operator will be able to visually recognize the guidance image 200, for example, the proportion of the color of the road surface of the passage P that is the same as the original color is determined to be high. Visibility is often good if the color is high, or even if the proportion of the same color is low, the proportion of colors close to the original color is high, and the illuminance is high.

一方、視認性スコアの数値パラメータが低い、すなわち、オペレータが誘導画像200を認識できる可能性が低いと判断される場合として、例えば、通路Pの路面の色が、当初の色と異なる色の割合が高いか、異なる色の割合が低かったとしても当初の色から遠い色の割合が高くて、照度が低い場合などは、視認性が悪いことが多い。 On the other hand, when the numerical parameter of the visibility score is low, that is, it is determined that the possibility that the operator will be able to recognize the guidance image 200 is low, for example, the proportion of the color of the road surface of the passage P that is different from the original color If the color is high, or even if the proportion of different colors is low, the proportion of colors far from the original color is high, and the illuminance is low, visibility is often poor.

視認性スコアは、通路Pの路面の色及び照度のいずれかの数値パラメータで設定されてもよいし、重み付け係数により加重平均された数値パラメータで設定されてもよい。 The visibility score may be set using numerical parameters such as the color and illumination of the road surface of the passageway P, or may be set using numerical parameters weighted and averaged using a weighting coefficient.

なお、実際に、オペレータが誘導画像200を視認するときに、通路Pの路面の色及び照度によって視認性が異なるので、通路Pの路面の色及び照度と、オペレータが誘導画像200を視認できることとの間に相関関係等の一定の関係が存在することは推認できる。 Note that when the operator actually visually recognizes the guidance image 200, the visibility differs depending on the color and illuminance of the road surface of the passage P, so the visibility of the guidance image 200 by the operator depends on the color and illumination of the road surface of the passage P. It can be inferred that a certain relationship such as correlation exists between the two.

学習モデル生成部41は、一般的なニューラルネットワーク等の機械学習アルゴリズムを用いる。学習モデル生成部41は、相関関係を有する入力データIDと出力データODを教師データ46として機械学習を行うことにより、入力から出力を推定するモデル(学習モデル)、すなわち、入力データIDを入力すると、視認性スコアを出力するモデルを生成する。 The learning model generation unit 41 uses a machine learning algorithm such as a general neural network. The learning model generation unit 41 generates a model (learning model) that estimates an output from input by performing machine learning using input data ID and output data OD having a correlation as teacher data 46, that is, when input data ID is input. , generate a model that outputs a visibility score.

投影指示部33は、現時点の入力データIDを所定時間ごとに取得する取得部45を備える。本実施形態では、取得部45は、路面撮影部25である。上記の通り、入力データIDは、通路Pの路面の色及び照度である。入力データIDは、所定時間(例えば1分)ごとに取得される。 The projection instruction section 33 includes an acquisition section 45 that acquires the current input data ID at predetermined time intervals. In this embodiment, the acquisition unit 45 is the road surface imaging unit 25. As described above, the input data ID is the color and illuminance of the road surface of the passage P. The input data ID is acquired at predetermined intervals (for example, every minute).

投影指示部33は、学習モデル生成部41で生成された学習モデルを、取得部45から取得される現時点の入力データIDに適用することで、オペレータが誘導画像200を視認できるか否かを予測する予測部42を備える。 The projection instruction unit 33 applies the learning model generated by the learning model generation unit 41 to the current input data ID acquired from the acquisition unit 45 to predict whether or not the operator can visually recognize the guide image 200. A prediction unit 42 is provided.

所定時間ごとに予測部42に現時点の入力データIDが入力されたときに、通路Pの路面の色及び照度を解析して視認性スコアが取得される。取得された視認性スコアが予め設定された所定の数値パラメータ以上という条件を満たせば、オペレータが誘導画像200を視認できる可能性が高いと予測される。 When the current input data ID is input to the prediction unit 42 at predetermined intervals, the color and illuminance of the road surface of the passageway P are analyzed to obtain a visibility score. If the acquired visibility score satisfies the condition that it is equal to or greater than a predetermined numerical parameter set in advance, it is predicted that there is a high possibility that the operator will be able to visually recognize the guide image 200.

決定部43は、視認性が低いときに、投影部23に対して、誘導画像200が投影される方向を通路Pの路面ではなく、棚R側や天井C側等の方向にするよう決定する。これにより、オペレータが誘導画像200を視認しやすくなるよう構成されている。 When visibility is low, the determining unit 43 determines for the projection unit 23 that the direction in which the guidance image 200 is projected is not toward the road surface of the passageway P, but toward the shelf R side, the ceiling C side, etc. . This makes it easier for the operator to visually recognize the guide image 200.

また、無人飛行体2は、路面撮影部25に加えて、棚撮影部26及び天井撮影部27を備えていてもよい。棚撮影部26は、棚Rを撮影するよう構成されている。天井撮影部27は、天井Cを撮影するよう構成されている。各撮影部25,26,27は、例えば、CCDセンサ、CMOSセンサ、イメージプロセッサ等を有するカメラでよく、撮影画像のデータを取得するよう構成されている。各撮影部25,26,27は、それぞれ異なる複数のカメラで構成されてもよいし、単一のカメラで構成されてもよい。 Further, the unmanned aerial vehicle 2 may include a shelf photographing section 26 and a ceiling photographing section 27 in addition to the road surface photographing section 25. The shelf photographing unit 26 is configured to photograph the shelf R. The ceiling photographing unit 27 is configured to photograph the ceiling C. Each photographing unit 25, 26, 27 may be a camera having, for example, a CCD sensor, a CMOS sensor, an image processor, etc., and is configured to acquire data of photographed images. Each of the photographing units 25, 26, and 27 may be composed of a plurality of different cameras, or may be composed of a single camera.

図4(A)の通り、棚Rは、荷物Lが収納される収納部ごとに設けられた投影パネル210を備えていてもよい。投影パネル210は、通路P側の平坦面である被投影面201に誘導画像200が投影されるようになっている。また、図4(B)の通り、棚Rに収納された荷物Lの通路P側を被投影面201として、誘導画像200が投影されてもよい。 As shown in FIG. 4(A), the shelf R may include a projection panel 210 provided for each storage section in which the luggage L is stored. The projection panel 210 is configured to project the guidance image 200 onto a projection surface 201 that is a flat surface on the passage P side. Further, as shown in FIG. 4(B), the guidance image 200 may be projected using the projection surface 201 on the path P side of the luggage L stored on the shelf R.

投影指示部33は、路面撮影部25で撮影された通路Pの路面が汚れていたり剥がれていたりする場合や、棚撮影部26で撮影された棚Rに、投影パネル210や荷物Lの被投影面201がなかったり、被投影面201が汚れていたりする場合に、図3(B)の通り、天井Cに誘導画像200が投影されてもよい。 The projection instruction section 33 uses the projection panel 210 or the luggage L to be projected when the road surface of the passage P photographed by the road surface photographing section 25 is dirty or peeled off, or on the shelf R photographed by the shelf photographing section 26. If the surface 201 is not present or the projection surface 201 is dirty, the guidance image 200 may be projected onto the ceiling C as shown in FIG. 3(B).

投影指示部33は、被投影面201の色を記憶しており、撮影画像の全体のうち所定の割合が通常の色と異なる色であるときに、汚れていたり剥がれていたりしており、誘導画像200を綺麗に投影できないことから、誘導画像200を棚R側ではなく、天井C側に投影するように投影部23に指示してもよい。また、投影指示部33は、棚Rに荷物Lが収納されていないと認識した場合、被投影面201がないことから、誘導画像200を棚R側ではなく、天井C側に投影するように投影部23に指示してもよい。 The projection instruction unit 33 stores the color of the projection surface 201, and when a predetermined percentage of the entire photographed image has a color different from the normal color, it is dirty or peeled off, and the projection direction is detected. Since the image 200 cannot be projected clearly, the projection unit 23 may be instructed to project the guided image 200 not on the shelf R side but on the ceiling C side. Furthermore, when the projection instruction unit 33 recognizes that the luggage L is not stored on the shelf R, since there is no projection surface 201, the projection instruction unit 33 projects the guided image 200 not on the shelf R side but on the ceiling C side. The projection unit 23 may also be instructed.

また、投影指示部33の収集部40は、通路Pの路面の色及び照度に加えて、被投影面201及び天井Cの色に関する色データD1と、被投影面201及び天井Cの照度に関する照度データD2とを含んでもよい。 In addition to the color and illuminance of the road surface of the passageway P, the collection unit 40 of the projection instruction unit 33 collects color data D1 regarding the colors of the projection surface 201 and the ceiling C, and the illuminance regarding the illuminance of the projection surface 201 and the ceiling C. It may also include data D2.

そして、投影指示部33の学習モデル生成部41は、通路Pの路面の色及び照度と同様に、収集部40に収集された教師データ46から機械学習を行い、機械学習により学習モデルを生成および記憶して、棚撮影部26及び天井撮影部27である取得部45による入力データIDに基づいて、予測部42が、オペレータが誘導画像200を視認できるか否かを予測する。 Then, the learning model generation section 41 of the projection instruction section 33 performs machine learning from the teacher data 46 collected by the collection section 40 in the same way as the color and illuminance of the road surface of the passageway P, and generates a learning model by machine learning. The prediction unit 42 predicts whether the operator can visually recognize the guide image 200 based on the input data ID from the acquisition unit 45, which is the shelf photography unit 26 and the ceiling photography unit 27.

決定部43は、通路Pの路面の視認性が低いときに、投影部23に対して、誘導画像200が投影される方向を棚R側ではなく天井C側の方向にしたり、天井C側ではなく棚R側の方向にしたりするよう決定する。これにより、オペレータが誘導画像200を視認しやすくなるよう構成されている。 When the visibility of the road surface of the passage P is low, the determining unit 43 causes the projection unit 23 to project the guidance image 200 in the direction of the ceiling C side instead of the shelf R side, or Instead, it is decided to move it toward the shelf R side. This makes it easier for the operator to visually recognize the guide image 200.

オペレータOは、通路P側、棚R側又は天井C側に投影された誘導画像200を目視し、誘導画像200に沿って有人搬送車1を荷役位置D2まで走行して、表示部11に表示された荷役タスクTに従って有人搬送車1を操作して荷物Lに対して荷役作業を行うことができる。 The operator O visually observes the guidance image 200 projected on the aisle P side, the shelf R side, or the ceiling C side, drives the manned guided vehicle 1 along the guidance image 200 to the cargo handling position D2, and displays the information on the display unit 11. The manned guided vehicle 1 can be operated to perform cargo handling work on the cargo L according to the cargo handling task T that has been determined.

誘導システムSでは、有人搬送車1の車両位置D1と荷役位置D2との間で生成された誘導路4上に複数台の無人飛行体2を空中停止してホバリングすることによって、有人搬送車1を操作するオペレータOは、荷役位置D2までの距離及び方向等を直感的に認識することができる。 In the guidance system S, the manned guided vehicle 1 The operator O who operates the cargo handling position D2 can intuitively recognize the distance and direction to the cargo handling position D2.

<他の実施例>
図7~図12に基づいて、誘導システムSにおける他の実施例を説明する。
なお、上記第1実施形態と同様の構成については、重複説明を避けるために省略することがある。
<Other Examples>
Other embodiments of the guidance system S will be described based on FIGS. 7 to 12.
Note that configurations similar to those in the first embodiment may be omitted to avoid redundant explanation.

(他の実施例1)
図7のとおり、管理装置3の配置決定部32は、無人飛行体2が荷役位置D2の高さに配置されるよう無人飛行体2の空中停止位置を決定するよう構成されてもよい。即ち、管理装置3の記憶部30は、荷役スケジュールJの各荷役タスクTの荷役位置D2の高さ位置が記憶されている。荷役位置D2の高さ位置とは、各荷役タスクTで荷役される荷物Lの高さである。有人搬送車1によって、荷役位置D2の高さ位置で荷物Lに対して荷取り・荷置きの荷役が行われる。配置決定部32は、各荷役タスクTの荷役位置D2の高さ位置に相当する高さで無人飛行体2がホバリングして空中停止するように構成されている。
(Other Example 1)
As shown in FIG. 7, the placement determining unit 32 of the management device 3 may be configured to determine the aerial stop position of the unmanned aerial vehicle 2 so that the unmanned aerial vehicle 2 is positioned at the height of the cargo handling position D2. That is, the storage unit 30 of the management device 3 stores the height position of the cargo handling position D2 of each cargo handling task T in the cargo handling schedule J. The height position of the cargo handling position D2 is the height of the cargo L to be handled in each cargo handling task T. The manned guided vehicle 1 performs loading and unloading operations on the luggage L at the height of the loading position D2. The arrangement determining unit 32 is configured so that the unmanned flying object 2 hovers and stops in the air at a height corresponding to the height position of the cargo handling position D2 of each cargo handling task T.

有人搬送車1を操作するオペレータOは、無人飛行体2から通路P上に投影される誘導画像200に沿って有人搬送車1を走行するが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。 The operator O who operates the manned guided vehicle 1 drives the manned guided vehicle 1 along the guidance image 200 projected from the unmanned flying vehicle 2 onto the path P, but visually confirms the mid-air stopping position of the unmanned flying vehicle 2. By simply doing this, the height of the cargo L to be handled can be intuitively recognized.

(他の実施例2)
図8のとおり、管理装置3の配置決定部32は、無人飛行体2が荷役位置D2の高さ位置に配置されるよう無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、発光装置(不図示)を備えており、オペレータOが無人飛行体2の位置を容易に認識できるように発光するよう構成されている。
(Other Example 2)
As shown in FIG. 8, the placement determining unit 32 of the management device 3 may be configured to determine the aerial stop position of the unmanned flying vehicle 2 so that the unmanned flying vehicle 2 is located at the height of the cargo handling position D2. The unmanned flying object 2 is equipped with a light emitting device (not shown) and is configured to emit light so that the operator O can easily recognize the position of the unmanned flying object 2.

管理装置3の配置決定部32は、荷役位置D2の高さ位置が棚Rの最下段の高さに相当するとき、無人飛行体2が棚Rの最下段の高さに配置されるよう無人飛行体2の空中停止位置を決定する。従って、無人飛行体2は通路Pに近接する低い位置で空中停止しているため、通路P上に誘導画像200が投影されても、オペレータOが認識することが難しいことから、無人飛行体2が発光して、その結果、オペレータOが誘導路4を確実に認識することができる。 When the height position of the cargo handling position D2 corresponds to the height of the lowest stage of the shelf R, the arrangement determining unit 32 of the management device 3 arranges the unmanned aircraft 2 so that it is located at the height of the lowest stage of the shelf R. The aerial stopping position of the flying object 2 is determined. Therefore, since the unmanned aerial vehicle 2 is suspended in the air at a low position close to the passage P, even if the guidance image 200 is projected onto the passage P, it is difficult for the operator O to recognize the unmanned aerial vehicle 2. emits light, and as a result, the operator O can reliably recognize the guideway 4.

有人搬送車1が走行して無人飛行体2に接近すると、無人飛行体2は、有人搬送車1に衝突しないよう回避飛行するよう構成されている。 When the manned guided vehicle 1 travels and approaches the unmanned flying vehicle 2, the unmanned flying vehicle 2 is configured to take an evasive flight so as not to collide with the manned guided vehicle 1.

有人搬送車1を操作するオペレータOは、無人飛行体2に沿って有人搬送車1を走行することで荷役位置D2に到達できるが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。 The operator O who operates the manned guided vehicle 1 can reach the cargo handling position D2 by driving the manned guided vehicle 1 along the unmanned flying vehicle 2, but only by visually confirming the mid-air stop position of the unmanned flying vehicle 2. , the height of the cargo L to be handled can be intuitively recognized.

(他の実施例3)
図9のとおり、管理装置3の配置決定部32は、無人飛行体2が荷役位置D2の高さ位置に配置されるよう無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、投影部23を備えており、投影部23は、施設の天井Cに誘導画像200を投影することができるよう構成されている。
(Other Example 3)
As shown in FIG. 9, the placement determining unit 32 of the management device 3 may be configured to determine the aerial stop position of the unmanned aerial vehicle 2 so that the unmanned aerial vehicle 2 is positioned at the height of the cargo handling position D2. The unmanned aerial vehicle 2 is equipped with a projection section 23, and the projection section 23 is configured to be able to project the guidance image 200 onto the ceiling C of the facility.

管理装置3の配置決定部32は、荷役位置D2の高さ位置が棚Rの最下段の高さに相当するとき、無人飛行体2が棚Rの最下段の高さに配置されるよう無人飛行体2の空中停止位置を決定する。従って、無人飛行体2は通路Pに近接して低い位置で空中停止しているため、通路P上に誘導画像200が投影されても、オペレータOは認識することが難しいことから、無人飛行体2が天井C上に誘導画像200を投影することで、オペレータOが誘導路4を確実に認識することができる。 When the height position of the cargo handling position D2 corresponds to the height of the lowest stage of the shelf R, the arrangement determining unit 32 of the management device 3 arranges the unmanned aircraft 2 so that it is located at the height of the lowest stage of the shelf R. The aerial stopping position of the flying object 2 is determined. Therefore, since the unmanned aerial vehicle 2 is suspended in the air at a low position close to the passage P, even if the guidance image 200 is projected onto the passage P, it is difficult for the operator O to recognize the unmanned aerial vehicle 2. By projecting the guidance image 200 onto the ceiling C, the operator O can reliably recognize the guidance path 4.

有人搬送車1が走行して無人飛行体2に接近すると、無人飛行体2は、有人搬送車1に衝突しないよう回避飛行するよう構成されている。 When the manned guided vehicle 1 travels and approaches the unmanned flying vehicle 2, the unmanned flying vehicle 2 is configured to take an evasive flight so as not to collide with the manned guided vehicle 1.

有人搬送車1を操作するオペレータOは、無人飛行体2から天井C上に投影される誘導画像200に沿って有人搬送車1を走行することで荷役位置D2に到達できるが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。 The operator O who operates the manned guided vehicle 1 can reach the cargo handling position D2 by driving the manned guided vehicle 1 along the guidance image 200 projected onto the ceiling C from the unmanned aerial vehicle 2. The height of the cargo L to be handled can be intuitively recognized by simply visually checking the mid-air stopping position of the cargo L.

(他の実施例4)
図10のとおり、管理装置3の配置決定部32は、有人搬送車1を操作するオペレータOの目の高さと荷役位置D2の高さ位置とを結ぶ直線OS上に無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、発光装置(不図示)を備えており、オペレータOが無人飛行体2の位置を容易に認識できるように発光するよう構成されている。
(Other Example 4)
As shown in FIG. 10, the placement determining unit 32 of the management device 3 stops the unmanned flying vehicle 2 in the air on a straight line OS connecting the eye level of the operator O who operates the manned guided vehicle 1 and the height position of the cargo handling position D2. It may be configured to determine a position. The unmanned flying object 2 is equipped with a light emitting device (not shown) and is configured to emit light so that the operator O can easily recognize the position of the unmanned flying object 2.

有人搬送車1を操作するオペレータOは、無人飛行体2に沿って有人搬送車1を走行することで荷役位置D2に到達できるが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。 The operator O who operates the manned guided vehicle 1 can reach the cargo handling position D2 by driving the manned guided vehicle 1 along the unmanned flying vehicle 2, but only by visually confirming the mid-air stop position of the unmanned flying vehicle 2. , the height of the cargo L to be handled can be intuitively recognized.

(他の実施例5)
図11のとおり、管理装置3の配置決定部32は、有人搬送車1を操作するオペレータOの目の高さと荷役位置D2の高さ位置とを結ぶ直線OS上に無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、投影部23を備えており、投影部23は、施設の通路Pに誘導画像200を投影することができるよう構成されている。
(Other Example 5)
As shown in FIG. 11, the placement determining unit 32 of the management device 3 stops the unmanned flying vehicle 2 in the air on a straight line OS connecting the eye level of the operator O who operates the manned guided vehicle 1 and the height position of the cargo handling position D2. It may be configured to determine a position. The unmanned aerial vehicle 2 includes a projection section 23, and the projection section 23 is configured to be able to project the guidance image 200 onto the passageway P of the facility.

有人搬送車1を操作するオペレータOは、無人飛行体2に沿って有人搬送車1を走行することで荷役位置D2に到達できるが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。 The operator O who operates the manned guided vehicle 1 can reach the cargo handling position D2 by driving the manned guided vehicle 1 along the unmanned flying vehicle 2, but only by visually confirming the mid-air stop position of the unmanned flying vehicle 2. , the height of the cargo L to be handled can be intuitively recognized.

また、オペレータOは、無人飛行体2に沿って有人搬送車1を走行することができるので、誘導画像200は、荷役位置D2の方向を指す矢印で構成する必要がなく、その他の、例えば、荷役されるべき荷物Lの種類等を表示することができる。従って、オペレータOは、荷物Lの種類等に応じて、荷取り及び荷置きを行うための準備ができる。 Further, since the operator O can drive the manned guided vehicle 1 along the unmanned flying vehicle 2, the guidance image 200 does not need to be composed of arrows pointing in the direction of the cargo handling position D2, and other information such as The type of cargo L to be handled and the like can be displayed. Therefore, the operator O can make preparations for picking up and placing the cargo L depending on the type of the cargo L and the like.

(他の実施例6)
図12のとおり、管理装置3の配置決定部32は、無人飛行体2が荷役位置D2の高さ位置に配置されるよう無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、投影部23を備えており、投影部23は、施設の天井Cに誘導画像200を投影することができるよう構成されている。
(Other Example 6)
As shown in FIG. 12, the placement determining unit 32 of the management device 3 may be configured to determine the aerial stop position of the unmanned aerial vehicle 2 so that the unmanned aerial vehicle 2 is positioned at the height of the cargo handling position D2. The unmanned aerial vehicle 2 is equipped with a projection section 23, and the projection section 23 is configured to be able to project the guidance image 200 onto the ceiling C of the facility.

管理装置3の配置決定部32は、荷役位置D2の高さ位置が棚Rの最下段の高さに相当するとき、無人飛行体2が棚Rの最下段の高さに配置されるよう無人飛行体2の空中停止位置を決定する。従って、無人飛行体2は通路Pに近接した低い位置であるため、通路P上に誘導画像200が投影されても、オペレータOが認識することが難しいことから、投影指示部33は、無人飛行体2が天井C上に誘導画像200を投影するように制御する。 When the height position of the cargo handling position D2 corresponds to the height of the lowest stage of the shelf R, the arrangement determining unit 32 of the management device 3 arranges the unmanned aircraft 2 so that it is located at the height of the lowest stage of the shelf R. The aerial stopping position of the flying object 2 is determined. Therefore, since the unmanned flying object 2 is located at a low position close to the passage P, even if the guidance image 200 is projected onto the passage P, it is difficult for the operator O to recognize it. The body 2 is controlled to project the guidance image 200 onto the ceiling C.

さらに、有人搬送車1と、有人搬送車1に最も近い誘導画像200との間の距離Xが短いと、有人搬送車1を操作するオペレータOの視線が大きな角度で上方に向いて危険であることから、配置決定部32は、有人搬送車1と、有人搬送車1に最も近い誘導画像200との間の距離Xが所定長さとなって、オペレータOの視線が大きな角度で上方を向かないよう制御する。 Furthermore, if the distance X between the manned guided vehicle 1 and the guidance image 200 closest to the manned guided vehicle 1 is short, the line of sight of the operator O operating the manned guided vehicle 1 will be directed upward at a large angle, which is dangerous. Therefore, the arrangement determining unit 32 determines that the distance X between the manned guided vehicle 1 and the guidance image 200 closest to the manned guided vehicle 1 is a predetermined length, so that the line of sight of the operator O does not look upward at a large angle. control like this.

距離Xは、予め設定された一定長さでも良く、例えば、有人搬送車1の速度が所定速度より速いときは長くなり、所定速度より遅いときは短くなる等、有人搬送車1の速度に応じて変更されても良い。それによって、有人搬送車1を操作するオペレータOの視線が小さな角度で上方に向くので、有人搬送車1を安全に走行することができる。 The distance X may be a fixed length set in advance, and may be set depending on the speed of the manned guided vehicle 1, for example, it becomes longer when the speed of the manned guided vehicle 1 is faster than a predetermined speed, and becomes shorter when the speed is slower than the predetermined speed. may be changed. Thereby, the line of sight of the operator O who operates the manned guided vehicle 1 is directed upward at a small angle, so that the manned guided vehicle 1 can travel safely.

有人搬送車1が走行して無人飛行体2に接近すると、無人飛行体2は、有人搬送車1に衝突しないよう回避飛行するよう構成されている。 When the manned guided vehicle 1 travels and approaches the unmanned flying vehicle 2, the unmanned flying vehicle 2 is configured to take an evasive flight so as not to collide with the manned guided vehicle 1.

有人搬送車1を操作するオペレータOは、無人飛行体2から天井C上に投影される誘導画像200に沿って有人搬送車1を走行するが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。 The operator O who operates the manned guided vehicle 1 drives the manned guided vehicle 1 along the guidance image 200 projected from the unmanned flying vehicle 2 onto the ceiling C, but visually confirms the mid-air stopping position of the unmanned flying vehicle 2. By simply doing this, the height of the cargo L to be handled can be intuitively recognized.

(他の実施例7)
管理装置3の投影指示部33は、無人飛行体2が通路Pの路面又は天井Cに向けて誘導画像200を投影するときに、無人飛行体2の空中停止位置の高さに応じて、誘導画像200が通路Pの路面又は天井Cに鮮明に投影されるようピントを調整するフォーカス調整を行うように制御してもよい。
(Other Example 7)
When the unmanned aerial vehicle 2 projects the guidance image 200 toward the road surface of the passageway P or the ceiling C, the projection instruction unit 33 of the management device 3 performs guidance according to the height of the aerial stop position of the unmanned aerial vehicle 2. Control may be performed to adjust the focus so that the image 200 is clearly projected onto the road surface of the passageway P or the ceiling C.

フォーカス調整によって誘導画像200が通路Pの路面又は天井Cに鮮明に投影されることで、オペレータOは、誘導画像200を確実に認識することでき、それにより、有人搬送車1を適切に走行及び操作することができる。 The guidance image 200 is clearly projected onto the road surface or the ceiling C of the passageway P by adjusting the focus, so that the operator O can reliably recognize the guidance image 200, thereby properly driving and driving the manned guided vehicle 1. can be operated.

以上、本発明の好ましい実施形態を説明したが、本発明の構成はこれらの実施形態に限定されない。例えば、以下のように変更することもできる。 Although preferred embodiments of the present invention have been described above, the configuration of the present invention is not limited to these embodiments. For example, it can be changed as follows.

上記実施形態では、無人飛行体2は、通路P又は天井C上に誘導画像200を投影したり、自機を発光したりして、オペレータOの視覚によって誘導路4が認識されるように構成されているが、音声、ブザー、チャイム等の音を発する音声発生部(不図示)を備えており、オペレータOの聴覚によって誘導路4が認識されるように構成されてもよい。音声発生部は、例えば、「15m先を左折です」、「30m先、目的地です」、「この先、障害物あり。ご注意ください」等の音声を発するよう構成されている。 In the embodiment described above, the unmanned flying object 2 projects the guidance image 200 onto the passage P or the ceiling C, or emits light from itself, so that the taxiway 4 is recognized visually by the operator O. However, the guideway 4 may be configured to include a sound generator (not shown) that emits sounds such as a voice, a buzzer, a chime, etc., so that the operator O can recognize the guideway 4 by hearing. The sound generation unit is configured to emit sounds such as "Turn left in 15 meters", "30 meters ahead, destination", "There is an obstacle ahead. Please be careful".

本発明の効果について説明する。 The effects of the present invention will be explained.

誘導システムSでは、有人搬送車1の車両位置D1と荷役位置D2との間で生成された誘導路4上に複数台の無人飛行体2を空中停止することによって、有人搬送車1を操作するオペレータOが荷役位置D2までの距離、位置及び方向等を直感的に認識することができる。 In the guidance system S, the manned guided vehicle 1 is operated by suspending a plurality of unmanned flying objects 2 in the air on the taxiway 4 generated between the vehicle position D1 and the cargo handling position D2 of the manned guided vehicle 1. The operator O can intuitively recognize the distance, position, direction, etc. to the cargo handling position D2.

さらに、投影指示部33は、路面撮影部25による撮影画像に基づいて、通路Pの路面の汚れや剥がれなどの状態に応じて誘導画像200が投影される方向を指示するようになっているので、通路Pの路面に誘導画像200を綺麗に投影できない場合であっても、他の部分に誘導画像200を綺麗に投影することで、有人搬送車1を操作するオペレータOが誘導画像200を認識しやすいようにすることができる。 Furthermore, the projection instruction section 33 is configured to instruct the direction in which the guidance image 200 is projected depending on the condition of the road surface of the passage P, such as dirt or peeling, based on the photographed image by the road surface photographing section 25. Even if the guidance image 200 cannot be clearly projected on the road surface of the passageway P, the operator O operating the manned guided vehicle 1 can recognize the guidance image 200 by clearly projecting the guidance image 200 on other parts. You can make it easier.

1 有人搬送車
2 無人飛行体
3 管理装置
4 誘導路
25 路面撮影部
26 棚撮影部
27 天井撮影部
31 誘導路生成部
32 配置決定部
33 撮影指示部
40 収集部
41 学習モデル生成部
42 予測部
43 決定部
45 取得部
200 誘導画像
201 被投影面
210 投影パネル
D1 車両位置
D2 荷役位置
S 誘導システム
R 棚
P 路面
C 天井
O オペレータ
1 Manned guided vehicle 2 Unmanned flying object 3 Management device 4 Taxiway 25 Road surface photography unit 26 Shelf photography unit 27 Ceiling photography unit 31 Taxiway generation unit 32 Layout determination unit 33 Photography instruction unit 40 Collection unit 41 Learning model generation unit 42 Prediction unit 43 Determination unit 45 Acquisition unit 200 Guidance image 201 Projection surface 210 Projection panel D1 Vehicle position D2 Cargo handling position S Guidance system R Shelf P Road surface C Ceiling O Operator

Claims (14)

オペレータが操作する有人搬送車と、
空中停止可能な複数台の無人飛行体と、
前記無人飛行体を制御する管理装置と、を備える誘導システムであって、
前記無人飛行体は、
誘導画像を投影する投影部と、
路面側を撮影する路面撮影部と、を備え、
前記管理装置は、
前記有人搬送車の車両位置と荷役位置との間に誘導路を生成する誘導路生成部と、
前記誘導路上で前記複数台の無人飛行体が空中停止する位置を決定する配置決定部と、
前記路面撮影部による撮影画像に基づいて、前記誘導画像が投影される方向を前記投影部に指示する投影指示部と、を備える
ことを特徴とする誘導システム。
A manned guided vehicle operated by an operator,
Multiple unmanned flying vehicles that can stop in the air,
A guidance system comprising: a management device that controls the unmanned flying vehicle;
The unmanned aerial vehicle is
a projection unit that projects a guidance image;
Equipped with a road surface photography section that photographs the road surface side,
The management device includes:
a guideway generation unit that generates a guideway between the vehicle position of the manned guided vehicle and the cargo handling position;
a placement determining unit that determines a position at which the plurality of unmanned flying vehicles will stop in the air on the taxiway;
A guidance system comprising: a projection instruction section that instructs the projection section in a direction in which the guidance image is projected based on an image taken by the road surface photography section.
前記投影指示部は、
前記撮影画像の色に関する色データ及び照度に関する照度データと、前記オペレータの視認性を示す視認性スコアとの間の関係に基づく教師データを収集する収集部と、
前記収集部に収集された前記教師データから機械学習を行い、前記機械学習により学習モデルを生成および記憶する学習モデル生成部と、
現時点の前記色データ及び前記照度データを所定時間ごとに取得する取得部と、
前記学習モデル生成部で生成された前記学習モデルに、前記取得部から取得される現時点の前記色データ及び前記照度データを入力することで、前記視認性スコアを前記学習モデルから取得する予測部と、
前記予測部によって取得される前記視認性スコアに基づいて、前記誘導画像が投影される方向を決定する決定部と、を備える
ことを特徴する請求項1に記載の誘導システム。
The projection instruction section includes:
a collection unit that collects teacher data based on a relationship between color data regarding the color of the photographed image and illuminance data regarding the illuminance, and a visibility score indicating visibility of the operator;
a learning model generation unit that performs machine learning from the teacher data collected by the collection unit, and generates and stores a learning model by the machine learning;
an acquisition unit that acquires the current color data and the illuminance data at predetermined time intervals;
a prediction unit that acquires the visibility score from the learning model by inputting the current color data and the illuminance data acquired from the acquisition unit to the learning model generated by the learning model generation unit; ,
The guidance system according to claim 1, further comprising: a determination unit that determines a direction in which the guidance image is projected based on the visibility score acquired by the prediction unit.
前記誘導画像が投影される方向は、前記路面側、棚側および天井側を含む
ことを特徴とする請求項1に記載の誘導システム。
The guidance system according to claim 1, wherein the direction in which the guidance image is projected includes the road surface side, the shelf side, and the ceiling side.
前記棚は、前記誘導画像が投影される被投影面を備える
ことを特徴とする請求項3に記載の誘導システム。
The guidance system according to claim 3, wherein the shelf includes a projection surface onto which the guidance image is projected.
前記被投影面は、前記棚に設けられた投影パネルの平坦面、又は、前記棚に収納された荷物の平坦面である
ことを特徴とする請求項4に記載の誘導システム。
5. The guidance system according to claim 4, wherein the projection surface is a flat surface of a projection panel provided on the shelf or a flat surface of luggage stored on the shelf.
前記無人飛行体は、さらに、
前記棚側を撮影する棚撮影部と、
前記天井側を撮影する天井撮影部と、を備え、
前記投影指示部は、
前記路面撮影部、前記棚撮影部及び前記天井撮影部による各撮影画像に基づいて、前記誘導画像が投影される方向を前記投影部に指示する
ことを特徴とする請求項3に記載の誘導システム。
The unmanned aerial vehicle further includes:
a shelf photographing unit that photographs the shelf side;
a ceiling photographing section for photographing the ceiling side,
The projection instruction section includes:
The guidance system according to claim 3, wherein the guidance system instructs the projection unit in a direction in which the guidance image is projected based on each image taken by the road surface photography unit, the shelf photography unit, and the ceiling photography unit. .
前記投影指示部は、
前記各撮影画像の色に関する色データ及び照度に関する照度データと、前記オペレータの視認性を示す視認性スコアとの間の関係に基づく教師データを収集する収集部と、
前記収集部に収集された前記教師データから機械学習を行い、前記機械学習により学習モデルを生成および記憶する学習モデル生成部と、
現時点の前記色データ及び前記照度データを所定時間ごとに取得する取得部と、
前記学習モデル生成部で生成された前記学習モデルに、前記取得部から取得される現時点の前記色データ及び前記照度データを入力することで、前記視認性スコアを前記学習モデルから取得する予測部と、
前記予測部によって取得される前記視認性スコアに基づいて、前記誘導画像が投影される方向を決定する決定部と、を備える
ことを特徴する請求項6に記載の誘導システム。
The projection instruction section includes:
a collection unit that collects teacher data based on the relationship between color data regarding the color and illuminance data regarding the illuminance of each photographed image and a visibility score indicating visibility of the operator;
a learning model generation unit that performs machine learning from the teacher data collected by the collection unit, and generates and stores a learning model by the machine learning;
an acquisition unit that acquires the current color data and the illuminance data at predetermined time intervals;
a prediction unit that acquires the visibility score from the learning model by inputting the current color data and the illuminance data acquired from the acquisition unit to the learning model generated by the learning model generation unit; ,
The guidance system according to claim 6, further comprising: a determination unit that determines a direction in which the guidance image is projected based on the visibility score acquired by the prediction unit.
前記配置決定部は、前記無人飛行体が前記荷役位置の高さに配置されるよう前記無人飛行体の空中停止位置を決定する
ことを特徴とする請求項1~7のいずれかに記載の誘導システム。
The guidance according to any one of claims 1 to 7, wherein the placement determining unit determines an aerial stop position of the unmanned flying vehicle so that the unmanned flying vehicle is located at a height of the cargo handling position. system.
前記管理装置は、前記荷役位置の高さが棚の最下段の高さに相当するとき、前記無人飛行体が発光するように制御する
ことを特徴とする請求項8に記載の誘導システム。
The guidance system according to claim 8, wherein the management device controls the unmanned flying vehicle to emit light when the height of the cargo handling position corresponds to the height of the lowest shelf.
前記管理装置は、前記荷役位置の高さが棚の最下段の高さに相当するとき、前記無人飛行体が天井に向けて誘導画像を投影するように制御する投影指示部を備える
ことを特徴とする請求項8に記載の誘導システム。
The management device includes a projection instruction unit that controls the unmanned flying vehicle to project a guidance image toward the ceiling when the height of the cargo handling position corresponds to the height of the lowest shelf. The guidance system according to claim 8.
前記配置決定部は、前記有人搬送車を操作するオペレータの目に相当する高さと前記荷役位置の高さとを結ぶ直線上に前記無人飛行体の空中停止位置を決定する
ことを特徴とする請求項1~7のいずれかに記載の誘導システム。
The position determining unit determines the aerial suspension position of the unmanned aerial vehicle on a straight line connecting a height corresponding to the eyes of an operator operating the manned guided vehicle and a height of the cargo handling position. 8. The guidance system according to any one of 1 to 7.
前記管理装置は、前記無人飛行体が路面に向けて誘導画像を投影するように制御する投影指示部を備える
ことを特徴とする請求項11に記載の誘導システム。
The guidance system according to claim 11, wherein the management device includes a projection instruction unit that controls the unmanned flying vehicle to project a guidance image toward a road surface.
前記管理装置は、前記無人飛行体が天井に向けて誘導画像を投影するように制御する投影指示部を備え、
前記配置決定部は、前記有人搬送車と、前記有人搬送車に最も近い前記無人飛行体との間の距離が所定長さになるように前記無人飛行体を制御する
ことを特徴とする請求項1に記載の誘導システム。
The management device includes a projection instruction unit that controls the unmanned flying vehicle to project a guidance image toward the ceiling,
The arrangement determining unit controls the unmanned flying object so that the distance between the manned guided vehicle and the unmanned flying object closest to the manned guided vehicle becomes a predetermined length. 1. The guidance system according to 1.
前記管理装置は、前記無人飛行体が路面又は天井に向けて誘導画像を投影するように制御する投影指示部を備え、
前記無人飛行体の高さに応じて前記誘導画像のピントを調整するフォーカス調整を行うように制御する
ことを特徴とする請求項1に記載の誘導システム。
The management device includes a projection instruction unit that controls the unmanned flying vehicle to project a guidance image toward a road surface or a ceiling,
The guidance system according to claim 1, wherein control is performed to perform focus adjustment to adjust the focus of the guidance image according to the height of the unmanned aerial vehicle.
JP2022090259A 2022-06-02 2022-06-02 guidance system Active JP7430975B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022090259A JP7430975B2 (en) 2022-06-02 2022-06-02 guidance system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022090259A JP7430975B2 (en) 2022-06-02 2022-06-02 guidance system

Publications (2)

Publication Number Publication Date
JP2023177532A true JP2023177532A (en) 2023-12-14
JP7430975B2 JP7430975B2 (en) 2024-02-14

Family

ID=89123923

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022090259A Active JP7430975B2 (en) 2022-06-02 2022-06-02 guidance system

Country Status (1)

Country Link
JP (1) JP7430975B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022118330A (en) 2021-02-02 2022-08-15 コベルコ建機株式会社 Work assist system and work assist complex system
JP7478182B2 (en) 2022-04-04 2024-05-02 三菱ロジスネクスト株式会社 Guidance System
JP7478185B2 (en) 2022-04-28 2024-05-02 三菱ロジスネクスト株式会社 Guidance System
JP7452938B2 (en) 2022-04-28 2024-03-19 三菱ロジスネクスト株式会社 guidance system
JP7436132B2 (en) 2022-05-13 2024-02-21 三菱ロジスネクスト株式会社 guidance system
JP7436133B2 (en) 2022-05-13 2024-02-21 三菱ロジスネクスト株式会社 guidance system

Also Published As

Publication number Publication date
JP7430975B2 (en) 2024-02-14

Similar Documents

Publication Publication Date Title
JP7178061B2 (en) Human interaction automatic guided vehicle
KR20180109572A (en) Control method of robot system including a plurality of moving robots
US11345032B2 (en) Autonomous moving body and control program for autonomous moving body
US11241790B2 (en) Autonomous moving body and control program for autonomous moving body
US11353880B2 (en) Autonomous moving body and control program for autonomous moving body
KR20210026595A (en) Method of moving in administrator mode and robot of implementing thereof
JP7430975B2 (en) guidance system
JP7452938B2 (en) guidance system
JP7436133B2 (en) guidance system
JP7478185B2 (en) Guidance System
JP7436132B2 (en) guidance system
KR20190003120A (en) Robot system including a plurality of moving robots and Mobile terminal
JP7478192B2 (en) Guidance System
US11215990B2 (en) Manual direction control component for self-driving vehicle
JP7478182B2 (en) Guidance System
JP7478198B2 (en) Guidance System
JP7444531B2 (en) guidance system
JP7452940B2 (en) guidance system
JP2024039975A (en) guidance system
JP2024030888A (en) guidance system
EP4024155B1 (en) Method, system and computer program product of control of unmanned aerial vehicles
JP2024053777A (en) Guidance System
KR20190003119A (en) Mobile terminal and Moving robot including the same therein
JP2024009634A (en) guidance system
JP2024036175A (en) guidance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230331

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240131

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240131

R150 Certificate of patent or registration of utility model

Ref document number: 7430975

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150