JP2023177532A - guidance system - Google Patents
guidance system Download PDFInfo
- Publication number
- JP2023177532A JP2023177532A JP2022090259A JP2022090259A JP2023177532A JP 2023177532 A JP2023177532 A JP 2023177532A JP 2022090259 A JP2022090259 A JP 2022090259A JP 2022090259 A JP2022090259 A JP 2022090259A JP 2023177532 A JP2023177532 A JP 2023177532A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- vehicle
- guidance
- projection
- unmanned flying
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000010801 machine learning Methods 0.000 claims description 15
- 239000000725 suspension Substances 0.000 claims 1
- 238000003384 imaging method Methods 0.000 abstract description 8
- 238000001514 detection method Methods 0.000 description 8
- 238000005452 bending Methods 0.000 description 5
- 239000003086 colorant Substances 0.000 description 4
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 3
- 238000013459 approach Methods 0.000 description 3
- 238000010586 diagram Methods 0.000 description 2
- 238000005286 illumination Methods 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 238000000151 deposition Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 238000002360 preparation method Methods 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Abstract
Description
本発明は、有人搬送車と無人飛行体とを備えた誘導システムに関する。 The present invention relates to a guidance system including a manned guided vehicle and an unmanned flying vehicle.
工場や倉庫等の施設内で使用される有人搬送車(例えば、フォークリフト)は、オペレータが搭乗及び操作することで動作するように構成されている。フォークリフトは、フォークを使って荷物を荷取り及び荷置きする荷役を行うように構成されている。 2. Description of the Related Art Manned guided vehicles (for example, forklifts) used in facilities such as factories and warehouses are configured to operate when an operator rides on and operates them. Forklifts are configured to use their forks to carry out loading and unloading operations.
ところで、オペレータが操作する有人搬送車と、空中停止可能な一台の無人飛行体と、無人飛行体を制御する管理装置と、を備える誘導システムが知られている(特許文献1等参照)。
By the way, a guidance system is known that includes a manned guided vehicle operated by an operator, an unmanned flying vehicle that can be stopped in the air, and a management device that controls the unmanned flying vehicle (see
誘導システムにおいて、無人飛行体は、路面に対して誘導画像を投影するプロジェクタを備えている。誘導画像は、例えば、特定した方向を指し示す矢印が表示されており、有人搬送車の前方の路面に投影される。これにより、有人搬送車を操作中のオペレータは、誘導画像を確認することで、荷役位置に誘導されるように構成されている。 In a guidance system, an unmanned flying vehicle is equipped with a projector that projects a guidance image onto a road surface. The guidance image displays, for example, an arrow pointing in the specified direction, and is projected onto the road surface in front of the manned guided vehicle. Thereby, the operator who is operating the manned guided vehicle is configured to be guided to the cargo handling position by checking the guidance image.
ところで、従来の誘導システムでは、一台の無人飛行体が投影する1つの誘導画像に基づいて有人搬送車を誘導するので、有人搬送車を操作するオペレータが荷役位置までの距離及び方向等を直感的に認識することが難しいという問題がある。 By the way, in conventional guidance systems, the manned guided vehicle is guided based on one guidance image projected by one unmanned flying vehicle, so the operator operating the manned guided vehicle can intuitively know the distance and direction to the cargo handling position. The problem is that it is difficult to recognize the
そこで、本発明が解決しようとする課題は、有人搬送車を誘導するための無人飛行体を複数台使用して、有人搬送車を操作するオペレータが荷役位置までの距離及び方向等を直感的に認識することができる誘導システムを提供することにある。 Therefore, the problem to be solved by the present invention is to use a plurality of unmanned flying vehicles to guide a manned guided vehicle so that an operator operating the manned guided vehicle can intuitively determine the distance and direction to the cargo handling position. The objective is to provide a guidance system that can be recognized.
上記課題を解決するため、本発明に係る誘導システムは、オペレータが操作する有人搬送車と、空中停止可能な複数台の無人飛行体と、無人飛行体を制御する管理装置と、を備えている。無人飛行体は、誘導画像を投影する投影部と、路面側を撮影する路面撮影部と、を備えている。さらに、管理装置は、有人搬送車の車両位置と荷役位置との間に誘導路を生成する誘導路生成部と、誘導路上で複数台の無人飛行体が空中停止する位置を決定する配置決定部と、路面撮影部による撮影画像に基づいて、誘導画像が投影される方向を投影部に指示する投影指示部と、を備えている。 In order to solve the above problems, a guidance system according to the present invention includes a manned carrier operated by an operator, a plurality of unmanned flying vehicles that can be stopped in the air, and a management device that controls the unmanned flying vehicles. . The unmanned flying vehicle includes a projection section that projects a guidance image and a road surface photographing section that photographs the road side. Furthermore, the management device includes a taxiway generation unit that generates a taxiway between the vehicle position of the manned guided vehicle and the cargo handling position, and a placement determination unit that determines the positions at which the plurality of unmanned aircraft will stop in the air on the taxiway. and a projection instruction section that instructs the projection section in a direction in which the guidance image is projected based on the image taken by the road surface imaging section.
好ましくは、投影指示部は、撮影画像の色に関する色データ及び照度に関する照度データと、オペレータの視認性を示す視認性スコアとの間の関係に基づく教師データを収集する収集部を備えている。また、投影指示部は、収集部に収集された教師データから機械学習を行い、機械学習により学習モデルを生成および記憶する学習モデル生成部と、現時点の色データ及び照度データを所定時間ごとに取得する取得部と、学習モデル生成部で生成された学習モデルに、取得部から取得される現時点の色データ及び照度データを入力することで、視認性スコアを学習モデルから取得する予測部と、予測部によって取得される視認性スコアに基づいて、誘導画像が投影される方向を決定する決定部と、を備えている。 Preferably, the projection instruction section includes a collection section that collects teacher data based on the relationship between color data regarding the color of the photographed image, illuminance data regarding the illuminance, and a visibility score indicating visibility for an operator. In addition, the projection instruction unit performs machine learning from the teacher data collected in the collection unit, and includes a learning model generation unit that generates and stores a learning model by machine learning, and acquires current color data and illuminance data at predetermined intervals. a prediction unit that acquires a visibility score from the learning model by inputting the current color data and illuminance data acquired from the acquisition unit into the learning model generated by the learning model generation unit; and a determination unit that determines a direction in which the guidance image is projected based on the visibility score obtained by the determination unit.
誘導画像が投影される方向は、路面側、棚側および天井側を含むことが望ましい。 It is desirable that the direction in which the guidance image is projected includes the road surface side, the shelf side, and the ceiling side.
また、好ましくは、棚は、誘導画像が投影される被投影面を備える。 Preferably, the shelf includes a projection surface onto which the guidance image is projected.
そして、被投影面は、棚に設けられた投影パネルの平坦面、又は、棚に収納された荷物の平坦面であってもよい。 The projection surface may be a flat surface of a projection panel provided on a shelf or a flat surface of luggage stored on a shelf.
無人飛行体は、さらに、棚側を撮影する棚撮影部と、天井側を撮影する天井撮影部と、を備えていてもよい。投影指示部は、路面撮影部、棚撮影部及び天井撮影部による各撮影画像に基づいて、誘導画像が投影される方向を投影部に指示する。 The unmanned aerial vehicle may further include a shelf photographing section that photographs the shelf side, and a ceiling photographing section that photographs the ceiling side. The projection instruction section instructs the projection section in a direction in which the guide image is projected based on the images taken by the road surface imaging section, the shelf imaging section, and the ceiling imaging section.
好ましくは、投影指示部は、各撮影画像の色に関する色データ及び照度に関する照度データと、オペレータの視認性を示す視認性スコアとの間の関係に基づく教師データを収集する収集部を備えている。また、収集部に収集された教師データから機械学習を行い、機械学習により学習モデルを生成および記憶する学習モデル生成部と、現時点の色データ及び照度データを所定時間ごとに取得する取得部と、学習モデル生成部で生成された学習モデルに、取得部から取得される現時点の色データ及び照度データを入力することで、視認性スコアを学習モデルから取得する予測部と、予測部によって取得される視認性スコアに基づいて、誘導画像が投影される方向を決定する決定部と、を備えている。 Preferably, the projection instruction section includes a collection section that collects teacher data based on the relationship between color data regarding the color and illuminance data regarding the illuminance of each photographed image and a visibility score indicating visibility for an operator. . Also, a learning model generation unit that performs machine learning from the teacher data collected in the collection unit and generates and stores a learning model by machine learning, and an acquisition unit that acquires current color data and illuminance data at predetermined intervals; A prediction unit that acquires a visibility score from the learning model by inputting the current color data and illuminance data acquired from the acquisition unit into the learning model generated by the learning model generation unit; A determination unit that determines a direction in which the guidance image is projected based on the visibility score.
また、配置決定部は、無人飛行体が荷役位置の高さに配置されるよう無人飛行体の空中停止位置を決定してもよい。 Further, the placement determining unit may determine the aerial stop position of the unmanned aerial vehicle so that the unmanned aerial vehicle is positioned at the height of the cargo handling position.
好ましくは、配置決定部は、無人飛行体が荷役位置の高さに配置されるよう無人飛行体の空中停止位置を決定する。また、管理装置は、荷役位置の高さが棚の最下段の高さに相当するとき、無人飛行体が発光するように制御する。 Preferably, the placement determining unit determines the aerial stop position of the unmanned aerial vehicle so that the unmanned aerial vehicle is positioned at the height of the cargo handling position. Furthermore, the management device controls the unmanned flying vehicle to emit light when the height of the cargo handling position corresponds to the height of the lowest shelf.
好ましくは、配置決定部は、無人飛行体が荷役位置の高さに配置されるよう無人飛行体の空中停止位置を決定する。また、管理装置は、荷役位置の高さが棚の最下段の高さに相当するとき、無人飛行体が天井に向けて誘導画像を投影するように制御する投影指示部を備える。 Preferably, the placement determining unit determines the aerial stop position of the unmanned aerial vehicle so that the unmanned aerial vehicle is positioned at the height of the cargo handling position. The management device also includes a projection instruction unit that controls the unmanned flying vehicle to project the guidance image toward the ceiling when the height of the cargo handling position corresponds to the height of the lowest shelf.
配置決定部は、有人搬送車を操作するオペレータの目の高さと荷役位置の高さとを結ぶ直線上に無人飛行体の空中停止位置を決定することが望ましい。 It is preferable that the placement determining unit determines the aerial stopping position of the unmanned flying vehicle on a straight line connecting the eye level of the operator operating the manned guided vehicle and the height of the cargo handling position.
配置決定部は、有人搬送車を操作するオペレータの目に相当する高さと荷役位置の高さとを結ぶ直線上に無人飛行体の空中停止位置を決定してもよい。さらに、管理装置は、無人飛行体が路面に向けて誘導画像を投影するように制御する投影指示部を備える。 The placement determining unit may determine the aerial stopping position of the unmanned aerial vehicle on a straight line connecting a height corresponding to the eyes of an operator operating the manned guided vehicle and a height of the cargo handling position. Furthermore, the management device includes a projection instruction unit that controls the unmanned flying vehicle to project the guidance image toward the road surface.
好ましくは、管理装置は、無人飛行体が天井に向けて誘導画像を投影するように制御する投影指示部を備えている。さらに、配置決定部は、有人搬送車と、有人搬送車に最も近い無人飛行体との間の距離が所定長さになるように無人飛行体を制御する。 Preferably, the management device includes a projection instruction unit that controls the unmanned flying vehicle to project the guidance image toward the ceiling. Further, the placement determining unit controls the unmanned flying object so that the distance between the manned guided vehicle and the unmanned flying object closest to the manned guided vehicle becomes a predetermined length.
また、管理装置は、無人飛行体が路面又は天井に向けて誘導画像を投影するように制御する投影指示部を備えており、無人飛行体の高さに応じて誘導画像のピントを調整するフォーカス調整を行うように制御してもよい。 The management device also includes a projection instruction unit that controls the unmanned aerial vehicle to project a guidance image toward the road surface or ceiling, and a focus that adjusts the focus of the guidance image according to the height of the unmanned aerial vehicle. Control may be performed to make adjustments.
本発明に係る誘導システムは、有人搬送車の車両位置と荷役位置との間で生成された誘導路上に複数台の無人飛行体を空中停止することによって、有人搬送車を操作するオペレータが荷役位置までの距離、位置及び方向等を直感的に認識することができる。 The guidance system according to the present invention suspends a plurality of unmanned flying vehicles in the air on a taxiway generated between the vehicle position of the manned guided vehicle and the cargo handling position, so that an operator operating the manned guided vehicle can move to the cargo handling position. You can intuitively recognize the distance, position, direction, etc.
さらに、投影指示部は、路面の汚れや剥がれなどの状態に応じて、誘導画像が投影される方向を指示するようになっているので、路面に誘導画像を綺麗に投影できない場合であっても、棚や天井等に誘導画像を綺麗に投影することで、有人搬送車を操作するオペレータが誘導画像を認識しやすいようにすることができる。 Furthermore, the projection instruction unit is designed to instruct the direction in which the guidance image is projected depending on the condition of the road surface, such as dirt or peeling, so even if the guidance image cannot be projected neatly on the road surface, By clearly projecting the guidance image onto a shelf, ceiling, etc., it is possible to make it easier for the operator operating the manned guided vehicle to recognize the guidance image.
以下、図面に基づいて、本発明に係る誘導システムの実施形態を説明する。 DESCRIPTION OF EMBODIMENTS Hereinafter, embodiments of a guidance system according to the present invention will be described based on the drawings.
<第1実施形態>
図1~図6のとおり、誘導システムSは、オペレータOが操作する有人搬送車1を備える。有人搬送車1は、オペレータOが操作することで動作するように構成されている。本実施形態では、有人搬送車1は、カウンタバランス式のフォークリフトであって、オペレータOが操作することで、車体の走行、及びフォークの昇降を行うことができるように構成されている。
<First embodiment>
As shown in FIGS. 1 to 6, the guidance system S includes a manned guided
誘導システムSは、工場や倉庫等の施設内に設置された複数の棚Rを備えている。棚Rは、高さ方向に複数の段部を備えており、段部の所定位置に荷物Lを収納できるように構成されている。有人搬送車1は、棚Rの所定位置に対して荷物Lを荷置き及び荷取りして荷役を行う。棚Rは、有人搬送車1が走行及び荷役を行うことができるように、所定幅の間隔を置いて配置されており、対向する棚Rの間に通路Pが形成されている(図2)。
The guidance system S includes a plurality of shelves R installed in a facility such as a factory or warehouse. The shelf R includes a plurality of steps in the height direction, and is configured such that the luggage L can be stored at a predetermined position on the steps. The manned guided
誘導システムSは、空中停止可能な複数台の無人飛行体2を備える。無人飛行体2は、ドローンと呼ばれており、複数本のアームの各先端側に設けられた回転翼の回転によって、所定の空中停止位置まで飛行すると共に、所定の空中停止位置でホバリング可能なように構成されている。
The guidance system S includes a plurality of unmanned
誘導システムSは、無人飛行体2を制御するための管理装置3を備える(図5)。管理装置3は、記憶部30を備えている。記憶部30は、施設内に設置された棚R及び通路P、施設内に配置された荷物L等によって構成されるマップMが記憶されている。
The guidance system S includes a
さらに、記憶部30は、有人搬送車1によって行われる単数または複数の荷役タスクTが荷役スケジュールJとして記憶されている。即ち、荷役スケジュールJは、所定の棚Rの所定場所から荷物Lを荷取りする荷役タスクT1、所定の棚Rの所定場所に荷物Lを荷置きする荷役タスクT2、出荷場所に荷物Lを荷置きする荷役タスクT3、入荷場所から荷物Lを荷取りする荷役タスクT4等の単数または複数の荷役タスクTが、所定の順序に従って設定されている。また、荷役タスクTは、荷物Lの位置情報、荷物Lに対する荷役(荷取り又は荷置き)情報が含まれている。
Furthermore, the
管理装置3は、荷役指示部34を備えており、荷役指示部34が、記憶部30から送信される荷役スケジュールJの荷役タスクTを有人搬送車1の運転席に設けられた表示部11に表示するように構成されている。
The
表示部11は、例えば、タッチパネルディスプレイで構成されており、荷役指示部34は、有人搬送車1が行うべき荷役タスクTを表示部11に表示する。オペレータOは、表示部11に表示された荷役タスクTに従って、有人搬送車1を操作して荷役を行う。荷役タスクTが終了すると、オペレータOは、表示部11に表示された終了ボタン(不図示)を押して、終了信号が荷役指示部34に送信される。荷役指示部34は、終了信号を受信すると、荷役スケジュールJに基づいて、次に有人搬送車1が行うべき荷役タスク(次の荷役タスク)Tを表示部11に表示するように構成されている。
The
有人搬送車1は、位置検出部10を備えている。位置検出部10は、レーザーセンサ、GPSセンサ、電磁誘導センサ等で構成されている。位置検出部10は、有人搬送車1の車両位置D1を検出するように構成されている。
The manned guided
管理装置3は、誘導路生成部31を備えている。誘導路生成部31は、位置検出部10から送信される有人搬送車1の車両位置D1の情報と、記憶部30から送信される施設マップMと、記憶部30から送信される荷役スケジュールJの荷役タスクTとに基づいて、有人搬送車1の車両位置D1と荷役位置D2との間の誘導路4を生成する。荷役位置D2は、荷役タスクTにおいて有人搬送車1が荷取り及び荷置きする通路P上の位置である(図2)。
The
図2のとおり、誘導路生成部31は、例えば、車両位置D1と荷役位置D2とを通路P上で結ぶ誘導路4を生成するように構成されている。誘導路4は、例えば、有人搬送車1の走行距離が最短となるよう設定される。本実施形態では、図2のとおり、誘導路4は、第1直線部41、屈曲部40、第2直線部42で構成されている。
As shown in FIG. 2, the
無人飛行体2は、位置検出部20を備えている(図5)。位置検出部20は、GPSセンサ、ジャイロセンサ、超音波センサ、レーザーセンサ、気圧センサ、コンパス、加速度センサ等で構成されており、無人飛行体2の位置を検出することができる。
The unmanned
無人飛行体2は、飛行制御部21を備えている。飛行制御部21は、回転翼の回転を制御するように構成されている。無人飛行体2は、位置検出部20の検出結果と飛行制御部21の制御とに基づいて、誘導路4上の所定の空中停止位置まで飛行して、空中停止位置で空中停止するようにホバリングすることができる。
The
管理装置3は、配置決定部32を備えている。配置決定部32は、無人飛行体2の台数を誘導路4の距離に応じて決定するように構成されている。
The
配置決定部32は、例えば、無人飛行体2が誘導路4上に等間隔に配置されるようにする場合、誘導路4が長距離のときは、多数の無人飛行体2が配置されるように決定する一方、誘導路4が短距離のときは、少数の無人飛行体2が配置されるように決定する。
For example, when the unmanned
配置決定部32は、さらに、誘導路4上で無人飛行体2がホバリングする空中停止位置を決定するよう構成されている。図2のとおり、本実施形態では、無人飛行体2は、誘導路4の第1直線部41及び第2直線部42上で等間隔に空中停止してホバリングすると共に、誘導路4の屈曲部40上に配置される屈曲位置D3、誘導路4上に配置される荷役位置D2で空中停止してホバリングする。
The
誘導路4上の屈曲位置D3は、有人搬送車1が曲がる重要な位置であることから、屈曲位置D3に無人飛行体2が空中停止してホバリングすることで、オペレータOは、重要な位置である屈曲位置D3を素早く把握することができる。また、誘導路4上の荷役位置D2は、有人搬送車1が荷役作業を行う重要な位置であることから、荷役位置D2に無人飛行体2が空中停止してホバリングすることで、オペレータOは、重要な位置である荷役位置D2を素早く把握することができる。
Since the bending position D3 on the
無人飛行体2は、記憶部22を備えている。記憶部22は、誘導画像200を記憶している。誘導画像200は、例えば、有人搬送車1を荷役位置D2に誘導するための矢印等で構成されており、荷役位置D2に応じて矢印の向きが変化するように表示される(図2)。
The unmanned
無人飛行体2は、投影部23を備えている。投影部23は、例えば、プロジェクタ等で構成されており、施設の通路Pの路面に、記憶部22に記憶された誘導画像200を投影することができるようになっている(図1及び図2)。
The unmanned
管理装置3は、投影指示部33を備えている。投影指示部33は、誘導路生成部31による誘導路4に応じて、通路Pに投影すべき誘導画像200を決定して、無人飛行体2の投影部23に投影の指示を送るよう構成されている。
The
図1及び図2の通り、通常では、投影部23は、通路Pの路面に誘導画像200を投影するように構成されている。
As shown in FIGS. 1 and 2, the
また、無人飛行体2は、路面撮影部25を備えており、路面撮影部25は、通路Pの路面を撮影するよう構成されている。路面撮影部25は、例えば、CCDセンサ、CMOSセンサ、イメージプロセッサ等を有するカメラでよく、撮影画像を取得するよう構成されている。
Further, the unmanned
無人飛行体2は、誘導画像200を投影する投影部23を備えているが、投影部23は、例えば、1つのプロジェクタが誘導画像200を投影する方向を変更するか、複数のプロジェクタが異なる方向に誘導画像200を投影するよう構成されており、通路P側、棚R側、天井C側等に誘導画像200を投影することができる。投影部23は、例えば、プロジェクタがモータで回転可能に構成されるか、誘導画像200を反射する反射鏡がモータで回転可能に構成されていて、誘導画像200が投影される方向を変更してもよい。
The unmanned
また、投影指示部33は、路面撮影部25による撮影画像に基づいて、誘導画像200が投影される方向を投影部23に指示するよう構成されている。投影指示部33は、通路Pの路面の色を記憶しており、撮影画像の全体のうち所定の割合が通路Pの路面の色と異なる色であるときに、路面が汚れていたり剥がれていたりしており、誘導画像200を綺麗に投影できないことから、誘導画像200を通路Pではなく、棚R側や天井C側等に投影するように投影部23に指示してもよい(図3及び図4)。
Furthermore, the
また、図6の通り、投影指示部33は、機械学習によって、誘導画像200が投影される方向を投影部23に指示してもよい。このとき、投影指示部33は、教師データ46を収集する収集部40を備えている。教師データ46は、通路Pの路面の色に関する色データD1と、通路Pの路面の照度に関する照度データD2とを含む。
Further, as shown in FIG. 6, the
投影指示部33は、収集部40に収集された教師データ46(色データD1、照度データD2)から機械学習を行い、機械学習により学習モデルを生成および記憶する学習モデル生成部41を備える。本実施の形態の学習モデル生成部41は、教師あり学習を実施する。教師あり学習では、教師データ46、すなわち、入力データIDと出力データODとの組を大量に学習モデル生成部41に入力する。
The
入力データIDは、通路Pの路面の色及び照度を含む。出力データODは、視認性スコアである。オペレータが誘導画像200を視認できるか否かの可能性を示す視認性スコアとして、入力データIDを評価し、0から10までの数値パラメータが設定される。
The input data ID includes the color and illuminance of the road surface of the passage P. The output data OD is a visibility score. The input data ID is evaluated and a numerical parameter from 0 to 10 is set as a visibility score indicating the possibility of whether or not the operator can visually recognize the
例えば、視認性スコアの数値パラメータが高い、すなわち、オペレータが誘導画像200を視認できる可能性が高いと判断される場合として、例えば、通路Pの路面の色が、当初の色と同じ色の割合が高いか、同じ色の割合が低かったとしても当初の色に近い色の割合が高くて、照度が高い場合などは、視認性がよいことが多い。
For example, in a case where it is determined that the numerical parameter of the visibility score is high, that is, there is a high possibility that the operator will be able to visually recognize the
一方、視認性スコアの数値パラメータが低い、すなわち、オペレータが誘導画像200を認識できる可能性が低いと判断される場合として、例えば、通路Pの路面の色が、当初の色と異なる色の割合が高いか、異なる色の割合が低かったとしても当初の色から遠い色の割合が高くて、照度が低い場合などは、視認性が悪いことが多い。
On the other hand, when the numerical parameter of the visibility score is low, that is, it is determined that the possibility that the operator will be able to recognize the
視認性スコアは、通路Pの路面の色及び照度のいずれかの数値パラメータで設定されてもよいし、重み付け係数により加重平均された数値パラメータで設定されてもよい。 The visibility score may be set using numerical parameters such as the color and illumination of the road surface of the passageway P, or may be set using numerical parameters weighted and averaged using a weighting coefficient.
なお、実際に、オペレータが誘導画像200を視認するときに、通路Pの路面の色及び照度によって視認性が異なるので、通路Pの路面の色及び照度と、オペレータが誘導画像200を視認できることとの間に相関関係等の一定の関係が存在することは推認できる。
Note that when the operator actually visually recognizes the
学習モデル生成部41は、一般的なニューラルネットワーク等の機械学習アルゴリズムを用いる。学習モデル生成部41は、相関関係を有する入力データIDと出力データODを教師データ46として機械学習を行うことにより、入力から出力を推定するモデル(学習モデル)、すなわち、入力データIDを入力すると、視認性スコアを出力するモデルを生成する。
The learning
投影指示部33は、現時点の入力データIDを所定時間ごとに取得する取得部45を備える。本実施形態では、取得部45は、路面撮影部25である。上記の通り、入力データIDは、通路Pの路面の色及び照度である。入力データIDは、所定時間(例えば1分)ごとに取得される。
The
投影指示部33は、学習モデル生成部41で生成された学習モデルを、取得部45から取得される現時点の入力データIDに適用することで、オペレータが誘導画像200を視認できるか否かを予測する予測部42を備える。
The
所定時間ごとに予測部42に現時点の入力データIDが入力されたときに、通路Pの路面の色及び照度を解析して視認性スコアが取得される。取得された視認性スコアが予め設定された所定の数値パラメータ以上という条件を満たせば、オペレータが誘導画像200を視認できる可能性が高いと予測される。
When the current input data ID is input to the
決定部43は、視認性が低いときに、投影部23に対して、誘導画像200が投影される方向を通路Pの路面ではなく、棚R側や天井C側等の方向にするよう決定する。これにより、オペレータが誘導画像200を視認しやすくなるよう構成されている。
When visibility is low, the determining
また、無人飛行体2は、路面撮影部25に加えて、棚撮影部26及び天井撮影部27を備えていてもよい。棚撮影部26は、棚Rを撮影するよう構成されている。天井撮影部27は、天井Cを撮影するよう構成されている。各撮影部25,26,27は、例えば、CCDセンサ、CMOSセンサ、イメージプロセッサ等を有するカメラでよく、撮影画像のデータを取得するよう構成されている。各撮影部25,26,27は、それぞれ異なる複数のカメラで構成されてもよいし、単一のカメラで構成されてもよい。
Further, the unmanned
図4(A)の通り、棚Rは、荷物Lが収納される収納部ごとに設けられた投影パネル210を備えていてもよい。投影パネル210は、通路P側の平坦面である被投影面201に誘導画像200が投影されるようになっている。また、図4(B)の通り、棚Rに収納された荷物Lの通路P側を被投影面201として、誘導画像200が投影されてもよい。
As shown in FIG. 4(A), the shelf R may include a
投影指示部33は、路面撮影部25で撮影された通路Pの路面が汚れていたり剥がれていたりする場合や、棚撮影部26で撮影された棚Rに、投影パネル210や荷物Lの被投影面201がなかったり、被投影面201が汚れていたりする場合に、図3(B)の通り、天井Cに誘導画像200が投影されてもよい。
The
投影指示部33は、被投影面201の色を記憶しており、撮影画像の全体のうち所定の割合が通常の色と異なる色であるときに、汚れていたり剥がれていたりしており、誘導画像200を綺麗に投影できないことから、誘導画像200を棚R側ではなく、天井C側に投影するように投影部23に指示してもよい。また、投影指示部33は、棚Rに荷物Lが収納されていないと認識した場合、被投影面201がないことから、誘導画像200を棚R側ではなく、天井C側に投影するように投影部23に指示してもよい。
The
また、投影指示部33の収集部40は、通路Pの路面の色及び照度に加えて、被投影面201及び天井Cの色に関する色データD1と、被投影面201及び天井Cの照度に関する照度データD2とを含んでもよい。
In addition to the color and illuminance of the road surface of the passageway P, the
そして、投影指示部33の学習モデル生成部41は、通路Pの路面の色及び照度と同様に、収集部40に収集された教師データ46から機械学習を行い、機械学習により学習モデルを生成および記憶して、棚撮影部26及び天井撮影部27である取得部45による入力データIDに基づいて、予測部42が、オペレータが誘導画像200を視認できるか否かを予測する。
Then, the learning
決定部43は、通路Pの路面の視認性が低いときに、投影部23に対して、誘導画像200が投影される方向を棚R側ではなく天井C側の方向にしたり、天井C側ではなく棚R側の方向にしたりするよう決定する。これにより、オペレータが誘導画像200を視認しやすくなるよう構成されている。
When the visibility of the road surface of the passage P is low, the determining
オペレータOは、通路P側、棚R側又は天井C側に投影された誘導画像200を目視し、誘導画像200に沿って有人搬送車1を荷役位置D2まで走行して、表示部11に表示された荷役タスクTに従って有人搬送車1を操作して荷物Lに対して荷役作業を行うことができる。
The operator O visually observes the
誘導システムSでは、有人搬送車1の車両位置D1と荷役位置D2との間で生成された誘導路4上に複数台の無人飛行体2を空中停止してホバリングすることによって、有人搬送車1を操作するオペレータOは、荷役位置D2までの距離及び方向等を直感的に認識することができる。
In the guidance system S, the manned guided
<他の実施例>
図7~図12に基づいて、誘導システムSにおける他の実施例を説明する。
なお、上記第1実施形態と同様の構成については、重複説明を避けるために省略することがある。
<Other Examples>
Other embodiments of the guidance system S will be described based on FIGS. 7 to 12.
Note that configurations similar to those in the first embodiment may be omitted to avoid redundant explanation.
(他の実施例1)
図7のとおり、管理装置3の配置決定部32は、無人飛行体2が荷役位置D2の高さに配置されるよう無人飛行体2の空中停止位置を決定するよう構成されてもよい。即ち、管理装置3の記憶部30は、荷役スケジュールJの各荷役タスクTの荷役位置D2の高さ位置が記憶されている。荷役位置D2の高さ位置とは、各荷役タスクTで荷役される荷物Lの高さである。有人搬送車1によって、荷役位置D2の高さ位置で荷物Lに対して荷取り・荷置きの荷役が行われる。配置決定部32は、各荷役タスクTの荷役位置D2の高さ位置に相当する高さで無人飛行体2がホバリングして空中停止するように構成されている。
(Other Example 1)
As shown in FIG. 7, the
有人搬送車1を操作するオペレータOは、無人飛行体2から通路P上に投影される誘導画像200に沿って有人搬送車1を走行するが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。
The operator O who operates the manned guided
(他の実施例2)
図8のとおり、管理装置3の配置決定部32は、無人飛行体2が荷役位置D2の高さ位置に配置されるよう無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、発光装置(不図示)を備えており、オペレータOが無人飛行体2の位置を容易に認識できるように発光するよう構成されている。
(Other Example 2)
As shown in FIG. 8, the
管理装置3の配置決定部32は、荷役位置D2の高さ位置が棚Rの最下段の高さに相当するとき、無人飛行体2が棚Rの最下段の高さに配置されるよう無人飛行体2の空中停止位置を決定する。従って、無人飛行体2は通路Pに近接する低い位置で空中停止しているため、通路P上に誘導画像200が投影されても、オペレータOが認識することが難しいことから、無人飛行体2が発光して、その結果、オペレータOが誘導路4を確実に認識することができる。
When the height position of the cargo handling position D2 corresponds to the height of the lowest stage of the shelf R, the
有人搬送車1が走行して無人飛行体2に接近すると、無人飛行体2は、有人搬送車1に衝突しないよう回避飛行するよう構成されている。
When the manned guided
有人搬送車1を操作するオペレータOは、無人飛行体2に沿って有人搬送車1を走行することで荷役位置D2に到達できるが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。
The operator O who operates the manned guided
(他の実施例3)
図9のとおり、管理装置3の配置決定部32は、無人飛行体2が荷役位置D2の高さ位置に配置されるよう無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、投影部23を備えており、投影部23は、施設の天井Cに誘導画像200を投影することができるよう構成されている。
(Other Example 3)
As shown in FIG. 9, the
管理装置3の配置決定部32は、荷役位置D2の高さ位置が棚Rの最下段の高さに相当するとき、無人飛行体2が棚Rの最下段の高さに配置されるよう無人飛行体2の空中停止位置を決定する。従って、無人飛行体2は通路Pに近接して低い位置で空中停止しているため、通路P上に誘導画像200が投影されても、オペレータOは認識することが難しいことから、無人飛行体2が天井C上に誘導画像200を投影することで、オペレータOが誘導路4を確実に認識することができる。
When the height position of the cargo handling position D2 corresponds to the height of the lowest stage of the shelf R, the
有人搬送車1が走行して無人飛行体2に接近すると、無人飛行体2は、有人搬送車1に衝突しないよう回避飛行するよう構成されている。
When the manned guided
有人搬送車1を操作するオペレータOは、無人飛行体2から天井C上に投影される誘導画像200に沿って有人搬送車1を走行することで荷役位置D2に到達できるが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。
The operator O who operates the manned guided
(他の実施例4)
図10のとおり、管理装置3の配置決定部32は、有人搬送車1を操作するオペレータOの目の高さと荷役位置D2の高さ位置とを結ぶ直線OS上に無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、発光装置(不図示)を備えており、オペレータOが無人飛行体2の位置を容易に認識できるように発光するよう構成されている。
(Other Example 4)
As shown in FIG. 10, the
有人搬送車1を操作するオペレータOは、無人飛行体2に沿って有人搬送車1を走行することで荷役位置D2に到達できるが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。
The operator O who operates the manned guided
(他の実施例5)
図11のとおり、管理装置3の配置決定部32は、有人搬送車1を操作するオペレータOの目の高さと荷役位置D2の高さ位置とを結ぶ直線OS上に無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、投影部23を備えており、投影部23は、施設の通路Pに誘導画像200を投影することができるよう構成されている。
(Other Example 5)
As shown in FIG. 11, the
有人搬送車1を操作するオペレータOは、無人飛行体2に沿って有人搬送車1を走行することで荷役位置D2に到達できるが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。
The operator O who operates the manned guided
また、オペレータOは、無人飛行体2に沿って有人搬送車1を走行することができるので、誘導画像200は、荷役位置D2の方向を指す矢印で構成する必要がなく、その他の、例えば、荷役されるべき荷物Lの種類等を表示することができる。従って、オペレータOは、荷物Lの種類等に応じて、荷取り及び荷置きを行うための準備ができる。
Further, since the operator O can drive the manned guided
(他の実施例6)
図12のとおり、管理装置3の配置決定部32は、無人飛行体2が荷役位置D2の高さ位置に配置されるよう無人飛行体2の空中停止位置を決定するよう構成されてもよい。そして、無人飛行体2は、投影部23を備えており、投影部23は、施設の天井Cに誘導画像200を投影することができるよう構成されている。
(Other Example 6)
As shown in FIG. 12, the
管理装置3の配置決定部32は、荷役位置D2の高さ位置が棚Rの最下段の高さに相当するとき、無人飛行体2が棚Rの最下段の高さに配置されるよう無人飛行体2の空中停止位置を決定する。従って、無人飛行体2は通路Pに近接した低い位置であるため、通路P上に誘導画像200が投影されても、オペレータOが認識することが難しいことから、投影指示部33は、無人飛行体2が天井C上に誘導画像200を投影するように制御する。
When the height position of the cargo handling position D2 corresponds to the height of the lowest stage of the shelf R, the
さらに、有人搬送車1と、有人搬送車1に最も近い誘導画像200との間の距離Xが短いと、有人搬送車1を操作するオペレータOの視線が大きな角度で上方に向いて危険であることから、配置決定部32は、有人搬送車1と、有人搬送車1に最も近い誘導画像200との間の距離Xが所定長さとなって、オペレータOの視線が大きな角度で上方を向かないよう制御する。
Furthermore, if the distance X between the manned guided
距離Xは、予め設定された一定長さでも良く、例えば、有人搬送車1の速度が所定速度より速いときは長くなり、所定速度より遅いときは短くなる等、有人搬送車1の速度に応じて変更されても良い。それによって、有人搬送車1を操作するオペレータOの視線が小さな角度で上方に向くので、有人搬送車1を安全に走行することができる。
The distance X may be a fixed length set in advance, and may be set depending on the speed of the manned guided
有人搬送車1が走行して無人飛行体2に接近すると、無人飛行体2は、有人搬送車1に衝突しないよう回避飛行するよう構成されている。
When the manned guided
有人搬送車1を操作するオペレータOは、無人飛行体2から天井C上に投影される誘導画像200に沿って有人搬送車1を走行するが、無人飛行体2の空中停止位置を目視で確認するだけで、荷役を行うべき荷物Lの高さを直感的に認識することができる。
The operator O who operates the manned guided
(他の実施例7)
管理装置3の投影指示部33は、無人飛行体2が通路Pの路面又は天井Cに向けて誘導画像200を投影するときに、無人飛行体2の空中停止位置の高さに応じて、誘導画像200が通路Pの路面又は天井Cに鮮明に投影されるようピントを調整するフォーカス調整を行うように制御してもよい。
(Other Example 7)
When the unmanned
フォーカス調整によって誘導画像200が通路Pの路面又は天井Cに鮮明に投影されることで、オペレータOは、誘導画像200を確実に認識することでき、それにより、有人搬送車1を適切に走行及び操作することができる。
The
以上、本発明の好ましい実施形態を説明したが、本発明の構成はこれらの実施形態に限定されない。例えば、以下のように変更することもできる。 Although preferred embodiments of the present invention have been described above, the configuration of the present invention is not limited to these embodiments. For example, it can be changed as follows.
上記実施形態では、無人飛行体2は、通路P又は天井C上に誘導画像200を投影したり、自機を発光したりして、オペレータOの視覚によって誘導路4が認識されるように構成されているが、音声、ブザー、チャイム等の音を発する音声発生部(不図示)を備えており、オペレータOの聴覚によって誘導路4が認識されるように構成されてもよい。音声発生部は、例えば、「15m先を左折です」、「30m先、目的地です」、「この先、障害物あり。ご注意ください」等の音声を発するよう構成されている。
In the embodiment described above, the
本発明の効果について説明する。 The effects of the present invention will be explained.
誘導システムSでは、有人搬送車1の車両位置D1と荷役位置D2との間で生成された誘導路4上に複数台の無人飛行体2を空中停止することによって、有人搬送車1を操作するオペレータOが荷役位置D2までの距離、位置及び方向等を直感的に認識することができる。
In the guidance system S, the manned guided
さらに、投影指示部33は、路面撮影部25による撮影画像に基づいて、通路Pの路面の汚れや剥がれなどの状態に応じて誘導画像200が投影される方向を指示するようになっているので、通路Pの路面に誘導画像200を綺麗に投影できない場合であっても、他の部分に誘導画像200を綺麗に投影することで、有人搬送車1を操作するオペレータOが誘導画像200を認識しやすいようにすることができる。
Furthermore, the
1 有人搬送車
2 無人飛行体
3 管理装置
4 誘導路
25 路面撮影部
26 棚撮影部
27 天井撮影部
31 誘導路生成部
32 配置決定部
33 撮影指示部
40 収集部
41 学習モデル生成部
42 予測部
43 決定部
45 取得部
200 誘導画像
201 被投影面
210 投影パネル
D1 車両位置
D2 荷役位置
S 誘導システム
R 棚
P 路面
C 天井
O オペレータ
1 Manned guided
Claims (14)
空中停止可能な複数台の無人飛行体と、
前記無人飛行体を制御する管理装置と、を備える誘導システムであって、
前記無人飛行体は、
誘導画像を投影する投影部と、
路面側を撮影する路面撮影部と、を備え、
前記管理装置は、
前記有人搬送車の車両位置と荷役位置との間に誘導路を生成する誘導路生成部と、
前記誘導路上で前記複数台の無人飛行体が空中停止する位置を決定する配置決定部と、
前記路面撮影部による撮影画像に基づいて、前記誘導画像が投影される方向を前記投影部に指示する投影指示部と、を備える
ことを特徴とする誘導システム。 A manned guided vehicle operated by an operator,
Multiple unmanned flying vehicles that can stop in the air,
A guidance system comprising: a management device that controls the unmanned flying vehicle;
The unmanned aerial vehicle is
a projection unit that projects a guidance image;
Equipped with a road surface photography section that photographs the road surface side,
The management device includes:
a guideway generation unit that generates a guideway between the vehicle position of the manned guided vehicle and the cargo handling position;
a placement determining unit that determines a position at which the plurality of unmanned flying vehicles will stop in the air on the taxiway;
A guidance system comprising: a projection instruction section that instructs the projection section in a direction in which the guidance image is projected based on an image taken by the road surface photography section.
前記撮影画像の色に関する色データ及び照度に関する照度データと、前記オペレータの視認性を示す視認性スコアとの間の関係に基づく教師データを収集する収集部と、
前記収集部に収集された前記教師データから機械学習を行い、前記機械学習により学習モデルを生成および記憶する学習モデル生成部と、
現時点の前記色データ及び前記照度データを所定時間ごとに取得する取得部と、
前記学習モデル生成部で生成された前記学習モデルに、前記取得部から取得される現時点の前記色データ及び前記照度データを入力することで、前記視認性スコアを前記学習モデルから取得する予測部と、
前記予測部によって取得される前記視認性スコアに基づいて、前記誘導画像が投影される方向を決定する決定部と、を備える
ことを特徴する請求項1に記載の誘導システム。 The projection instruction section includes:
a collection unit that collects teacher data based on a relationship between color data regarding the color of the photographed image and illuminance data regarding the illuminance, and a visibility score indicating visibility of the operator;
a learning model generation unit that performs machine learning from the teacher data collected by the collection unit, and generates and stores a learning model by the machine learning;
an acquisition unit that acquires the current color data and the illuminance data at predetermined time intervals;
a prediction unit that acquires the visibility score from the learning model by inputting the current color data and the illuminance data acquired from the acquisition unit to the learning model generated by the learning model generation unit; ,
The guidance system according to claim 1, further comprising: a determination unit that determines a direction in which the guidance image is projected based on the visibility score acquired by the prediction unit.
ことを特徴とする請求項1に記載の誘導システム。 The guidance system according to claim 1, wherein the direction in which the guidance image is projected includes the road surface side, the shelf side, and the ceiling side.
ことを特徴とする請求項3に記載の誘導システム。 The guidance system according to claim 3, wherein the shelf includes a projection surface onto which the guidance image is projected.
ことを特徴とする請求項4に記載の誘導システム。 5. The guidance system according to claim 4, wherein the projection surface is a flat surface of a projection panel provided on the shelf or a flat surface of luggage stored on the shelf.
前記棚側を撮影する棚撮影部と、
前記天井側を撮影する天井撮影部と、を備え、
前記投影指示部は、
前記路面撮影部、前記棚撮影部及び前記天井撮影部による各撮影画像に基づいて、前記誘導画像が投影される方向を前記投影部に指示する
ことを特徴とする請求項3に記載の誘導システム。 The unmanned aerial vehicle further includes:
a shelf photographing unit that photographs the shelf side;
a ceiling photographing section for photographing the ceiling side,
The projection instruction section includes:
The guidance system according to claim 3, wherein the guidance system instructs the projection unit in a direction in which the guidance image is projected based on each image taken by the road surface photography unit, the shelf photography unit, and the ceiling photography unit. .
前記各撮影画像の色に関する色データ及び照度に関する照度データと、前記オペレータの視認性を示す視認性スコアとの間の関係に基づく教師データを収集する収集部と、
前記収集部に収集された前記教師データから機械学習を行い、前記機械学習により学習モデルを生成および記憶する学習モデル生成部と、
現時点の前記色データ及び前記照度データを所定時間ごとに取得する取得部と、
前記学習モデル生成部で生成された前記学習モデルに、前記取得部から取得される現時点の前記色データ及び前記照度データを入力することで、前記視認性スコアを前記学習モデルから取得する予測部と、
前記予測部によって取得される前記視認性スコアに基づいて、前記誘導画像が投影される方向を決定する決定部と、を備える
ことを特徴する請求項6に記載の誘導システム。 The projection instruction section includes:
a collection unit that collects teacher data based on the relationship between color data regarding the color and illuminance data regarding the illuminance of each photographed image and a visibility score indicating visibility of the operator;
a learning model generation unit that performs machine learning from the teacher data collected by the collection unit, and generates and stores a learning model by the machine learning;
an acquisition unit that acquires the current color data and the illuminance data at predetermined time intervals;
a prediction unit that acquires the visibility score from the learning model by inputting the current color data and the illuminance data acquired from the acquisition unit to the learning model generated by the learning model generation unit; ,
The guidance system according to claim 6, further comprising: a determination unit that determines a direction in which the guidance image is projected based on the visibility score acquired by the prediction unit.
ことを特徴とする請求項1~7のいずれかに記載の誘導システム。 The guidance according to any one of claims 1 to 7, wherein the placement determining unit determines an aerial stop position of the unmanned flying vehicle so that the unmanned flying vehicle is located at a height of the cargo handling position. system.
ことを特徴とする請求項8に記載の誘導システム。 The guidance system according to claim 8, wherein the management device controls the unmanned flying vehicle to emit light when the height of the cargo handling position corresponds to the height of the lowest shelf.
ことを特徴とする請求項8に記載の誘導システム。 The management device includes a projection instruction unit that controls the unmanned flying vehicle to project a guidance image toward the ceiling when the height of the cargo handling position corresponds to the height of the lowest shelf. The guidance system according to claim 8.
ことを特徴とする請求項1~7のいずれかに記載の誘導システム。 The position determining unit determines the aerial suspension position of the unmanned aerial vehicle on a straight line connecting a height corresponding to the eyes of an operator operating the manned guided vehicle and a height of the cargo handling position. 8. The guidance system according to any one of 1 to 7.
ことを特徴とする請求項11に記載の誘導システム。 The guidance system according to claim 11, wherein the management device includes a projection instruction unit that controls the unmanned flying vehicle to project a guidance image toward a road surface.
前記配置決定部は、前記有人搬送車と、前記有人搬送車に最も近い前記無人飛行体との間の距離が所定長さになるように前記無人飛行体を制御する
ことを特徴とする請求項1に記載の誘導システム。 The management device includes a projection instruction unit that controls the unmanned flying vehicle to project a guidance image toward the ceiling,
The arrangement determining unit controls the unmanned flying object so that the distance between the manned guided vehicle and the unmanned flying object closest to the manned guided vehicle becomes a predetermined length. 1. The guidance system according to 1.
前記無人飛行体の高さに応じて前記誘導画像のピントを調整するフォーカス調整を行うように制御する
ことを特徴とする請求項1に記載の誘導システム。 The management device includes a projection instruction unit that controls the unmanned flying vehicle to project a guidance image toward a road surface or a ceiling,
The guidance system according to claim 1, wherein control is performed to perform focus adjustment to adjust the focus of the guidance image according to the height of the unmanned aerial vehicle.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022090259A JP7430975B2 (en) | 2022-06-02 | 2022-06-02 | guidance system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022090259A JP7430975B2 (en) | 2022-06-02 | 2022-06-02 | guidance system |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2023177532A true JP2023177532A (en) | 2023-12-14 |
JP7430975B2 JP7430975B2 (en) | 2024-02-14 |
Family
ID=89123923
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022090259A Active JP7430975B2 (en) | 2022-06-02 | 2022-06-02 | guidance system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7430975B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2022118330A (en) | 2021-02-02 | 2022-08-15 | コベルコ建機株式会社 | Work assist system and work assist complex system |
JP7478182B2 (en) | 2022-04-04 | 2024-05-02 | 三菱ロジスネクスト株式会社 | Guidance System |
JP7478185B2 (en) | 2022-04-28 | 2024-05-02 | 三菱ロジスネクスト株式会社 | Guidance System |
JP7452938B2 (en) | 2022-04-28 | 2024-03-19 | 三菱ロジスネクスト株式会社 | guidance system |
JP7436132B2 (en) | 2022-05-13 | 2024-02-21 | 三菱ロジスネクスト株式会社 | guidance system |
JP7436133B2 (en) | 2022-05-13 | 2024-02-21 | 三菱ロジスネクスト株式会社 | guidance system |
-
2022
- 2022-06-02 JP JP2022090259A patent/JP7430975B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP7430975B2 (en) | 2024-02-14 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7178061B2 (en) | Human interaction automatic guided vehicle | |
KR20180109572A (en) | Control method of robot system including a plurality of moving robots | |
US11345032B2 (en) | Autonomous moving body and control program for autonomous moving body | |
US11241790B2 (en) | Autonomous moving body and control program for autonomous moving body | |
US11353880B2 (en) | Autonomous moving body and control program for autonomous moving body | |
KR20210026595A (en) | Method of moving in administrator mode and robot of implementing thereof | |
JP7430975B2 (en) | guidance system | |
JP7452938B2 (en) | guidance system | |
JP7436133B2 (en) | guidance system | |
JP7478185B2 (en) | Guidance System | |
JP7436132B2 (en) | guidance system | |
KR20190003120A (en) | Robot system including a plurality of moving robots and Mobile terminal | |
JP7478192B2 (en) | Guidance System | |
US11215990B2 (en) | Manual direction control component for self-driving vehicle | |
JP7478182B2 (en) | Guidance System | |
JP7478198B2 (en) | Guidance System | |
JP7444531B2 (en) | guidance system | |
JP7452940B2 (en) | guidance system | |
JP2024039975A (en) | guidance system | |
JP2024030888A (en) | guidance system | |
EP4024155B1 (en) | Method, system and computer program product of control of unmanned aerial vehicles | |
JP2024053777A (en) | Guidance System | |
KR20190003119A (en) | Mobile terminal and Moving robot including the same therein | |
JP2024009634A (en) | guidance system | |
JP2024036175A (en) | guidance system |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20230331 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20240131 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20240131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7430975 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |