JP2020013582A - Unmanned aerial vehicles and unmanned transport systems - Google Patents
Unmanned aerial vehicles and unmanned transport systems Download PDFInfo
- Publication number
- JP2020013582A JP2020013582A JP2019142699A JP2019142699A JP2020013582A JP 2020013582 A JP2020013582 A JP 2020013582A JP 2019142699 A JP2019142699 A JP 2019142699A JP 2019142699 A JP2019142699 A JP 2019142699A JP 2020013582 A JP2020013582 A JP 2020013582A
- Authority
- JP
- Japan
- Prior art keywords
- image
- unit
- guidance route
- unmanned aerial
- ceiling
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000001514 detection method Methods 0.000 claims abstract description 26
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims abstract description 10
- 238000012937 correction Methods 0.000 claims description 42
- 238000003384 imaging method Methods 0.000 claims description 38
- 239000003550 marker Substances 0.000 claims description 24
- 238000012545 processing Methods 0.000 claims description 16
- 238000004364 calculation method Methods 0.000 claims description 13
- 238000000605 extraction Methods 0.000 claims description 9
- 239000000463 material Substances 0.000 claims description 4
- 239000000284 extract Substances 0.000 claims description 2
- 238000009434 installation Methods 0.000 abstract description 2
- 238000000034 method Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 4
- 230000001678 irradiating effect Effects 0.000 description 3
- 230000001133 acceleration Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000005674 electromagnetic induction Effects 0.000 description 1
- 230000004807 localization Effects 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本発明は、無人飛行体およびそれを用いた無人搬送システムに関する。 The present invention relates to an unmanned aerial vehicle and an unmanned transport system using the same.
工場や倉庫では、搬送作業において自律走行可能な無人搬送車が利用されている。この種の無人搬送車には、多種多様な誘導方式が利用されている。例えば、特許文献1に開示の無人搬送車は、誘導ラインに沿って走行する誘導方式が用いられている。具体的には、この無人搬送車は、撮像部を備えており、撮像部を使用して路面に敷設された誘導ラインを撮像し、撮像された誘導ラインの位置に基づいて誘導ライン上を走行する。
In factories and warehouses, unmanned transport vehicles that can travel autonomously in transport operations are used. Various types of guidance systems are used in this type of automatic guided vehicle. For example, the automatic guided vehicle disclosed in
上記誘導ラインは、路面に貼付されたテープや路面に塗布された塗料などからなり、路面とは明確に異なる色彩が着色されている。しかしながら、このような誘導ラインは、路面に敷設されていることから、汚れの付着や剥がれが発生しやすい。そのため、無人搬送車は、このような誘導ラインの汚れの付着および剥がれによって、誘導ラインを認識できず、走行を停止するという問題があった。 The guide line is made of a tape affixed to the road surface, a paint applied to the road surface, or the like, and is colored differently from the road surface. However, since such a guide line is laid on a road surface, it is easy for dirt to adhere or peel off. Therefore, there is a problem that the automatic guided vehicle cannot recognize the guide line due to the adhesion and peeling of the guide line, and stops traveling.
そこで、例えば、汚れの付着や剥がれの影響を受けにくい電磁誘導による無人搬送車の誘導方式がある(特許文献2参照)。この誘導方式によると、無人搬送車は、走行ルートに沿って床に敷設されたトウパスワイヤの誘起磁界を車体に設けられたピックアップコイルによって検出し、検出された誘起磁界に基づいてステアリングモータを制御することにより、走行ルートに沿って移動する。 Therefore, for example, there is an automatic guided vehicle guidance system using electromagnetic induction that is not easily affected by the attachment or peeling of dirt (see Patent Document 2). According to this guidance system, the automatic guided vehicle detects the induced magnetic field of the tow path wire laid on the floor along the traveling route by a pickup coil provided on the vehicle body, and controls the steering motor based on the detected induced magnetic field. Thereby, it moves along the traveling route.
しかしながら、トウパスワイヤを床に敷設することは、面倒である。また、この誘導方式では、工場や倉庫内のレイアウト変更のたびに、トウパスワイヤを改めて床に敷設しなければならないという問題があった。 However, laying the tow path wire on the floor is cumbersome. In addition, this guidance method has a problem that the tow path wire must be laid on the floor anew whenever the layout in a factory or warehouse is changed.
そこで、本発明が解決しようとする課題は、誘導ラインを設置する必要がない、無人搬送車の誘導方式を提供することにある。 Therefore, an object of the present invention is to provide an automatic guided vehicle guidance system that does not require installation of a guidance line.
上記課題を解決するために、本発明に係る無人飛行体は、
ホバリング可能な無人飛行体であって、
自機の位置を検出する自機位置検出部と、
前記自機の飛行を制御するフライトコントロール部と、
誘導経路に沿って走行する無人搬送車のための前記誘導経路の画像を路面に投影する投影部と、
前記自機の下方を撮像する第1撮像部と、
前記無人搬送車の予め定められた走行経路を記憶している走行経路記憶部と、
前記第1撮像部が撮像した画像に基づいて前記無人搬送車の位置を検出するとともに、検出された前記無人搬送車の位置および検出された前記自機の位置に対応する前記走行経路の一部を前記誘導経路として抽出する誘導経路抽出部と、を備え、
前記無人搬送車に追従しながら前記抽出された誘導経路の画像を投影することを特徴とする。
In order to solve the above problems, an unmanned aerial vehicle according to the present invention
An unmanned aerial vehicle capable of hovering,
An own position detection unit for detecting the position of the own device,
A flight control unit for controlling the flight of the aircraft,
A projecting unit that projects an image of the guide route for an unmanned guided vehicle traveling along the guide route on a road surface,
A first imaging unit that captures an image of a lower side of the own device,
A traveling route storage unit that stores a predetermined traveling route of the automatic guided vehicle,
Detecting a position of the automatic guided vehicle based on an image captured by the first imaging unit, and a part of the travel route corresponding to the detected position of the automatic guided vehicle and the detected position of the own device; A guidance route extraction unit that extracts the as the guidance route,
An image of the extracted guidance route is projected while following the automatic guided vehicle.
上記無人飛行体は、
好ましくは、
補正係数算出部と、
補正処理部と、をさらに備え、
第1撮像部が、路面に投影された誘導経路の画像を撮像し、
補正係数算出部が、撮像された誘導経路の画像の各画素の各色成分の各輝度と、誘導経路抽出部が決定した誘導経路の画像の各画素の各色成分の各輝度とに基づいて誘導経路の画像の各画素の各色成分の補正係数を算出し、
補正処理部が、補正係数を用いて決定された誘導経路の画像の各画素の各色成分の各輝度を補正し、
投影部が、補正された誘導経路の画像を投影する。
The unmanned aerial vehicle is
Preferably,
A correction coefficient calculator,
A correction processing unit,
A first imaging unit that captures an image of the guidance route projected on the road surface,
The correction coefficient calculation unit calculates the guidance route based on each luminance of each color component of each pixel of the captured guidance route image and each luminance of each color component of each pixel of the guidance route image determined by the guidance route extraction unit. Calculate the correction coefficient of each color component of each pixel of the image of
The correction processing unit corrects each luminance of each color component of each pixel of the image of the guidance route determined using the correction coefficient,
The projection unit projects the corrected image of the guidance route.
上記無人飛行体は、
好ましくは、
自機の上方を撮像する第2撮像部と、
予め撮像された自機の上方の画像を位置情報と関連付けて記憶している上方画像記憶部と、をさらに備え、
自機位置検出部が、
第2撮像部によって撮像された現在の自機の上方の画像と、上方画像記憶部に記憶されている自機の上方の画像とを照合する照合部と、
照合部が照合した結果に基づいて自機の位置を特定する自機位置特定部と、を有する。
The unmanned aerial vehicle is
Preferably,
A second imaging unit for imaging an upper part of the own device,
An upper image storage unit that stores an upper image of the own device captured in advance in association with position information,
The own position detection unit
A collation unit that collates the current upper image of the own device captured by the second imaging unit with the upper image of the own device stored in the upper image storage unit;
A position identification unit for identifying the position of the own device based on the result of the collation by the collation unit.
上記無人飛行体は、
好ましくは、
天井に天井マーカが設けられた屋内において、誘導経路の画像を投影する上記無人飛行体であって、
上方画像記憶部が、予め撮像された天井マーカを含む天井の画像を位置情報と関連付けて記憶しており、
照合部が、第2撮像部によって撮像された天井の画像と、上方画像記憶部に記憶されている天井の画像とを照合する。
The unmanned aerial vehicle is
Preferably,
An unmanned aerial vehicle that projects an image of a guidance route in an indoor space provided with a ceiling marker on a ceiling,
The upper image storage unit stores a ceiling image including a ceiling marker captured in advance in association with position information,
The matching unit compares the ceiling image captured by the second imaging unit with the ceiling image stored in the upper image storage unit.
上記無人飛行体は、
好ましくは、
天井マーカに赤外線を照射する赤外線照射部をさらに備え、
天井マーカが、再帰性反射材であり、
第2撮像部が、赤外線カメラであり、赤外線で照射された前記天井マーカを含む天井の画像を撮像する。
The unmanned aerial vehicle is
Preferably,
The ceiling marker further includes an infrared irradiator that irradiates infrared rays to the ceiling marker,
The ceiling marker is a retroreflective material,
The second imaging unit is an infrared camera, and captures an image of the ceiling including the ceiling marker irradiated with infrared light.
上記課題を解決するために、本発明に係る、無人搬送システムは、
上記無人飛行体と、
第3撮像部と、誘導経路検出部と、ステアリング制御部と、を備える無人搬送車と、を含み、
第3撮像部は、投影部によって路面に投影された誘導経路を含む路面の範囲を撮像し、
誘導経路検出部は、第3撮像部によって撮像された路面の画像に基づいて誘導経路を検出し、
ステアリング制御部は、検出された誘導経路に基づいて、ステアリング制御する
ことを特徴とする。
In order to solve the above-described problems, according to the present invention, an unmanned transport system includes:
Said unmanned aerial vehicle,
An automatic guided vehicle including a third imaging unit, a guidance route detection unit, and a steering control unit,
The third imaging unit captures an image of a road surface range including the guidance route projected on the road surface by the projection unit,
The guidance route detection unit detects a guidance route based on the road surface image captured by the third imaging unit,
The steering control unit performs steering control based on the detected guidance route.
本発明によれば、誘導ラインを設置する必要がない、無人搬送車の誘導方式を提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the guidance system of an automatic guided vehicle which does not need to install a guidance line can be provided.
以下、添付図面を参照しつつ、本発明に係る無人飛行体および無人飛行体を用いた無人搬送システムの一実施形態について説明する。前後、左右および上下の方向X、Y、Zは、添付図面に記載のとおり、無人搬送車の走行方向を基準にしている。 Hereinafter, an embodiment of an unmanned aerial vehicle and an unmanned transport system using the unmanned aerial vehicle according to the present invention will be described with reference to the accompanying drawings. The directions X, Y, and Z in the front-rear direction, the left-right direction, and the up-down direction are based on the traveling direction of the automatic guided vehicle, as shown in the accompanying drawings.
<無人搬送システムSの概要>
図1は、本発明に係る無人飛行体1を用いた無人搬送システムSの概要図である。この無人搬送システムSでは、無人飛行体1は、天井Cを撮像し、撮像した画像を解析することにより自機位置を検出するとともに、無人搬送車100を誘導するための誘導経路の画像(以下「誘導画像G」という)を路面Rに投影する。無人搬送車100は、無人フォークリフトであって、無人飛行体1が投影した誘導画像G中の誘導ラインLに沿って誘導されることにより、予め定められた走行経路を走行する。
<Overview of unmanned transport system S>
FIG. 1 is a schematic diagram of an unmanned transport system S using an unmanned
<天井の構成>
図2に示すように、天井C全体には、無人飛行体1が自機位置を検出するために用いるための、長方形状の天井マーカ200が複数設けられている。天井マーカ200は、再帰性反射材であって、同縦列または同横列において等間隔に整列して配置されている。言い換えると、天井マーカ200は、列ごとに異なる間隔で天井Cに配置されている。例えば、図2の最下段の横列の間隔P3は、すべて同じである。一方、1段目、2段目および3段目の横列の間隔P1、P2、P3の長さは、それぞれ異なっている。また、1段目、2段目および3段目間の間隔P4、P5の長さも、それぞれ異なっている。
<Ceiling configuration>
As shown in FIG. 2, a plurality of rectangular ceiling markers 200 for use by the unmanned
<無人飛行体1>
まず、無人飛行体1の各部の構成について簡単に説明する。図3に示すように、無人飛行体1は、本体20と、本体20の上面から地面と平行に4方に延びる4本のアーム12と、4本のアーム12のそれぞれの先端側に設けられたモータ13と、モータ13に設けられた回転翼14と、4本のアーム12の基部の上側に立設された略八角柱状の上部ユニット15と、本体20の下側に設けられたジンバル16と、ジンバル16に支持されている下部ユニット17と、本体20の周囲かつアーム12の下側に設けられた4本のスキッド18と、を備えている。
<Unmanned
First, the configuration of each part of the unmanned
図4に示すように、上部ユニット15は、上部ユニット本体151と、赤外線カメラ152と、4つの赤外線照射部153と、を有する。赤外線カメラ152は、本発明の「第2撮像部」に相当し、上部ユニット本体151の上面の中央に上方を向いて配置されている。4つの赤外線照射部153は、それぞれ赤外線カメラ152の周囲の上下および左右に上方を向いて配置されている。赤外線照射部153は、例えば、赤外LEDでもよい。4つの赤外線照射部153は、天井Cに向けて赤外線を照射し、赤外線カメラ152は、赤外線で照射された天井マーカ200を含む天井Cの画像を撮像して天井画像を生成する。
As shown in FIG. 4, the
通常、屋内の天井Cには電灯が設けられているが、天井Cに設けられた天井マーカ200には電灯の光が届きにくい。また、天井Cに設けられた天井マーカ200を撮像する場合、電灯による逆光が撮像の妨げになる。そこで、赤外線照射部153が天井Cに赤外線を照射することにより、赤外線カメラ152は、天井マーカ200を含む天井Cを適切に撮像することができる。また、天井マーカ200が再帰性反射材であることにより、天井マーカ200に照射された赤外線の入射角が大きくても、赤外線カメラ152は、適切に天井マーカ200を撮像することができる。
Usually, an electric light is provided on the indoor ceiling C, but it is difficult for the light of the electric light to reach the ceiling marker 200 provided on the ceiling C. Further, when imaging the ceiling marker 200 provided on the ceiling C, backlight caused by the electric light hinders imaging. Thus, the
図5に示すように、ジンバル16は、本体20に回転可能に連結された第1の回転軸161と、第1の回転軸161に連結された円板状の回転台162と、回転台162から下方に延びる左右一対の支持柱163と、支持柱163の内側中央に回転可能に連結された左右一対の第2の回転軸164と、を有する。
As shown in FIG. 5, the
下部ユニット17は、プロジェクタ171および下カメラ172を有するとともに、第2の回転軸164に支持されている。プロジェクタ171は、本発明の「投影部」に相当する。また、下カメラ172は、本発明の「第1撮像部」に相当する。プロジェクタ171および下カメラ172は、ジンバル16によって任意の方向に向くことができる。プロジェクタ171は、制御部21(図6参照)によって決定された誘導画像Gを路面Rに投影する。下カメラ172は、路面Rに投影された誘導画像Gを撮像し、路面画像を生成する。
The
図6に示すように、本体20は、制御部21と、自機位置検出部23と、記憶部24と、を有する。
As shown in FIG. 6, the
制御部21は、フライトコントロール部211と、誘導経路抽出部212と、補正処理部213と、補正係数算出部214と、を有し、無人飛行体1の飛行およびプロジェクタ171による誘導画像Gの投影を制御する。
The
記憶部24は、飛行経路記憶部241と、上方画像記憶部242と、走行経路記憶部243と、を有している。
The
自機位置検出部23は、GPSセンサ、ジャイロセンサ、超音波センサ、レーザセンサ、気圧センサ、コンパス、加速度センサといった各種センサ(図示しない)を有しており、無人飛行体1の位置を検出するのに利用することができる。しかしながら、GPSセンサは、屋内においてはGPS信号を適切に検出することができない。そこで、自機位置検出部23は、後で詳述するように、屋内においては、赤外線カメラ152によって撮像された天井画像と、上方画像記憶部242に記憶されている天井画像とを照合することにより、無人飛行体1の位置を検出する。
The own
次に、フライトコントロール部211による無人飛行体1の飛行制御について説明する。フライトコントロール部211は、各モータ13の回転数を制御することにより、無人飛行体1のホバリングを可能にするとともに、無人飛行体1の飛行速度、飛行方向、飛行高度を制御する。また、フライトコントロール部211は、無人飛行体1の自律飛行時には、自機位置検出部23によって検出された無人飛行体1の位置を参照しながら、飛行経路記憶部241に記憶された飛行経路に沿って無人飛行体1を飛行させる。
Next, flight control of the unmanned
次に、自機位置検出部23による自機位置検出方法について説明する。自機位置検出部23は、照合部231と、自機位置特定部232とをさらに有する。上方画像記憶部242には、天井C全体の天井全体画像が位置情報と関連付けて記憶されている。赤外線カメラ152は、無人飛行体1の自律飛行時には、随時、無人飛行体1の上方を撮像して上方画像を生成し、照合部231に出力する。照合部231は、入力された上方画像と、上方画像記憶部242に記憶されている天井全体画像とを照合し、天井全体画像の中のどの位置に上方画像が存在するのかを探索するテンプレートマッチングを行う。テンプレートマッチングには、例えば、SSD(「Sum of Squared Difference」)またはSAD(「Sum of Absolute Difference」)を類似度の計算手法として用いてもよい。自機位置特定部232は、照合部231のテンプレートマッチングの結果に基づいて無人飛行体1の位置を特定する。なお、自機位置検出部23は、無人飛行体1の高度に関しては、超音波センサ、レーザセンサ等により検出する。
Next, a method of detecting the position of the own device by the own
次に、誘導画像Gを投影する方法について説明する。誘導経路抽出部212は、自機位置検出部23によって検出された無人飛行体1の位置に基づいて、路面Rに投影する誘導画像Gを決定する。具体的には、走行経路記憶部243は、無人搬送車100の予め定められた走行経路を記憶しており、誘導経路抽出部212は、検出された無人飛行体1の位置に対応する走行経路の一部を誘導経路として抽出する。抽出された誘導経路の画像、すなわち誘導画像Gは、補正処理部213で処理された後、プロジェクタ171に出力される。なお、誘導経路の面積は、特に限定されない。
Next, a method of projecting the guidance image G will be described. The guidance
プロジェクタ171は、入力された誘導画像Gを路面Rに投影する。無人飛行体1がフライトコントロール部211によって安定してホバリングすることができ、プロジェクタ171がジンバル16によって安定して一定の方向を向くことができるので、誘導画像Gを路面Rの適切な位置に安定して投影することができる。
The
図7(a)に示すように、誘導画像Gは、一定の幅を有する誘導ラインLが中央に配置されており、誘導ラインLの向きが無人搬送車100を誘導する方向を指している。また、誘導ラインLの領域の色は、その両端の領域に比して明度・彩度が明らかに異なる。この誘導画像Gは、単なる一例であってこれに限定されない。例えば、路面Rと明らかに異なる1色の誘導ラインLを誘導画像Gとしてもよい。
As shown in FIG. 7A, in the guidance image G, a guidance line L having a certain width is arranged at the center, and the direction of the guidance line L indicates the direction in which the automatic guided
図7(b)を参照して、路面Rは、使用状態により汚れや剥がれが発生している場合があり、この場合、領域Aのように誘導画像Gの一部が適切に表示されない。そこで、制御部21は、路面Rに投影された誘導画像Gを解析し、このような路面Rに対応するように誘導画像Gを補正する。以下、具体的に説明する。
Referring to FIG. 7B, the road surface R may be stained or peeled off depending on the use condition. In this case, a part of the guidance image G is not appropriately displayed as in the region A. Therefore, the
図6を参照して、誘導経路抽出部212によって抽出された誘導画像G1は、補正処理部213を介して補正係数算出部214およびプロジェクタ171に出力される。プロジェクタ171は、入力された誘導画像G1を路面Rに投影する。下カメラ172は、投影された誘導画像G1を撮像し、路面画像を生成して補正係数算出部214に出力する。
Referring to FIG. 6, guidance image G <b> 1 extracted by guidance
補正係数算出部214は、誘導画像G1の各画素の各輝度を色成分ごとに正規化して入力データD1を生成するとともに、下カメラ172から出力された路面画像の各画素の各輝度を各色成分ごとに正規化して出力データD2を生成する。次いで、補正係数算出部214は、入力データD1と出力データD2とを照合し、出力データD2の各画素間の輝度比を入力データD1に適合させるための各画素の各色成分の補正係数を算出し、算出した補正係数を補正処理部213に出力する。
The correction
補正処理部213は、算出された各画素の各色成分の補正係数を使用して、投影する誘導画像G1の各画素の各色成分の輝度を補正し誘導画像G2を生成する。次いで、補正処理部213は、生成した誘導画像G2をプロジェクタ171に出力するとともに、補正係数算出部214に出力する。プロジェクタ171は、入力された誘導画像G2を路面Rに投影する。下カメラ172は、投影された誘導画像G2を撮像し、路面画像を生成して補正係数算出部214に出力する。補正係数算出部214は、先程と同様に誘導画像G2に対応する補正係数を算出する。
The
図7(c)に示すように、この工程が繰り返されることにより、最終的に投影された誘導画像Gは、1色のスクリーンに投影された画像のように表示される。 As shown in FIG. 7C, by repeating this process, the finally projected guidance image G is displayed like an image projected on a one-color screen.
<無人搬送車100>
再び図1を参照して、無人搬送車100の構成について説明する。無人搬送車100は、車体101と、車載カメラ102と、左右一対の前輪103と、左右一対の後輪104と、前輪103および後輪104のいずれか一方または両方をステアリング制御するステアリング制御部105と、誘導経路検出部106と、フォーク107と、マスト108と、を備える。車載カメラ102は、本発明の「第3撮像部」に相当する。
<Automated guided
Referring to FIG. 1 again, the configuration of the automatic guided
車体101の前面の一部は、透過部材で構成されている。車載カメラ102は、車体101内の前側の上側かつ中央の位置に、透過部材を通して路面Rを向くように設けられている。車載カメラ102の位置は、単なる一例であってこれに限定されない。
A part of the front surface of the
図8に示すように、車載カメラ102は、誘導画像Gを含む路面Rの所定の撮像範囲Qを撮像して路面画像を生成し、誘導経路検出部106に出力する。
As shown in FIG. 8, the on-
誘導経路検出部106は、入力された路面画像を彩度・明度に基づいて解析し、誘導ラインLを検出する。
The guidance
ステアリング制御部105は、誘導経路検出部106によって検出された誘導ラインLに基づいて、前輪103および後輪104のいずれか一方または両方をステアリング制御する。具体的には、ステアリング制御部105は、誘導ラインLの位置が撮像範囲Qの中央にくるように車輪103、104の操舵角をフィードバック制御する。これにより、無人搬送車100は、無人飛行体1が投影した誘導経路に沿って誘導され、予め定められた走行経路を走行することができる。
The
無人搬送システムSによれば、無人飛行体1が誘導画像Gを投影するので、無人搬送車100を誘導するのに別途誘導ラインを設置する必要がない。また、プロジェクタ171が投影する誘導画像Gは、補正処理部213によって随時補正されるので、投影面である路面Rが部分的に汚れていようと適切に誘導経路を表示することができる。
According to the unmanned transport system S, since the unmanned
以上、本発明に係る無人搬送車100を誘導するシステムの実施形態について説明したが、本発明は上記実施形態に限定されるものではない。
The embodiment of the system for guiding the automatic guided
(1)無人搬送車100は、例えば、有人無人兼用の搬送車またはフォークリフトであってもよい。
(1) The unmanned guided
(2)無人飛行体1が自機位置を検出する方法は、特に限定されない。例えば、SLAM(Simultaneous Localization And Mapping)技術によって、無人飛行体1の位置を検出してもよい。
(2) The method by which the unmanned
(3)自機位置検出部23が第2撮像部の撮像した天井画像から天井マーカ200を認識できるのであれば、赤外線照射部153は、無人飛行体1に設けられていなくてもよい。また、自機位置検出部23が第2撮像部の撮像した天井画像から天井マーカ200を認識することができるのであれば、第2撮像部は、赤外線カメラ152に限定されない。
(3) The
(4)天井マーカ200には、例えば、2次元バーコードが付されており、この2次元バーコードに位置情報が含まれていてもよい。これにより、自機位置検出部23は、天井画像から天井マーカ200を認識することにより無人飛行体1の位置を直接認識することができる。
(4) The two-dimensional barcode is attached to the ceiling marker 200, for example, and the two-dimensional barcode may include position information. Accordingly, the own-machine
(5)無人飛行体1は、アーム12の上面にジンバルが設けられ、このジンバルに上部ユニット15が接続される構成であってもよい。これにより、赤外線カメラ152は、無人飛行体1の姿勢に関わらず、常に一定の角度で天井Cを撮像することができる。
(5) The unmanned
(6)プロジェクタ171は、複数のプロジェクタから構成されていてもよい。この場合、複数のプロジェクタによって複数の誘導画像Gを同時に投影することにより、複数の無人搬送車100を同時に誘導してもよい。また、複数のプロジェクタによって同時に複数の誘導画像Gを投影することにより広範囲の誘導経路を路面Rに表示させてもよい。
(6) The
(7)誘導経路抽出部212は、無人飛行体1の位置に加えて、無人搬送車100の位置に基づいて、誘導画像Gを決定してもよい。この場合、誘導経路抽出部212は、予め下カメラ172の撮像する画像に基づいて、無人搬送車100の位置を検出する。
(7) The guidance
(8)無人飛行体1は、無人搬送車100に追従しながら誘導画像Gを投影してもよいし、または所定の位置から誘導画像Gを投影してもよい。
(8) The unmanned
(9)補正処理部213による誘導画像Gの補正方法は、例えば、路面Rに対するプロジェクタ171の配光特性を取得し、この配光特性を用いて、投影する誘導画像Gを補正してもよい。具体的には、制御部21は、配光特性を取得する配光特性取得部をさらに有する。プロジェクタ171は、誘導画像Gを投影する前に1色からなる基準画像を路面R1に投影し、下カメラ172は、この基準画像を撮像して路面画像を生成し、配光特性取得部に出力する。配光特性取得部は、路面画像の各画素の各色成分の輝度を解析して正規化し、路面R1に対するプロジェクタ171の色成分ごとの配光特性を示す配向分布を作成する。補正処理部213は、配光分布を用いて、誘導画像Gを補正する。これにより、路面Rの態様に適応された誘導画像Gが生成される。
(9) As a method of correcting the guidance image G by the
また、補正処理部213は、配向分布と上述の手法による補正係数とを併用して誘導画像Gを補正してもよい。具体的には、配光特性取得部が配向分布を作成した後、プロジェクタ171は未補正の誘導画像G1を路面Rに投影する。下カメラ172は、この誘導画像Gを撮像して路面画像を生成し、補正係数算出部214に出力する。補正処理部213は、上述の補正係数と配向分布に基づいて誘導画像G1を補正し、誘導画像G2を生成する。
Further, the
(10)図9に示すように、無人飛行体1と互いに通信可能なサーバ400を備えた無人搬送システムS1でもよい。この場合、無人搬送システムS1は、無人飛行体1と、サーバ400と、無人搬送車100を含む。無人飛行体1は、自機位置検出部23と、プロジェクタ171とを備える。サーバ400は、走行経路記憶部401と、誘導経路抽出部402と、を備える。無人搬送車100は、車載カメラ102と、左右一対の前輪103と、左右一対の後輪104と、ステアリング制御部105と、誘導経路検出部106と、を備える。
(10) As shown in FIG. 9, an unmanned transport system S1 including a
無人搬送システムS1では、走行経路記憶部401が無人搬送車100の予め定められた走行経路を記憶しており、誘導経路抽出部402が通信により受信した前記無人飛行体1の位置に対応する走行経路の一部を誘導経路として抽出する。プロジェクタ171は、サーバ400から受信した誘導経路の画像Gを路面Rに投影する。無人搬送車100は、無人搬送システムSと同様の手法で、無人飛行体1が投影した誘導経路に沿って誘導され、予め定められた走行経路を走行することができる。この無人搬送システムS1によれば、無人飛行体1は、走行経路記憶部243および誘導経路抽出部212を備える必要がない。
In the automatic guided vehicle system S1, the traveling
1 無人飛行体
12 アーム
13 モータ
14 回転翼
15 上部ユニット
151 上部ユニット本体
152 赤外線カメラ(第2撮像部)
153 赤外線照射部
16 ジンバル
161 第1の回転軸
162 回転台
163 支持柱
164 第2の回転軸
17 下部ユニット
171 プロジェクタ(投影部)
172 下カメラ(第1撮像部)
18 スキッド
20 本体
21 制御部
211 フライトコントロール部
212 誘導経路抽出部
213 補正処理部
214 補正係数算出部
23 自機位置検出部
231 照合部
232 自機位置特定部
24 記憶部
100 無人搬送車
101 車体
102 車載カメラ(第3撮像部)
103 前輪
104 後輪
105 ステアリング制御部
106 誘導経路検出部
200 天井マーカ
400 サーバ
401 走行経路記憶部
402 誘導経路抽出部
S、S1 無人搬送システム
C 天井
R 路面
G 誘導画像
Q 撮像範囲
L 誘導ライン
DESCRIPTION OF
153
172 Lower camera (first imaging unit)
18
103
Claims (6)
自機の位置を検出する自機位置検出部と、
前記自機の飛行を制御するフライトコントロール部と、
誘導経路に沿って走行する無人搬送車のための前記誘導経路の画像を路面に投影する投影部と、
前記自機の下方を撮像する第1撮像部と、
前記無人搬送車の予め定められた走行経路を記憶している走行経路記憶部と、
前記第1撮像部が撮像した画像に基づいて前記無人搬送車の位置を検出するとともに、検出された前記無人搬送車の位置および検出された前記自機の位置に対応する前記走行経路の一部を前記誘導経路として抽出する誘導経路抽出部と、を備え、
前記無人搬送車に追従しながら前記抽出された誘導経路の画像を投影する
ことを特徴とする無人飛行体。 An unmanned aerial vehicle capable of hovering,
An own position detection unit for detecting the position of the own device,
A flight control unit for controlling the flight of the aircraft,
A projecting unit that projects an image of the guide route for an unmanned guided vehicle traveling along the guide route on a road surface,
A first imaging unit that captures an image of a lower side of the own device,
A traveling route storage unit that stores a predetermined traveling route of the automatic guided vehicle,
Detecting a position of the automatic guided vehicle based on an image captured by the first imaging unit, and a part of the travel route corresponding to the detected position of the automatic guided vehicle and the detected position of the own device; A guidance route extraction unit that extracts the as the guidance route,
An unmanned aerial vehicle that projects an image of the extracted guidance route while following the unmanned carrier.
補正処理部と、をさらに備え、
前記第1撮像部は、前記路面に投影された前記誘導経路の画像を撮像し、
前記補正係数算出部は、撮像された前記誘導経路の画像の各画素の各色成分の各輝度と、前記誘導経路抽出部が決定した前記誘導経路の画像の各画素の各色成分の各輝度とに基づいて前記誘導経路の画像の各画素の各色成分の補正係数を算出し、
前記補正処理部は、前記補正係数を用いて決定された前記誘導経路の画像の各画素の各色成分の各輝度を補正し、
前記投影部は、補正された前記誘導経路の画像を投影する
ことを特徴とする請求項1に記載の無人飛行体。 A correction coefficient calculator,
A correction processing unit,
The first imaging unit captures an image of the guidance route projected on the road surface,
The correction coefficient calculation unit is configured to calculate each luminance of each color component of each pixel of the captured guidance route image and each luminance of each color component of each pixel of the guidance route image determined by the guidance route extraction unit. Calculating a correction coefficient for each color component of each pixel of the image of the guidance route based on the
The correction processing unit corrects each luminance of each color component of each pixel of the image of the guidance route determined using the correction coefficient,
The unmanned aerial vehicle according to claim 1, wherein the projection unit projects the corrected image of the guidance route.
予め撮像された前記自機の上方の画像を位置情報と関連付けて記憶している上方画像記憶部と、をさらに備え、
前記自機位置検出部は、
前記第2撮像部によって撮像された現在の前記自機の上方の画像と、前記上方画像記憶部に記憶されている前記自機の前記上方の画像とを照合する照合部と、
前記照合部が照合した結果に基づいて前記自機の位置を特定する自機位置特定部と、を有する
ことを特徴とする請求項1または2に記載の無人飛行体。 A second imaging unit for imaging an upper part of the own device,
An upper image storage unit that stores an image of the own device captured in advance in association with position information, and an upper image storage unit,
The own device position detection unit,
A current image captured by the second imaging unit and a collation unit configured to collate the upper image of the own device stored in the upper image storage unit,
The unmanned aerial vehicle according to claim 1, further comprising: an own-device position specifying unit configured to specify a position of the own device based on a result of the comparison performed by the comparing unit.
前記上方画像記憶部は、予め撮像された前記天井マーカを含む前記天井の画像を位置情報と関連付けて記憶しており、
前記照合部は、前記第2撮像部によって撮像された前記天井の画像と、前記上方画像記憶部に記憶されている前記天井の画像とを照合する
ことを特徴とする無人飛行体。 The unmanned aerial vehicle according to claim 3, wherein an image of the guidance route is projected in an indoor space provided with a ceiling marker on a ceiling,
The upper image storage unit stores an image of the ceiling including the ceiling marker captured in advance in association with position information,
The unmanned aerial vehicle, wherein the matching unit matches an image of the ceiling captured by the second imaging unit with an image of the ceiling stored in the upper image storage unit.
前記天井マーカは、再帰性反射材であり、
前記第2撮像部は、赤外線カメラであり、前記赤外線で照射された前記天井マーカを含む前記天井の画像を撮像する
ことを特徴とする請求項4に記載の無人飛行体。 Further comprising an infrared irradiator that irradiates the ceiling marker with infrared light,
The ceiling marker is a retroreflective material,
The unmanned aerial vehicle according to claim 4, wherein the second imaging unit is an infrared camera, and captures an image of the ceiling including the ceiling marker irradiated with the infrared light.
第3撮像部と、誘導経路検出部と、ステアリング制御部と、を備える前記無人搬送車と、を含み、
前記第3撮像部は、前記投影部によって前記路面に投影された前記誘導経路を含む前記路面の範囲を撮像し、
前記誘導経路検出部は、前記第3撮像部によって撮像された前記路面の画像に基づいて前記誘導経路を検出し、
前記ステアリング制御部は、検出された前記誘導経路に基づいて、ステアリング制御する
ことを特徴とする無人搬送システム。 An unmanned aerial vehicle according to any one of claims 1 to 5,
Including the automatic guided vehicle including a third imaging unit, a guidance route detection unit, and a steering control unit,
The third imaging unit captures an image of a range of the road surface including the guidance route projected on the road surface by the projection unit,
The guidance route detection unit detects the guidance route based on an image of the road surface captured by the third imaging unit,
The unmanned transport system, wherein the steering control unit performs steering control based on the detected guidance route.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019142699A JP6877071B2 (en) | 2019-08-02 | 2019-08-02 | Automated guided vehicle and automated guided vehicle |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2019142699A JP6877071B2 (en) | 2019-08-02 | 2019-08-02 | Automated guided vehicle and automated guided vehicle |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018136358A Division JP6618087B1 (en) | 2018-07-20 | 2018-07-20 | Unmanned air vehicle and unmanned transport system |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021030698A Division JP7078343B2 (en) | 2021-02-26 | 2021-02-26 | Automated guided vehicles and automated guided vehicles |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020013582A true JP2020013582A (en) | 2020-01-23 |
JP6877071B2 JP6877071B2 (en) | 2021-05-26 |
Family
ID=69169690
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019142699A Active JP6877071B2 (en) | 2019-08-02 | 2019-08-02 | Automated guided vehicle and automated guided vehicle |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6877071B2 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022145105A1 (en) * | 2021-01-04 | 2022-07-07 | 株式会社日立製作所 | Personal navigation system and personal navigation method |
CN114936174A (en) * | 2022-06-09 | 2022-08-23 | 中国兵器工业计算机应用技术研究所 | Image processing and fusion computing method based on ground unmanned platform |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0390309U (en) * | 1989-12-28 | 1991-09-13 | ||
WO2005015466A1 (en) * | 2003-08-07 | 2005-02-17 | Matsushita Electric Industrial Co., Ltd. | Life assisting system and its control program |
JP2005052961A (en) * | 2003-08-01 | 2005-03-03 | Samsung Electronics Co Ltd | Robot system and its controlling method |
JP2017076084A (en) * | 2015-10-16 | 2017-04-20 | 株式会社プロドローン | Information transmission device |
JP2018084955A (en) * | 2016-11-24 | 2018-05-31 | 株式会社小糸製作所 | Unmanned aircraft |
US20180173222A1 (en) * | 2016-12-21 | 2018-06-21 | Primax Electronics Ltd. | Automatic driving assistant system and method thereof |
-
2019
- 2019-08-02 JP JP2019142699A patent/JP6877071B2/en active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0390309U (en) * | 1989-12-28 | 1991-09-13 | ||
JP2005052961A (en) * | 2003-08-01 | 2005-03-03 | Samsung Electronics Co Ltd | Robot system and its controlling method |
WO2005015466A1 (en) * | 2003-08-07 | 2005-02-17 | Matsushita Electric Industrial Co., Ltd. | Life assisting system and its control program |
JP2017076084A (en) * | 2015-10-16 | 2017-04-20 | 株式会社プロドローン | Information transmission device |
JP2018084955A (en) * | 2016-11-24 | 2018-05-31 | 株式会社小糸製作所 | Unmanned aircraft |
US20180173222A1 (en) * | 2016-12-21 | 2018-06-21 | Primax Electronics Ltd. | Automatic driving assistant system and method thereof |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2022145105A1 (en) * | 2021-01-04 | 2022-07-07 | 株式会社日立製作所 | Personal navigation system and personal navigation method |
CN114936174A (en) * | 2022-06-09 | 2022-08-23 | 中国兵器工业计算机应用技术研究所 | Image processing and fusion computing method based on ground unmanned platform |
CN114936174B (en) * | 2022-06-09 | 2024-01-30 | 中国兵器工业计算机应用技术研究所 | Image processing and fusion computing method based on ground unmanned platform |
Also Published As
Publication number | Publication date |
---|---|
JP6877071B2 (en) | 2021-05-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6707600B2 (en) | Transport system | |
Kwon et al. | Robust autonomous navigation of unmanned aerial vehicles (UAVs) for warehouses’ inventory application | |
KR101776823B1 (en) | A mobile robot localization method and system via indoor surveillance cameras | |
JP5126069B2 (en) | Parking assistance device, parking assistance device component, parking assistance method, parking assistance program, vehicle travel parameter calculation method and calculation program, vehicle travel parameter calculation device, and vehicle travel parameter calculation device component | |
WO2018035482A1 (en) | Robotic drone | |
CN107807652A (en) | Merchandising machine people, the method for it and controller and computer-readable medium | |
US20190197908A1 (en) | Methods and systems for improving the precision of autonomous landings by drone aircraft on landing targets | |
US20170108874A1 (en) | Vision-based system for navigating a robot through an indoor space | |
JP6877071B2 (en) | Automated guided vehicle and automated guided vehicle | |
KR101305401B1 (en) | Night-Driving Guidance System and Method for Auto-Driving Vehicle using Infrared Line Laser | |
JP6618087B1 (en) | Unmanned air vehicle and unmanned transport system | |
JP2009251922A (en) | Automated guided vehicle and automated guided vehicle operation system | |
US20210101747A1 (en) | Positioning apparatus capable of measuring position of moving body using image capturing apparatus | |
JP6684531B2 (en) | Unmanned transport system | |
JP7078343B2 (en) | Automated guided vehicles and automated guided vehicles | |
US11816863B2 (en) | Method and device for assisting the driving of an aircraft moving on the ground | |
JP6532096B1 (en) | Unmanned carrier system using unmanned air vehicle | |
JP6684532B2 (en) | Unmanned carrier system using unmanned air vehicle | |
US11087492B2 (en) | Methods for identifying location of automated guided vehicles on a mapped substrate | |
Sarwade et al. | Line following robot using image processing | |
JP6669418B2 (en) | Unmanned transport system using unmanned aerial vehicle | |
JP2019021156A (en) | Automatic carrier device | |
JP6593940B1 (en) | Unmanned transport system using unmanned air vehicle | |
Eda et al. | Development of autonomous mobile robot “MML-05” based on i-Cart mini for Tsukuba challenge 2015 | |
US20210397197A1 (en) | Method for navigating a movable device along an inclined surface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190802 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200520 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200528 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200916 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201027 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20210210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210226 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20210226 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20210308 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20210310 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210331 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210422 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6877071 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |