JP2020013582A - Unmanned aerial vehicles and unmanned transport systems - Google Patents

Unmanned aerial vehicles and unmanned transport systems Download PDF

Info

Publication number
JP2020013582A
JP2020013582A JP2019142699A JP2019142699A JP2020013582A JP 2020013582 A JP2020013582 A JP 2020013582A JP 2019142699 A JP2019142699 A JP 2019142699A JP 2019142699 A JP2019142699 A JP 2019142699A JP 2020013582 A JP2020013582 A JP 2020013582A
Authority
JP
Japan
Prior art keywords
image
unit
guidance route
unmanned aerial
ceiling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019142699A
Other languages
Japanese (ja)
Other versions
JP6877071B2 (en
Inventor
絢介 甲斐
Kensuke Kai
絢介 甲斐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2019142699A priority Critical patent/JP6877071B2/en
Publication of JP2020013582A publication Critical patent/JP2020013582A/en
Application granted granted Critical
Publication of JP6877071B2 publication Critical patent/JP6877071B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a guide system of unmanned carrier requiring no installation of guidance lines.SOLUTION: A hoverable unmanned aerial vehicle 1 includes: an own vehicle position detection part for detecting the position of an own vehicle 1; a flight control part that controls the flight of the own vehicle 1; and a projection part that projects an image G of a guidance route on a road surface R for an unmanned carrier 100 traveling along the guidance route. The unmanned aerial vehicle 1 detects the position of the own vehicle 1 and projects the image G of the guidance route for guiding the unmanned carrier 100 on the road surface R.SELECTED DRAWING: Figure 1

Description

本発明は、無人飛行体およびそれを用いた無人搬送システムに関する。   The present invention relates to an unmanned aerial vehicle and an unmanned transport system using the same.

工場や倉庫では、搬送作業において自律走行可能な無人搬送車が利用されている。この種の無人搬送車には、多種多様な誘導方式が利用されている。例えば、特許文献1に開示の無人搬送車は、誘導ラインに沿って走行する誘導方式が用いられている。具体的には、この無人搬送車は、撮像部を備えており、撮像部を使用して路面に敷設された誘導ラインを撮像し、撮像された誘導ラインの位置に基づいて誘導ライン上を走行する。   In factories and warehouses, unmanned transport vehicles that can travel autonomously in transport operations are used. Various types of guidance systems are used in this type of automatic guided vehicle. For example, the automatic guided vehicle disclosed in Patent Literature 1 uses a guidance system that travels along a guidance line. Specifically, this automatic guided vehicle is provided with an imaging unit, uses the imaging unit to image a guide line laid on a road surface, and travels on the guide line based on the position of the imaged guide line. I do.

上記誘導ラインは、路面に貼付されたテープや路面に塗布された塗料などからなり、路面とは明確に異なる色彩が着色されている。しかしながら、このような誘導ラインは、路面に敷設されていることから、汚れの付着や剥がれが発生しやすい。そのため、無人搬送車は、このような誘導ラインの汚れの付着および剥がれによって、誘導ラインを認識できず、走行を停止するという問題があった。   The guide line is made of a tape affixed to the road surface, a paint applied to the road surface, or the like, and is colored differently from the road surface. However, since such a guide line is laid on a road surface, it is easy for dirt to adhere or peel off. Therefore, there is a problem that the automatic guided vehicle cannot recognize the guide line due to the adhesion and peeling of the guide line, and stops traveling.

そこで、例えば、汚れの付着や剥がれの影響を受けにくい電磁誘導による無人搬送車の誘導方式がある(特許文献2参照)。この誘導方式によると、無人搬送車は、走行ルートに沿って床に敷設されたトウパスワイヤの誘起磁界を車体に設けられたピックアップコイルによって検出し、検出された誘起磁界に基づいてステアリングモータを制御することにより、走行ルートに沿って移動する。   Therefore, for example, there is an automatic guided vehicle guidance system using electromagnetic induction that is not easily affected by the attachment or peeling of dirt (see Patent Document 2). According to this guidance system, the automatic guided vehicle detects the induced magnetic field of the tow path wire laid on the floor along the traveling route by a pickup coil provided on the vehicle body, and controls the steering motor based on the detected induced magnetic field. Thereby, it moves along the traveling route.

しかしながら、トウパスワイヤを床に敷設することは、面倒である。また、この誘導方式では、工場や倉庫内のレイアウト変更のたびに、トウパスワイヤを改めて床に敷設しなければならないという問題があった。   However, laying the tow path wire on the floor is cumbersome. In addition, this guidance method has a problem that the tow path wire must be laid on the floor anew whenever the layout in a factory or warehouse is changed.

特開平7−210246号公報JP-A-7-210246 特開平6−119036号公報JP-A-6-119036

そこで、本発明が解決しようとする課題は、誘導ラインを設置する必要がない、無人搬送車の誘導方式を提供することにある。   Therefore, an object of the present invention is to provide an automatic guided vehicle guidance system that does not require installation of a guidance line.

上記課題を解決するために、本発明に係る無人飛行体は、
ホバリング可能な無人飛行体であって、
自機の位置を検出する自機位置検出部と、
前記自機の飛行を制御するフライトコントロール部と、
誘導経路に沿って走行する無人搬送車のための前記誘導経路の画像を路面に投影する投影部と、
前記自機の下方を撮像する第1撮像部と、
前記無人搬送車の予め定められた走行経路を記憶している走行経路記憶部と、
前記第1撮像部が撮像した画像に基づいて前記無人搬送車の位置を検出するとともに、検出された前記無人搬送車の位置および検出された前記自機の位置に対応する前記走行経路の一部を前記誘導経路として抽出する誘導経路抽出部と、を備え、
前記無人搬送車に追従しながら前記抽出された誘導経路の画像を投影することを特徴とする。
In order to solve the above problems, an unmanned aerial vehicle according to the present invention
An unmanned aerial vehicle capable of hovering,
An own position detection unit for detecting the position of the own device,
A flight control unit for controlling the flight of the aircraft,
A projecting unit that projects an image of the guide route for an unmanned guided vehicle traveling along the guide route on a road surface,
A first imaging unit that captures an image of a lower side of the own device,
A traveling route storage unit that stores a predetermined traveling route of the automatic guided vehicle,
Detecting a position of the automatic guided vehicle based on an image captured by the first imaging unit, and a part of the travel route corresponding to the detected position of the automatic guided vehicle and the detected position of the own device; A guidance route extraction unit that extracts the as the guidance route,
An image of the extracted guidance route is projected while following the automatic guided vehicle.

上記無人飛行体は、
好ましくは、
補正係数算出部と、
補正処理部と、をさらに備え、
第1撮像部が、路面に投影された誘導経路の画像を撮像し、
補正係数算出部が、撮像された誘導経路の画像の各画素の各色成分の各輝度と、誘導経路抽出部が決定した誘導経路の画像の各画素の各色成分の各輝度とに基づいて誘導経路の画像の各画素の各色成分の補正係数を算出し、
補正処理部が、補正係数を用いて決定された誘導経路の画像の各画素の各色成分の各輝度を補正し、
投影部が、補正された誘導経路の画像を投影する。
The unmanned aerial vehicle is
Preferably,
A correction coefficient calculator,
A correction processing unit,
A first imaging unit that captures an image of the guidance route projected on the road surface,
The correction coefficient calculation unit calculates the guidance route based on each luminance of each color component of each pixel of the captured guidance route image and each luminance of each color component of each pixel of the guidance route image determined by the guidance route extraction unit. Calculate the correction coefficient of each color component of each pixel of the image of
The correction processing unit corrects each luminance of each color component of each pixel of the image of the guidance route determined using the correction coefficient,
The projection unit projects the corrected image of the guidance route.

上記無人飛行体は、
好ましくは、
自機の上方を撮像する第2撮像部と、
予め撮像された自機の上方の画像を位置情報と関連付けて記憶している上方画像記憶部と、をさらに備え、
自機位置検出部が、
第2撮像部によって撮像された現在の自機の上方の画像と、上方画像記憶部に記憶されている自機の上方の画像とを照合する照合部と、
照合部が照合した結果に基づいて自機の位置を特定する自機位置特定部と、を有する。
The unmanned aerial vehicle is
Preferably,
A second imaging unit for imaging an upper part of the own device,
An upper image storage unit that stores an upper image of the own device captured in advance in association with position information,
The own position detection unit
A collation unit that collates the current upper image of the own device captured by the second imaging unit with the upper image of the own device stored in the upper image storage unit;
A position identification unit for identifying the position of the own device based on the result of the collation by the collation unit.

上記無人飛行体は、
好ましくは、
天井に天井マーカが設けられた屋内において、誘導経路の画像を投影する上記無人飛行体であって、
上方画像記憶部が、予め撮像された天井マーカを含む天井の画像を位置情報と関連付けて記憶しており、
照合部が、第2撮像部によって撮像された天井の画像と、上方画像記憶部に記憶されている天井の画像とを照合する。
The unmanned aerial vehicle is
Preferably,
An unmanned aerial vehicle that projects an image of a guidance route in an indoor space provided with a ceiling marker on a ceiling,
The upper image storage unit stores a ceiling image including a ceiling marker captured in advance in association with position information,
The matching unit compares the ceiling image captured by the second imaging unit with the ceiling image stored in the upper image storage unit.

上記無人飛行体は、
好ましくは、
天井マーカに赤外線を照射する赤外線照射部をさらに備え、
天井マーカが、再帰性反射材であり、
第2撮像部が、赤外線カメラであり、赤外線で照射された前記天井マーカを含む天井の画像を撮像する。
The unmanned aerial vehicle is
Preferably,
The ceiling marker further includes an infrared irradiator that irradiates infrared rays to the ceiling marker,
The ceiling marker is a retroreflective material,
The second imaging unit is an infrared camera, and captures an image of the ceiling including the ceiling marker irradiated with infrared light.

上記課題を解決するために、本発明に係る、無人搬送システムは、
上記無人飛行体と、
第3撮像部と、誘導経路検出部と、ステアリング制御部と、を備える無人搬送車と、を含み、
第3撮像部は、投影部によって路面に投影された誘導経路を含む路面の範囲を撮像し、
誘導経路検出部は、第3撮像部によって撮像された路面の画像に基づいて誘導経路を検出し、
ステアリング制御部は、検出された誘導経路に基づいて、ステアリング制御する
ことを特徴とする。
In order to solve the above-described problems, according to the present invention, an unmanned transport system includes:
Said unmanned aerial vehicle,
An automatic guided vehicle including a third imaging unit, a guidance route detection unit, and a steering control unit,
The third imaging unit captures an image of a road surface range including the guidance route projected on the road surface by the projection unit,
The guidance route detection unit detects a guidance route based on the road surface image captured by the third imaging unit,
The steering control unit performs steering control based on the detected guidance route.

本発明によれば、誘導ラインを設置する必要がない、無人搬送車の誘導方式を提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the guidance system of an automatic guided vehicle which does not need to install a guidance line can be provided.

本発明に係る無人搬送システムの概要図である。1 is a schematic diagram of an unmanned transport system according to the present invention. 図1の天井に設けられた天井マーカを示す図である。It is a figure which shows the ceiling marker provided in the ceiling of FIG. (a)は、図1の無人飛行体の構成を示す斜め下から見た斜視図であり、(b)は、斜め上から見た斜視図である。FIG. 2A is a perspective view of the configuration of the unmanned aerial vehicle shown in FIG. 1 as viewed obliquely from below, and FIG. 2B is a perspective view as viewed obliquely from above. 図3の無人飛行体の上部ユニットの構成を示す斜視図である。FIG. 4 is a perspective view illustrating a configuration of an upper unit of the unmanned aerial vehicle of FIG. 3. (a)は、図3の無人飛行体のジンバルおよび下部ユニットの構成を示す斜め下から見た斜視図であり、(b)は、斜め上からみた斜視図である。FIG. 3A is a perspective view of the configuration of the gimbal and the lower unit of the unmanned aerial vehicle of FIG. 3 as viewed obliquely from below, and FIG. 3B is a perspective view as viewed obliquely from above. 図3の無人飛行体の本体が備える各構成の機能ブロック図である。FIG. 4 is a functional block diagram of each configuration provided in the main body of the unmanned aerial vehicle in FIG. 3. (a)は、路面に投影された誘導画像の一例を示す図であり、(b)は、補正前の誘導画像を示す図であり、(c)は、補正後の誘導画像を示す上面図である。(A) is a figure which shows an example of the guidance image projected on the road surface, (b) is a figure which shows the guidance image before correction, (c) is a top view which shows the guidance image after correction | amendment It is. 車載カメラが誘導画像を撮像するときの概略上面図である。It is a schematic top view when an in-vehicle camera captures a guidance image. 図1の無人搬送システムの変形例の各構成の機能ブロック図である。It is a functional block diagram of each composition of the modification of the unmanned conveyance system of FIG.

以下、添付図面を参照しつつ、本発明に係る無人飛行体および無人飛行体を用いた無人搬送システムの一実施形態について説明する。前後、左右および上下の方向X、Y、Zは、添付図面に記載のとおり、無人搬送車の走行方向を基準にしている。   Hereinafter, an embodiment of an unmanned aerial vehicle and an unmanned transport system using the unmanned aerial vehicle according to the present invention will be described with reference to the accompanying drawings. The directions X, Y, and Z in the front-rear direction, the left-right direction, and the up-down direction are based on the traveling direction of the automatic guided vehicle, as shown in the accompanying drawings.

<無人搬送システムSの概要>
図1は、本発明に係る無人飛行体1を用いた無人搬送システムSの概要図である。この無人搬送システムSでは、無人飛行体1は、天井Cを撮像し、撮像した画像を解析することにより自機位置を検出するとともに、無人搬送車100を誘導するための誘導経路の画像(以下「誘導画像G」という)を路面Rに投影する。無人搬送車100は、無人フォークリフトであって、無人飛行体1が投影した誘導画像G中の誘導ラインLに沿って誘導されることにより、予め定められた走行経路を走行する。
<Overview of unmanned transport system S>
FIG. 1 is a schematic diagram of an unmanned transport system S using an unmanned aerial vehicle 1 according to the present invention. In the unmanned transport system S, the unmanned aerial vehicle 1 captures an image of the ceiling C, analyzes the captured image to detect its own position, and an image of a guidance route for guiding the unmanned transport vehicle 100 (hereinafter, an image of the guidance route). “Guidance image G”) is projected on the road surface R. The unmanned guided vehicle 100 is an unmanned forklift, and travels on a predetermined traveling route by being guided along a guidance line L in a guidance image G projected by the unmanned aerial vehicle 1.

<天井の構成>
図2に示すように、天井C全体には、無人飛行体1が自機位置を検出するために用いるための、長方形状の天井マーカ200が複数設けられている。天井マーカ200は、再帰性反射材であって、同縦列または同横列において等間隔に整列して配置されている。言い換えると、天井マーカ200は、列ごとに異なる間隔で天井Cに配置されている。例えば、図2の最下段の横列の間隔P3は、すべて同じである。一方、1段目、2段目および3段目の横列の間隔P1、P2、P3の長さは、それぞれ異なっている。また、1段目、2段目および3段目間の間隔P4、P5の長さも、それぞれ異なっている。
<Ceiling configuration>
As shown in FIG. 2, a plurality of rectangular ceiling markers 200 for use by the unmanned aerial vehicle 1 to detect its own position are provided on the entire ceiling C. The ceiling markers 200 are retroreflective materials, and are arranged at equal intervals in the same column or the same row. In other words, the ceiling markers 200 are arranged on the ceiling C at different intervals for each row. For example, the intervals P3 of the bottom row in FIG. 2 are all the same. On the other hand, the lengths of the intervals P1, P2, and P3 of the first, second, and third rows are different from each other. The lengths of the intervals P4 and P5 between the first, second, and third stages are also different.

<無人飛行体1>
まず、無人飛行体1の各部の構成について簡単に説明する。図3に示すように、無人飛行体1は、本体20と、本体20の上面から地面と平行に4方に延びる4本のアーム12と、4本のアーム12のそれぞれの先端側に設けられたモータ13と、モータ13に設けられた回転翼14と、4本のアーム12の基部の上側に立設された略八角柱状の上部ユニット15と、本体20の下側に設けられたジンバル16と、ジンバル16に支持されている下部ユニット17と、本体20の周囲かつアーム12の下側に設けられた4本のスキッド18と、を備えている。
<Unmanned aerial vehicle 1>
First, the configuration of each part of the unmanned aerial vehicle 1 will be briefly described. As shown in FIG. 3, the unmanned aerial vehicle 1 is provided on a main body 20, four arms 12 extending from an upper surface of the main body 20 in four directions parallel to the ground, and a tip end of each of the four arms 12. Motor 13, a rotary wing 14 provided on the motor 13, a substantially octagonal column-shaped upper unit 15 erected above the base of the four arms 12, and a gimbal 16 provided below the main body 20. And a lower unit 17 supported by the gimbal 16, and four skids 18 provided around the main body 20 and below the arm 12.

図4に示すように、上部ユニット15は、上部ユニット本体151と、赤外線カメラ152と、4つの赤外線照射部153と、を有する。赤外線カメラ152は、本発明の「第2撮像部」に相当し、上部ユニット本体151の上面の中央に上方を向いて配置されている。4つの赤外線照射部153は、それぞれ赤外線カメラ152の周囲の上下および左右に上方を向いて配置されている。赤外線照射部153は、例えば、赤外LEDでもよい。4つの赤外線照射部153は、天井Cに向けて赤外線を照射し、赤外線カメラ152は、赤外線で照射された天井マーカ200を含む天井Cの画像を撮像して天井画像を生成する。   As shown in FIG. 4, the upper unit 15 has an upper unit main body 151, an infrared camera 152, and four infrared irradiation units 153. The infrared camera 152 corresponds to the “second imaging unit” of the present invention, and is arranged upward at the center of the upper surface of the upper unit main body 151. The four infrared irradiators 153 are arranged upward and downward and right and left around the infrared camera 152, respectively. The infrared irradiation unit 153 may be, for example, an infrared LED. The four infrared irradiators 153 irradiate infrared light toward the ceiling C, and the infrared camera 152 captures an image of the ceiling C including the ceiling marker 200 irradiated with the infrared light to generate a ceiling image.

通常、屋内の天井Cには電灯が設けられているが、天井Cに設けられた天井マーカ200には電灯の光が届きにくい。また、天井Cに設けられた天井マーカ200を撮像する場合、電灯による逆光が撮像の妨げになる。そこで、赤外線照射部153が天井Cに赤外線を照射することにより、赤外線カメラ152は、天井マーカ200を含む天井Cを適切に撮像することができる。また、天井マーカ200が再帰性反射材であることにより、天井マーカ200に照射された赤外線の入射角が大きくても、赤外線カメラ152は、適切に天井マーカ200を撮像することができる。   Usually, an electric light is provided on the indoor ceiling C, but it is difficult for the light of the electric light to reach the ceiling marker 200 provided on the ceiling C. Further, when imaging the ceiling marker 200 provided on the ceiling C, backlight caused by the electric light hinders imaging. Thus, the infrared camera 152 can appropriately image the ceiling C including the ceiling marker 200 by irradiating the ceiling C with infrared rays by the infrared irradiation unit 153. Further, since the ceiling marker 200 is a retroreflective material, the infrared camera 152 can appropriately image the ceiling marker 200 even when the incident angle of the infrared light applied to the ceiling marker 200 is large.

図5に示すように、ジンバル16は、本体20に回転可能に連結された第1の回転軸161と、第1の回転軸161に連結された円板状の回転台162と、回転台162から下方に延びる左右一対の支持柱163と、支持柱163の内側中央に回転可能に連結された左右一対の第2の回転軸164と、を有する。   As shown in FIG. 5, the gimbal 16 includes a first rotation shaft 161 rotatably connected to the main body 20, a disk-shaped rotation base 162 connected to the first rotation shaft 161, and a rotation base 162. And a pair of left and right second rotation shafts 164 rotatably connected to the center of the inside of the support column 163.

下部ユニット17は、プロジェクタ171および下カメラ172を有するとともに、第2の回転軸164に支持されている。プロジェクタ171は、本発明の「投影部」に相当する。また、下カメラ172は、本発明の「第1撮像部」に相当する。プロジェクタ171および下カメラ172は、ジンバル16によって任意の方向に向くことができる。プロジェクタ171は、制御部21(図6参照)によって決定された誘導画像Gを路面Rに投影する。下カメラ172は、路面Rに投影された誘導画像Gを撮像し、路面画像を生成する。   The lower unit 17 has a projector 171 and a lower camera 172, and is supported by a second rotation shaft 164. The projector 171 corresponds to the “projection unit” of the present invention. The lower camera 172 corresponds to the “first imaging unit” of the present invention. The projector 171 and the lower camera 172 can be pointed in any direction by the gimbal 16. The projector 171 projects the guidance image G determined by the control unit 21 (see FIG. 6) on the road surface R. The lower camera 172 captures the guidance image G projected on the road surface R and generates a road surface image.

図6に示すように、本体20は、制御部21と、自機位置検出部23と、記憶部24と、を有する。   As shown in FIG. 6, the main body 20 has a control unit 21, a position detection unit 23, and a storage unit 24.

制御部21は、フライトコントロール部211と、誘導経路抽出部212と、補正処理部213と、補正係数算出部214と、を有し、無人飛行体1の飛行およびプロジェクタ171による誘導画像Gの投影を制御する。   The control unit 21 includes a flight control unit 211, a guidance route extraction unit 212, a correction processing unit 213, and a correction coefficient calculation unit 214. The flight of the unmanned aerial vehicle 1 and the projection of the guidance image G by the projector 171 Control.

記憶部24は、飛行経路記憶部241と、上方画像記憶部242と、走行経路記憶部243と、を有している。   The storage unit 24 includes a flight route storage unit 241, an upper image storage unit 242, and a traveling route storage unit 243.

自機位置検出部23は、GPSセンサ、ジャイロセンサ、超音波センサ、レーザセンサ、気圧センサ、コンパス、加速度センサといった各種センサ(図示しない)を有しており、無人飛行体1の位置を検出するのに利用することができる。しかしながら、GPSセンサは、屋内においてはGPS信号を適切に検出することができない。そこで、自機位置検出部23は、後で詳述するように、屋内においては、赤外線カメラ152によって撮像された天井画像と、上方画像記憶部242に記憶されている天井画像とを照合することにより、無人飛行体1の位置を検出する。   The own position detection unit 23 has various sensors (not shown) such as a GPS sensor, a gyro sensor, an ultrasonic sensor, a laser sensor, a barometric pressure sensor, a compass, and an acceleration sensor, and detects the position of the unmanned aerial vehicle 1. Can be used for However, the GPS sensor cannot properly detect a GPS signal indoors. Therefore, as described in detail later, the indoor unit position detection unit 23 compares the ceiling image captured by the infrared camera 152 with the ceiling image stored in the upper image storage unit 242 indoors. Thus, the position of the unmanned aerial vehicle 1 is detected.

次に、フライトコントロール部211による無人飛行体1の飛行制御について説明する。フライトコントロール部211は、各モータ13の回転数を制御することにより、無人飛行体1のホバリングを可能にするとともに、無人飛行体1の飛行速度、飛行方向、飛行高度を制御する。また、フライトコントロール部211は、無人飛行体1の自律飛行時には、自機位置検出部23によって検出された無人飛行体1の位置を参照しながら、飛行経路記憶部241に記憶された飛行経路に沿って無人飛行体1を飛行させる。   Next, flight control of the unmanned aerial vehicle 1 by the flight control unit 211 will be described. The flight control unit 211 controls the rotation speed of each motor 13 to enable hovering of the unmanned aerial vehicle 1 and controls the flight speed, the flight direction, and the flight altitude of the unmanned aerial vehicle 1. In addition, during the autonomous flight of the unmanned aerial vehicle 1, the flight control unit 211 refers to the position of the unmanned aerial vehicle 1 detected by the own aircraft position detection unit 23 and refers to the flight path stored in the flight path storage unit 241. The unmanned aerial vehicle 1 is caused to fly along.

次に、自機位置検出部23による自機位置検出方法について説明する。自機位置検出部23は、照合部231と、自機位置特定部232とをさらに有する。上方画像記憶部242には、天井C全体の天井全体画像が位置情報と関連付けて記憶されている。赤外線カメラ152は、無人飛行体1の自律飛行時には、随時、無人飛行体1の上方を撮像して上方画像を生成し、照合部231に出力する。照合部231は、入力された上方画像と、上方画像記憶部242に記憶されている天井全体画像とを照合し、天井全体画像の中のどの位置に上方画像が存在するのかを探索するテンプレートマッチングを行う。テンプレートマッチングには、例えば、SSD(「Sum of Squared Difference」)またはSAD(「Sum of Absolute Difference」)を類似度の計算手法として用いてもよい。自機位置特定部232は、照合部231のテンプレートマッチングの結果に基づいて無人飛行体1の位置を特定する。なお、自機位置検出部23は、無人飛行体1の高度に関しては、超音波センサ、レーザセンサ等により検出する。   Next, a method of detecting the position of the own device by the own position detecting unit 23 will be described. The own device position detecting unit 23 further includes a checking unit 231 and an own device position specifying unit 232. The upper image storage unit 242 stores an entire ceiling image of the entire ceiling C in association with position information. During the autonomous flight of the unmanned aerial vehicle 1, the infrared camera 152 captures an image of the upper part of the unmanned aerial vehicle 1 at any time, generates an upper image, and outputs the image to the matching unit 231. The matching unit 231 compares the input upper image with the entire ceiling image stored in the upper image storage unit 242, and searches for a position in the entire ceiling image where the upper image exists. I do. For template matching, for example, SSD (“Sum of Squared Difference”) or SAD (“Sum of Absolute Difference”) may be used as a similarity calculation method. The own aircraft position specifying unit 232 specifies the position of the unmanned aerial vehicle 1 based on the result of the template matching of the matching unit 231. In addition, the own aircraft position detection unit 23 detects the altitude of the unmanned aerial vehicle 1 using an ultrasonic sensor, a laser sensor, or the like.

次に、誘導画像Gを投影する方法について説明する。誘導経路抽出部212は、自機位置検出部23によって検出された無人飛行体1の位置に基づいて、路面Rに投影する誘導画像Gを決定する。具体的には、走行経路記憶部243は、無人搬送車100の予め定められた走行経路を記憶しており、誘導経路抽出部212は、検出された無人飛行体1の位置に対応する走行経路の一部を誘導経路として抽出する。抽出された誘導経路の画像、すなわち誘導画像Gは、補正処理部213で処理された後、プロジェクタ171に出力される。なお、誘導経路の面積は、特に限定されない。   Next, a method of projecting the guidance image G will be described. The guidance route extraction unit 212 determines a guidance image G to be projected on the road surface R based on the position of the unmanned aerial vehicle 1 detected by the own aircraft position detection unit 23. Specifically, the traveling route storage unit 243 stores a predetermined traveling route of the automatic guided vehicle 100, and the guidance route extracting unit 212 stores the traveling route corresponding to the detected position of the unmanned aerial vehicle 1. Is extracted as a guidance route. The extracted image of the guidance route, that is, the guidance image G is processed by the correction processing unit 213 and then output to the projector 171. The area of the guidance route is not particularly limited.

プロジェクタ171は、入力された誘導画像Gを路面Rに投影する。無人飛行体1がフライトコントロール部211によって安定してホバリングすることができ、プロジェクタ171がジンバル16によって安定して一定の方向を向くことができるので、誘導画像Gを路面Rの適切な位置に安定して投影することができる。   The projector 171 projects the input guidance image G on the road surface R. Since the unmanned aerial vehicle 1 can hover stably by the flight control unit 211 and the projector 171 can stably face a certain direction by the gimbal 16, the guidance image G can be stably positioned at an appropriate position on the road surface R. Can be projected.

図7(a)に示すように、誘導画像Gは、一定の幅を有する誘導ラインLが中央に配置されており、誘導ラインLの向きが無人搬送車100を誘導する方向を指している。また、誘導ラインLの領域の色は、その両端の領域に比して明度・彩度が明らかに異なる。この誘導画像Gは、単なる一例であってこれに限定されない。例えば、路面Rと明らかに異なる1色の誘導ラインLを誘導画像Gとしてもよい。   As shown in FIG. 7A, in the guidance image G, a guidance line L having a certain width is arranged at the center, and the direction of the guidance line L indicates the direction in which the automatic guided vehicle 100 is guided. Further, the color of the area of the guide line L is clearly different in brightness and saturation compared to the areas at both ends. The guidance image G is merely an example and is not limited to this. For example, a guidance line L of one color that is clearly different from the road surface R may be used as the guidance image G.

図7(b)を参照して、路面Rは、使用状態により汚れや剥がれが発生している場合があり、この場合、領域Aのように誘導画像Gの一部が適切に表示されない。そこで、制御部21は、路面Rに投影された誘導画像Gを解析し、このような路面Rに対応するように誘導画像Gを補正する。以下、具体的に説明する。   Referring to FIG. 7B, the road surface R may be stained or peeled off depending on the use condition. In this case, a part of the guidance image G is not appropriately displayed as in the region A. Therefore, the control unit 21 analyzes the guidance image G projected on the road surface R, and corrects the guidance image G so as to correspond to such a road surface R. Hereinafter, a specific description will be given.

図6を参照して、誘導経路抽出部212によって抽出された誘導画像G1は、補正処理部213を介して補正係数算出部214およびプロジェクタ171に出力される。プロジェクタ171は、入力された誘導画像G1を路面Rに投影する。下カメラ172は、投影された誘導画像G1を撮像し、路面画像を生成して補正係数算出部214に出力する。   Referring to FIG. 6, guidance image G <b> 1 extracted by guidance route extraction unit 212 is output to correction coefficient calculation unit 214 and projector 171 via correction processing unit 213. The projector 171 projects the input guidance image G1 on the road surface R. The lower camera 172 captures the projected guidance image G1, generates a road surface image, and outputs the road surface image to the correction coefficient calculation unit 214.

補正係数算出部214は、誘導画像G1の各画素の各輝度を色成分ごとに正規化して入力データD1を生成するとともに、下カメラ172から出力された路面画像の各画素の各輝度を各色成分ごとに正規化して出力データD2を生成する。次いで、補正係数算出部214は、入力データD1と出力データD2とを照合し、出力データD2の各画素間の輝度比を入力データD1に適合させるための各画素の各色成分の補正係数を算出し、算出した補正係数を補正処理部213に出力する。   The correction coefficient calculation unit 214 generates input data D1 by normalizing each brightness of each pixel of the guide image G1 for each color component, and also calculates each brightness of each pixel of the road surface image output from the lower camera 172 by each color component. The output data D2 is generated by normalizing the data. Next, the correction coefficient calculation unit 214 checks the input data D1 and the output data D2, and calculates a correction coefficient of each color component of each pixel for adjusting the luminance ratio between each pixel of the output data D2 to the input data D1. Then, the calculated correction coefficient is output to the correction processing unit 213.

補正処理部213は、算出された各画素の各色成分の補正係数を使用して、投影する誘導画像G1の各画素の各色成分の輝度を補正し誘導画像G2を生成する。次いで、補正処理部213は、生成した誘導画像G2をプロジェクタ171に出力するとともに、補正係数算出部214に出力する。プロジェクタ171は、入力された誘導画像G2を路面Rに投影する。下カメラ172は、投影された誘導画像G2を撮像し、路面画像を生成して補正係数算出部214に出力する。補正係数算出部214は、先程と同様に誘導画像G2に対応する補正係数を算出する。   The correction processing unit 213 corrects the luminance of each color component of each pixel of the projection image G1 to be projected using the calculated correction coefficient of each color component of each pixel to generate a guidance image G2. Next, the correction processing unit 213 outputs the generated guidance image G2 to the projector 171 and to the correction coefficient calculation unit 214. The projector 171 projects the input guidance image G2 on the road surface R. The lower camera 172 captures the projected guidance image G2, generates a road surface image, and outputs the road surface image to the correction coefficient calculation unit 214. The correction coefficient calculation unit 214 calculates a correction coefficient corresponding to the guidance image G2 as described above.

図7(c)に示すように、この工程が繰り返されることにより、最終的に投影された誘導画像Gは、1色のスクリーンに投影された画像のように表示される。   As shown in FIG. 7C, by repeating this process, the finally projected guidance image G is displayed like an image projected on a one-color screen.

<無人搬送車100>
再び図1を参照して、無人搬送車100の構成について説明する。無人搬送車100は、車体101と、車載カメラ102と、左右一対の前輪103と、左右一対の後輪104と、前輪103および後輪104のいずれか一方または両方をステアリング制御するステアリング制御部105と、誘導経路検出部106と、フォーク107と、マスト108と、を備える。車載カメラ102は、本発明の「第3撮像部」に相当する。
<Automated guided vehicle 100>
Referring to FIG. 1 again, the configuration of the automatic guided vehicle 100 will be described. The automatic guided vehicle 100 includes a vehicle body 101, a vehicle-mounted camera 102, a pair of left and right front wheels 103, a pair of left and right rear wheels 104, and a steering control unit 105 that performs steering control of one or both of the front wheels 103 and the rear wheels 104. , A guidance route detection unit 106, a fork 107, and a mast 108. The in-vehicle camera 102 corresponds to the “third imaging unit” of the present invention.

車体101の前面の一部は、透過部材で構成されている。車載カメラ102は、車体101内の前側の上側かつ中央の位置に、透過部材を通して路面Rを向くように設けられている。車載カメラ102の位置は、単なる一例であってこれに限定されない。   A part of the front surface of the vehicle body 101 is formed of a transparent member. The in-vehicle camera 102 is provided at a front upper side and in a central position in the vehicle body 101 so as to face a road surface R through a transmission member. The position of the vehicle-mounted camera 102 is merely an example and is not limited to this.

図8に示すように、車載カメラ102は、誘導画像Gを含む路面Rの所定の撮像範囲Qを撮像して路面画像を生成し、誘導経路検出部106に出力する。   As shown in FIG. 8, the on-vehicle camera 102 generates a road surface image by capturing a predetermined imaging range Q of the road surface R including the guidance image G, and outputs the road surface image to the guidance route detection unit 106.

誘導経路検出部106は、入力された路面画像を彩度・明度に基づいて解析し、誘導ラインLを検出する。   The guidance route detection unit 106 analyzes the input road surface image based on the saturation and brightness to detect the guidance line L.

ステアリング制御部105は、誘導経路検出部106によって検出された誘導ラインLに基づいて、前輪103および後輪104のいずれか一方または両方をステアリング制御する。具体的には、ステアリング制御部105は、誘導ラインLの位置が撮像範囲Qの中央にくるように車輪103、104の操舵角をフィードバック制御する。これにより、無人搬送車100は、無人飛行体1が投影した誘導経路に沿って誘導され、予め定められた走行経路を走行することができる。   The steering control unit 105 controls the steering of one or both of the front wheel 103 and the rear wheel 104 based on the guidance line L detected by the guidance route detection unit 106. Specifically, the steering control unit 105 performs feedback control on the steering angles of the wheels 103 and 104 so that the position of the guidance line L is located at the center of the imaging range Q. Thereby, the automatic guided vehicle 100 can be guided along the guidance route projected by the unmanned aerial vehicle 1, and can travel on a predetermined traveling route.

無人搬送システムSによれば、無人飛行体1が誘導画像Gを投影するので、無人搬送車100を誘導するのに別途誘導ラインを設置する必要がない。また、プロジェクタ171が投影する誘導画像Gは、補正処理部213によって随時補正されるので、投影面である路面Rが部分的に汚れていようと適切に誘導経路を表示することができる。   According to the unmanned transport system S, since the unmanned aerial vehicle 1 projects the guidance image G, there is no need to install a separate guidance line to guide the automatic guided vehicle 100. Further, since the guidance image G projected by the projector 171 is corrected as needed by the correction processing unit 213, the guidance route can be appropriately displayed even if the road surface R as the projection surface is partially contaminated.

以上、本発明に係る無人搬送車100を誘導するシステムの実施形態について説明したが、本発明は上記実施形態に限定されるものではない。   The embodiment of the system for guiding the automatic guided vehicle 100 according to the present invention has been described above, but the present invention is not limited to the above embodiment.

(1)無人搬送車100は、例えば、有人無人兼用の搬送車またはフォークリフトであってもよい。   (1) The unmanned guided vehicle 100 may be, for example, a manned or unmanned guided vehicle or a forklift.

(2)無人飛行体1が自機位置を検出する方法は、特に限定されない。例えば、SLAM(Simultaneous Localization And Mapping)技術によって、無人飛行体1の位置を検出してもよい。   (2) The method by which the unmanned aerial vehicle 1 detects its own position is not particularly limited. For example, the position of the unmanned aerial vehicle 1 may be detected by a Simultaneous Localization And Mapping (SLAM) technique.

(3)自機位置検出部23が第2撮像部の撮像した天井画像から天井マーカ200を認識できるのであれば、赤外線照射部153は、無人飛行体1に設けられていなくてもよい。また、自機位置検出部23が第2撮像部の撮像した天井画像から天井マーカ200を認識することができるのであれば、第2撮像部は、赤外線カメラ152に限定されない。   (3) The infrared irradiating unit 153 may not be provided in the unmanned aerial vehicle 1 as long as the own position detection unit 23 can recognize the ceiling marker 200 from the ceiling image captured by the second imaging unit. The second imaging unit is not limited to the infrared camera 152, as long as the own device position detection unit 23 can recognize the ceiling marker 200 from the ceiling image captured by the second imaging unit.

(4)天井マーカ200には、例えば、2次元バーコードが付されており、この2次元バーコードに位置情報が含まれていてもよい。これにより、自機位置検出部23は、天井画像から天井マーカ200を認識することにより無人飛行体1の位置を直接認識することができる。   (4) The two-dimensional barcode is attached to the ceiling marker 200, for example, and the two-dimensional barcode may include position information. Accordingly, the own-machine position detection unit 23 can directly recognize the position of the unmanned aerial vehicle 1 by recognizing the ceiling marker 200 from the ceiling image.

(5)無人飛行体1は、アーム12の上面にジンバルが設けられ、このジンバルに上部ユニット15が接続される構成であってもよい。これにより、赤外線カメラ152は、無人飛行体1の姿勢に関わらず、常に一定の角度で天井Cを撮像することができる。   (5) The unmanned aerial vehicle 1 may have a configuration in which a gimbal is provided on the upper surface of the arm 12 and the upper unit 15 is connected to the gimbal. Thereby, the infrared camera 152 can always image the ceiling C at a fixed angle regardless of the attitude of the unmanned aerial vehicle 1.

(6)プロジェクタ171は、複数のプロジェクタから構成されていてもよい。この場合、複数のプロジェクタによって複数の誘導画像Gを同時に投影することにより、複数の無人搬送車100を同時に誘導してもよい。また、複数のプロジェクタによって同時に複数の誘導画像Gを投影することにより広範囲の誘導経路を路面Rに表示させてもよい。   (6) The projector 171 may include a plurality of projectors. In this case, a plurality of guidance images G may be simultaneously projected by a plurality of projectors, so that a plurality of automatic guided vehicles 100 may be guided simultaneously. Further, a plurality of guidance images G may be simultaneously projected by a plurality of projectors to display a wide range of guidance routes on the road surface R.

(7)誘導経路抽出部212は、無人飛行体1の位置に加えて、無人搬送車100の位置に基づいて、誘導画像Gを決定してもよい。この場合、誘導経路抽出部212は、予め下カメラ172の撮像する画像に基づいて、無人搬送車100の位置を検出する。   (7) The guidance route extracting unit 212 may determine the guidance image G based on the position of the unmanned carrier 100 in addition to the position of the unmanned aerial vehicle 1. In this case, the guide route extracting unit 212 detects the position of the automatic guided vehicle 100 based on an image captured by the lower camera 172 in advance.

(8)無人飛行体1は、無人搬送車100に追従しながら誘導画像Gを投影してもよいし、または所定の位置から誘導画像Gを投影してもよい。   (8) The unmanned aerial vehicle 1 may project the guidance image G while following the automatic guided vehicle 100, or may project the guidance image G from a predetermined position.

(9)補正処理部213による誘導画像Gの補正方法は、例えば、路面Rに対するプロジェクタ171の配光特性を取得し、この配光特性を用いて、投影する誘導画像Gを補正してもよい。具体的には、制御部21は、配光特性を取得する配光特性取得部をさらに有する。プロジェクタ171は、誘導画像Gを投影する前に1色からなる基準画像を路面R1に投影し、下カメラ172は、この基準画像を撮像して路面画像を生成し、配光特性取得部に出力する。配光特性取得部は、路面画像の各画素の各色成分の輝度を解析して正規化し、路面R1に対するプロジェクタ171の色成分ごとの配光特性を示す配向分布を作成する。補正処理部213は、配光分布を用いて、誘導画像Gを補正する。これにより、路面Rの態様に適応された誘導画像Gが生成される。   (9) As a method of correcting the guidance image G by the correction processing unit 213, for example, the light distribution characteristics of the projector 171 with respect to the road surface R may be acquired, and the guidance image G to be projected may be corrected using the light distribution characteristics. . Specifically, the control unit 21 further includes a light distribution characteristic acquisition unit that acquires light distribution characteristics. The projector 171 projects a reference image of one color on the road surface R1 before projecting the guidance image G, and the lower camera 172 captures the reference image to generate a road surface image and outputs it to the light distribution characteristic acquisition unit. I do. The light distribution characteristic acquisition unit analyzes and normalizes the brightness of each color component of each pixel of the road surface image, and creates an orientation distribution indicating the light distribution characteristics of each color component of the projector 171 with respect to the road surface R1. The correction processing unit 213 corrects the guidance image G using the light distribution. Thereby, the guidance image G adapted to the mode of the road surface R is generated.

また、補正処理部213は、配向分布と上述の手法による補正係数とを併用して誘導画像Gを補正してもよい。具体的には、配光特性取得部が配向分布を作成した後、プロジェクタ171は未補正の誘導画像G1を路面Rに投影する。下カメラ172は、この誘導画像Gを撮像して路面画像を生成し、補正係数算出部214に出力する。補正処理部213は、上述の補正係数と配向分布に基づいて誘導画像G1を補正し、誘導画像G2を生成する。   Further, the correction processing unit 213 may correct the guidance image G by using both the orientation distribution and the correction coefficient according to the above-described method. Specifically, after the light distribution characteristic acquisition unit creates the orientation distribution, the projector 171 projects the uncorrected guide image G1 on the road surface R. The lower camera 172 captures the guidance image G, generates a road surface image, and outputs the road surface image to the correction coefficient calculation unit 214. The correction processing unit 213 corrects the guide image G1 based on the above-described correction coefficient and orientation distribution, and generates a guide image G2.

(10)図9に示すように、無人飛行体1と互いに通信可能なサーバ400を備えた無人搬送システムS1でもよい。この場合、無人搬送システムS1は、無人飛行体1と、サーバ400と、無人搬送車100を含む。無人飛行体1は、自機位置検出部23と、プロジェクタ171とを備える。サーバ400は、走行経路記憶部401と、誘導経路抽出部402と、を備える。無人搬送車100は、車載カメラ102と、左右一対の前輪103と、左右一対の後輪104と、ステアリング制御部105と、誘導経路検出部106と、を備える。   (10) As shown in FIG. 9, an unmanned transport system S1 including a server 400 capable of communicating with the unmanned aerial vehicle 1 may be used. In this case, the unmanned transport system S1 includes the unmanned aerial vehicle 1, the server 400, and the unmanned transport vehicle 100. The unmanned aerial vehicle 1 includes a position detection unit 23 and a projector 171. The server 400 includes a traveling route storage unit 401 and a guidance route extracting unit 402. The automatic guided vehicle 100 includes a vehicle-mounted camera 102, a pair of left and right front wheels 103, a pair of left and right rear wheels 104, a steering control unit 105, and a guidance route detection unit 106.

無人搬送システムS1では、走行経路記憶部401が無人搬送車100の予め定められた走行経路を記憶しており、誘導経路抽出部402が通信により受信した前記無人飛行体1の位置に対応する走行経路の一部を誘導経路として抽出する。プロジェクタ171は、サーバ400から受信した誘導経路の画像Gを路面Rに投影する。無人搬送車100は、無人搬送システムSと同様の手法で、無人飛行体1が投影した誘導経路に沿って誘導され、予め定められた走行経路を走行することができる。この無人搬送システムS1によれば、無人飛行体1は、走行経路記憶部243および誘導経路抽出部212を備える必要がない。   In the automatic guided vehicle system S1, the traveling route storage unit 401 stores a predetermined traveling route of the automatic guided vehicle 100, and the traveling corresponding to the position of the unmanned aerial vehicle 1 received by the guidance route extracting unit 402 through communication. A part of the route is extracted as a guidance route. The projector 171 projects the image G of the guidance route received from the server 400 on the road surface R. The automatic guided vehicle 100 can be guided along the guidance route projected by the unmanned aerial vehicle 1 and travel on a predetermined traveling route in the same manner as the automatic guided vehicle system S. According to the unmanned transport system S1, the unmanned aerial vehicle 1 does not need to include the traveling route storage unit 243 and the guidance route extracting unit 212.

1 無人飛行体
12 アーム
13 モータ
14 回転翼
15 上部ユニット
151 上部ユニット本体
152 赤外線カメラ(第2撮像部)
153 赤外線照射部
16 ジンバル
161 第1の回転軸
162 回転台
163 支持柱
164 第2の回転軸
17 下部ユニット
171 プロジェクタ(投影部)
172 下カメラ(第1撮像部)
18 スキッド
20 本体
21 制御部
211 フライトコントロール部
212 誘導経路抽出部
213 補正処理部
214 補正係数算出部
23 自機位置検出部
231 照合部
232 自機位置特定部
24 記憶部
100 無人搬送車
101 車体
102 車載カメラ(第3撮像部)
103 前輪
104 後輪
105 ステアリング制御部
106 誘導経路検出部
200 天井マーカ
400 サーバ
401 走行経路記憶部
402 誘導経路抽出部
S、S1 無人搬送システム
C 天井
R 路面
G 誘導画像
Q 撮像範囲
L 誘導ライン
DESCRIPTION OF SYMBOLS 1 Unmanned aerial vehicle 12 Arm 13 Motor 14 Rotor wing 15 Upper unit 151 Upper unit main body 152 Infrared camera (second imaging unit)
153 Infrared irradiating unit 16 Gimbal 161 First rotating shaft 162 Rotating table 163 Support post 164 Second rotating shaft 17 Lower unit 171 Projector (projection unit)
172 Lower camera (first imaging unit)
18 Skid 20 Main body 21 Control unit 211 Flight control unit 212 Guidance route extraction unit 213 Correction processing unit 214 Correction coefficient calculation unit 23 Own unit position detection unit 231 Collation unit 232 Own unit position identification unit 24 Storage unit 100 Unmanned transport vehicle 101 Body 102 In-vehicle camera (third imaging unit)
103 Front wheel 104 Rear wheel 105 Steering control unit 106 Guidance route detection unit 200 Ceiling marker 400 Server 401 Travel route storage unit 402 Guidance route extraction unit S, S1 Unmanned transport system C Ceiling R Road surface G Guidance image Q Imaging range L Guidance line

Claims (6)

ホバリング可能な無人飛行体であって、
自機の位置を検出する自機位置検出部と、
前記自機の飛行を制御するフライトコントロール部と、
誘導経路に沿って走行する無人搬送車のための前記誘導経路の画像を路面に投影する投影部と、
前記自機の下方を撮像する第1撮像部と、
前記無人搬送車の予め定められた走行経路を記憶している走行経路記憶部と、
前記第1撮像部が撮像した画像に基づいて前記無人搬送車の位置を検出するとともに、検出された前記無人搬送車の位置および検出された前記自機の位置に対応する前記走行経路の一部を前記誘導経路として抽出する誘導経路抽出部と、を備え、
前記無人搬送車に追従しながら前記抽出された誘導経路の画像を投影する
ことを特徴とする無人飛行体。
An unmanned aerial vehicle capable of hovering,
An own position detection unit for detecting the position of the own device,
A flight control unit for controlling the flight of the aircraft,
A projecting unit that projects an image of the guide route for an unmanned guided vehicle traveling along the guide route on a road surface,
A first imaging unit that captures an image of a lower side of the own device,
A traveling route storage unit that stores a predetermined traveling route of the automatic guided vehicle,
Detecting a position of the automatic guided vehicle based on an image captured by the first imaging unit, and a part of the travel route corresponding to the detected position of the automatic guided vehicle and the detected position of the own device; A guidance route extraction unit that extracts the as the guidance route,
An unmanned aerial vehicle that projects an image of the extracted guidance route while following the unmanned carrier.
補正係数算出部と、
補正処理部と、をさらに備え、
前記第1撮像部は、前記路面に投影された前記誘導経路の画像を撮像し、
前記補正係数算出部は、撮像された前記誘導経路の画像の各画素の各色成分の各輝度と、前記誘導経路抽出部が決定した前記誘導経路の画像の各画素の各色成分の各輝度とに基づいて前記誘導経路の画像の各画素の各色成分の補正係数を算出し、
前記補正処理部は、前記補正係数を用いて決定された前記誘導経路の画像の各画素の各色成分の各輝度を補正し、
前記投影部は、補正された前記誘導経路の画像を投影する
ことを特徴とする請求項1に記載の無人飛行体。
A correction coefficient calculator,
A correction processing unit,
The first imaging unit captures an image of the guidance route projected on the road surface,
The correction coefficient calculation unit is configured to calculate each luminance of each color component of each pixel of the captured guidance route image and each luminance of each color component of each pixel of the guidance route image determined by the guidance route extraction unit. Calculating a correction coefficient for each color component of each pixel of the image of the guidance route based on the
The correction processing unit corrects each luminance of each color component of each pixel of the image of the guidance route determined using the correction coefficient,
The unmanned aerial vehicle according to claim 1, wherein the projection unit projects the corrected image of the guidance route.
前記自機の上方を撮像する第2撮像部と、
予め撮像された前記自機の上方の画像を位置情報と関連付けて記憶している上方画像記憶部と、をさらに備え、
前記自機位置検出部は、
前記第2撮像部によって撮像された現在の前記自機の上方の画像と、前記上方画像記憶部に記憶されている前記自機の前記上方の画像とを照合する照合部と、
前記照合部が照合した結果に基づいて前記自機の位置を特定する自機位置特定部と、を有する
ことを特徴とする請求項1または2に記載の無人飛行体。
A second imaging unit for imaging an upper part of the own device,
An upper image storage unit that stores an image of the own device captured in advance in association with position information, and an upper image storage unit,
The own device position detection unit,
A current image captured by the second imaging unit and a collation unit configured to collate the upper image of the own device stored in the upper image storage unit,
The unmanned aerial vehicle according to claim 1, further comprising: an own-device position specifying unit configured to specify a position of the own device based on a result of the comparison performed by the comparing unit.
天井に天井マーカが設けられた屋内において、前記誘導経路の画像を投影する請求項3に記載の無人飛行体であって、
前記上方画像記憶部は、予め撮像された前記天井マーカを含む前記天井の画像を位置情報と関連付けて記憶しており、
前記照合部は、前記第2撮像部によって撮像された前記天井の画像と、前記上方画像記憶部に記憶されている前記天井の画像とを照合する
ことを特徴とする無人飛行体。
The unmanned aerial vehicle according to claim 3, wherein an image of the guidance route is projected in an indoor space provided with a ceiling marker on a ceiling,
The upper image storage unit stores an image of the ceiling including the ceiling marker captured in advance in association with position information,
The unmanned aerial vehicle, wherein the matching unit matches an image of the ceiling captured by the second imaging unit with an image of the ceiling stored in the upper image storage unit.
前記天井マーカに赤外線を照射する赤外線照射部をさらに備え、
前記天井マーカは、再帰性反射材であり、
前記第2撮像部は、赤外線カメラであり、前記赤外線で照射された前記天井マーカを含む前記天井の画像を撮像する
ことを特徴とする請求項4に記載の無人飛行体。
Further comprising an infrared irradiator that irradiates the ceiling marker with infrared light,
The ceiling marker is a retroreflective material,
The unmanned aerial vehicle according to claim 4, wherein the second imaging unit is an infrared camera, and captures an image of the ceiling including the ceiling marker irradiated with the infrared light.
請求項1〜5のいずれか1項に記載の無人飛行体と、
第3撮像部と、誘導経路検出部と、ステアリング制御部と、を備える前記無人搬送車と、を含み、
前記第3撮像部は、前記投影部によって前記路面に投影された前記誘導経路を含む前記路面の範囲を撮像し、
前記誘導経路検出部は、前記第3撮像部によって撮像された前記路面の画像に基づいて前記誘導経路を検出し、
前記ステアリング制御部は、検出された前記誘導経路に基づいて、ステアリング制御する
ことを特徴とする無人搬送システム。
An unmanned aerial vehicle according to any one of claims 1 to 5,
Including the automatic guided vehicle including a third imaging unit, a guidance route detection unit, and a steering control unit,
The third imaging unit captures an image of a range of the road surface including the guidance route projected on the road surface by the projection unit,
The guidance route detection unit detects the guidance route based on an image of the road surface captured by the third imaging unit,
The unmanned transport system, wherein the steering control unit performs steering control based on the detected guidance route.
JP2019142699A 2019-08-02 2019-08-02 Automated guided vehicle and automated guided vehicle Active JP6877071B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019142699A JP6877071B2 (en) 2019-08-02 2019-08-02 Automated guided vehicle and automated guided vehicle

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019142699A JP6877071B2 (en) 2019-08-02 2019-08-02 Automated guided vehicle and automated guided vehicle

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2018136358A Division JP6618087B1 (en) 2018-07-20 2018-07-20 Unmanned air vehicle and unmanned transport system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2021030698A Division JP7078343B2 (en) 2021-02-26 2021-02-26 Automated guided vehicles and automated guided vehicles

Publications (2)

Publication Number Publication Date
JP2020013582A true JP2020013582A (en) 2020-01-23
JP6877071B2 JP6877071B2 (en) 2021-05-26

Family

ID=69169690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019142699A Active JP6877071B2 (en) 2019-08-02 2019-08-02 Automated guided vehicle and automated guided vehicle

Country Status (1)

Country Link
JP (1) JP6877071B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022145105A1 (en) * 2021-01-04 2022-07-07 株式会社日立製作所 Personal navigation system and personal navigation method
CN114936174A (en) * 2022-06-09 2022-08-23 中国兵器工业计算机应用技术研究所 Image processing and fusion computing method based on ground unmanned platform

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0390309U (en) * 1989-12-28 1991-09-13
WO2005015466A1 (en) * 2003-08-07 2005-02-17 Matsushita Electric Industrial Co., Ltd. Life assisting system and its control program
JP2005052961A (en) * 2003-08-01 2005-03-03 Samsung Electronics Co Ltd Robot system and its controlling method
JP2017076084A (en) * 2015-10-16 2017-04-20 株式会社プロドローン Information transmission device
JP2018084955A (en) * 2016-11-24 2018-05-31 株式会社小糸製作所 Unmanned aircraft
US20180173222A1 (en) * 2016-12-21 2018-06-21 Primax Electronics Ltd. Automatic driving assistant system and method thereof

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0390309U (en) * 1989-12-28 1991-09-13
JP2005052961A (en) * 2003-08-01 2005-03-03 Samsung Electronics Co Ltd Robot system and its controlling method
WO2005015466A1 (en) * 2003-08-07 2005-02-17 Matsushita Electric Industrial Co., Ltd. Life assisting system and its control program
JP2017076084A (en) * 2015-10-16 2017-04-20 株式会社プロドローン Information transmission device
JP2018084955A (en) * 2016-11-24 2018-05-31 株式会社小糸製作所 Unmanned aircraft
US20180173222A1 (en) * 2016-12-21 2018-06-21 Primax Electronics Ltd. Automatic driving assistant system and method thereof

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022145105A1 (en) * 2021-01-04 2022-07-07 株式会社日立製作所 Personal navigation system and personal navigation method
CN114936174A (en) * 2022-06-09 2022-08-23 中国兵器工业计算机应用技术研究所 Image processing and fusion computing method based on ground unmanned platform
CN114936174B (en) * 2022-06-09 2024-01-30 中国兵器工业计算机应用技术研究所 Image processing and fusion computing method based on ground unmanned platform

Also Published As

Publication number Publication date
JP6877071B2 (en) 2021-05-26

Similar Documents

Publication Publication Date Title
JP6707600B2 (en) Transport system
Kwon et al. Robust autonomous navigation of unmanned aerial vehicles (UAVs) for warehouses’ inventory application
KR101776823B1 (en) A mobile robot localization method and system via indoor surveillance cameras
JP5126069B2 (en) Parking assistance device, parking assistance device component, parking assistance method, parking assistance program, vehicle travel parameter calculation method and calculation program, vehicle travel parameter calculation device, and vehicle travel parameter calculation device component
WO2018035482A1 (en) Robotic drone
CN107807652A (en) Merchandising machine people, the method for it and controller and computer-readable medium
US20190197908A1 (en) Methods and systems for improving the precision of autonomous landings by drone aircraft on landing targets
US20170108874A1 (en) Vision-based system for navigating a robot through an indoor space
JP6877071B2 (en) Automated guided vehicle and automated guided vehicle
KR101305401B1 (en) Night-Driving Guidance System and Method for Auto-Driving Vehicle using Infrared Line Laser
JP6618087B1 (en) Unmanned air vehicle and unmanned transport system
JP2009251922A (en) Automated guided vehicle and automated guided vehicle operation system
US20210101747A1 (en) Positioning apparatus capable of measuring position of moving body using image capturing apparatus
JP6684531B2 (en) Unmanned transport system
JP7078343B2 (en) Automated guided vehicles and automated guided vehicles
US11816863B2 (en) Method and device for assisting the driving of an aircraft moving on the ground
JP6532096B1 (en) Unmanned carrier system using unmanned air vehicle
JP6684532B2 (en) Unmanned carrier system using unmanned air vehicle
US11087492B2 (en) Methods for identifying location of automated guided vehicles on a mapped substrate
Sarwade et al. Line following robot using image processing
JP6669418B2 (en) Unmanned transport system using unmanned aerial vehicle
JP2019021156A (en) Automatic carrier device
JP6593940B1 (en) Unmanned transport system using unmanned air vehicle
Eda et al. Development of autonomous mobile robot “MML-05” based on i-Cart mini for Tsukuba challenge 2015
US20210397197A1 (en) Method for navigating a movable device along an inclined surface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190802

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200916

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201027

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20210210

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210226

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20210226

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20210308

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20210310

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210331

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210422

R150 Certificate of patent or registration of utility model

Ref document number: 6877071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150