JP2020046835A - Unmanned conveyance system - Google Patents

Unmanned conveyance system Download PDF

Info

Publication number
JP2020046835A
JP2020046835A JP2018173802A JP2018173802A JP2020046835A JP 2020046835 A JP2020046835 A JP 2020046835A JP 2018173802 A JP2018173802 A JP 2018173802A JP 2018173802 A JP2018173802 A JP 2018173802A JP 2020046835 A JP2020046835 A JP 2020046835A
Authority
JP
Japan
Prior art keywords
unit
image
guidance
projection
road surface
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018173802A
Other languages
Japanese (ja)
Other versions
JP6684534B2 (en
Inventor
絢介 甲斐
Kensuke Kai
絢介 甲斐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2018173802A priority Critical patent/JP6684534B2/en
Publication of JP2020046835A publication Critical patent/JP2020046835A/en
Application granted granted Critical
Publication of JP6684534B2 publication Critical patent/JP6684534B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide an unmanned conveyance system which does not need to lay a guidance line.SOLUTION: The automatic guided vehicle system S includes an unmanned carrier 3, an image storage unit 4 which stores a guidance image G including a guidance line for guiding the unmanned carrier 3, and a projector 2 which is installed on a ceiling C and projects the guidance image G on a road surface. The unmanned carrier 3 includes an on-vehicle camera 32 which captures an image of the road surface R, a guidance line detection unit 36 which analyzes the image of the road surface R captured by the on-vehicle camera 32 and detects a guidance line in the guidance image G, and a steering control unit 35 which performs steering control based on the guidance line detected by the detection unit 36.SELECTED DRAWING: Figure 1

Description

本発明は、無人搬送車を備えた無人搬送システムに関する。   The present invention relates to an unmanned transport system provided with an unmanned transport vehicle.

工場や倉庫では、搬送作業において自律走行可能な無人搬送車が利用されている。この種の無人搬送車には、多種の誘導方式が利用されている。例えば、特許文献1に開示の無人搬送車は、誘導ラインに沿って走行する誘導方式が用いられている。具体的には、この無人搬送車は、撮像部を備えており、撮像部を使用して路面に敷設された誘導ラインを撮像し、撮像された誘導ラインの位置に基づいて誘導ライン上を走行する。   In factories and warehouses, unmanned transport vehicles that can travel autonomously in transport operations are used. Various types of guidance systems are used in this type of automatic guided vehicle. For example, the automatic guided vehicle disclosed in Patent Literature 1 uses a guidance system that travels along a guidance line. Specifically, this automatic guided vehicle is provided with an imaging unit, uses the imaging unit to image a guide line laid on the road surface, and travels on the guide line based on the position of the imaged guide line. I do.

上記誘導ラインは、路面に貼付されたテープや路面に塗布された塗料などからなり、路面とは明確に異なる色彩が着色されている。しかしながら、このような誘導ラインは、路面に敷設されていることから、汚れの付着や剥がれが発生しやすい。そのため、無人搬送車は、このような誘導ラインの汚れの付着および剥がれによって、誘導ラインを認識できず、走行を停止するという問題があった。   The guide line is made of a tape affixed to the road surface, a paint applied to the road surface, or the like, and is colored differently from the road surface. However, since such a guide line is laid on a road surface, it is easy for dirt to adhere or peel off. Therefore, there is a problem that the automatic guided vehicle cannot recognize the guide line due to the adhesion and peeling of the guide line, and stops traveling.

そこで、例えば、汚れの付着や剥がれの影響を受けにくい電磁誘導による無人搬送車の誘導方式がある(特許文献2参照)。この誘導方式によると、無人搬送車は、走行ルートに沿って床に敷設されたトウパスワイヤの誘起磁界を車体に設けられたピックアップコイルによって検出し、検出された誘起磁界に基づいてステアリングモータを制御することにより、走行ルートに沿って移動する。   Therefore, for example, there is an automatic guided vehicle guidance system using electromagnetic induction that is not easily affected by the attachment or peeling of dirt (see Patent Document 2). According to this guidance system, the automatic guided vehicle detects the induced magnetic field of the tow path wire laid on the floor along the traveling route by a pickup coil provided on the vehicle body, and controls the steering motor based on the detected induced magnetic field. Thereby, it moves along the traveling route.

しかしながら、トウパスワイヤを床に敷設することは、面倒である。また、この誘導方式では、工場や倉庫内のレイアウト変更のたびに、トウパスワイヤを改めて床に敷設しなければならないという問題があった。   However, laying the tow path wire on the floor is cumbersome. In addition, this guidance method has a problem that a tow path wire must be newly laid on the floor each time a layout in a factory or warehouse is changed.

特開平7−210246号公報JP-A-7-210246 特開平6−119036号公報JP-A-6-119036

そこで、本発明が解決しようとする課題は、誘導ラインを敷設する必要がない無人搬送システムを提供することにある。   Therefore, an object of the present invention is to provide an unmanned transport system that does not need to lay a guide line.

上記課題を解決するために、本発明に係る無人搬送システムは、
無人搬送車と、
無人搬送車を誘導する誘導ラインを含む誘導画像を記憶している画像記憶部と、
天井または壁の上部に設置されており、誘導画像を路面に投影する投影部と、を備え、
無人搬送車は、
路面を撮像する第1撮像部と、
第1撮像部によって撮像された路面の画像を解析し、誘導画像中の誘導ラインを検出する誘導ライン検出部と、
誘導ライン検出部によって検出された誘導ラインに基づいて、ステアリング制御するステアリング制御部と、を備える。
In order to solve the above-described problems, an unmanned transport system according to the present invention includes:
Automatic guided vehicles,
An image storage unit that stores a guidance image including a guidance line that guides the automatic guided vehicle,
A projection unit that is installed above a ceiling or a wall and projects a guidance image onto a road surface,
Automated guided vehicles are
A first imaging unit for imaging a road surface;
A guide line detecting unit that analyzes a road surface image captured by the first image capturing unit and detects a guide line in the guide image;
A steering control unit that performs steering control based on the guidance line detected by the guidance line detection unit.

上記無人搬送システムは、好ましくは、
投影部が投影する方向を撮像する第2撮像部と、
第2撮像部が撮像した画像に基づいて、所定の領域に無人搬送車が存在するか否かを判定する車存在判定部と、
車存在判定部の判定結果に基づいて、投影部の投影状態と非投影状態とを切り替える投影制御部と、をさらに備える。
The unmanned transport system is preferably
A second imaging unit for imaging the direction projected by the projection unit,
A vehicle presence determination unit that determines whether an unmanned guided vehicle is present in a predetermined area based on an image captured by the second imaging unit;
A projection control unit that switches between a projection state and a non-projection state of the projection unit based on a determination result of the vehicle presence determination unit.

上記無人搬送システムは、好ましくは、
投影部が投影する方向を撮像する第3撮像部と、
第3撮像部が撮像した画像に基づいて、投影部の投影先にいる人の顔の向きが投影部の方向を向いているか否かを判定する顔方向判定部と、
顔方向判定部によって、人の顔が投影部の方向を向いていると判定された場合、第3撮像部が撮像した画像に基づいて、投影部が投影する誘導画像のうちのいずれの部分が人の顔に投影されるのかを特定する部分特定部と、
部分特定部が特定した誘導画像の部分の輝度を下げる輝度低下部と、をさらに備える。
The unmanned transport system is preferably
A third imaging unit for imaging the direction projected by the projection unit,
A face direction determination unit that determines whether the direction of the face of a person at the projection destination of the projection unit is facing the direction of the projection unit based on the image captured by the third imaging unit;
When the face direction determination unit determines that the person's face is facing the direction of the projection unit, any part of the guidance image projected by the projection unit is determined based on the image captured by the third imaging unit. A part specifying unit that specifies whether the image is projected on a human face,
A brightness reduction unit that reduces the brightness of the part of the guidance image specified by the part specification unit.

上記無人搬送システムは、好ましくは、
路面に投影された誘導画像を撮像する第4撮像部と、
第4撮像部が撮像した画像に基づいて、誘導画像を補正する画像補正部と、をさらに備える。
The unmanned transport system is preferably
A fourth imaging unit that captures a guidance image projected on a road surface,
An image correction unit that corrects the guidance image based on the image captured by the fourth imaging unit.

画像補正部は、好ましくは、
第4撮像部によって撮像された誘導画像の各画素の各色成分の各輝度と、画像記憶部に記憶されている誘導画像の各画素の各色成分の各輝度とに基づいて、誘導画像の各画素の各色成分の補正係数を算出する補正係数算出部と、
補正係数を用いて誘導画像の各画素の各色成分の各輝度を補正する補正処理部と、を有する。
The image correction unit is preferably
Based on each luminance of each color component of each pixel of the guidance image captured by the fourth imaging unit and each luminance of each color component of each pixel of the guidance image stored in the image storage unit, each pixel of the guidance image A correction coefficient calculation unit that calculates a correction coefficient of each color component of
A correction processing unit that corrects each luminance of each color component of each pixel of the guide image using the correction coefficient.

本発明に係る無人搬送システムによれば、誘導ラインを敷設する必要がない無人搬送システムを提供することができる。   ADVANTAGE OF THE INVENTION According to the unmanned transport system which concerns on this invention, an unmanned transport system which does not need to lay a guidance line can be provided.

本発明の第1の実施形態に係る無人搬送システムの概要図である。FIG. 1 is a schematic diagram of an unmanned transport system according to a first embodiment of the present invention. 路面に投影された誘導画像を示す上面図である。It is a top view which shows the guidance image projected on the road surface. 図1の無人搬送車が備える各構成の機能ブロック図である。It is a functional block diagram of each composition with which the automatic guided vehicle of FIG. 1 is provided. 図1の無人搬送車と、誘導画像が投影された路面とを示す上面図である。FIG. 2 is a top view illustrating the automatic guided vehicle of FIG. 1 and a road surface on which a guidance image is projected. 図1の制御部の機能ブロック図である。FIG. 2 is a functional block diagram of a control unit in FIG. 1. 本発明の第2の実施形態に係る無人搬送システムの概要図である。It is an outline figure of an unmanned conveyance system concerning a 2nd embodiment of the present invention. 図6の制御部の機能ブロック図である。FIG. 7 is a functional block diagram of a control unit in FIG. 6.

<第1の実施形態>
添付図面を参照しつつ、本発明に係る無人搬送システムの第1の実施形態について説明する。前後、左右および上下の方向X、Y、Zは、添付図面に記載のとおり、無人搬送車の走行方向を基準にしている。
<First embodiment>
A first embodiment of an unmanned transport system according to the present invention will be described with reference to the accompanying drawings. The directions X, Y, and Z in the front-rear direction, the left-right direction, and the up-down direction are based on the traveling direction of the automatic guided vehicle as shown in the accompanying drawings.

図1は、無人搬送システムSの概要図である。この無人搬送システムSでは、制御部1がプロジェクタ2を制御して、誘導画像Gを路面Rに投影させる。無人搬送車3は、無人フォークリフトであって、プロジェクタ2が投影した誘導画像G中の誘導ラインLに沿って誘導されることにより、予め定められた走行経路を走行する。   FIG. 1 is a schematic diagram of the unmanned transport system S. In the unmanned transport system S, the control unit 1 controls the projector 2 to project the guidance image G on the road surface R. The automatic guided vehicle 3 is an unmanned forklift, and travels on a predetermined traveling route by being guided along a guidance line L in a guidance image G projected by the projector 2.

無人搬送システムSは、制御部1と、プロジェクタ2と、無人搬送車3と、画像記憶部4と、を備える。   The unmanned transport system S includes a control unit 1, a projector 2, an unmanned transport vehicle 3, and an image storage unit 4.

画像記憶部4は、無人搬送車3を誘導する誘導画像Gを記憶している。   The image storage unit 4 stores a guidance image G for guiding the automatic guided vehicle 3.

制御部1は、有線または無線による通信により、画像記憶部4に記憶されている誘導画像Gをプロジェクタ2に出力する。   The control unit 1 outputs the guidance image G stored in the image storage unit 4 to the projector 2 by wired or wireless communication.

プロジェクタ2は、路面Rを向くように天井Cに設置されており、入力された誘導画像Gを路面Rに投影する。プロジェクタ2は、本発明の「投影部」に相当する。   The projector 2 is installed on the ceiling C so as to face the road surface R, and projects the input guidance image G on the road surface R. The projector 2 corresponds to the “projection unit” of the present invention.

図2(a)に示すように、誘導画像Gは、一定の幅を有する誘導ラインLが中央に配置されており、誘導ラインLの向きが無人搬送車3を誘導する方向を指している。また、誘導ラインLの色は、その両側部分に比して明度・彩度が明らかに異なる。この誘導画像Gは、単なる一例であってこれに限定されない。例えば、路面Rと明らかに異なる色の誘導ラインLのみを誘導画像Gとしてもよい。   As shown in FIG. 2A, in the guidance image G, a guidance line L having a certain width is arranged at the center, and the direction of the guidance line L indicates the direction in which the automatic guided vehicle 3 is guided. Further, the color of the guide line L is clearly different in lightness and saturation as compared with the two sides. The guidance image G is merely an example and is not limited to this. For example, only the guide line L of a color that is clearly different from the road surface R may be used as the guide image G.

<無人搬送車3>
図1および図3に示すように、無人搬送車3は、車体31と、車載カメラ32と、左右一対の前輪と、左右一対の後輪と、前輪および後輪のいずれか一方または両方をステアリング制御するステアリング制御部35と、誘導ライン検出部36と、フォーク37と、マスト38と、を備える。
<Automated guided vehicle 3>
As shown in FIGS. 1 and 3, the automatic guided vehicle 3 includes a vehicle body 31, a vehicle-mounted camera 32, a pair of left and right front wheels, a pair of left and right rear wheels, and one or both of a front wheel and a rear wheel. The vehicle includes a steering control unit 35 that controls the vehicle, a guidance line detection unit 36, a fork 37, and a mast 38.

車体31の前面の一部は、透過部材で構成されている。車載カメラ32は、車体31内の前側の上側かつ中央の位置に、透過部材を通して路面Rを向くように設けられている。車載カメラ32の位置は、単なる一例であってこれに限定されない。   A part of the front surface of the vehicle body 31 is formed of a transparent member. The in-vehicle camera 32 is provided at a front upper side and a central position in the vehicle body 31 so as to face the road surface R through a transmission member. The position of the vehicle-mounted camera 32 is merely an example, and is not limited to this.

図4に示すように、車載カメラ32は、誘導画像Gを含む路面Rの所定の撮像範囲Tを撮像して路面画像を生成し、誘導ライン検出部36に出力する。車載カメラ32は、本発明の「第1撮像部」に相当する。   As shown in FIG. 4, the vehicle-mounted camera 32 captures a predetermined imaging range T of the road surface R including the guidance image G, generates a road surface image, and outputs the road surface image to the guidance line detection unit 36. The in-vehicle camera 32 corresponds to the “first imaging unit” of the present invention.

誘導ライン検出部36は、入力された路面画像を彩度・明度に基づいて解析し、誘導画像中の誘導ラインLを検出する。   The guidance line detection unit 36 analyzes the input road surface image based on the saturation and brightness, and detects a guidance line L in the guidance image.

ステアリング制御部35は、誘導ライン検出部36によって検出された誘導ラインLに基づいて、前輪33および後輪34のいずれか一方または両方をステアリング制御する。具体的には、ステアリング制御部35は、誘導ラインLの位置が撮像範囲Tの中央にくるように車輪33、34の操舵角をフィードバック制御する。これにより、無人搬送車3は、プロジェクタ2が投影した誘導画像Gに沿って誘導され、予め定められた走行経路を走行することができる。   The steering control unit 35 controls the steering of one or both of the front wheel 33 and the rear wheel 34 based on the guidance line L detected by the guidance line detection unit 36. Specifically, the steering control unit 35 performs feedback control of the steering angles of the wheels 33 and 34 so that the position of the guide line L is located at the center of the imaging range T. Thereby, the automatic guided vehicle 3 is guided along the guidance image G projected by the projector 2 and can travel on a predetermined traveling route.

ところで、図2(b)に示すように、路面Rは、使用状態により汚れや剥がれが発生している場合があり、この場合、部分Aのように誘導画像Gの一部が適切に表示されない。そこで、制御部1は、路面Rに投影された誘導画像Gを解析し、このような路面Rに対応するように誘導画像Gを補正する。以下、具体的に説明する。   By the way, as shown in FIG. 2B, the road surface R may be stained or peeled off depending on the use condition, and in this case, a part of the guidance image G like the part A is not appropriately displayed. . Therefore, the control unit 1 analyzes the guidance image G projected on the road surface R, and corrects the guidance image G so as to correspond to such a road surface R. Hereinafter, a specific description will be given.

図1に示すように、無人搬送システムSは、下カメラ5をさらに備える。下カメラ5は、下方を向き、プロジェクタ2に隣接して天井Cに設置されている。下カメラ5は、下方を撮像して下方画像を生成して制御部1に出力する。下カメラ5は、本発明の「第4撮像部」に相当する。   As shown in FIG. 1, the unmanned transport system S further includes a lower camera 5. The lower camera 5 faces downward and is installed on the ceiling C adjacent to the projector 2. The lower camera 5 captures an image of the lower side, generates a lower image, and outputs the lower image to the controller 1. The lower camera 5 corresponds to the “fourth imaging unit” of the present invention.

図5に示すように、制御部1は、画像補正部11を有する。画像補正部11は、補正係数算出部111と、補正処理部112とを有する。画像記憶部4に記憶されている誘導画像Gは、補正処理部112を介して補正係数算出部111およびプロジェクタ2に出力される。プロジェクタ2は、入力された誘導画像Gを路面Rに投影する。下カメラ5は、投影された誘導画像Gを撮像し、路面画像を生成して補正係数算出部111に出力する。   As shown in FIG. 5, the control unit 1 has an image correction unit 11. The image correction unit 11 includes a correction coefficient calculation unit 111 and a correction processing unit 112. The guidance image G stored in the image storage unit 4 is output to the correction coefficient calculation unit 111 and the projector 2 via the correction processing unit 112. The projector 2 projects the input guidance image G on the road surface R. The lower camera 5 captures the projected guidance image G, generates a road surface image, and outputs the road surface image to the correction coefficient calculation unit 111.

補正係数算出部111は、誘導画像Gの各画素の各輝度を色成分ごとに正規化して入力データD1を生成するとともに、下カメラ5から出力された路面画像の各画素の各輝度を各色成分ごとに正規化して出力データD2を生成する。次いで、補正係数算出部111は、入力データD1と出力データD2とを照合し、出力データD2の各画素間の輝度比を入力データD1に適合させるための各画素の各色成分の補正係数を算出し、算出した補正係数を補正処理部112に出力する。   The correction coefficient calculation unit 111 normalizes each luminance of each pixel of the guidance image G for each color component to generate input data D1, and also calculates each luminance of each pixel of the road surface image output from the lower camera 5 to each color component. The output data D2 is generated by normalizing the data. Next, the correction coefficient calculation unit 111 collates the input data D1 and the output data D2, and calculates a correction coefficient of each color component of each pixel for adjusting the luminance ratio between each pixel of the output data D2 to the input data D1. Then, the calculated correction coefficient is output to the correction processing unit 112.

補正処理部112は、算出された各画素の各色成分の補正係数を使用して、投影する誘導画像G1の各画素の各色成分の輝度を補正し誘導画像G2を生成する。次いで、補正処理部112は、生成した誘導画像G2をプロジェクタ2に出力するとともに、補正係数算出部111に出力する。プロジェクタ2は、入力された誘導画像G2を路面Rに投影する。下カメラ5は、投影された誘導画像G2を撮像し、路面画像を生成して補正係数算出部111に出力する。補正係数算出部111は、先程と同様に誘導画像G2に対応する補正係数を算出する。   The correction processing unit 112 uses the calculated correction coefficient of each color component of each pixel to correct the luminance of each color component of each pixel of the projection image G1 to be projected, and generates a guidance image G2. Next, the correction processing unit 112 outputs the generated guidance image G2 to the projector 2 and outputs the generated guidance image G2 to the correction coefficient calculation unit 111. The projector 2 projects the input guidance image G2 on the road surface R. The lower camera 5 captures the projected guidance image G2, generates a road surface image, and outputs the road surface image to the correction coefficient calculation unit 111. The correction coefficient calculation unit 111 calculates the correction coefficient corresponding to the guidance image G2 as described above.

図2(c)に示すように、この工程が繰り返されることにより、最終的に投影された誘導画像Gは、単色のスクリーンに投影された画像のように表示される。このように、プロジェクタ2が投影する誘導画像Gは、補正処理部112によって随時補正されるので、投影面である路面Rが部分的に汚れようと適切に誘導画像Gを表示することができる。このため、無人搬送車3は、誘導画像G中の誘導ラインLを適切に検出し、誘導ラインLに沿って走行することができる。   As shown in FIG. 2 (c), by repeating this process, the finally projected guidance image G is displayed like an image projected on a monochrome screen. As described above, since the guide image G projected by the projector 2 is corrected as needed by the correction processing unit 112, the guide image G can be appropriately displayed so that the road surface R as the projection surface is partially stained. For this reason, the automatic guided vehicle 3 can appropriately detect the guide line L in the guide image G and travel along the guide line L.

<第2の実施形態>
次に図6および図7を参照しつつ、本発明の第2の実施形態について説明する。図6は、本発明の第2の実施形態に係る無人搬送システムSの概要図である。第2の実施形態に係る無人搬送システムSは、第1の実施形態に係る無人搬送システムSに対して、制御部1の一部構成のみが異なっており、他の構成については共通する。したがって、重複する構成要素については、その詳細な説明を省略する。
<Second embodiment>
Next, a second embodiment of the present invention will be described with reference to FIGS. FIG. 6 is a schematic diagram of an unmanned transport system S according to the second embodiment of the present invention. The unmanned transport system S according to the second embodiment differs from the unmanned transport system S according to the first embodiment only in a part of the configuration of the control unit 1, and is common in other configurations. Therefore, a detailed description of the overlapping components will be omitted.

図7に示すように、制御部1は、顔方向判定部12と、部分特定部13と、をさらに備える。   As illustrated in FIG. 7, the control unit 1 further includes a face direction determination unit 12 and a part identification unit 13.

下カメラ5は、プロジェクタ2の下方を撮像して下方画像を生成し、顔方向判定部12および車存在判定部15に出力する。この下カメラ5は、本発明の「第2撮像部」および「第3撮像部」に相当する。   The lower camera 5 captures an image below the projector 2 to generate a lower image, and outputs the lower image to the face direction determination unit 12 and the vehicle presence determination unit 15. The lower camera 5 corresponds to the “second imaging unit” and the “third imaging unit” of the present invention.

顔方向判定部12は、下方画像に基づいて、下方に存在する人Hの顔の向きがプロジェクタ2の方向Pを向いているか否かを判定する。具体的には、顔方向判定部12は、まず、下方画像から目、鼻、口といった人Hの顔の特徴部分を検出することにより、人Hの顔を認識するとともに、人Hの顔の向きを推定する。次いで、顔方向判定部12は、推定した顔の向きがプロジェクタ2の方向Pを向いているか否かを判定する。   The face direction determination unit 12 determines whether or not the face of the person H present below faces the direction P of the projector 2 based on the lower image. Specifically, the face direction determination unit 12 first recognizes the face of the person H by detecting characteristic portions of the face of the person H such as the eyes, the nose, and the mouth from the lower image. Estimate the orientation. Next, the face direction determination unit 12 determines whether or not the estimated face direction is in the direction P of the projector 2.

部分特定部13は、顔方向判定部12によって人Hの顔がプロジェクタ2の方向Pを向いていると判定された場合、プロジェクタ2が撮像した下方画像に基づいて、プロジェクタ2が投影する誘導画像Gのうちのいずれの部分が人Hの顔に投影されるのかを特定し、その特定した部分の位置を輝度低下部14に出力する。   When the face direction determining unit 12 determines that the face of the person H is facing the direction P of the projector 2, the partial identifying unit 13 guides the guided image projected by the projector 2 based on the lower image captured by the projector 2. It specifies which part of G is projected on the face of person H, and outputs the position of the specified part to brightness reduction unit 14.

輝度低下部14は、部分特定部13から入力された位置に基づいて、誘導画像Gのうちの人Hに投影される部分の輝度を人Hの目の健康を害さないレベルにまで低下させる。輝度低下部14は、部分的に輝度を低下させた誘導画像Gをプロジェクタ2に出力する。プロジェクタ2は、入力された誘導画像Gを路面Rに投影する。これにより、無人搬送システムSは、屋内にいる人Hが天井Cの方向を確認しなければならない場合に、屋内にいる人Hがプロジェクタ2の投影光を連続して直視することを防止することができる。   The brightness reduction unit 14 reduces the brightness of the portion of the guidance image G projected on the person H to a level that does not impair the eye health of the person H, based on the position input from the portion identification unit 13. The brightness lowering unit 14 outputs to the projector 2 the guidance image G in which the brightness has been partially reduced. The projector 2 projects the input guidance image G on the road surface R. Thereby, the unmanned transport system S prevents the person H indoors from directly viewing the projection light of the projector 2 continuously when the person H indoors has to check the direction of the ceiling C. Can be.

制御部1は、車存在判定部15と、投影制御部16と、をさらに有する。車存在判定部15は、下方画像に基づいて、所定の領域に無人搬送車3が存在するか否かを判定する。この所定の領域は、プロジェクタ2によって路面Rに投影された誘導画像Gの周囲を含む領域である。   The control unit 1 further includes a vehicle presence determination unit 15 and a projection control unit 16. The vehicle presence determination unit 15 determines whether or not the automatic guided vehicle 3 exists in a predetermined area based on the lower image. This predetermined area is an area including the periphery of the guidance image G projected on the road surface R by the projector 2.

投影制御部16は、車存在判定部15によって、所定の領域に無人搬送車3が存在しないと判定された場合には、プロジェクタ2の投影を停止させ、所定の領域に無人搬送車3が存在すると判定された場合には、プロジェクタ2の投影を再開させる。このため、無人搬送システムSは、投影範囲内に無人搬送車3がいない場合には、プロジェクタ2による投影がなされないことによる省電力化を図ることができる。   When the vehicle presence determining unit 15 determines that the automatic guided vehicle 3 does not exist in the predetermined area, the projection control unit 16 stops the projection of the projector 2 and the automatic guided vehicle 3 exists in the predetermined area. If so, the projector 2 restarts the projection. Therefore, when the automatic guided vehicle 3 is not within the projection range, the unmanned transport system S can save power by not projecting by the projector 2.

以上、本発明の好ましい実施形態について説明したが、本発明は上記実施形態に限定されるものではない。   The preferred embodiment of the present invention has been described above, but the present invention is not limited to the above embodiment.

(1)プロジェクタ2は、屋内に設置された複数のプロジェクタ2から構成されてもよい。この場合、複数のプロジェクタ2によって複数の誘導画像Gを同時に投影することにより、複数の無人搬送車3を同時に誘導してもよい。また、複数のプロジェクタ2によって同時に複数の誘導画像Gを投影することにより、広範囲の誘導画像Gを路面Rに表示させてもよい。   (1) The projector 2 may be composed of a plurality of projectors 2 installed indoors. In this case, the plurality of guided images G may be simultaneously projected by the plurality of projectors 2 to simultaneously guide the plurality of automatic guided vehicles 3. Further, a plurality of guidance images G may be simultaneously projected by the plurality of projectors 2 to display a wide range of guidance images G on the road surface R.

(2)下カメラ5は、例えば、路面Rを撮像して路面R画像を生成するカメラと、プロジェクタ2の投影方向を撮像して無人搬送車3および人Hの画像を生成するカメラと、によって構成されてもよい。この場合、無人搬送車3および人Hの画像を生成するカメラは、人Hの顔の向きおよび所定の領域に無人搬送車3が存在するか否かを確認するための画像を生成することができるのであれば、プロジェクタ2に隣接して設置されなくてもよく、例えば、壁の上部に設置されてもよい。   (2) The lower camera 5 includes, for example, a camera that captures the road surface R to generate a road surface R image and a camera that captures an image of the projection direction of the projector 2 to generate images of the automatic guided vehicle 3 and the person H. It may be configured. In this case, the camera that generates the images of the automatic guided vehicle 3 and the person H may generate an image for confirming the direction of the face of the human H and whether or not the automatic guided vehicle 3 exists in a predetermined area. If possible, it may not be installed adjacent to the projector 2, and may be installed, for example, on the upper part of a wall.

(3)プロジェクタ2は、壁の上部に設けられていてもよい。   (3) The projector 2 may be provided above a wall.

1 制御部
11 画像補正部
111 補正係数算出部
112 補正処理部
12 顔方向判定部
13 部分特定部
14 輝度低下部
15 車存在判定部
16 投影制御部
2 プロジェクタ(投影部)
3 無人搬送車
31 車体
32 車載カメラ(第1撮像部)
33 前輪
34 後輪
35 ステアリング制御部
36 誘導ライン検出部
4 画像記憶部
5 下カメラ(第2〜第4撮像部)
S 無人搬送システム
L 誘導ライン
G 誘導画像
C 天井
R 路面
G 誘導画像
T 撮像範囲
H 人
REFERENCE SIGNS LIST 1 control unit 11 image correction unit 111 correction coefficient calculation unit 112 correction processing unit 12 face direction determination unit 13 partial specification unit 14 brightness reduction unit 15 car presence determination unit 16 projection control unit 2 projector (projection unit)
3 Automated guided vehicle 31 Body 32 On-board camera (first imaging unit)
33 front wheel 34 rear wheel 35 steering control unit 36 guidance line detection unit 4 image storage unit 5 lower camera (second to fourth imaging units)
S Unmanned transport system L Guidance line G Guidance image C Ceiling R Road surface G Guidance image T Imaging range H Person

上記課題を解決するために、本発明に係る無人搬送システムは、
無人搬送車と、
無人搬送車を誘導する誘導ラインを含む誘導画像を記憶している画像記憶部と、
天井または壁の上部に設置されており、誘導画像を路面に投影する投影部と、
路面に投影された誘導画像を撮像する路面撮像部と、
路面撮像部が撮像した画像に基づいて、誘導画像を補正する画像補正部と、を備え、
投影部は、さらに、画像補正部によって補正された誘導画像を路面に投影し、
無人搬送車は、
路面を撮像する第1撮像部と、
第1撮像部によって撮像された路面の画像を解析し、誘導画像中の誘導ラインを検出する誘導ライン検出部と、
誘導ライン検出部によって検出された誘導ラインに基づいて、ステアリング制御するステアリング制御部と、を備える。
In order to solve the above-described problems, an unmanned transport system according to the present invention includes:
Automatic guided vehicles,
An image storage unit that stores a guidance image including a guidance line that guides the automatic guided vehicle,
A projection unit that is installed above a ceiling or a wall and projects a guidance image onto a road surface,
A road surface imaging unit that captures a guidance image projected on a road surface,
An image correction unit that corrects the guidance image based on the image captured by the road surface imaging unit ,
The projection unit further projects the guidance image corrected by the image correction unit on a road surface,
Automated guided vehicles are
A first imaging unit for imaging a road surface;
A guide line detecting unit that analyzes a road surface image captured by the first image capturing unit and detects a guide line in the guide image;
A steering control unit that performs steering control based on the guidance line detected by the guidance line detection unit.

画像補正部は、好ましくは、
路面像部によって撮像された誘導画像の各画素の各色成分の各輝度と、画像記憶部に記憶されている誘導画像の各画素の各色成分の各輝度とに基づいて、誘導画像の各画素の各色成分の補正係数を算出する補正係数算出部と、
補正係数を用いて誘導画像の各画素の各色成分の各輝度を補正する補正処理部と、を有する。
The image correction unit is preferably
Based on each brightness of each color component of each pixel of the guide image captured by the road surface image unit and each brightness of each color component of each pixel of the guide image stored in the image storage unit, A correction coefficient calculation unit that calculates a correction coefficient for each color component;
A correction processing unit that corrects each luminance of each color component of each pixel of the guide image using the correction coefficient.

図1に示すように、無人搬送システムSは、下カメラ5をさらに備える。下カメラ5は、下方を向き、プロジェクタ2に隣接して天井Cに設置されている。下カメラ5は、下方を撮像して下方画像を生成して制御部1に出力する。下カメラ5は、本発明の「路面撮像部」に相当する。 As shown in FIG. 1, the unmanned transport system S further includes a lower camera 5. The lower camera 5 faces downward and is installed on the ceiling C adjacent to the projector 2. The lower camera 5 captures an image of the lower side, generates a lower image, and outputs the lower image to the controller 1. The lower camera 5 corresponds to the “ road surface imaging unit” of the present invention.

1 制御部
11 画像補正部
111 補正係数算出部
112 補正処理部
12 顔方向判定部
13 部分特定部
14 輝度低下部
15 車存在判定部
16 投影制御部
2 プロジェクタ(投影部)
3 無人搬送車
31 車体
32 車載カメラ(第1撮像部)
33 前輪
34 後輪
35 ステアリング制御部
36 誘導ライン検出部
4 画像記憶部
5 下カメラ(第2〜第撮像部、路面撮像部
S 無人搬送システム
L 誘導ライン
G 誘導画像
C 天井
R 路面
G 誘導画像
T 撮像範囲
H 人
REFERENCE SIGNS LIST 1 control unit 11 image correction unit 111 correction coefficient calculation unit 112 correction processing unit 12 face direction determination unit 13 partial specification unit 14 brightness reduction unit 15 car presence determination unit 16 projection control unit 2 projector (projection unit)
3 Automated guided vehicle 31 Body 32 On-board camera (first imaging unit)
33 front wheel 34 rear wheel 35 steering control unit 36 guidance line detection unit 4 image storage unit 5 lower camera (second to third imaging unit , road surface imaging unit )
S Unmanned transport system L Guidance line G Guidance image C Ceiling R Road surface G Guidance image T Imaging range H Person

Claims (5)

無人搬送車と、
前記無人搬送車を誘導する誘導ラインを含む誘導画像を記憶している画像記憶部と、
天井または壁の上部に設置されており、前記誘導画像を路面に投影する投影部と、を備え、
前記無人搬送車は、
前記路面を撮像する第1撮像部と、
前記第1撮像部によって撮像された前記路面の画像を解析し、前記誘導画像中の前記誘導ラインを検出する誘導ライン検出部と、
前記誘導ライン検出部によって検出された前記誘導ラインに基づいて、ステアリング制御するステアリング制御部と、を備える
ことを特徴とする無人搬送システム。
Automatic guided vehicles,
An image storage unit that stores a guidance image including a guidance line that guides the automatic guided vehicle,
A projection unit that is installed above a ceiling or a wall and projects the guidance image onto a road surface,
The automatic guided vehicle,
A first imaging unit for imaging the road surface;
A guidance line detection unit that analyzes the image of the road surface captured by the first imaging unit and detects the guidance line in the guidance image;
An unmanned transport system, comprising: a steering control unit that performs steering control based on the guidance line detected by the guidance line detection unit.
前記投影部が投影する方向を撮像する第2撮像部と、
前記第2撮像部が撮像した画像に基づいて、所定の領域に前記無人搬送車が存在するか否かを判定する車存在判定部と、
前記車存在判定部の判定結果に基づいて、前記投影部の投影状態と非投影状態とを切り替える投影制御部と、をさらに備える
ことを特徴とする請求項1に記載の無人搬送システム。
A second imaging unit for imaging the direction projected by the projection unit;
A vehicle presence determination unit that determines whether the automatic guided vehicle is present in a predetermined area based on an image captured by the second imaging unit;
The unmanned transport system according to claim 1, further comprising: a projection control unit that switches between a projection state and a non-projection state of the projection unit based on a determination result of the vehicle presence determination unit.
前記投影部が投影する方向を撮像する第3撮像部と、
前記第3撮像部が撮像した画像に基づいて、前記投影部の投影先にいる人の顔の向きが前記投影部の方向を向いているか否かを判定する顔方向判定部と、
前記顔方向判定部によって、前記人の顔が前記投影部の方向を向いていると判定された場合、前記第3撮像部が撮像した画像に基づいて、前記投影部が投影する前記誘導画像のうちのいずれの部分が前記人の顔に投影されるのかを特定する部分特定部と、
前記部分特定部が特定した前記誘導画像の部分の輝度を下げる輝度低下部と、をさらに備える
ことを特徴とする請求項1または2に記載の無人搬送システム。
A third imaging unit that captures an image in a direction projected by the projection unit;
A face direction determination unit configured to determine whether a face of a person at a projection destination of the projection unit faces the direction of the projection unit based on an image captured by the third imaging unit;
When the face direction determination unit determines that the person's face is facing the direction of the projection unit, the guidance image projected by the projection unit is projected based on the image captured by the third imaging unit. A part specifying unit that specifies which of the parts is projected on the person's face,
The unmanned transport system according to claim 1, further comprising: a brightness reduction unit configured to reduce brightness of a portion of the guidance image specified by the portion specification unit.
前記路面に投影された前記誘導画像を撮像する第4撮像部と、
前記第4撮像部が撮像した画像に基づいて、前記誘導画像を補正する画像補正部と、をさらに備える
ことを特徴とする請求項1〜3のいずれか1項に記載の無人搬送システム。
A fourth imaging unit that captures the guidance image projected on the road surface,
The unmanned transport system according to any one of claims 1 to 3, further comprising: an image correction unit configured to correct the guidance image based on an image captured by the fourth imaging unit.
前記画像補正部は、
前記第4撮像部によって撮像された前記誘導画像の各画素の各色成分の各輝度と、前記画像記憶部に記憶されている前記誘導画像の各画素の各色成分の各輝度とに基づいて、前記誘導画像の各画素の各色成分の補正係数を算出する補正係数算出部と、
前記補正係数を用いて前記誘導画像の各画素の各色成分の各輝度を補正する補正処理部と、を有する
ことを特徴とする請求項4に記載の無人搬送システム。
The image correction unit,
Based on each luminance of each color component of each pixel of the guidance image captured by the fourth imaging unit and each luminance of each color component of each pixel of the guidance image stored in the image storage unit, A correction coefficient calculation unit that calculates a correction coefficient of each color component of each pixel of the guidance image,
The unmanned transport system according to claim 4, further comprising: a correction processing unit configured to correct each luminance of each color component of each pixel of the guide image using the correction coefficient.
JP2018173802A 2018-09-18 2018-09-18 Unmanned transport system Active JP6684534B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018173802A JP6684534B2 (en) 2018-09-18 2018-09-18 Unmanned transport system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018173802A JP6684534B2 (en) 2018-09-18 2018-09-18 Unmanned transport system

Publications (2)

Publication Number Publication Date
JP2020046835A true JP2020046835A (en) 2020-03-26
JP6684534B2 JP6684534B2 (en) 2020-04-22

Family

ID=69901401

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018173802A Active JP6684534B2 (en) 2018-09-18 2018-09-18 Unmanned transport system

Country Status (1)

Country Link
JP (1) JP6684534B2 (en)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001252883A (en) * 2000-03-09 2001-09-18 Denso Corp Movable robot system
JP2006337801A (en) * 2005-06-03 2006-12-14 Mitsubishi Electric Corp Projection type video display device, projection type multi-video display device, and video display method thereof
JP2007052705A (en) * 2005-08-19 2007-03-01 Toyota Auto Body Co Ltd Guidance system for automated guided vehicle
JP2008148089A (en) * 2006-12-12 2008-06-26 Nikon Corp Projection apparatus and camera
JP2013239037A (en) * 2012-05-15 2013-11-28 Ricoh Co Ltd Projection device, projection system, projection method, and program
JP2017041152A (en) * 2015-08-20 2017-02-23 株式会社沖データ Unmanned transportation system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001252883A (en) * 2000-03-09 2001-09-18 Denso Corp Movable robot system
JP2006337801A (en) * 2005-06-03 2006-12-14 Mitsubishi Electric Corp Projection type video display device, projection type multi-video display device, and video display method thereof
JP2007052705A (en) * 2005-08-19 2007-03-01 Toyota Auto Body Co Ltd Guidance system for automated guided vehicle
JP2008148089A (en) * 2006-12-12 2008-06-26 Nikon Corp Projection apparatus and camera
JP2013239037A (en) * 2012-05-15 2013-11-28 Ricoh Co Ltd Projection device, projection system, projection method, and program
JP2017041152A (en) * 2015-08-20 2017-02-23 株式会社沖データ Unmanned transportation system

Also Published As

Publication number Publication date
JP6684534B2 (en) 2020-04-22

Similar Documents

Publication Publication Date Title
KR100504255B1 (en) Auto guided sytem and control method thereof
KR20180064531A (en) Method and apparatus for parking space detection
JP2017117188A (en) Vehicle guiding device and vehicle guiding system including vehicle guiding device
JP6707600B2 (en) Transport system
CN108290519A (en) Control unit and method for dividing moving region
KR20130003901A (en) Apparatus and method controlling suspension using camera
WO2021166620A1 (en) Control device, parking lot system, and location accuracy calculation method
US8548665B2 (en) Movable body system
KR101784132B1 (en) Indoor localization system for vehicle
US20230049918A1 (en) Control device, system, control method, and storage medium storing program
JP5344504B2 (en) Automated transport system
JP6358629B2 (en) forklift
JP6684534B2 (en) Unmanned transport system
JP2012208592A (en) Unmanned carrier system
JP6877071B2 (en) Automated guided vehicle and automated guided vehicle
JP6618087B1 (en) Unmanned air vehicle and unmanned transport system
JP2020030639A (en) Unmanned conveyance system
JP7078343B2 (en) Automated guided vehicles and automated guided vehicles
JP6532096B1 (en) Unmanned carrier system using unmanned air vehicle
JP6707601B2 (en) Unmanned transport system
JP2012234238A (en) Unmanned carrier system
JP5164126B1 (en) Unmanned vehicle
JP5327820B2 (en) Automated transport system
JP6669418B2 (en) Unmanned transport system using unmanned aerial vehicle
JP2024000339A (en) guidance system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180919

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20191018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191030

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200325

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200328

R150 Certificate of patent or registration of utility model

Ref document number: 6684534

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150