JP2024036175A - guidance system - Google Patents

guidance system Download PDF

Info

Publication number
JP2024036175A
JP2024036175A JP2022140942A JP2022140942A JP2024036175A JP 2024036175 A JP2024036175 A JP 2024036175A JP 2022140942 A JP2022140942 A JP 2022140942A JP 2022140942 A JP2022140942 A JP 2022140942A JP 2024036175 A JP2024036175 A JP 2024036175A
Authority
JP
Japan
Prior art keywords
vehicle
unmanned
guidance system
speaker
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022140942A
Other languages
Japanese (ja)
Other versions
JP7517785B2 (en
Inventor
彰 卯路
Akira Uro
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Logisnext Co Ltd
Original Assignee
Mitsubishi Logisnext Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Logisnext Co Ltd filed Critical Mitsubishi Logisnext Co Ltd
Priority to JP2022140942A priority Critical patent/JP7517785B2/en
Publication of JP2024036175A publication Critical patent/JP2024036175A/en
Application granted granted Critical
Publication of JP7517785B2 publication Critical patent/JP7517785B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide a guidance system that can appropriately guide a person to be guided to a destination using an unmanned flying object.SOLUTION: A guidance system S comprises a plurality of unmanned flying objects 2 and a management device 5. The unmanned flying objects 2 include projection parts 24 which project light, or images, or both of them. The management device 5 determines a route for guiding a person to be guided P to a destination based on a position of the person to be guided P, the destination, and a facility map, and also determines an arrangement position of each of the unmanned flying objects 2 on the determined route. The plurality of unmanned flying objects 2 guide the person to be guided P by projecting guidance images D while hovering at the arrangement positions.SELECTED DRAWING: Figure 1

Description

本発明は、無人飛行体によって誘導対象者を誘導する誘導システムに関する。 The present invention relates to a guidance system for guiding a person to be guided by an unmanned flying vehicle.

従来、特許文献1に開示のように、地面に画像を投影する投影部を備えた無人飛行体が知られている。この無人飛行体は、複数のプロペラと、プロペラによる飛行を制御する制御部と、人感センサと、を備えており、人感センサによって人を検知すると、矢印や文字等の画像を地面に投影する。 BACKGROUND ART Conventionally, as disclosed in Patent Document 1, an unmanned flying vehicle is known that includes a projection unit that projects an image onto the ground. This unmanned flying vehicle is equipped with multiple propellers, a control unit that controls flight by the propellers, and a human sensor. When the human sensor detects a person, it projects images such as arrows and letters on the ground. do.

ところで、フォークリフトといった搬送車などが走行する施設内において、棚に載置されている所定の物を取りに行く者を目的地に誘導する場合、この者と搬送車との衝突を回避するためには、複数の通路から所定の通路を選択して誘導する方が好ましい。しかしながら、上記無人飛行体は、単に、方向を示すだけであり、人と搬送車との衝突を回避することについては考慮されていない。また、上記無人飛行体は、所定の位置で情報を提示するだけであるので、人が提示された方向に進み、その後、目的地を見失うおそれがある。 By the way, in a facility where transportation vehicles such as forklifts run, when guiding a person to the destination to pick up a specific item placed on a shelf, in order to avoid a collision between the person and the transportation vehicle, It is preferable to select and guide a predetermined passage from a plurality of passages. However, the above-mentioned unmanned flying vehicle merely indicates a direction, and no consideration is given to avoiding collisions between humans and guided vehicles. Furthermore, since the unmanned flying vehicle only presents information at a predetermined position, there is a risk that a person may proceed in the presented direction and then lose sight of the destination.

特許第6239567号公報Patent No. 6239567

そこで、本発明が解決しようとする課題は、無人飛行体を使用して、誘導対象者を目的地まで適切に誘導することができる誘導システムを提供することにある。 Therefore, an object of the present invention is to provide a guidance system that can appropriately guide a person to be guided to a destination using an unmanned flying vehicle.

上記課題を解決するために、本発明に係る誘導システムは、
施設内において、誘導対象者を目的地に誘導する誘導システムであって、
ホバリング可能な複数の無人飛行体と、
管理装置と、を備え、
無人飛行体は、光もしくは画像またはその両方を投影する投影部を有し、
管理装置は、
施設マップを記憶する記憶部と、
誘導対象者の位置と、目的地の位置と、施設マップとに基づいて、誘導対象者を目的地に誘導するためのルートを決定するルート決定部と、
決定されたルート上における各無人飛行体の配置位置を決定する配置決定部と、を有し、
複数の無人飛行体は、配置位置でホバリングしながら光もしくは画像またはその両方を投影して誘導対象者を誘導する、ことを特徴とする。
In order to solve the above problems, the guidance system according to the present invention,
A guidance system that guides a person to a destination within a facility,
Multiple unmanned aerial vehicles capable of hovering;
comprising a management device;
The unmanned aerial vehicle has a projection unit that projects light or an image or both,
The management device is
a storage unit that stores a facility map;
a route determining unit that determines a route for guiding the person to be guided to the destination based on the location of the person to be guided, the location of the destination, and the facility map;
a placement determining unit that determines the placement position of each unmanned flying vehicle on the determined route,
The plurality of unmanned flying objects are characterized in that they guide a person to be guided by projecting light, images, or both while hovering at the placement position.

上記誘導システムは、好ましくは、
配置決定部が、複数の無人飛行体の間隔が一定になるよう配置位置を決定する。
The guidance system preferably includes:
A placement determining unit determines the placement positions of the plurality of unmanned flying objects so that the intervals therebetween are constant.

上記誘導システムは、好ましくは、
配置決定部が、複数の無人飛行体の高さが一定になるよう配置位置を決定する。
The guidance system preferably includes:
A placement determining unit determines the placement positions of the plurality of unmanned flying objects so that the heights thereof are constant.

上記誘導システムは、好ましくは、
無人搬送車をさらに備え、
無人飛行体が、無人搬送車の走行を停止させる停止指令部をさらに有する。
The guidance system preferably includes:
Equipped with more automated guided vehicles,
The unmanned flying vehicle further includes a stop command unit that stops traveling of the automatic guided vehicle.

上記誘導システムは、好ましくは、
誘導対象者の人物情報を取得する人物情報取得部をさらに備え、
ルート決定部が、さらに、人物情報に基づいて、ルートを決定する。
The guidance system preferably includes:
further comprising a person information acquisition unit that acquires person information of the person to be guided;
The route determining unit further determines the route based on the person information.

上記誘導システムは、好ましくは、
誘導対象者の人物情報を取得する人物情報取得部をさらに備え、
管理装置は、投影制御部をさらに有し、
投影制御部は、人物情報に基づいて、光の色または画像の色をそれぞれ異ならせて投影部に投影させる。
The guidance system preferably includes:
further comprising a person information acquisition unit that acquires person information of the person to be guided;
The management device further includes a projection control section,
The projection control section causes the projection section to project different colors of light or images based on the person information.

上記誘導システムは、好ましくは、
管理装置が、投影制御部をさらに有し、
投影制御部は、複数の投影部に、流れるように連続的に点滅投影させる。
The guidance system preferably includes:
The management device further includes a projection control section,
The projection control unit causes the plurality of projection units to continuously blink and project images in a flowing manner.

上記誘導システムは、好ましくは、
管理装置が、投影制御部をさらに有し、
投影制御部は、ルート上における屈曲位置、目的地の位置および他の位置に応じて、光の色または画像の色をそれぞれ異ならせて投影部に投影させる。
The guidance system preferably includes:
The management device further includes a projection control section,
The projection control section causes the projection section to project different colors of light or images depending on the bending position, the destination position, and other positions on the route.

上記誘導システムは、好ましくは、
管理装置が、投影制御部をさらに有し、
投影制御部は、誘導対象者と所定の距離内になった無人飛行体の投影を停止させる。
The guidance system preferably includes:
The management device further includes a projection control section,
The projection control unit stops the projection of the unmanned flying vehicle when it comes within a predetermined distance from the person to be guided.

上記誘導システムは、好ましくは、
管理装置が、投影制御部をさらに有し、
配置決定部が、目的の物が載置されている位置の高さに無人飛行体が配置されるよう配置位置を決定し、
投影部が、下方および上方に投影可能に構成されており、
投影制御部は、目的の物が載置されている位置の高さが所定高さ以下のとき、投影部に上方に向かって投影させる。
The guidance system preferably includes:
The management device further includes a projection control section,
The placement determining unit determines the placement position so that the unmanned aerial vehicle is placed at the height of the position where the target object is placed,
The projection section is configured to be able to project downward and upward,
The projection control section causes the projection section to project the object upward when the height of the position where the target object is placed is below a predetermined height.

上記誘導システムは、好ましくは、
無人飛行体が、スピーカをさらに有し、
管理装置が、さらに、音声制御部を有し、
音声制御部は、屈曲位置および目的地の位置のいずれかまたは両方をスピーカに報知させる。
The guidance system preferably includes:
The unmanned air vehicle further has a speaker;
The management device further includes a voice control unit,
The audio control unit causes the speaker to notify either or both of the bending position and the destination position.

上記誘導システムは、好ましくは、
誘導対象者の人物情報を取得する人物情報取得部をさらに備え、
無人飛行体は、スピーカをさらに有し、
管理装置が、音声制御部をさらに有し、
音声制御部は、施設マップと、取得された人物情報と、に基づいて、所定の音声をスピーカに出力させる。
The guidance system preferably includes:
further comprising a person information acquisition unit that acquires person information of the person to be guided;
The unmanned aerial vehicle further has a speaker;
The management device further includes a voice control unit,
The audio control unit causes the speaker to output a predetermined audio based on the facility map and the acquired personal information.

上記誘導システムは、好ましくは、
無人飛行体が、スピーカをさらに有し、
管理装置が、投影制御部と、音声制御部と、をさらに有し、
音声制御部は、屈曲位置および目的地の位置のいずれかまたは両方をスピーカに報知させ、
投影制御部は、誘導対象者と所定の距離内の無人飛行体に投影させず、
音声制御部は、投影をしない無人飛行体のスピーカによって報知する。
The guidance system preferably includes:
The unmanned air vehicle further has a speaker;
The management device further includes a projection control section and an audio control section,
The voice control unit causes the speaker to notify either or both of the bending position and the destination position,
The projection control unit does not project onto the unmanned flying vehicle within a predetermined distance from the guided person;
The audio control unit provides notification through a speaker of the unmanned flying vehicle that does not project.

上記誘導システムは、好ましくは、
減衰スピーカと、減衰スピーカを無人飛行体の方角に向ける角度変更部とを有するノイズキャンセル部をさらに備え、
減衰スピーカは、無人飛行体が発する騒音と逆位相の音声信号を無人飛行体に向けて発する。
The guidance system preferably includes:
further comprising a noise canceling unit having an attenuated speaker and an angle changing unit that directs the attenuated speaker in the direction of the unmanned aerial vehicle;
The attenuated speaker emits an audio signal toward the unmanned aerial vehicle that is in phase opposite to the noise emitted by the unmanned aerial vehicle.

上記誘導システムは、好ましくは、
ノイズキャンセル部が、マイクをさらに有し、
管理装置が、マイクが集音した無人飛行体の騒音と、無人飛行体の数と、無人飛行体の位置と、マイクと無人飛行体との距離と、減衰スピーカと無人飛行体との距離と、を入力データとし、無人飛行体の騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、マイクが集音した無人飛行体の騒音と、無人飛行体の数と、無人飛行体の位置と、マイクと無人飛行体との距離と、減衰スピーカと無人飛行体との距離と、を入力されると、無人飛行体の騒音を消すための逆位相の音声信号を生成するよう構成されたニューラルネットをさらに有し、
減衰スピーカが、ニューラルネットによって生成された音声信号を無人飛行体に向けて発する。
The guidance system preferably includes:
The noise canceling section further includes a microphone,
The management device records the noise of the unmanned aerial vehicle collected by the microphone, the number of unmanned aerial vehicles, the position of the unmanned aerial vehicle, the distance between the microphone and the unmanned aerial vehicle, and the distance between the attenuation speaker and the unmanned aerial vehicle. , is the input data, and the output data is an audio signal with the opposite phase of the noise of the unmanned aircraft. When you input your body position, the distance between the microphone and the unmanned vehicle, and the distance between the attenuation speaker and the unmanned vehicle, it will generate an audio signal with an opposite phase to cancel out the noise of the unmanned vehicle. further comprising a neural network configured;
An attenuated speaker emits an audio signal generated by the neural net to the unmanned vehicle.

上記誘導システムは、好ましくは、
ノイズキャンセル部が、指向性を有するマイクをさらに有し、
角度変更部が、さらに、マイクを無人飛行体の方角に向けるよう構成されており、
管理装置が、マイクが集音した無人飛行体の騒音と、無人飛行体とマイクとの距離と、無人飛行体と減衰スピーカとの距離と、を入力データとし、無人飛行体の騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、マイクが集音した無人飛行体の騒音と、無人飛行体とマイクとの距離と、無人飛行体と減衰スピーカとの距離と、を入力されると、マイクが向けられた無人飛行体の騒音を消すための逆位相の音声信号を生成するよう構成されたニューラルネットをさらに有し、
減衰スピーカは、ニューラルネットによって生成された音声信号を無人飛行体に向けて発する。
The guidance system preferably includes:
The noise canceling section further includes a directional microphone,
the angle changer is further configured to orient the microphone in a direction of the unmanned air vehicle;
The management device uses as input data the noise of the unmanned flying vehicle collected by the microphone, the distance between the unmanned flying vehicle and the microphone, and the distance between the unmanned flying vehicle and the attenuation speaker, and calculates the opposite phase of the noise of the unmanned flying vehicle. input the noise of the unmanned aircraft collected by the microphone, the distance between the unmanned aircraft and the microphone, and the distance between the unmanned aircraft and the attenuation speaker. further comprising a neural net configured to generate an out-of-phase audio signal to cancel noise of the unmanned air vehicle toward which the microphone is directed;
The attenuated speaker emits an audio signal generated by the neural net towards the unmanned vehicle.

本発明に係る誘導システムは、誘導対象者を目的地まで適切に誘導することができる。 The guidance system according to the present invention can appropriately guide a person to be guided to a destination.

本発明の一実施形態に係る誘導システムの斜視図である。FIG. 1 is a perspective view of a guidance system according to an embodiment of the present invention. 図1に示された誘導システムを示し、Aは側面図であり、Bは平面図である。2 shows the guidance system shown in FIG. 1, with A being a side view and B being a plan view; FIG. 図1に示された誘導システムの機能ブロック図である。2 is a functional block diagram of the guidance system shown in FIG. 1. FIG. Aは無人飛行体から投影された光の像の例を示し、Bは無人飛行体から投影された別の光の像の例を示す。A shows an example of a light image projected from an unmanned air vehicle, and B shows an example of another light image projected from an unmanned air vehicle. AおよびBは、図2Aに示された無人飛行体の高さの別の例を示す側面図である。2A and 2B are side views illustrating another example of the height of the unmanned air vehicle shown in FIG. 2A. 図2Aに示された無人飛行体の高さのさらに別の例を示す側面図である。2B is a side view showing yet another example of the height of the unmanned aerial vehicle shown in FIG. 2A. FIG.

以下、添付図面を参照しつつ、本発明に係る誘導システムの一実施形態について説明する。本実施形態では、誘導対象者Pの目的地は、所定の物(目的物)Wが載置されている地点としている。ただし、これは単なる一例であって、例えば、目的地は、特定のエリアや部屋であってもよく、誘導システムSは、例えば、施設の訪問者を特定のエリアや部屋まで誘導するよう構成されていてもよい。また、本実施形態では、誘導対象者Pは、セキュリティカードを所持しており、このセキュリティカードには、RFIDタグが貼付されている。RFIDタグには、誘導対象者Pの人物情報、目的地などの情報が予め書き込まれている。 DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of a guidance system according to the present invention will be described below with reference to the accompanying drawings. In this embodiment, the destination of the guided person P is a point where a predetermined object (object) W is placed. However, this is just an example; for example, the destination may be a specific area or room, and the guidance system S is configured to, for example, guide visitors of the facility to a specific area or room. You can leave it there. Furthermore, in this embodiment, the guided person P has a security card, and an RFID tag is attached to this security card. Information such as personal information and destination of the person P to be guided is written in the RFID tag in advance.

図1および図2は、本発明の一実施形態に係る誘導システムSを示し、図1は斜視図であり、図2Aは側面図であり、図2Bは平面図である。各図において、X軸およびY軸は水平方向を示し、Z軸は上下方向を示しており、各軸は互いに直交している。また、図3は、誘導システムSの機能ブロック図である。 1 and 2 show a guidance system S according to an embodiment of the invention, in which FIG. 1 is a perspective view, FIG. 2A is a side view, and FIG. 2B is a plan view. In each figure, the X-axis and Y-axis indicate the horizontal direction, the Z-axis indicates the vertical direction, and the axes are orthogonal to each other. Moreover, FIG. 3 is a functional block diagram of the guidance system S.

図1および図2に示すように、誘導システムSは、読取機1と、複数の無人飛行体2(2a、2b、2c、2d)と、無人搬送車3と、管理装置5と、ノイズキャンセル部6と、を備えている。図1において無人飛行体2は、9つ示されているが、本発明に係る無人飛行体2の数はこれに限定されない。棚R1には、本実施形態に係る誘導対象者Pの目的物Wが載置されている。以下では、目的物Wが載置されている位置を「載置位置」といい、載置位置の手前の位置を「目的地の位置」という。 As shown in FIGS. 1 and 2, the guidance system S includes a reader 1, a plurality of unmanned flying objects 2 (2a, 2b, 2c, 2d), an automatic guided vehicle 3, a management device 5, and a noise canceling device 5. It is equipped with part 6. Although nine unmanned aerial vehicles 2 are shown in FIG. 1, the number of unmanned aerial vehicles 2 according to the present invention is not limited to this. The object W of the guided person P according to the present embodiment is placed on the shelf R1. Hereinafter, the position where the object W is placed will be referred to as the "placement position", and the position in front of the placement position will be referred to as the "destination position".

<読取機>
読取機1は、人物情報取得部10と、目的地取得部11と、位置検出部12と、を有する。読取機1は、施設内の複数の所定位置に配置されている。本実施形態では、読取機1は、RFIDリーダで構成されている。また、読取機1は、管理装置5と通信可能に構成されている。
<Reader>
The reader 1 includes a person information acquisition section 10, a destination acquisition section 11, and a position detection section 12. The reader 1 is placed at a plurality of predetermined positions within the facility. In this embodiment, the reader 1 is configured with an RFID reader. Further, the reader 1 is configured to be able to communicate with the management device 5.

人物情報取得部10は、誘導対象者Pの人物情報を取得する。誘導対象者Pの人物情報としては、例えば、氏名、施設内の者か否か、誘導対象者Pのセキュリティレベル等でもよい。人物情報取得部10は、RFIDタグを読み取ることにより、誘導対象者Pの人物情報を取得する。取得された誘導対象者Pの人物情報は、管理装置5に送信される。人物情報取得部10は、読取機1に含まれているが単なる一例であって、RFIDリーダとは別個に構成され、例えば、誘導対象者Pの入力を受ける入力部を有し、入力された情報によって誘導対象者Pの人物情報を取得してもよい。 The person information acquisition unit 10 acquires person information of the guidance target person P. The personal information of the person P to be guided may include, for example, the name, whether the person is in the facility, the security level of the person P to be guided, etc. The personal information acquisition unit 10 acquires personal information of the person to be guided P by reading the RFID tag. The acquired person information of the guidance target person P is transmitted to the management device 5. Although the personal information acquisition unit 10 is included in the reader 1, it is merely an example, and is configured separately from the RFID reader. Personal information of the person P to be guided may be acquired based on the information.

目的地取得部11は、誘導対象者PのRFIDタグを読み取ることにより、誘導対象者Pの目的地の情報を取得する。目的地の情報としては、目的地の座標といった位置情報でもよいが、それ以外に、例えば、特定の物の品番や名称でもよい。取得された目的地の情報は、管理装置5に送信される。目的地取得部11は、読取機1に含まれているが単なる一例であって、RFIDリーダとは別個に構成され、例えば、誘導対象者Pの入力を受ける入力部を有し、入力された情報によって目的地の情報を取得してもよい。 The destination acquisition unit 11 acquires information about the destination of the person P to be guided by reading the RFID tag of the person P to be guided. The destination information may be location information such as the coordinates of the destination, but may also be, for example, the product number or name of a specific item. The acquired destination information is transmitted to the management device 5. Although the destination acquisition unit 11 is included in the reader 1, it is merely an example, and is configured separately from the RFID reader. Destination information may be acquired based on the information.

位置検出部12は、誘導対象者PのRFIDタグを読み取ることにより、公知の技術によって誘導対象者Pの位置を検出する。なお、位置検出部12は、読取機1に含まれているが単なる一例であって、RFIDリーダとは別個に構成され、例えば、公知の技術によって誘導対象者Pが保持する携帯端末からの電波の強さや到達時間の違いから誘導対象者Pの位置を検出する機器として構成されてもよい。検出された誘導対象者Pの位置は、管理装置5に送信される。 The position detection unit 12 detects the position of the person P to be guided by reading the RFID tag of the person P to be guided using a known technique. Note that although the position detection unit 12 is included in the reader 1, it is merely an example, and is configured separately from the RFID reader. It may be configured as a device that detects the position of the person to be guided P based on the difference in strength and arrival time. The detected position of the guided person P is transmitted to the management device 5.

<無人飛行体>
無人飛行体2は、いわゆるドローンと称される飛行体であって、本体と、本体の四方に配置された4つのプロペラと、プロペラを回転させる動力部(図示略)と、を有する。
<Unmanned aerial vehicle>
The unmanned flying object 2 is a flying object called a drone, and has a main body, four propellers arranged on four sides of the main body, and a power unit (not shown) that rotates the propellers.

図3に示すように、無人飛行体2は、さらに、飛行制御部22と、記憶部23と、投影部24と、スピーカ25と、停止指令部26と、を備えている。無人飛行体2は、管理装置5と通信可能に構成されている。 As shown in FIG. 3, the unmanned flying object 2 further includes a flight control section 22, a storage section 23, a projection section 24, a speaker 25, and a stop command section 26. The unmanned aerial vehicle 2 is configured to be able to communicate with the management device 5.

飛行制御部22は、無人飛行体2の位置を公知技術によって検出するとともに、プロペラの回転を制御し、無人飛行体2を管理装置5から受信した配置位置まで飛行させたり、配置位置でホバリングさせたりする。 The flight control unit 22 detects the position of the unmanned flying vehicle 2 using known technology, controls the rotation of the propeller, and causes the unmanned flying vehicle 2 to fly to the placement position received from the management device 5 or hover at the placement position. or

記憶部23は、誘導対象者Pを誘導するための誘導画像を記憶している。誘導画像は、図2Bに示すように、直進する方向を示す第1画像D1と、方向転換する位置(本発明の「屈曲位置」に相当)および進行方向を示す第2画像D2と、目的地を示す第3画像D3とを含む。以下では、第1、第2および第3画像D1、D2、D3をまとめて誘導画像Dということがある。 The storage unit 23 stores guidance images for guiding the guidance target person P. As shown in FIG. 2B, the guidance image includes a first image D1 showing the direction to go straight, a second image D2 showing the turning position (corresponding to the "bending position" of the present invention) and the traveling direction, and the destination. and a third image D3 showing. Below, the first, second, and third images D1, D2, and D3 may be collectively referred to as a guided image D.

第1および第2画像D1、D2の矢印は進行方向を示し、第3画像D3の矢印は目的地の方向を示している。第1、第2および第3画像D1、D2、D3の形状、大きさおよび色は、それぞれ異なっていることが好ましいが、例えば、形状、大きさおよび色のいずれかが異なっていてもよい。本実施形態に係る第1、第2および第3画像D1、D2、D3は、色違いの円と、円の中に配置された色違いの矢印とによって構成されている。 The arrows in the first and second images D1 and D2 indicate the direction of travel, and the arrow in the third image D3 indicates the direction of the destination. The shapes, sizes, and colors of the first, second, and third images D1, D2, and D3 are preferably different from each other, but for example, any one of the shapes, sizes, and colors may be different. The first, second, and third images D1, D2, and D3 according to the present embodiment are composed of circles of different colors and arrows of different colors arranged inside the circles.

記憶部23は、例えば、誘導画像Dの色をセキュリティレベルごとに複数記憶していてもよい。この場合、セキュリティレベルは、施設内の者か否かによって異ならせてもよい。これにより、誘導対象者P以外の施設内にいる者は、誘導画像Dを見れば、誘導されている者が施設内の者か否かを認識することができる。 For example, the storage unit 23 may store a plurality of colors of the guide image D for each security level. In this case, the security level may vary depending on whether the person is inside the facility or not. Thereby, those who are in the facility other than the guided person P can see the guided image D and recognize whether or not the person being guided is inside the facility.

記憶部23は、さらに、誘導対象者Pを誘導するための第1音声V1を記憶している。第1音声V1は、「○m」、「先を左折です」、「先、目的地です」、「この先、障害物があります」、「ご注意ください」、「〇〇は立入禁止です」等を含む。また、記憶部23は、後で説明する無人搬送車3を停止させるための第2音声V2を記憶している。第2音声V2は、「停止してください」等を含む。 The storage unit 23 further stores a first voice V1 for guiding the person P to be guided. The first voice V1 includes “○m”, “Turn left ahead”, “Ahead, destination”, “There is an obstacle ahead”, “Please be careful”, “〇〇 is prohibited from entering”, etc. including. Furthermore, the storage unit 23 stores a second voice V2 for stopping the automatic guided vehicle 3, which will be described later. The second voice V2 includes "Please stop" and the like.

投影部24は、本実施形態では、プロジェクタによって構成されている。投影部24は、本体の下面に配置されており、図1および図2Aに示すように、誘導画像Dを下方に向かって投影する。投影された誘導画像Dは、図2Bに示すように、床面に表示される。本実施形態では、投影部24は、無人飛行体2の直下に誘導画像Dを投影する。 In this embodiment, the projection unit 24 is configured by a projector. The projection unit 24 is disposed on the lower surface of the main body, and projects the guided image D downward, as shown in FIGS. 1 and 2A. The projected guidance image D is displayed on the floor, as shown in FIG. 2B. In this embodiment, the projection unit 24 projects the guidance image D directly below the unmanned flying vehicle 2.

スピーカ25は、本体に配置されており、第1音声V1、第2音声V2を誘導対象者P、無人搬送車3それぞれに向かって出力する。 The speaker 25 is arranged on the main body, and outputs the first sound V1 and the second sound V2 toward the guided person P and the automatic guided vehicle 3, respectively.

停止指令部26は、後で説明する管理装置5から無人搬送車3の位置を受信し、無人飛行体2の所定の距離内に進入した無人搬送車3に停止指令を発する。本実施形態では、停止指令部26は、「停止してください」の第2音声V2をスピーカ25に出力させる。ただし、停止指令部26の本構成は単なる一例であって、例えば、停止指令部26は、スピーカ25を介さずに無人搬送車3を停止させるための停止信号を無人搬送車3に直接送信するよう構成されていてもよい。 The stop command unit 26 receives the position of the automatic guided vehicle 3 from the management device 5, which will be described later, and issues a stop command to the automatic guided vehicle 3 that has entered within a predetermined distance of the unmanned flying object 2. In this embodiment, the stop command unit 26 causes the speaker 25 to output the second voice V2 saying "Please stop". However, this configuration of the stop command section 26 is just an example, and for example, the stop command section 26 directly transmits a stop signal for stopping the automatic guided vehicle 3 to the automatic guided vehicle 3 without going through the speaker 25. It may be configured as follows.

<無人搬送車>
図2Aおよび図2Bに示すように、無人搬送車3は、車輪と、車体と、車体の前方に配置されたフォークと、を備えたフォークリフトの無人搬送車3で構成されている。ただし、本構成は、単なる一例であって、本発明の無人搬送車3は、これに限定されない。無人搬送車3は、管理装置5と通信可能に構成されている。無人搬送車3は、施設内で荷役作業を行うよう構成されている。
<Automated guided vehicle>
As shown in FIGS. 2A and 2B, the automatic guided vehicle 3 is a forklift automatic guided vehicle 3 that includes wheels, a vehicle body, and a fork disposed in front of the vehicle body. However, this configuration is just one example, and the automatic guided vehicle 3 of the present invention is not limited to this. The automatic guided vehicle 3 is configured to be able to communicate with the management device 5. The automatic guided vehicle 3 is configured to perform cargo handling work within the facility.

図3に示すように、無人搬送車3は、さらに、車位置検出部30と、駆動部31と、制御部32と、停止指令受信部33と、を有する。 As shown in FIG. 3, the automatic guided vehicle 3 further includes a vehicle position detection section 30, a drive section 31, a control section 32, and a stop command reception section 33.

車位置検出部30は、無人搬送車3の位置を検出するとともに、検出した無人搬送車3の位置を管理装置5に送信する。 The vehicle position detection unit 30 detects the position of the automatic guided vehicle 3 and transmits the detected position of the automatic guided vehicle 3 to the management device 5.

制御部32は、駆動部31を制御して車輪を回転させたり、停止させたりする。 The control unit 32 controls the drive unit 31 to rotate or stop the wheels.

停止指令受信部33は、本実施形態では、マイクを有し、スピーカ25から第2音声V2を受信すると、停止信号を制御部32に送信する。制御部32は、停止信号を受信すると、駆動部31を制御して車輪の回転を停止させて、無人搬送車3の走行を停止させる。停止指令部26がスピーカ25を介さずに停止信号を送信するよう構成されている場合、停止指令受信部33は、単なる受信機で構成され、受信した停止信号を制御部32に送信する。 In this embodiment, the stop command receiving section 33 has a microphone, and upon receiving the second voice V2 from the speaker 25, transmits a stop signal to the control section 32. When the control unit 32 receives the stop signal, the control unit 32 controls the drive unit 31 to stop the rotation of the wheels, thereby stopping the automatic guided vehicle 3 from traveling. When the stop command unit 26 is configured to transmit a stop signal without going through the speaker 25, the stop command receiving unit 33 is configured with a simple receiver and transmits the received stop signal to the control unit 32.

無人搬送車3は、自律して動作する無人モードのみを備えたフォークリフトであるが、単なる一例であって、本発明に係る無人搬送車3はこのフォークリフトに限定されない。無人搬送車3は、例えば、有人無人兼用のフォークリフトであってもよく、この場合、無人搬送車3は、自律して動作する無人モードと、オペレータの操作によって動作する有人モードとを有する。 The automatic guided vehicle 3 is a forklift that operates autonomously and has only an unmanned mode, but this is just one example, and the automatic guided vehicle 3 according to the present invention is not limited to this forklift. The automatic guided vehicle 3 may be, for example, a forklift that can be used both manned and unmanned, and in this case, the automatic guided vehicle 3 has an unmanned mode in which it operates autonomously and a manned mode in which it operates in response to an operator's operation.

<管理装置>
管理装置5は、例えば、サーバコンピュータであって、不図示の記憶手段および演算手段を有する。記憶手段には、サーバコンピュータを本実施形態に係る管理装置5として機能させるためのプログラムが記憶されている。
<Management device>
The management device 5 is, for example, a server computer, and includes storage means and calculation means (not shown). The storage means stores a program for causing the server computer to function as the management device 5 according to this embodiment.

図3に示すように、管理装置5は、記憶部50と、ルート決定部51と、配置決定部52と、投影制御部53と、音声制御部54と、ニューラルネット55と、を備えている。 As shown in FIG. 3, the management device 5 includes a storage section 50, a route determination section 51, a placement determination section 52, a projection control section 53, an audio control section 54, and a neural network 55. .

記憶部50は、施設マップ、施設内の棚Rに載置された物の位置、無人搬送車3に係る荷役スケジュールを記憶する。施設マップには、棚Rの位置、棚Rの高さ、通行路の位置、障害物の位置、セキュリティレベルごとのエリア情報が含まれている。また、施設マップには、通行路の幅も記憶されている。本実施形態では、管理装置5は、複数の無人搬送車3を管理しており、記憶部50は、各無人搬送車3に係る荷役スケジュールを記憶している。また、記憶部50は、物の位置情報と、その物の品番および名称とを対応付けて記憶していてもよい。さらに、記憶部50は、誘導対象者Pの氏名と、誘導対象者Pのセキュリティレベルとを対応付けて記憶していてもよい。 The storage unit 50 stores a facility map, the positions of objects placed on the shelves R in the facility, and a cargo handling schedule related to the automatic guided vehicle 3. The facility map includes the location of the shelf R, the height of the shelf R, the location of the passageway, the location of obstacles, and area information for each security level. The facility map also stores the width of traffic routes. In this embodiment, the management device 5 manages a plurality of automatic guided vehicles 3, and the storage unit 50 stores a cargo handling schedule related to each automatic guided vehicle 3. Furthermore, the storage unit 50 may store the position information of the object and the product number and name of the object in association with each other. Furthermore, the storage unit 50 may store the name of the person P to be guided and the security level of the person P to be guided in association with each other.

ルート決定部51は、誘導対象者Pの位置と、目的地の位置と、施設マップとに基づいて、誘導対象者Pが目的地へと向かうルート(以下、単に「ルート」という)を決定する。ルート決定部51は、目的地取得部11が取得した情報が物の品番や名称である場合、その品番や名称に対応する物の位置を記憶部50から読み取ることにより、目的地の位置を取得する。 The route determination unit 51 determines a route for the guided person P to the destination (hereinafter simply referred to as "route") based on the location of the guided person P, the location of the destination, and the facility map. . When the information acquired by the destination acquisition unit 11 is the product number or name of an object, the route determination unit 51 acquires the position of the destination by reading the position of the object corresponding to the product number or name from the storage unit 50. do.

ルート決定部51は、例えば、誘導対象者Pと目的地とを結ぶ最短のルートを決定したり、または、誘導対象者Pが施設内部の者か否かに基づいて、施設内の機密エリアを通らないようルートを決定したり、外部の者にとって危険なゾーンを回避するようルートを決定したりしてもよい。 For example, the route determining unit 51 determines the shortest route between the person P to be guided and the destination, or determines a confidential area within the facility based on whether or not the person P to be guided is inside the facility. The route may be determined so as not to pass through, or may be determined so as to avoid zones that are dangerous for outsiders.

また、ルート決定部51は、誘導対象者Pのルートと、複数の無人搬送車3の通行ルートとが重ならないようにルートを決定する。ルート決定部51は、例えば、複数の無人搬送車3が走行する時刻を考慮してルートを決定したり、複数の無人搬送車3の現在位置に基づいて、リアルタイムでルートを更新したりしてもよい。 Further, the route determining unit 51 determines a route so that the route of the guided person P and the travel routes of the plurality of automatic guided vehicles 3 do not overlap. For example, the route determination unit 51 determines a route by taking into consideration the times at which the plurality of automatic guided vehicles 3 travel, or updates the route in real time based on the current positions of the plurality of automatic guided vehicles 3. Good too.

配置決定部52は、決定されたルート上における各無人飛行体2の配置位置を決定する。より詳細には、配置決定部52は、ルート上における屈曲位置、目的地位置にそれぞれ無人飛行体2を配置するとともに、その他の位置にも無人飛行体2を配置する。また、配置決定部52は、複数の無人飛行体2間の水平距離およびホバリング高さH(以下、単に「高さH」という)が一定になるよう配置位置を決定する。無人飛行体2の高さHは、誘導対象者Pの前方の視界を遮らないよう、誘導対象者Pの頭部位置よりも高い方が好ましい。無人飛行体2間の水平距離は、例えば、1m~10mの間で固定されていてもよい。本実施形態では、当該水平距離Q1は、5mに構成されている。 The placement determining unit 52 determines the placement position of each unmanned flying vehicle 2 on the determined route. More specifically, the placement determining unit 52 places the unmanned flying object 2 at each bending position and destination position on the route, and also places the unmanned flying object 2 at other positions. Further, the arrangement determining unit 52 determines the arrangement positions so that the horizontal distance and hovering height H (hereinafter simply referred to as "height H") between the plurality of unmanned flying objects 2 are constant. The height H of the unmanned flying object 2 is preferably higher than the head position of the person P to be guided so as not to obstruct the forward view of the person P to be guided. The horizontal distance between the unmanned aerial vehicles 2 may be fixed, for example, between 1 m and 10 m. In this embodiment, the horizontal distance Q1 is set to 5 m.

投影制御部53は、図2Aに示すように、所定の距離Q1をおいて等間隔に配置された無人飛行体2に図2Bに示された第1、第2および第3画像D1、D2、D3を投影させる。これにより、誘導システムSは、誘導画像Dを所定の距離Q2をおいて等間隔で床面に表示させることができる。また、誘導システムSは、当該距離Q2を所定の距離で固定しているので、誘導画像Dの数によって、屈曲位置、目的地までの距離を誘導対象者Pに直感的に認識させることができる。 As shown in FIG. 2A, the projection control unit 53 projects the first, second, and third images D1, D2, and Project D3. Thereby, the guidance system S can display the guidance images D on the floor at equal intervals with a predetermined distance Q2. Further, since the guidance system S fixes the distance Q2 at a predetermined distance, the person P to be guided can intuitively recognize the bending position and the distance to the destination based on the number of guidance images D. .

投影制御部53は、図2Bに示すように、ルート上における直進位置、屈曲位置および目的地の位置に応じて、第1、第2および第3画像D1、D2、D3を投影部24に投影させる。第1、第2および第3画像D1、D2、D3の色は互いに異なっているので、誘導システムSは、各位置で表示された誘導画像Dの色によって、誘導対象者Pに直進位置、屈曲位置、目的地をそれぞれ認識させることができ、単に形状を異ならせた誘導画像Dよりも直感的に各位置を認識させることができる。本実施形態では、各位置に対応する第1、第2および第3画像D1、D2、D3が予め無人飛行体2の記憶部23に記憶されているので、投影制御部53は、直進位置、屈曲位置および目的地に配置された無人飛行体2の投影部24を制御して、各位置に対応する誘導画像Dを投影させる。 As shown in FIG. 2B, the projection control unit 53 projects the first, second, and third images D1, D2, and D3 onto the projection unit 24 according to the straight position, bending position, and destination position on the route. let Since the colors of the first, second, and third images D1, D2, and D3 are different from each other, the guidance system S can guide the person P to a straight position or a bent position depending on the color of the guidance image D displayed at each position. The position and the destination can be recognized respectively, and each position can be recognized more intuitively than the guidance image D that simply has a different shape. In this embodiment, since the first, second, and third images D1, D2, and D3 corresponding to each position are stored in advance in the storage unit 23 of the unmanned aerial vehicle 2, the projection control unit 53 can control the straight forward position, The projection unit 24 of the unmanned flying vehicle 2 placed at the bending position and the destination is controlled to project the guidance image D corresponding to each position.

また、投影制御部53は、第1、第2および第3画像D1、D2、D3を走行方向に流れるように周期的に点滅させて、その流れ点滅効果によって誘導対象者Pを誘導させてもよい。または、投影制御部53は、第1画像D1のみを流れ点滅させ第2画像D2および第3画像D3は、点灯させておいてもよい。さらに、投影制御部53は、第2および第3画像D2、D3のみを点滅させてもよい。投影制御部53は、このように、第1、第2および第3画像D1、D2、D3全体を特定のパターンで点滅させたり、第1、第2および第3画像D1、D2、D3をそれぞれ異なるパターンで点灯、点滅させたりすることにより、誘導対象者Pに直感的にルートの方向、各位置関係等を認識させることができる。 Furthermore, the projection control unit 53 may periodically blink the first, second, and third images D1, D2, and D3 so as to flow in the running direction, and guide the guided person P by the flowing blinking effect. good. Alternatively, the projection control unit 53 may cause only the first image D1 to flow and blink while the second image D2 and third image D3 remain lit. Furthermore, the projection control unit 53 may cause only the second and third images D2 and D3 to blink. In this way, the projection control unit 53 causes the entire first, second, and third images D1, D2, and D3 to blink in a specific pattern, or causes the first, second, and third images D1, D2, and D3 to blink, respectively. By lighting or blinking in different patterns, the guided person P can intuitively recognize the direction of the route, each positional relationship, etc.

また、投影制御部53は、誘導対象者Pの前方数メートルの位置において画像なしスペースQ3を設け、その画像なしスペースQ3上方の無人飛行体2aに投影させない。これは、誘導対象者Pの視線が下方に集中し、誘導対象者Pが前方を認識できなくなることを防止するためである。すなわち、投影制御部53は、画像なしスペースQ3を設けることにより、誘導対象者Pの視線を前方に向かせ、歩行中の安全性を向上させる。なお、誘導対象者Pが移動することにより画像なしスペースQ3もそれに伴って移動するので、投影制御部53は、画像なしスペースQ3上方内に位置することになった無人飛行体2の投影をさらに停止させる。 Furthermore, the projection control unit 53 establishes an image-free space Q3 at a position several meters in front of the guidance target person P, and does not project the image onto the unmanned flying object 2a above the image-free space Q3. This is to prevent the person P to be guided from concentrating his/her line of sight downward and from being unable to recognize what is ahead. That is, by providing the image-free space Q3, the projection control unit 53 directs the line of sight of the person P to be guided forward, thereby improving safety while walking. Note that as the guided person P moves, the imageless space Q3 also moves accordingly, so the projection control unit 53 further adjusts the projection of the unmanned aerial vehicle 2 that is located above the imageless space Q3. make it stop.

さらに、投影制御部53は、誘導対象者Pのセキュリティレベルに基づいて、誘導画像Dの色を異ならせたり、誘導画像Dの点滅パターンを変更してもよい。これにより、誘導対象者P以外の者に、施設外の者が来たことを間接的に報知することができる。 Furthermore, the projection control unit 53 may change the color of the guide image D or change the blinking pattern of the guide image D based on the security level of the person P to be guided. Thereby, it is possible to indirectly notify people other than the guided person P that a person outside the facility has arrived.

音声制御部54は、画像なしスペースQ3の上方に配置された無人飛行体2のスピーカ25を制御して、屈曲位置および目的地のいずれかまたは両方ならびにその他の情報を、誘導対象者Pに報知させる。報知させる第1音声V1は、例えば、「15m先を左折です」、「30m先、目的地です」、「この先、障害物があります。ご注意ください」などでもよい。当該第1音声V1は、記憶部23に記憶されている「○m」、「先を左折です」、「先、目的地です」、「この先、障害物があります。」、「ご注意ください」などを適宜組み合わされ生成されてもよい。誘導システムSは、これら第1音声V1による報知によって、誘導対象者Pにさらに直感的に屈曲位置、目的地などを認識させることができる。 The audio control unit 54 controls the speaker 25 of the unmanned flying object 2 placed above the imageless space Q3 to notify the person P to be guided of either or both of the bending position and the destination, as well as other information. let The first voice V1 to be notified may be, for example, "Turn left in 15 meters", "30 meters ahead, destination", "There is an obstacle ahead. Please be careful", etc. The first voice V1 includes "○m", "Turn left ahead", "Ahead, destination", "There is an obstacle ahead", "Please be careful", which are stored in the storage unit 23. It may be generated by appropriately combining the above. The guidance system S can make the person P to be guided more intuitively recognize the bending position, destination, etc. by the notification using the first voice V1.

また、音声制御部54は、施設マップと、取得された人物情報と、に基づいて、所定の第1音声V1をスピーカ25に出力させる。例えば、音声制御部54は、誘導対象者Pが施設外部の者であり、ルートの左側が立ち入り禁止になっている場合、「左側は立入禁止です」との第1音声V1をスピーカ25に出力させてもよい。 Furthermore, the audio control unit 54 causes the speaker 25 to output a predetermined first audio V1 based on the facility map and the acquired personal information. For example, if the person to be guided P is outside the facility and the left side of the route is off-limits, the audio control unit 54 outputs the first audio V1 to the speaker 25 saying "Entry is off-limits on the left side". You may let them.

ニューラルネット55は、後で説明するマイク60が集音した無人飛行体2の騒音と、無人飛行体2の数と、無人飛行体2の位置と、マイク60と無人飛行体2との距離と、後で説明する減衰スピーカ62と無人飛行体2との距離と、を入力データとし、騒音の逆位相の音声信号を出力データとする教師データによって予め学習させられている。そして、ニューラルネット55は、マイク60が集音した無人飛行体2の騒音と、無人飛行体2の数と、無人飛行体2の位置と、マイク60と無人飛行体2との距離と、減衰スピーカ62と無人飛行体2との距離と、を入力されると、騒音を消すための逆位相の音声信号を生成する。 The neural network 55 calculates the noise of the unmanned flying vehicles 2 collected by the microphone 60, which will be described later, the number of unmanned flying vehicles 2, the position of the unmanned flying vehicle 2, and the distance between the microphone 60 and the unmanned flying vehicle 2. , the distance between the attenuated speaker 62 and the unmanned flying vehicle 2, which will be described later, are used as input data, and an audio signal having the opposite phase of the noise is used as output data. Then, the neural net 55 calculates the noise of the unmanned aerial vehicle 2 collected by the microphone 60, the number of unmanned aerial vehicles 2, the position of the unmanned aerial vehicle 2, the distance between the microphone 60 and the unmanned aerial vehicle 2, and the attenuation. When the distance between the speaker 62 and the unmanned flying vehicle 2 is input, an audio signal with an opposite phase to eliminate noise is generated.

<ノイズキャンセル部>
図1および図2Bに示すように、ノイズキャンセル部6は、棚Rの上面に複数配置されている。図3に示すように、複数のノイズキャンセル部6は、マイク60と、角度変更部61と、減衰スピーカ62と、をそれぞれ有する。ノイズキャンセル部6は、管理装置5と通信可能に構成されている。
<Noise cancellation section>
As shown in FIGS. 1 and 2B, a plurality of noise canceling units 6 are arranged on the upper surface of the shelf R. As shown in FIG. 3, each of the plurality of noise canceling sections 6 includes a microphone 60, an angle changing section 61, and an attenuation speaker 62. The noise canceling unit 6 is configured to be able to communicate with the management device 5.

マイク60は、無人飛行体2からの騒音を集音するよう構成されている。集音された無人飛行体2の騒音信号は、ニューラルネット55に送信される。 The microphone 60 is configured to collect noise from the unmanned aerial vehicle 2. The collected noise signal of the unmanned flying vehicle 2 is transmitted to the neural network 55.

ニューラルネット55は、受信した無人飛行体2の騒音信号と、無人飛行体2の数と、無人飛行体2の位置と、マイク60と無人飛行体2との距離と、減衰スピーカ62と無人飛行体2との距離とに基づいて、騒音を消すための逆位相の音声信号を生成し、生成した音声信号を減衰スピーカ62に送信する。 The neural network 55 receives the received noise signal of the unmanned flying vehicle 2, the number of unmanned flying vehicles 2, the position of the unmanned flying vehicle 2, the distance between the microphone 60 and the unmanned flying vehicle 2, the attenuation speaker 62, and the unmanned flying vehicle. Based on the distance to the body 2, an opposite phase audio signal is generated to eliminate noise, and the generated audio signal is transmitted to the attenuation speaker 62.

角度変更部61は、ジンバル等といった方向を変更させる部材で構成されており、減衰スピーカ62に連結されている。角度変更部61は、減衰スピーカ62を無人飛行体2の方角に向けるよう構成されている。より詳細には、角度変更部61は、減衰スピーカ62との距離が最も短い無人飛行体2の方角に減衰スピーカ62を向ける。角度変更部61は、1つの無人飛行体2に対して、1つの減衰スピーカ62を向けるよう構成されていてもよい。 The angle changing section 61 is made up of a member that changes the direction, such as a gimbal, and is connected to the damping speaker 62 . The angle changing unit 61 is configured to direct the damping speaker 62 in the direction of the unmanned aerial vehicle 2 . More specifically, the angle changing unit 61 directs the attenuation speaker 62 in the direction of the unmanned flying vehicle 2 that is the shortest distance from the attenuation speaker 62 . The angle changing unit 61 may be configured to direct one attenuation speaker 62 toward one unmanned flying object 2 .

減衰スピーカ62は、指向性を有し、この指向性の角度は、例えば、5度~30度、または、5度~20度でもよい。減衰スピーカ62は、ニューラルネット55から入力された音声信号を無人飛行体2に発する。減衰スピーカ62は、角度変更部61によって無人飛行体2の方角に向けられており、しかも、いわゆる超指向性を有することにより、無人飛行体2の騒音を適切に減衰させることができる。これにより、無人飛行体2aから発する第1音声V1を誘導対象者Pに適切に届けることができる。 The attenuation speaker 62 has directivity, and the angle of this directivity may be, for example, 5 degrees to 30 degrees or 5 degrees to 20 degrees. The attenuation speaker 62 emits the audio signal input from the neural network 55 to the unmanned aircraft 2. The attenuation speaker 62 is directed in the direction of the unmanned flying vehicle 2 by the angle changing unit 61, and has so-called superdirectivity, so that the noise of the unmanned flying vehicle 2 can be appropriately attenuated. Thereby, the first sound V1 emitted from the unmanned flying object 2a can be appropriately delivered to the person P to be guided.

図1を参照して、配置決定部52によって配置された各無人飛行体2の役割について改めて説明する。誘導対象者Pの前方2つの無人飛行体2aは、誘導画像Dを投影せず、第1音声V1によって誘導対象者Pを誘導する。無人飛行体2aと屈曲位置との間、および屈曲位置と目的地との間に配置された無人飛行体2bは、第1画像D1を投影し、誘導対象者Pを誘導する。そして、屈曲位置、目的地にそれぞれ配置された無人飛行体2c、2dは、第2および第3画像D2、D3を投影し屈曲位置および目的地をそれぞれ示して、誘導対象者Pを誘導する。 With reference to FIG. 1, the role of each unmanned flying object 2 placed by the placement determining unit 52 will be explained again. The two unmanned flying objects 2a in front of the person to be guided P do not project the guidance image D and guide the person P to be guided by the first sound V1. The unmanned flying object 2b placed between the unmanned flying object 2a and the bending position and between the bending position and the destination projects the first image D1 and guides the person P to be guided. The unmanned flying objects 2c and 2d placed at the bending position and the destination, respectively, project the second and third images D2 and D3 to show the bending position and the destination, respectively, and guide the person P to be guided.

これにより、誘導システムSは、誘導対象者Pを目的地まで適切に誘導することができ、しかも、目的地までの距離および方向等を誘導対象者Pに直感的に認識させることもできる。さらに、誘導システムSは、無人飛行体2を固定距離Q1ごとに配置し、それによって誘導画像Dを固定距離Q2ごとに床面に表示させるので、誘導対象者Pの視認性を向上させることができる。加えて、誘導システムSは、無人搬送車3の荷役スケジュールに基づいてルートを決定したり、無人搬送車3をルート手前で停止させたりすることにより、無人搬送車3と誘導対象者Pとが衝突することを防止することができる。 Thereby, the guidance system S can appropriately guide the person P to be guided to the destination, and can also make the person P to be guided intuitively recognize the distance, direction, etc. to the destination. Furthermore, the guidance system S arranges the unmanned flying objects 2 at fixed distances Q1, and thereby displays the guidance images D on the floor at fixed distances Q2, thereby improving the visibility of the guided person P. can. In addition, the guidance system S determines the route based on the cargo handling schedule of the automatic guided vehicle 3 and stops the automatic guided vehicle 3 before the route, so that the automatic guided vehicle 3 and the guided person P are Collision can be prevented.

また、誘導システムSによれば、有人による案内が不要になるので、昨今の人材不足を補うとともに人件費を削減することもできる。さらに、誘導システムSによれば、有人による案内をしないことにより、感染症対策としても有効であり、誘導対象者Pに安心感を与えることもできる。 Furthermore, the guidance system S eliminates the need for manned guidance, making it possible to compensate for the recent shortage of human resources and reduce personnel costs. Furthermore, according to the guidance system S, by not providing guidance by a man, it is effective as a countermeasure against infectious diseases and can also give a sense of security to the person to be guided P.

以上、本発明の一実施形態に係る誘導システムSについて説明してきたが、本発明に係る誘導システムは、上記実施形態に限定されない。例えば、上記実施形態は、以下のように変形してもよく、また、以下変形例と組み合わせて実施してもよい。 Although the guidance system S according to one embodiment of the present invention has been described above, the guidance system according to the present invention is not limited to the above embodiment. For example, the above embodiment may be modified as follows, or may be implemented in combination with the following modifications.

<変形例>
(1)誘導システムSは、図4Aおよび図4Bに示すように、第1、第2および第3画像D1、D2、D3の代わりに単純な丸い光の像D4、D5、D6や矢印の光の像D7、D8、D9を誘導画像Dとして、無人飛行体2に投影させてもよい。この場合、誘導システムSは、図4Aおよび図4Bに示すように、ルート上における屈曲位置、目的地および他の位置に応じて、当該光の像の大きさ、色および形状をそれぞれ異ならせてもよい。図4Aおよび図4Bにおいて、光の像D4、D7は走行方向を示し、光の像D5、D8は屈曲位置と走行方向を示し、光の像D6、D9は目的地と載置位置とをそれぞれ示している。
<Modified example>
(1) As shown in FIGS. 4A and 4B, the guidance system S uses simple round light images D4, D5, D6 or arrow lights instead of the first, second and third images D1, D2, D3. The images D7, D8, and D9 may be projected onto the unmanned aerial vehicle 2 as the guidance images D. In this case, the guidance system S varies the size, color, and shape of the light image depending on the bending position, destination, and other positions on the route, as shown in FIGS. 4A and 4B. Good too. In FIGS. 4A and 4B, light images D4 and D7 indicate the running direction, light images D5 and D8 indicate the bending position and running direction, and light images D6 and D9 indicate the destination and placement position, respectively. It shows.

(2)誘導システムSは、例えば、図5Aに示すように、無人飛行体2を載置位置の高さに配置してもよい。この場合、配置決定部52は、無人飛行体2が載置位置の高さに配置されるよう配置位置を決定する。または、誘導システムSは、例えば、図5Bに示すように、無人飛行体2を誘導対象者Pの顔の高さと載置位置の高さとを結ぶ直線Lに沿って配置してもよい。この場合、配置決定部52は、無人飛行体2を直線Lに沿う高さに配置されるよう配置位置を決定する。これらのように無人飛行体2を配置することにより、誘導システムSは、載置位置の高さも誘導対象者Pに直感的に認識させることができる。 (2) The guidance system S may arrange the unmanned flying object 2 at the height of the mounting position, for example, as shown in FIG. 5A. In this case, the placement determining unit 52 determines the placement position so that the unmanned flying object 2 is placed at the height of the placement position. Alternatively, the guidance system S may arrange the unmanned flying object 2 along a straight line L connecting the height of the face of the person P to be guided and the height of the placement position, for example, as shown in FIG. 5B. In this case, the placement determining unit 52 determines the placement position so that the unmanned flying object 2 is placed at a height along the straight line L. By arranging the unmanned flying object 2 in this manner, the guidance system S allows the person to be guided P to intuitively recognize the height of the mounting position.

なお、誘導システムSは、このように無人飛行体2の位置を配置した場合、載置位置が低い位置のとき、無人飛行体2によって誘導画像Dが遮られ、誘導画像Dを誘導対象者Pに認識させることができない。そこで、誘導システムSは、無人飛行体2の投影部24を下方および上方に誘導画像Dを投影可能に構成され、載置位置の高さが所定高さ以下のとき、投影制御部53によって投影部24を制御して、図6に示すように、天井に向かって誘導画像Dを投影させるよう構成されてもよい。所定高さは、例えば、0.5m~1mとしてもよい。この場合、誘導対象者Pは、天井に投影された誘導画像Dによってルートの方向、屈曲位置、目的地を認識するとともに、無人飛行体2の高さHによって載置位置の高さを認識することができる。 In addition, when the position of the unmanned aerial vehicle 2 is arranged in this way, the guidance image D is blocked by the unmanned aerial vehicle 2 when the unmanned aerial vehicle 2 is placed at a low position, and the guidance image D is directed to the guided person P. cannot be recognized. Therefore, the guidance system S is configured to be able to project the guidance image D downward and upward through the projection unit 24 of the unmanned aerial vehicle 2, and when the height of the mounting position is below a predetermined height, the projection control unit 53 The guide image D may be projected toward the ceiling by controlling the unit 24, as shown in FIG. The predetermined height may be, for example, 0.5 m to 1 m. In this case, the guidance target person P recognizes the direction of the route, the bending position, and the destination from the guidance image D projected on the ceiling, and also recognizes the height of the mounting position from the height H of the unmanned flying object 2. be able to.

さらに、誘導システムSは、誘導対象者Pの視線が上方に向かい前方を認識できなくなることを防止するために、天井に向かって投影させるとき、画像なしスペースQ3の距離をさらに長く設定してもよい。この場合、例えば、誘導対象者Pの視線の角度を認識する視線認識部をさらに備え、投影制御部53は、誘導対象者Pの視線の角度に基づいて画像なしスペースQ3の距離を調整するよう構成してもよい。視線認識部は、カメラを有し、当該カメラは、例えば、無人飛行体2または棚R等に配置されてもよい。また、投影制御部53は、投影対象に応じて、光もしくは画像またはその両方の大きさ、または光もしくは画像またはその両方の形状を決定する。すなわち、投影制御部53は、天井に投影させる誘導画像Dの大きさ、形状を床面に投影させるときと異ならせてもよい。 Furthermore, the guidance system S may set the distance of the no-image space Q3 to be longer when projecting toward the ceiling, in order to prevent the guidance target person P's line of sight from moving upward and becoming unable to recognize the front. good. In this case, for example, the projection control unit 53 further includes a line-of-sight recognition unit that recognizes the angle of the line of sight of the person P to be guided, and the projection control unit 53 adjusts the distance of the image-free space Q3 based on the angle of the line of sight of the person P to be guided. may be configured. The line of sight recognition unit includes a camera, and the camera may be placed, for example, on the unmanned aerial vehicle 2 or the shelf R. Furthermore, the projection control unit 53 determines the size of the light and/or the image, or the shape of the light and/or the image, depending on the projection target. That is, the projection control unit 53 may make the size and shape of the guided image D projected on the ceiling different from those when projected on the floor.

(3)誘導システムSは、誘導対象者Pの位置を施設内に設けられたカメラや無人飛行体2に設けたカメラによって認識してもよい。この場合、誘導システムSは、位置検出部12を備えなくてもよい。 (3) The guidance system S may recognize the position of the person P to be guided using a camera installed within the facility or a camera installed on the unmanned flying vehicle 2. In this case, the guidance system S does not need to include the position detection section 12.

(4)誘導システムSは、誘導画像Dを、例えば、第1画像D1のみで構成し、屈曲位置および目的地に投影された第1画像D1を点滅させることにより誘導対象者Pに屈曲位置および目的地を認識させてもよい。さらに誘導システムSは、スピーカ25が発する音声をブザー、チャイム等によって構成し、その音声によって屈曲位置および目的地を誘導対象者Pに報知してもよい。 (4) The guidance system S configures the guidance image D, for example, only with the first image D1, and flashes the first image D1 projected at the bending position and the destination to give the guidance target person P the bending position and the destination. The destination may also be recognized. Furthermore, the guidance system S may configure the sound emitted by the speaker 25 using a buzzer, a chime, etc., and notify the person P to be guided of the bending position and the destination using the sound.

(5)投影制御部53は、画像なしスペースQ3を必ずしも設けなくてもよい。この場合、投影制御部53は、無人飛行体2が役割を終えて移動するとき、投影部24による投影を停止させる。これにより、誘導システムSは、無人飛行体2が役割を終えて移動するとき、他の無人飛行体2による誘導を阻害し誘導対象者Pを混乱させることを防止することができる。 (5) The projection control unit 53 does not necessarily need to provide the no-image space Q3. In this case, the projection control section 53 stops the projection by the projection section 24 when the unmanned flying object 2 finishes its role and moves. Thereby, when the unmanned flying object 2 finishes its role and moves, the guidance system S can prevent guidance by other unmanned flying objects 2 from being inhibited and the guidance target person P from being confused.

(6)マイク60は、指向性を有し、角度変更部61は、さらに、マイク60を無人飛行体2の方角に向けるよう構成されていてもよい。そして、ニューラルネット55は、マイク60が集音した無人飛行体2の騒音と、無人飛行体2とマイク60との距離と、無人飛行体2と減衰スピーカ62との距離と、を入力データとし、騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、マイク60が集音した無人飛行体2の騒音と、無人飛行体2とマイク60との距離と、無人飛行体2と減衰スピーカ62との距離と、を入力されると、マイク60が向けられた無人飛行体2の騒音を消すための逆位相の音声信号を生成するよう構成されていてもよい。これにより、減衰スピーカ62は、ニューラルネット55によって生成された音声信号をマイク60が向けられた無人飛行体2に向けて発することにより、無人飛行体2の騒音を減少させる。マイク60の指向性の角度は、例えば、5度~30度、または、5度~20度でもよい。上記実施形態では、ニューラルネット55が複数の無人飛行体2の騒音に対する逆位相の音声信号を生成する構成に対し、この変形例では、ニューラルネット55が各無人飛行体2の騒音に対する逆位相の音声信号を生成する構成であるので、より適切な消音効果が期待できる。 (6) The microphone 60 may have directivity, and the angle changing unit 61 may be further configured to direct the microphone 60 in the direction of the unmanned flying vehicle 2. Then, the neural net 55 uses the noise of the unmanned flying vehicle 2 collected by the microphone 60, the distance between the unmanned flying vehicle 2 and the microphone 60, and the distance between the unmanned flying vehicle 2 and the attenuation speaker 62 as input data. , the noise of the unmanned aerial vehicle 2 collected by the microphone 60, the distance between the unmanned aerial vehicle 2 and the microphone 60, and the unmanned aerial vehicle 2. and the distance from the attenuating speaker 62 are input, the configuration may be configured to generate an opposite phase audio signal for canceling the noise of the unmanned aircraft 2 to which the microphone 60 is directed. Thereby, the damping speaker 62 reduces the noise of the unmanned aerial vehicle 2 by emitting the audio signal generated by the neural network 55 toward the unmanned aerial vehicle 2 toward which the microphone 60 is directed. The directivity angle of the microphone 60 may be, for example, 5 degrees to 30 degrees or 5 degrees to 20 degrees. In the above embodiment, the neural network 55 generates an audio signal with an opposite phase to the noise of a plurality of unmanned flying vehicles 2, whereas in this modification, the neural net 55 generates an audio signal with an opposite phase to the noise of each unmanned flying vehicle 2. Since it is configured to generate an audio signal, a more appropriate muffling effect can be expected.

(7)無人飛行体2は、誘導対象者P以外の者を認識するためのカメラを有し、停止指令部26は、誘導対象者P以外の者が無人飛行体2の所定の距離内に進入したとき、「ご注意ください」の音声をスピーカ25に出力させてもよい。これにより、無人飛行体2の直下に人が進入することを防止し、事故により無人飛行体2が落下した際に、無人飛行体2が人の上に落下することを防止することができる。 (7) The unmanned flying object 2 has a camera for recognizing a person other than the person to be guided When entering, the speaker 25 may output a voice saying "Please be careful." Thereby, it is possible to prevent a person from entering directly under the unmanned flying object 2, and to prevent the unmanned flying object 2 from falling on a person when the unmanned flying object 2 falls due to an accident.

(8)無人搬送車3は、カメラを有し、床面に投影された誘導画像Dを認識することができるよう構成され、かつ、誘導画像を認識すると停止指令受信部に停止信号が送信されるよう構成されていてもよい。これにより、搬送システムは、無人搬送車3がルートを横切ることを防止し、誘導対象者Pと無人搬送車3との衝突を防止することができる。 (8) The automatic guided vehicle 3 has a camera and is configured to be able to recognize the guidance image D projected on the floor, and upon recognizing the guidance image, sends a stop signal to the stop command receiving unit. It may be configured so that Thereby, the transport system can prevent the automatic guided vehicle 3 from crossing the route, and can prevent a collision between the guided person P and the automatic guided vehicle 3.

1 読取機
10 人物情報取得部
11 目的地取得部
12 位置検出部
2 無人飛行体
22 飛行制御部
23 記憶部
24 投影部
25 スピーカ
26 停止指令部
3 無人搬送車
30 車位置検出部
31 駆動部
32 制御部
33 停止指令受信部
5 管理装置
50 記憶部
51 ルート決定部
52 配置決定部
53 投影制御部
54 音声制御部
55 ニューラルネット
6 ノイズキャンセル部
60 マイク
61 角度変更部
62 減衰スピーカ
D1 第1画像
D2 第2画像
D3 第3画像
H ホバリング高さ
L 直線
P 誘導対象者
Q1 無人飛行体間の水平距離
Q2 誘導画像間の距離
Q3 画像なしスペース
R 棚
S 誘導システム
W 目的物
V1 第1音声
V2 第2音声
1 Reader 10 Person information acquisition section 11 Destination acquisition section 12 Position detection section 2 Unmanned flying object 22 Flight control section 23 Storage section 24 Projection section 25 Speaker 26 Stop command section 3 Automatic guided vehicle 30 Vehicle position detection section 31 Drive section 32 Control unit 33 Stop command receiving unit 5 Management device 50 Storage unit 51 Route determining unit 52 Arrangement determining unit 53 Projection control unit 54 Audio control unit 55 Neural net 6 Noise canceling unit 60 Microphone 61 Angle changing unit 62 Attenuation speaker D1 First image D2 2nd image D3 3rd image H Hovering height L Straight line P Guided person Q1 Horizontal distance between unmanned aerial vehicles Q2 Distance between guided images Q3 Space without image R Shelf S Guidance system W Target V1 First voice V2 Second audio

Claims (16)

施設内において、誘導対象者を目的地に誘導する誘導システムであって、
ホバリング可能な複数の無人飛行体と、
管理装置と、を備え、
前記無人飛行体は、
光もしくは画像またはその両方を投影する投影部を有し、
前記管理装置は、
施設マップを記憶する記憶部と、
前記誘導対象者の位置と、前記目的地の位置と、前記施設マップとに基づいて、前記誘導対象者を前記目的地に誘導するためのルートを決定するルート決定部と、
決定された前記ルート上における各前記無人飛行体の配置位置を決定する配置決定部と、を有し、
前記複数の無人飛行体は、前記配置位置でホバリングしながら光もしくは画像またはその両方を投影して前記誘導対象者を誘導する、誘導システム。
A guidance system that guides a person to a destination within a facility,
Multiple unmanned aerial vehicles capable of hovering;
comprising a management device;
The unmanned aerial vehicle is
It has a projection part that projects light or an image or both,
The management device includes:
a storage unit that stores a facility map;
a route determining unit that determines a route for guiding the guidance target person to the destination based on the location of the guidance target person, the location of the destination, and the facility map;
a placement determining unit that determines the placement position of each of the unmanned flying vehicles on the determined route;
A guidance system, wherein the plurality of unmanned flying objects project light or images or both while hovering at the arrangement position to guide the guidance target person.
前記配置決定部は、前記複数の無人飛行体の間隔が一定になるよう前記配置位置を決定する、請求項1に記載の誘導システム。 The guidance system according to claim 1, wherein the arrangement determining unit determines the arrangement positions so that the intervals between the plurality of unmanned flying objects are constant. 前記配置決定部は、前記複数の無人飛行体の高さが一定になるよう前記配置位置を決定する、請求項1に記載の誘導システム。 The guidance system according to claim 1, wherein the arrangement determining unit determines the arrangement positions so that the heights of the plurality of unmanned flying objects are constant. 無人搬送車をさらに備え、
前記無人飛行体は、前記無人搬送車の走行を停止させる停止指令部をさらに有する、請求項1に記載の誘導システム。
Equipped with more automated guided vehicles,
The guidance system according to claim 1, wherein the unmanned flying vehicle further includes a stop command unit that stops traveling of the automatic guided vehicle.
前記誘導対象者の人物情報を取得する人物情報取得部をさらに備え、
前記ルート決定部は、さらに、前記人物情報に基づいて、前記ルートを決定する、請求項1に記載の誘導システム。
further comprising a person information acquisition unit that acquires person information of the guidance target;
The guidance system according to claim 1, wherein the route determining unit further determines the route based on the person information.
前記誘導対象者の人物情報を取得する人物情報取得部をさらに備え、
前記管理装置は、投影制御部をさらに有し、
前記投影制御部は、前記人物情報に基づいて、光の色または画像の色をそれぞれ異ならせて前記投影部に投影させる、請求項1に記載の誘導システム。
further comprising a person information acquisition unit that acquires person information of the guidance target;
The management device further includes a projection control section,
The guidance system according to claim 1, wherein the projection control section causes the projection section to project different colors of light or images based on the person information.
前記管理装置は、投影制御部をさらに有し、
前記投影制御部は、複数の前記投影部に、流れるように連続的に点滅投影させる、請求項1に記載の誘導システム。
The management device further includes a projection control section,
The guidance system according to claim 1, wherein the projection control unit causes the plurality of projection units to continuously flash and project images in a flowing manner.
前記管理装置は、投影制御部をさらに有し、
前記投影制御部は、前記ルート上における屈曲位置、前記目的地の位置および他の位置に応じて、光の色または画像の色をそれぞれ異ならせて前記投影部に投影させる、請求項1に記載の誘導システム。
The management device further includes a projection control section,
The projection control unit causes the projection unit to project different colors of light or images depending on the bending position, the position of the destination, and other positions on the route, respectively. guidance system.
前記管理装置は、投影制御部をさらに有し、
前記投影制御部は、前記誘導対象者と所定の距離内になった前記無人飛行体の投影を停止させる、請求項1に記載の誘導システム。
The management device further includes a projection control section,
The guidance system according to claim 1, wherein the projection control unit stops projection of the unmanned flying vehicle when it comes within a predetermined distance from the guidance target person.
前記管理装置は、投影制御部をさらに有し、
前記配置決定部は、目的の物が載置されている位置の高さに前記無人飛行体が配置されるよう前記配置位置を決定し、
前記投影部は、下方および上方に投影可能に構成されており、
前記投影制御部は、前記目的の物が載置されている位置の高さが所定高さ以下のとき、前記投影部に上方に向かって投影させる、請求項1に記載の誘導システム。
The management device further includes a projection control section,
The placement determining unit determines the placement position so that the unmanned flying vehicle is placed at a height of a position where a target object is placed,
The projection unit is configured to be able to project downward and upward,
The guidance system according to claim 1, wherein the projection control section causes the projection section to project upward when the height of the position where the target object is placed is below a predetermined height.
前記無人飛行体は、スピーカをさらに有し、
前記管理装置は、さらに、音声制御部を有し、
前記音声制御部は、屈曲位置および前記目的地の位置のいずれかまたは両方をスピーカに報知させる、請求項1に記載の誘導システム。
The unmanned aerial vehicle further includes a speaker,
The management device further includes a voice control unit,
The guidance system according to claim 1, wherein the audio control unit causes a speaker to notify either or both of the bending position and the destination position.
前記誘導対象者の人物情報を取得する人物情報取得部をさらに備え、
前記無人飛行体は、スピーカをさらに有し、
前記管理装置は、音声制御部をさらに有し、
前記音声制御部は、前記施設マップと、取得された前記人物情報と、に基づいて、所定の音声を前記スピーカに出力させる、請求項1に記載の誘導システム。
further comprising a person information acquisition unit that acquires person information of the guidance target;
The unmanned aerial vehicle further includes a speaker,
The management device further includes a voice control unit,
The guidance system according to claim 1, wherein the audio control unit causes the speaker to output a predetermined audio based on the facility map and the acquired person information.
前記無人飛行体は、スピーカをさらに有し、
前記管理装置は、投影制御部と、音声制御部と、をさらに有し、
前記音声制御部は、屈曲位置および前記目的地の位置のいずれかまたは両方を前記スピーカに報知させ、
前記投影制御部は、前記誘導対象者と所定の距離内の前記無人飛行体に投影させず、
前記音声制御部は、投影をしない前記無人飛行体の前記スピーカによって報知する、請求項1に記載の誘導システム。
The unmanned aerial vehicle further includes a speaker,
The management device further includes a projection control section and an audio control section,
The audio control unit causes the speaker to notify either or both of the bending position and the destination position,
The projection control unit does not project onto the unmanned flying vehicle within a predetermined distance from the guidance target person;
The guidance system according to claim 1, wherein the audio control unit provides notification through the speaker of the unmanned flying vehicle that does not project.
減衰スピーカと、前記減衰スピーカを前記無人飛行体の方角に向ける角度変更部とを有するノイズキャンセル部をさらに備え、
前記減衰スピーカは、前記無人飛行体が発する騒音と逆位相の音声信号を前記無人飛行体に向けて発する、請求項1に記載の誘導システム。
further comprising a noise canceling unit having an attenuated speaker and an angle changing unit that directs the attenuated speaker in the direction of the unmanned aerial vehicle,
The guidance system according to claim 1, wherein the attenuation speaker emits an audio signal to the unmanned aerial vehicle that is in phase opposite to the noise emitted by the unmanned aerial vehicle.
前記ノイズキャンセル部は、マイクをさらに有し、
前記管理装置は、前記マイクが集音した前記無人飛行体の騒音と、前記無人飛行体の数と、前記無人飛行体の位置と、前記マイクと前記無人飛行体との距離と、前記減衰スピーカと前記無人飛行体との距離と、を入力データとし、前記無人飛行体の騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、前記マイクが集音した前記無人飛行体の騒音と、前記無人飛行体の数と、前記無人飛行体の位置と、前記マイクと前記無人飛行体との距離と、前記減衰スピーカと前記無人飛行体との距離と、を入力されると、前記無人飛行体の騒音を消すための逆位相の音声信号を生成するよう構成されたニューラルネットをさらに有し、
前記減衰スピーカは、前記ニューラルネットによって生成された音声信号を前記無人飛行体に向けて発する、請求項14に記載の誘導システム。
The noise canceling section further includes a microphone,
The management device includes the noise of the unmanned flying vehicle collected by the microphone, the number of the unmanned flying vehicles, the position of the unmanned flying vehicle, the distance between the microphone and the unmanned flying vehicle, and the attenuation speaker. and the distance from the unmanned aerial vehicle as input data, and the output data is an audio signal with a phase opposite to the noise of the unmanned aerial vehicle, and the microphone collects the sound of the unmanned aerial vehicle. When the noise, the number of unmanned flying vehicles, the position of the unmanned flying vehicle, the distance between the microphone and the unmanned flying vehicle, and the distance between the attenuation speaker and the unmanned flying vehicle are input, further comprising a neural net configured to generate an anti-phase audio signal to cancel noise of the unmanned air vehicle;
15. The guidance system of claim 14, wherein the attenuated speaker emits an audio signal generated by the neural net toward the unmanned air vehicle.
前記ノイズキャンセル部は、指向性を有するマイクをさらに有し、
前記角度変更部は、さらに、前記マイクを前記無人飛行体の方角に向けるよう構成されており、
前記管理装置は、前記マイクが集音した前記無人飛行体の騒音と、前記無人飛行体と前記マイクとの距離と、前記無人飛行体と前記減衰スピーカとの距離と、を入力データとし、前記無人飛行体の騒音の逆位相の音声信号を出力データとする教師データによって学習させられ、前記マイクが集音した前記無人飛行体の騒音と、前記無人飛行体と前記マイクとの距離と、前記無人飛行体と前記減衰スピーカとの距離と、を入力されると、前記マイクが向けられた前記無人飛行体の騒音を消すための逆位相の音声信号を生成するよう構成されたニューラルネットをさらに有し、
前記減衰スピーカは、前記ニューラルネットによって生成された音声信号を前記無人飛行体に向けて発する、請求項14に記載の誘導システム。
The noise canceling unit further includes a directional microphone,
The angle changing unit is further configured to direct the microphone in the direction of the unmanned aerial vehicle,
The management device uses as input data the noise of the unmanned flying vehicle collected by the microphone, the distance between the unmanned flying vehicle and the microphone, and the distance between the unmanned flying vehicle and the attenuation speaker, and The noise of the unmanned aerial vehicle collected by the microphone, the distance between the unmanned aerial vehicle and the microphone, and the a distance between the unmanned air vehicle and the attenuated speaker; have,
15. The guidance system of claim 14, wherein the attenuated speaker emits an audio signal generated by the neural net toward the unmanned air vehicle.
JP2022140942A 2022-09-05 2022-09-05 Guidance System Active JP7517785B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022140942A JP7517785B2 (en) 2022-09-05 2022-09-05 Guidance System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022140942A JP7517785B2 (en) 2022-09-05 2022-09-05 Guidance System

Publications (2)

Publication Number Publication Date
JP2024036175A true JP2024036175A (en) 2024-03-15
JP7517785B2 JP7517785B2 (en) 2024-07-17

Family

ID=90198219

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022140942A Active JP7517785B2 (en) 2022-09-05 2022-09-05 Guidance System

Country Status (1)

Country Link
JP (1) JP7517785B2 (en)

Also Published As

Publication number Publication date
JP7517785B2 (en) 2024-07-17

Similar Documents

Publication Publication Date Title
US9508235B2 (en) Projection unit for a self-directing mobile platform, transport robot and method for operating a self-directing mobile platform
US20190041852A1 (en) Model for Determining Drop-off Spot at Delivery Location
JP7436132B2 (en) guidance system
JP7478182B2 (en) Guidance System
JP7436133B2 (en) guidance system
US11360478B2 (en) Method for the operation of an autonomous industrial truck and intra-logistics system with an autonomous industrial truck
JP7452938B2 (en) guidance system
JP7478185B2 (en) Guidance System
KR20130045290A (en) Autonomously travelling mobile robot
JP7430975B2 (en) guidance system
KR20130045289A (en) Travel control method of autonomously travelling mobile robot and entrance and exit control system thereof
KR20170130934A (en) Drone sky-highway building system and method of drone flight using the same
JP2024036175A (en) guidance system
JP7568381B2 (en) Guidance System
KR20130045291A (en) Autonomously travelling mobile robot and travel control method therof
JP7497951B2 (en) Guidance System
JP7478198B2 (en) Guidance System
JP7534065B2 (en) Guidance System
JP7509511B2 (en) Guidance System
JP2022123742A (en) Recognition state transmitting device
JP7478192B2 (en) Guidance System
JP7529724B2 (en) Guidance System
JP7553525B2 (en) Guidance System
JP7444531B2 (en) guidance system
JP7478200B2 (en) Guidance System

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230926

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240703

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240703

R150 Certificate of patent or registration of utility model

Ref document number: 7517785

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150