JP2020006793A - Unmanned air vehicle with sound absorbing function - Google Patents

Unmanned air vehicle with sound absorbing function Download PDF

Info

Publication number
JP2020006793A
JP2020006793A JP2018129421A JP2018129421A JP2020006793A JP 2020006793 A JP2020006793 A JP 2020006793A JP 2018129421 A JP2018129421 A JP 2018129421A JP 2018129421 A JP2018129421 A JP 2018129421A JP 2020006793 A JP2020006793 A JP 2020006793A
Authority
JP
Japan
Prior art keywords
sound
unmanned aerial
aerial vehicle
user
voice
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018129421A
Other languages
Japanese (ja)
Inventor
宏之 松本
Hiroyuki Matsumoto
宏之 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2018129421A priority Critical patent/JP2020006793A/en
Publication of JP2020006793A publication Critical patent/JP2020006793A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

To provide an unmanned air vehicle with a sound absorption function constantly hovering or patrolling/flying in a monitoring area, rapidly detecting a direction of a user requiring rescue or the like, appropriately receiving the needs of the user, performing a processing satisfying the needs and controlling the degradation of convenience for the user.SOLUTION: An unmanned air vehicle with a sound-absorbing function includes: a microphone array disposed on the bottom surface side of a housing and absorbing sound in a monitoring area; a voice processing part estimating a direction of a sound source generating in the monitoring area on the basis of data of the sound absorbed by the microphone array; a flying control part controlling hovering or patrolling/flying in the monitoring area, and controlling the flying/moving in a direction of the estimated sound source; a voice output part disposed on the bottom surface side of the housing and outputting stipulated voice from a speaker; and a control part receiving input of the processing satisfying the needs of a user and performing the processing after outputting the stipulated voice.SELECTED DRAWING: Figure 5

Description

本開示は、監視対象のエリアをホバリングもしくは巡回飛行する収音機能付き無人航空機に関する。   The present disclosure relates to an unmanned aerial vehicle with a sound collection function that hoveres or circulates around a monitored area.

特許文献1には、災害等の緊急時に救護作業を実行するために、使用者から救護作業の入力を受け付けると、その受け付けた入力内容に基づいて救護作業の実行を制御する無人航空機が開示されている。無人航空機は、救護作業を実施する前は、使用者が平時滞在する病院内の待機場所で待機し、使用者が選択した作業内容を受け付けると、待機場所を出て移動経路に沿って移動し、災害現場へ向かう。この移動経路は、無人航空機の送受信部により受信した災害場所の位置と待機場所の位置とを基にした演算処理によって得られたものである。   Patent Literature 1 discloses an unmanned aerial vehicle that controls the execution of a rescue operation based on the received input contents when an input of a rescue operation is received from a user in order to execute a rescue operation in an emergency such as a disaster. ing. Before performing rescue work, the unmanned aerial vehicle waits at a waiting place in the hospital where the user stays in peacetime, and after accepting the work selected by the user, exits the waiting place and moves along the travel route. , Head to the disaster site. This moving route is obtained by a calculation process based on the position of the disaster place and the position of the standby place received by the transmitting and receiving unit of the unmanned aerial vehicle.

特開2017−213951号公報JP 2017-213951 A

特許文献1の無人航空機は、緊急事態が発生していない平常時には病院内の待機場所で待機し、緊急事態が発生した後、救護作業を実施する災害現場の位置を指定された時点でその災害現場の位置に向かって移動する。言い換えると、特許文献1の無人航空機は、災害現場等の監視対象のエリアに定常的にホバリングもしくは巡回して飛行していない。このため、移動先の指定が予め入力されていなければ何処に向かって移動すればよいか判別できず、さらに災害現場で救助を求める被災者の声を迅速に検知できないので、救助が必要になってから迅速に救助等の作業を実行できず、利便性が低下するという課題があった。   The unmanned aerial vehicle disclosed in Patent Document 1 waits in a standby place in a hospital during an emergency when no emergency occurs, and after an emergency occurs, when the position of a disaster site where rescue work is performed is designated, the disaster occurs. Move towards the site location. In other words, the unmanned aerial vehicle disclosed in Patent Literature 1 does not constantly hover or circulate around an area to be monitored such as a disaster site. For this reason, it is not possible to determine where to move if the destination designation has not been input in advance, and it is not possible to quickly detect the voice of a victim who seeks rescue at a disaster site, so rescue is required. There was a problem that the work such as rescue could not be performed promptly afterwards, and the convenience was reduced.

本開示は、上述した従来の状況に鑑みて案出され、モニタリングエリアを定常的にホバリングもしくは巡回飛行し、救助等を求めるユーザの方向を迅速に検知してユーザのニーズを適切に受け付けてそのニーズに適合する処理を実行でき、ユーザの利便性の低下を抑制する収音機能付き無人航空機を提供することを目的とする。   The present disclosure has been devised in view of the above-described conventional situation, constantly hovering or circling in the monitoring area, quickly detecting the direction of the user seeking rescue, etc., appropriately accepting the needs of the user, and An object of the present invention is to provide an unmanned aerial vehicle with a sound collection function that can execute processing that meets needs and suppresses a decrease in user convenience.

本開示は、筐体の底面側に配置され、モニタリングエリアの音を収音するマイクアレイと、前記マイクアレイにより収音された音データに基づいて、前記モニタリングエリアに発生した音源の方向を推定する音声処理部と、前記モニタリングエリアのホバリングあるいは巡回飛行を制御するとともに、前記推定された音源の方向への飛行移動を制御する飛行制御部と、前記筐体の底面側に配置され、既定の音声をスピーカから出力する音声出力部と、前記既定の音声の出力後、前記ユーザのニーズを満たす処理の入力を受け付けて実行する制御部と、を備える、収音機能付き無人航空機を提供する。   The present disclosure is arranged on the bottom side of the housing, and estimates a direction of a sound source generated in the monitoring area based on sound data collected by the microphone array and sound collected by the microphone array. A voice processing unit that controls hovering or circulating flight of the monitoring area, and a flight control unit that controls flight movement in the direction of the estimated sound source. An unmanned aerial vehicle with a sound collection function, comprising: a sound output unit that outputs sound from a speaker; and a control unit that receives and executes an input of a process that satisfies the user's needs after outputting the predetermined sound.

本開示によれば、モニタリングエリアを定常的にホバリングもしくは巡回飛行し、救助等を求めるユーザの方向を迅速に検知でき、ユーザのニーズを適切に受け付けてそのニーズに適合する処理を実行できるので、ユーザの利便性の低下を抑制できる。   According to the present disclosure, it is possible to constantly hover or circulate around the monitoring area, quickly detect the direction of the user seeking rescue, etc., and appropriately execute the process that accepts the user's needs and meets the needs. A reduction in user convenience can be suppressed.

実施の形態1に係る無人航空機の筐体を底面側から見た外観の一例を示す図The figure which shows an example of the external appearance which looked at the housing | casing of the unmanned aerial vehicle which concerns on Embodiment 1 from the bottom side. 実施の形態1に係る無人航空機の筐体を側面側から見た外観の一例を示す図The figure which shows an example of the external appearance which looked at the housing | casing of the unmanned aerial vehicle which concerns on Embodiment 1 from the side. 実施の形態1に係る無人航空機のハードウェア構成例を示すブロック図FIG. 2 is a block diagram illustrating a hardware configuration example of the unmanned aerial vehicle according to the first embodiment. 実施の形態1に係る無人航空機の動作概要例を示す説明図Explanatory drawing which shows the operation | movement outline example of the unmanned aerial vehicle which concerns on Embodiment 1. 実施の形態1に係る無人航空機の第1動作手順の一例を時系列に示すフローチャートFlow chart showing an example of a first operation procedure of the unmanned aerial vehicle according to Embodiment 1 in chronological order 実施の形態1に係る無人航空機の第2動作手順の一例を時系列に示すフローチャートFlow chart showing an example of a second operation procedure of the unmanned aerial vehicle according to Embodiment 1 in chronological order 実施の形態1に係る無人航空機およびクラウドサーバのハードウェア構成例を示すブロック図Block diagram showing an example of a hardware configuration of an unmanned aerial vehicle and a cloud server according to Embodiment 1.

以下、適宜図面を参照しながら、本開示に係る収音機能付き無人航空機を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   Hereinafter, an embodiment that specifically discloses an unmanned aerial vehicle with a sound collection function according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, an unnecessary detailed description may be omitted. For example, a detailed description of well-known matters and a repeated description of substantially the same configuration may be omitted. This is to prevent the following description from being unnecessarily redundant and to facilitate understanding of those skilled in the art. The accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

以下、本開示に係る収音機能付き無人航空機として、監視対象のモニタリングエリア(災害、事件もしくは事故が発生し易い場所または発生した場所)を定常的にホバリング(飛行)して滞在、あるいは巡回して飛行する無人航空機を例示して説明する。無人航空機は、モニタリングエリアの音を収音する機能を有するとともに、ドローン等のUAV(Unmanned Aerial Vehicle)を用いて構成される。本開示は、収音機能付き無人航空機において実行される処理方法、あるいは、収音機能付き無人航空機を含むシステムとしてそれぞれ規定することも可能である。   Hereinafter, as an unmanned aerial vehicle with a sound collecting function according to the present disclosure, a monitoring area to be monitored (a place where a disaster, an incident or an accident is likely to occur or a place where it occurs) is constantly hovered (flighted) and stays or patrols. An example of an unmanned aerial vehicle that flies in the air will be described. The unmanned aerial vehicle has a function of collecting sound in a monitoring area and is configured using a UAV (Unmanned Aerial Vehicle) such as a drone. The present disclosure can also be defined as a processing method executed in an unmanned aerial vehicle with a sound collecting function, or a system including an unmanned aerial vehicle with a sound collecting function.

実施の形態1では、無人航空機の監視対象であるモニタリングエリアにおいて、例えばバイク事故を起こして困っているライダーが、モニタリングエリアをホバリングあるいは巡回飛行している無人航空機に救助等を求めるユースケースを、一例として説明する。また、便宜的に、上述したライダー(つまり、無人航空機に救助を求める人物)を「ユーザ」という。   In the first embodiment, in a monitoring area to be monitored by an unmanned aerial vehicle, for example, a rider who is in trouble due to a motorcycle accident seeks rescue or the like from an unmanned aerial vehicle hovering or circulating in the monitoring area, This will be described as an example. For convenience, the above-mentioned rider (that is, a person who seeks help from an unmanned aerial vehicle) is referred to as a “user”.

実施の形態1に係る無人航空機10は、筐体11の底面側に配置され、モニタリングエリア8の音を収音するマイクアレイMAを有する。無人航空機10は、マイクアレイMAにより収音された音データに基づいて、モニタリングエリア8に発生した音源の方向を推定する音声信号処理部26を有する。無人航空機10は、モニタリングエリア8のホバリングあるいは巡回飛行を制御するとともに、推定された音源の方向への飛行移動を制御するドローン飛行制御部22を有する。無人航空機10は、筐体11の底面側に配置され、既定の音声(後述参照)をスピーカSP1〜SP4からそれぞれ出力する音声出力部291〜294を有する。無人航空機10は、既定の音声の出力後、ユーザのニーズを満たす処理の入力を受け付けて実行するドローン制御管理部21を有する。   The unmanned aerial vehicle 10 according to the first embodiment has a microphone array MA that is disposed on the bottom surface side of the housing 11 and that collects sound in the monitoring area 8. The unmanned aerial vehicle 10 includes an audio signal processing unit 26 that estimates a direction of a sound source generated in the monitoring area 8 based on sound data collected by the microphone array MA. The unmanned aerial vehicle 10 has a drone flight control unit 22 that controls hovering or round-trip flight of the monitoring area 8 and controls flight movement in the direction of the estimated sound source. The unmanned aerial vehicle 10 has sound output units 291 to 294 that are arranged on the bottom side of the housing 11 and output predetermined sounds (see below) from the speakers SP1 to SP4, respectively. The unmanned aerial vehicle 10 includes a drone control management unit 21 that receives and executes a process that satisfies the needs of the user after outputting a predetermined voice.

図1は、実施の形態1に係る無人航空機10の筐体11を底面側から見た外観の一例を示す図である。図2は、実施の形態1に係る無人航空機10の筐体11を側面側から見た外観の一例を示す図である。   FIG. 1 is a diagram illustrating an example of an appearance of a housing 11 of an unmanned aerial vehicle 10 according to Embodiment 1 as viewed from a bottom side. FIG. 2 is a diagram illustrating an example of an appearance of the housing 11 of the unmanned aerial vehicle 10 according to Embodiment 1 as viewed from a side.

無人航空機10は、マルチコプタ型のUAV(Unmanned Aerial Vehicle)であり、ドローンとも呼ばれる。具体的には、無人航空機10は、複数(例えば4つ)の回転翼PR1,PR2,PR3,PR4を有する回転翼機構24(後述参照)を含む筐体11と、カメラCAと、マイクアレイMAと、複数(例えば4つ)のスピーカSP1〜SP4とを含む構成である。   The unmanned aerial vehicle 10 is a multi-copter type UAV (Unmanned Aerial Vehicle), and is also called a drone. Specifically, the unmanned aerial vehicle 10 includes a housing 11 including a rotor blade mechanism 24 (see below) having a plurality of (for example, four) rotor blades PR1, PR2, PR3, and PR4, a camera CA, and a microphone array MA. And a plurality of (for example, four) speakers SP1 to SP4.

従って、無人航空機10は、4つの回転翼PR1〜PR4の回転により、自律的に上昇、下降、左旋回、左方向への移動、右旋回、右方向への移動またはこれらの組み合わせを用いた複数の自由度を有した行動を行って飛行移動が可能である。また、無人航空機10は、筐体11に内蔵されたGPS(Global Positioning System)受信機(図示略)を用いて、自らの3次元的な空間位置の情報を取得可能である。   Accordingly, the unmanned aerial vehicle 10 autonomously ascends, descends, turns left, moves to the left, moves to the right, turns to the right, or uses a combination thereof by the rotation of the four rotors PR1 to PR4. Flying movement is possible by performing an action having a plurality of degrees of freedom. The unmanned aerial vehicle 10 can acquire its own three-dimensional spatial position information using a GPS (Global Positioning System) receiver (not shown) built in the housing 11.

無人航空機10は、上述したように、モニタリングエリア8を監視するために、モニタリングエリア8の上空をホバリング(つまり、空中に浮揚して滞在)する、あるいは巡回して飛行する。なお、無人航空機10は、例えば目的地またはターゲット物体を空撮したり、積載された薬品を散布したり、あるいは物資を運搬したりしてもよい。   As described above, the unmanned aerial vehicle 10 hoveres (that is, levitates and stays in the air) over the monitoring area 8 or flies around to monitor the monitoring area 8. In addition, the unmanned aerial vehicle 10 may, for example, take an aerial image of a destination or a target object, spray a loaded medicine, or carry goods.

図1に示すように、収音機能付き無人航空機の一例としての無人航空機10の筐体11の底面側(つまり、上空飛行時の鉛直下向き側)には、モニタリングエリア8を撮像(つまり、空撮)するためのカメラCAの筐体とモニタリングエリア8の音を収音するためのマイクアレイMAの筐体BDとが同軸に一体的に構成されて配置される。なお、カメラCAの筐体とマイクアレイMAの筐体BDとはジンバル(図示略)を介して支持されてよい。これにより、無人航空機10は、モニタリングエリア8を飛行中に、モニタリングエリア8において発生する音を収音可能であるととともに、モニタリングエリア8を被写体とした画像(例えば、静止画あるいは動画)を撮像可能である。詳細は後述するが、カメラCAの光軸方向J1とマイクアレイMAの筐体BDの中心軸とは一致している。   As shown in FIG. 1, the monitoring area 8 is imaged (that is, the sky) on the bottom surface side of the housing 11 of the unmanned aerial vehicle 10 as an example of the unmanned aerial vehicle with a sound collection function (that is, the vertically downward side when flying over the sky). The housing of the camera CA for shooting (photographing) and the housing BD of the microphone array MA for collecting the sound of the monitoring area 8 are coaxially and integrally formed and arranged. The housing of the camera CA and the housing BD of the microphone array MA may be supported via a gimbal (not shown). Thus, the unmanned aerial vehicle 10 can collect sound generated in the monitoring area 8 while flying in the monitoring area 8 and capture an image (for example, a still image or a moving image) of the monitoring area 8 as a subject. It is possible. Although the details will be described later, the optical axis direction J1 of the camera CA coincides with the center axis of the housing BD of the microphone array MA.

なお、図1,図2には図示が省略されているが、無人航空機10は、カメラCAとは別に、筐体11から露出する複数の撮像装置を備えてもよい。複数(例えば4つ)の撮像装置は、例えば、無人航空機10の飛行を制御するために無人航空機10の周囲を撮像するセンシング用のカメラである。一部(例えば2つ)の撮像装置は、無人航空機10の機首である正面に設けられてよい。また、残り(例えば2つ)の撮像装置は、無人航空機10の底面に設けられてよい。正面側の2つの撮像装置はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置により撮像された画像に基づいて、無人航空機10の周囲の3次元空間データが生成されてよい。なお、無人航空機10が別途備える撮像装置の数は4つに限定されない。   Although not shown in FIGS. 1 and 2, the unmanned aerial vehicle 10 may include a plurality of imaging devices exposed from the housing 11 separately from the camera CA. The plurality of (for example, four) imaging devices are, for example, sensing cameras that image the periphery of the unmanned aerial vehicle 10 in order to control the flight of the unmanned aerial vehicle 10. Some (for example, two) imaging devices may be provided on the front of the unmanned aerial vehicle 10, which is the nose. Further, the remaining (for example, two) imaging devices may be provided on the bottom surface of the unmanned aerial vehicle 10. The two imaging devices on the front side may be paired and function as a so-called stereo camera. The two imaging devices on the bottom side may also be paired and function as a stereo camera. Three-dimensional spatial data around the unmanned aerial vehicle 10 may be generated based on images captured by a plurality of imaging devices. Note that the number of imaging devices separately provided in the unmanned aerial vehicle 10 is not limited to four.

また、無人航空機10は、回転翼PR1,PR2,PR3,PR4と対応するアームAM1,AM2,AM3,AM4を挟んだ反対側(つまり、それぞれのアームAM1,AM2,AM3,AM4の底面側)にスピーカSP1〜SP4を備える。なお、スピーカSP1〜SP4は、それぞれ対応するアームAM1〜AM4の略中央部(つまり、上述した回転翼PR1〜PR4の反対側の位置と筐体11の中央部との間の略中間位置)に配置されてもよい。後述するように、スピーカSP1〜SP4からは、無人航空機10が救助を求めるユーザHM1に十分に接近した時に、筐体11に内蔵されるドローン制御管理部21からの指示に基づき、ユーザHM1に対して救助等の用件の有無を問い合わせるための既定の音声が出力される。   Further, the unmanned aerial vehicle 10 is located on the opposite side of the arms AM1, AM2, AM3, and AM4 corresponding to the rotary wings PR1, PR2, PR3, and PR4 (that is, on the bottom side of each arm AM1, AM2, AM3, and AM4). Speakers SP1 to SP4 are provided. Note that the speakers SP1 to SP4 are located at substantially the center of the corresponding arms AM1 to AM4 (that is, at the substantially middle position between the positions on the opposite sides of the rotary blades PR1 to PR4 and the center of the housing 11). It may be arranged. As will be described later, when the unmanned aerial vehicle 10 sufficiently approaches the user HM1 seeking rescue, the speakers SP1 to SP4 provide the user HM1 with an instruction from the drone control management unit 21 built in the housing 11. A default sound for inquiring whether there is a task such as rescue is output.

図3は、実施の形態1に係る無人航空機10のハードウェア構成例を示すブロック図である。無人航空機10は、ドローン制御管理部21と、ドローン飛行制御部22と、メモリ23と、モータ群241を含む回転翼機構24と、無線通信部25と、音声信号処理部26と、音声認識部26aと、カメラ制御部27と、画像処理部28と、画像解析部28aと、複数(例えば4つ)の音声出力部291〜294とを含む構成である。また、無人航空機10は、マイクアレイMAと、カメラCAと、複数(例えば4つ)のスピーカSP1〜SP4とを含む構成である。音声出力部291〜294のそれぞれは、スピーカSP1〜SP4のそれぞれに対応して設けられる。   FIG. 3 is a block diagram illustrating a hardware configuration example of the unmanned aerial vehicle 10 according to the first embodiment. The unmanned aerial vehicle 10 includes a drone control management unit 21, a drone flight control unit 22, a memory 23, a rotary wing mechanism 24 including a motor group 241, a wireless communication unit 25, a voice signal processing unit 26, and a voice recognition unit. 26, a camera control unit 27, an image processing unit 28, an image analysis unit 28a, and a plurality (for example, four) of audio output units 291 to 294. The unmanned aerial vehicle 10 is configured to include a microphone array MA, a camera CA, and a plurality (for example, four) of speakers SP1 to SP4. Each of the audio output units 291 to 294 is provided corresponding to each of the speakers SP1 to SP4.

ドローン制御管理部21と、ドローン飛行制御部22と、無線通信部25と、音声信号処理部26と、音声認識部26aと、カメラ制御部27と、画像処理部28と、画像解析部28aとは、プロセッサPRC1を用いて構成される。プロセッサPRC1は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成される。プロセッサPRC1は、メモリ23に予め記憶されたプログラムおよびデータを読み出して実行することで、ドローン制御管理部21と、ドローン飛行制御部22と、無線通信部25と、音声信号処理部26と、音声認識部26aと、カメラ制御部27と、画像処理部28と、画像解析部28aとを機能的に実現可能である。   A drone control management unit 21, a drone flight control unit 22, a wireless communication unit 25, a voice signal processing unit 26, a voice recognition unit 26a, a camera control unit 27, an image processing unit 28, an image analysis unit 28a Is configured using the processor PRC1. The processor PRC1 is configured using, for example, a central processing unit (CPU), a micro processing unit (MPU), a digital signal processor (DSP), or a field programmable gate array (FPGA). The processor PRC1 reads and executes a program and data stored in the memory 23 in advance, thereby controlling the drone control management unit 21, the drone flight control unit 22, the wireless communication unit 25, the audio signal processing unit 26, The recognition unit 26a, the camera control unit 27, the image processing unit 28, and the image analysis unit 28a can be functionally realized.

ドローン制御管理部21は、無人航空機10の各部の動作を統括して制御するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。   The drone control management unit 21 performs control processing for controlling the operation of each unit of the unmanned aerial vehicle 10 in a unified manner, data input / output processing with other units, data calculation (calculation) processing, and data storage processing. I do.

ドローン制御管理部21は、筐体11に内蔵されたタイマ(図示略)から現在の日時を示す日時情報を取得してよい。ドローン制御管理部21は、現在の日時を示す日時情報を取得する。ドローン飛行制御部22は、筐体11に内蔵されるGPS受信機(図示略)から現在の日時を示す日時情報、無人航空機10が存在する緯度、経度および高度を示す位置情報を取得してよい。ドローン制御管理部21は、筐体11に内蔵された磁気コンパス(図示略)から無人航空機10の向きを示す向き情報を取得する。向き情報には、例えば無人航空機10の機首の向きに対応する方位が示される。   The drone control management unit 21 may acquire date and time information indicating the current date and time from a timer (not shown) built in the housing 11. The drone control management unit 21 acquires date and time information indicating the current date and time. The drone flight control unit 22 may acquire date and time information indicating the current date and time, and position information indicating the latitude, longitude and altitude at which the unmanned aerial vehicle 10 is located, from a GPS receiver (not shown) built in the housing 11. . The drone control management unit 21 acquires direction information indicating the direction of the unmanned aerial vehicle 10 from a magnetic compass (not shown) built in the housing 11. The direction information indicates, for example, a direction corresponding to the direction of the nose of the unmanned aerial vehicle 10.

ドローン飛行制御部22は、メモリ23に格納されたプログラムに従って無人航空機10の飛行を制御する。ドローン飛行制御部22は、無線通信部25を介して遠隔の操作端末機(図示略)から受信した命令に従って、無人航空機10の飛行を制御してよい。   The drone flight control unit 22 controls the flight of the unmanned aerial vehicle 10 according to a program stored in the memory 23. The drone flight control unit 22 may control the flight of the unmanned aerial vehicle 10 according to a command received from a remote operation terminal (not shown) via the wireless communication unit 25.

ドローン飛行制御部22は、回転翼機構24に搭載されるモータ群241を制御することで、無人航空機10の飛行を制御する。つまり、ドローン飛行制御部22は、回転翼機構24を制御することにより、無人航空機10の緯度、経度および高度を含む位置を制御する。ドローン飛行制御部22は、無人航空機10の飛行を制御することにより、カメラCAの撮像範囲を制御してもよい。ドローン飛行制御部22は、例えばカメラCAが備えるパンチルト機構およびズームレンズ(図示略)を制御することで、カメラCAの画角およびズーム倍率をそれぞれ制御してよい。   The drone flight control unit 22 controls the flight of the unmanned aerial vehicle 10 by controlling the motor group 241 mounted on the rotary wing mechanism 24. That is, the drone flight control unit 22 controls the position including the latitude, longitude, and altitude of the unmanned aerial vehicle 10 by controlling the rotary wing mechanism 24. The drone flight control unit 22 may control the imaging range of the camera CA by controlling the flight of the unmanned aerial vehicle 10. The drone flight control unit 22 may control the angle of view and the zoom magnification of the camera CA, for example, by controlling a pan / tilt mechanism and a zoom lens (not shown) included in the camera CA.

ドローン飛行制御部22は、画像解析部28aの画像解析結果(例えば、無人航空機10の周囲の環境)を受けて、障害物を回避して飛行を制御する。ドローン飛行制御部22は、カメラCAにより撮像された複数の画像に基づいて無人航空機10の周囲の3次元空間データを生成し、3次元空間データに基づいて飛行を制御してよい。   The drone flight control unit 22 receives the image analysis result of the image analysis unit 28a (for example, the environment around the unmanned aerial vehicle 10) and controls the flight while avoiding obstacles. The drone flight control unit 22 may generate three-dimensional space data around the unmanned aerial vehicle 10 based on a plurality of images captured by the camera CA, and control flight based on the three-dimensional space data.

メモリ23は、プロセッサPRC1により実現される各部の動作(処理)の実行を制御するのに必要なプログラムおよびデータを格納する。メモリ23は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、およびUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ23は、筐体11の内部に設けられてよいし、筐体11から取り外し可能に設けられてよい。   The memory 23 stores programs and data necessary for controlling execution of operations (processing) of each unit realized by the processor PRC1. The memory 23 may be a computer-readable recording medium, such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one of a flash memory such as a USB memory. The memory 23 may be provided inside the housing 11 or may be provided detachably from the housing 11.

メモリ23は、音声信号処理部26により算出される全方位撮像画像データを構成するブロックごとの音圧レベルと比較される第1閾値、第2閾値および第3閾値を保持する。ここで、音圧レベルは、マイクアレイMAにより収音されるモニタリングエリア8で発生する音の大きさを示す音パラメータの一例として使用され、スピーカSP1〜SP4から出力される音の大きさを示す音量とは異なる概念である。第1閾値、第2閾値および第3閾値は、モニタリングエリア8内で発生した音の音圧レベルと比較される閾値である。また、閾値は、上述した第1閾値、第2閾値および第3閾値以外にも複数設定可能であり、第1閾値だけを用いてもよい。ここでは簡単に説明するために、例えば、第1閾値と、これより小さな値である第2閾値と、さらに小さな値である第3閾値の3つが設定される(第1閾値>第2閾値>第3閾値)。   The memory 23 holds a first threshold value, a second threshold value, and a third threshold value that are compared with the sound pressure levels of the blocks constituting the omnidirectional captured image data calculated by the audio signal processing unit 26. Here, the sound pressure level is used as an example of a sound parameter indicating a sound volume generated in the monitoring area 8 picked up by the microphone array MA, and indicates a sound volume output from the speakers SP1 to SP4. This is a different concept from volume. The first threshold, the second threshold, and the third threshold are thresholds that are compared with the sound pressure level of the sound generated in the monitoring area 8. In addition, a plurality of thresholds can be set other than the above-described first threshold, second threshold, and third threshold, and only the first threshold may be used. Here, for simplicity, for example, three values are set: a first threshold value, a second threshold value smaller than the first threshold value, and a third threshold value smaller than the first threshold value (first threshold value> second threshold value> Third threshold).

メモリ23は、無人航空機10の回転翼PR1〜PR4のそれぞれに固有な音パターンが登録されたパターンメモリを有する。音声信号処理部26は、マイクアレイMAにより収音された音データから、メモリ23に予め登録された回転翼PR1〜PR4のそれぞれに固有の音パターンの音信号を除外する(つまり、取り除いた)上で、音源の位置を推定する。   The memory 23 has a pattern memory in which sound patterns unique to each of the rotor blades PR1 to PR4 of the unmanned aerial vehicle 10 are registered. The audio signal processing unit 26 excludes (i.e., removes) a sound signal having a sound pattern unique to each of the rotary blades PR1 to PR4 registered in the memory 23 in advance from the sound data collected by the microphone array MA. Above, the position of the sound source is estimated.

回転翼機構24は、複数(例えば4つ)の回転翼PR1,PR2,PR3,PR4と、複数の回転翼PR1〜PR4のそれぞれを回転させるための複数の駆動モータからなるモータ群241と、を含む。   The rotary wing mechanism 24 includes a plurality (for example, four) of rotary blades PR1, PR2, PR3, and PR4, and a motor group 241 including a plurality of drive motors for rotating each of the rotary blades PR1 to PR4. Including.

ここで、無人航空機10のようなマルチコプタ型のドローンでは、一般に回転翼PR1〜PR4のそれぞれにおける羽の枚数が2枚の場合、特定周波数に対し2倍の周波数の高調波、さらにはその逓倍の周波数の高調波が発生する。同様に、回転翼PR1〜PR4のそれぞれにおける羽の枚数が3枚の場合、特定周波数に対し3倍の周波数の高調波、さらにはその逓倍の周波数の高調波が発生する。回転翼PR1〜PR4のそれぞれにおける羽の枚数が4枚以上の場合も同様である。   Here, in a multi-copter type drone such as the unmanned aerial vehicle 10, when the number of wings in each of the rotary wings PR1 to PR4 is generally two, a harmonic having a frequency twice as high as a specific frequency, and further a multiplication of the harmonic. Harmonics of frequency are generated. Similarly, when the number of blades in each of the rotary blades PR1 to PR4 is three, a harmonic having a frequency three times the specific frequency and a harmonic having a frequency multiplied by three times the specific frequency are generated. The same applies to the case where the number of blades in each of the rotary blades PR1 to PR4 is four or more.

無線通信部25は、例えばWi−fi(登録商標)等の無線LAN(Local Area Network)の無線通信規格に従って、外部機器(例えば、無人航空機10を遠隔で操作するための操作端末機)との間で無線通信を行う。無線通信部25は、上述した外部機器から送られた無人航空機10の飛行に関わる各種の命令(コマンド)を受信してドローン制御管理部21に送る。   The wireless communication unit 25 communicates with an external device (for example, an operation terminal for remotely operating the unmanned aerial vehicle 10) according to a wireless communication standard of a wireless LAN (Local Area Network) such as Wi-Fi (registered trademark). Perform wireless communication between them. The wireless communication unit 25 receives various commands (commands) related to the flight of the unmanned aerial vehicle 10 transmitted from the above-described external device, and sends the received commands to the drone control management unit 21.

音声処理部の一例としての音声信号処理部26は、マイクアレイMAにより収音されたモニタリングエリア8の音データに基づいて、モニタリングエリア8に発生した音源の方向を推定する。音声信号処理部26は、例えば公知の白色化相互相関法(CSP(Cross-power Spectrum Phase analysis)法)に従って、マイクアレイMAにより収音された音データを用いて、モニタリングエリア8での音源位置を推定する。CSP法では、音声信号処理部26は、モニタリングエリア8を複数のブロック(図示略)に分割し、マイクアレイMAで音が収音されると、ブロックごとに音の大きさを示す音パラメータ(例えば、マイクアレイMAを構成する複数のマイクロホンのうち、複数組からなる2つのマイクロホンによりそれぞれ収音された音データ間の相互相関値の正規化出力値)が閾値(既定値)を超えるか否かを判定することで、モニタリングエリア8内での音源位置を概略的に推定できる。   The audio signal processing unit 26 as an example of the audio processing unit estimates the direction of the sound source generated in the monitoring area 8 based on the sound data of the monitoring area 8 collected by the microphone array MA. The audio signal processing unit 26 uses the sound data collected by the microphone array MA in accordance with, for example, a known whitening cross-correlation method (CSP (Cross-power Spectrum Phase analysis) method) to generate a sound source position in the monitoring area 8. Is estimated. In the CSP method, the audio signal processing unit 26 divides the monitoring area 8 into a plurality of blocks (not shown), and when a sound is collected by the microphone array MA, a sound parameter (a sound parameter indicating a loudness of each block) For example, whether a normalized output value of a cross-correlation value between sound data picked up by two microphones of a plurality of sets among a plurality of microphones constituting the microphone array MA exceeds a threshold value (predetermined value). By determining whether the sound source is located, the sound source position in the monitoring area 8 can be roughly estimated.

音声信号処理部26は、カメラCA(例えば全方位カメラ)により撮像された全方位撮像画像データとマイクアレイMAで収音された音データとを基に、モニタリングエリア8の全方位撮像画像データを構成するブロック(例えば、「2*2」個、「4*4」個等の所定数の画素からなる画素集合を示す。以下同様。)ごとに、そのブロックに対応する位置における音の大きさを示す音パラメータ(例えば、上述した相互相関値の正規化出力値、または音圧レベル)を算出する。音声信号処理部26は、全方位撮像画像データを構成するブロックごとの音パラメータの算出結果を用いて、それぞれのブロックごとに、該当するブロックの位置に音圧レベルの算出値を割り当てた音圧マップを生成する。さらに、音声信号処理部26は、例えば音圧マップが数値の並べられた行列により構成されるのでユーザにとって視覚的で判別し易くなるように、生成された音圧マップの対応するブロックごとに、そのブロックの音圧レベルに応じた色付き画像(視覚画像の一例)に色変換処理を行って割り当てることで音圧ヒートマップを生成する。上述した音パラメータの算出処理は公知技術であり、詳細な処理の説明は割愛する。   The audio signal processing unit 26 converts the omnidirectional captured image data of the monitoring area 8 based on the omnidirectional captured image data captured by the camera CA (for example, an omnidirectional camera) and the sound data collected by the microphone array MA. For each of the constituent blocks (for example, a pixel set composed of a predetermined number of pixels such as “2 * 2”, “4 * 4”, etc .; the same applies hereinafter), the loudness at the position corresponding to the block Is calculated (for example, the normalized output value of the cross-correlation value or the sound pressure level described above). The sound signal processing unit 26 uses the calculation result of the sound parameter for each block constituting the omnidirectional captured image data, and assigns, for each block, the calculated sound pressure level to the position of the corresponding block. Generate a map. Further, the audio signal processing unit 26 includes, for example, for each corresponding block of the generated sound pressure map, so that the sound pressure map is constituted by a matrix in which numerical values are arranged, so that the user can easily recognize the sound pressure map visually. A sound pressure heat map is generated by performing color conversion processing on a colored image (an example of a visual image) corresponding to the sound pressure level of the block and assigning it. The sound parameter calculation processing described above is a known technique, and a detailed description of the processing will be omitted.

音声信号処理部26は、マイクアレイMAにより収音された音データと推定された音源の方向を示す情報とを用いて、マイクアレイMAにより収音された音データの指向性形成処理を行うことで、音源方向の音データを強調処理する。音データの指向性形成処理は、例えば特開2015−029241号公報に記載されている公知の技術である。   The audio signal processing unit 26 performs directivity forming processing of the sound data collected by the microphone array MA using the sound data collected by the microphone array MA and the information indicating the estimated direction of the sound source. Then, the sound data in the sound source direction is emphasized. The processing for forming the directivity of sound data is a known technique described in, for example, JP-A-2015-029241.

なお、音声信号処理部26は、上述したブロック単位ごとに算出した音圧レベルを該当するブロックの位置に割り当てた音圧ヒートマップを生成すると説明したが、他には、一つ一つの画素ごとに音圧レベルを算出し、画素ごとの音圧レベルを該当する画素の位置に割り当てた音圧ヒートマップを生成してもよい。   Note that the audio signal processing unit 26 has been described to generate the sound pressure heat map in which the sound pressure level calculated for each block described above is assigned to the position of the corresponding block. May be calculated, and a sound pressure heat map in which the sound pressure level of each pixel is assigned to the position of the corresponding pixel may be generated.

音声信号処理部26により生成される音圧ヒートマップでは、第1閾値より大きな音圧レベルが得られた画素の領域には、例えば赤色の画像が割り当てられる。第2閾値より大きく第1閾値以下の音圧レベルが得られた画素の領域には、例えばピンク色の画像が割り当てられる。第3閾値より大きく第2閾値以下の音圧レベルが得られた画素の領域には、例えば青色の画像が割り当てられる。第3閾値以下の画素の音圧レベルの領域には、例えば無色の画像が割り当てられるので、全方位撮像画像データの表示色と何ら変わらない。   In the sound pressure heat map generated by the sound signal processing unit 26, for example, a red image is assigned to a pixel region where a sound pressure level higher than the first threshold is obtained. For example, a pink image is assigned to a pixel region where a sound pressure level greater than the second threshold and equal to or less than the first threshold is obtained. For example, a blue image is assigned to a pixel region where a sound pressure level greater than the third threshold and equal to or less than the second threshold is obtained. For example, a colorless image is assigned to a region having a sound pressure level of a pixel equal to or less than the third threshold value, and thus is not different from the display color of the omnidirectional captured image data.

なお、図1および図2に示すように、カメラCAの光軸方向J1とマイクアレイMAの筐体の中心軸とは同軸上となるようにカメラCAおよびマイクアレイMAはそれぞれ配置される。このため、音声信号処理部26により推定される音源の方向は、全方位カメラが撮像する全方位撮像画像データのうち音源の方向の画像を切り出す際の方向を示すパラメータとして利用可能である。従って、画像解析部28aは、音声信号処理部26により音源の方向が推定されると、その音源の方向を示す情報を用いて、カメラCA(例えば全方位カメラ)により撮像された全方位撮像画像データのうち、推定された音源の方向の画像を切り出すことが可能である。   Note that, as shown in FIGS. 1 and 2, the camera CA and the microphone array MA are respectively arranged such that the optical axis direction J1 of the camera CA and the center axis of the housing of the microphone array MA are coaxial. For this reason, the direction of the sound source estimated by the audio signal processing unit 26 can be used as a parameter indicating the direction when cutting out the image of the direction of the sound source from the omnidirectional image data captured by the omnidirectional camera. Therefore, when the direction of the sound source is estimated by the audio signal processing unit 26, the image analysis unit 28a uses the information indicating the direction of the sound source to generate an omnidirectional image captured by the camera CA (for example, an omnidirectional camera). It is possible to cut out an image in the direction of the estimated sound source from the data.

ただし、カメラCAとマイクアレイMAとが同軸上に配置されていない場合には、カメラ制御部27は、例えば特開2015−029241号に記載されている方法に従って、音声信号処理部26により推定された音源の方向を幾何学的に補正し、補正後の方向の画像を切り出してよい。   However, when the camera CA and the microphone array MA are not coaxially arranged, the camera control unit 27 is estimated by the audio signal processing unit 26 according to, for example, a method described in JP-A-2005-029241. The direction of the sound source may be geometrically corrected, and an image in the corrected direction may be cut out.

音声認識部26aは、例えばメモリ23に予め登録されている音声認識用辞書(図示略)を用いて、音声信号処理部26により強調処理が施された後の音データを音声認識する。音声認識部26aは、音声認識結果をドローン制御管理部21に送る、またはメモリ23に一時的に保持する。   The voice recognition unit 26a performs voice recognition on the sound data that has been subjected to the emphasis processing by the voice signal processing unit 26, for example, using a voice recognition dictionary (not shown) registered in the memory 23 in advance. The voice recognition unit 26a sends the voice recognition result to the drone control management unit 21 or temporarily stores the result in the memory 23.

カメラ制御部27は、カメラCA(例えば全方位カメラ)の動作(処理)を制御する。カメラ制御部27は、カメラCAにより撮像された画像を取得して音声信号処理部26に送る。カメラ制御部27は、カメラCAが例えばPTZ(Pan Tilt Zoom)カメラである場合に、パンチルト制御指示をカメラCAに送って、カメラCAの光軸方向およびズーム倍率を変更するように制御してもよい。   The camera control unit 27 controls the operation (processing) of the camera CA (for example, an omnidirectional camera). The camera control unit 27 acquires an image captured by the camera CA and sends the image to the audio signal processing unit 26. When the camera CA is, for example, a PTZ (Pan Tilt Zoom) camera, the camera control unit 27 sends a pan / tilt control instruction to the camera CA to control the camera CA to change the optical axis direction and the zoom magnification. Good.

画像処理部28は、カメラCAにより撮像された画像を入力し、その画像に対して、画像解析部28aにおける解析処理に適した既定の画像処理を施す。画像処理部28は、画像処理後の画像のデータを画像解析部28aに送る、またはメモリ23に一時的に保持する。   The image processing unit 28 receives an image captured by the camera CA, and performs a predetermined image process on the image suitable for an analysis process in the image analysis unit 28a. The image processing unit 28 sends the image data after the image processing to the image analysis unit 28a or temporarily stores the data in the memory 23.

画像解析部28aは、画像処理部28により生成された画像(言い換えると、カメラCAにより撮像された画像)を解析することで、無人航空機10の周囲の環境を特定する。画像解析部28aは、音声信号処理部26により推定された音源の方向を示す情報を受け取ると、カメラCA(例えば全方位カメラ)により撮像された全方位撮像画像データから、音源の方向を示す画像(例えば、バイク事故を起こしたユーザHM1が存在する方向の画像)を切り出してよい。   The image analysis unit 28a analyzes the image generated by the image processing unit 28 (in other words, the image captured by the camera CA), and specifies the environment around the unmanned aerial vehicle 10. Upon receiving the information indicating the direction of the sound source estimated by the audio signal processing unit 26, the image analysis unit 28a obtains an image indicating the direction of the sound source from the omnidirectional image data captured by the camera CA (for example, an omnidirectional camera). (For example, an image in the direction where the user HM1 who has caused the motorcycle accident exists) may be cut out.

複数(例えば4つ)の音声出力部291〜294は、スピーカSP1〜SP4のそれぞれに対応して設けられ、音声信号処理部26から既定の音声の出力指示を受け取ると、その出力指示に従って、既定の音声を対応するスピーカSP1〜SP4のそれぞれから出力させる。   A plurality of (for example, four) audio output units 291 to 294 are provided corresponding to the speakers SP1 to SP4, respectively. When a predetermined audio output instruction is received from the audio signal processing unit 26, a predetermined audio output unit is set according to the output instruction. Is output from each of the corresponding speakers SP1 to SP4.

マイクアレイMAは、無人航空機10の筐体11の底面側に配置され、モニタリングエリア8での全方位(つまり、360度)の方向の音を無指向状態で収音する。マイクアレイMAは、中央に所定幅の円形開口部が形成された筐体BD(図1,図2参照)を有する。マイクアレイMAにより収音される音は、例えば、無人航空機10のような機械的な動作音、人間等が発する音、その他の音を含み、可聴周波数(つまり、20Hz〜20kHz)域の音に限らず、可聴周波数より低い低周波音や可聴周波数を超える超音波音が含まれてもよい。   The microphone array MA is disposed on the bottom surface side of the housing 11 of the unmanned aerial vehicle 10, and collects sound in all directions (that is, 360 degrees) in the monitoring area 8 in an omnidirectional state. The microphone array MA has a housing BD (see FIGS. 1 and 2) in which a circular opening having a predetermined width is formed in the center. The sounds picked up by the microphone array MA include, for example, mechanical operation sounds such as the unmanned aerial vehicle 10, sounds emitted by human beings, and other sounds, and sound in the audible frequency (ie, 20 Hz to 20 kHz) range. The present invention is not limited thereto, and a low-frequency sound lower than an audio frequency or an ultrasonic sound higher than the audio frequency may be included.

マイクアレイMAは、複数の無指向性のマイクロホンを含む。それぞれのマイクロホンは、筐体BDに設けられた円形開口部の周囲に円周方向に沿って、同心円状に予め決められた間隔(例えば均一な間隔)で配置されている。それぞれのマイクロホンは、例えばエレクトレットコンデンサーマイクロホン(ECM:Electret Condenser Microphone)が用いられる。マイクアレイMAは、それぞれのマイクロホンの収音により得られた音データ信号を音声信号処理部26に送る。なお、各マイクロホンの配列は、一例であり、他の配列(例えば正方形状な配置、長方形状の配置)でもよいが、各マイクロホンは等間隔に並べて配置されることが好ましい。   Microphone array MA includes a plurality of omnidirectional microphones. The microphones are arranged concentrically at predetermined intervals (for example, uniform intervals) around a circular opening provided in the housing BD along the circumferential direction. As each microphone, for example, an electret condenser microphone (ECM) is used. The microphone array MA sends the sound data signal obtained by the sound pickup of each microphone to the sound signal processing unit 26. Note that the arrangement of the microphones is merely an example, and other arrangements (for example, a square arrangement or a rectangular arrangement) may be used, but it is preferable that the microphones are arranged at equal intervals.

マイクアレイMAは、複数のマイクロホン、複数のマイクロホンのそれぞれの出力信号をそれぞれ増幅する複数の増幅器と、複数のA/D変換器と、を少なくとも有する。各増幅器から出力されるアナログ信号は、対応するA/D変換器でそれぞれデジタル信号に変換される。なお、マイクアレイMAにおけるマイクロホンの数は、例えば16個、32個、64個、128個でよい。   The microphone array MA has at least a plurality of microphones, a plurality of amplifiers for respectively amplifying output signals of the plurality of microphones, and a plurality of A / D converters. An analog signal output from each amplifier is converted into a digital signal by a corresponding A / D converter. The number of microphones in the microphone array MA may be, for example, 16, 32, 64, or 128.

カメラCAは、例えば全方位カメラであり、マイクアレイMAの筐体BD(図1参照)の中央に形成された円形開口部の内側には、円形開口部の容積と略一致して収容される。つまり、マイクアレイMAとカメラCAとは一体的かつ、それぞれの筐体中心が同軸方向となるように配置される(図1参照)。カメラCAは、カメラCAの撮像エリアとしてのモニタリングエリア8の全方位(つまり、360度)の画像を撮像可能な魚眼レンズを搭載したカメラである。カメラCAは、例えばモニタリングエリア8を撮像可能な監視カメラとして機能する。   The camera CA is, for example, an omnidirectional camera, and is accommodated inside the circular opening formed in the center of the housing BD (see FIG. 1) of the microphone array MA so as to substantially match the volume of the circular opening. . That is, the microphone array MA and the camera CA are integrated and arranged so that their respective housing centers are coaxial with each other (see FIG. 1). The camera CA is a camera equipped with a fisheye lens capable of capturing images in all directions (that is, 360 degrees) of the monitoring area 8 as an imaging area of the camera CA. The camera CA functions as, for example, a monitoring camera capable of capturing an image of the monitoring area 8.

カメラCAが筐体BDの円形開口部の内側に嵌め込まれることで、カメラCAとマイクアレイMAとが同軸上に配置される。このように、カメラCAの光軸方向J1とマイクアレイMAの筐体の中心軸とが一致することで、軸周方向(つまり、水平方向)における撮像エリアと収音エリアとが略同一となり、カメラCAが撮像した全方位画像中の被写体の位置(言い換えれば、カメラCAから見た被写体の位置を示す方向)とマイクアレイMAの収音対象となる音源の位置(言い換えれば、マイクアレイMAから見た音源の位置を示す方向)とが同じ座標系(例えば(水平角,垂直角)で示される座標)で表現可能となる。   By fitting the camera CA inside the circular opening of the housing BD, the camera CA and the microphone array MA are coaxially arranged. As described above, since the optical axis direction J1 of the camera CA coincides with the central axis of the housing of the microphone array MA, the imaging area and the sound collection area in the axial circumferential direction (that is, the horizontal direction) become substantially the same, The position of the subject in the omnidirectional image captured by the camera CA (in other words, the direction indicating the position of the subject viewed from the camera CA) and the position of the sound source to be picked up by the microphone array MA (in other words, from the microphone array MA) This can be expressed in the same coordinate system (for example, coordinates indicated by (horizontal angle, vertical angle)).

スピーカSP1〜SP4は、対応する音声出力部291〜294のそれぞれから出力された既定の音声(後述参照)を音響的に出力する。   The speakers SP1 to SP4 acoustically output predetermined sounds (see below) output from the corresponding sound output units 291 to 294, respectively.

次に、実施の形態1に係る無人航空機10の動作概要の一例について、図4を参照して説明する。   Next, an example of an outline of the operation of the unmanned aerial vehicle 10 according to Embodiment 1 will be described with reference to FIG.

図4は、実施の形態1に係る無人航空機10の動作概要例を示す説明図である。図4に示すように、無人航空機10の監視対象であるモニタリングエリア8において、例えば、バイクBK1を運転していたドライバーであるユーザHM1が、事故を起こして困っており、モニタリングエリア8をホバリングあるいは巡回飛行している無人航空機10に救助等を求める。後述する図5および図6にて説明するが、ユーザHM1は、モニタリングエリア8をホバリングあるいは巡回飛行している無人航空機10を見つけると、「おーい!」等の掛け声を出して救助等を求める。   FIG. 4 is an explanatory diagram illustrating an example of an operation outline of the unmanned aerial vehicle 10 according to the first embodiment. As shown in FIG. 4, in the monitoring area 8 to be monitored by the unmanned aerial vehicle 10, for example, the user HM1 who is driving the motorcycle BK1 is in trouble due to an accident, and hovering the monitoring area 8 or The rescue or the like is requested from the unmanned aerial vehicle 10 that is making a round flight. As will be described later with reference to FIG. 5 and FIG. 6, when the user HM1 finds the unmanned aerial vehicle 10 hovering or circulating in the monitoring area 8, it asks for a rescue or the like by calling out "Oh!"

無人航空機10は、マイクアレイMAで収音された音データを用いて音声信号処理部26により音源の方向(つまり、図4の例ではユーザHM1の位置する方向)を推定し、その方向DR1に沿ってユーザHM1に接近するように飛行移動する。無人航空機10は、ユーザHM1に対して十分に接近した場合(例えば、カメラCAの撮像した画像におけるユーザHM1の占める面積が所定割合を超えた場合)、ユーザHM1が要求した入力コマンド(後述参照)を受け付け、その受け付けられた入力コマンドに対する処理を実行する。   The unmanned aerial vehicle 10 estimates the direction of the sound source (that is, the direction in which the user HM1 is located in the example of FIG. 4) by using the sound signal processing unit 26 using the sound data collected by the microphone array MA, and changes the direction to DR1. Along the route so as to approach the user HM1. When the unmanned aerial vehicle 10 is sufficiently close to the user HM1 (for example, when the area occupied by the user HM1 in the image captured by the camera CA exceeds a predetermined ratio), the input command requested by the user HM1 (see below) And executes processing for the received input command.

次に、実施の形態1に係る無人航空機10の第1動作手順および第2動作手順の一例について、図5および図6を参照して説明する。   Next, an example of the first operation procedure and the second operation procedure of the unmanned aerial vehicle 10 according to Embodiment 1 will be described with reference to FIGS. 5 and 6.

図5は、実施の形態1に係る無人航空機の第1動作手順の一例を時系列に示すフローチャートである。図6は、実施の形態1に係る無人航空機の第2動作手順の一例を時系列に示すフローチャートである。図6の説明において、図5の処理の説明と同一の処理については同一のステップ番号を付与して説明を簡略化または省略し、異なる内容について説明する。   FIG. 5 is a flowchart showing an example of a first operation procedure of the unmanned aerial vehicle according to Embodiment 1 in chronological order. FIG. 6 is a flowchart showing an example of a second operation procedure of the unmanned aerial vehicle according to Embodiment 1 in a time series. In the description of FIG. 6, the same processes as those in the description of FIG. 5 will be assigned the same step numbers, and the description will be simplified or omitted, and different contents will be described.

図5において、無人航空機10は、モニタリングエリア8の上空をホバリングあるいは巡回飛行している(St1)。ステップSt1では、無人航空機10は、モニタリングエリア8の上空を常に飛行しており、モニタリングエリア8において音源の存在が無いか見張り(つまり、監視)している。従って、無人航空機10は、モニタリングエリア8を監視する監視用ドローンとして位置付けることが可能である。   In FIG. 5, the unmanned aerial vehicle 10 is hovering or circling above the monitoring area 8 (St1). In Step St1, the unmanned aerial vehicle 10 is always flying above the monitoring area 8, and watches (ie, monitors) whether there is a sound source in the monitoring area 8. Therefore, the unmanned aerial vehicle 10 can be positioned as a monitoring drone that monitors the monitoring area 8.

無人航空機10は、無人航空機10を呼ぶ音声(例えば、図4に示すユーザHM1が出す掛け声「おーい!」または「助けて!」)をマイクアレイMAにおいて収音する(St2)。このような無人航空機10を呼ぶ音声は、例えば無人航空機10のメモリ23に予め登録されていることが好ましく、音声信号処理部26あるいは音声認識部26aにおいてそのような音声が認識されると、無人航空機10は次の処理(つまり、ステップSt3の処理)に進んでよい。   The unmanned aerial vehicle 10 picks up a voice calling the unmanned aerial vehicle 10 (for example, the shout “Oh!” Or “Help!” Given by the user HM1 shown in FIG. 4) in the microphone array MA (St2). It is preferable that such a voice calling the unmanned aerial vehicle 10 is registered in advance in, for example, the memory 23 of the unmanned aerial vehicle 10, and when such a voice is recognized by the voice signal processing unit 26 or the voice recognition unit 26a, The aircraft 10 may proceed to the next process (that is, the process of Step St3).

なお、音声信号処理部26あるいは音声認識部26aにおいて無人航空機10を呼ぶ音声が含まれているか否かを分析する際には、人工知能を用いて過去のサンプルデータを機械学習して得た学習モデルに従って決定してもよい。また、その分析は、無線通信などのネットワークを介して無人航空機10と接続される分析用のクラウドサーバ40で行われてもよい(図7参照)。人工知能の学習は、1つ以上の統計的な分類技術を用いて実行されてもよい。統計的分類技術としては、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)等が例示される。但し、使用される統計的分類技術はこれらに限定されない。   When analyzing whether or not the voice calling the unmanned aerial vehicle 10 is included in the voice signal processing unit 26 or the voice recognition unit 26a, a learning obtained by machine learning of past sample data using artificial intelligence is used. The determination may be made according to a model. The analysis may be performed by the analysis cloud server 40 connected to the unmanned aerial vehicle 10 via a network such as wireless communication (see FIG. 7). Learning artificial intelligence may be performed using one or more statistical classification techniques. Statistical classification techniques include linear classifiers, support vector machines, quadratic classifiers, kernel density estimation, decision trees, artificial neural networks. Networks (artificial neural networks), Bayesian techniques and / or networks, hidden Markov models, binary classifiers, multi-class classifiers, Examples include a clustering technique, a random forest technique, a logistic regression technique, a linear regression technique, and a gradient boosting technique. However, the statistical classification technique used is not limited to these.

無人航空機10は、ステップSt2において収音された音声の音データを用いて、その音声の音源方向(つまり、ユーザHM1の位置する方向)を音声信号処理部26において検知(推定)し、さらに、その検知された音源方向に音データの指向性を形成する(St3)。   The unmanned aerial vehicle 10 detects (estimates) the sound source direction of the sound (that is, the direction in which the user HM1 is located) in the sound signal processing unit 26 using the sound data of the sound collected in Step St2. The directivity of the sound data is formed in the direction of the detected sound source (St3).

なお、ステップSt3において、複数の音源の方向が検知(推定)された場合には、無人航空機10は、それぞれの音源の方向に音データの指向性を形成してもよい。また、ステップSt3において、複数の音源の方向が検知(推定)された場合には、無人航空機10は、複数の音源の中間位置(例えば、中間的あるいは重心的な位置)に飛行移動してもよいし、モニタリングエリア8をホバリングあるいは巡回飛行している他の1機以上の無人航空機10を、既定の緊急信号の無線通信によって呼び寄せてもよい。   When the directions of a plurality of sound sources are detected (estimated) in Step St3, the unmanned aerial vehicle 10 may form the directivity of the sound data in the directions of the respective sound sources. Further, when the directions of the plurality of sound sources are detected (estimated) in step St3, the unmanned aerial vehicle 10 may fly to an intermediate position (for example, an intermediate or centroid position) of the plurality of sound sources. Alternatively, one or more other unmanned aerial vehicles 10 hovering or circulating around the monitoring area 8 may be called by wireless communication of a predetermined emergency signal.

無人航空機10は、ステップSt3の処理後、ステップSt3において検知された音源方向に飛行移動を開始して音源(つまり、ユーザHM1)の位置に接近するまで飛行移動を継続する(St4)。   After the process of step St3, the unmanned aerial vehicle 10 starts flying in the direction of the sound source detected in step St3 and continues flying until it approaches the position of the sound source (that is, the user HM1) (St4).

無人航空機10は、ユーザHM1に対して十分に接近した場合(例えば、カメラCAの撮像した画像におけるユーザHM1の占める面積が所定割合を超えた場合)、既定(例えば、応答要求アナウンス)の音声をスピーカSP1〜SP4のそれぞれから出力する(St5)。なお、無人航空機10は、ステップSt5において、既定の音声をスピーカSP1〜SP4の全てではなく少なくとも1つを含む一部のスピーカから出力してもよい。応答要求アナウンスの音声は、例えば「用件がある場合には、「こっちに来て」と言ってください」という音声である。   When the unmanned aerial vehicle 10 is sufficiently close to the user HM1 (for example, when the area occupied by the user HM1 in the image captured by the camera CA exceeds a predetermined ratio), the unmanned aerial vehicle 10 outputs a default (for example, a response request announcement) sound. Output is made from each of the speakers SP1 to SP4 (St5). In addition, the unmanned aerial vehicle 10 may output the predetermined sound from some of the speakers including at least one of the speakers SP1 to SP4 in step St5. The voice of the response request announcement is, for example, a voice saying, "If there is a business, please say" come here. "

ここで、ユーザHM1は、ステップSt5において無人航空機10から出力された応答要求アナウンスの音声に対して、その応答要求アナウンスにおいて指定されていた「こっちに来て」の音声を発する。無人航空機10は、このユーザの「こっちに来て」という音声をマイクアレイMAにおいて収音する(St6)。   Here, in response to the voice of the response request announcement output from the unmanned aerial vehicle 10 in step St5, the user HM1 emits the voice of "come here" specified in the response request announcement. The unmanned aerial vehicle 10 picks up the user's voice "come here" at the microphone array MA (St6).

無人航空機10は、ステップSt6の後、マイクアレイMAにおいて収音された音データに「こっちに来て」が含まれているか否かを音声認識部26aにおいて分析する(St7)。マイクアレイMAにおいて収音された音データに「こっちに来て」が含まれていないと音声認識部26aにより判断された場合には(St7、NO)、無人航空機10は、その場から離れる(St9)。その後、無人航空機10の処理はステップSt1に戻る。なお、音声認識部26aにおいて「こっちに来て」が含まれているか否かを分析する際には、人工知能を用いて過去のサンプルデータを機械学習して得た学習モデルに従って決定してもよい。また、その分析は、無線通信などのネットワークを介して無人航空機10と接続される分析用のクラウドサーバ40で行われてもよい(図7参照)。人工知能の学習は、1つ以上の統計的な分類技術を用いて実行されてもよい。統計的分類技術としては、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)等が例示される。但し、使用される統計的分類技術はこれらに限定されない。   After step St6, the unmanned aerial vehicle 10 analyzes whether or not the sound data collected by the microphone array MA includes “come here” in the voice recognition unit 26a (St7). When the voice recognition unit 26a determines that the sound data collected by the microphone array MA does not include "come here" (St7, NO), the unmanned aerial vehicle 10 leaves the place (St7, NO). St9). After that, the process of the unmanned aerial vehicle 10 returns to Step St1. When analyzing whether or not "come here" is included in the voice recognition unit 26a, it may be determined according to a learning model obtained by machine learning of past sample data using artificial intelligence. Good. The analysis may be performed by the analysis cloud server 40 connected to the unmanned aerial vehicle 10 via a network such as wireless communication (see FIG. 7). Learning artificial intelligence may be performed using one or more statistical classification techniques. Statistical classification techniques include linear classifiers, support vector machines, quadratic classifiers, kernel density estimation, decision trees, artificial neural networks. Networks (artificial neural networks), Bayesian techniques and / or networks, hidden Markov models, binary classifiers, multi-class classifiers, Examples include a clustering technique, a random forest technique, a logistic regression technique, a linear regression technique, and a gradient boosting technique. However, the statistical classification technique used is not limited to these.

一方、無人航空機10は、マイクアレイMAにおいて収音された音データに「こっちに来て」が含まれていると判断した場合には(St7、YES)、ユーザHM1の求める入力コマンドを受け付け(St8)、必要に応じて、その入力コマンドに対応した処理(例えば、他の無人航空機10を呼ぶ、既定の警報音を音響的に出力する、LED(Light Emission Diode)等のライトを点灯する)を実行する。これにより、ユーザHM1は、無人航空機10を介して、自身が緊急事態に陥った状態であることを、警察等の第三者に伝達することができ、利便性を向上できる。   On the other hand, when the unmanned aerial vehicle 10 determines that the sound data collected by the microphone array MA includes “come here” (St7, YES), the unmanned aerial vehicle 10 receives the input command requested by the user HM1 (St7, YES). St8) If necessary, a process corresponding to the input command (for example, calling another unmanned aerial vehicle 10, outputting a predetermined alarm sound acoustically, turning on a light such as an LED (Light Emission Diode)). Execute Thus, the user HM1 can notify, via the unmanned aerial vehicle 10, that the user HM1 is in a state of emergency to a third party such as the police, thereby improving the convenience.

ここで、入力コマンドは、例えば、ジェスチャー(行動)によるコマンド、顔の表情によるコマンド、音声によるコマンド等が考えられる。なお、入力コマンドか否かを分析する際には、人工知能を用いて過去のサンプルデータを機械学習して得た学習モデルに従って決定してもよい。また、その分析は、ジェスチャーによるコマンドや顔の表情によるコマンドなど、画像を用いて行う場合には、画像解析部28aで行われ、音声によるコマンドの場合には、音声信号処理部26あるいは音声認識部26aで行われてよい。さらに、その分析は、無線通信などのネットワークを介して無人航空機10と接続される分析用のクラウドサーバ40で行われてもよい(図7参照)。人工知能の学習は、1つ以上の統計的な分類技術を用いて実行されてもよい。統計的分類技術としては、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)等が例示される。但し、使用される統計的分類技術はこれらに限定されない。   Here, the input command may be, for example, a command based on a gesture (action), a command based on a facial expression, a command based on a voice, or the like. When analyzing whether or not the command is an input command, the command may be determined according to a learning model obtained by machine learning of past sample data using artificial intelligence. The analysis is performed by the image analysis unit 28a when using an image such as a command by a gesture or a command by a facial expression, and is performed by the voice signal processing unit 26 or the voice recognition This may be performed in the unit 26a. Further, the analysis may be performed by an analysis cloud server 40 connected to the unmanned aerial vehicle 10 via a network such as wireless communication (see FIG. 7). Learning artificial intelligence may be performed using one or more statistical classification techniques. Statistical classification techniques include linear classifiers, support vector machines, quadratic classifiers, kernel density estimation, decision trees, artificial neural networks. Networks (artificial neural networks), Bayesian techniques and / or networks, hidden Markov models, binary classifiers, multi-class classifiers, Examples include a clustering technique, a random forest technique, a logistic regression technique, a linear regression technique, and a gradient boosting technique. However, the statistical classification technique used is not limited to these.

ジェスチャー(行動)によるコマンドは、例えばユーザHM1が手を振る等の行動によって、無人航空機10に対して救助等を求めるコマンドである。ユーザHM1が口元を怪我して声を出せないもしくは出しにくい状況となっている場合でも、無人航空機10に救助等を依頼できる点で有効である。   The command by the gesture (action) is a command to request the unmanned aerial vehicle 10 to rescue or the like by the action of the user HM1 waving, for example. This is effective in that the user HM1 can request rescue or the like to the unmanned aerial vehicle 10 even when the user HM1 is injured at his mouth and cannot speak or is difficult to speak.

顔の表情によるコマンドは、例えば無人航空機10から見てユーザHM1の顔しか見えない時(例えばユーザHM1が倒れてカメラCAがユーザの顔以外を撮像できない時)に、無人航空機10に対して救助等を求めるコマンドである。顔の表情は、例えば片目を閉じる、笑う、怒る、悲しむ、瞼を閉じる等が該当するが、これらに限定されない。   The command based on the facial expression is rescued to the unmanned aerial vehicle 10 when, for example, only the face of the user HM1 is seen from the unmanned aerial vehicle 10 (for example, when the user HM1 falls down and the camera CA cannot capture an image other than the user's face). Is a command that asks for The facial expression corresponds to, for example, closing one eye, laughing, angry, sad, closing the eyelids, etc., but is not limited thereto.

音声によるコマンドは、例えばユーザHM1が発する音声に従って、無人航空機10に対して救助等を求めるコマンドである。音声によるコマンドに用いられる音声は、例えば、ユーザHM1が発する言葉、もしくは物音による意思疎通、あるいはこれらの組み合わせが該当するが、これらに限定されない。なお、物音による意思疎通は、肯定的な内容を示す場合には1回ものを叩き、否定的な内容を示す場合には2回ものを叩く等が考えられる。   The command by voice is a command to request the unmanned aerial vehicle 10 for rescue or the like according to, for example, a voice emitted by the user HM1. The voice used for the voice command is, for example, a word uttered by the user HM1, a communication by a sound, or a combination thereof, but is not limited thereto. It should be noted that the communication by sound can be such that the user hits once when the content is positive, and hits twice when the content is negative.

図6において、無人航空機10は、ユーザHM1に対して十分に接近した場合(例えば、カメラCAの撮像した画像におけるユーザHM1の占める面積が所定割合を超えた場合)、既定(例えば、応答要求アナウンス)の音声をスピーカSP1〜SP4のそれぞれから出力する(St5A)。なお、無人航空機10は、ステップSt5Aにおいて、既定の音声をスピーカSP1〜SP4の全てではなく少なくとも1つを含む一部のスピーカから出力してもよい。応答要求アナウンスの音声は、例えば「用件がある場合には、手を振ってください」という音声である。   In FIG. 6, when the unmanned aerial vehicle 10 is sufficiently close to the user HM1 (for example, when the area occupied by the user HM1 in the image captured by the camera CA exceeds a predetermined ratio), the unmanned aerial vehicle 10 defaults (for example, a response request announcement). ) Is output from each of the speakers SP1 to SP4 (St5A). In addition, in step St5A, the unmanned aerial vehicle 10 may output the predetermined sound from some of the speakers including at least one, but not all of the speakers SP1 to SP4. The sound of the response request announcement is, for example, a sound "Wave your hand if there is a business requirement."

ここで、ユーザHM1は、ステップSt5Aにおいて無人航空機10から出力された応答要求アナウンスの音声に対して、その応答要求アナウンスにおいて指定されていた「手を振ってください」の動き(行動)を行う。無人航空機10は、カメラCAにより撮像された画像を画像解析部28aにおいて解析し、「手を振ってください」に対してユーザHM1が手を振ったか否かを分析する(St7A)。カメラCAにより撮像された画像の解析によりユーザHM1が手を振っていないと判断された場合には(St7A、NO)、無人航空機10は、その場から離れる(St9)。その後、無人航空機10の処理はステップSt1に戻る。   Here, the user HM1 performs a motion (action) of “Please wave your hand” specified in the response request announcement with respect to the voice of the response request announcement output from the unmanned aerial vehicle 10 in Step St5A. The unmanned aerial vehicle 10 analyzes the image captured by the camera CA in the image analysis unit 28a, and analyzes whether the user HM1 has waved his / her hand in response to "Wave your hand" (St7A). When it is determined that the user HM1 has not waved by analyzing the image captured by the camera CA (St7A, NO), the unmanned aerial vehicle 10 leaves the place (St9). After that, the process of the unmanned aerial vehicle 10 returns to Step St1.

一方、無人航空機10は、カメラCAにより撮像された画像の解析によりユーザHM1が手を振ったと判断した場合には(St7A、YES)、ユーザHM1の位置する音源の方向へさらに接近する(St10)。ステップSt10の後、無人航空機10の処理は図5に示されるステップSt5の処理に進む。   On the other hand, when the unmanned aerial vehicle 10 determines that the user HM1 has waved his hand based on the analysis of the image captured by the camera CA (St7A, YES), the unmanned aerial vehicle 10 further approaches the direction of the sound source where the user HM1 is located (St10). . After Step St10, the process of the unmanned aerial vehicle 10 proceeds to the process of Step St5 shown in FIG.

以上により、実施の形態1に係る無人航空機10は、筐体11の底面側に配置され、モニタリングエリア8の音を収音するマイクアレイMAを有する。無人航空機10は、マイクアレイMAにより収音された音データに基づいて、モニタリングエリア8に発生した音源の方向を推定する音声信号処理部26(音声処理部の一例)を有する。無人航空機10は、モニタリングエリア8のホバリングあるいは巡回飛行を制御するとともに、推定された音源の方向への飛行移動を制御するドローン飛行制御部22(飛行制御部の一例)を有する。無人航空機10は、筐体11の底面側に配置され、既定の音声(後述参照)をスピーカSP1〜SP4からそれぞれ出力する音声出力部291〜294を有する。無人航空機10は、既定の音声の出力後、ユーザのニーズを満たす処理の入力を受け付けて実行するドローン制御管理部21(制御部の一例)を有する。   As described above, the unmanned aerial vehicle 10 according to the first embodiment has the microphone array MA arranged on the bottom surface side of the housing 11 and collecting the sound of the monitoring area 8. The unmanned aerial vehicle 10 includes an audio signal processing unit 26 (an example of an audio processing unit) that estimates a direction of a sound source generated in the monitoring area 8 based on sound data collected by the microphone array MA. The unmanned aerial vehicle 10 has a drone flight control unit 22 (an example of a flight control unit) that controls hovering or round flight in the monitoring area 8 and controls flight movement in the direction of the estimated sound source. The unmanned aerial vehicle 10 has sound output units 291 to 294 that are arranged on the bottom side of the housing 11 and output predetermined sounds (see below) from the speakers SP1 to SP4, respectively. The unmanned aerial vehicle 10 includes a drone control management unit 21 (an example of a control unit) that receives and executes a process that satisfies the needs of the user after outputting a predetermined voice.

これにより、無人航空機10は、モニタリングエリア8を定常的にホバリングもしくは巡回飛行し、救助等を求めるユーザHM1の方向を迅速に検知できる。従って、無人航空機10は、ユーザHM1の方向に向かって接近するように飛行移動し、ユーザHM1に対して十分に接近した後、ユーザHM1のニーズを適切に受け付けてそのニーズに適合する処理を実行できるので、ユーザの利便性の低下を抑制できる。   Thereby, the unmanned aerial vehicle 10 can constantly hover or circulate around the monitoring area 8 and quickly detect the direction of the user HM1 seeking rescue or the like. Accordingly, the unmanned aerial vehicle 10 flies and moves so as to approach the direction of the user HM1, and after sufficiently approaching the user HM1, executes a process of appropriately accepting the needs of the user HM1 and adapting to the needs. Therefore, it is possible to suppress a decrease in user convenience.

また、無人航空機10は、出力された既定の音声(例えば、「用件がある場合には、「こっちに来て」と言ってください」という音声)に対してユーザHM1が発した所定の音声(例えば、「こっちに来て」という音声)を音声信号処理部26により認識した場合、ユーザHM1からの処理の入力コマンドを受け付ける。これにより、無人航空機10は、既定の音声に対してユーザHM1の発した音声を用いて、救助等を要求するユーザHM1であることを正当に認証できるので、そのユーザHM1の必要な処理を受け付けることができて、ユーザの利便性を向上できる。   In addition, the unmanned aerial vehicle 10 outputs a predetermined voice (for example, a voice saying “Please come here when there is a business”) to the output default voice by the user HM1. When the voice signal processing unit 26 recognizes (for example, the voice “come here”), the input command of the process from the user HM1 is received. Thereby, the unmanned aerial vehicle 10 can properly authenticate that it is the user HM1 requesting rescue or the like by using the voice uttered by the user HM1 with respect to the predetermined voice, and accepts the necessary processing of the user HM1. And user convenience can be improved.

また、無人航空機10は、筐体11の底面側に配置され、モニタリングエリア8を撮像するカメラCA(例えば全方位カメラ)と、撮像されたモニタリングエリア8の画像を解析する画像解析部28aと、をさらに有する。無人航空機10は、出力された既定の音声(例えば、「用件がある場合には、手を振ってください」という音声)に対してユーザHM1が実行した所定の行動(例えば、手を振る動作)を画像解析部28aにより認識した場合、ユーザHM1が位置する音源の方向へさらに接近するための飛行移動をドローン飛行制御部22に指示する。これにより、無人航空機10は、例えばユーザHM1が口元を怪我して声を出せないもしくは出しにくい状況となっている場合またはユーザHM1に十分に接近していない場合でも、ユーザHM1の行った振舞い(行動)によって、救助等を要求するユーザHM1であることを正当に認証できる。従って、無人航空機10は、そのユーザHM1の必要な処理を受け付けるために、さらにユーザHM1に接近でき、例えばユーザが大きな声を出さなくても、無人航空機10がユーザHM1に対して接近するので救助等の必要な処理を簡易に受け付けることができる。   Further, the unmanned aerial vehicle 10 is disposed on the bottom side of the housing 11 and has a camera CA (for example, an omnidirectional camera) that captures an image of the monitoring area 8, an image analysis unit 28 a that analyzes the captured image of the monitoring area 8, Has further. The unmanned aerial vehicle 10 performs a predetermined action (for example, an action of waving a hand) performed by the user HM1 with respect to the output default voice (for example, a voice of “please wave your hand when there is a requirement”). ) Is recognized by the image analysis unit 28a, the flight control unit 22 instructs the drone flight control unit 22 to perform a flight movement to further approach the sound source where the user HM1 is located. Accordingly, the unmanned aerial vehicle 10 can perform the behavior performed by the user HM1 even when the user HM1 is injured at his mouth and cannot speak or is difficult to speak, or is not sufficiently close to the user HM1 ( By the action, the user HM1 requesting rescue or the like can be properly authenticated. Accordingly, the unmanned aerial vehicle 10 can further approach the user HM1 in order to receive the necessary processing of the user HM1, and for example, can rescue the unmanned aerial vehicle 10 even if the user does not make a loud voice because the unmanned aerial vehicle 10 approaches the user HM1. And other necessary processes can be easily received.

また、無人航空機10は、音源に位置するユーザHM1に接近した場合、既定の第2音声(例えば、「用件がある場合には、「こっちに来て」と言ってください」という音声)のスピーカSP1〜SP4からの出力を対応する音声出力部291〜294に指示し、その指示に従って出力された既定の第2音声に対してユーザが発した所定の音声(例えば、「こっちに来て」という音声)を音声信号処理部26により認識した場合、処理の入力を受け付ける。これにより、無人航空機10は、既定の第2音声に対するユーザの行動だけでなく、既定の音声に対するユーザHM1の音声の双方を用いて、救助等を必要とするユーザHM1であることを厳重に認証でき、そのユーザHM1の必要な処理を受け付けることができて、ユーザの利便性を向上できる。   In addition, when the unmanned aerial vehicle 10 approaches the user HM1 located at the sound source, the unmanned aerial vehicle 10 generates a predetermined second voice (for example, a voice saying “If there is a business, please say“ come here ””). The output from the speakers SP1 to SP4 is instructed to the corresponding audio output units 291 to 294, and a predetermined audio (for example, "come here") issued by the user with respect to the predetermined second audio output in accordance with the instruction. Is recognized by the audio signal processing unit 26, the input of the process is accepted. Thereby, the unmanned aerial vehicle 10 is strictly authenticated as the user HM1 requiring rescue or the like by using not only the user's action for the predetermined second voice but also the voice of the user HM1 for the predetermined voice. It is possible to receive necessary processing of the user HM1 and to improve user convenience.

また、無人航空機10は、例えば音データの指向性を形成することで、推定された音源の方向の音データを音声信号処理部26において強調する。これにより、無人航空機10は、音源の方向に存在するユーザHM1の発する音声を強調できるので、救助等を必要としているユーザHM1の発する音声の聞き漏らしを抑制し、もしくはその音声の聞き取り精度を向上することで、適正に音声認識処理を実行できる。   In addition, the unmanned aerial vehicle 10 emphasizes the sound data in the estimated direction of the sound source in the sound signal processing unit 26 by, for example, forming the directivity of the sound data. Thereby, the unmanned aerial vehicle 10 can emphasize the voice emitted by the user HM1 existing in the direction of the sound source, so that the unmanned aerial vehicle 10 suppresses the omission of the voice emitted by the user HM1 requiring rescue or the like, or improves the listening accuracy of the voice. Thus, the voice recognition processing can be properly performed.

また、無人航空機10は、飛行移動を行うための回転翼機構24、をさらに備える。無人航空機10は、回転翼機構24から回転翼の回転時に生じる回転音を抑圧して音源の方向を音声信号処理部26において推定する。これにより、無人航空機10は、ロータ等の回転翼PR1〜PR4から生じる音圧レベルの大きな回転音の影響を排除して、モニタリングエリア8の音源の方向を適正に検知(推定)できる。   The unmanned aerial vehicle 10 further includes a rotary wing mechanism 24 for performing flight movement. The unmanned aerial vehicle 10 suppresses the rotating sound generated when the rotating wing rotates from the rotating wing mechanism 24, and estimates the direction of the sound source in the audio signal processing unit 26. Thereby, the unmanned aerial vehicle 10 can properly detect (estimate) the direction of the sound source in the monitoring area 8 by eliminating the influence of the rotating sound having a large sound pressure level generated from the rotors PR1 to PR4 such as the rotor.

以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。   Although various embodiments have been described with reference to the drawings, it is needless to say that the present disclosure is not limited to such examples. It is clear that those skilled in the art can conceive various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. Naturally, it is understood that they belong to the technical scope of the present disclosure. Further, the components in the above-described various embodiments may be arbitrarily combined without departing from the spirit of the invention.

なお、図3では、無人航空機10の無線通信の相手(つまり、接続先)として、無人航空機10を操作するための操作端末機を例示して説明したが、無人航空機10を遠隔で監視している監視室に配置されたサーバ装置(図示略)との間で接続されてもよい。無人航空機10は、音声信号処理部26において生成した音圧ヒートマップのデータをサーバ装置に送り、サーバ装置に接続されたディスプレイ(図示略)に表示させてもよい。これにより、監視室の監視員は、無人航空機10が飛行しているモニタリングエリア8の音源の様子を的確かつ視覚的に把握でき、必要な対策等を支援することができる。さらに本開示に係る収音機能付き無人航空機は、宅配注文の有無を探す対象のモニタリングエリアを巡回飛行し、救助を求める声を検出する代わりに宅配注文を求める声を収音し検出する無人航空機として用いられてもよい。   In FIG. 3, an operation terminal for operating the unmanned aerial vehicle 10 is described as an example of a wireless communication partner (that is, a connection destination) of the unmanned aerial vehicle 10. It may be connected to a server device (not shown) arranged in a monitoring room where it is located. The unmanned aerial vehicle 10 may send the sound pressure heat map data generated by the audio signal processing unit 26 to the server device and display the data on a display (not shown) connected to the server device. Thereby, the observer in the monitoring room can accurately and visually grasp the state of the sound source in the monitoring area 8 where the unmanned aerial vehicle 10 is flying, and can support necessary measures and the like. Furthermore, the unmanned aerial vehicle with a sound collection function according to the present disclosure flies round the monitoring area to search for the presence or absence of a home delivery order, and picks up and detects a voice for a home delivery order instead of detecting a voice for a rescue order. May be used.

図7は、実施の形態1に係る無人航空機およびクラウドサーバのハードウェア構成例を示すブロック図である。上述したように、無人航空機10は、分析用のクラウドサーバ40との間で無線通信などのネットワークを介して接続されてよい。クラウドサーバ40は、無人航空機10から送信された音データあるいは画像データを受信して各種の分析を実行する。   FIG. 7 is a block diagram illustrating a hardware configuration example of the unmanned aerial vehicle and the cloud server according to the first embodiment. As described above, the unmanned aerial vehicle 10 may be connected to the analysis cloud server 40 via a network such as wireless communication. The cloud server 40 receives the sound data or the image data transmitted from the unmanned aerial vehicle 10 and performs various analyzes.

クラウドサーバ40は、プロセッサPRC2と、メモリ43と、通信部45とを含む構成である。プロセッサPRC2は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて、無人航空機10のプロセッサPRC1より高性能に構成される。プロセッサPRC2は、メモリ43に予め記憶されたプログラムおよびデータを読み出して実行することで、音声認識部46と、画像解析部48とを機能的に実現可能である。   The cloud server 40 has a configuration including a processor PRC2, a memory 43, and a communication unit 45. The processor PRC2 is configured to have higher performance than the processor PRC1 of the unmanned aerial vehicle 10 by using, for example, a CPU (Central Processing Unit), an MPU (Micro Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array). . The processor PRC2 can functionally realize the voice recognition unit 46 and the image analysis unit 48 by reading and executing programs and data stored in the memory 43 in advance.

音声認識部46は、例えばメモリ43に予め登録されている音声認識用辞書(図示略)を用いて、無人航空機10により強調処理が施されて送信されたモニタリングエリア8の音データを音声認識する。クラウドサーバ40における音声認識部46の音声認識精度は、無人航空機10における音声認識部26aの音声認識精度より優れている。音声認識部46は、音声認識結果を、通信部45を介して無人航空機10に送る、またはメモリ43に一時的に保持する。   The voice recognition unit 46 uses the voice recognition dictionary (not shown) registered in the memory 43 in advance, for example, to voice-recognize the sound data of the monitoring area 8 transmitted after being subjected to the emphasis processing by the unmanned aerial vehicle 10. . The voice recognition accuracy of the voice recognition unit 46 in the cloud server 40 is superior to the voice recognition accuracy of the voice recognition unit 26a in the unmanned aerial vehicle 10. The voice recognition unit 46 sends the voice recognition result to the unmanned aerial vehicle 10 via the communication unit 45, or temporarily stores the result in the memory 43.

画像解析部48は、無人航空機10に搭載されたカメラCAにより撮像された画像を解析することで、ライダー等のユーザのジェスチャーによるコマンドや、顔の表情によるコマンドの内容を分析して特定する。また、画像解析部48は、分析結果を、通信部45を介して無人航空機10に送る、またはメモリ43に一時的に保持する。   The image analysis unit 48 analyzes an image captured by the camera CA mounted on the unmanned aerial vehicle 10, and analyzes and specifies a command by a gesture of a user such as a rider and a command by a facial expression. In addition, the image analysis unit 48 sends the analysis result to the unmanned aerial vehicle 10 via the communication unit 45, or temporarily stores the analysis result in the memory 43.

メモリ43は、プロセッサPRC2により実現される各部の動作(処理)の実行を制御するのに必要なプログラムおよびデータを格納する。メモリ43は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、およびUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。   The memory 43 stores programs and data necessary for controlling execution of operations (processing) of each unit realized by the processor PRC2. The memory 43 may be a computer-readable recording medium, such as an SRAM (Static Random Access Memory), a DRAM (Dynamic Random Access Memory), an EPROM (Erasable Programmable Read Only Memory), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and It may include at least one of a flash memory such as a USB memory.

通信部45は、例えばWi−fi(登録商標)等の無線LAN(Local Area Network)の無線通信規格に従って、ネットワークNWに無線接続された無人航空機10との間で、ネットワークNWを介して通信を行う。通信部45とネットワークNWとの間の接続は、有線であっても無線であってもよい。または、通信部45は、無人航空機10と直接、無線接続して通信を行ってもよい。通信部45は、プロセッサPRC2の処理に使用される各種のデータ(音データ、画像データ)を無人航空機10から受信したり、プロセッサPRC2の処理結果のデータを無人航空機10に送信したりする。   The communication unit 45 communicates with the unmanned aerial vehicle 10 wirelessly connected to the network NW via the network NW according to a wireless communication standard of a wireless LAN (Local Area Network) such as Wi-fi (registered trademark). Do. The connection between the communication unit 45 and the network NW may be wired or wireless. Alternatively, the communication unit 45 may perform wireless communication directly with the unmanned aerial vehicle 10 to perform communication. The communication unit 45 receives various data (sound data and image data) used for the processing of the processor PRC2 from the unmanned aerial vehicle 10, and transmits data of the processing result of the processor PRC2 to the unmanned aerial vehicle 10.

このように、例えば音データの音声認識処理や、画像データの分析によるコマンドの特定処理など、無人航空機10において処理負荷がかかると予想される処理については、無人航空機10に全て実行させずに、部分的にクラウドサーバ40において分散処理させることで、無人航空機10の処理負荷を軽減できる。また、クラウドサーバ40においてより高精度に音声認識なり画像解析に基づくコマンド特定が可能となるので、無人航空機10に救助を依頼するライダー等のユーザにおける利便性を向上できることが期待される。   In this way, for example, processes that are expected to have a processing load on the unmanned aerial vehicle 10, such as a voice recognition process for sound data and a command identification process based on image data analysis, do not cause the unmanned aerial vehicle 10 to execute all processes. By partially performing distributed processing in the cloud server 40, the processing load on the unmanned aerial vehicle 10 can be reduced. In addition, since the cloud server 40 can more accurately perform voice recognition and specify a command based on image analysis, it is expected that convenience for a user such as a rider who requests the unmanned aerial vehicle 10 for rescue can be improved.

本開示は、モニタリングエリアを定常的にホバリングもしくは巡回飛行し、救助等を求めるユーザの方向を迅速に検知してユーザのニーズを適切に受け付けてそのニーズに適合する処理を実行でき、ユーザの利便性の低下を抑制する収音機能付き無人航空機として有用である。   INDUSTRIAL APPLICABILITY The present disclosure can constantly hover or circulate around a monitoring area, quickly detect the direction of a user seeking rescue or the like, appropriately receive a user's needs, and execute a process adapted to the needs, thereby improving the user's convenience. It is useful as an unmanned aerial vehicle with a sound collection function that suppresses the deterioration of performance.

10 無人航空機
11 筐体
21 ドローン制御管理部
22 ドローン飛行制御部
24 回転翼機構
25 無線通信部
26 音声信号処理部
26a、46 音声認識部
27 カメラ制御部
28 画像処理部
28a、48 画像解析部
241 モータ群
291、294 音声出力部
CA カメラ
MA マイクアレイ
SP1、SP4 スピーカ
DESCRIPTION OF SYMBOLS 10 Unmanned aerial vehicle 11 Housing 21 Drone control management part 22 Drone flight control part 24 Rotor wing mechanism 25 Wireless communication part 26 Audio signal processing part 26a, 46 Speech recognition part 27 Camera control part 28 Image processing part 28a, 48 Image analysis part 241 Motor group 291, 294 Audio output unit CA Camera MA Microphone array SP1, SP4 Speaker

Claims (6)

筐体の底面側に配置され、モニタリングエリアの音を収音するマイクアレイと、
前記マイクアレイにより収音された音データに基づいて、前記モニタリングエリアに発生した音源の方向を推定する音声処理部と、
前記モニタリングエリアのホバリングあるいは巡回飛行を制御するとともに、前記推定された音源の方向への飛行移動を制御する飛行制御部と、
前記筐体の底面側に配置され、既定の音声をスピーカから出力する音声出力部と、
前記既定の音声の出力後、ユーザのニーズを満たす処理の入力を受け付けて実行する制御部と、を備える、
収音機能付き無人航空機。
A microphone array arranged on the bottom side of the housing and collecting the sound of the monitoring area,
A sound processing unit that estimates a direction of a sound source generated in the monitoring area based on sound data collected by the microphone array;
A flight control unit that controls hovering or patrol flight of the monitoring area and controls flight movement in the direction of the estimated sound source,
An audio output unit disposed on the bottom side of the housing and outputting a predetermined audio from a speaker;
A control unit that receives and executes an input of a process that satisfies a user's needs after the output of the predetermined voice,
Unmanned aerial vehicle with sound collection function.
前記制御部は、前記出力された既定の音声に対して前記ユーザが発した所定の音声を前記音声処理部により認識した場合、前記処理の入力を受け付ける、
請求項1に記載の収音機能付き無人航空機。
The control unit, when the voice processing unit recognizes a predetermined voice issued by the user with respect to the output default voice, accepts an input of the process,
An unmanned aerial vehicle with a sound collection function according to claim 1.
前記筐体の底面側に配置され、前記モニタリングエリアを撮像するカメラと、
前記撮像された前記モニタリングエリアの画像を解析する画像解析部と、をさらに備え、
前記制御部は、前記出力された既定の音声に対して前記ユーザが実行した所定の行動を前記画像解析部により認識した場合、前記ユーザが位置する前記音源の方向へさらに接近するための飛行移動を前記飛行制御部に指示する、
請求項1に記載の収音機能付き無人航空機。
A camera arranged on the bottom side of the housing and imaging the monitoring area,
An image analysis unit that analyzes the captured image of the monitoring area, further comprising:
The control unit, when recognizing a predetermined action performed by the user with respect to the output default sound by the image analysis unit, a flight movement for further approaching the direction of the sound source where the user is located. To the flight control unit,
An unmanned aerial vehicle with a sound collection function according to claim 1.
前記制御部は、前記音源に位置するユーザに接近した場合、既定の第2音声の前記スピーカからの出力を前記音声出力部に指示し、前記指示に従って出力された前記既定の第2音声に対して前記ユーザが発した所定の音声を前記音声処理部により認識した場合、前記処理の入力を受け付ける、
請求項3に記載の収音機能付き無人航空機。
The control unit, when approaching a user located at the sound source, instructs the audio output unit to output a predetermined second audio from the speaker, and outputs the predetermined second audio in accordance with the instruction. When a predetermined voice issued by the user is recognized by the voice processing unit, an input of the process is accepted.
An unmanned aerial vehicle with a sound collection function according to claim 3.
前記音声処理部は、前記推定された音源の方向の音データを強調する、
請求項1〜4のうちいずれか一項に記載の収音機能付き無人航空機。
The sound processing unit emphasizes sound data in the direction of the estimated sound source,
The unmanned aerial vehicle with a sound collection function according to any one of claims 1 to 4.
前記飛行移動を行うための回転翼機構、をさらに備え、
前記音声処理部は、前記回転翼機構から回転翼の回転時に生じる回転音を抑圧して前記音源の方向を推定する、
請求項1〜5のうちいずれか一項に記載の収音機能付き無人航空機。
A rotary wing mechanism for performing the flying movement,
The sound processing unit estimates the direction of the sound source by suppressing the rotation sound generated when the rotor blades rotate from the rotor blade mechanism,
An unmanned aerial vehicle with a sound collection function according to any one of claims 1 to 5.
JP2018129421A 2018-07-06 2018-07-06 Unmanned air vehicle with sound absorbing function Pending JP2020006793A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018129421A JP2020006793A (en) 2018-07-06 2018-07-06 Unmanned air vehicle with sound absorbing function

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018129421A JP2020006793A (en) 2018-07-06 2018-07-06 Unmanned air vehicle with sound absorbing function

Publications (1)

Publication Number Publication Date
JP2020006793A true JP2020006793A (en) 2020-01-16

Family

ID=69150188

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018129421A Pending JP2020006793A (en) 2018-07-06 2018-07-06 Unmanned air vehicle with sound absorbing function

Country Status (1)

Country Link
JP (1) JP2020006793A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428461B2 (en) 2020-01-21 2024-02-06 アルパイン株式会社 Unmanned aircraft system and flight control method
WO2024084953A1 (en) * 2022-10-20 2024-04-25 ソニーグループ株式会社 Information processing device, information processing method, and program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7428461B2 (en) 2020-01-21 2024-02-06 アルパイン株式会社 Unmanned aircraft system and flight control method
WO2024084953A1 (en) * 2022-10-20 2024-04-25 ソニーグループ株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US11040774B2 (en) Drone authentication system
CN109074101B (en) Imaging using multiple drones
JP6167425B2 (en) Unmanned aerial vehicle and voice data collection method using unmanned aerial vehicle
US10997237B2 (en) Acoustic monitoring system
US10945070B2 (en) Unmanned aircraft, information processing method, and recording medium
WO2016170766A1 (en) Light irradiation device and light irradiation system
US11450303B2 (en) Unmanned aerial vehicle (UAV) based noise cancellation in physical area
US20210233416A1 (en) Unmanned aircraft, information processing method, and recording medium
US11469691B2 (en) Unmanned aircraft, information processing method, and recording medium
JPWO2016171160A1 (en) Audio transmission system
JP2020006793A (en) Unmanned air vehicle with sound absorbing function
CN110568857A (en) unmanned aerial vehicle flight control method and unmanned aerial vehicle
US11741932B2 (en) Unmanned aircraft and information processing method
US11422568B1 (en) System to facilitate user authentication by autonomous mobile device
US11531343B1 (en) System for user interactions with an autonomous mobile device
WO2020170489A1 (en) Unmanned aerial vehicle, information processing method, and program
WO2019225147A1 (en) Airborne object detection device, airborne object detection method, and airborne object detection system
US20220413518A1 (en) Movable object, information processing method, program, and information processing system
Quan et al. Identification of drone thermal signature by convolutional neural network
WO2024084953A1 (en) Information processing device, information processing method, and program
CN118020314A (en) Audio event data processing
KR20240040737A (en) Processing of audio signals from multiple microphones
KR20240040738A (en) Audio event data processing
JP2021002788A (en) Unmanned aerial vehicle, control device, and control method