JP2020006793A - Unmanned air vehicle with sound absorbing function - Google Patents
Unmanned air vehicle with sound absorbing function Download PDFInfo
- Publication number
- JP2020006793A JP2020006793A JP2018129421A JP2018129421A JP2020006793A JP 2020006793 A JP2020006793 A JP 2020006793A JP 2018129421 A JP2018129421 A JP 2018129421A JP 2018129421 A JP2018129421 A JP 2018129421A JP 2020006793 A JP2020006793 A JP 2020006793A
- Authority
- JP
- Japan
- Prior art keywords
- sound
- unmanned aerial
- aerial vehicle
- user
- voice
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000012545 processing Methods 0.000 claims abstract description 84
- 238000012544 monitoring process Methods 0.000 claims abstract description 61
- 238000000034 method Methods 0.000 claims description 67
- 230000008569 process Effects 0.000 claims description 28
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical group C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 claims description 21
- 238000010191 image analysis Methods 0.000 claims description 21
- 238000003384 imaging method Methods 0.000 claims description 12
- 230000007246 mechanism Effects 0.000 claims description 11
- 230000009471 action Effects 0.000 claims description 10
- 238000010521 absorption reaction Methods 0.000 abstract 1
- 230000015556 catabolic process Effects 0.000 abstract 1
- 238000006731 degradation reaction Methods 0.000 abstract 1
- 230000005236 sound signal Effects 0.000 description 29
- 238000004891 communication Methods 0.000 description 27
- 230000006870 function Effects 0.000 description 14
- 238000004458 analytical method Methods 0.000 description 13
- 238000007726 management method Methods 0.000 description 13
- 230000004044 response Effects 0.000 description 10
- 238000013459 approach Methods 0.000 description 9
- 238000010586 diagram Methods 0.000 description 7
- 101100465401 Saccharomyces cerevisiae (strain ATCC 204508 / S288c) SCL1 gene Proteins 0.000 description 6
- 238000013473 artificial intelligence Methods 0.000 description 6
- 238000013528 artificial neural network Methods 0.000 description 6
- 102000002273 Polycomb Repressive Complex 1 Human genes 0.000 description 5
- 108010000598 Polycomb Repressive Complex 1 Proteins 0.000 description 5
- 238000004364 calculation method Methods 0.000 description 5
- 230000008921 facial expression Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000003066 decision tree Methods 0.000 description 3
- 238000012417 linear regression Methods 0.000 description 3
- 238000007477 logistic regression Methods 0.000 description 3
- 238000010801 machine learning Methods 0.000 description 3
- 238000007637 random forest analysis Methods 0.000 description 3
- 238000012706 support-vector machine Methods 0.000 description 3
- 230000003068 static effect Effects 0.000 description 2
- 241000282414 Homo sapiens Species 0.000 description 1
- 125000002066 L-histidyl group Chemical group [H]N1C([H])=NC(C([H])([H])[C@](C(=O)[*])([H])N([H])[H])=C1[H] 0.000 description 1
- 238000007792 addition Methods 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 238000013500 data storage Methods 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 239000003814 drug Substances 0.000 description 1
- 210000000744 eyelid Anatomy 0.000 description 1
- 210000003128 head Anatomy 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
- 239000007921 spray Substances 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000000007 visual effect Effects 0.000 description 1
- 230000002087 whitening effect Effects 0.000 description 1
Images
Landscapes
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
Abstract
Description
本開示は、監視対象のエリアをホバリングもしくは巡回飛行する収音機能付き無人航空機に関する。 The present disclosure relates to an unmanned aerial vehicle with a sound collection function that hoveres or circulates around a monitored area.
特許文献1には、災害等の緊急時に救護作業を実行するために、使用者から救護作業の入力を受け付けると、その受け付けた入力内容に基づいて救護作業の実行を制御する無人航空機が開示されている。無人航空機は、救護作業を実施する前は、使用者が平時滞在する病院内の待機場所で待機し、使用者が選択した作業内容を受け付けると、待機場所を出て移動経路に沿って移動し、災害現場へ向かう。この移動経路は、無人航空機の送受信部により受信した災害場所の位置と待機場所の位置とを基にした演算処理によって得られたものである。 Patent Literature 1 discloses an unmanned aerial vehicle that controls the execution of a rescue operation based on the received input contents when an input of a rescue operation is received from a user in order to execute a rescue operation in an emergency such as a disaster. ing. Before performing rescue work, the unmanned aerial vehicle waits at a waiting place in the hospital where the user stays in peacetime, and after accepting the work selected by the user, exits the waiting place and moves along the travel route. , Head to the disaster site. This moving route is obtained by a calculation process based on the position of the disaster place and the position of the standby place received by the transmitting and receiving unit of the unmanned aerial vehicle.
特許文献1の無人航空機は、緊急事態が発生していない平常時には病院内の待機場所で待機し、緊急事態が発生した後、救護作業を実施する災害現場の位置を指定された時点でその災害現場の位置に向かって移動する。言い換えると、特許文献1の無人航空機は、災害現場等の監視対象のエリアに定常的にホバリングもしくは巡回して飛行していない。このため、移動先の指定が予め入力されていなければ何処に向かって移動すればよいか判別できず、さらに災害現場で救助を求める被災者の声を迅速に検知できないので、救助が必要になってから迅速に救助等の作業を実行できず、利便性が低下するという課題があった。 The unmanned aerial vehicle disclosed in Patent Document 1 waits in a standby place in a hospital during an emergency when no emergency occurs, and after an emergency occurs, when the position of a disaster site where rescue work is performed is designated, the disaster occurs. Move towards the site location. In other words, the unmanned aerial vehicle disclosed in Patent Literature 1 does not constantly hover or circulate around an area to be monitored such as a disaster site. For this reason, it is not possible to determine where to move if the destination designation has not been input in advance, and it is not possible to quickly detect the voice of a victim who seeks rescue at a disaster site, so rescue is required. There was a problem that the work such as rescue could not be performed promptly afterwards, and the convenience was reduced.
本開示は、上述した従来の状況に鑑みて案出され、モニタリングエリアを定常的にホバリングもしくは巡回飛行し、救助等を求めるユーザの方向を迅速に検知してユーザのニーズを適切に受け付けてそのニーズに適合する処理を実行でき、ユーザの利便性の低下を抑制する収音機能付き無人航空機を提供することを目的とする。 The present disclosure has been devised in view of the above-described conventional situation, constantly hovering or circling in the monitoring area, quickly detecting the direction of the user seeking rescue, etc., appropriately accepting the needs of the user, and An object of the present invention is to provide an unmanned aerial vehicle with a sound collection function that can execute processing that meets needs and suppresses a decrease in user convenience.
本開示は、筐体の底面側に配置され、モニタリングエリアの音を収音するマイクアレイと、前記マイクアレイにより収音された音データに基づいて、前記モニタリングエリアに発生した音源の方向を推定する音声処理部と、前記モニタリングエリアのホバリングあるいは巡回飛行を制御するとともに、前記推定された音源の方向への飛行移動を制御する飛行制御部と、前記筐体の底面側に配置され、既定の音声をスピーカから出力する音声出力部と、前記既定の音声の出力後、前記ユーザのニーズを満たす処理の入力を受け付けて実行する制御部と、を備える、収音機能付き無人航空機を提供する。 The present disclosure is arranged on the bottom side of the housing, and estimates a direction of a sound source generated in the monitoring area based on sound data collected by the microphone array and sound collected by the microphone array. A voice processing unit that controls hovering or circulating flight of the monitoring area, and a flight control unit that controls flight movement in the direction of the estimated sound source. An unmanned aerial vehicle with a sound collection function, comprising: a sound output unit that outputs sound from a speaker; and a control unit that receives and executes an input of a process that satisfies the user's needs after outputting the predetermined sound.
本開示によれば、モニタリングエリアを定常的にホバリングもしくは巡回飛行し、救助等を求めるユーザの方向を迅速に検知でき、ユーザのニーズを適切に受け付けてそのニーズに適合する処理を実行できるので、ユーザの利便性の低下を抑制できる。 According to the present disclosure, it is possible to constantly hover or circulate around the monitoring area, quickly detect the direction of the user seeking rescue, etc., and appropriately execute the process that accepts the user's needs and meets the needs. A reduction in user convenience can be suppressed.
以下、適宜図面を参照しながら、本開示に係る収音機能付き無人航空機を具体的に開示した実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために提供されるものであり、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 Hereinafter, an embodiment that specifically discloses an unmanned aerial vehicle with a sound collection function according to the present disclosure will be described in detail with reference to the drawings as appropriate. However, an unnecessary detailed description may be omitted. For example, a detailed description of well-known matters and a repeated description of substantially the same configuration may be omitted. This is to prevent the following description from being unnecessarily redundant and to facilitate understanding of those skilled in the art. The accompanying drawings and the following description are provided for those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.
以下、本開示に係る収音機能付き無人航空機として、監視対象のモニタリングエリア(災害、事件もしくは事故が発生し易い場所または発生した場所)を定常的にホバリング(飛行)して滞在、あるいは巡回して飛行する無人航空機を例示して説明する。無人航空機は、モニタリングエリアの音を収音する機能を有するとともに、ドローン等のUAV(Unmanned Aerial Vehicle)を用いて構成される。本開示は、収音機能付き無人航空機において実行される処理方法、あるいは、収音機能付き無人航空機を含むシステムとしてそれぞれ規定することも可能である。 Hereinafter, as an unmanned aerial vehicle with a sound collecting function according to the present disclosure, a monitoring area to be monitored (a place where a disaster, an incident or an accident is likely to occur or a place where it occurs) is constantly hovered (flighted) and stays or patrols. An example of an unmanned aerial vehicle that flies in the air will be described. The unmanned aerial vehicle has a function of collecting sound in a monitoring area and is configured using a UAV (Unmanned Aerial Vehicle) such as a drone. The present disclosure can also be defined as a processing method executed in an unmanned aerial vehicle with a sound collecting function, or a system including an unmanned aerial vehicle with a sound collecting function.
実施の形態1では、無人航空機の監視対象であるモニタリングエリアにおいて、例えばバイク事故を起こして困っているライダーが、モニタリングエリアをホバリングあるいは巡回飛行している無人航空機に救助等を求めるユースケースを、一例として説明する。また、便宜的に、上述したライダー(つまり、無人航空機に救助を求める人物)を「ユーザ」という。 In the first embodiment, in a monitoring area to be monitored by an unmanned aerial vehicle, for example, a rider who is in trouble due to a motorcycle accident seeks rescue or the like from an unmanned aerial vehicle hovering or circulating in the monitoring area, This will be described as an example. For convenience, the above-mentioned rider (that is, a person who seeks help from an unmanned aerial vehicle) is referred to as a “user”.
実施の形態1に係る無人航空機10は、筐体11の底面側に配置され、モニタリングエリア8の音を収音するマイクアレイMAを有する。無人航空機10は、マイクアレイMAにより収音された音データに基づいて、モニタリングエリア8に発生した音源の方向を推定する音声信号処理部26を有する。無人航空機10は、モニタリングエリア8のホバリングあるいは巡回飛行を制御するとともに、推定された音源の方向への飛行移動を制御するドローン飛行制御部22を有する。無人航空機10は、筐体11の底面側に配置され、既定の音声(後述参照)をスピーカSP1〜SP4からそれぞれ出力する音声出力部291〜294を有する。無人航空機10は、既定の音声の出力後、ユーザのニーズを満たす処理の入力を受け付けて実行するドローン制御管理部21を有する。
The unmanned
図1は、実施の形態1に係る無人航空機10の筐体11を底面側から見た外観の一例を示す図である。図2は、実施の形態1に係る無人航空機10の筐体11を側面側から見た外観の一例を示す図である。
FIG. 1 is a diagram illustrating an example of an appearance of a
無人航空機10は、マルチコプタ型のUAV(Unmanned Aerial Vehicle)であり、ドローンとも呼ばれる。具体的には、無人航空機10は、複数(例えば4つ)の回転翼PR1,PR2,PR3,PR4を有する回転翼機構24(後述参照)を含む筐体11と、カメラCAと、マイクアレイMAと、複数(例えば4つ)のスピーカSP1〜SP4とを含む構成である。
The unmanned
従って、無人航空機10は、4つの回転翼PR1〜PR4の回転により、自律的に上昇、下降、左旋回、左方向への移動、右旋回、右方向への移動またはこれらの組み合わせを用いた複数の自由度を有した行動を行って飛行移動が可能である。また、無人航空機10は、筐体11に内蔵されたGPS(Global Positioning System)受信機(図示略)を用いて、自らの3次元的な空間位置の情報を取得可能である。
Accordingly, the unmanned
無人航空機10は、上述したように、モニタリングエリア8を監視するために、モニタリングエリア8の上空をホバリング(つまり、空中に浮揚して滞在)する、あるいは巡回して飛行する。なお、無人航空機10は、例えば目的地またはターゲット物体を空撮したり、積載された薬品を散布したり、あるいは物資を運搬したりしてもよい。
As described above, the unmanned
図1に示すように、収音機能付き無人航空機の一例としての無人航空機10の筐体11の底面側(つまり、上空飛行時の鉛直下向き側)には、モニタリングエリア8を撮像(つまり、空撮)するためのカメラCAの筐体とモニタリングエリア8の音を収音するためのマイクアレイMAの筐体BDとが同軸に一体的に構成されて配置される。なお、カメラCAの筐体とマイクアレイMAの筐体BDとはジンバル(図示略)を介して支持されてよい。これにより、無人航空機10は、モニタリングエリア8を飛行中に、モニタリングエリア8において発生する音を収音可能であるととともに、モニタリングエリア8を被写体とした画像(例えば、静止画あるいは動画)を撮像可能である。詳細は後述するが、カメラCAの光軸方向J1とマイクアレイMAの筐体BDの中心軸とは一致している。
As shown in FIG. 1, the
なお、図1,図2には図示が省略されているが、無人航空機10は、カメラCAとは別に、筐体11から露出する複数の撮像装置を備えてもよい。複数(例えば4つ)の撮像装置は、例えば、無人航空機10の飛行を制御するために無人航空機10の周囲を撮像するセンシング用のカメラである。一部(例えば2つ)の撮像装置は、無人航空機10の機首である正面に設けられてよい。また、残り(例えば2つ)の撮像装置は、無人航空機10の底面に設けられてよい。正面側の2つの撮像装置はペアとなり、いわゆるステレオカメラとして機能してよい。底面側の2つの撮像装置もペアとなり、ステレオカメラとして機能してよい。複数の撮像装置により撮像された画像に基づいて、無人航空機10の周囲の3次元空間データが生成されてよい。なお、無人航空機10が別途備える撮像装置の数は4つに限定されない。
Although not shown in FIGS. 1 and 2, the unmanned
また、無人航空機10は、回転翼PR1,PR2,PR3,PR4と対応するアームAM1,AM2,AM3,AM4を挟んだ反対側(つまり、それぞれのアームAM1,AM2,AM3,AM4の底面側)にスピーカSP1〜SP4を備える。なお、スピーカSP1〜SP4は、それぞれ対応するアームAM1〜AM4の略中央部(つまり、上述した回転翼PR1〜PR4の反対側の位置と筐体11の中央部との間の略中間位置)に配置されてもよい。後述するように、スピーカSP1〜SP4からは、無人航空機10が救助を求めるユーザHM1に十分に接近した時に、筐体11に内蔵されるドローン制御管理部21からの指示に基づき、ユーザHM1に対して救助等の用件の有無を問い合わせるための既定の音声が出力される。
Further, the unmanned
図3は、実施の形態1に係る無人航空機10のハードウェア構成例を示すブロック図である。無人航空機10は、ドローン制御管理部21と、ドローン飛行制御部22と、メモリ23と、モータ群241を含む回転翼機構24と、無線通信部25と、音声信号処理部26と、音声認識部26aと、カメラ制御部27と、画像処理部28と、画像解析部28aと、複数(例えば4つ)の音声出力部291〜294とを含む構成である。また、無人航空機10は、マイクアレイMAと、カメラCAと、複数(例えば4つ)のスピーカSP1〜SP4とを含む構成である。音声出力部291〜294のそれぞれは、スピーカSP1〜SP4のそれぞれに対応して設けられる。
FIG. 3 is a block diagram illustrating a hardware configuration example of the unmanned
ドローン制御管理部21と、ドローン飛行制御部22と、無線通信部25と、音声信号処理部26と、音声認識部26aと、カメラ制御部27と、画像処理部28と、画像解析部28aとは、プロセッサPRC1を用いて構成される。プロセッサPRC1は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて構成される。プロセッサPRC1は、メモリ23に予め記憶されたプログラムおよびデータを読み出して実行することで、ドローン制御管理部21と、ドローン飛行制御部22と、無線通信部25と、音声信号処理部26と、音声認識部26aと、カメラ制御部27と、画像処理部28と、画像解析部28aとを機能的に実現可能である。
A drone control management unit 21, a drone
ドローン制御管理部21は、無人航空機10の各部の動作を統括して制御するための制御処理、他の各部との間のデータの入出力処理、データの演算(計算)処理およびデータの記憶処理を行う。
The drone control management unit 21 performs control processing for controlling the operation of each unit of the unmanned
ドローン制御管理部21は、筐体11に内蔵されたタイマ(図示略)から現在の日時を示す日時情報を取得してよい。ドローン制御管理部21は、現在の日時を示す日時情報を取得する。ドローン飛行制御部22は、筐体11に内蔵されるGPS受信機(図示略)から現在の日時を示す日時情報、無人航空機10が存在する緯度、経度および高度を示す位置情報を取得してよい。ドローン制御管理部21は、筐体11に内蔵された磁気コンパス(図示略)から無人航空機10の向きを示す向き情報を取得する。向き情報には、例えば無人航空機10の機首の向きに対応する方位が示される。
The drone control management unit 21 may acquire date and time information indicating the current date and time from a timer (not shown) built in the
ドローン飛行制御部22は、メモリ23に格納されたプログラムに従って無人航空機10の飛行を制御する。ドローン飛行制御部22は、無線通信部25を介して遠隔の操作端末機(図示略)から受信した命令に従って、無人航空機10の飛行を制御してよい。
The drone
ドローン飛行制御部22は、回転翼機構24に搭載されるモータ群241を制御することで、無人航空機10の飛行を制御する。つまり、ドローン飛行制御部22は、回転翼機構24を制御することにより、無人航空機10の緯度、経度および高度を含む位置を制御する。ドローン飛行制御部22は、無人航空機10の飛行を制御することにより、カメラCAの撮像範囲を制御してもよい。ドローン飛行制御部22は、例えばカメラCAが備えるパンチルト機構およびズームレンズ(図示略)を制御することで、カメラCAの画角およびズーム倍率をそれぞれ制御してよい。
The drone
ドローン飛行制御部22は、画像解析部28aの画像解析結果(例えば、無人航空機10の周囲の環境)を受けて、障害物を回避して飛行を制御する。ドローン飛行制御部22は、カメラCAにより撮像された複数の画像に基づいて無人航空機10の周囲の3次元空間データを生成し、3次元空間データに基づいて飛行を制御してよい。
The drone
メモリ23は、プロセッサPRC1により実現される各部の動作(処理)の実行を制御するのに必要なプログラムおよびデータを格納する。メモリ23は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、およびUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。メモリ23は、筐体11の内部に設けられてよいし、筐体11から取り外し可能に設けられてよい。
The
メモリ23は、音声信号処理部26により算出される全方位撮像画像データを構成するブロックごとの音圧レベルと比較される第1閾値、第2閾値および第3閾値を保持する。ここで、音圧レベルは、マイクアレイMAにより収音されるモニタリングエリア8で発生する音の大きさを示す音パラメータの一例として使用され、スピーカSP1〜SP4から出力される音の大きさを示す音量とは異なる概念である。第1閾値、第2閾値および第3閾値は、モニタリングエリア8内で発生した音の音圧レベルと比較される閾値である。また、閾値は、上述した第1閾値、第2閾値および第3閾値以外にも複数設定可能であり、第1閾値だけを用いてもよい。ここでは簡単に説明するために、例えば、第1閾値と、これより小さな値である第2閾値と、さらに小さな値である第3閾値の3つが設定される(第1閾値>第2閾値>第3閾値)。
The
メモリ23は、無人航空機10の回転翼PR1〜PR4のそれぞれに固有な音パターンが登録されたパターンメモリを有する。音声信号処理部26は、マイクアレイMAにより収音された音データから、メモリ23に予め登録された回転翼PR1〜PR4のそれぞれに固有の音パターンの音信号を除外する(つまり、取り除いた)上で、音源の位置を推定する。
The
回転翼機構24は、複数(例えば4つ)の回転翼PR1,PR2,PR3,PR4と、複数の回転翼PR1〜PR4のそれぞれを回転させるための複数の駆動モータからなるモータ群241と、を含む。
The
ここで、無人航空機10のようなマルチコプタ型のドローンでは、一般に回転翼PR1〜PR4のそれぞれにおける羽の枚数が2枚の場合、特定周波数に対し2倍の周波数の高調波、さらにはその逓倍の周波数の高調波が発生する。同様に、回転翼PR1〜PR4のそれぞれにおける羽の枚数が3枚の場合、特定周波数に対し3倍の周波数の高調波、さらにはその逓倍の周波数の高調波が発生する。回転翼PR1〜PR4のそれぞれにおける羽の枚数が4枚以上の場合も同様である。
Here, in a multi-copter type drone such as the unmanned
無線通信部25は、例えばWi−fi(登録商標)等の無線LAN(Local Area Network)の無線通信規格に従って、外部機器(例えば、無人航空機10を遠隔で操作するための操作端末機)との間で無線通信を行う。無線通信部25は、上述した外部機器から送られた無人航空機10の飛行に関わる各種の命令(コマンド)を受信してドローン制御管理部21に送る。
The
音声処理部の一例としての音声信号処理部26は、マイクアレイMAにより収音されたモニタリングエリア8の音データに基づいて、モニタリングエリア8に発生した音源の方向を推定する。音声信号処理部26は、例えば公知の白色化相互相関法(CSP(Cross-power Spectrum Phase analysis)法)に従って、マイクアレイMAにより収音された音データを用いて、モニタリングエリア8での音源位置を推定する。CSP法では、音声信号処理部26は、モニタリングエリア8を複数のブロック(図示略)に分割し、マイクアレイMAで音が収音されると、ブロックごとに音の大きさを示す音パラメータ(例えば、マイクアレイMAを構成する複数のマイクロホンのうち、複数組からなる2つのマイクロホンによりそれぞれ収音された音データ間の相互相関値の正規化出力値)が閾値(既定値)を超えるか否かを判定することで、モニタリングエリア8内での音源位置を概略的に推定できる。
The audio
音声信号処理部26は、カメラCA(例えば全方位カメラ)により撮像された全方位撮像画像データとマイクアレイMAで収音された音データとを基に、モニタリングエリア8の全方位撮像画像データを構成するブロック(例えば、「2*2」個、「4*4」個等の所定数の画素からなる画素集合を示す。以下同様。)ごとに、そのブロックに対応する位置における音の大きさを示す音パラメータ(例えば、上述した相互相関値の正規化出力値、または音圧レベル)を算出する。音声信号処理部26は、全方位撮像画像データを構成するブロックごとの音パラメータの算出結果を用いて、それぞれのブロックごとに、該当するブロックの位置に音圧レベルの算出値を割り当てた音圧マップを生成する。さらに、音声信号処理部26は、例えば音圧マップが数値の並べられた行列により構成されるのでユーザにとって視覚的で判別し易くなるように、生成された音圧マップの対応するブロックごとに、そのブロックの音圧レベルに応じた色付き画像(視覚画像の一例)に色変換処理を行って割り当てることで音圧ヒートマップを生成する。上述した音パラメータの算出処理は公知技術であり、詳細な処理の説明は割愛する。
The audio
音声信号処理部26は、マイクアレイMAにより収音された音データと推定された音源の方向を示す情報とを用いて、マイクアレイMAにより収音された音データの指向性形成処理を行うことで、音源方向の音データを強調処理する。音データの指向性形成処理は、例えば特開2015−029241号公報に記載されている公知の技術である。
The audio
なお、音声信号処理部26は、上述したブロック単位ごとに算出した音圧レベルを該当するブロックの位置に割り当てた音圧ヒートマップを生成すると説明したが、他には、一つ一つの画素ごとに音圧レベルを算出し、画素ごとの音圧レベルを該当する画素の位置に割り当てた音圧ヒートマップを生成してもよい。
Note that the audio
音声信号処理部26により生成される音圧ヒートマップでは、第1閾値より大きな音圧レベルが得られた画素の領域には、例えば赤色の画像が割り当てられる。第2閾値より大きく第1閾値以下の音圧レベルが得られた画素の領域には、例えばピンク色の画像が割り当てられる。第3閾値より大きく第2閾値以下の音圧レベルが得られた画素の領域には、例えば青色の画像が割り当てられる。第3閾値以下の画素の音圧レベルの領域には、例えば無色の画像が割り当てられるので、全方位撮像画像データの表示色と何ら変わらない。
In the sound pressure heat map generated by the sound
なお、図1および図2に示すように、カメラCAの光軸方向J1とマイクアレイMAの筐体の中心軸とは同軸上となるようにカメラCAおよびマイクアレイMAはそれぞれ配置される。このため、音声信号処理部26により推定される音源の方向は、全方位カメラが撮像する全方位撮像画像データのうち音源の方向の画像を切り出す際の方向を示すパラメータとして利用可能である。従って、画像解析部28aは、音声信号処理部26により音源の方向が推定されると、その音源の方向を示す情報を用いて、カメラCA(例えば全方位カメラ)により撮像された全方位撮像画像データのうち、推定された音源の方向の画像を切り出すことが可能である。
Note that, as shown in FIGS. 1 and 2, the camera CA and the microphone array MA are respectively arranged such that the optical axis direction J1 of the camera CA and the center axis of the housing of the microphone array MA are coaxial. For this reason, the direction of the sound source estimated by the audio
ただし、カメラCAとマイクアレイMAとが同軸上に配置されていない場合には、カメラ制御部27は、例えば特開2015−029241号に記載されている方法に従って、音声信号処理部26により推定された音源の方向を幾何学的に補正し、補正後の方向の画像を切り出してよい。
However, when the camera CA and the microphone array MA are not coaxially arranged, the
音声認識部26aは、例えばメモリ23に予め登録されている音声認識用辞書(図示略)を用いて、音声信号処理部26により強調処理が施された後の音データを音声認識する。音声認識部26aは、音声認識結果をドローン制御管理部21に送る、またはメモリ23に一時的に保持する。
The
カメラ制御部27は、カメラCA(例えば全方位カメラ)の動作(処理)を制御する。カメラ制御部27は、カメラCAにより撮像された画像を取得して音声信号処理部26に送る。カメラ制御部27は、カメラCAが例えばPTZ(Pan Tilt Zoom)カメラである場合に、パンチルト制御指示をカメラCAに送って、カメラCAの光軸方向およびズーム倍率を変更するように制御してもよい。
The
画像処理部28は、カメラCAにより撮像された画像を入力し、その画像に対して、画像解析部28aにおける解析処理に適した既定の画像処理を施す。画像処理部28は、画像処理後の画像のデータを画像解析部28aに送る、またはメモリ23に一時的に保持する。
The
画像解析部28aは、画像処理部28により生成された画像(言い換えると、カメラCAにより撮像された画像)を解析することで、無人航空機10の周囲の環境を特定する。画像解析部28aは、音声信号処理部26により推定された音源の方向を示す情報を受け取ると、カメラCA(例えば全方位カメラ)により撮像された全方位撮像画像データから、音源の方向を示す画像(例えば、バイク事故を起こしたユーザHM1が存在する方向の画像)を切り出してよい。
The
複数(例えば4つ)の音声出力部291〜294は、スピーカSP1〜SP4のそれぞれに対応して設けられ、音声信号処理部26から既定の音声の出力指示を受け取ると、その出力指示に従って、既定の音声を対応するスピーカSP1〜SP4のそれぞれから出力させる。
A plurality of (for example, four)
マイクアレイMAは、無人航空機10の筐体11の底面側に配置され、モニタリングエリア8での全方位(つまり、360度)の方向の音を無指向状態で収音する。マイクアレイMAは、中央に所定幅の円形開口部が形成された筐体BD(図1,図2参照)を有する。マイクアレイMAにより収音される音は、例えば、無人航空機10のような機械的な動作音、人間等が発する音、その他の音を含み、可聴周波数(つまり、20Hz〜20kHz)域の音に限らず、可聴周波数より低い低周波音や可聴周波数を超える超音波音が含まれてもよい。
The microphone array MA is disposed on the bottom surface side of the
マイクアレイMAは、複数の無指向性のマイクロホンを含む。それぞれのマイクロホンは、筐体BDに設けられた円形開口部の周囲に円周方向に沿って、同心円状に予め決められた間隔(例えば均一な間隔)で配置されている。それぞれのマイクロホンは、例えばエレクトレットコンデンサーマイクロホン(ECM:Electret Condenser Microphone)が用いられる。マイクアレイMAは、それぞれのマイクロホンの収音により得られた音データ信号を音声信号処理部26に送る。なお、各マイクロホンの配列は、一例であり、他の配列(例えば正方形状な配置、長方形状の配置)でもよいが、各マイクロホンは等間隔に並べて配置されることが好ましい。
Microphone array MA includes a plurality of omnidirectional microphones. The microphones are arranged concentrically at predetermined intervals (for example, uniform intervals) around a circular opening provided in the housing BD along the circumferential direction. As each microphone, for example, an electret condenser microphone (ECM) is used. The microphone array MA sends the sound data signal obtained by the sound pickup of each microphone to the sound
マイクアレイMAは、複数のマイクロホン、複数のマイクロホンのそれぞれの出力信号をそれぞれ増幅する複数の増幅器と、複数のA/D変換器と、を少なくとも有する。各増幅器から出力されるアナログ信号は、対応するA/D変換器でそれぞれデジタル信号に変換される。なお、マイクアレイMAにおけるマイクロホンの数は、例えば16個、32個、64個、128個でよい。 The microphone array MA has at least a plurality of microphones, a plurality of amplifiers for respectively amplifying output signals of the plurality of microphones, and a plurality of A / D converters. An analog signal output from each amplifier is converted into a digital signal by a corresponding A / D converter. The number of microphones in the microphone array MA may be, for example, 16, 32, 64, or 128.
カメラCAは、例えば全方位カメラであり、マイクアレイMAの筐体BD(図1参照)の中央に形成された円形開口部の内側には、円形開口部の容積と略一致して収容される。つまり、マイクアレイMAとカメラCAとは一体的かつ、それぞれの筐体中心が同軸方向となるように配置される(図1参照)。カメラCAは、カメラCAの撮像エリアとしてのモニタリングエリア8の全方位(つまり、360度)の画像を撮像可能な魚眼レンズを搭載したカメラである。カメラCAは、例えばモニタリングエリア8を撮像可能な監視カメラとして機能する。
The camera CA is, for example, an omnidirectional camera, and is accommodated inside the circular opening formed in the center of the housing BD (see FIG. 1) of the microphone array MA so as to substantially match the volume of the circular opening. . That is, the microphone array MA and the camera CA are integrated and arranged so that their respective housing centers are coaxial with each other (see FIG. 1). The camera CA is a camera equipped with a fisheye lens capable of capturing images in all directions (that is, 360 degrees) of the
カメラCAが筐体BDの円形開口部の内側に嵌め込まれることで、カメラCAとマイクアレイMAとが同軸上に配置される。このように、カメラCAの光軸方向J1とマイクアレイMAの筐体の中心軸とが一致することで、軸周方向(つまり、水平方向)における撮像エリアと収音エリアとが略同一となり、カメラCAが撮像した全方位画像中の被写体の位置(言い換えれば、カメラCAから見た被写体の位置を示す方向)とマイクアレイMAの収音対象となる音源の位置(言い換えれば、マイクアレイMAから見た音源の位置を示す方向)とが同じ座標系(例えば(水平角,垂直角)で示される座標)で表現可能となる。 By fitting the camera CA inside the circular opening of the housing BD, the camera CA and the microphone array MA are coaxially arranged. As described above, since the optical axis direction J1 of the camera CA coincides with the central axis of the housing of the microphone array MA, the imaging area and the sound collection area in the axial circumferential direction (that is, the horizontal direction) become substantially the same, The position of the subject in the omnidirectional image captured by the camera CA (in other words, the direction indicating the position of the subject viewed from the camera CA) and the position of the sound source to be picked up by the microphone array MA (in other words, from the microphone array MA) This can be expressed in the same coordinate system (for example, coordinates indicated by (horizontal angle, vertical angle)).
スピーカSP1〜SP4は、対応する音声出力部291〜294のそれぞれから出力された既定の音声(後述参照)を音響的に出力する。
The speakers SP1 to SP4 acoustically output predetermined sounds (see below) output from the corresponding
次に、実施の形態1に係る無人航空機10の動作概要の一例について、図4を参照して説明する。
Next, an example of an outline of the operation of the unmanned
図4は、実施の形態1に係る無人航空機10の動作概要例を示す説明図である。図4に示すように、無人航空機10の監視対象であるモニタリングエリア8において、例えば、バイクBK1を運転していたドライバーであるユーザHM1が、事故を起こして困っており、モニタリングエリア8をホバリングあるいは巡回飛行している無人航空機10に救助等を求める。後述する図5および図6にて説明するが、ユーザHM1は、モニタリングエリア8をホバリングあるいは巡回飛行している無人航空機10を見つけると、「おーい!」等の掛け声を出して救助等を求める。
FIG. 4 is an explanatory diagram illustrating an example of an operation outline of the unmanned
無人航空機10は、マイクアレイMAで収音された音データを用いて音声信号処理部26により音源の方向(つまり、図4の例ではユーザHM1の位置する方向)を推定し、その方向DR1に沿ってユーザHM1に接近するように飛行移動する。無人航空機10は、ユーザHM1に対して十分に接近した場合(例えば、カメラCAの撮像した画像におけるユーザHM1の占める面積が所定割合を超えた場合)、ユーザHM1が要求した入力コマンド(後述参照)を受け付け、その受け付けられた入力コマンドに対する処理を実行する。
The unmanned
次に、実施の形態1に係る無人航空機10の第1動作手順および第2動作手順の一例について、図5および図6を参照して説明する。
Next, an example of the first operation procedure and the second operation procedure of the unmanned
図5は、実施の形態1に係る無人航空機の第1動作手順の一例を時系列に示すフローチャートである。図6は、実施の形態1に係る無人航空機の第2動作手順の一例を時系列に示すフローチャートである。図6の説明において、図5の処理の説明と同一の処理については同一のステップ番号を付与して説明を簡略化または省略し、異なる内容について説明する。 FIG. 5 is a flowchart showing an example of a first operation procedure of the unmanned aerial vehicle according to Embodiment 1 in chronological order. FIG. 6 is a flowchart showing an example of a second operation procedure of the unmanned aerial vehicle according to Embodiment 1 in a time series. In the description of FIG. 6, the same processes as those in the description of FIG. 5 will be assigned the same step numbers, and the description will be simplified or omitted, and different contents will be described.
図5において、無人航空機10は、モニタリングエリア8の上空をホバリングあるいは巡回飛行している(St1)。ステップSt1では、無人航空機10は、モニタリングエリア8の上空を常に飛行しており、モニタリングエリア8において音源の存在が無いか見張り(つまり、監視)している。従って、無人航空機10は、モニタリングエリア8を監視する監視用ドローンとして位置付けることが可能である。
In FIG. 5, the unmanned
無人航空機10は、無人航空機10を呼ぶ音声(例えば、図4に示すユーザHM1が出す掛け声「おーい!」または「助けて!」)をマイクアレイMAにおいて収音する(St2)。このような無人航空機10を呼ぶ音声は、例えば無人航空機10のメモリ23に予め登録されていることが好ましく、音声信号処理部26あるいは音声認識部26aにおいてそのような音声が認識されると、無人航空機10は次の処理(つまり、ステップSt3の処理)に進んでよい。
The unmanned
なお、音声信号処理部26あるいは音声認識部26aにおいて無人航空機10を呼ぶ音声が含まれているか否かを分析する際には、人工知能を用いて過去のサンプルデータを機械学習して得た学習モデルに従って決定してもよい。また、その分析は、無線通信などのネットワークを介して無人航空機10と接続される分析用のクラウドサーバ40で行われてもよい(図7参照)。人工知能の学習は、1つ以上の統計的な分類技術を用いて実行されてもよい。統計的分類技術としては、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)等が例示される。但し、使用される統計的分類技術はこれらに限定されない。
When analyzing whether or not the voice calling the unmanned
無人航空機10は、ステップSt2において収音された音声の音データを用いて、その音声の音源方向(つまり、ユーザHM1の位置する方向)を音声信号処理部26において検知(推定)し、さらに、その検知された音源方向に音データの指向性を形成する(St3)。
The unmanned
なお、ステップSt3において、複数の音源の方向が検知(推定)された場合には、無人航空機10は、それぞれの音源の方向に音データの指向性を形成してもよい。また、ステップSt3において、複数の音源の方向が検知(推定)された場合には、無人航空機10は、複数の音源の中間位置(例えば、中間的あるいは重心的な位置)に飛行移動してもよいし、モニタリングエリア8をホバリングあるいは巡回飛行している他の1機以上の無人航空機10を、既定の緊急信号の無線通信によって呼び寄せてもよい。
When the directions of a plurality of sound sources are detected (estimated) in Step St3, the unmanned
無人航空機10は、ステップSt3の処理後、ステップSt3において検知された音源方向に飛行移動を開始して音源(つまり、ユーザHM1)の位置に接近するまで飛行移動を継続する(St4)。
After the process of step St3, the unmanned
無人航空機10は、ユーザHM1に対して十分に接近した場合(例えば、カメラCAの撮像した画像におけるユーザHM1の占める面積が所定割合を超えた場合)、既定(例えば、応答要求アナウンス)の音声をスピーカSP1〜SP4のそれぞれから出力する(St5)。なお、無人航空機10は、ステップSt5において、既定の音声をスピーカSP1〜SP4の全てではなく少なくとも1つを含む一部のスピーカから出力してもよい。応答要求アナウンスの音声は、例えば「用件がある場合には、「こっちに来て」と言ってください」という音声である。
When the unmanned
ここで、ユーザHM1は、ステップSt5において無人航空機10から出力された応答要求アナウンスの音声に対して、その応答要求アナウンスにおいて指定されていた「こっちに来て」の音声を発する。無人航空機10は、このユーザの「こっちに来て」という音声をマイクアレイMAにおいて収音する(St6)。
Here, in response to the voice of the response request announcement output from the unmanned
無人航空機10は、ステップSt6の後、マイクアレイMAにおいて収音された音データに「こっちに来て」が含まれているか否かを音声認識部26aにおいて分析する(St7)。マイクアレイMAにおいて収音された音データに「こっちに来て」が含まれていないと音声認識部26aにより判断された場合には(St7、NO)、無人航空機10は、その場から離れる(St9)。その後、無人航空機10の処理はステップSt1に戻る。なお、音声認識部26aにおいて「こっちに来て」が含まれているか否かを分析する際には、人工知能を用いて過去のサンプルデータを機械学習して得た学習モデルに従って決定してもよい。また、その分析は、無線通信などのネットワークを介して無人航空機10と接続される分析用のクラウドサーバ40で行われてもよい(図7参照)。人工知能の学習は、1つ以上の統計的な分類技術を用いて実行されてもよい。統計的分類技術としては、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)等が例示される。但し、使用される統計的分類技術はこれらに限定されない。
After step St6, the unmanned
一方、無人航空機10は、マイクアレイMAにおいて収音された音データに「こっちに来て」が含まれていると判断した場合には(St7、YES)、ユーザHM1の求める入力コマンドを受け付け(St8)、必要に応じて、その入力コマンドに対応した処理(例えば、他の無人航空機10を呼ぶ、既定の警報音を音響的に出力する、LED(Light Emission Diode)等のライトを点灯する)を実行する。これにより、ユーザHM1は、無人航空機10を介して、自身が緊急事態に陥った状態であることを、警察等の第三者に伝達することができ、利便性を向上できる。
On the other hand, when the unmanned
ここで、入力コマンドは、例えば、ジェスチャー(行動)によるコマンド、顔の表情によるコマンド、音声によるコマンド等が考えられる。なお、入力コマンドか否かを分析する際には、人工知能を用いて過去のサンプルデータを機械学習して得た学習モデルに従って決定してもよい。また、その分析は、ジェスチャーによるコマンドや顔の表情によるコマンドなど、画像を用いて行う場合には、画像解析部28aで行われ、音声によるコマンドの場合には、音声信号処理部26あるいは音声認識部26aで行われてよい。さらに、その分析は、無線通信などのネットワークを介して無人航空機10と接続される分析用のクラウドサーバ40で行われてもよい(図7参照)。人工知能の学習は、1つ以上の統計的な分類技術を用いて実行されてもよい。統計的分類技術としては、線形分類器(linear classifiers)、サポートベクターマシン(support vector machines)、二次分類器(quadratic classifiers)、カーネル密度推定(kernel estimation)、決定木(decision trees)、人工ニューラルネットワーク(artificial neural networks)、ベイジアン技術および/またはネットワーク(Bayesian techniques and/or networks)、隠れマルコフモデル(hidden Markov models)、バイナリ分類子(binary classifiers)、マルチクラス分類器(multi-class classifiers)、クラスタリング(a clustering technique)、ランダムフォレスト(a random forest technique)、ロジスティック回帰(a logistic regression technique)、線形回帰(a linear regression technique)、勾配ブースティング(a gradient boosting technique)等が例示される。但し、使用される統計的分類技術はこれらに限定されない。
Here, the input command may be, for example, a command based on a gesture (action), a command based on a facial expression, a command based on a voice, or the like. When analyzing whether or not the command is an input command, the command may be determined according to a learning model obtained by machine learning of past sample data using artificial intelligence. The analysis is performed by the
ジェスチャー(行動)によるコマンドは、例えばユーザHM1が手を振る等の行動によって、無人航空機10に対して救助等を求めるコマンドである。ユーザHM1が口元を怪我して声を出せないもしくは出しにくい状況となっている場合でも、無人航空機10に救助等を依頼できる点で有効である。
The command by the gesture (action) is a command to request the unmanned
顔の表情によるコマンドは、例えば無人航空機10から見てユーザHM1の顔しか見えない時(例えばユーザHM1が倒れてカメラCAがユーザの顔以外を撮像できない時)に、無人航空機10に対して救助等を求めるコマンドである。顔の表情は、例えば片目を閉じる、笑う、怒る、悲しむ、瞼を閉じる等が該当するが、これらに限定されない。
The command based on the facial expression is rescued to the unmanned
音声によるコマンドは、例えばユーザHM1が発する音声に従って、無人航空機10に対して救助等を求めるコマンドである。音声によるコマンドに用いられる音声は、例えば、ユーザHM1が発する言葉、もしくは物音による意思疎通、あるいはこれらの組み合わせが該当するが、これらに限定されない。なお、物音による意思疎通は、肯定的な内容を示す場合には1回ものを叩き、否定的な内容を示す場合には2回ものを叩く等が考えられる。
The command by voice is a command to request the unmanned
図6において、無人航空機10は、ユーザHM1に対して十分に接近した場合(例えば、カメラCAの撮像した画像におけるユーザHM1の占める面積が所定割合を超えた場合)、既定(例えば、応答要求アナウンス)の音声をスピーカSP1〜SP4のそれぞれから出力する(St5A)。なお、無人航空機10は、ステップSt5Aにおいて、既定の音声をスピーカSP1〜SP4の全てではなく少なくとも1つを含む一部のスピーカから出力してもよい。応答要求アナウンスの音声は、例えば「用件がある場合には、手を振ってください」という音声である。
In FIG. 6, when the unmanned
ここで、ユーザHM1は、ステップSt5Aにおいて無人航空機10から出力された応答要求アナウンスの音声に対して、その応答要求アナウンスにおいて指定されていた「手を振ってください」の動き(行動)を行う。無人航空機10は、カメラCAにより撮像された画像を画像解析部28aにおいて解析し、「手を振ってください」に対してユーザHM1が手を振ったか否かを分析する(St7A)。カメラCAにより撮像された画像の解析によりユーザHM1が手を振っていないと判断された場合には(St7A、NO)、無人航空機10は、その場から離れる(St9)。その後、無人航空機10の処理はステップSt1に戻る。
Here, the user HM1 performs a motion (action) of “Please wave your hand” specified in the response request announcement with respect to the voice of the response request announcement output from the unmanned
一方、無人航空機10は、カメラCAにより撮像された画像の解析によりユーザHM1が手を振ったと判断した場合には(St7A、YES)、ユーザHM1の位置する音源の方向へさらに接近する(St10)。ステップSt10の後、無人航空機10の処理は図5に示されるステップSt5の処理に進む。
On the other hand, when the unmanned
以上により、実施の形態1に係る無人航空機10は、筐体11の底面側に配置され、モニタリングエリア8の音を収音するマイクアレイMAを有する。無人航空機10は、マイクアレイMAにより収音された音データに基づいて、モニタリングエリア8に発生した音源の方向を推定する音声信号処理部26(音声処理部の一例)を有する。無人航空機10は、モニタリングエリア8のホバリングあるいは巡回飛行を制御するとともに、推定された音源の方向への飛行移動を制御するドローン飛行制御部22(飛行制御部の一例)を有する。無人航空機10は、筐体11の底面側に配置され、既定の音声(後述参照)をスピーカSP1〜SP4からそれぞれ出力する音声出力部291〜294を有する。無人航空機10は、既定の音声の出力後、ユーザのニーズを満たす処理の入力を受け付けて実行するドローン制御管理部21(制御部の一例)を有する。
As described above, the unmanned
これにより、無人航空機10は、モニタリングエリア8を定常的にホバリングもしくは巡回飛行し、救助等を求めるユーザHM1の方向を迅速に検知できる。従って、無人航空機10は、ユーザHM1の方向に向かって接近するように飛行移動し、ユーザHM1に対して十分に接近した後、ユーザHM1のニーズを適切に受け付けてそのニーズに適合する処理を実行できるので、ユーザの利便性の低下を抑制できる。
Thereby, the unmanned
また、無人航空機10は、出力された既定の音声(例えば、「用件がある場合には、「こっちに来て」と言ってください」という音声)に対してユーザHM1が発した所定の音声(例えば、「こっちに来て」という音声)を音声信号処理部26により認識した場合、ユーザHM1からの処理の入力コマンドを受け付ける。これにより、無人航空機10は、既定の音声に対してユーザHM1の発した音声を用いて、救助等を要求するユーザHM1であることを正当に認証できるので、そのユーザHM1の必要な処理を受け付けることができて、ユーザの利便性を向上できる。
In addition, the unmanned
また、無人航空機10は、筐体11の底面側に配置され、モニタリングエリア8を撮像するカメラCA(例えば全方位カメラ)と、撮像されたモニタリングエリア8の画像を解析する画像解析部28aと、をさらに有する。無人航空機10は、出力された既定の音声(例えば、「用件がある場合には、手を振ってください」という音声)に対してユーザHM1が実行した所定の行動(例えば、手を振る動作)を画像解析部28aにより認識した場合、ユーザHM1が位置する音源の方向へさらに接近するための飛行移動をドローン飛行制御部22に指示する。これにより、無人航空機10は、例えばユーザHM1が口元を怪我して声を出せないもしくは出しにくい状況となっている場合またはユーザHM1に十分に接近していない場合でも、ユーザHM1の行った振舞い(行動)によって、救助等を要求するユーザHM1であることを正当に認証できる。従って、無人航空機10は、そのユーザHM1の必要な処理を受け付けるために、さらにユーザHM1に接近でき、例えばユーザが大きな声を出さなくても、無人航空機10がユーザHM1に対して接近するので救助等の必要な処理を簡易に受け付けることができる。
Further, the unmanned
また、無人航空機10は、音源に位置するユーザHM1に接近した場合、既定の第2音声(例えば、「用件がある場合には、「こっちに来て」と言ってください」という音声)のスピーカSP1〜SP4からの出力を対応する音声出力部291〜294に指示し、その指示に従って出力された既定の第2音声に対してユーザが発した所定の音声(例えば、「こっちに来て」という音声)を音声信号処理部26により認識した場合、処理の入力を受け付ける。これにより、無人航空機10は、既定の第2音声に対するユーザの行動だけでなく、既定の音声に対するユーザHM1の音声の双方を用いて、救助等を必要とするユーザHM1であることを厳重に認証でき、そのユーザHM1の必要な処理を受け付けることができて、ユーザの利便性を向上できる。
In addition, when the unmanned
また、無人航空機10は、例えば音データの指向性を形成することで、推定された音源の方向の音データを音声信号処理部26において強調する。これにより、無人航空機10は、音源の方向に存在するユーザHM1の発する音声を強調できるので、救助等を必要としているユーザHM1の発する音声の聞き漏らしを抑制し、もしくはその音声の聞き取り精度を向上することで、適正に音声認識処理を実行できる。
In addition, the unmanned
また、無人航空機10は、飛行移動を行うための回転翼機構24、をさらに備える。無人航空機10は、回転翼機構24から回転翼の回転時に生じる回転音を抑圧して音源の方向を音声信号処理部26において推定する。これにより、無人航空機10は、ロータ等の回転翼PR1〜PR4から生じる音圧レベルの大きな回転音の影響を排除して、モニタリングエリア8の音源の方向を適正に検知(推定)できる。
The unmanned
以上、図面を参照しながら各種の実施の形態について説明したが、本開示はかかる例に限定されないことは言うまでもない。当業者であれば、特許請求の範囲に記載された範疇内において、各種の変更例、修正例、置換例、付加例、削除例、均等例に想到し得ることは明らかであり、それらについても当然に本開示の技術的範囲に属するものと了解される。また、発明の趣旨を逸脱しない範囲において、上述した各種の実施の形態における各構成要素を任意に組み合わせてもよい。 Although various embodiments have been described with reference to the drawings, it is needless to say that the present disclosure is not limited to such examples. It is clear that those skilled in the art can conceive various changes, modifications, substitutions, additions, deletions, and equivalents within the scope of the claims. Naturally, it is understood that they belong to the technical scope of the present disclosure. Further, the components in the above-described various embodiments may be arbitrarily combined without departing from the spirit of the invention.
なお、図3では、無人航空機10の無線通信の相手(つまり、接続先)として、無人航空機10を操作するための操作端末機を例示して説明したが、無人航空機10を遠隔で監視している監視室に配置されたサーバ装置(図示略)との間で接続されてもよい。無人航空機10は、音声信号処理部26において生成した音圧ヒートマップのデータをサーバ装置に送り、サーバ装置に接続されたディスプレイ(図示略)に表示させてもよい。これにより、監視室の監視員は、無人航空機10が飛行しているモニタリングエリア8の音源の様子を的確かつ視覚的に把握でき、必要な対策等を支援することができる。さらに本開示に係る収音機能付き無人航空機は、宅配注文の有無を探す対象のモニタリングエリアを巡回飛行し、救助を求める声を検出する代わりに宅配注文を求める声を収音し検出する無人航空機として用いられてもよい。
In FIG. 3, an operation terminal for operating the unmanned
図7は、実施の形態1に係る無人航空機およびクラウドサーバのハードウェア構成例を示すブロック図である。上述したように、無人航空機10は、分析用のクラウドサーバ40との間で無線通信などのネットワークを介して接続されてよい。クラウドサーバ40は、無人航空機10から送信された音データあるいは画像データを受信して各種の分析を実行する。
FIG. 7 is a block diagram illustrating a hardware configuration example of the unmanned aerial vehicle and the cloud server according to the first embodiment. As described above, the unmanned
クラウドサーバ40は、プロセッサPRC2と、メモリ43と、通信部45とを含む構成である。プロセッサPRC2は、例えばCPU(Central Processing Unit)、MPU(Micro Processing Unit)、DSP(Digital Signal Processor)またはFPGA(Field Programmable Gate Array)を用いて、無人航空機10のプロセッサPRC1より高性能に構成される。プロセッサPRC2は、メモリ43に予め記憶されたプログラムおよびデータを読み出して実行することで、音声認識部46と、画像解析部48とを機能的に実現可能である。
The
音声認識部46は、例えばメモリ43に予め登録されている音声認識用辞書(図示略)を用いて、無人航空機10により強調処理が施されて送信されたモニタリングエリア8の音データを音声認識する。クラウドサーバ40における音声認識部46の音声認識精度は、無人航空機10における音声認識部26aの音声認識精度より優れている。音声認識部46は、音声認識結果を、通信部45を介して無人航空機10に送る、またはメモリ43に一時的に保持する。
The voice recognition unit 46 uses the voice recognition dictionary (not shown) registered in the
画像解析部48は、無人航空機10に搭載されたカメラCAにより撮像された画像を解析することで、ライダー等のユーザのジェスチャーによるコマンドや、顔の表情によるコマンドの内容を分析して特定する。また、画像解析部48は、分析結果を、通信部45を介して無人航空機10に送る、またはメモリ43に一時的に保持する。
The
メモリ43は、プロセッサPRC2により実現される各部の動作(処理)の実行を制御するのに必要なプログラムおよびデータを格納する。メモリ43は、コンピュータ読み取り可能な記録媒体でよく、SRAM(Static Random Access Memory)、DRAM(Dynamic Random Access Memory)、EPROM(Erasable Programmable Read Only Memory)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、およびUSBメモリ等のフラッシュメモリの少なくとも1つを含んでよい。
The
通信部45は、例えばWi−fi(登録商標)等の無線LAN(Local Area Network)の無線通信規格に従って、ネットワークNWに無線接続された無人航空機10との間で、ネットワークNWを介して通信を行う。通信部45とネットワークNWとの間の接続は、有線であっても無線であってもよい。または、通信部45は、無人航空機10と直接、無線接続して通信を行ってもよい。通信部45は、プロセッサPRC2の処理に使用される各種のデータ(音データ、画像データ)を無人航空機10から受信したり、プロセッサPRC2の処理結果のデータを無人航空機10に送信したりする。
The
このように、例えば音データの音声認識処理や、画像データの分析によるコマンドの特定処理など、無人航空機10において処理負荷がかかると予想される処理については、無人航空機10に全て実行させずに、部分的にクラウドサーバ40において分散処理させることで、無人航空機10の処理負荷を軽減できる。また、クラウドサーバ40においてより高精度に音声認識なり画像解析に基づくコマンド特定が可能となるので、無人航空機10に救助を依頼するライダー等のユーザにおける利便性を向上できることが期待される。
In this way, for example, processes that are expected to have a processing load on the unmanned
本開示は、モニタリングエリアを定常的にホバリングもしくは巡回飛行し、救助等を求めるユーザの方向を迅速に検知してユーザのニーズを適切に受け付けてそのニーズに適合する処理を実行でき、ユーザの利便性の低下を抑制する収音機能付き無人航空機として有用である。 INDUSTRIAL APPLICABILITY The present disclosure can constantly hover or circulate around a monitoring area, quickly detect the direction of a user seeking rescue or the like, appropriately receive a user's needs, and execute a process adapted to the needs, thereby improving the user's convenience. It is useful as an unmanned aerial vehicle with a sound collection function that suppresses the deterioration of performance.
10 無人航空機
11 筐体
21 ドローン制御管理部
22 ドローン飛行制御部
24 回転翼機構
25 無線通信部
26 音声信号処理部
26a、46 音声認識部
27 カメラ制御部
28 画像処理部
28a、48 画像解析部
241 モータ群
291、294 音声出力部
CA カメラ
MA マイクアレイ
SP1、SP4 スピーカ
DESCRIPTION OF
Claims (6)
前記マイクアレイにより収音された音データに基づいて、前記モニタリングエリアに発生した音源の方向を推定する音声処理部と、
前記モニタリングエリアのホバリングあるいは巡回飛行を制御するとともに、前記推定された音源の方向への飛行移動を制御する飛行制御部と、
前記筐体の底面側に配置され、既定の音声をスピーカから出力する音声出力部と、
前記既定の音声の出力後、ユーザのニーズを満たす処理の入力を受け付けて実行する制御部と、を備える、
収音機能付き無人航空機。 A microphone array arranged on the bottom side of the housing and collecting the sound of the monitoring area,
A sound processing unit that estimates a direction of a sound source generated in the monitoring area based on sound data collected by the microphone array;
A flight control unit that controls hovering or patrol flight of the monitoring area and controls flight movement in the direction of the estimated sound source,
An audio output unit disposed on the bottom side of the housing and outputting a predetermined audio from a speaker;
A control unit that receives and executes an input of a process that satisfies a user's needs after the output of the predetermined voice,
Unmanned aerial vehicle with sound collection function.
請求項1に記載の収音機能付き無人航空機。 The control unit, when the voice processing unit recognizes a predetermined voice issued by the user with respect to the output default voice, accepts an input of the process,
An unmanned aerial vehicle with a sound collection function according to claim 1.
前記撮像された前記モニタリングエリアの画像を解析する画像解析部と、をさらに備え、
前記制御部は、前記出力された既定の音声に対して前記ユーザが実行した所定の行動を前記画像解析部により認識した場合、前記ユーザが位置する前記音源の方向へさらに接近するための飛行移動を前記飛行制御部に指示する、
請求項1に記載の収音機能付き無人航空機。 A camera arranged on the bottom side of the housing and imaging the monitoring area,
An image analysis unit that analyzes the captured image of the monitoring area, further comprising:
The control unit, when recognizing a predetermined action performed by the user with respect to the output default sound by the image analysis unit, a flight movement for further approaching the direction of the sound source where the user is located. To the flight control unit,
An unmanned aerial vehicle with a sound collection function according to claim 1.
請求項3に記載の収音機能付き無人航空機。 The control unit, when approaching a user located at the sound source, instructs the audio output unit to output a predetermined second audio from the speaker, and outputs the predetermined second audio in accordance with the instruction. When a predetermined voice issued by the user is recognized by the voice processing unit, an input of the process is accepted.
An unmanned aerial vehicle with a sound collection function according to claim 3.
請求項1〜4のうちいずれか一項に記載の収音機能付き無人航空機。 The sound processing unit emphasizes sound data in the direction of the estimated sound source,
The unmanned aerial vehicle with a sound collection function according to any one of claims 1 to 4.
前記音声処理部は、前記回転翼機構から回転翼の回転時に生じる回転音を抑圧して前記音源の方向を推定する、
請求項1〜5のうちいずれか一項に記載の収音機能付き無人航空機。 A rotary wing mechanism for performing the flying movement,
The sound processing unit estimates the direction of the sound source by suppressing the rotation sound generated when the rotor blades rotate from the rotor blade mechanism,
An unmanned aerial vehicle with a sound collection function according to any one of claims 1 to 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129421A JP2020006793A (en) | 2018-07-06 | 2018-07-06 | Unmanned air vehicle with sound absorbing function |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2018129421A JP2020006793A (en) | 2018-07-06 | 2018-07-06 | Unmanned air vehicle with sound absorbing function |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2020006793A true JP2020006793A (en) | 2020-01-16 |
Family
ID=69150188
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018129421A Pending JP2020006793A (en) | 2018-07-06 | 2018-07-06 | Unmanned air vehicle with sound absorbing function |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2020006793A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7428461B2 (en) | 2020-01-21 | 2024-02-06 | アルパイン株式会社 | Unmanned aircraft system and flight control method |
WO2024084953A1 (en) * | 2022-10-20 | 2024-04-25 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
-
2018
- 2018-07-06 JP JP2018129421A patent/JP2020006793A/en active Pending
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7428461B2 (en) | 2020-01-21 | 2024-02-06 | アルパイン株式会社 | Unmanned aircraft system and flight control method |
WO2024084953A1 (en) * | 2022-10-20 | 2024-04-25 | ソニーグループ株式会社 | Information processing device, information processing method, and program |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11040774B2 (en) | Drone authentication system | |
CN109074101B (en) | Imaging using multiple drones | |
JP6167425B2 (en) | Unmanned aerial vehicle and voice data collection method using unmanned aerial vehicle | |
US10997237B2 (en) | Acoustic monitoring system | |
US10945070B2 (en) | Unmanned aircraft, information processing method, and recording medium | |
WO2016170766A1 (en) | Light irradiation device and light irradiation system | |
US11450303B2 (en) | Unmanned aerial vehicle (UAV) based noise cancellation in physical area | |
US20210233416A1 (en) | Unmanned aircraft, information processing method, and recording medium | |
US11469691B2 (en) | Unmanned aircraft, information processing method, and recording medium | |
JPWO2016171160A1 (en) | Audio transmission system | |
JP2020006793A (en) | Unmanned air vehicle with sound absorbing function | |
CN110568857A (en) | unmanned aerial vehicle flight control method and unmanned aerial vehicle | |
US11741932B2 (en) | Unmanned aircraft and information processing method | |
US11422568B1 (en) | System to facilitate user authentication by autonomous mobile device | |
US11531343B1 (en) | System for user interactions with an autonomous mobile device | |
WO2020170489A1 (en) | Unmanned aerial vehicle, information processing method, and program | |
WO2019225147A1 (en) | Airborne object detection device, airborne object detection method, and airborne object detection system | |
US20220413518A1 (en) | Movable object, information processing method, program, and information processing system | |
Quan et al. | Identification of drone thermal signature by convolutional neural network | |
WO2024084953A1 (en) | Information processing device, information processing method, and program | |
CN118020314A (en) | Audio event data processing | |
KR20240040737A (en) | Processing of audio signals from multiple microphones | |
KR20240040738A (en) | Audio event data processing | |
JP2021002788A (en) | Unmanned aerial vehicle, control device, and control method |