JP2023508611A - 航空機の音響ベースの検知及び回避 - Google Patents

航空機の音響ベースの検知及び回避 Download PDF

Info

Publication number
JP2023508611A
JP2023508611A JP2022565730A JP2022565730A JP2023508611A JP 2023508611 A JP2023508611 A JP 2023508611A JP 2022565730 A JP2022565730 A JP 2022565730A JP 2022565730 A JP2022565730 A JP 2022565730A JP 2023508611 A JP2023508611 A JP 2023508611A
Authority
JP
Japan
Prior art keywords
aircraft
audio signal
intruder
acoustic
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022565730A
Other languages
English (en)
Other versions
JP7406655B2 (ja
Inventor
エイ. ワイロベック,キーナン
オー. デリー,マシュー
エイチ. サント,ロヒット
クリシュナン,ギャビン ケイ. アナンダ
オー. タイスバーグ,トーマス
ジェイ. デマーツィ,マイケル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Zipline International Inc
Original Assignee
Zipline International Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Zipline International Inc filed Critical Zipline International Inc
Publication of JP2023508611A publication Critical patent/JP2023508611A/ja
Application granted granted Critical
Publication of JP7406655B2 publication Critical patent/JP7406655B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/04Anti-collision systems
    • G08G5/045Navigation or guidance aids, e.g. determination of anti-collision manoeuvers
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/003Flight plan management
    • G08G5/0039Modification of a flight plan
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0052Navigation or guidance aids for a single aircraft for cruising
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/006Navigation or guidance aids for a single aircraft in accordance with predefined flight zones, e.g. to avoid prohibited zones
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0073Surveillance aids
    • G08G5/0078Surveillance aids for monitoring traffic from the aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • G06N20/20Ensemble learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/01Dynamic search techniques; Heuristics; Dynamic trees; Branch-and-bound

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

航空機のオーディオセンサで受信したオーディオ信号を解析し、オーディオ信号のソースの方向情報を確定する。オーディオ信号のソースの位置は、オーディオ信号のソースの方向情報に基づいて確定される。【選択図】 図1A

Description

関連出願の相互参照
本出願は、「航空機の音響ベースの検知及び回避(ACOUSTIC BASED DETECTION AND AVOIDANCE FOR AIRCRAFT)」という名称の2020年9月24日出願の米国仮特許出願第63/082,838号、「マイクロフォンアレイを備えた無人航空機システム(UNMANNED AIRCRAFT SYSTEM WITH MICROPHONE ARRAY)」という名称の2019年12月31日出願の米国仮特許出願第62/955,946号、「マイクロフォンアレイを備えた無人航空機システム(UNMANNED AIRCRAFT SYSTEM WITH MICROPHONE ARRAY)」という名称の2020年3月2日出願の米国仮特許出願第62/984,266号、及び「マイクロフォンアレイを備えた無人航空機システム(UNMANNED AIRCRAFT SYSTEM WITH MICROPHONE ARRAY)」という名称の2020年5月7日出願の米国仮特許出願第63/021,633号の優先権と利益を主張するものであり、これらの開示全体は参照によりその全体が本明細書に組み込まれる。
本発明は、航空機の音響ベースの検知及び回避に関する。
レーダー等の従来の航空機検知システムは、無人航空機等の小型の航空機に組み込むことが困難であるか、コストが高くつく場合がある。更に、規制により、無人航空機は、航空機に相対するあらゆる方向で他の航空機を検知する、球面の検知ゾーンを維持することが要求される場合がある。従来の航空機検知システムは、そのような検知向けに開発されていない場合があるので、球面検知に従来のシステムを実装することは、技術的に複雑且つ高価になり得る。
民間航空機及び一般航空航空機を含む従来の航空機は、他の航空機との衝突を避ける為に確立された空域規則に従っている。例えば、一般に、各航空機は、その航空機の前方の空域に責任を負う。一部の空域では、無人航空機(UAV)は、球面カバレッジを維持することが求められる場合があり、これは、UAVが侵入機について各方向の空域を監視ししなければならないことを意味する。更に、UAVは、他の航空機が飛行中にUAVに遭遇しないように、侵入機の邪魔にならないように移動する責任を負う場合がある。レーダー等の従来の航空機検知システムは、航空機の前方の領域を監視するように最適化されている場合があり、丘等の障害物や地面に近い物体に対しては検知が悪くなる場合がある。このようなシステムは、球面カバレッジを提供するように変更され得るが、そのようなカバレッジを提供するシステムは、UAVに相対して法外に重い場合がある。更に、従来の探知システムは、長距離の探知が困難な場合があり、UAVが他の航空機を探知し、他の航空機を避ける為に飛行経路を変更する時間が短くなる。
本発明は、上記従来の技術における課題を解決するためになされたものである。
航空機のオーディオセンサで受信したオーディオ信号が解析されて、前記オーディオ信号のソースの方向情報を確定する。前記オーディオ信号のソースの位置は方向情報に基づいて確定される。
幾つかの実施形態では、前記オーディオ信号の前記ソースの位置は、機械学習モデル又は確率的追尾の少なくとも1つを使用して確定されてもよい。
幾つかの実施形態では、前記受信したオーディオ信号を解析するステップは、第1の時点での前記受信オーディオ信号及びセンサの幾何学的形状に基づいて前記信号ソースの第1の方向情報を確定するステップと、第2の時点での前記受信オーディオ信号の変化に少なくとも基づいて前記信号ソースの第2の方向情報を確定するステップとを含んでもよい。
幾つかの実施形態では、前記第2の方向情報は、前記航空機の情報収集マヌーバに応答した前記受信信号の変化に基づいて確定されてもよい。
幾つかの実施形態では、前記方向情報は深層学習モデルを使用して確定されてもよい。
幾つかの実施形態は更に、機械学習モデルを使用した、前記オーディオ信号が侵入機に関連するという確定を含んでもよい。
幾つかの実施形態は更に、前記航空機によって、前記オーディオ信号が前記侵入機に関連しているという前記確定に応答して初期マヌーバを実行するステップを含んでもよい。
幾つかの実施形態は更に、前記初期マヌーバの開始後に収集された前記侵入機に関する情報に基づいて、1つ以上の追加マヌーバを実行するステップを含んでもよい。
幾つかの実施形態は更に、前記航空機の前記センサで受信した前記オーディオ信号をビームフォーミングして、ビームフォーミングされた信号を生成するステップを含んでもよい。
幾つかの実施形態は更に、前記ビームフォーミングされた信号を、既知の航空機の周波数を含む複数のフィルタと比較して、前記オーディオ信号が侵入機に関連することを確定するステップを含んでもよい。
幾つかの実施形態は更に、従来型モデル、機械学習モデル、及び深層学習モデルのうちの1つ以上を使用して、前記ビームフォーミングされたオーディオ信号と侵入機との間の関連付けを確定するステップを含んでもよい。
幾つかの実施形態では、前記複数のフィルタの各々は、ベース周波数と、前記ベース周波数の高調波とを含み得る。
幾つかの実施形態では、前記オーディオ信号の前記ソースの位置は、追加のセンサモダリティを使用して収集された前記オーディオ信号の前記ソースに関する追加の情報に更に基づいている。
幾つかの実施形態では、前記オーディオ信号の前記ソースの位置は動的に更新され、前記オーディオ信号の前記ソースの位置に関する信頼性情報を含む。
幾つかの実施形態は、前記オーディオ信号の前記ソースが前記航空機の規定レンジ内にあるかどうかを確定するステップを更に含んでもよい。
1つ以上の非一時的コンピュータ可読媒体は命令でコード化されてもよく、前記命令は、音響航空機検知システムの1つ以上のプロセッサによって実行されると、前記航空機検知システムに、前記音響航空機検知システムによって受信されたオーディオ信号を解析させて、前記オーディオ信号のソースの方向情報を確定させ、前記方向情報に基づいて前記オーディオ信号の前記ソースの位置の推定を生成させる。
1つ以上の非一時的コンピュータ可読媒体の幾つかの実施形態では、前記音響航空機検知システムによって受信された前記オーディオ信号は、前記オーディオ信号の前記ソースの方向情報を確定する為に機械学習モデルに提供される。
幾つかの実施形態では、1つ以上の非一時的コンピュータ可読媒体は更に、前記音響航空機検知システムに、前記機械学習モデルによって前記オーディオ信号を解析させて、前記オーディオ信号が侵入機に関連するかどうかを確定させる命令でコード化され得る。
1つ以上の非一時的コンピュータ可読媒体の幾つかの実施形態では、前記機械学習モデルは、前記オーディオ信号が侵入機に関連しているかどうかを確定する為に他の航空機のベースラインデータを使用して訓練される。
1つ以上の非一時的コンピュータ可読媒体の幾つかの実施形態では、前記命令は更に、前記音響航空機検知システムに、前記受信したオーディオ信号をビームフォーミングさせ、前記ビームフォーミングされたオーディオ信号を前記機械学習モデルに提供させてもよい。
マルチチャネルオーディオ信号が航空機の音響検知システムで受信される。前記マルチチャネルオーディオ信号に基づいて、前記マルチチャネルオーディオ信号が侵入機に関連しているという確定が成される。前記航空機に関して初期マヌーバが指令される。
幾つかの実施形態では、前記初期マヌーバは、前記侵入機に対する前記オーディオ信号の特性の変化を引き起こす。
幾つかの実施形態は、前記航空機が前記初期回避マヌーバを実行している間に、前記航空機の前記音響検知システムで追加のマルチチャネルオーディオ信号を受信するステップと、前記追加のマルチチャネルオーディオ信号を機械学習モデルへの入力として提供し、前記侵入機の方向情報を確定するステップとを更に含み得る。
無人航空機(UAV)は、前記UAVに接続された複数の音響センサと、1つ以上のプロセッサを含む音響検知システムとを含む。音響航空機検知システムは、前記複数の音響センサによって受信されたオーディオ信号を解析し、前記UAVに対する侵入機の3次元空間における推定を生成する。
UAVの幾つかの実施形態は、前記UAVの動きを制御する為に1つ以上の制御システムと通信するように構成された飛行制御装置を含み得、前記飛行制御装置は更に、前記音響航空機検知システムから通信を受信することで前記UAVの情報収集マヌーバを開始するように構成される。
UAVの幾つかの実施形態では、前記音響航空機検知システムは、前記UAVに接続された前記複数の音響センサの幾何学的形状に少なくとも部分的に基づいて、前記UAVに対する前記侵入機の空間における前記推定を生成するように構成される。
UAVの幾つかの実施形態では、前記音響航空機検知システムは、少なくとも深層学習モデルを使用して、前記侵入機の空間における前記推定を生成するように構成される。
UAVの幾つかの実施形態では、前記音響航空機検知システムは更に、前記複数の音響センサによって受信されたオーディオ信号が前記侵入機に関連しているかどうかを確定するように構成される。
航空機の音響検知システムは、マルチチャネルオーディオ信号を受信する。前記マルチチャネルオーディオ信号に基づいて、前記マルチチャネルオーディオ信号が侵入機に関連するという確定が成される。前記侵入機は、前記マルチチャネルオーディオ信号に基づいて、複数の可能なタイプの航空機のうちの1つとして分類される。
追加の実施形態及び特徴は、以下の説明で部分的に示され、明細書の検討により当業者に明らかになり、開示された主題の実践により知ることができるであろう。本開示の性質及び利点の更なる理解は、本開示の一部を構成する本明細書の残りの部分及び図面を参照することによって実現され得る。当業者であれば、本開示の様々な態様及び特徴の各々は、或る実施例では有利に別々に使用されても、又は他の実施例では本開示の他の態様及び特徴と組み合わせて使用されてもよいことを理解するであろう。
本説明は、以下の図を参照してより完全に理解され得るが、図において、構成要素は縮尺通りに描かれておらず、本開示の様々な例として提示されており、本開示の範囲の完全な説明として解釈されるべきではなく、以下を特徴とする。
例示的な航空機と侵入機を示す図である。 例示的な航空機と侵入機を示す図である。 特定の実施形態による例示的な音響ベースの検知及び回避システムの概略図である。 特定の実施形態による例示的な音響ベースの検知及び回避システムのブロック図である。 音響ベースの検知及び回避システムの例示的なモデルのブロック図である。 捕捉されたオーディオ信号に基づいて侵入機の状態推定を生成する為の例示的なステップの流れ図である。 音響ベースの検知及び回避システムを使用する遭遇確定の為の例示的なステップの流れ図である。 音響ベースの検知及び回避システムによって受信されたマルチチャネルオーディオ信号に基づいて初期回避マヌーバを指令する為の例示的なステップの流れ図である。 例示的な音響ベースの検知及び回避システムのモデルを訓練する為の例示的なステップの流れ図である。 本明細書に記載された例における様々な実施形態を実装する例示的なコンピュータシステムの概略図である。
オーディオベースの航空機検知システムは、航空機の為の従来の検知システム、特に、レーダー等の従来の検知システム、例えば、UAV及び他の小型航空機を含めるには桁違いの費用がかかるか又は非現実的であり得るシステムに対する代替案を提供し得る。オーディオベースのシステムは、全方向性マイクロフォンの使用を通じて、特定の方向に向く追加のセンサなしで球面カバレッジをより容易に提供し得るが、他の実施例では、指向性マイクロフォンが使用されてもよい。例えば、指向性マイクロフォンは、幾つかの実装態様では、追加の情報を収集する(例えば、前方/後方の曖昧さを解決する)為に、全方向性マイクロフォンと組み合わせて使用されてもよい。オーディオベースのシステムは、他の航空機等の侵入機によって生じるノイズと、航空機自身のエンジン(又は飛行システム)によって生じるノイズとを区別し、侵入機によって生じるノイズと自然のソースによって生じるノイズ(例えば、風又は気象ノイズ)とを区別し、音の指向性を確定できる(例えば、航空機に対する侵入機の位置推定を提供する)。
一実施形態では、検知及び回避(DAA)システムは、オーディオセンサのアレイを使用して、例えば360度の球面ゾーン内等、航空機に対する複数の方向で侵入機の位置を感知する。侵入機によって生成されたオーディオ信号は、受信したオーディオ信号を既知の他の航空機信号と比較し、広帯域信号(例えば、風)、全方向性信号、及び近距離場信号(例えば、航空機自身のエンジンからのノイズ)を拒否することによって、例えば、風騒音又は航空機からのノイズと区別することができる。侵入機信号が検知された場合(即ち、侵入機の存在が検知された場合)、DAAシステムは、侵入機の位置情報を確定する。例えば、対象航空機のオーディオセンサ間の距離と受信された侵入機信号の特徴とを用いて、DAAシステムは、航空機に対する侵入機の方位を計算し、侵入機の相対的位置を推定することができる。幾つかの実装態様では、システムは、航空機が侵入機に対して相対的に移動する際の侵入機信号の変化を解析し、航空機に対する侵入機のレンジ及び高低角を確定してもよい。本明細書の例は単一の侵入機を論じることがあるが、幾つかの実施例では、複数の侵入機又は音源が存在し得ることに留意されたい。これらの実施例では、システムは、2機以上の侵入機の位置を検知及び推定し、必要に応じて各侵入機を回避するように構成されてもよい。
侵入機の推定位置を使用して、DAAシステムは、航空機のマヌーバ又は飛行パターンにおける変化を利用して、侵入機に関する追加の情報を受信し、及び/又は、侵入機を回避してもよく、回避は、衝突を回避する、及び/又は航空機に対する所定の閾値若しくは距離を維持することに基づいてもよい。例えば、DAAシステムは、対象航空機と侵入機、例えば侵入航空機との間の、例えば2000フィートの距離離隔を維持するように選択されてもよく、飛行パターン更新は、衝突を回避すると同時に、そのような距離を維持するように選択される。
DAAシステムは、対象航空機の周囲のクリアゾーン(例えば、半径2000フィートの球面ゾーン)を維持するように選択されてもよい。例えば、侵入機を「回避」しようとするのではなく、DAAシステムは、球体等又は空間等の自由な又は妨げられない容積を維持しようとしてもよい。このような場合、DAAシステムは、侵入機とUAVとの衝突を回避するのではなく、自由空域の距離を維持するように設定された推定侵入機位置に基づいて、飛行経路の変更又はマヌーバを生成してもよい。クリアゾーンを維持する為に、DAAシステムは、侵入機を検知し、空域と距離に対する侵入機の一般的な位置を確定してもよい。複数の侵入機がいる場合、侵入機は、対象航空機に対する異なる位置、侵入機によって生成されたオーディオ信号間の差異(例えば、異なる周波数帯)、及び他の音源分離技術に基づいて区別され得る。
図1Aは、音響ベースのDAAを使用する航空機100と侵入機102との間の関係を示す上面透視図である。図1Bは、側面から見た航空機100と侵入機102の一例である。図1Aに示すように、航空機100と侵入機102との間の空間的関係は、方位角Θ、高低角Φ、及びレンジRの観点から定義され得る。航空機100及び侵入機102に関して、方位角Θは、航空機100の視点から、角度Θが地平線と平行に基準平面(破線で示す)上に投射される航空機100及び侵入機102間の角度を測定する。高低角Φは航空機100から見た航空機100と侵入機102との間の角度であり、角度Φは水平線に垂直な基準平面上に投射される。レンジRは航空機100と侵入機102との間の半径方向距離である。DAAシステムは、航空機100が、球面回避ゾーン103に他の侵入機がいない状態を保つことができるように、球面検知ゾーン101(又は他の関連検知エリア)内の他の航空機を検知できるようにしてもよい。
DAAシステムは、侵入機が航空機100の検知ゾーン101内にいるかどうかを確定し、侵入機の位置情報、例えば侵入機102の方位角Θ、高低角Φ、及び/又はレンジRを確定する為に使用されてもよい。更に、幾つかの実装態様では、DAAシステムは、回避ゾーン103を侵入機102を含む侵入機のいない状態に保つ為に、航空機100のマヌーバを選択してもよい。
航空機100には、航空機100に搭載された全方向性マイクロフォン等の複数のオーディオセンサを含むオーディオアレイが配設されてもよい。例えば、オーディオアレイは、米国特許出願第63/082,869号、代理人整理番号P288479.US.01に記載のオーディオアレイによって実装されてもよく、同出願全体が、全ての目的の為に本明細書に組み込まれる。信号がオーディオアレイで受信される時、DAAシステム105は、アレイ内のセンサに亘る信号の変動を解析することによって、その信号が航空機に関連する可能性が高いかどうかを判断してもよい。例えば、信号が全てのセンサに亘って同じであり、経時変化しない場合、その信号は、指向性がない、及び/又は近距離信号と関連している可能性が高く、従って、侵入機と関連していない可能性が高い。例えば、航空機100の風又はモータからのノイズは、周期的に変化する可能性が低く、様々なセンサに亘って同様の信号が得られる可能性が高いだろう。信号が侵入機からのものである可能性が高い場合、DAAシステムは、センサ間のオーディオ信号の変動及びセンサ間の距離を解析することによって、侵入機102の方位角Θを推定することができる。
侵入機102の高低角Φ及びレンジRを推定する為に、DAAシステムは、航空機100が侵入機102に対して相対的に移動する際のオーディオ信号の変化を観察してもよい。幾つかの実装態様では、特定のマヌーバを使用して、追加のデータ、例えば、侵入機102に対する航空機100の位置決めを変更することによる信号特性における力の変化を収集できる。例えば、航空機100は、DAAシステムがオーディオ信号を解析して侵入機102の高低角Φ及びレンジRの推定を生成している間、そのロール軸に沿って回転してもよい。
方位角Θ、高低角Φ、及び/又はレンジRは、侵入機102の状態推定を提供し、これは、航空機100のシステムによって、侵入機102から離れるようにマヌーバする為に、或いは航空機100と侵入機102との間の所望の分離を維持する為に飛行経路を更新する為に使用されてもよい。幾つかの実装態様では、DAAシステムは、侵入機102を追尾する為に、侵入機102の状態推定を継続的に生成してもよい。更に、DAAシステムは、追加のセンシングモダリティ(例えば、画像データ、レーダー、光検知及び測距(LiDAR)、又は自動従属監視-放送(ADS-B)センサ)からのデータを組み込んでもよい。
図2は、DAAシステムを実装する為に使用される例示的なハードウェア図である。DAAノード106は、マイクロフォン114a~nで受信されたオーディオ信号を解析し得る処理部108及びメモリ110を含む。アレイ要素112a~nは、信号が処理及び解析の為にDAAノード106に提供される前に、マイクロフォン114a~nによって受信された信号をフォーマットするか又は処理してもよい。DAAノード106は、DAAノード106が航空機100に様々なマヌーバを行うよう指令できるように、航空機制御部104と通信してもよい。
マイクロフォン114a~nは、マイクロフォン114a~nによって知覚されるノイズを最小化するように選択された位置で航空機100に搭載されてもよい。例えば、幾つかの実装態様では、マイクロフォン114a~nは、航空機100の翼に接続又は取り付けられるプローブ上に搭載されてもよい。追加のマイクロフォンは、航空機100の他の場所に搭載されてもよい。様々な実装態様において、マイクロフォン114a~nは、全方向性マイクロフォンであってもよく、又は全方向性マイクロフォン、指向性、及び/又は他のマイクロフォンの組み合わせによって実装されてもよい。マイクロフォン114a~nは、デジタル信号又はアナログ信号を提供するように実装されてもよい。集合的に、マイクロフォン114a~nで収集されたオーディオ信号は、DAAシステムにマルチチャネルオーディオ信号を提供する。
アレイ要素112a~nは、マイクロフォン114a~nからの信号を捕捉し処理することができる様々なハードウェアによって実装されてもよい。例えば、一実装態様では、アレイ要素112a~nは、マイクロフォン114a~nで収集されたアナログオーディオ信号をデジタル化する為に、プログラマブルロジックを使用して実装されてもよい。他の実装態様では、アレイ要素112a~nは、マイクロコントローラ、システムオンチップ(SOC)ハードウェア、及び他のタイプの計算リソースを含む他のタイプのハードウェアを使用して実装されてもよい。
DAAノード106は、処理部108とメモリ110を含む。メモリ110は、揮発性メモリと不揮発性メモリの任意の組合せを用いて実装されてもよい。処理部108は、個別に又は組み合わせて動作する1つ以上のプロセッサを含んでもよく、例えば、プログラマブルロジック及び他のプロセッサを含んでもよい。様々な実装態様において、DAAノード106は、SOCハードウェア、マイクロコントローラ、又は様々な計算リソースによって実装されてもよい。又、DAAノード106は、様々なタイプの計算リソースの組み合わせによって実装されてもよい。例えば、一実装態様において、DAAノード106は、コントローラボード及びマイクロコントローラを含む。
航空機制御部104は、航空機100を制御し、地上局及び他の航空機と通信する為の様々なシステムを含んでもよい。例えば、航空機制御部104は、超高周波(VHF)無線帯、衛星通信、セルラー通信、又は追加の無線周波数帯を介した通信の為の送受信ハードウェアを含んでもよい。航空機制御部104は、特に、航空機100の飛行計画の生成、アクチュエータ制御、推進制御、ペイロード管理、及び安全システム管理を担当する様々な構成要素及びモジュールを含んでもよい。航空機制御部104は、SOCハードウェア、様々なプロセッサ、コントローラ、及びプログラマブルロジックを含む任意の数のハードウェア構成要素によって実装されてもよい。
DAAシステムの様々なハードウェア構成要素は、通信バス、ユニバーサルシリアルバス(USB)接続、又は他の通信接続によって通信可能に接続されてもよい。
図3は、例示的なDAAシステムのブロック図である。例示的なDAAシステムのブロックは、様々なアルゴリズム、モデル、プログラミング、又は任意の数のアルゴリズム、モデル、及び他のプログラミングの組合せを用いて実装されてもよい。幾つかの実装態様では、DAAシステムのブロックに対応する命令は、同じプロセッサ(例えば、DAAノード106)を使用して実行されてもよい。他の実装態様では、幾つかの命令は、異なるボード上のプロセッサによって、又は共有ボード上の異なるプロセッサによって実行されてもよい。例えば、信号捕捉120及び信号処理の為の命令は、アレイ要素112a~112nのプロセッサによって実行されてもよく、一方、定位124、遭遇確定126、及び追尾128は、DAAノード106の処理リソース108を使用して実行されてもよい。更に、DAAシステムの1つのブロックの為の命令は、複数の位置で実行されてもよい。例えば、初期信号処理122の命令は、アレイ要素112a~112nで実行されてもよく、更なる信号処理122は、DAAノード106で発生してもよい。
例示的なDAAシステムの1つ以上のブロックは、深層学習ネットワークを含む機械学習モデルを使用して実装されてもよい。幾つかの実装態様では、DAAシステムの幾つかのブロックは、単一のモデルによって、又は協調的に動作するモデルの組み合わせを使用して実装されてもよい。例えば、一実装態様では、定位124及び遭遇確定126は、共有ディープニューラルネットワークによって実装されてもよい。
信号捕捉120の為の命令は、受信したオーディオ信号をタイムスタンプし、チャネル間でオーディオ信号を整列させてマルチチャネルオーディオ信号を生成する為のアルゴリズムを含んでもよい。幾つかの実装態様では、信号捕捉120は、処理の為にアナログ信号をデジタル信号に変換することを含んでもよい。信号捕捉120は、アレイ要素112a~n、DAAノード106、又はアレイ要素112a~nとDAAノード106の組み合わせで発生してもよい。例えば、幾つかの実装態様では、入力されるアナログ信号は、夫々のアレイ要素112a~nでデジタル信号に変換され、タイムスタンプされ、デジタル信号は、DAAノード106でマルチチャネルオーディオ信号を形成するように整列されてもよい。
信号処理122の命令は、マルチチャネルオーディオ信号を変換する為のアルゴリズム及び機械学習モデルを含んでもよい。どのアルゴリズム又はモデルが信号処理122に含まれるかは、マルチチャネルオーディオ信号を解析する為にDAAシステムによって実装される方法に依存し得る。例えば、一実装態様では、DAAシステムは、入力として3次元周波数領域データを受信する定位用モデルを含み、信号処理122は、マルチチャネルオーディオ信号を周波数領域に変換する為の高速フーリエ変換(FFT)アルゴリズムを含む。別の実装では、信号処理122は、DAAシステムによって実装されるディープニューラルネットワーク内で発生してもよい。幾つかの実装態様では、信号処理122は、マルチチャネルオーディオ信号から外来ノイズをフィルタリングすることを含んでもよい。例えば、信号処理122は、広帯域風信号を識別し、それらの信号をマルチチャネルオーディオ信号からフィルタリングしてもよい。
定位124の為の命令は、DAAシステムによって実装される定位方法に応じて、アルゴリズム及び機械学習モデルの様々な組合せを用いて実装されてもよい。例えば、定位124は、マルチチャネルオーディオ信号のビームフォーミングの為のアルゴリズムと、指向性を確定する為にビームフォーミングされたオーディオ信号を解析する為の追加のアルゴリズムとを含んでもよい。別の例示的な実装態様では、定位124は、方位角の推定を生成する為に方位角のビンを表す複数のバイナリ分類器を用いて実装されてもよい。更に別の例示的な実装態様では、定位124は、ラベル付けされたマルチチャネルオーディオ及び指向性データを使用して生成されたディープニューラルネットワークを使用して実装されてもよい。定位124は、航空機100の運動中に収集されたオーディオ信号に基づいてレンジ及び高低角を確定する為の機械学習モデル、アルゴリズム、又は組み合わせも含み得る。更に、幾つかの実装態様では、定位124は、侵入機102の位置の推定を生成する為に、マルチチャネルオーディオ信号を追加のセンシングモダリティ(例えば、LiDAR、レーダー、及びADS-B)からの信号と結合するモデルを使用して実装されてもよい。
航空機マヌーバ130は、航空機100の為の特定の航空機マヌーバ又は飛行計画の変更の命令を航空機制御部104に提供する為に実装されてもよい。従って、航空機マヌーバは、様々な航空機マヌーバを開始させる為の航空機制御部104の様々な構成要素への命令(例えば、作動制御及び推進制御の命令)を含み得る。幾つかの実装態様では、航空機マヌーバ130によって航空機制御部104に提供される命令は、定位124によって生成される推定に依存してもよい。
遭遇確定126は、受信したオーディオ信号が1機以上の侵入機らしきものと関連するかどうかの初期確定を行うモジュールであってよい。例えば、音源が、UAVの周囲の空間領域内、UAVに対する距離内、又はシステムによって選択される他の閾値内に1機以上の侵入機が存在することを示すとき、遭遇が確定され得る。本方法において、遭遇確定126は、受信したマルチチャネルオーディオ信号が侵入機102に関連する尤度を生成する為に、アルゴリズム及び/又は機械学習モデルの様々な組み合わせによって実施され得る。幾つかの実装態様では、遭遇確定126は、既知の航空機からのマルチチャネルオーディオ信号を使用して生成されたディープニューラルネットワークを使用して実装されてもよい。幾つかの実装態様では、ディープニューラルネットワークは、定位124に使用されるのと同じディープニューラルネットワークであってもよい。別の例示的な実装態様では、遭遇確定126は、例えば、ランダムフォレスト分類器又はバイナリ分類器であってもよい分類器を用いて実装される。更に別の実装態様では、遭遇確定126は、受信したマルチチャネルオーディオ信号を航空機に関連する既知のオーディオ信号と比較するアルゴリズム及びモデルを使用して実装されてもよい。例えば、航空機のブレードパス周波数を利用して、航空機に関連する周波数を示す複数のフィルタを生成してもよい。マルチチャネルオーディオ信号(又は信号処理122によって生成されたマルチチャネルオーディオ信号の表現)は、信号が航空機に関連するかどうかを確定する為に、フィルタと相互相関されるか、又は比較されてもよい。幾つかの実装態様では、遭遇確定126は、相互相関プロセス中に航空機の特定のタイプを識別する為のモデル及びアルゴリズムも含み得る。
追尾128又は位置特定は、定位124からの状態推定に基づいて、侵入機102又は複数の侵入機の位置を経時的に追尾するか、又は確定する為に、データ構造、アルゴリズム、又はそれらの組み合わせによって実装されてもよい。幾つかの実装態様では、追尾128は、受け取った状態推定が既に存在する軌道に属するか、又は状態推定に対して新しい軌道が作成されるべきかどうかを確定する為のアルゴリズム、モデル、又はアルゴリズム及びモデルの様々な組み合わせを含めて実装され得る。例えば、データポイントは、ハンガリーのアルゴリズムを使用して軌道又は位置に関連付けられ、軌道又は位置の維持及び更新は、1つ以上のベイジアンフィルタ及びモンテカルロ法の適用を含み得る。幾つかの例では、反復平滑化及びマッピング(iSAM2)を用いて、新しい情報に基づいて事前の軌道履歴が更新されてもよい。他の例では、「軌道」又は位置更新は、所望に応じて異なるフィルタ及びアルゴリズムを使用して確定及び更新されてもよく、又、幾つかの側面がML又は深層学習モデルによって確定された後にソース位置を確定する為に確率的追尾(例えば、ベイジアンフィルタ、カルマンフィルタリング、モンテカルロ法)を利用する等、1つ以上の手法の組み合わせを含んでもよい。DAAシステムの様々なブロックは、幾つかの実装態様において、共通のモデルによって実装されてもよい。一般に、様々なブロックは、通信可能に接続され、マルチチャネルオーディオデータを協調的に処理し、解析する。
図4は、DAAモデル132によって受信された入力とDAAモデル132によって生成された出力とを含む、例示的なDAAモデル132を示す。DAAモデル132は、DAAノード106のメモリ110に位置し、DAAノード106の処理部108によって実行される機械可読命令として実装されてもよい。DAAモデル132は、図3に記載された例示的なDAAシステムの様々なブロックを実装する為に使用されてもよい。例えば、一実装態様では、DAAモデル132は、定位124及び遭遇確定126の両方を実装する為に使用される。他の実装態様では、DAAモデル132は、信号処理122、航空機マヌーバ130、及び追尾128の幾つかの部分を含み得る。DAAモデル132は、初期マルチチャネルオーディオデータ134を受信し、初期マルチチャネルオーディオデータ134に基づいて航空機確率136及び侵入機方位138を生成してもよい。DAAモデル132は又、マヌーバマルチチャネルオーディオデータ140を受信し、マヌーバマルチチャネルオーディオデータ140に基づいて侵入機レンジ及び高低角142を生成することができる。
DAAモデル132は、幾つかの機械学習モデルの組み合わせ、及び/又は機械学習モデルと確率的フィルタリングの組み合わせを含む、様々な機械学習モデルを使用して実装されてもよい。例えば、一実装態様では、DAAモデル132は、ディープニューラルネットワーク又はリカレントニューラルネットワーク等の深層学習モデルを使用して実装されてもよい。他の実装態様では、DAAモデル132は、ランダムフォレストモデル回帰器又はバイナリ分類器、又は複数のバイナリ分類器、又は同様の分類器のうちの1つ以上又はそれらの組合せを含んでもよい。他の種類の機械学習モデル又は機械学習モデルの組み合わせを使用してDAAモデル132を実装してもよく、DAAモデルを実装する為に使用されるモデルの種類は、DAAモデル132への入力として使用されるデータの種類に部分的に依存し得る。例えば、初期マルチチャネルオーディオデータ134が時間領域で提供される場合、DAAモデル132は、リカレントニューラルネットワークによって実装されてもよい。他の実装態様では、初期マルチチャネルオーディオデータ134は、周波数領域における画像データとしてフォーマット化されてもよく、DAAモデル132は、畳み込みニューラルネットワークによって実装されてもよい。例えば、画像データは、互いに対して調波関係を有する周波数が異なるチャネル上の同じ画素領域に併置されるように、複数の周波数変換を表す複数のチャネルを有してもよい。このタイプの画像データは、ピクセルの限られたサブセットを考慮する際に、畳み込みフィルタが調波関係を発見することを容易にする。幾つかの実装態様では、ディープニューラルネットワーク(例えば、リカレントニューラルネットワーク又は畳み込みニューラルネットワーク又は変換器)を、様々なタイプの分類器又は他の機械学習モデルと組み合わせて、DAAモデル132を実装できる。
初期マルチチャネルオーディオデータ134は、幾つかの実装態様において、オーディオアレイによって収集された後、殆ど又は全く処理されずにDAAモデル132への入力として提供され得る。例えば、初期マルチチャネルオーディオデータ134は、初期マルチチャネルオーディオ信号内の各チャネルに対する一次元時間領域データをDAAモデル132に提供してもよい。他の実装態様では、初期マルチチャネルオーディオデータ134は、DAAモデル132に提供される前に、周波数領域に変換されてもよい。二次元周波数領域データは、マルチチャネルオーディオデータ134に含まれる各チャネルに関する周波数及び位相データを含んでもよい。三次元周波数領域データは、マルチチャネルオーディオ信号の時間、周波数、及び位相データを含んでもよい。時間、周波数、及び信号強度を含むビームフォーミングされたスペクトログラム、又は高調波カーネルバンクを使用して生成された特徴ベクトル等、他の前処理されたデータが初期マルチチャネルオーディオデータ134として提供されてもよい。幾つかの実装態様では、航空機上の他のセンサからのモータ遠隔測定データ等の他のデータソースは、どの音が航空機によって生成され、どの音が他の場所に由来するかをモデルが確定するのを助ける為に、前処理されてマルチチャネルオーディオデータと重ね合わされてもよい。
航空機確率136は、最初のマルチチャネルオーディオデータ134において捕捉された信号が侵入機に関連付けられる確率として提供されてもよい。幾つかの実装態様では、航空機確率136は、確定に関連する信頼区間又は確率を伴う確定(イエス又はノー)を含んでもよい。他の実装態様では、航空機確率136は、オーディオ信号が異なるクラス又はタイプの航空機に関連する確率を含んでもよい。例えば、航空機確率136は、信号が一般的な航空航空機、ヘリコプター等に関連する確率を含んでもよい。別の例として、オーディオ信号は、より特定の範囲の航空機、例えば、大型ジェット機、小型ジェット機、ナローボディ機等に関連するものとして特徴付けられてもよい。予想される飛行高度、速度範囲等の情報が、航空機の種類の分類に基づいてシステムによって抽出され利用され得るので、分類は、侵入機を回避し及び/又は自由空域を維持する為のマヌーバに関する確定を行う際にシステムを支援してもよい。幾つかの事例では、確率は、航空機に関連しているという評価を含んでもよい(又は、信号が航空機でないという逆の態様で定義されてもよい)。
侵入機方位138は、信頼区間を有する角度として提示されてもよく、又は角度の複数のレンジに対する確率を含んでもよい。例えば、一実装態様では、航空機100に対する各角度は、角度のビンに含まれてもよい。様々な数のビンが使用されてもよい。一実施例では、64個のビンが解析に含まれ、各ビンは5.625°の角度のレンジを含む。例えば、解析に含まれるビンは0~5.625°の角度を含み、別のビンは354.375~360°の角度を含む。返された侵入機方位138は、侵入機方位が候補ビンの各々内に存在する確率を含んでもよい。返された侵入機方位は又、特定数のビンに関する確率を含んでもよい。例えば、確率は、侵入機方位138を含む最も高い確率を有する5つのビンについて返されてもよい。幾つかの実装態様では、侵入機方位138は、航空機確率136が、マルチチャネルオーディオ信号が侵入機102に関連する強い尤度を示す場合にのみ計算されてもよい。
航空機確率136が、初期マルチチャネルオーディオデータ134が侵入機102に関連する尤度を示して返され、侵入機方位138が確定された場合、DAAシステムは、マヌーバマルチチャネルオーディオデータ140を収集する為に様々なマヌーバを命令してもよい。マヌーバマルチチャネルオーディオデータ140は、一般に、航空機100の既知のマヌーバ中、センサ(例えば、マイクロフォン114a~n)の制御された移動中、又は様々なタイプの既知の移動の組み合わせの間に収集されたマルチチャネルオーディオデータである。従って、マヌーバマルチチャネルオーディオデータ140は、初期マルチチャネルオーディオデータ134に関して説明した様々な形態で表されてもよく、航空機100のマヌーバに関する情報(例えば、マヌーバの時間、振幅、角度等)も含んでいてもよい。
侵入機レンジ及び高低角142は、マヌーバマルチチャネルオーディオデータ140に基づいてDAAモデル132によって生成されてもよく、侵入機方位138に関して説明したものと同様の表現で提示されてもよい。例えば、侵入機高低角は、侵入機高低角が各ビンに含まれる確率を有する角度の幾つかのビンによって表現されてもよい。又、侵入機高低角は、推定角度と、推定角度に対応する信頼区間とによって表されてもよい。同様に、侵入機範囲は、信頼区間を伴う推定範囲として表されてもよい。
侵入機方位138と侵入機レンジ及び高低角142の組み合わせを使用して、3次元空間における侵入機102の状態推定又は位置推定を生成してもよい。幾つかの実装態様では、データがDAAシステムによって継続的に収集及び処理される為、複数の状態推定が集約されて、航空機100に対して侵入機102を追尾できる。そのような追尾は、幾つかの実装態様において、航空機100の為の回避マヌーバを選択する為に使用されてもよい。
様々な実装形態において、状態推定又は位置推定は、オーディオ信号(例えば、DAAシステムからの)及び第2の信号を使用して位置を推定してもよい。第2の信号は、異なる時点で収集された別のオーディオ信号、又はADS-B In、LiDAR、レーダー、画像データ若しくは視覚ベースの信号、GPS、又は他のセンサモダリティ等の異なるセンサモダリティを使用して収集された信号であってもよい。例えば、一実装態様において、オーディオ信号は、位置推定を生成する為に視覚ベースの信号(例えば、カメラ)と共に使用されてもよい。この例では、オーディオ信号が位置の大まかな近似値を提供し(例えば、航空機の左側に侵入機がいそうである)、視覚ベースの信号がオーディオ信号から生成された推定を改良してもよい。言い換えると、第1の信号を使用して、より遠い距離から検知され得る一般的な位置情報を確定し、第2の信号を使用して、より正確又は高感度の位置情報(ソースに近い距離から検知され得る)を確定してもよい。これらの事例において、第1の信号を使用して、第2の信号の為のセンサを何時作動させるかを確定してもよく、例えば、第1の信号が使用されて航空機の特定の距離閾値内の侵入機が検知されると、システムは次に第2のセンサを作動させて第2のセンサ信号を検知し得る。更に、幾つかの実装態様では、3つ以上の異なる信号(収集時間、センシングモダリティ、又は収集時間とセンシングモダリティの両方が異なる)を使用して、位置推定を生成してもよい。
図5は、捕捉された、又は他の方法で検知されたオーディオ信号に基づいて侵入機の状態推定を生成する為の例示的なステップの流れ図である。捕捉オペレーション202は、オーディオ信号を捕捉する。例えば、マイクロフォン114a~nのうちの1つ以上が、捕捉オペレーション202の間にオーディオ信号を検知してもよい。捕捉オペレーション202は、幾つかの例において、侵入機に関連しないオーディオ信号を含む、航空機100の周囲のオーディオ信号を検知してもよい。更に、幾つかの実装態様では、他のセンシングモダリティが、捕捉オペレーション202の間に信号を捕捉してもよい。例えば、ADS-B受信機又はLiDAR検知器は、マイクロフォン114a~nがオーディオ信号を捕捉する際に、信号を捕捉してもよい。
処理オペレーション206は、必要に応じて、信号を処理して更なる解析の為に信号をフォーマットする。処理オペレーションは、DAAシステムの信号処理ブロック122によって実装されてもよい。幾つかの実装態様では、処理オペレーション206の幾つかの部分は、DAAシステムの定位ブロック124で実行されてもよい。従って、処理オペレーション206の一部は、DAAモデル132によって実行されてもよい。
処理オペレーション206は、様々な実装態様において、アナログ信号をデジタル信号に変換すること、マルチチャネルオーディオ信号を時間整合させること、信号を領域変換すること、信号をビームフォーミングすること、又は信号の信号対雑音比(SNR)を最適化する為に信号を他の方法で調整することを含み得る。例えば、一実装態様では、処理オペレーション206は、マルチチャネルオーディオ信号をタイムスタンプする。別の実施態様では、処理オペレーション206は、マルチチャネルオーディオ信号を周波数領域に変換し、マルチチャネルオーディオ信号の各チャネルの為の2次元周波数領域信号又はマルチチャネルオーディオ信号を表す3次元周波数領域信号の何れかをもたらす。処理オペレーション206は、例えば、FFTアルゴリズムを使用して信号を変換してもよい。処理オペレーション206は又、ビームフォーミングアルゴリズムを実装して、マルチチャネルオーディオ信号を表すビームフォーミングされたスペクトログラムを生成してもよい。処理オペレーション206は、それに応じて、幾つかの実装態様において、DAAモデル132に提供される初期データ134を生成してもよい。
処理オペレーション206は、捕捉された信号が指向性であるか、及び/又は航空機から距離がある(例えば、近距離場信号ではない)かどうかを判断してもよい。指向性の判断は、暗黙で(例えば、ビームフォーミングを介して)又は明示的に行われてもよい。幾つかの例では、DAAシステム105はマルチチャネルオーディオ信号の時間整合を試みてもよい。例えば、信号が周期的でない(例えば、時間的にパターンで変化しない)場合、信号は、恐らくは、複数のチャネルに亘って時間整合しないであろう。マルチチャネルオーディオ信号が時間整合できる場合、その信号はコヒーレントで指向性がある可能性が高い。マルチチャネルオーディオ信号がチャンネル間で時間整合できない場合、その信号はインコヒーレントであり、指向性がないと考えることができる。インコヒーレント又は非指向性の信号は、通常、1つの局地的な音源(例えば、別の航空機)によって生成されていないものであり、代わりに風や気象等の他のソースに起因する可能性がある。
幾つかの実装態様では、捕捉された信号が指向性であるかどうかの判断は、オペレーション208中に暗黙で行われてもよい。例えば、全ての入射信号は、オペレーション206中に処理されてもよく、指向性の確定は、処理済み信号が航空機に特有の構造を有するか否かの確定の一部であってもよい。例えば、指向性は、処理済み信号が航空機に特有の構造を有するか否かの確定の一部として確定されてもよい。例えば、指向性のないビームフォーミングされた信号は、航空機から予想される信号を模倣する高調波カーネルフィルタに相関しないことがある。同様に、近距離オーディオ信号は、遠距離オーディオ信号を模倣するように設計された高調波カーネルフィルタに相関しないことがある。
幾つかの実装態様では、指向性の明示的な確定は、例えば、指向性を確定する為に特別に処理されたオーディオ信号の特定の特性を探すことによって行われてもよい。例えば、DAAシステムは、広帯域信号を非指向性であるとして拒否してもよい。又、システムは、指向性を明示的に確定する為に、周期性等、指向性信号の他の特性を探してもよい。
オペレーション208で、処理済み信号が解析されて、処理済み信号が航空機に特有の構造を有するかどうかを確定する。オペレーション208はDAAシステムの遭遇確定126の一部であってもよい。幾つかの実装態様では、DAAモデル132は、初期マルチチャネルオーディオデータ134に基づいて処理済み信号を解析してもよい。オペレーション208の間、DAAモデル132は、初期マルチチャネルオーディオデータ134を、航空機に対応することが知られているマルチチャネルオーディオデータと比較してもよい。他の実装態様では、オペレーション208は、処理済みマルチチャネルオーディオデータを、高調波カーネルフィルタであり得るフィルタのバンクに相互相関させることを含んでもよい。高調波カーネルフィルタは、航空機のブレードパス周波数に基づいて、航空機から予想される信号を表し得る。一般に、高調波カーネルは、遭遇すると予想される航空機の範囲に対して生成されてもよい。例えば、高調波カーネルは、特定の航空機(例えば、特定のメーカー及びモデル)に対して生成されてもよく、及び/又は航空機のクラス(例えば、プロペラ、大型ジェット機等を使用する航空機)に対して生成されてもよい。フィルタが航空機の範囲又はクラスに亘って一般的であり得る事例では、フィルタは、より特定のフィルタと比較して、可能なオーディオソースに対してより広範に適用され得る。つまり、航空機の正確なタイプとより密接に一致する、より具体的なフィルタでは、仮定及び入力は、オーディオ信号ソースにより多く関連する可能性がある。
高調波カーネルフィルタは、ベース周波数と、ベース周波数に対応する複数の高調波周波数とを含み得る。マルチチャネルオーディオ信号が高調波カーネルフィルタのバンクに相関しない場合、オペレーション208は、マルチチャネルオーディオ信号が航空機に特有の構造を有していないと判断してもよい。マルチチャネルオーディオ信号が高調波カーネルフィルタと実際に強く相関する場合、オペレーション208は、処理済み信号が航空機に特有の構造を有すると判断してもよい。フィルタとの相関は、例えば、画像比較によって判断されてもよく、画像比較では、信号を表す画像を、画像として表されるフィルタと比較し、信号が期待される理想化された高調波信号に類似しているかどうかを判断する。
処理済み信号が航空機に特有の構造を有していない場合、方法は捕捉オペレーション202に戻る。処理済み信号が航空機に特有の構造を有する場合、オプションのステップ210は、他のソースから追加のデータを受信してもよい。例えば、航空機100からのADS-B Inデータ、地上ベースのLiDARデータ、又は地上若しくは航空機ベースのセンサからの他のデータが、オプションのステップ210の間に受信されてもよい。そのようなデータは、例えば、侵入機102の状態推定を生成する為に、DAAモデル132によって使用されてもよい。状態推定は、侵入機を経時的に追尾する為に、又は回避ゾーン103に侵入機102がいないように保つ為の行動方針を確定する為に、航空機100によって使用されてもよい。
指令オペレーション212は、より多くの情報を収集する為、及び/又は音源と航空機100との間の距離又は離隔を増大させる為に選択され得るもの等の収集マヌーバを指令する。オペレーション208が、マルチチャネルオーディオ信号が航空機に特有の構造を有すると確定した場合、指令オペレーション212は、航空機100が侵入機102に対して相対的に移動する際のマルチチャネルオーディオ信号の動作の変化を確定する為のマヌーバを指令してもよい。マルチチャネルオーディオ信号が航空機に特有の構造を有するかどうかを確定する為の基準は、確定に用いられる基準よりも低くてもよく、或いは異なっていてもよい。例えば、マルチチャネルオーディオ信号が航空機に属するという疑義に基づいて、マヌーバが開始されてもよい。そのようなマヌーバは、DAAシステムが侵入機の追加の位置情報を確定することを可能にし、侵入機102の方位、高低角、及び範囲についての推定を確定又は改良するのに役立ち、又、侵入機102と航空機100との間の離隔を増大させることが可能である。指令オペレーションは、航空機マヌーバ130で、DAAノード106から航空機制御部104に情報収集マヌーバを伝達することにより実施されてもよい。前述のように、幾つかの実装態様では、マヌーバは、他の航空機(侵入機102を含む)との衝突が統計的に起こり難い場所に航空機100を移動させる回避マヌーバであってもよい。例えば、回避マヌーバは、他の航空機との遭遇が低高度では起こり難い可能性がある為、航空機100の高度を低下させてもよい。他の実施態様では、情報収集マヌーバは、特定の軸で移動することによって情報を生成するように構成されてもよい。例えば、「ウィングワグ」マヌーバは、航空機100のロール軸に沿って航空機100の翼(及び、それに応じてオーディオセンサ)を移動させて、ウィングワグマヌーバ中にマルチチャネルオーディオ信号挙動の変化を捕捉してもよい。ロールマヌーバ又はクラブ法マヌーバ等の他のマヌーバも、情報収集マヌーバとして使用されてもよい。情報収集マヌーバは、幾つかの実装態様において、複数の個々のマヌーバを含んでもよく、非常に小さいマヌーバ又は微小マヌーバを含んでもよい。
生成オペレーション214は侵入機の状態推定を生成する。侵入機の状態推定は、航空機100に対する侵入機102の方位、高低角、速度、レンジ、及び/又は基本周波数等の侵入機特性を含み得るが、これらに限定されるものではない。幾つかの実装態様では、状態推定は、上記の座標のうちの1つ又は2つのみを含んでもよい。生成オペレーション214は、マルチチャネルオーディオ信号として収集されたデータに基づいてもよく、幾つかの実装態様では、他のセンサモダリティからの追加のデータを組み込んでもよい。更に、生成オペレーション214は、サブオペレーションで発生してもよい。例えば、幾つかの実装態様では、侵入機102の方位は、指令オペレーション212の前に確定されてもよく、侵入機102の高低角及びレンジは、航空機100が情報収集マヌーバを実行する際のマルチチャネルオーディオ信号の変化を解析することによって、指令オペレーション212の後に確定され得る。生成オペレーション214は、DAAシステムの定位124で発生してもよい。
幾つかの実装態様では、生成オペレーション214はDAAモデル132によって実行される。幾つかの実装態様では、DAAモデル132は、マヌーバマルチチャネルオーディオデータ140に基づいて状態推定を生成してもよい。他の実装態様では、DAAモデル132は、初期マルチチャネルオーディオデータ134を使用して侵入機方位138を生成し、指令オペレーション212に応答して生成されたマヌーバマルチチャネルオーディオデータ140を使用して、侵入機レンジ及び高低角142を生成してもよい。DAAモデル132は、例えば、方位を推定する為の平均標準偏差及び推定の為の信頼区間を使用して、侵入機方位138を確定してもよい。DAAモデル132は又、DAAモデル132を訓練又は生成する為に使用される既知のデータに基づいて方位の推定を生成してもよい。幾つかの実装態様では、これは、角度のビンを夫々表す複数の分類器を使用して、侵入機102の方位が夫々のビン内にある確率を確定することを含んでもよい。他の実装態様では、DAAモデル132は、追加の又は代替のアプローチを使用して侵入機方位138を計算してもよい。
幾つかの実装態様では、方位は、DAAモデル132に含まれないアルゴリズムを使用して確定されてもよい。例えば、処理オペレーション206がマルチチャネルオーディオ信号を表すビームフォーミングされたスペクトログラムを生成する場合、侵入機方位は、最高強度の信号に対応する位相シフト又は角度ビン(例えば、ビームフォーミングソースマップ上の角度ビン)を特定することによって確定されてもよい。例えば、信号の強度が最も高い(例えば、最高dB)スペクトログラム上の位置は、位相角と相関し、これを用いて方位が近似され得る。他のアルゴリズムも、マルチチャネルオーディオ信号とアレイの幾何学的形状(例えば、マイクロフォン114a~n間の既知の距離)を使用して、侵入機の方位を確定又は推定することができる。
侵入機レンジ及び高低角142は、指令オペレーション212に応答して生成されたマヌーバ及びマルチチャネルオーディオデータ140を使用してDAAモデル132によって確定されてもよい。幾つかの実装態様では、DAAモデル132は、情報収集マヌーバ中の信号の挙動を既知のデータと比較して、侵入機レンジ及び高低角142を推定してもよく、又は情報収集マヌーバ中の信号の大きさの変化を観察することによって推定してもよい。他の実装態様では、DAAモデル132は、他の方法を使用して、マヌーバマルチチャネルオーディオデータ140に基づいて侵入機レンジ及び高低角142を確定してもよい。例えば、幾つかの実装態様では、飛行中にマイクロフォンを作動させることによってマイクロフォンの幾何学的形状を変更してもよく、それによって、DAAモデル132によって使用されるデータを生成してもよい。既知の量(例えば、既知の変位)又は既知の変動分のマイクロフォンの作動を、変位の結果としてオーディオ信号がどのように変化するかを測定しながら行うことで、位置、速度等を含むオーディオ信号ソースに関する追加のデータを提供し得る。更に、幾つかの実装態様では、侵入機レンジ及び高低角は、情報収集マヌーバの結果としての様々なアレイ要素の位置の変化、及び情報収集マヌーバに応答する様々なチャネルでのマルチチャネルオーディオ信号の挙動を取り入れたアルゴリズムを使用して、DAAモデル132を使用せずに生成されてもよい。
幾つかの実装態様では、追加のオペレーションは、生成オペレーション214によって生成された状態推定を使用して、航空機100に対して相対的に移動する侵入機を追尾することができる。そのような追尾は、初期回避マヌーバが侵入機を回避するのに十分であったかどうか、マヌーバが航空機100の回避ゾーン103を空いた状態に保ったかどうか、どのような種類の回避マヌーバが侵入機を回避し及び/又は回避ゾーン103に侵入機がいない状態を保つのに最適であるかを確定する為に、並びに侵入機の位置の推定を改良する為に使用されてもよい。幾つかの実装態様では、状態推定及び複数の状態推定に基づいて生成された軌道は、例えば、航空機100の地上制御局に送信されてもよい。
図6は、検知及び回避システムを使用する遭遇確定の為の例示的なステップの流れ図である。幾つかの実装態様では、図6に関して説明したオペレーションは、図5に関して上述した処理オペレーション206及びオペレーション208の一部として発生し得る。幾つかの実装態様では、図6のオペレーションの一部又は全部は、DAAモデル132を使用して実施されてもよい。変換オペレーション302は、時間整合した捕捉オーディオ信号を周波数領域に変換する。変換オペレーション302は、例えば、FFTアルゴリズムを使用して、時間領域信号を周波数領域信号に変換してもよい。様々な実装態様において、変換オペレーション302は、2次元周波数領域信号又は3次元周波数領域信号を生成してもよい。ビームフォーミングオペレーション304は、変換された信号をビームフォーミングする。最小分散ビームフォーミング等の様々なビームフォーミングアルゴリズムを使用して、変換された信号からビームフォーミングされたスペクトログラムを生成してもよい。ビームフォーミングされたスペクトログラムは、一般に、アレイの様々なチャネルで受信された信号を結合することによって得られる信号を示す。ビームフォーミングされた信号は、例えば、様々な信号間の強め合う干渉を使用して、対象信号(例えば、侵入機に関連する周波数の信号)を強化してもよい。生成されたスペクトログラム314は、周波数を経時的にマッピングしてもよく、色の変化は信号強度を示す。例えば、グレースケールで示されるスペクトログラム314において、白色は高強度又は高強度の信号に相関し、黒色は無信号に相関し、両者の間の灰色の濃淡は強度の変動を示し得る。他の配色又はコンピュータ可読要素も、信号の強度又は強度の変動を示す為に、様々な実施形態で使用され得る。
前処理オペレーション306は、ビームフォーミングされた信号を前処理する。例えば、前処理オペレーション306は、スペクトログラム314を処理済み信号316に変換してもよい。前処理オペレーション306は、例えば、スペクトログラム314を単純化する為に、閾値以下の強度の信号を無視してもよい。例えば、処理済信号316は、対象周波数信号を保持しながら、スペクトログラム314から低強度の信号を排除することによって、より軽微な変動を含む。幾つかの実装態様では、本方法は、前処理オペレーション306から生成オペレーション312に直接進んでもよい。例えば、深層学習モデルがDAAモデル132を実装する場合、生成オペレーション312の推定を生成する為に、オプションのオペレーション308及び310は必要でない場合がある。具体的には、ディープニューラルネットワーク等の深層学習モデルは、推定及び生成オペレーションを生成する必要なく、モデルが入力として処理済み信号を受信し、信号が侵入機に関連するかどうか、及びオーディオ信号のソースの位置の近似を確定できるように生成され得る。言い換えると、モデルは、入力データを、その訓練されたデータセットと共に使用して、信号と侵入機との関連付けを自動的に確定できる。従って、モデルは、オペレーション308及び310に関して説明したように、高調波フィルタ及び特徴ベクトルを使用しなくてもよい。
オプションの識別オペレーション308は、侵入機を識別する為に、信号に対して最も相関の高いフィルタを識別する。一例として、識別オペレーション308は、処理済み信号318を高調波カーネルフィルタのバンク(例えば、高調波カーネルフィルタ320)と比較して、処理済み信号318と最も高い相関を有するフィルタを突き止めてもよい。高調波カーネルフィルタは、飛行中に遭遇する可能性が高い各ブレードパス周波数に対するフィルタを含んでもよい。例えば、高調波カーネルフィルタのバンクは、12Hz~136Hzのベース周波数を使用し、2Hzの各増分で高調波カーネルフィルタを有する高調波カーネルフィルタを含んでもよい。高調波カーネルフィルタは予期される高調波構造を模倣し、基準周波数で高強度の信号は、基準周波数に関連する各高調波で追加の信号と共に予期され、高調波信号の強度は高調波次数の増加と共に減少する。例えば、第1高調波信号は、第3高調波信号よりも高い強度を有する筈である。高調波カーネルフィルタは、航空機及び/又は他のオーディオ信号ソースの予期される高調波構造を模倣してもよい。追加の高調波フィルタを使用して、自動車、列車、動物等、他の音声ソースを模倣してもよい。オーディオ信号が非航空機高調波フィルタの1つと相関する場合、その信号は、航空機のソースではなく、非航空機のソースと関連する可能性が高い。例えば、幾つかの高調波カーネルフィルタは、軌道から来るオーディオ信号の構造を模倣してもよい。マルチチャネルオーディオ信号がこの高調波フィルタに相関する場合、その信号が1機以上の侵入機に由来する確率は減少する。
オプションの生成オペレーション310は、前処理されたビームフォーミング信号と、最も関連性の高いフィルタ、例えば、最も相関の高い高調波フィルタとを用いて、特徴ベクトルを生成する。例えば、生成オペレーション310は、処理済み信号318を高調波フィルタ320と合成して特徴ベクトル322を生成してもよい。特徴ベクトル322は、一般に、各帯域2Hz幅におけるマルチチャネルオーディオ信号の強度を示す。特徴ベクトル322は、特徴ベクトル322内の様々な色(又は他の要素)が様々なバンド内の信号強度を表す画像(又は他のコンピュータビジョン或いはコンピュータ可読フォーマット)として表されてもよい。例えば、グレースケールで示される特徴ベクトル322は、信号無しの場合は黒を示し、高強度の信号の場合は白を示し、又、様々な濃淡のグレーを示し、明るいグレーが高強度の信号であり、暗いグレーが低強度の信号である。
生成オペレーション312は、周波数ベクトルをモデルに提供することによって、信号が航空機からのものであるという推定と方向情報とを生成する。幾つかの実装態様では、特徴ベクトル322は、遭遇確定を行う為に訓練されたバイナリ分類器に渡されてもよい。他の実装態様では、生成オペレーション312は、例えば、畳み込みニューラルネットワークによって実行されてもよい。幾つかの実装態様では、生成オペレーション312を遂行する為に使用されるモデルは、DAAモデル132であってもよい。生成オペレーション312が、特徴ベクトル322が侵入機からの信号と相関していると判断すると、DAAシステムは、確定を使用して、例えば、初期回避マヌーバの命令、侵入機の位置の推定、又は侵入機の為の軌道の作成を含む幾つかのアクションを取ってもよい。
図7は、航空機100と侵入機102との間の距離を増加させるもの、例えば回避マヌーバ等、DAAシステムによって受信されたマルチチャネルオーディオ信号に基づいてマヌーバ又は飛行計画若しくは経路の変更を指令する為の例示的なステップの流れ図である。受信オペレーション402は、航空機音響アレイでマルチチャネルオーディオ信号を受信する。受信オペレーション402は、幾つかの実装態様において、マルチチャネルオーディオ信号の幾つかの処理を含んでもよい。例えば、受信オペレーション402は、タイムスタンプ信号、チャネルに亘るマルチチャネルオーディオ信号の時間整合、アナログ信号のデジタル信号への変換、信号の領域変換、又はその他の受信したマルチチャネルオーディオ信号の処理又は操作を行ってもよい。
幾つかの実装態様では、受信オペレーション402は、適切に機能していないアレイの1つ以上のマイクロフォンを補償する為の処理を含んでもよい。例えば、処理は、可変ビームフォーミングアプローチを使用して、正しく動作していないマイクロフォンからの信号を無視しながら、動作しているマイクロフォンからの信号を処理してもよい。例えば、DAAシステムは、正しく動作していないマイクロフォンからの信号を「スキップ」又は無視し、機能性マイクロフォンを使用してオーディオ検知を継続してもよい。DAAシステムは、オーディオアレイの飛行前チェック中に、又は様々なマイクロフォンからの信号が航空機100のエンジン及びプロペラからの予期される信号を含むかどうかを解析することによって、機能していないマイクロフォンを特定してもよい。信号がそのような予期される信号を含まない場合、DAAシステムは、信号を収集するマイクロフォンが期待通りに機能していないと仮定してもよい。
オペレーション402において、DAAシステムは、マルチチャネルオーディオ信号が侵入機に関連しているかどうかを確定する。幾つかの実装態様では、DAAシステムは、最初に、信号が指向性であるかどうか、及び信号が航空機100のエンジン及びプロペラから予想される信号以上のものを含むかどうかを確定してもよい。信号が指向性でない場合、又は航空機100のエンジンからの信号を主に含む場合、DAAシステムは、信号が侵入機に関連しないと判断してもよい。信号が指向性であるか、又は追加の信号を含む場合、DAAシステムは、更に信号を解析してもよく、又は直ちに初期回避マヌーバを指令してもよい。
信号の追加の解析(又は指向性が確定されない初期の解析)は、相互相関又は他の方法を介する等、マルチチャネルオーディオ信号の、高調波フィルタのバンクとの比較を含んでもよい。様々な実装態様において、オペレーション402の確定は、分類器、ディープニューラルネットワーク、又は他の機械学習モデルによって実装され得るDAAモデル132によっても実行されてもよい。例えば、確定は、航空機に関連するマルチチャネルオーディオ信号の周波数について学習されたランダムフォレストを使用して行われてもよい。
マルチチャネルオーディオ信号が侵入機に関連しない場合、方法は、受信オペレーション402に戻る。マルチチャネルオーディオ信号が侵入機に関連している場合、指令オペレーション406は、回避マヌーバを指令し、これは、初期回避マヌーバであってもよいし、侵入機及び/又は侵入機の飛行経路を回避する為に必要となり得るマヌーバの数に応じて追加のマヌーバであってもよい。回避マヌーバは、他の航空機との衝突の可能性が統計的に低い場所に航空機100を移動させる回避マヌーバであってよい。例えば、航空機100は、航空機100がマヌーバ時にその最低高度を超えて飛行している限り、衝突を回避する為に最初に低い高度まで降下してもよい。幾つかの実装態様では、回避マヌーバは、衝突が発生する場所を観察する為に飛行データを解析することによって選択されてもよい。他の実装態様では、回避マヌーバは、侵入機102の動きを予測する為にマルチチャネルオーディオ信号特性を使用し得るDAAモデル132によって生成されてもよい。従って、DAAモデル132は、航空機100を侵入機102から更に遠くまで移動させる可能性が高い回避マヌーバを選択してもよい。
図8は、例示的な検知及び回避システムのモデルを訓練する為の例示的なステップの流れ図である。例えば、図8に含まれるステップは、図4に関して説明したDAAモデル132を訓練又は生成する為に使用されてもよい。一般に、ステップは、ラベル付けされたデータセットを生成する為、又は既知のデータを使用してディープニューラルネットワークを生成する為に使用されてもよい。収集オペレーション502は、侵入機(又は他の有り得る侵入機ソース)の音響データを収集する。収集オペレーション502は、実世界データ、シミュレートされたデータ、又は実世界データとシミュレートされたデータの組合せを使用してもよい。例えば、実世界データは、位置追尾対象フライト中に収集されたオーディオデータ、地上のアレイから収集されたオーディオデータ、又は典型的な航空機音のオーディオファイルを含んでもよい。
収集オペレーション502は、航空機100に関連するアレイと実質的に類似するアレイを使用してもよい。例えば、収集オペレーション502で使用されるアレイは、同じ数のマイクロフォン114a~nを同様に間隔を空けて含んでもよい。一実装態様では、収集オペレーション502で使用されるアレイは、航空機100のアレイであり、航空機100は追尾センサを伴って飛行し(例えば、GPS追尾フライトで)、侵入機も同様の追尾センサを伴って飛行している。別の実装態様では、航空機100のアレイは、地上ベースのLiDAR又はレーダーセンサと組み合わせて収集オペレーションに使用されてもよい。更に別の実施態様では、航空機100のアレイと実質的に類似するアレイが、地上ベースのアレイとして収集オペレーション502で使用されてもよい。
収集オペレーション502は、ソフトウェアシミュレーション、物理シミュレーション、又はシミュレーションの組合せを用いて生成されたシミュレーションデータを採用してもよい。例えば、音響シミュレーションソフトウェアは、航空機のテスト飛行によって生成された音響データを使用してもよい。多くの実装態様において、収集オペレーション502は、上述の複数の方法を用いてデータを収集して、DAAモデル132を訓練又は生成する為のロバストデータセットを生成してもよい。更に、幾つかの実装態様では、DAAシステムの使用を通じて生成されたデータは、DAAモデル132を更新し、再訓練する為に使用されてもよい。
マッチングオペレーション504は、収集された音響データを侵入機の既知の位置データとマッチングさせる。マッチングオペレーション504は、様々な実装態様において、地上ベースの位置データ又は飛行ベースの位置データを、地上ベースのアレイで収集された音響データにマッチングさせることを含み得る。例えば、マッチングオペレーション504は、時間整合を使用して、地上ベースのLiDARデータ、航空機ベースのGPSデータ、又はADS-Bデータを、収集オペレーション502の間に地上ベースのアレイで収集された音響データにマッチングさせてもよい。マッチングオペレーション504は又、ADS-B、GPS、又は他の測位データを、航空機搭載アレイで収集された音響データにマッチングさせることを含んでもよい。
訓練オペレーション506は、機械学習モデルを訓練して、マッチングされた音響データ及び位置データをラベル付き観測値として使用して、音響信号に基づいて位置情報を生成する。訓練オペレーション506は、収集オペレーション502及びマッチングオペレーション504によって作成されたデータセットに基づいて、ディープニューラルネットワークを生成することを含んでもよい。又、訓練オペレーション506は、データセットを(ラベル付けされた観測値として)使用して、分類器等の他の種類の機械学習モデルを訓練してもよい。幾つかの実装態様では、訓練オペレーション506は、同じ又は類似のデータセットを使用して、複数の異なるタイプの機械学習モデルを生成又は訓練してもよく、これらのモデルを合成してDAAモデル132を形成してもよい。訓練オペレーション506は、上述した複数のタイプのデータセットを含んでもよい。例えば、訓練オペレーション506は、地上ベースのアレイ、航空機搭載アレイ、及びシミュレーションデータからのデータを使用して、ディープニューラルネットワークを生成してもよい。
より多くのデータが収集されるにつれて、DAAモデル132は更新又は再訓練されてもよい。従って、経時的に、DAAシステムは侵入機のその位置推定においてより正確になり得る。
図9は、本明細書に記載の実施例における様々な実施形態を実施する為の例示的なコンピュータシステム600の概略図である。コンピュータシステム600は、DAAノード106(図2)を実装する為に使用されてもよいし、航空機制御システム104の1つ以上の構成要素に統合されてもよい。例えば、DAAモデル132は、図9に示すコンピュータシステム600の構成要素のうちの1つ以上を使用して実装されてもよい。コンピュータシステム600は、図1~図8に開示された構成要素又は動作の1つ以上を実装又は実行する為に使用される。図9において、コンピュータシステム600は、1つ以上の処理要素602、入出力インターフェース604、ディスプレイ606、1つ以上のメモリ構成要素608、ネットワークインターフェース610、及び1つ以上の外部デバイス612を含んでもよい。様々な構成要素の夫々は、1つ以上のバス、有線又は無線ネットワーク等の通信ネットワークを通じて互いに通信していてもよい。
処理要素602は、命令を処理、受信、及び/又は送信することができる任意のタイプの電子デバイスであってよい。例えば、処理要素602は、中央処理装置、マイクロプロセッサ、プロセッサ、又はマイクロコントローラであってもよい。更に、コンピュータ600の幾つかの構成要素は第1のプロセッサによって制御されてもよく、他の構成要素は第2のプロセッサによって制御されてもよく、この場合第1と第2のプロセッサは互いに通信しても通信しなくてもよいことに留意されたい。
メモリ構成要素608は、コンピュータ600によって、処理要素602の為の命令を格納すると共に、マルチチャネルオーディオデータ134及び140(図4)等のデータを格納する為に使用される。メモリ構成要素608は、例えば、光磁気ストレージ、リードオンリーメモリ、ランダムアクセスメモリ、消去可能プログラマブルメモリ、フラッシュメモリ、又は1つ以上のタイプのメモリ構成要素の組合せであってよい。
ディスプレイ606は、ユーザに視覚的フィードバックを提供する。任意選択で、ディスプレイ606は、ユーザが本開示で説明するようにDAAノード106又は航空機制御部104の様々な構成要素を制御、操作、及び較正することを可能にする入力要素として機能してもよい。ディスプレイ606は、液晶ディスプレイ、プラズマディスプレイ、有機発光ダイオードディスプレイ、及び/又は他の適切なディスプレイであってもよい。ディスプレイ606が入力として使用される実施形態では、ディスプレイは、静電容量式タッチセンサ、抵抗グリッド等の1つ以上のタッチセンサ又は入力センサを含んでもよい。
I/Oインターフェース604は、ユーザがコンピュータ600にデータを入力することを可能にすると共に、コンピュータ600が他のデバイス又はサービスと通信する為の入力/出力を提供する。I/Oインターフェース604は、1つ以上の入力ボタン、タッチパッド等を含み得る。
ネットワークインターフェース610は、コンピュータ600と他の装置との間の通信を提供する。ネットワークインターフェース610は、WiFi、イーサネット、ブルートゥース(登録商標)等の1つ以上の通信プロトコルを含むが、これらに限定されるものではない。又、ネットワークインターフェース610は、ユニバーサルシリアルバス(USB)ケーブル等の1つ以上のハードワイヤード構成要素を含んでもよい。ネットワークインターフェース610の構成は、所望される通信の種類に依存し、WiFi、ブルートゥース等を介して通信するように変更されてもよい。
外部デバイス612は、コンピューティングデバイス600に様々な入力を提供する為に使用できる1つ以上のデバイスであり、例えば、マウス、マイク、キーボード、トラックパッド等である。外部デバイス612は、ローカル又はリモートであってもよく、所望に応じて変化してもよい。幾つかの例では、外部デバイス612は、1つ以上の追加のセンサも含んでもよい。
前述の説明は、広範な適用を有する。例えば、本明細書に開示された例は中央通信システムにフォーカスしているが、本明細書に開示された概念は、分散型、中央若しくは分散型システム、又はクラウドシステム等の他のシステムにも同様に適用され得ることが理解されるべきである。例えば、幾つかの構成要素は、クライアント/サーバシステムのサーバ上、ユーザのモバイルデバイス上、又はネットワーク上の任意のデバイス上に常駐し、分散方式で動作してもよい。又、システムの1つ以上の構成要素は、VMコンピューティング環境におけるコントローラ仮想マシン(VM)又はハイパーバイザに常駐してもよい。従って、本開示は、様々なシステム及び方法の例を提供することのみを意図しており、特許請求の範囲を含む本開示の範囲がこれらの例に限定されることを示唆することを意図するものではない。
本明細書に記載された技術は、1つ以上のシステムにおいて、論理演算及び/又はモジュールとして実装されてもよい。論理演算は、1つ以上のコンピュータシステムで実行されるソフトウェアプログラムによって指示されるプロセッサ実装ステップのシーケンスとして、及び1つ以上のコンピュータシステム内の相互接続された機械又は回路モジュールとして、又は両者の組み合わせとして実装されてもよい。同様に、様々な構成要素モジュールの説明は、モジュールによって実行又は発効されるオペレーションの観点から提供され得る。結果として得られる実装態様は、記述された技術を実装する基礎となるシステムの性能要件に依存する、選択の問題である。従って、本明細書に記載された技術の実施形態を構成する論理演算は、オペレーション、ステップ、オブジェクト、又はモジュールとして様々に言及される。更に、論理演算は、明示的に別の方法で主張されるか、又は特定の順序が請求項の言語によって本質的に必要とされない限り、任意の順序で実行され得ることが理解されるべきである。
幾つかの実装態様では、製品は、手順動作を実施する為にコンピュータシステム上のオペレーションのインスタンス化を引き起こすコンピュータプログラム製品として提供される。コンピュータプログラム製品の1つの実装態様は、コンピュータシステムによって読み取り可能であり、コンピュータプログラムを符号化する非一時的コンピュータプログラム記憶媒体を提供する。更に、記載された技術は、パーソナルコンピュータとは独立した特殊用途の装置において採用され得ることを理解されたい。
上記の明細書、実施例及びデータは、特許請求の範囲に定義される本発明の例示的な実施形態の構造及び使用についての完全な説明を提供するものである。請求項に記載の発明の様々な実施形態が、或る程度の特殊性をもって、又は1つ以上の個々の実施形態を参照して上記に説明されたが、請求項に記載の発明の趣旨又は範囲から逸脱することなく、開示された実施形態に対する多数の変更が可能であり得ることが理解される。従って、他の実施形態が企図される。上記の説明に含まれ、添付の図面に示される全ての事項は、特定の実施形態の例示としてのみ解釈され、限定するものではないことが意図される。詳細又は構造の変更は、以下の特許請求の範囲に定義される本発明の基本的要素から逸脱することなく行われ得る。
100 航空機
101 球面検知ゾーン
102 侵入機
103 球面回避ゾーン
104 航空機制御部
106 DAAノード
108 処理部
110 メモリ
112a~n アレイ要素112
114a~n マイクロフォン
600 コンピュータシステム
602 処理要素
604 入出力インターフェース
606 ディスプレイ
608 メモリ構成要素
610 ネットワークインターフェース
612 外部デバイス
上記の明細書、実施例及びデータは、特許請求の範囲に定義される本発明の例示的な実施形態の構造及び使用についての完全な説明を提供するものである。請求項に記載の発明の様々な実施形態が、或る程度の特殊性をもって、又は1つ以上の個々の実施形態を参照して上記に説明されたが、付記に記載の発明の趣旨又は範囲から逸脱することなく、開示された実施形態に対する多数の変更が可能であり得ることが理解される。従って、他の実施形態が企図される。上記の説明に含まれ、添付の図面に示される全ての事項は、特定の実施形態の例示としてのみ解釈され、限定するものではないことが意図される。詳細又は構造の変更は、以下の特許請求の範囲に定義される本発明の基本的要素から逸脱することなく行われ得る。
〔付記1〕
航空機のオーディオセンサでオーディオ信号を受信するステップと、
前記受信したオーディオ信号を解析し、前記オーディオ信号のソースの方向情報を確定するステップと、
前記方向情報に基づいて、前記オーディオ信号のソースの位置を確定するステップと、
を含む方法。
〔付記2〕
前記オーディオ信号の前記ソースの位置は、機械学習モデル又は確率的追尾の少なくとも1つを使用して確定される、付記1に記載の方法。
〔付記3〕
前記受信したオーディオ信号を解析するステップが、
第1の時点での前記受信オーディオ信号と前記センサの幾何学的形状とに基づいて、前記信号ソースの第1の方向情報を確定するステップと、
第2の時点での前記受信オーディオ信号の変化に少なくとも基づいて、前記信号ソースの第2の方向情報を確定するステップと、
を含む、付記1に記載の方法。
〔付記4〕
前記第2の方向情報は、前記航空機の情報収集マヌーバに応答した前記受信信号の変化に基づいて確定される、付記3に記載の方法。
〔付記5〕
前記方向情報は深層学習モデルを用いて確定される、付記1に記載の方法。
〔付記6〕
更に、機械学習モデルを使用して、前記オーディオ信号が侵入機に関連することを確定するステップを含む、付記1に記載の方法。
〔付記7〕
更に、前記オーディオ信号が前記侵入機に関連しているという前記確定に応答して、前記航空機によって初期マヌーバを実行するステップを含む、付記6に記載の方法。
〔付記8〕
更に、前記初期マヌーバの開始後に収集された前記侵入機に関する情報に基づいて、1つ以上の追加マヌーバを実行するステップを含む、付記7に記載の方法。
〔付記9〕
更に、前記航空機の前記センサで受信した前記オーディオ信号をビームフォーミングして、ビームフォーミングされた信号を生成するステップを含む、付記1に記載の方法。
〔付記10〕
更に、前記ビームフォーミングされた信号を、既知の航空機の周波数を含む複数のフィルタと比較して、前記オーディオ信号が侵入機に関連することを確定するステップを含む、付記9に記載の方法。
〔付記11〕
更に、従来型モデル、機械学習モデル、及び深層学習モデルのうちの1つ以上を使用して、前記ビームフォーミングされたオーディオ信号と侵入機との間の関連付けを確定するステップを含む、付記9に記載の方法。
〔付記12〕
前記複数のフィルタの各々は、ベース周波数と、前記ベース周波数の高調波とを含む、付記10に記載の方法。
〔付記13〕
前記オーディオ信号の前記ソースの位置は、追加のセンサモダリティを使用して収集された前記オーディオ信号の前記ソースに関する追加の情報に更に基づいている、付記1に記載の方法。
〔付記14〕
前記オーディオ信号の前記ソースの前記位置は動的に更新され、前記オーディオ信号の前記ソースの前記位置に関する信頼性情報を含む、付記1に記載の方法。
〔付記15〕
更に、前記オーディオ信号の前記ソースが前記航空機の規定レンジ内にあるかどうかを確定するステップを含む、付記1に記載の方法。
〔付記16〕
命令でコード化された1つ以上の非一時的コンピュータ可読媒体であって、前記命令は、音響航空機検知システムの1つ以上のプロセッサによって実行されると、前記音響航空機検知システムに、
前記音響航空機検知システムによって受信されたオーディオ信号を解析させて、前記オーディオ信号の前記ソースの方向情報を確定させ、
前記方向情報に基づいて、前記オーディオ信号の前記ソースの位置の推定を生成させる、
1つ以上の非一時的コンピュータ可読媒体。
〔付記17〕
前記音響航空機検知システムによって受信された前記オーディオ信号は、前記オーディオ信号の前記ソースの方向情報を確定する為に機械学習モデルに提供される、付記16に記載の1つ以上の非一時的コンピュータ可読媒体。
〔付記18〕
前記命令は更に、前記音響航空機検知システムに、
前記機械学習モデルによって前記オーディオ信号を解析させ、前記オーディオ信号が侵入機に関連するかどうかを確定させる、
付記17に記載の1つ以上の非一時的コンピュータ可読媒体。
〔付記19〕
前記機械学習モデルは、前記オーディオ信号が侵入機に関連するかどうかを確定する為に、他の航空機のベースラインデータを使用して訓練される、付記18に記載の1つ以上の非一時的コンピュータ可読媒体。
〔付記20〕
前記命令は更に、前記音響航空機検知システムに、前記受信したオーディオ信号をビームフォーミングさせ、前記ビームフォーミングされたオーディオ信号を前記機械学習モデルに提供させる、付記18に記載の1つ以上の非一時的コンピュータ可読媒体。
〔付記21〕
航空機の音響検知システムで、マルチチャネルオーディオ信号を受信するステップと、
前記マルチチャネルオーディオ信号に基づいて、前記マルチチャネルオーディオ信号が侵入機に関連することを確定するステップと、
前記航空機の初期マヌーバを指令するステップと、を含む方法。
〔付記22〕
前記初期マヌーバは、前記侵入機に対する前記オーディオ信号の特性の変化を引き起こす、付記21に記載の方法。
〔付記23〕
更に、前記航空機が前記初期回避マヌーバを実行している間に、前記航空機の前記音響検知システムで追加のマルチチャネルオーディオ信号を受信するステップと、
前記追加のマルチチャネルオーディオ信号を機械学習モデルへの入力として提供し、前記侵入機の方向情報を確定するステップと、を含む、付記21に記載の方法。
〔付記24〕
無人航空機(UAV)であって、
前記UAVに接続された複数の音響センサと、
1つ以上のプロセッサを含む音響航空機検知システムであって、前記音響航空機検知システムは、
前記複数の音響センサによって受信されたオーディオ信号を解析し、前記UAVに対する侵入機の3次元空間における推定を生成するように構成されている、無人航空機(UAV)。
〔付記25〕
更に、前記UAVの動きを制御する為に1つ以上の制御システムと通信するように構成された飛行制御装置を備え、前記飛行制御装置は更に、前記音響航空機検知システムから通信を受信することで、前記UAVの情報収集マヌーバを開始するように構成されている、付記24に記載のUAV。
〔付記26〕
前記音響航空機検知システムは、前記UAVが前記情報収集マヌーバを実行する際に、前記侵入機からの前記オーディオ信号に少なくとも部分的に基づいて、前記UAVに対する前記侵入機の空間における推定を生成するように構成されている、付記25に記載のUAV。
〔付記27〕
前記音響航空機検知システムは、前記UAVに接続された前記複数の音響センサの幾何学的形状に少なくとも部分的に基づいて、前記UAVに対する前記侵入機の空間における前記推定を生成するように構成される、付記24に記載のUAV。
〔付記28〕
前記音響航空機検知システムは、少なくとも深層学習モデルを使用して、前記侵入機の空間における前記推定を生成するように構成されている、付記24に記載のUAV。
〔付記29〕
前記音響航空機検知システムは更に、前記複数の音響センサによって受信されたオーディオ信号が前記侵入機に関連するかどうかを確定するように構成される、付記24に記載のUAV。
〔付記30〕
航空機の音響検知システムで、マルチチャネルオーディオ信号を受信するステップと、
前記マルチチャネルオーディオ信号に基づいて、前記マルチチャネルオーディオ信号が侵入機に関連することを確定するステップと、
前記マルチチャネルオーディオ信号に基づいて、前記侵入機を複数の可能なタイプの航空機のうちの1つとして分類するステップと、を含む方法。

Claims (30)

  1. 航空機のオーディオセンサでオーディオ信号を受信するステップと、
    前記受信したオーディオ信号を解析し、前記オーディオ信号のソースの方向情報を確定するステップと、
    前記方向情報に基づいて、前記オーディオ信号のソースの位置を確定するステップと、
    を含む方法。
  2. 前記オーディオ信号の前記ソースの位置は、機械学習モデル又は確率的追尾の少なくとも1つを使用して確定される、請求項1に記載の方法。
  3. 前記受信したオーディオ信号を解析するステップが、
    第1の時点での前記受信オーディオ信号と前記センサの幾何学的形状とに基づいて、前記信号ソースの第1の方向情報を確定するステップと、
    第2の時点での前記受信オーディオ信号の変化に少なくとも基づいて、前記信号ソースの第2の方向情報を確定するステップと、
    を含む、請求項1に記載の方法。
  4. 前記第2の方向情報は、前記航空機の情報収集マヌーバに応答した前記受信信号の変化に基づいて確定される、請求項3に記載の方法。
  5. 前記方向情報は深層学習モデルを用いて確定される、請求項1に記載の方法。
  6. 更に、機械学習モデルを使用して、前記オーディオ信号が侵入機に関連することを確定するステップを含む、請求項1に記載の方法。
  7. 更に、前記オーディオ信号が前記侵入機に関連しているという前記確定に応答して、前記航空機によって初期マヌーバを実行するステップを含む、請求項6に記載の方法。
  8. 更に、前記初期マヌーバの開始後に収集された前記侵入機に関する情報に基づいて、1つ以上の追加マヌーバを実行するステップを含む、請求項7に記載の方法。
  9. 更に、前記航空機の前記センサで受信した前記オーディオ信号をビームフォーミングして、ビームフォーミングされた信号を生成するステップを含む、請求項1に記載の方法。
  10. 更に、前記ビームフォーミングされた信号を、既知の航空機の周波数を含む複数のフィルタと比較して、前記オーディオ信号が侵入機に関連することを確定するステップを含む、請求項9に記載の方法。
  11. 更に、従来型モデル、機械学習モデル、及び深層学習モデルのうちの1つ以上を使用して、前記ビームフォーミングされたオーディオ信号と侵入機との間の関連付けを確定するステップを含む、請求項9に記載の方法。
  12. 前記複数のフィルタの各々は、ベース周波数と、前記ベース周波数の高調波とを含む、請求項10に記載の方法。
  13. 前記オーディオ信号の前記ソースの位置は、追加のセンサモダリティを使用して収集された前記オーディオ信号の前記ソースに関する追加の情報に更に基づいている、請求項1に記載の方法。
  14. 前記オーディオ信号の前記ソースの前記位置は動的に更新され、前記オーディオ信号の前記ソースの前記位置に関する信頼性情報を含む、請求項1に記載の方法。
  15. 更に、前記オーディオ信号の前記ソースが前記航空機の規定レンジ内にあるかどうかを確定するステップを含む、請求項1に記載の方法。
  16. 命令でコード化された1つ以上の非一時的コンピュータ可読媒体であって、前記命令は、音響航空機検知システムの1つ以上のプロセッサによって実行されると、前記音響航空機検知システムに、
    前記音響航空機検知システムによって受信されたオーディオ信号を解析させて、前記オーディオ信号の前記ソースの方向情報を確定させ、
    前記方向情報に基づいて、前記オーディオ信号の前記ソースの位置の推定を生成させる、
    1つ以上の非一時的コンピュータ可読媒体。
  17. 前記音響航空機検知システムによって受信された前記オーディオ信号は、前記オーディオ信号の前記ソースの方向情報を確定する為に機械学習モデルに提供される、請求項16に記載の1つ以上の非一時的コンピュータ可読媒体。
  18. 前記命令は更に、前記音響航空機検知システムに、
    前記機械学習モデルによって前記オーディオ信号を解析させ、前記オーディオ信号が侵入機に関連するかどうかを確定させる、
    請求項17に記載の1つ以上の非一時的コンピュータ可読媒体。
  19. 前記機械学習モデルは、前記オーディオ信号が侵入機に関連するかどうかを確定する為に、他の航空機のベースラインデータを使用して訓練される、請求項18に記載の1つ以上の非一時的コンピュータ可読媒体。
  20. 前記命令は更に、前記音響航空機検知システムに、前記受信したオーディオ信号をビームフォーミングさせ、前記ビームフォーミングされたオーディオ信号を前記機械学習モデルに提供させる、請求項18に記載の1つ以上の非一時的コンピュータ可読媒体。
  21. 航空機の音響検知システムで、マルチチャネルオーディオ信号を受信するステップと、
    前記マルチチャネルオーディオ信号に基づいて、前記マルチチャネルオーディオ信号が侵入機に関連することを確定するステップと、
    前記航空機の初期マヌーバを指令するステップと、を含む方法。
  22. 前記初期マヌーバは、前記侵入機に対する前記オーディオ信号の特性の変化を引き起こす、請求項21に記載の方法。
  23. 更に、前記航空機が前記初期回避マヌーバを実行している間に、前記航空機の前記音響検知システムで追加のマルチチャネルオーディオ信号を受信するステップと、
    前記追加のマルチチャネルオーディオ信号を機械学習モデルへの入力として提供し、前記侵入機の方向情報を確定するステップと、を含む、請求項21に記載の方法。
  24. 無人航空機(UAV)であって、
    前記UAVに接続された複数の音響センサと、
    1つ以上のプロセッサを含む音響航空機検知システムであって、前記音響航空機検知システムは、
    前記複数の音響センサによって受信されたオーディオ信号を解析し、前記UAVに対する侵入機の3次元空間における推定を生成するように構成されている、無人航空機(UAV)。
  25. 更に、前記UAVの動きを制御する為に1つ以上の制御システムと通信するように構成された飛行制御装置を備え、前記飛行制御装置は更に、前記音響航空機検知システムから通信を受信することで、前記UAVの情報収集マヌーバを開始するように構成されている、請求項24に記載のUAV。
  26. 前記音響航空機検知システムは、前記UAVが前記情報収集マヌーバを実行する際に、前記侵入機からの前記オーディオ信号に少なくとも部分的に基づいて、前記UAVに対する前記侵入機の空間における推定を生成するように構成されている、請求項25に記載のUAV。
  27. 前記音響航空機検知システムは、前記UAVに接続された前記複数の音響センサの幾何学的形状に少なくとも部分的に基づいて、前記UAVに対する前記侵入機の空間における前記推定を生成するように構成される、請求項24に記載のUAV。
  28. 前記音響航空機検知システムは、少なくとも深層学習モデルを使用して、前記侵入機の空間における前記推定を生成するように構成されている、請求項24に記載のUAV。
  29. 前記音響航空機検知システムは更に、前記複数の音響センサによって受信されたオーディオ信号が前記侵入機に関連するかどうかを確定するように構成される、請求項24に記載のUAV。
  30. 航空機の音響検知システムで、マルチチャネルオーディオ信号を受信するステップと、
    前記マルチチャネルオーディオ信号に基づいて、前記マルチチャネルオーディオ信号が侵入機に関連することを確定するステップと、
    前記マルチチャネルオーディオ信号に基づいて、前記侵入機を複数の可能なタイプの航空機のうちの1つとして分類するステップと、を含む方法。
JP2022565730A 2019-12-31 2020-12-30 航空機の音響ベースの検知及び回避 Active JP7406655B2 (ja)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US201962955946P 2019-12-31 2019-12-31
US62/955,946 2019-12-31
US202062984266P 2020-03-02 2020-03-02
US62/984,266 2020-03-02
US202063021633P 2020-05-07 2020-05-07
US63/021,633 2020-05-07
US202063082838P 2020-09-24 2020-09-24
US63/082,838 2020-09-24
PCT/US2020/067464 WO2021138420A1 (en) 2019-12-31 2020-12-30 Acoustic based detection and avoidance for aircraft

Publications (2)

Publication Number Publication Date
JP2023508611A true JP2023508611A (ja) 2023-03-02
JP7406655B2 JP7406655B2 (ja) 2023-12-27

Family

ID=76686793

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022565730A Active JP7406655B2 (ja) 2019-12-31 2020-12-30 航空機の音響ベースの検知及び回避

Country Status (4)

Country Link
US (1) US20210225182A1 (ja)
EP (1) EP4085444A4 (ja)
JP (1) JP7406655B2 (ja)
WO (1) WO2021138420A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230130515A1 (en) * 2021-08-18 2023-04-27 The Boeing Company Systems and methods for confirming identity and location of an aircraft within an airspace
US20230073163A1 (en) * 2021-09-08 2023-03-09 Ge Aviation Systems Llc Systems and methods for airspace management
FR3127616B1 (fr) * 2021-09-27 2024-03-22 Thales Sa Procédé de gestion d’évitement aérien

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011112370A (ja) * 2009-11-24 2011-06-09 Nec Corp 信号源探索方法及び信号源探索システム
US20150302858A1 (en) * 2014-04-22 2015-10-22 Brian Hearing Drone detection and classification methods and apparatus
JP2017501475A (ja) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 状況に基づく飛行モード選択
JP2017044916A (ja) * 2015-08-27 2017-03-02 本田技研工業株式会社 音源同定装置および音源同定方法
JP2017156122A (ja) * 2016-02-29 2017-09-07 沖電気工業株式会社 制御装置、制御方法、及び探知システム
JP2018090117A (ja) * 2016-12-05 2018-06-14 株式会社エンルートM’s 無人飛行装置、無人飛行方法及び無人飛行プログラム
JP2019105891A (ja) * 2017-12-08 2019-06-27 三菱重工業株式会社 制御装置、無人システム、制御方法及びプログラム

Family Cites Families (40)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7765083B2 (en) * 2004-06-10 2010-07-27 Bae Systems Information And Electronic Systems Integration Inc. Method and apparatus for detecting sources of projectiles
US20100121574A1 (en) * 2006-09-05 2010-05-13 Honeywell International Inc. Method for collision avoidance of unmanned aerial vehicle with other aircraft
US7606115B1 (en) * 2007-10-16 2009-10-20 Scientific Applications & Research Associates, Inc. Acoustic airspace collision detection system
US7864096B2 (en) * 2008-01-23 2011-01-04 Aviation Communication & Surveillance Systems Llc Systems and methods for multi-sensor collision avoidance
US8543265B2 (en) * 2008-10-20 2013-09-24 Honeywell International Inc. Systems and methods for unmanned aerial vehicle navigation
FR3015100B1 (fr) * 2013-12-16 2015-12-25 Eurocopter France Procede de detection et d'affichage d'un risque de collision pour un aeronef, generant une alarme de synthese relative a un evitement d'obstacle verticalement vers le haut
CN105899965B (zh) * 2014-08-29 2018-10-02 深圳市大疆创新科技有限公司 用于采集音频数据的无人飞行器
US9761147B2 (en) * 2014-12-12 2017-09-12 Amazon Technologies, Inc. Commercial and general aircraft avoidance using light pattern detection
US9997079B2 (en) * 2014-12-12 2018-06-12 Amazon Technologies, Inc. Commercial and general aircraft avoidance using multi-spectral wave detection
US9685089B2 (en) * 2014-12-12 2017-06-20 Amazon Technologies, Inc. Commercial and general aircraft avoidance using acoustic pattern recognition
CN107110963B (zh) * 2015-02-03 2021-03-19 深圳市大疆创新科技有限公司 用于利用声音检测飞行器位置和速度的系统及方法
US10317518B2 (en) * 2015-07-20 2019-06-11 Brigham Young University (Byu) Phased array radar systems for small unmanned aerial vehicles
WO2017019595A1 (en) * 2015-07-27 2017-02-02 Genghiscomm Holdings, LLC Airborne relays in cooperative-mimo systems
US10586464B2 (en) * 2015-07-29 2020-03-10 Warren F. LeBlanc Unmanned aerial vehicles
CA3000005C (en) * 2015-09-30 2024-03-19 Alarm.Com Incorporated Drone detection systems
GB201519634D0 (en) * 2015-11-06 2015-12-23 Squarehead Technology As UAV detection
WO2017139001A2 (en) * 2015-11-24 2017-08-17 Droneshield, Llc Drone detection and classification with compensation for background clutter sources
US10379534B2 (en) * 2016-01-28 2019-08-13 Qualcomm Incorporated Drone flight control
US10101196B2 (en) * 2016-02-17 2018-10-16 Qualcomm Incorporated Device for UAV detection and identification
US10582321B2 (en) * 2016-09-29 2020-03-03 Verizon Patent And Licensing Inc. Identification of unmanned aerial vehicles based on audio signatures
US10370093B1 (en) * 2016-11-16 2019-08-06 Amazon Technologies, Inc. On-demand drone noise measurements
JP6900608B2 (ja) * 2016-12-01 2021-07-07 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 静止及び移動体に対する無人航空機の飛行方法
EP3566221B1 (en) * 2017-01-06 2021-12-08 Aurora Flight Sciences Corporation Collision-avoidance system and method for unmanned aircraft
US20210255356A1 (en) * 2017-06-08 2021-08-19 The Regents Of The University Of Colorado, A Body Corporate Drone presence detection
US10921437B2 (en) * 2017-07-13 2021-02-16 Databuoy Corporation Object tracking in an area of distributed sensors
US11136105B2 (en) * 2017-08-02 2021-10-05 Joby Elevate, Inc. VTOL aircraft for network system
US10489649B2 (en) * 2017-09-28 2019-11-26 At&T Intellectual Property I, L.P. Drone data locker system
WO2019134044A1 (en) * 2018-01-08 2019-07-11 Tandemlaunch Inc. Directional microphone and system and method for capturing and processing sound
WO2019178626A1 (de) * 2018-03-19 2019-09-26 Seven Bel Gmbh Vorrichtung, system und verfahren zur räumlichen lokalisierung von schallquellen
EP3547308B1 (en) * 2018-03-26 2024-01-24 Sony Group Corporation Apparatuses and methods for acoustic noise cancelling
US11721352B2 (en) * 2018-05-16 2023-08-08 Dotterel Technologies Limited Systems and methods for audio capture
US10867519B2 (en) * 2018-05-31 2020-12-15 The Boeing Company Aircraft flight information system and method
US10935630B2 (en) * 2018-08-27 2021-03-02 United States Of America As Represented By The Secretary Of The Navy Method for three-dimensional tracking of sinusoidal acoustic source using a rotating microphone
US11594142B1 (en) * 2018-12-12 2023-02-28 Scientific Applications & Research Associates, Inc Terrestrial acoustic sensor array
US20220114997A1 (en) * 2018-12-27 2022-04-14 Sony Group Corporation Information processing apparatus, information processing method, and program
US11531100B2 (en) * 2019-06-13 2022-12-20 The Boeing Company Methods and systems for acoustic machine perception for an aircraft
US11288973B2 (en) * 2019-08-28 2022-03-29 University Of North Dakota Unmanned aerial system automated threat assessment
US11641544B2 (en) * 2019-11-20 2023-05-02 Intel Corporation Lightweight full 360 audio source location detection with two microphones
WO2021138441A1 (en) * 2019-12-31 2021-07-08 Zipline International Inc. Correlated motion and detection for aircraft
WO2021194599A2 (en) * 2019-12-31 2021-09-30 Zipline International Inc. Acoustic probe array for aircraft

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011112370A (ja) * 2009-11-24 2011-06-09 Nec Corp 信号源探索方法及び信号源探索システム
US20150302858A1 (en) * 2014-04-22 2015-10-22 Brian Hearing Drone detection and classification methods and apparatus
JP2017501475A (ja) * 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 状況に基づく飛行モード選択
JP2017044916A (ja) * 2015-08-27 2017-03-02 本田技研工業株式会社 音源同定装置および音源同定方法
JP2017156122A (ja) * 2016-02-29 2017-09-07 沖電気工業株式会社 制御装置、制御方法、及び探知システム
JP2018090117A (ja) * 2016-12-05 2018-06-14 株式会社エンルートM’s 無人飛行装置、無人飛行方法及び無人飛行プログラム
JP2019105891A (ja) * 2017-12-08 2019-06-27 三菱重工業株式会社 制御装置、無人システム、制御方法及びプログラム

Also Published As

Publication number Publication date
WO2021138420A1 (en) 2021-07-08
JP7406655B2 (ja) 2023-12-27
EP4085444A4 (en) 2024-04-10
EP4085444A1 (en) 2022-11-09
US20210225182A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
Taha et al. Machine learning-based drone detection and classification: State-of-the-art in research
JP7406655B2 (ja) 航空機の音響ベースの検知及び回避
US10529241B2 (en) Unmanned vehicle recognition and threat management
Khan et al. On the detection of unauthorized drones—Techniques and future perspectives: A review
US11288973B2 (en) Unmanned aerial system automated threat assessment
US11531100B2 (en) Methods and systems for acoustic machine perception for an aircraft
KR20210061597A (ko) 참조 데이터를 이용한 레이더 데이터 처리 장치 및 방법
JP7406656B2 (ja) 航空機の相関動作及び検知
Paredes et al. A Gaussian Process model for UAV localization using millimetre wave radar
Siewert et al. Drone net architecture for UAS traffic management multi-modal sensor networking experiments
Zhao et al. 3d motion capture of an unmodified drone with single-chip millimeter wave radar
Huynh-The et al. Rf-uavnet: High-performance convolutional network for rf-based drone surveillance systems
US20240103130A1 (en) Feature extraction for remote sensing detections
Wang et al. Detection of passageways in natural foliage using biomimetic sonar
Figueira et al. MISSION-ORIENTED SENSOR ARRAYS AND UAVs–A CASE STUDY ON ENVIRONMENTAL MONITORING
Lee et al. -10CNN-Based UAV Detection and Classification Using Sensor Fusion
Wakabayashi et al. Design and implementation of real-time visualization of sound source positions by drone audition
US11754698B2 (en) Radar based system for processing radar data representing range and radial velocity of a detected object
Chen et al. Detection and recognition of UA targets with multiple sensors
Zitar et al. A review of UAV visual detection and tracking methods
Safa et al. Fmcw radar sensing for indoor drones using learned representations
Teague et al. Time series classification of radio signal strength for qualitative estimate of UAV motion
KR20210154446A (ko) 복소수 기반 어텐션 네트워크 연산 방법 및 장치
Rahman et al. A Comprehensive Survey of Unmanned Aerial Vehicles Detection and Classification Using Machine Learning Approach: Challenges, Solutions, and Future Directions
Ezuma UAV detection and classification using radar, radio frequency and machine learning techniques

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220825

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230704

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230922

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231117

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231205

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231215

R150 Certificate of patent or registration of utility model

Ref document number: 7406655

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150