JP7457949B2 - 情報処理方法、無人飛行体及び無人飛行体制御システム - Google Patents

情報処理方法、無人飛行体及び無人飛行体制御システム Download PDF

Info

Publication number
JP7457949B2
JP7457949B2 JP2021519260A JP2021519260A JP7457949B2 JP 7457949 B2 JP7457949 B2 JP 7457949B2 JP 2021519260 A JP2021519260 A JP 2021519260A JP 2021519260 A JP2021519260 A JP 2021519260A JP 7457949 B2 JP7457949 B2 JP 7457949B2
Authority
JP
Japan
Prior art keywords
target
unmanned aerial
sound
sound collection
unmanned
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021519260A
Other languages
English (en)
Other versions
JPWO2020230377A1 (ja
Inventor
ステファン ウィリアム ジョン
一暢 小西
勝彦 浅井
和夫 井上
俊介 久原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Publication of JPWO2020230377A1 publication Critical patent/JPWO2020230377A1/ja
Application granted granted Critical
Publication of JP7457949B2 publication Critical patent/JP7457949B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/104Simultaneous control of position or course in three dimensions specially adapted for aircraft involving a plurality of aircrafts, e.g. formation flying
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R29/00Monitoring arrangements; Testing arrangements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/55UAVs specially adapted for particular uses or applications for life-saving or rescue operations; for medical use
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U30/00Means for producing lift; Empennages; Arrangements thereof
    • B64U30/20Rotors; Rotor supports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2203/00Details of circuits for transducers, loudspeakers or microphones covered by H04R3/00 but not provided for in any of its subgroups
    • H04R2203/12Beamforming aspects for stereophonic sound reproduction with loudspeaker arrays
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Automation & Control Theory (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Otolaryngology (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Measurement Of Mechanical Vibrations Or Ultrasonic Waves (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Description

本開示は、情報処理方法、無人飛行体及び無人飛行体制御システムに関する。
特許文献1には、マイクロフォンアレイを用いて、音の発生源の位置を推定する無人飛行体が開示されている。
米国特許第9247343号明細書
例えば、特許文献1のような無人飛行体を複数用いて収音ターゲットの位置を推定することが考えられる。
しかしながら、無人飛行体の回転翼の回転等による騒音によって、収音品質が劣化し、また、収音ターゲットの位置の推定の精度が悪化する可能性がある。
そこで、本開示は、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる情報処理方法、無人飛行体及び無人飛行体制御システムを提供する。
本開示に係る情報処理方法は、コンピュータが、複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定し、前記ターゲット音が認識されたと判定された場合、前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得し、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定し、前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する方法である。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラム又はコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。
本開示に係る情報処理方法、無人飛行体及び無人飛行体制御システムは、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる。
図1は、実施の形態1に係る無人飛行体制御システムの構成の一例を示すブロック図である。 図2は、実施の形態1に係る無人飛行体の構成の一例を示すブロック図である。 図3は、回転翼の回転数と、騒音レベルとの関係の一例を示すグラフである。 図4Aは、無人飛行体を上面視した場合の騒音範囲の一例を示す図である。 図4Bは、無人飛行体を側面視した場合の騒音範囲の一例を示す図である。 図5は、実施の形態1に係る無人飛行体制御システムによる情報処理方法の一例を示すフローチャートである。 図6は、実施の形態1に係る無人飛行体制御システム及び複数の無人飛行体によって収音ターゲットの位置を特定するまでの流れを示すシーケンス図である。 図7は、実施の形態1に係る複数の無人飛行体それぞれの目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の一例を説明するための説明図である。 図8は、実施の形態1に係る複数の無人飛行体それぞれの目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の他の一例を説明するための図である。 図9Aは、ターゲット音の種類(人の声)に応じた目標収音方向の一例を示す図である。 図9Bは、ターゲット音の種類(無人飛行体の飛行音)に応じた目標収音方向の他の一例を示す図である。 図10は、実施の形態2に係る無人飛行体の構成の一例を示すブロック図である。 図11は、複数の無人飛行体を用いて収音ターゲットが発生した音の収音を行う際に生じ得る問題を説明するための図である。
(本開示の基礎となった知見)
図11は、複数の無人飛行体を用いて収音ターゲットが発生した音(ターゲット音とも呼ぶ)の収音を行う際に発生し得る問題を説明するための図である。例えば、図11には、複数の無人飛行体として、無人飛行体100a及び100bを示している。また、図11には、複数の無人飛行体の収音のターゲットである収音ターゲット200を示している。
例えば、警備の用途又は災害時の救助の用途等において、収音ターゲット200が発生した音の収音品質を向上したり、収音ターゲット200の位置を精度良く推定したりすることが望まれている。なお、図11では、警備の用途おける収音ターゲット200として不審者を示している。
これを実現するために、例えば、無人飛行体には複数のマイクロフォン素子からなるマイクロフォンアレイが搭載される。マイクロフォンアレイは、各マイクロフォン素子が収音した音の時間差を利用したビームフォーミングが可能となっており、指向性を任意のものとすることができる。つまり、マイクロフォンアレイが搭載された無人飛行体は、収音方向を特定の方向に絞ることができ、当該特定の方向においてターゲット音を収音した場合、当該特定の方向に基づく収音範囲(指向範囲)に収音ターゲット200が存在することを認識できる。例えば、図11に示すように、無人飛行体100aは、その収音範囲Aにおいてターゲット音を収音した場合、収音範囲Aに収音ターゲット200が存在することを認識できる。
このとき、無人飛行体100aは、収音ターゲット200が収音範囲A内のどこかに存在することはわかるが、詳細な位置はわからない。そこで、例えば、複数の無人飛行体を用いて三角測量等を行うことが考えられる。複数の無人飛行体を用いることで、各無人飛行体がターゲット音を収音したときの、各無人飛行体の収音方向が交差する点付近(具体的には、各無人飛行体の収音範囲が重複する範囲)に収音ターゲット200が存在すると特定できるためである。
しかし、複数の無人飛行体を用いてターゲット音の収音を行う場合、ある無人飛行体に対して他の無人飛行体が発生する騒音(例えば回転翼の回転に伴い発生する飛行音等)が邪魔になる場合がある。具体的には、図11の右側に示すように、無人飛行体100bの収音範囲Bと無人飛行体100aが発生する騒音の騒音範囲とが重複する場合がある。この場合、無人飛行体100aの騒音によって、無人飛行体100bの収音品質が劣化し、また、収音ターゲット200の位置の推定の精度が悪化する可能性がある。
このような問題を解決するために、本開示の一態様に係る情報処理方法は、コンピュータが、複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定し、前記ターゲット音が認識されたと判定された場合、前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得し、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定し、前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する方法である。
これによれば、ターゲット音から推定される収音ターゲットの推定位置だけでなく、無人飛行体が発生する騒音に関する騒音関連情報にも基づいて、複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つが決定される。したがって、複数の無人飛行体は、騒音関連情報も考慮して、無人飛行体の騒音が収音の邪魔にならない目標位置へ移動でき、又は、収音方向を無人飛行体の騒音が収音の邪魔にならない目標収音方向へ設定できる。このため、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる。これにより、各無人飛行体の収音品質を向上でき、また、収音ターゲットの位置の推定の精度を向上できる。
また、前記複数の無人飛行体それぞれの前記目標収音方向は、前記複数の無人飛行体のそれぞれが前記推定位置に向かう方向であり、前記複数の無人飛行体それぞれの前記目標位置は、前記複数の無人飛行体のそれぞれが収音方向を前記推定位置に向けた状態において、他の無人飛行体の騒音関連情報から推定される当該他の無人飛行体の騒音範囲が当該収音方向に重ならない位置であるとしてもよい。
これによれば、複数の無人飛行体のそれぞれが目標位置に移動した後、収音方向を推定位置に向けた状態において、他の無人飛行体の騒音範囲が当該収音方向に重ならないため、複数の無人飛行体のそれぞれがターゲット音を収音する際に他の無人飛行体の騒音が邪魔にならず、ターゲット音を効果的に収音することができる。言い換えると、他の無人飛行体の騒音が当該無人飛行体に搭載のマイクロフォンにより収音されにくくすることができる。
また、前記騒音関連情報は、無人飛行体の回転翼の回転数に関する情報を含み、無人飛行体の回転翼の回転数ごとに予め定められた騒音レベルと無人飛行体からの距離との対応関係と、前記回転数に関する情報とに基づいて前記騒音範囲を推定するとしてもよい。
これによれば、回転翼の回転数ごとに騒音レベルと無人飛行体からの距離との対応関係が予め定められているため、取得した他の無人飛行体の回転翼の回転数を当該対応関係に照合することで、他の無人飛行体の騒音範囲を容易に推定できる。
また、前記要求を出力した後の前記複数の無人飛行体それぞれから得られるターゲット音から前記推定位置を更新するとしてもよい。
これによれば、更新した推定位置を用いて、再度、目標位置及び目標収音方向の少なくとも1つを決定することで、位置の推定の精度をさらに高めることができる。
また、前記複数の無人飛行体のうちの前記ターゲット音の認識に用いられた音データを取得した無人飛行体以外の無人飛行体を優先的に前記目標位置へ移動させる又は収音方向を前記目標収音方向へ設定させるとしてもよい。具体的には、前記ターゲット音の認識に用いられた音データを取得した無人飛行体の前記目標位置を現在位置に決定し、当該無人飛行体の前記目標収音方向を前記推定位置に向かう方向に決定するとしてもよい。
これによれば、ターゲット音の認識に用いられた音データを取得した無人飛行体は、すでにターゲット音を認識しているため、目標位置を現在位置のままにし、収音方向を推定位置に向かうように設定させ、当該無人飛行体以外のターゲット音を認識していない無人飛行体を優先的に目標位置へ移動させる又は収音方向を目標収音方向へ設定させる。したがって、効率的にターゲット音を認識していない無人飛行体もターゲット音を認識できるようになる。つまり、各無人飛行体の収音品質を早く向上でき、また、収音ターゲットの位置の推定の精度を早く向上できる。
また、前記複数の無人飛行体のうちの移動速度が他の無人飛行体よりも速い無人飛行体を優先的に移動させるとしてもよい。
これによれば、移動速度の速い無人飛行体は、他の無人飛行体よりも早く目標位置に到達し得るため、移動速度の速い無人飛行体が優先的に移動することで、当該無人飛行体の収音品質を早く向上でき、また、収音ターゲットの位置の推定の精度を早く向上できる。
また、前記複数の無人飛行体それぞれの前記目標位置は、各無人飛行体と前記推定位置との距離がそれぞれ異なる位置であるとしてもよい。
これによれば、複数の無人飛行体のそれぞれの目標位置と、推定位置との距離差(言い換えると、収音ターゲットからのターゲット音が各無人飛行体に到達するまでの時間差)も利用することで、収音ターゲットの位置の推定の精度をさらに向上できる。
また、前記複数の無人飛行体それぞれの前記目標位置は、収音方向を前記推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならない位置であるとしてもよい。
これによれば、複数の無人飛行体のそれぞれが目標位置に移動した後、収音方向を推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならないため、複数の無人飛行体のそれぞれがターゲット音を収音する際に音の遮蔽物が邪魔にならず、ターゲット音をさらに効果的に収音することができる。
また、さらに、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの前記目標位置への移動ルートを決定し、前記複数の無人飛行体それぞれの前記移動ルートは、前記複数の無人飛行体のそれぞれが収音方向を前記推定位置に向けた状態で当該移動ルートを移動している間、音の遮蔽物が当該収音方向に重ならない位置であるとしてもよい。
これによれば、複数の無人飛行体のそれぞれが目標位置へ移動している間も、音の遮蔽物に邪魔されずに連続的にターゲット音を収音できる。
また、さらに、前記ターゲット音の収音感度を取得し、前記収音感度に基づいて推定された前記推定位置を取得するとしてもよい。
これによれば、収音感度に応じて収音ターゲットのおおよその位置を推定できる。
また、さらに、前記ターゲット音の周波数を取得し、前記騒音関連情報には、無人飛行体が発生する騒音の周波数が含まれ、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、前記騒音関連情報、並びに前記ターゲット音の周波数に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定するとしてもよい。
これによれば、騒音の周波数をフィルタ等によって除去することで、収音ターゲットが発生した、騒音の周波数とは異なる周波数を有するターゲット音を効果的に収音することができる。
本開示の一態様に係る無人飛行体は、複数の無人飛行体における無人飛行体であって、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部と、前記ターゲット音が認識されたと判定された場合に、前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得する取得部と、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部と、前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部と、を備える。
これによれば、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる無人飛行体を提供できる。例えば、複数の無人飛行体とは別途外部にシステムを設けることなく、ターゲット音を効果的に収音することができる。
本開示の一態様に係る無人飛行体制御システムは、複数の無人飛行体を制御する無人飛行体制御システムであって、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部と、前記ターゲット音が認識されたと判定された場合に、前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得する取得部と、前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部と、前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部と、を備える。
これによれば、複数の無人飛行体を用いた場合であっても、ターゲット音を効果的に収音することができる無人飛行体制御システムを提供できる。例えば、複数の無人飛行体に対して無人飛行体制御システムが中心となって動作することで、複数の無人飛行体を連携させやすくなる。
なお、これらの全般的または具体的な態様は、システム、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能なCD-ROMなどの記録媒体で実現されてもよく、システム、方法、集積回路、コンピュータプログラムまたは記録媒体の任意な組み合わせで実現されてもよい。
以下、本開示の一態様に係る情報処理方法、無人飛行体及び無人飛行体制御システムについて、図面を参照しながら具体的に説明する。
なお、以下で説明する実施の形態は、いずれも本発明の一具体例を示すものである。以下の実施の形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、ステップの順序などは、一例であり、本発明を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。
(実施の形態1)
以下、図1から図9Bを用いて実施の形態1について説明する。
[構成]
図1は、実施の形態1に係る無人飛行体制御システム1の構成の一例を示すブロック図である。無人飛行体制御システム1は、複数の無人飛行体を制御するためのシステムであり、例えば、プロポ等のコントローラ又はサーバ装置等のコンピュータによって実現される。また、無人飛行体制御システム1は、複数の無人飛行体を含むシステムであってもよい。ここでは、無人飛行体制御システム1を複数の無人飛行体とは別体に設けられたコントローラとして説明する。
無人飛行体制御システム1は、プロセッサ10、騒音データ20及び通信IF(インタフェース)30を備える。無人飛行体制御システム1は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)等のメモリ及び通信回路等を備え、騒音データ20はメモリに格納され、通信IF30は通信回路等によって実現される。
騒音データ20は、例えば、無人飛行体が備える回転翼の回転数(例えば、rpm又はrps等)ごとに予め定められた騒音レベルと無人飛行体からの距離との対応関係を示すデータを含む。騒音データ20の詳細については後述する。
通信IF30は、無人飛行体制御システム1が複数の無人飛行体との間で通信を行うための通信インタフェースである。通信IF30が複数の無人飛行体との通信に用いる通信規格は特に限定されない。
プロセッサ10は、判定部11、取得部12、推定部13、決定部14及び出力部15を備える。判定部11、取得部12、推定部13、決定部14及び出力部15は、プロセッサ10がメモリに格納されたプログラムを実行することで実現される。なお、プログラムが格納されたメモリと騒音データ20が格納されたメモリとは、同一のメモリであってもよいし、異なるメモリであってもよい。
判定部11は、複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する。
ターゲット音が認識されたと判定された場合、取得部12、推定部13、決定部14及び出力部15は以下の処理を行う。
取得部12は、複数の無人飛行体の位置及び収音方向を取得する。また、取得部12は、複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得する。また、取得部12は、ターゲット音から推定されるターゲット音の発生源である収音ターゲットの推定位置を取得する。
推定部13は、無人飛行体の騒音関連情報から当該無人飛行体の騒音範囲を推定する。
決定部14は、推定位置、複数の無人飛行体それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する。
出力部15は、複数の無人飛行体それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する。
判定部11、取得部12、推定部13、決定部14及び出力部15の詳細については後述する。
図2は、実施の形態1に係る無人飛行体100の構成の一例を示すブロック図である。無人飛行体100は、無人飛行体制御システム1によって制御される複数の無人飛行体100における無人飛行体である。
無人飛行体100は、ドローン、無人航空機またはUAV(Unmanned Aerial Vehicle)とも表現される。無人飛行体100は、警備又は災害時の救助等に用いられる場合がある。
無人飛行体100は、プロセッサ110、通信IF130、複数のマイクロフォン140、複数の回転翼150、コンパス161、加速度センサ162、ジャイロセンサ163、GPS受信機、カメラ171及びジンバル172を備える。
通信IF130は、無人飛行体100が無人飛行体制御システム1との間で通信を行うための通信インタフェースである。通信IF130が無人飛行体制御システム1との通信に用いる通信規格は特に限定されない。
コンパス161は、無人飛行体100の向きを検出するセンサである。後述する複数のマイクロフォン140は、指向性を有することから、コンパス161によって指向性の強度の高い特定の方向を検出することができる。
加速度センサ162は、無人飛行体100の異なる3方向のそれぞれにかかる加速度を検出するセンサである。
ジャイロセンサ163は、無人飛行体100の異なる3方向を軸とした3軸周りそれぞれの回転における角速度を検出するセンサである。
複数のマイクロフォン140のそれぞれは、特定の方向を基準とする所定の角度範囲である収音範囲において、収音範囲以外の角度範囲よりも高品質な音を収音することができる、指向性を有するマイクロフォンである。指向性の強度の高い特定の方向を収音方向とも呼ぶ。収音範囲は、例えば、90°以下の角度範囲であり、マイクロフォン140の位置を基準とした収音方向に対して広がりを有する3次元的な角度範囲である。複数のマイクロフォン140のそれぞれは、複数のマイクロフォン素子を有するマイクロフォンアレイであってもよい。複数のマイクロフォン140のそれぞれは、収音することで音データを逐次生成し、逐次生成された音データをプロセッサ110に逐次出力する。なお、無人飛行体100は、少なくとも1つの指向性を有するマイクロフォンを有していればよい。
複数の回転翼150のそれぞれは、無人飛行体100を飛行させる力を発生させる。複数の回転翼150のそれぞれは、具体的には、回転して気流を発生させることで無人飛行体100を飛行させる力を発生させる。複数の回転翼150は、例えば、図示しないアクチュエータ(モータ等)によって回転させられる。
ジンバル172は、カメラ171の三軸方向周りの姿勢を一定に保つための機器である。つまり、ジンバル172は、無人飛行体100の姿勢が変化しても、カメラ171の姿勢を、例えば、地球座標系に対して所望の姿勢に維持するための機器である。
カメラ171は、レンズなどの光学系およびイメージセンサを有する機器であり、センサの一例である。カメラ171は、撮像することで画像データを逐次生成し、逐次生成された画像データを、通信IF130を介して無人飛行体制御システム1に逐次出力する。
プロセッサ110は、飛行制御部141、音検知部142及び収音処理部143を備える。プロセッサ110は、コンパス161、加速度センサ162、ジャイロセンサ163、複数のマイクロフォン140等の各種センサにより検出された検出結果、及び、GPS受信機164又は通信IF130による受信結果等を取得し、取得した検出結果又は受信結果に対して、図示しないメモリに格納されているプログラムを実行することで、飛行制御部141、音検知部142及び収音処理部143が実現される。これにより、プロセッサ110は、通信IF130又は複数の回転翼150を制御する。
飛行制御部141は、GPS受信機164による検出結果を取得して無人飛行体100の現在位置を検出する。そして、飛行制御部141は、無人飛行体100の現在位置と、コンパス161、加速度センサ162及びジャイロセンサ163による検出結果から得られる無人飛行体100の向き、飛行速度及び飛行姿勢と、通信IF130により受信された無人飛行体制御システム1からの飛行制御信号とに応じて、複数の回転翼150の回転数を制御することにより、無人飛行体100の飛行状態を制御する。
収音処理部143は、マイクロフォン140が収音することで生成した音データを取得し、取得された音データに対して所定の音処理を実行する。具体的には、収音処理部143は、ノイズ処理部144を有し、ノイズ処理部144は、取得された音データに対して、音源分離処理を行うことで、無人飛行体100の飛行に関わる騒音と、ターゲット音とを分離する。無人飛行体100の飛行に関わる騒音(以下、「騒音」という。)とは、例えば、無人飛行体100の回転翼150が回転することにより生じる騒音である。ノイズ処理部144は、例えば、任意の方向への指向性を得るための指向性フィルタを、マイクロフォン140から得られた音声信号に適用することで、騒音又はターゲット音を抽出する。これにより、騒音とターゲット音とが分離される。収音処理部143は、ターゲット音を、通信IF130を介して無人飛行体制御システム1に送信する。
音検知部142は、ターゲット音が特定の音であるか否かを判定する。特定の音とは、例えば、不審者を示す音、不審な無人飛行体を示す音、被災者を示す音等である。例えば、ターゲット音が特定の音であるか否かを判定する際に、音の特徴量が用いられてもよい。例えば、特定の音の特徴量として、音をFFT(Fast Fourier Transform)で時間依存周波数(スペクトログラム)に変換したときのピーク周波数及びピーク周波数の時間(ピーク時間と呼ぶ)が予め記憶される。そして、音検知部142は、ターゲット音の特徴量と特定の音の特徴量とを比較することでターゲット音が特定の音であるか否かを判定する。例えば、音検知部142は、ターゲット音をスペクトログラムに変換し、ターゲット音の特徴量としてピーク周波数及びピーク時間を計算する。音検知部142は、ターゲット音及び特定の音のそれぞれのピーク周波数及びピーク時間を比較し、誤差が所定の閾値よりも小さければ、ターゲット音が特定の音であると判定することができる。なお、当該判定を行う方法は特に限定されない。例えば、音検知部142は、ターゲット音が特定の音である場合、収音ターゲットが特定の音に対応することを、通信IF130を介して無人飛行体制御システム1に送信する。例えば、音検知部142は、ターゲット音が被災者を示す音である場合、収音ターゲットが被災者であることを無人飛行体制御システム1に送信する。
[騒音データ]
次に、騒音データ20の詳細について図3、図4A及び図4Bを用いて説明する。
図3は、回転翼150の回転数と、騒音レベルとの関係の一例を示すグラフである。なお、図3には、当該グラフにおける騒音レベルの測定場所を説明するための図として、回転翼150の上面図も示している。当該上面図では、回転翼150の中心(回転軸の位置)を原点として、水平方向において互いに直交する2つの方向を+X軸方向及び+Y軸方向とし、上方向(鉛直上方向)を+Z軸方向としている。
図3に示すように、無人飛行体100の回転翼150の回転数が多くなると、騒音レベルも高くなる傾向にあることがわかる。また、回転翼150からの距離が離れると、回転翼150の回転数が多くなるにつれて騒音レベルも高くなるという傾向は変わらないが、回転翼150からの距離が近いときと比べて騒音レベルが低くなることがわかる。例えば、図3では、回転翼150の中心(原点)に対して、X=0.25m、Y=0m、Z=-0.5mの位置と、X=0.25m、Y=0.5m、Z=-0.5mの位置とにおける騒音レベルをそれぞれ示している。これらの位置は、Y軸方向のパラメータのみを異ならせており、回転翼150から+Y軸方向により離れた位置(図3の×印)のほうが騒音レベルが低くなっていることがわかる。例えば、無人飛行体100の周囲の様々な点について、図3のグラフに示すような回転翼150の回転数と騒音レベルとの対応関係を予め計測しておくことで、図4A及び図4Bに示すような騒音データ20を、回転翼150の回転数ごとに生成することができる。
図4Aは、無人飛行体100を上面視した場合の騒音データ20の一例を示す図である。
図4Bは、無人飛行体100を側面視した場合の騒音データ20の一例を示す図である。
騒音データ20には、回転数ごとに、図4A及び図4Bに示すような無人飛行体100の周囲の騒音レベルの騒音マップ(騒音範囲)が含まれている。例えば、「騒音レベル1」は、「騒音レベル2」よりも騒音レベルが高く、図4Aに示すように、無人飛行体100を上面視した場合には、無人飛行体100に近いほど騒音レベルが高くなる。また、図4Bに示すように、無人飛行体100を側面視した場合には、無人飛行体100の上下方向(鉛直方向)については騒音レベルが低く、左右方向(水平方向)については、無人飛行体100に近いほど騒音レベルが高くなる。上述したように、このような騒音マップが回転翼150の回転数ごとに騒音データ20に含まれる。なお、さらに、無人飛行体100の機種ごとにもこのような騒音マップが騒音データ20に含まれていてもよい。
また、例えば、無人飛行体100に搭載したマイク(マイク140であってもよいし、その他の専用のマイクであってもよい)を用いて、騒音レベルを計測し、騒音マップを更新してもよい。これにより、環境の変化又は機械劣化等により、現状の騒音レベルが当初作成した騒音マップにおける騒音レベルから変化した場合であっても、このような変化に対応した騒音マップを生成できる。
[動作]
次に、無人飛行体制御システム1の動作(無人飛行体制御システム1による情報処理方法)について、図5から図9Bを用いて説明する。
図5は、実施の形態1に係る無人飛行体制御システム1による情報処理方法の一例を示すフローチャートである。無人飛行体制御システム1は、コンピュータにより実現されるため、情報処理方法は、コンピュータが実行する方法となる。
判定部11は、複数の無人飛行体100のうちの少なくとも1つの無人飛行体100において取得される音データに基づきターゲット音が認識されたか否かを判定する(ステップS11)。具体的には、判定部11は、複数の無人飛行体100のうちの少なくとも1つの無人飛行体100が、その収音範囲において収音ターゲットの音データを取得し、ターゲット音(例えば不審者の音又は被災者の音等)を認識したか否かを判定する。
ターゲット音が認識されない場合(ステップS11でNo)、ターゲット音を認識するまでステップS11の処理が行われる。
ターゲット音が認識された場合(ステップS11でYes)、取得部12は、複数の無人飛行体100の位置及び収音方向を取得する(ステップS12)。例えば、取得部12は、複数の無人飛行体100に対して、現在の位置及び収音方向を取得させ無人飛行体制御システム1に送信するように指示する。例えば、取得部12は、複数の無人飛行体100のそれぞれが備えるGPS受信機164の受信結果に基づく複数の無人飛行体100のそれぞれの位置、及び、複数の無人飛行体100のそれぞれが備えるコンパス161の検出結果に基づく複数の無人飛行体100のそれぞれの収音方向を、通信IF30を介して複数の無人飛行体100のそれぞれから取得する。
また、取得部12は、複数の無人飛行体100のうちの少なくとも1つの無人飛行体100が発生する騒音に関する騒音関連情報を取得する(ステップS13)。例えば、取得部12は、ターゲット音の認識に用いられた音データを取得した無人飛行体100を含む複数の無人飛行体100それぞれの騒音関連情報を取得してもよい。騒音関連情報は、例えば、無人飛行体100が備える回転翼150の回転数に関する情報を含む。取得部12は、無人飛行体100の現在の回転翼150の回転数に関する情報を、通信IF30を介して当該無人飛行体100から取得する。
また、取得部12は、ターゲット音から推定されるターゲット音の発生源である収音ターゲットの推定位置を取得する(ステップS14)。例えば、取得部12は、ターゲット音の収音感度を取得してもよく、収音感度に基づいて推定された推定位置を取得してもよい。収音感度が高ければ、収音ターゲットが収音範囲の中の無人飛行体100側に位置すると推定でき、また、収音感度が低ければ、収音ターゲットが収音範囲の中の無人飛行体100とは反対側に位置すると推定できる。このように、収音感度に応じて収音ターゲットのおおよその位置を推定位置として推定できる。
決定部14は、推定位置、複数の無人飛行体100それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体100それぞれの目標位置及び目標収音方向の少なくとも1つを決定する(ステップS15)。例えば、複数の無人飛行体100それぞれの目標収音方向は、複数の無人飛行体100のそれぞれが推定位置に向かう方向である。例えば、複数の無人飛行体100それぞれの目標位置は、複数の無人飛行体100のそれぞれが収音方向を推定位置に向けた状態において、他の無人飛行体100の騒音関連情報から推定される当該他の無人飛行体100の騒音範囲が当該収音方向に重ならない位置である。つまり、図11の右側の図を用いて説明すると、目標位置は、無人飛行体100bの位置のように、無人飛行体100bが収音方向を収音ターゲット200の推定位置に向けた状態において、無人飛行体100aの騒音範囲(無人飛行体100aの周囲の破線内)が無人飛行体100bの収音方向(無人飛行体100bから収音ターゲット200の推定位置への方向)に重なる位置ではない。
例えば、推定部13は、無人飛行体100が備える回転翼150の回転数ごとに予め定められた騒音レベルと無人飛行体100からの距離との対応関係と、騒音関連情報(例えば回転数に関する情報)とに基づいて、無人飛行体100の騒音範囲を推定する。上述したように、回転翼150の回転数ごとに騒音レベルと無人飛行体100からの距離との対応関係が騒音データ20において予め定められているため、取得した無人飛行体100の回転翼150の回転数を当該対応関係に照合することで、当該無人飛行体100の騒音範囲を容易に推定できる。
そして、出力部15は、複数の無人飛行体100それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する(ステップS16)。例えば、出力部15は、複数の無人飛行体100のそれぞれに対して、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つについての飛行制御信号を当該要求として出力してもよい。また、例えば、出力部15は、複数の無人飛行体100のそれぞれを操作する各操作者に対して、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つについての指示(例えばプロポ等に設けられた操作画面への表示)を当該要求として出力してもよい。
次に、無人飛行体制御システム1及び複数の無人飛行体100によって収音ターゲットの位置を特定するまでの流れを図6及び図7を用いて説明する。
図6は、実施の形態1に係る無人飛行体制御システム1及び複数の無人飛行体100によって収音ターゲットの位置を特定するまでの流れを示すシーケンス図である。
図7は、実施の形態1に係る複数の無人飛行体100それぞれの目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の一例を説明するための説明図である。
例えば、複数の無人飛行体100には3つ以上の無人飛行体100が含まれていてもよいが、以下で具体例をあげて説明するときには、そのうちの2つの無人飛行体100a及び100bに着目する。なお、複数の無人飛行体100には、無人飛行体100が2つのみ含まれていてもよい。
複数の無人飛行体100(無人飛行体100a及び100b)は、収音を開始する(ステップS100a及びステップS100b)。複数の無人飛行体100は、例えば、不審者又は被災者の発見等のために飛行しながら収音をする。例えば、複数の無人飛行体100のうちの少なくとも1つの無人飛行体100として、無人飛行体100aがターゲット音を認識し、ターゲット音を認識したことを示す情報を無人飛行体制御システム1に送信する(ステップS101a)。例えば、図7の左側に示すように、無人飛行体100aは、収音範囲Aにおいて収音ターゲット200が発生する音を収音し、ターゲット音を認識する。例えば、無人飛行体100aは、ターゲット音が特定の音(不審者を示す音、不審な無人飛行体を示す音、被災者を示す音等)であることを無人飛行体制御システム1に送信することで、無人飛行体制御システム1は、無人飛行体100aがターゲット音を認識したことがわかる。なお、無人飛行体100は、音データを取得するだけで、無人飛行体制御システム1がターゲット音を認識してもよい。
無人飛行体制御システム1は、ターゲット音が認識されたと判定し、収音ターゲット200の位置の特定(高精度な位置の推定)の処理を開始する(ステップS102)。具体的には、無人飛行体制御システム1は、複数の無人飛行体100に対して、現在の自身の位置及び収音方向、並びに、騒音関連情報を取得するように指示する。なお、無人飛行体制御システム1は、騒音関連情報の取得の指示については、ターゲット音を認識した無人飛行体100aにのみ行ってもよい。また、無人飛行体制御システム1は、無人飛行体100aが認識したターゲット音から収音ターゲット200の位置を推定し、当該位置(推定位置)を取得する。
複数の無人飛行体100(無人飛行体100a及び100b)は、それぞれ現在の自身の位置及び収音方向、並びに、騒音関連情報を取得し、無人飛行体制御システム1に送信する(ステップS103a及びステップS103b)。なお、騒音関連情報の取得の指示が無人飛行体100aにのみ行われた場合には、無人飛行体100a以外の無人飛行体100は、騒音関連情報の取得及び送信をしなくてもよい。例えば、騒音関連情報は、複数の無人飛行体100のそれぞれの回転翼150の回転数を含む。
無人飛行体制御システム1は、複数の無人飛行体100の騒音関連情報から複数の無人飛行体100の騒音範囲を推定する(ステップS104)。例えば、無人飛行体制御システム1は、複数の無人飛行体100のそれぞれの回転翼150の回転数を騒音データ20に照合することで、複数の無人飛行体100のそれぞれの騒音範囲を推定する。なお、無人飛行体100a以外の無人飛行体100の騒音関連情報が送信されない場合には、無人飛行体100aの騒音範囲のみが推定されてもよい。
なお、複数の無人飛行体100のそれぞれが騒音データ20を有していてもよく、複数の無人飛行体100のそれぞれが、騒音データ20及び自身が取得した回転翼150の回転数を用いて自身の騒音範囲を推定してもよい。この場合、騒音関連情報には、複数の無人飛行体100のそれぞれの騒音範囲が含まれる。
なお、騒音範囲の推定は、無人飛行体100の回転翼150の回転数を用いて行われなくてもよく、例えば、無人飛行体100の本体に対して特定の位置に配置されたマイクロフォン140が収音したノイズレベルを用いて行われてもよい。特定の位置におけるノイズレベルがわかれば、無人飛行体100の周囲の騒音範囲を推定できるためである。
無人飛行体制御システム1は、推定位置、複数の無人飛行体100それぞれの位置、収音方向及び騒音関連情報、に基づいて複数の無人飛行体100それぞれの目標位置及び目標収音方向を決定し、複数の無人飛行体100それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の要求を出力する(ステップS105)。
複数の無人飛行体100(無人飛行体100a及び100b)のそれぞれは、要求に応じて、目標位置へ移動し、収音方向を目標収音方向へ設定して収音を行う(ステップS106a及びステップS106b)。
複数の無人飛行体100それぞれの目標収音方向は、複数の無人飛行体100のそれぞれが推定位置に向かう方向である。複数の無人飛行体100それぞれの目標位置は、複数の無人飛行体100のそれぞれが収音方向を推定位置に向けた状態において、他の無人飛行体100の騒音関連情報から推定される当該他の無人飛行体100の騒音範囲が当該収音方向に重ならない位置である。図7の右側において、無人飛行体制御システム1から要求を受けた無人飛行体100a及び100bは、目標収音方向として、無人飛行体100a及び100bのそれぞれが収音ターゲット200の推定位置に向かう方向に向いていることがわかる。また、無人飛行体制御システム1は、複数の無人飛行体100のうちのターゲット音の認識に用いられた音データを取得した無人飛行体100a以外の無人飛行体100bを優先的に目標位置へ移動させる又は収音方向を前記目標収音方向へ設定させてもよい。ここでは、無人飛行体制御システム1は、無人飛行体100bを優先的に目標位置へ移動させ、ターゲット音の認識に用いられた音データを取得した無人飛行体100aの目標位置を現在位置に決定し(つまり移動させず)、無人飛行体100aの目標収音方向を収音ターゲット200の推定位置に向かう方向に決定している。
これにより、例えば、無人飛行体100bが目標位置に移動した後、収音方向(収音範囲B)を推定位置に向けた状態において、他の無人飛行体100aの騒音範囲が当該収音方向に重ならないため、無人飛行体100bがターゲット音を収音する際に他の無人飛行体100aの騒音が邪魔にならず、ターゲット音を効果的に収音することができる。なお、騒音範囲を、例えば「騒音レベル1」の範囲と「騒音レベル1」よりもレベルの低い「騒音レベル2」の範囲との2段階に分けた場合、目標位置に移動後の無人飛行体100bの収音方向を推定位置に向けた状態において、他の無人飛行体100aの騒音範囲として「騒音レベル1」の範囲及び「騒音レベル2」の範囲の両方が当該収音方向に重ならないように目標位置が決定されてもよい。なお、当該両方の範囲が当該収音方向に重ならないように目標位置を決定することが難しい場合には、少なくとも「騒音レベル1」の範囲が当該収音方向に重ならないように目標位置が決定されてもよい。
また、ターゲット音の認識に用いられた音データを取得した無人飛行体100aは、すでにターゲット音を認識しているため、目標位置を現在位置のままにし、収音方向を推定位置に向かうように設定させ、無人飛行体100a以外のターゲット音を認識していない無人飛行体100bを優先的に目標位置へ移動させる又は収音方向を目標収音方向へ設定させる。したがって、すでにターゲット音を認識している無人飛行体100aに加え、ターゲット音を認識していない無人飛行体100bもターゲット音を認識できるようになる。つまり、各無人飛行体100の収音品質を早く向上でき、また、収音ターゲットの位置の推定の精度を早く向上できる。
なお、図7では、ターゲット音の認識に用いられた音データを取得した無人飛行体100aの騒音範囲が無人飛行体100a以外の無人飛行体100bの収音方向に重ならないように無人飛行体100bの目標位置が決定される例を示したが、無人飛行体100bの騒音範囲が無人飛行体100aの収音方向に重ならないように無人飛行体100aの目標位置が決定されてもよい。
複数の無人飛行体100(無人飛行体100a及び100b)のそれぞれは、目標位置に移動した後、目標収音方向に向いた状態で、収音データを取得し、また当該収音時の実際の位置、収音方向及び時刻等を取得し、無人飛行体制御システム1に送信する(ステップS107a及びステップS107b)。これにより、無人飛行体制御システム1は、要求を出力した後の複数の無人飛行体100それぞれから得られるターゲット音から推定位置を更新することで、収音ターゲット200の位置を特定、すなわち、複数の無人飛行体100を用いた収音ターゲット200の位置を高精度に推定する(ステップS108)。例えば、無人飛行体制御システム1は、複数の無人飛行体100それぞれの収音時の実際の位置及び収音方向を用いた三角測量、及び、各無人飛行体100が同じ収音ターゲット200からの同じ音を収音した時の時間差等により収音ターゲット200の位置を特定する。このように、更新した推定位置を用いて、再度、目標位置及び目標収音方向の少なくとも1つを決定することで、位置の推定の精度をさらに高めることができる。
なお、ステップS108において、収音ターゲット200の位置の推定の精度が十分でない場合には、再度ステップS102からの処理が行われてもよい。収音ターゲット200の位置の推定の精度が十分でない場合とは、例えば、ステップS108において推定された位置を例えばカメラ171等によって実際に確認したときに、当該位置に収音ターゲット200が存在しない場合であってもよい。また、収音ターゲット200の位置の推定の精度が十分でない場合とは、例えば、推定位置に向いた複数の無人飛行体100それぞれの収音範囲が重複する領域が大きく、収音ターゲット200の位置を特定しきれない場合であってもよい。
なお、複数の無人飛行体100それぞれの目標位置が現在位置に決定され、ターゲット音の認識に用いられた音データを取得した無人飛行体100以外の無人飛行体100が優先的に収音方向を目標収音方向へ設定させられてもよい。これについて、図8を用いて説明する。
図8は、実施の形態1に係る複数の無人飛行体100それぞれの目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の他の一例を説明するための図である。
図8の左側に示すように、例えば、無人飛行体100aがターゲット音を認識したとする。この場合に、複数の無人飛行体100(無人飛行体100a及び100b)それぞれの目標位置が現在位置に決定される。つまり、無人飛行体100a及び100bは、それぞれその場に留まる。そして、ターゲット音の認識に用いられた音データを取得した無人飛行体100a以外の無人飛行体100bが優先的に収音方向を目標収音方向へ設定させられる。具体的には、図8の右側に示すように、無人飛行体100bは、収音方向が目標収音方向となるように、鉛直方向軸を中心にその場で回転する、これにより、無人飛行体100bの収音範囲Bに収音ターゲット200の推定位置が含まれるようになり、無人飛行体100a及び100bを用いた収音ターゲット200の位置の推定を高精度に行うことができるようになる。なお、目標収音方向への収音方向の設定だけでは、無人飛行体100aの騒音範囲が無人飛行体100bの収音方向に重ならないようにすることが難しい場合には、無人飛行体100a及び100bの少なくとも一方の目標位置を現在位置から変更してもよい。
また、目標収音方向を決定する際に、ターゲット音の種類を考慮してもよい。これについて、図9A及び図9Bを用いて説明する。
図9Aは、ターゲット音の種類(人の声)に応じた目標収音方向の一例を示す図である。図9Bは、ターゲット音の種類(無人飛行体の飛行音)に応じた目標収音方向の他の一例を示す図である。
図9Aに示すように、無人飛行体100aが収音ターゲット200のターゲット音として、例えば人の声を認識したとする。人は、基本的には、飛行している無人飛行体100の下方(地面側)に存在するため、無人飛行体100bの目標収音方向の決定の際に無人飛行体100bの下方以外を考慮にいれなくてもよい。つまり、無人飛行体100bの下方に絞って目標収音方向を容易に決定することができる。
一方で、図9Bに示すように、無人飛行体100aが収音ターゲット200のターゲット音として、予め登録されていないような無人飛行体の飛行音を認識したとする。無人飛行体は、地面付近から上空に至るまで広く移動可能であるため、特定の方向に絞らずに目標収音方向を決定する。
[まとめ]
複数の無人飛行体100を用いて、ターゲット音の収音を行う場合、ある無人飛行体100に対して他の無人飛行体100が発生する騒音(例えば回転翼150の回転に伴い発生する飛行音等)が収音の邪魔になる場合がある。これに対して、ターゲット音から推定される収音ターゲット200の推定位置だけでなく、無人飛行体100が発生する騒音に関する騒音関連情報にも基づいて、複数の無人飛行体100それぞれの目標位置及び目標収音方向の少なくとも1つが決定される。したがって、複数の無人飛行体100は、騒音関連情報も考慮して、無人飛行体100の騒音が収音の邪魔にならない目標位置へ移動でき、又は、収音方向を無人飛行体100の騒音が収音の邪魔にならない目標収音方向へ設定できる。このため、複数の無人飛行体100を用いた場合であっても、ターゲット音を効果的に収音することができる。これにより、各無人飛行体100の収音品質を向上でき、また、収音ターゲットの位置の推定の精度を向上できる。
(実施の形態2)
例えば、実施の形態1に係る無人飛行体制御システム1の機能(具体的にはプロセッサ10の機能)を複数の無人飛行体100のうちの少なくとも1つの無人飛行体100が備えていてもよい。これについて、図10を用いて説明する。
図10は、実施の形態2に係る無人飛行体101の構成の一例を示すブロック図である。
実施の形態2に係る無人飛行体101は、プロセッサ110の代わりにプロセッサ111を備え、さらに騒音データ20を備えている点が、実施の形態1に係る無人飛行体100と異なる。プロセッサ111は、実施の形態1に係る無人飛行体制御システム1の機能として、判定部11、取得部12、推定部13、決定部14及び出力部15をさらに備える。通信IF130は、無人飛行体101が他の無人飛行体との間で通信を行うための通信インタフェースとなる。なお、複数の無人飛行体のそれぞれが実施の形態1に係る無人飛行体制御システム1の機能を有していてもよいし、複数の無人飛行体のいずれかが実施の形態1に係る無人飛行体制御システム1の機能を有し、他の無人飛行体を制御してもよい。
無人飛行体101は、具体的には、複数の無人飛行体における無人飛行体であって、複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部11と、ターゲット音が認識されたと判定された場合に、複数の無人飛行体の位置及び収音方向を取得し、複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、ターゲット音から推定されるターゲット音の発生源である収音ターゲットの推定位置を取得する取得部12と、推定位置、複数の無人飛行体それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部14と、複数の無人飛行体それぞれに対する、目標位置それぞれへの移動及び目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部15と、を備える。
無人飛行体101が有する無人飛行体制御システム1の機能は、実施の形態1におけるものと同じであるため、詳細な説明は省略する。
(その他の実施の形態)
以上、本開示の一つまたは複数の態様に係る情報処理方法、無人飛行体制御システム1、無人飛行体101について、実施の形態に基づいて説明したが、本開示は、これらの実施の形態に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を各実施の形態に施したものや、異なる実施の形態における構成要素を組み合わせて構築される形態も、本開示の一つまたは複数の態様の範囲内に含まれてもよい。
例えば、複数の無人飛行体のそれぞれを目標位置に移動させるときに、複数の無人飛行体のうちの移動速度が他の無人飛行体よりも速い無人飛行体を優先的に移動させてもよい。移動速度の速い無人飛行体は、他の無人飛行体よりも早く目標位置に到達し得るため、移動速度の速い無人飛行体が優先的に移動することで、当該無人飛行体の収音品質を早く向上でき、また、収音ターゲットの位置の推定の精度を早く向上できる。
また、例えば、複数の無人飛行体それぞれの目標位置は、各無人飛行体と推定位置との距離がそれぞれ異なる位置であってもよい。複数の無人飛行体のそれぞれの目標位置と、推定位置との距離差(言い換えると、収音ターゲットからのターゲット音が各無人飛行体に到達するまでの時間差)も利用することで、収音ターゲットの位置の推定の精度をさらに向上できる。
また、例えば、複数の無人飛行体それぞれの目標位置は、収音方向を推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならない位置であってもよい。複数の無人飛行体のそれぞれが目標位置に移動した後、収音方向を推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならないため、複数の無人飛行体のそれぞれがターゲット音を収音する際に音の遮蔽物が邪魔にならず、ターゲット音をさらに効果的に収音することができる。
また、例えば、決定部14は、推定位置、複数の無人飛行体それぞれの位置及び収音方向、並びに騒音関連情報、に基づいて複数の無人飛行体それぞれの目標位置への移動ルートを決定してもよい。そして、複数の無人飛行体それぞれの移動ルートは、複数の無人飛行体のそれぞれが収音方向を推定位置に向けた状態で当該移動ルートを移動している間、音の遮蔽物が当該収音方向に重ならない位置であってもよい。これにより、複数の無人飛行体のそれぞれが目標位置へ移動している間も、音の遮蔽物に邪魔されずに連続的にターゲット音を収音できる。
また、例えば、取得部12は、ターゲット音の周波数を取得してもよい。また、決定部14は、推定位置、複数の無人飛行体それぞれの位置及び収音方向、騒音関連情報、並びにターゲット音の周波数に基づいて複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定してもよい。例えば、ターゲット音の周波数と騒音の周波数とが異なる周波数帯である場合、騒音の周波数をフィルタ等によって除去してもよい。これにより、収音ターゲットが発生した、騒音の周波数とは異なる周波数を有するターゲット音を効果的に収音することができる。
また、例えば、上記実施の形態において、無人飛行体制御システム1及び無人飛行体101は、推定部13及び騒音データ20を備えていたが、備えていなくてもよく、無人飛行体の騒音範囲が無人飛行体制御システム1及び無人飛行体101以外の構成によって推定されてもよい。
本開示は、情報処理方法に含まれるステップを、プロセッサ(例えば無人飛行体制御システム1のプロセッサ10又は無人飛行体101のプロセッサ111)に実行させるためのプログラムとして実現できる。さらに、本開示は、そのプログラムを記録したCD-ROM等である非一時的なコンピュータ読み取り可能な記録媒体として実現できる。
例えば、本開示が、プログラム(ソフトウェア)で実現される場合には、コンピュータのCPU、メモリおよび入出力回路等のハードウェア資源を利用してプログラムが実行されることによって、各ステップが実行される。つまり、CPUがデータをメモリまたは入出力回路等から取得して演算したり、演算結果をメモリまたは入出力回路等に出力したりすることによって、各ステップが実行される。
なお、上記実施の形態において、無人飛行体制御システム1及び無人飛行体101に含まれる各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUまたはプロセッサなどのプログラム実行部が、ハードディスクまたは半導体メモリなどの記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
上記実施の形態に係る無人飛行体制御システム1及び無人飛行体101の機能の一部または全ては典型的には集積回路であるLSIとして実現される。これらは個別に1チップ化されてもよいし、一部または全てを含むように1チップ化されてもよい。また、集積回路化はLSIに限るものではなく、専用回路または汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、またはLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
また、上記実施の形態に係る無人飛行体制御システム1及び無人飛行体101の機能の一部または全てを、CPU等のプロセッサがプログラムを実行することにより実現してもよい。
また、上記実施の形態に係る無人飛行体制御システム1の機能の一部または全てを、外部サーバが実行することにより実現してもよい。
また、上記実施の形態に係る無人飛行体制御システム1の機能の一部または全てを、複数の外部サーバが実行することにより実現してもよい。つまり、プロセッサ10における機能構成要素である判定部11、取得部12、決定部14及び出力部15が複数の外部サーバに分散して配置されてもよい。
また、上記各ステップが実行される順序は、本開示を具体的に説明するために例示するためのものであり、同様の効果が得られる範囲で上記以外の順序であってもよい。また、上記ステップの一部が、他のステップと同時(例えば並列)に実行されてもよい。
さらに、本開示の主旨を逸脱しない限り、本開示の各実施の形態に対して当業者が思いつく範囲内の変更を施した各種変形例も本開示に含まれる。
本開示は、例えば、複数の無人飛行体を用いたシステムに適用できる。
1 無人飛行体制御システム
10、110、111 プロセッサ
11 判定部
12 取得部
13 推定部
14 決定部
15 出力部
20 騒音データ
30、130 通信IF
100、100a、100b、101 無人飛行体
140 マイクロフォン
141 飛行制御部
142 音検知部
143 収音処理部
144 ノイズ処理部
150 回転翼
161 コンパス
162 加速度センサ
163 ジャイロセンサ
164 GPS受信機
171 カメラ
172 ジンバル
200 収音ターゲット

Claims (14)

  1. コンピュータが、
    複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定し、
    前記ターゲット音が認識されたと判定された場合、
    前記複数の無人飛行体の位置及び収音方向を取得し、
    前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、
    前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得し、
    前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定し、
    前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する
    情報処理方法。
  2. 前記複数の無人飛行体それぞれの前記目標収音方向は、前記複数の無人飛行体のそれぞれが前記推定位置に向かう方向であり、
    前記複数の無人飛行体それぞれの前記目標位置は、前記複数の無人飛行体のそれぞれが収音方向を前記推定位置に向けた状態において、他の無人飛行体の騒音関連情報から推定される当該他の無人飛行体の騒音範囲が当該収音方向に重ならない位置である
    請求項1に記載の情報処理方法。
  3. 前記騒音関連情報は、無人飛行体の回転翼の回転数に関する情報を含み、
    無人飛行体の回転翼の回転数ごとに予め定められた騒音レベルと無人飛行体からの距離との対応関係と、前記回転数に関する情報とに基づいて前記騒音範囲を推定する
    請求項2に記載の情報処理方法。
  4. 前記要求を出力した後の前記複数の無人飛行体それぞれから得られるターゲット音から前記推定位置を更新する
    請求項1~3のいずれか1項に記載の情報処理方法。
  5. 前記複数の無人飛行体のうちの前記ターゲット音の認識に用いられた音データを取得した無人飛行体以外の無人飛行体を優先的に前記目標位置へ移動させる又は収音方向を前記目標収音方向へ設定させる
    請求項1~4のいずれか1項に記載の情報処理方法。
  6. 前記ターゲット音の認識に用いられた音データを取得した無人飛行体の前記目標位置を現在位置に決定し、当該無人飛行体の前記目標収音方向を前記推定位置に向かう方向に決定する
    請求項5に記載の情報処理方法。
  7. 前記複数の無人飛行体のうちの移動速度が他の無人飛行体よりも速い無人飛行体を優先的に移動させる
    請求項1~6のいずれか1項に記載の情報処理方法。
  8. 前記複数の無人飛行体それぞれの前記目標位置は、各無人飛行体と前記推定位置との距離がそれぞれ異なる位置である
    請求項1~7のいずれか1項に記載の情報処理方法。
  9. 前記複数の無人飛行体それぞれの前記目標位置は、収音方向を前記推定位置に向けた状態において、音の遮蔽物が当該収音方向に重ならない位置である
    請求項1~8のいずれか1項に記載の情報処理方法。
  10. さらに、
    前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの前記目標位置への移動ルートを決定し、
    前記複数の無人飛行体それぞれの前記移動ルートは、前記複数の無人飛行体のそれぞれが収音方向を前記推定位置に向けた状態で当該移動ルートを移動している間、音の遮蔽物が当該収音方向に重ならない位置である
    請求項1~9のいずれか1項に記載の情報処理方法。
  11. さらに、前記ターゲット音の収音感度を取得し、
    前記収音感度に基づいて推定された前記推定位置を取得する
    請求項1~10のいずれか1項に記載の情報処理方法。
  12. さらに、前記ターゲット音の周波数を取得し、
    前記騒音関連情報には、無人飛行体が発生する騒音の周波数が含まれ、
    前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、前記騒音関連情報、並びに前記ターゲット音の周波数に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する
    請求項1~11のいずれか1項に記載の情報処理方法。
  13. 複数の無人飛行体における無人飛行体であって、
    前記複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部と、
    前記ターゲット音が認識されたと判定された場合に、
    前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得する取得部と、
    前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部と、
    前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部と、を備える
    無人飛行体。
  14. 複数の無人飛行体を制御するコンピュータを用いて構築された無人飛行体制御システムであって、
    前記複数の無人飛行体のうちの少なくとも1つの無人飛行体において取得される音データに基づきターゲット音が認識されたか否かを判定する判定部と、
    前記ターゲット音が認識されたと判定された場合に、
    前記複数の無人飛行体の位置及び収音方向を取得し、前記複数の無人飛行体のうちの少なくとも1つの無人飛行体が発生する騒音に関する騒音関連情報を取得し、前記ターゲット音から推定される前記ターゲット音の発生源である収音ターゲットの推定位置を取得する取得部と、
    前記推定位置、前記複数の無人飛行体それぞれの位置及び収音方向、並びに前記騒音関連情報、に基づいて前記複数の無人飛行体それぞれの目標位置及び目標収音方向の少なくとも1つを決定する決定部と、
    前記複数の無人飛行体それぞれに対する、前記目標位置それぞれへの移動及び前記目標収音方向それぞれへの収音方向の設定の少なくとも1つの要求を出力する出力部と、を備える
    無人飛行体制御システム。
JP2021519260A 2019-05-15 2020-02-03 情報処理方法、無人飛行体及び無人飛行体制御システム Active JP7457949B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019092488 2019-05-15
JP2019092488 2019-05-15
PCT/JP2020/003886 WO2020230377A1 (ja) 2019-05-15 2020-02-03 情報処理方法、無人飛行体及び無人飛行体制御システム

Publications (2)

Publication Number Publication Date
JPWO2020230377A1 JPWO2020230377A1 (ja) 2020-11-19
JP7457949B2 true JP7457949B2 (ja) 2024-03-29

Family

ID=73289530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021519260A Active JP7457949B2 (ja) 2019-05-15 2020-02-03 情報処理方法、無人飛行体及び無人飛行体制御システム

Country Status (4)

Country Link
US (1) US11656639B2 (ja)
JP (1) JP7457949B2 (ja)
CN (1) CN113453980B (ja)
WO (1) WO2020230377A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024084953A1 (ja) * 2022-10-20 2024-04-25 ソニーグループ株式会社 情報処理装置および情報処理方法、並びにプログラム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019006154A (ja) 2017-06-20 2019-01-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体
JP2019505047A (ja) 2016-01-28 2019-02-21 クアルコム,インコーポレイテッド ドローン飛行制御
JP2019062435A (ja) 2017-09-27 2019-04-18 沖電気工業株式会社 機器制御装置、機器制御プログラム、機器制御方法、対話装置、及びコミュニケーションシステム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050271221A1 (en) * 2004-05-05 2005-12-08 Southwest Research Institute Airborne collection of acoustic data using an unmanned aerial vehicle
JP5952692B2 (ja) * 2012-09-13 2016-07-13 本田技研工業株式会社 音源方向推定装置、音響処理システム、音源方向推定方法、及び音源方向推定プログラム
WO2016029469A1 (en) * 2014-08-29 2016-03-03 SZ DJI Technology Co., Ltd. An unmanned aerial vehicle (uav) for collecting audio data
CN104460684A (zh) * 2014-11-17 2015-03-25 长春理工大学 一种用于远距离声音信号获取的飞行机器人
US9598182B2 (en) * 2015-05-11 2017-03-21 Lily Robotics, Inc. External microphone for an unmanned aerial vehicle
US10176792B1 (en) * 2015-08-18 2019-01-08 Amazon Technologies, Inc. Audio canceling of audio generated from nearby aerial vehicles
US11067661B2 (en) * 2015-11-17 2021-07-20 Sony Corporation Information processing device and information processing method
CN105509874A (zh) * 2015-11-20 2016-04-20 东莞职业技术学院 一种基于飞行器的环境噪声探测定位方法
US10021339B2 (en) * 2015-12-01 2018-07-10 Qualcomm Incorporated Electronic device for generating video data
US10101196B2 (en) * 2016-02-17 2018-10-16 Qualcomm Incorporated Device for UAV detection and identification
US9738381B1 (en) * 2016-02-23 2017-08-22 General Electric Company Industrial machine acoustic inspection using unmanned aerial vehicle
US10362392B2 (en) * 2016-05-18 2019-07-23 Georgia Tech Research Corporation Aerial acoustic sensing, acoustic sensing payload and aerial vehicle including the same
JP2018026792A (ja) * 2016-07-28 2018-02-15 パナソニックIpマネジメント株式会社 無人飛行体検知システム及び無人飛行体検知方法
WO2018020965A1 (ja) * 2016-07-28 2018-02-01 パナソニックIpマネジメント株式会社 無人飛行体検知システム及び無人飛行体検知方法
CN106292721A (zh) * 2016-09-29 2017-01-04 腾讯科技(深圳)有限公司 一种控制飞行器跟踪目标对象的方法、设备及系统
KR101892028B1 (ko) * 2016-10-26 2018-08-27 현대자동차주식회사 음향 추적 정보 제공 방법, 차량용 음향 추적 장치, 및 이를 포함하는 차량
KR101756603B1 (ko) * 2016-11-22 2017-07-13 주식회사 위츠 드론을 이용한 무인 경비 시스템
CN106772246B (zh) * 2017-01-20 2019-04-05 浙江大学 基于声阵列的无人机实时检测和定位系统及方法
CN109144092A (zh) * 2017-06-16 2019-01-04 昊翔电能运动科技(昆山)有限公司 无人机飞行辅助方法、装置及无人机
CN107577449B (zh) * 2017-09-04 2023-06-23 百度在线网络技术(北京)有限公司 唤醒语音的拾取方法、装置、设备及存储介质
US11721352B2 (en) * 2018-05-16 2023-08-08 Dotterel Technologies Limited Systems and methods for audio capture
JP7126143B2 (ja) * 2018-07-18 2022-08-26 パナソニックIpマネジメント株式会社 無人飛行体、情報処理方法およびプログラム
EP3926976B1 (en) * 2019-02-15 2024-05-08 Panasonic Intellectual Property Corporation of America Information processing device, information processing method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019505047A (ja) 2016-01-28 2019-02-21 クアルコム,インコーポレイテッド ドローン飛行制御
JP2019006154A (ja) 2017-06-20 2019-01-17 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 飛行体、飛行制御システム、飛行制御方法、プログラム及び記録媒体
JP2019062435A (ja) 2017-09-27 2019-04-18 沖電気工業株式会社 機器制御装置、機器制御プログラム、機器制御方法、対話装置、及びコミュニケーションシステム

Also Published As

Publication number Publication date
CN113453980B (zh) 2024-03-29
CN113453980A (zh) 2021-09-28
US11656639B2 (en) 2023-05-23
JPWO2020230377A1 (ja) 2020-11-19
US20210405663A1 (en) 2021-12-30
WO2020230377A1 (ja) 2020-11-19

Similar Documents

Publication Publication Date Title
JP7126143B2 (ja) 無人飛行体、情報処理方法およびプログラム
JP6029446B2 (ja) 自律飛行ロボット
JP6599143B2 (ja) 自律移動ロボット
US10409292B2 (en) Movement control method, autonomous mobile robot, and recording medium storing program
JP6195450B2 (ja) 自律飛行ロボット
JP7149498B2 (ja) 無人飛行体、情報処理方法およびプログラム
CN109637517B (zh) 控制装置、控制系统以及控制方法
CN112051591A (zh) 一种激光雷达与惯性测量单元的检测方法及相关装置
US11928974B2 (en) Unmanned aircraft, information processing method, and recording medium
JP2014142828A (ja) 自律移動ロボット
JP6758068B2 (ja) 自律移動ロボット
JP7457949B2 (ja) 情報処理方法、無人飛行体及び無人飛行体制御システム
JP6478177B2 (ja) 制御装置、撮像システム、移動体、制御方法、およびプログラム
JP2016181178A (ja) 自律移動ロボット
JP7017998B2 (ja) 情報処理装置、飛行経路生成方法、プログラム、及び記録媒体
JP7351609B2 (ja) 経路探索装置及びプログラム
JP6595284B2 (ja) 自律移動ロボット
WO2021014805A1 (ja) 無人飛行体および情報処理方法
US20190129423A1 (en) Dynamic impact detection
CN112771463A (zh) 无人飞行体、信息处理方法以及程序
JP7452543B2 (ja) 情報処理装置、情報処理方法、プログラム及び情報処理システム
JP2020111146A (ja) 無人飛行体、制御方法及びプログラム
JP2023128381A (ja) 飛行装置、飛行制御方法及びプログラム
JP2020071154A (ja) 位置推定装置、位置推定方法、プログラム、及び記録媒体
WO2017213010A1 (ja) 監視システム及び監視機配置情報構築プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221227

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240119

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240301

R151 Written notification of patent or utility model registration

Ref document number: 7457949

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151