JP2021046058A - 無人航空機、制御方法、およびプログラム - Google Patents

無人航空機、制御方法、およびプログラム Download PDF

Info

Publication number
JP2021046058A
JP2021046058A JP2019169095A JP2019169095A JP2021046058A JP 2021046058 A JP2021046058 A JP 2021046058A JP 2019169095 A JP2019169095 A JP 2019169095A JP 2019169095 A JP2019169095 A JP 2019169095A JP 2021046058 A JP2021046058 A JP 2021046058A
Authority
JP
Japan
Prior art keywords
state
recognition target
unmanned aerial
aerial vehicle
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019169095A
Other languages
English (en)
Inventor
熙 陳
Xi Chen
熙 陳
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2019169095A priority Critical patent/JP2021046058A/ja
Priority to US17/753,641 priority patent/US20240046648A1/en
Priority to PCT/JP2020/033790 priority patent/WO2021054178A1/ja
Publication of JP2021046058A publication Critical patent/JP2021046058A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • B64C13/18Initiating means actuated automatically, e.g. responsive to gust detectors using automatic pilot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/12Target-seeking control
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/07Target detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Software Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)

Abstract

【課題】安全に認識対象とのインタラクションを実現する。【解決手段】状態推定部は、カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、認識対象の状態を推定し、行動決定部は、推定された認識対象の状態に応じて、自機の行動を決定する。本開示に係る技術は、例えば、ドローンに適用することができる。【選択図】図5

Description

本開示は、無人航空機、制御方法、およびプログラムに関し、特に、安全に認識対象とのインタラクションを実現することができるようにする無人航空機、制御方法、およびプログラムに関する。
従来、ドローンが、認識対象との距離を計測して追尾したり、認識対象となる被写体を撮影して画像分析を行ったりする技術がある。
特許文献1には、時系列のセンサ情報から、認識対象に関する時系列の特徴量を抽出し、時系列の特徴量に基づいて、センサ情報のコンテキストを考慮して認識対象の情動を推定する技術が開示されている。
特許文献1の技術によれば、センサ情報のコンテキストを考慮して情動推定が行われるため、瞬間的なセンサ情報から抽出した特徴量に基づく推定結果の誤りなどを反映することなく、認識対象の情動の状態を安定的に推定することができる。
特開2005−199403号公報
ところで、認識対象となる動物や人の状態によっては、ドローンが安全に認識対象とのインタラクションを行えないことがあった。例えば、認識対象となる動物がドローンを攻撃するような状態では、ドローンがインタラクションを行うのは危険である。
本開示は、このような状況に鑑みてなされたものであり、安全に認識対象とのインタラクションを実現することができるようにするものである。
本開示の無人航空機は、カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定する状態推定部と、推定された前記認識対象の状態に応じて、自機の行動を決定する行動決定部とを備える無人航空機である。
本開示の制御方法は、無人航空機が、カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定し、推定された前記認識対象の状態に応じて、自機の行動を決定する制御方法である。
本開示のプログラムは、コンピュータに、カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定し、推定された前記認識対象の状態に応じて、無人航空機の行動を決定する処理を実行させるためのプログラムである。
本開示においては、カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態が推定され、推定された前記認識対象の状態に応じて、無人航空機の行動が決定される。
従来の課題について説明する図である。 本開示に係る技術の概要について説明する図である。 本開示に係る技術の概要について説明する図である。 ドローンの構成例を示すブロック図である。 制御部の機能構成例を示すブロック図である。 触覚センサの例について説明する図である。 ドローンの飛行制御処理の流れについて説明するフローチャートである。 認識対象の状態推定処理の流れについて説明するフローチャートである。 画像の照合について説明する図である。 ドローンの行動決定処理の流れについて説明するフローチャートである。
以下、本開示を実施するための形態(以下、実施の形態という)について説明する。なお、説明は以下の順序で行う。
1.従来の課題と本開示に係る技術の概要
2.ドローンの構成
3.ドローンの飛行制御
3−1.認識対象の状態推定
3−2.行動決定
<1.従来の課題と本開示に係る技術の概要>
(従来の課題)
図1は、ドローンが認識対象とのインタラクションを行う場合における、従来の課題について説明する図である。
例えば、認識対象が野生動物である場合、認識対象とのインタラクションには、誘い込み、駆逐、監視や観察のための撮影などが含まれる。また、認識対象が人である場合、認識対象とのインタラクションには、スポーツやライブなどの追尾撮影や近距離撮影などが含まれる。
例えば、図1のA図は、ドローン10が認識対象となる動物11を撮影する例を示している。しかしながら、動物11の状態によっては、A図右に示されるように、ドローン10が、動物11に攻撃される危険がある。
図1のB図は、ドローン10が認識対象となるスキーヤー12を追尾撮影する例を示している。しかしながら、スキーヤー12の状態によっては、B図右に示されるように、ドローン10が、スキーヤー12がジャンプした瞬間の撮影を逃すおそれがある。
図1のC図は、ドローン10が認識対象となる野球選手13を近距離撮影する例を示している。しかしながら、野球選手13の状態によっては、C図右に示されるように、ドローン10が、野球選手13が振るバットに衝突する危険がある。
(本開示に係る技術の概要)
図2は、本開示に係る技術の概要について説明する図である。図2においては、図1と同様、ドローン10が認識対象とのインタラクションを行う例が示されている。
例えば、図2のA図に示されるように、動物11がドローン10を攻撃する状態にある場合、ドローン10は、上昇することで、動物11からの攻撃を避けることができる。
また、図2のB図に示されるように、スキーヤー12がジャンプする状態にある場合、ドローン10は、スキーヤー12を追尾することで、スキーヤー12のジャンプした瞬間の撮影を逃すことを避けることができる。
さらに、図2のC図に示されるように、野球選手13がバットを振る状態にある場合、ドローン10は、野球選手13のバットに衝突しない安全な領域を飛行することで、野球選手13のバットとの衝突を避けることができる。
本開示の実施の形態に係る無人航空機としてのドローンは、認識対象の状態を推定し、その状態に応じて自機の行動を決定することができる。
例えば、図3に示されるように、ドローン10は、動物21の状態が自機を攻撃する状態であると推定した場合、所定の高度位置まで上昇することを決定する。
また、ドローン10は、人22の状態が、自機を捕獲しようとするなど自機の飛行に干渉している状態であると推定した場合、着陸することを決定する。
さらに、ドローン10は、動物23の状態が、近距離撮影などのインタラクションが可能な状態であると推定した場合、そのインタラクションを実行することを決定する。
また、ドローン10は、動物24の状態が自機のいずれの行動も必要としない状態であると推定した場合、現在位置を空中で保持するホバリングを行うことを決定する。
<2.ドローンの構成>
(ドローンの構成ブロック)
図4は、本開示に係る技術を適用したドローン10の構成例を示すブロック図である。
ドローン10は、制御部41、通信部42、記憶部43、および飛行機構44を備えている。また、ドローン10には、センサ51が設けられる。
制御部41は、CPU(Central Processing Unit)などのプロセッサやメモリなどで構成され、所定のプログラムを実行することにより、通信部42、記憶部43、飛行機構44、およびセンサ51を制御する。例えば、制御部41は、記憶部43に記憶されている情報や、センサ51により収集されたセンサデータに基づいて、飛行機構44を制御する。
通信部42は、ネットワークインタフェースなどで構成され、ドローン10に対して指示を行うコントローラや、その他の任意の装置との間で、無線または有線による通信を行う。例えば、通信部42は、通信相手となる装置と、直接通信を行ってもよいし、Wi−Fi(登録商標)や4G,5Gなどの基地局や中継器を介したネットワーク通信を行ってもよい。
記憶部43は、フラッシュメモリなどの不揮発性メモリなどにより構成され、制御部41の制御に従い、各種の情報を記憶する。例えば、記憶部43は、後述する3次元地図情報を記憶(格納)する。
飛行機構44は、ドローン10を飛行させるための機構であり、プロペラや、プロペラを回転させるモータなどから構成される。飛行機構44は、制御部41の制御に従って駆動し、ドローン10を飛行させる。
センサ51は、例えば、カメラやステレオカメラ、ToF(Time of Flight)センサなどのデプスセンサの他、ソナー、レーダやLiDERなどを含むようにして構成される。また、センサ51は、外部からの圧力や衝撃力を感知する触覚センサ、IMU(Inertial Measurement Unit)センサやGPS(Global Positioning System)センサを含むようにして構成されてもよい。センサ51により収集されたセンサデータは、ドローン10の飛行制御に用いられる。
(制御部の機能構成ブロック)
図5は、制御部41の機能構成例を示すブロック図である。
図5に示される制御部41の機能ブロックは、制御部41を構成するプロセッサにより所定のプログラムが実行されることによって実現される。
制御部41は、状態推定部61、行動決定部62、および飛行制御部63から構成される。
状態推定部61は、各種の入力情報に基づいて、インタラクションの対象となる認識対象の状態を推定する。
入力情報には、触覚センサ101からのセンサデータ、飛行機構44を構成するモータの駆動信号、3次元地図情報102、画像DB(データベース)103に保存されている画像、およびカメラ104により撮影されるカメラ画像の少なくともいずれかが含まれる。
触覚センサ101は、外部からの圧力や衝撃力を感知する。
例えば、触覚センサ101は、図6のA図に示されるように、ドローン10のプロペラを保護するプロペラガードに設けられる圧力センサ101Aとして構成される。圧力センサ101Aによれば、ドローン10と外部の物体や認識対象との衝突を検知することができる。
また、触覚センサ101は、図6のB図に示されるように、ドローン10の下方からの引張力を検知するロードセル101Bとして構成されてもよい。ロードセル101Bには重りWが吊り下げられている。重りWが認識対象により引っ張られることで、認識対象による捕獲を検知することができる。
3次元地図情報102は、IMUセンサやGPSセンサにより推定された自己位置、SLAM(Simultaneous Localization and Mapping)により作成された障害物地図、物体検出により検出されたセマンティック情報、物体追従により推測された物体の移動方向などを統合した地図情報である。SLAMや物体検出は、カメラ104からの画像を用いて行われる。3次元地図情報102は、記憶部43に記憶される。
画像DB103には、あらかじめ認識対象の状態に対応するラベルが付与されたラベル付き画像が保存されている。画像DB103は、ドローン10内部に設けられてもよいし、外部に設けられ、通信部42を介してドローン10と接続されてもよい。
カメラ104は、ドローン10の周辺環境を撮影したり、認識対象を撮影したりする。認識対象が撮影されたカメラ画像は、画像DB103に保存されているラベル付き画像と照合される。
さて、状態推定部61は、接触検出部71、位置乱れ検出部72、動き検出部73、および画像照合部74を備えている。
接触検出部71は、触覚センサ101からのセンサデータに基づいて、外部からの圧力や衝撃力が所定の値を超えた場合に、認識対象との接触を検出する。
位置乱れ検出部72は、モータの駆動信号に基づいてドローン10の移動を推測することで推定された自機の位置が、3次元地図情報102において、IMUセンサやGPSセンサにより推定される自己位置と所定の距離以上離れている場合に、自己位置の乱れを検出する。この場合、位置乱れ検出部72は、認識対象の状態が、自機を捕獲している捕獲状態であることを表す状態情報を、行動決定部62に供給する。
動き検出部73は、3次元地図情報102における認識対象の位置、速度、および、ドローン10との相対位置に基づいて、認識対象の動きを検出する。認識対象の動きが検出されなかった場合、位置乱れ検出部72は、認識対象の状態が、自機のいずれの行動も必要としない観察状態であることを表す状態情報を、行動決定部62に供給する。
画像照合部74は、動きが検出された認識対象が撮影されたカメラ画像を、画像DB103に保存されているラベル付き画像と照合することで、認識対象の状態を判定する。
画像照合部74は、攻撃状態判定部81とインタラクション状態判定部82を備えている。
攻撃状態判定部81は、カメラ画像が、画像DB103に保存されているラベル付き画像のうち、自機を攻撃する可能性のある攻撃状態に対応するラベル付き画像とマッチングするか否かを判定する。カメラ画像が攻撃状態に対応するラベル付き画像とマッチングした場合、認識対象の状態が攻撃状態であることを表す状態情報が、行動決定部62に供給される。
カメラ画像が攻撃状態に対応するラベル付き画像とマッチングしない場合、インタラクション状態判定部82は、カメラ画像が、画像DB103に保存されているラベル付き画像のうち、自機のインタラクションが可能なインタラクション状態に対応するラベル付き画像とマッチングするか否かを判定する。カメラ画像がインタラクション状態に対応するラベル付き画像とマッチングした場合、認識対象がインタラクション状態であることを表す状態情報が、行動決定部62に供給される。一方、カメラ画像がインタラクション状態に対応するラベル付き画像とマッチングしない場合、認識対象の状態が観察状態であることを表す状態情報が、行動決定部62に供給される。
行動決定部62は、状態推定部61の各部からの状態情報に応じて、ドローン10の行動を決定する。決定された行動を表す行動情報は、飛行制御部63に供給される。
例えば、状態推定部61から、認識対象が捕獲状態であることを表す状態情報が供給された場合、行動決定部62は、ドローン10の行動として、着陸することを決定し、その旨の行動情報を飛行制御部63に供給する。
また、状態推定部61から、認識対象が観察状態であることを表す状態情報が供給された場合、行動決定部62は、ドローン10の行動として、ホバリングを行うことを決定し、その旨の行動情報を飛行制御部63に供給する。
行動決定部62は、安全領域推定部91を備えている。
安全領域推定部91は、状態推定部61から、認識対象が攻撃状態またはインタラクション状態であることを表す状態情報が供給された場合、3次元地図情報102に基づいて、ドローン10が安全に行動可能な安全領域を推定する。
具体的には、状態推定部61から、認識対象が攻撃状態であることを表す状態情報が供給された場合、安全領域推定部91は、安全な高度位置である安全高度を推定する。この場合、行動決定部62は、ドローン10の行動として、安全領域推定部91により推定された安全高度まで上昇することを決定し、その旨の行動情報を飛行制御部63に供給する。
また、状態推定部61から、認識対象がインタラクション状態であることを表す状態情報が供給された場合、安全領域推定部91は、安全な経路である安全pathを推定する。この場合、行動決定部62は、ドローン10の行動として、安全領域推定部91により推定された安全pathで飛行することと、認識対象とのインタラクションを実行することを決定し、その旨の行動情報を飛行制御部63に供給する。
飛行制御部63は、行動決定部62により決定されたドローン10の行動を表す行動情報に基づいて、飛行機構44を制御する。
以上のような構成により、ドローン10の飛行が制御される。
<3.ドローンの飛行制御>
以下においては、上述した構成を備えるドローン10の飛行制御の流れについて説明する。
図7は、ドローン10の飛行制御の流れについて説明するフローチャートである。図7の処理は、例えば、ドローン10の飛行中に、認識対象とのインタラクションの実行が指示されるなどすることにより開始される。
ステップS11において、状態推定部61は、認識対象の状態推定処理を実行することで、認識対象の状態を推定する。
ステップS12において、行動決定部62は、推定された認識対象の状態に応じて、行動決定処理を実行することで、ドローン10の行動を決定する。
ステップS13において、飛行制御部63は、決定された行動に基づいて、ドローン10の飛行を制御する。
(3−1.認識対象の状態推定)
ここで、図8のフローチャートを参照して、図7のステップS11において実行される認識対象の状態推定処理の流れについて説明する。
ステップS31において、接触検出部71は、触覚センサ101からのセンサデータに基づいて、認識対象との接触が検出されたか否かを判定する。
ステップS31において接触が検出されたと判定された場合、処理はステップS32に進む。
ステップS32において、位置乱れ検出部72は、モータの駆動信号に基づいて、自己位置の乱れが検出されたか否かを判定する。
ステップS32において自己位置の乱れが検出されたと判定された場合、状態推定部61は、認識対象の状態が、自機を捕獲している捕獲状態であると推定する。捕獲状態であることを表す状態情報は、行動決定部62に供給される。
一方、ステップS32において自己位置の乱れが検出されていないと判定された場合、処理はステップS33に進む。
また、ステップS31において接触が検出されていないと判定された場合、ステップS32はスキップされ、処理はステップS33に進む。
なお、ドローン10においては、触覚センサ101は必須の構成ではなく、触覚センサ101が設けられないようにしてもよい。この場合、認識対象の状態推定処理は、ステップS32から開始される。
さて、ステップS33において、動き検出部73は、3次元地図情報102に基づいて、認識対象の動きが検出されたか否かを判定する。
ステップS33において認識対象の動きが検出されていないと判定された場合、状態推定部61は、認識対象の状態が、自機のいずれの行動も必要としない観察状態であると推定する。観察状態であることを表す状態情報は、行動決定部62に供給される。
一方、ステップS33において認識対象の動きが検出されたと判定された場合、処理はステップS34に進む。
ステップS34において、画像照合部74は、動きが検出された認識対象が撮影されたカメラ画像を、画像DB103に保存されているラベル付き画像と照合する。
具体的には、ステップS35において、攻撃状態判定部81が、カメラ画像が、自機を攻撃する可能性のある攻撃状態に対応するラベル付き画像とマッチングするか否かを判定する。
例えば、図9に示されるように、認識対象である熊が撮影されたカメラ画像121が、画像照合部74に入力されたとする。
この場合、画像照合部74(攻撃状態判定部81)は、カメラ画像121と、画像DB103の1つである熊画像DB103Bに保存されているラベル付き熊画像とをマッチングする。図9の例では、攻撃状態に対応する「怒っている」ラベルが付与されたラベル付き熊画像と、インタラクション状態に対応する「平気」ラベルが付与されたラベル付き画像が、熊画像DB103Bに保存されている。
そして図9の例では、画像照合部74において、カメラ画像121とラベル付き熊画像とのマッチング結果が数値で示されている。具体的には、「怒っている」ラベルが付与されたラベル付き熊画像とのマッチング結果が0.9、「平気」ラベルが付与されたラベル付き熊画像とのマッチング結果が0.2と示されている。
この場合、カメラ画像121は、「怒っている」ラベルが付与されたラベル付き熊画像と最もマッチングすると判定される。
このように、ステップS35においてカメラ画像が攻撃状態に対応するラベル付き画像とマッチングすると判定された場合、状態推定部61は、認識対象の状態が攻撃状態であると推定する。攻撃状態であることを表す状態情報は、行動決定部62に供給される。
一方、ステップS35においてカメラ画像が攻撃状態に対応するラベル付き画像とマッチングしないと判定された場合、処理はステップS36に進む。
ステップS36においては、インタラクション状態判定部82が、カメラ画像が、自機のインタラクションが可能なインタラクション状態に対応するラベル付き画像とマッチングするか否かを判定する。
ステップS36においてカメラ画像がインタラクション状態に対応するラベル付き画像とマッチングすると判定された場合、状態推定部61は、認識対象の状態がインタラクション状態であると推定する。インタラクション状態であることを表す状態情報は、行動決定部62に供給される。
一方、ステップS36においてカメラ画像がインタラクション状態に対応するラベル付き画像とマッチングしないと判定された場合、状態推定部61は、認識対象の状態が観察状態であると推定する。観察状態であることを表す状態情報は、行動決定部62に供給される。
以上のようにして、認識対象の状態が推定される。
(3−2.行動決定)
次に、図10のフローチャートを参照して、図7のステップS12において実行される行動決定処理の流れについて説明する。
ステップS51において、行動決定部62は、状態推定部61からの状態情報に基づいて、認識対象の状態が捕獲状態であるか否かを判定する。
ステップS51において認識対象の状態が捕獲状態であると判定された場合、処理はステップS52に進む。
ステップS52において、行動決定部62は、ドローン10の行動として、着陸することを決定する。この場合、飛行制御部63は、飛行機構44を制御することにより、ドローン10を着陸させる。
一方、ステップS51において認識対象の状態が捕獲状態でないと判定された場合、ステップS52はスキップされ、処理はステップS53に進む。
ステップS53において、行動決定部62は、状態推定部61からの状態情報に基づいて、認識対象の状態が攻撃状態であるか否かを判定する。
ステップS53において認識対象の状態が攻撃状態であると判定された場合、処理はステップS54に進む。
ステップS54において、安全領域推定部91は、安全な高度位置である安全高度を推定し、行動決定部62は、ドローン10の行動として、安全高度まで上昇することを決定する。この場合、飛行制御部63は、飛行機構44を制御することにより、ドローン10を安全高度まで上昇させる。
一方、ステップS53において認識対象の状態が攻撃状態でないと判定された場合、ステップS54はスキップされ、処理はステップS55に進む。
ステップS55において、行動決定部62は、状態推定部61からの状態情報に基づいて、認識対象の状態がインタラクション状態であるか否かを判定する。
ステップS55において認識対象の状態がインタラクション状態であると判定された場合、処理はステップS56に進む。
ステップS56において、安全領域推定部91は、安全な経路である安全pathを推定し、行動決定部62は、ドローン10の行動として、安全pathで飛行することと、認識対象とのインタラクションを実行することを決定する。この場合、飛行制御部63は、飛行機構44を制御することにより、ドローン10を安全pathで飛行させる。
一方、ステップS55において認識対象の状態がインタラクション状態でないと判定された場合、すなわち、認識対象の状態が観察状態である場合、処理はステップS57に進む。
ステップS57において、行動決定部62は、ドローン10の行動として、ホバリングを行うことを決定する。この場合、飛行制御部63は、飛行機構44を制御することにより、ドローン10にホバリングを行わせる。
以上のようにして、ドローン10の行動が決定される。
以上の処理によれば、認識対象の状態が推定され、推定された認識対象の状態に応じてドローン10の行動が決定されるので、安全に認識対象とのインタラクションを実現することが可能となる。
例えば、認識対象となる野生動物の機嫌が良く、何らかの姿勢や表情をとるなど、インタラクションが可能な状態であると推定された場合、ドローン10は、安全な経路を飛行しながら、その野生動物と近距離でのインタラクションを行うことができる。
また、認識対象となる野生動物が怒っていて、ドローン10を攻撃する状態であると推定された場合、ドローン10は、その野生動物から攻撃されない安全な高度位置まで上昇することができる。
さらに、認識対象となる野生動物が、ドローン10を捕獲した状態であると推定された場合、ドローン10は、その場で着陸することで、むやみに飛行して機体が損傷することを避けることができる。
また、認識対象となる野生動物が眠っているなど、インタラクションを行う必要すらない状態であると推定された場合、ドローン10は、その場でホバリングすることで、認識対象の次なる動作を待機することができる。
なお、以上においては、認識対象の状態が、捕獲状態、攻撃状態、インタラクション状態、および観察状態の4つの状態のいずれかに推定されるものとしたが、4つの状態の少なくともいずれかに推定されてもよいし、さらに定義された他の状態に推定されてもよい。
本実施の形態に係る技術は、上述した野生動物の撮影や、スポーツをするプレーヤの近距離撮影に限らず、人とロボットとのヒューマンロボットインタラクションや、動物とロボットとの動物ロボットインタラクションにも適用することができる。
ヒューマンロボットインタラクションにおいては、例えば、開いた状態の傘を備えたドローンが、人混みや周囲の建築物などを避けながら、人の頭上を追尾飛行することができる。
また、動物ロボットインタラクションにおいては、例えば、注射器を備えたドローンが、トラやライオンなどの猛獣に対して、適切に麻酔注射することができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、コンピュータにインストールされる。ここで、コンピュータには、専用のハードウェアに組み込まれているコンピュータや、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどが含まれる。
コンピュータでは、制御部41が、記憶部43に記憶されているプログラムをロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(制御部41)が実行するプログラムは、例えば、パッケージメディア等としてのリムーバブルメディアに記録して提供することができる。また、プログラムは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供することができる。
コンピュータでは、プログラムは、リムーバブルメディアをドライブに装着することにより、記憶部43にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、記憶部43にインストールすることができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。
本開示に係る技術の実施の形態は、上述した実施の形態に限定されるものではなく、本開示に係る技術の要旨を逸脱しない範囲において種々の変更が可能である。
また、本明細書に記載された効果はあくまで例示であって限定されるものではなく、他の効果があってもよい。
さらに、本開示に係る技術は以下のような構成をとることができる。
(1)
カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定する状態推定部と、
推定された前記認識対象の状態に応じて、自機の行動を決定する行動決定部と
を備える無人航空機。
(2)
前記状態推定部は、前記認識対象の状態が、
前記自機の飛行に干渉している第1の状態、
前記自機を攻撃する可能性のある第2の状態、
前記自機の所定のインタラクションが可能な第3の状態、
前記自機のいずれの行動も必要としない第4の状態
の少なくともいずれかであることを推定する
(1)に記載の無人航空機。
(3)
前記行動決定部は、前記認識対象が前記第2の状態または前記第3の状態であると推定された場合、3次元地図情報に基づいて、前記自機が安全に行動可能な安全領域を推定する
(2)に記載の無人航空機。
(4)
前記行動決定部は、前記認識対象が前記第2の状態であると推定された場合、前記自機の行動として、前記自機が安全に行動可能な高度位置へ上昇することを決定する
(3)に記載の無人航空機。
(5)
前記行動決定部は、前記認識対象が前記第3の状態であると推定された場合、前記自機の行動として、前記自機が安全に行動可能な経路で飛行することと、前記インタラクションを実行することを決定する
(3)または(4)に記載の無人航空機。
(6)
前記行動決定部は、前記認識対象が前記第1の状態であると推定された場合、前記自機の行動として、着陸することを決定する
(2)乃至(5)のいずれかに記載の無人航空機。
(7)
前記行動決定部は、前記認識対象が前記第4の状態であると推定された場合、前記自機の行動として、ホバリングを行うことを決定する
(2)乃至(6)のいずれかに記載の無人航空機。
(8)
前記状態推定部は、前記カメラ画像を、あらかじめ前記認識対象の状態に対応するラベルが付与されたラベル付き画像と照合することで、前記認識対象の状態を推定する
(2)乃至(7)のいずれかに記載の無人航空機。
(9)
前記状態推定部は、前記カメラ画像を、前記第2の状態または前記第3の状態に対応する前記ラベル付き画像と照合することで、前記認識対象が前記第2の状態または前記第3の状態であることを推定する
(8)に記載の無人航空機。
(10)
前記状態推定部は、照合の結果、前記カメラ画像が、前記第2の状態および前記第3の状態に対応する前記ラベル付き画像とマッチングしない場合、前記認識対象が前記第4の状態であることを推定する
(8)または(9)に記載の無人航空機。
(11)
前記状態推定部は、3次元地図情報に基づいて、前記認識対象の動きを検出することで、前記認識対象の状態を推定する
(8)乃至(10)のいずれかに記載の無人航空機。
(12)
前記状態推定部は、前記認識対象の動きが検出された場合、前記カメラ画像を前記ラベル付き画像と照合することで、前記認識対象の状態を推定する
(11)に記載の無人航空機。
(13)
前記状態推定部は、前記認識対象の動きが検出されなかった場合、前記認識対象が前記第4の状態であることを推定する
(11)または(12)に記載の無人航空機。
(14)
前記状態推定部は、前記モータの駆動信号に基づいた前記自機の位置と、自己位置の推定結果との差を検出することで、前記認識対象の状態を推定する
(8)乃至(13)のいずれかに記載の無人航空機。
(15)
前記状態推定部は、前記自機の位置と前記自己位置の推定結果との差が所定の距離より小さい場合、3次元地図情報に基づいて、前記認識対象の動きを検出することで、前記認識対象の状態を推定する
(14)に記載の無人航空機。
(16)
前記状態推定部は、前記自機の位置と前記自己位置の推定結果との差が所定の距離より大きい場合、前記認識対象が前記第1の状態であることを推定する
(14)または(15)に記載の無人航空機。
(17)
無人航空機が、
カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定し、
推定された前記認識対象の状態に応じて、自機の行動を決定する
制御方法。
(18)
コンピュータに、
カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定し、
推定された前記認識対象の状態に応じて、無人航空機の行動を決定する
処理を実行させるためのプログラム。
10 ドローン, 41 制御部, 42 通信部, 43 記憶部, 44 飛行機構, 51 センサ, 61 状態推定部, 62 行動決定部, 63 飛行制御部

Claims (18)

  1. カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定する状態推定部と、
    推定された前記認識対象の状態に応じて、自機の行動を決定する行動決定部と
    を備える無人航空機。
  2. 前記状態推定部は、前記認識対象の状態が、
    前記自機の飛行に干渉している第1の状態、
    前記自機を攻撃する可能性のある第2の状態、
    前記自機の所定のインタラクションが可能な第3の状態、
    前記自機のいずれの行動も必要としない第4の状態
    の少なくともいずれかであることを推定する
    請求項1に記載の無人航空機。
  3. 前記行動決定部は、前記認識対象が前記第2の状態または前記第3の状態であると推定された場合、3次元地図情報に基づいて、前記自機が安全に行動可能な安全領域を推定する
    請求項2に記載の無人航空機。
  4. 前記行動決定部は、前記認識対象が前記第2の状態であると推定された場合、前記自機の行動として、前記自機が安全に行動可能な高度位置へ上昇することを決定する
    請求項3に記載の無人航空機。
  5. 前記行動決定部は、前記認識対象が前記第3の状態であると推定された場合、前記自機の行動として、前記自機が安全に行動可能な経路で飛行することと、前記インタラクションを実行することを決定する
    請求項3に記載の無人航空機。
  6. 前記行動決定部は、前記認識対象が前記第1の状態であると推定された場合、前記自機の行動として、着陸することを決定する
    請求項2に記載の無人航空機。
  7. 前記行動決定部は、前記認識対象が前記第4の状態であると推定された場合、前記自機の行動として、ホバリングを行うことを決定する
    請求項2に記載の無人航空機。
  8. 前記状態推定部は、前記カメラ画像を、あらかじめ前記認識対象の状態に対応するラベルが付与されたラベル付き画像と照合することで、前記認識対象の状態を推定する
    請求項2に記載の無人航空機。
  9. 前記状態推定部は、前記カメラ画像を、前記第2の状態または前記第3の状態に対応する前記ラベル付き画像と照合することで、前記認識対象が前記第2の状態または前記第3の状態であることを推定する
    請求項8に記載の無人航空機。
  10. 前記状態推定部は、照合の結果、前記カメラ画像が、前記第2の状態および前記第3の状態に対応する前記ラベル付き画像とマッチングしない場合、前記認識対象が前記第4の状態であることを推定する
    請求項8に記載の無人航空機。
  11. 前記状態推定部は、3次元地図情報に基づいて、前記認識対象の動きを検出することで、前記認識対象の状態を推定する
    請求項8に記載の無人航空機。
  12. 前記状態推定部は、前記認識対象の動きが検出された場合、前記カメラ画像を前記ラベル付き画像と照合することで、前記認識対象の状態を推定する
    請求項11に記載の無人航空機。
  13. 前記状態推定部は、前記認識対象の動きが検出されなかった場合、前記認識対象が前記第4の状態であることを推定する
    請求項11に記載の無人航空機。
  14. 前記状態推定部は、前記モータの駆動信号に基づいた前記自機の位置と、自己位置の推定結果との差を検出することで、前記認識対象の状態を推定する
    請求項8に記載の無人航空機。
  15. 前記状態推定部は、前記自機の位置と前記自己位置の推定結果との差が所定の距離より小さい場合、3次元地図情報に基づいて、前記認識対象の動きを検出することで、前記認識対象の状態を推定する
    請求項14に記載の無人航空機。
  16. 前記状態推定部は、前記自機の位置と前記自己位置の推定結果との差が所定の距離より大きい場合、前記認識対象が前記第1の状態であることを推定する
    請求項14に記載の無人航空機。
  17. 無人航空機が、
    カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定し、
    推定された前記認識対象の状態に応じて、自機の行動を決定する
    制御方法。
  18. コンピュータに、
    カメラにより認識対象が撮影されるカメラ画像と、飛行のためのモータの駆動信号の少なくともいずれかに基づいて、前記認識対象の状態を推定し、
    推定された前記認識対象の状態に応じて、無人航空機の行動を決定する
    処理を実行させるためのプログラム。
JP2019169095A 2019-09-18 2019-09-18 無人航空機、制御方法、およびプログラム Pending JP2021046058A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2019169095A JP2021046058A (ja) 2019-09-18 2019-09-18 無人航空機、制御方法、およびプログラム
US17/753,641 US20240046648A1 (en) 2019-09-18 2020-09-07 Crewless aircraft, control method, and program
PCT/JP2020/033790 WO2021054178A1 (ja) 2019-09-18 2020-09-07 無人航空機、制御方法、およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019169095A JP2021046058A (ja) 2019-09-18 2019-09-18 無人航空機、制御方法、およびプログラム

Publications (1)

Publication Number Publication Date
JP2021046058A true JP2021046058A (ja) 2021-03-25

Family

ID=74877530

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019169095A Pending JP2021046058A (ja) 2019-09-18 2019-09-18 無人航空機、制御方法、およびプログラム

Country Status (3)

Country Link
US (1) US20240046648A1 (ja)
JP (1) JP2021046058A (ja)
WO (1) WO2021054178A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157472A1 (ja) * 2022-02-17 2023-08-24 株式会社Nttドコモ 制御装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9643722B1 (en) * 2014-02-28 2017-05-09 Lucas J. Myslinski Drone device security system
JP2017056903A (ja) * 2015-09-18 2017-03-23 アイシン・エィ・ダブリュ株式会社 無人飛行体の制御システム、制御方法及び制御プログラム
US10510261B2 (en) * 2016-05-31 2019-12-17 Optim Corporation Application and method for controlling flight of uninhabited airborne vehicle
US10604257B2 (en) * 2016-06-28 2020-03-31 International Business Machines Corporation Unmanned aerial vehicle for air sampling
JP6727525B2 (ja) * 2018-02-28 2020-07-22 株式会社ナイルワークス ドローン、ドローンの制御方法、および、ドローン制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023157472A1 (ja) * 2022-02-17 2023-08-24 株式会社Nttドコモ 制御装置

Also Published As

Publication number Publication date
US20240046648A1 (en) 2024-02-08
WO2021054178A1 (ja) 2021-03-25

Similar Documents

Publication Publication Date Title
JP7456537B2 (ja) 飛行体制御装置、飛行体制御方法、及びプログラム
EP3521158B1 (en) Flight control device, unmanned aerial vehicle, flight control method, and computer program
CN108885469B (zh) 用于在跟踪系统中初始化目标物体的系统和方法
US10945070B2 (en) Unmanned aircraft, information processing method, and recording medium
JP6821529B2 (ja) 管理装置、プログラム及び管理方法
WO2018027210A1 (en) Mobile platform eg drone / uav performing localization and mapping using video
JP6140458B2 (ja) 自律移動ロボット
US10589861B2 (en) Drone control system, method, and program
Mehanovic et al. Autonomous thrust-assisted perching of a fixed-wing uav on vertical surfaces
CN110673633B (zh) 一种基于改进apf的电力巡检无人机路径规划方法
KR102199680B1 (ko) 자율 착륙을 위한 드론 제어 방법 및 장치
WO2021054178A1 (ja) 無人航空機、制御方法、およびプログラム
WO2020110400A1 (ja) 無人飛行体、制御方法及びプログラム
Arreola et al. Object recognition and tracking using Haar-like Features Cascade Classifiers: Application to a quad-rotor UAV
JP2014123304A (ja) 自律移動ロボット
KR20190007632A (ko) 3차원 지도를 작성하여 사물 위치를 인지하는 운반용 드론
US20240051689A1 (en) Fishing system
Pope et al. Thrust-assisted perching and climbing for a bioinspired UAV
JP7231996B2 (ja) 情報処理方法および情報処理システム
JP2017206072A (ja) 飛行制御装置及び飛行制御方法
KR20180081644A (ko) 생체 모방 기법을 활용한 드론 회피 기동 방법
US11986959B2 (en) Information processing device, action decision method and program
KR102300348B1 (ko) 실시간 이미지 분석을 기반으로 현장 상황을 공유하는 무인 항공기, 및 제어 방법
US20190129423A1 (en) Dynamic impact detection
JP7028247B2 (ja) 飛行体、飛行体制御装置、飛行体制御方法および飛行体制御プログラム