JP7465615B2 - 航空機のスマート着陸 - Google Patents

航空機のスマート着陸 Download PDF

Info

Publication number
JP7465615B2
JP7465615B2 JP2022145979A JP2022145979A JP7465615B2 JP 7465615 B2 JP7465615 B2 JP 7465615B2 JP 2022145979 A JP2022145979 A JP 2022145979A JP 2022145979 A JP2022145979 A JP 2022145979A JP 7465615 B2 JP7465615 B2 JP 7465615B2
Authority
JP
Japan
Prior art keywords
uav
landing
manned aircraft
physical environment
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022145979A
Other languages
English (en)
Other versions
JP2022184945A (ja
Inventor
マリー ホルツ,クリステン
マーティロスヤン,ハイク
ルイス ジュ,ジャック
パーカー ブライ,アダム
ジョーゼフ ドナフー,マシュー
ガルトン バクラック,エイブラハム
ベンジャミン ヘンリー,ピーター
デイビッド ケネディ,ライアン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Skydio Inc
Original Assignee
Skydio Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Skydio Inc filed Critical Skydio Inc
Publication of JP2022184945A publication Critical patent/JP2022184945A/ja
Application granted granted Critical
Publication of JP7465615B2 publication Critical patent/JP7465615B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements
    • B64U70/90Launching from or landing on platforms
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/40Scenes; Scene-specific elements in video content
    • G06V20/41Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/10Rotorcrafts
    • B64U10/13Flying platforms
    • B64U10/14Flying platforms with four distinct rotor axes, e.g. quadcopters
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/20Remote controls
    • B64U2201/202Remote controls using tethers for connecting to ground station
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/30Supply or distribution of electrical power
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U50/00Propulsion; Power supply
    • B64U50/30Supply or distribution of electrical power
    • B64U50/34In-flight charging
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U70/00Launching, take-off or landing arrangements

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Remote Sensing (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computational Linguistics (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Traffic Control Systems (AREA)

Description

関連出願の相互参照
本出願は、2018年2月9日に出願された「無人航空機スマート着陸」という題名の米国仮出願第62/628,871号(代理人整理番号113391-8012.US00)の利益及び/又は優先権を享受する権利を有し、その内容は全ての目的のためにその全体が参照により本明細書に組み込まれる。したがって、本出願は、2018年2月9日の優先日を享受する権利を有する。
技術分野
本開示は、概して、自律輸送機械技術に関する。
輸送機械は、物理環境を自律的にナビゲートするように構成することができる。例えば、様々な車載センサを備えた自律輸送機械は、周囲の物理環境に基づいて知覚入力を生成し、それらの知覚入力を、物理環境内の自律輸送機械の位置及び/又は方向を推定するために使用するよう構成され得る。そして、自律型ナビゲーションシステムは、それらの位置及び/又は方向の推定値を利用して、自律輸送機械を物理環境中において案内することができる。
概観
無人航空機(UAV)による継続的な飛行を安全でないか望ましくないものとしかねない、様々な状況が存在する。例えば、UAVに搭載されているバッテリの充電が低下している可能性や、特定のシステム(視覚ナビゲーション用のシステム等)が正しく動作していない可能性がある。名目上のユースケースであっても、UAVは、通常の飛行中において、電力がなくなる前に制御された降下及び着陸を完了するのがやっとの電荷しかバッテリ内に残っていないポイントに到達するかもしれない。どのような状況であっても、UAVによる自律着陸が必要になる可能性がある。
UAVによる自律スマート着陸を可能にする技術が提示される。いくつかの実施形態では、提示の技術は、UAV(又は、関連する自律ナビゲーションシステム)が、利用可能な情報を利用して着陸のための安全な場所を選択することを可能にする。そのような着陸のための安全な場所は、1)人への接触及び/又は傷害を回避する、2)UAV自体を含む全ての資産への接触や損傷を回避する、及び/又は、3)ユーザにとって便利又は望ましく、該ユーザの特定のユースケースである。いくつかの実施形態では、UAVは、着陸のためにUAVにとって現在見えている地面の最も平坦な領域を選択する、ジオメトリ的スマート着陸を実行するように構成されてもよい。いくつかの実施形態は、上記の要件を満たす(可能な限り近くの)着陸地点を選択するために、周囲の物理環境の意味知識を組み込むことに関与していてもよい。いくつかの実施形態では、UAVは、着陸選択プロセスを訓練するために、ユーザに案内又は制御された着陸中に情報を収集するように構成されてもよい。
図1は、本明細書に記載の所定の技術が適用され得る、無人航空機(UAV)の形態における自律輸送機械の例示的な構成を示す。
図2は、図1のUAVによって実装され得る、例示的なナビゲーションシステムのブロック図を示す。
図3Aは、図2のナビゲーションシステムの一部であり得る、例示的な運動計画システムのブロック図を示す。
図3Bは、図3Aに示される運動計画システムに組み込まれ得る、例示的な目標を表すブロック図を示す。
図4は、UAVによる自律着陸のための例示的なプロセスのフローチャートである。
図5Aは、飛行中のUAVによって生成された例示的な地面マップを示す。
図5Bは、図5Aの地面マップに含まれる例示的なフットプリントを示す。
図6は、地面の上方を飛行中のUAVの立面図を示す。
図7Aは、ジオメトリ的スマート着陸技術を使用したUAVによる自律着陸のための例示的なプロセスのフローチャートである。
図7Bは、新しい点に基づいて所与のセルの統計値を更新する際に、セル内の古い点をダウンウェイトするための例示的なプロセスのフローチャートである。
図8Aは、様々なオブジェクトが配置された物理環境上を飛行中のUAVを示す。
図8Bは、図8Aに示される様々なオブジェクトに基づいて追加された意味情報を有する例示的な地面マップを示す。
図9は、意味論的スマート着陸技術を使用したUAVによる自律着陸のための例示的なプロセスのフローチャートである。
図10は、UAVの運転状態に基づいてUAVを着陸させるための例示的なプロセスのフローチャートである。
図11Aは、スマート着陸が不可能であるとの決定に応答して、制御された降下を開始するための例示的なプロセスのフローチャートである。 図11Bは、スマート着陸が不可能であるとの決定に応答して、制御された降下を開始するための例示的なプロセスのフローチャートである。
図12は、本開示に記載の少なくともいくつかの操作が実装され得る、例示的な位置特定システムの図である。
図13は、キャプチャされた画像に基づく視覚オドメトリの概念を示す図である。
図14は、物理環境の三次元(3D)占有マップの例示的な図である。
図15は、キャプチャされた画像の処理に基づいて追跡されるオブジェクトに関するデータの関連付けられた視覚化を伴う、物理環境中を飛行中のUAVによってキャプチャされた例示的な画像である。
図16は、UAVによってキャプチャされた複数の画像に基づいてオブジェクトの軌道を推定するための例示的なプロセスを示す図である。
図17は、例示的な時空間因子グラフの図表示である。
図18は、追跡されるオブジェクトが後にキャプチャされる画像のどこに現れるかについてのインテリジェントな初期推定を生成する例示的なプロセスを示す図である。
図19は、キャプチャされた画像の密なピクセル毎セグメンテーションを表す視覚化を示す。
図20は、キャプチャされた画像のインスタンスセグメンテーションを表す視覚化を示す。
図21は、本開示に記載の少なくともいくつかの動作が実装され得る様々な機能システムコンポーネントを含む、例示的なUAVシステムのブロック図である。
図22は、本開示に記載の少なくともいくつかの動作が実装され得る、例示的な処理システムのブロック図である。
無人航空機の実装例
図1は、本明細書に記載の所定の技術が適用され得る、UAV100の例示的な構成を示す。図1に示すように、UAV100は、ロータベースの航空機(例えば、「クワッドコプター」)として構成されてもよいが、他の提示の技術は、固定翼航空機などの他のタイプのUAVにおいて同様に適用され得る。例示的なUAV100は、制御された飛行を維持するための制御アクチュエータ110を含む。制御アクチュエータ110は、UAVの構成に応じて、推進システム(例えば、ロータ)、及び/又は、1つ以上の操縦翼面(例えば、フラップ、補助翼、方向舵等)を含む又はそれらに関連し得る。図1に示される例示的なUAV100は、電子ロータの形態である制御アクチュエータ110を含み、この制御アクチュエータ110は、UAV100の推進システムを含む。UAV100はまた、自動ナビゲーション及び飛行制御112のための様々なセンサと、飛行中に周囲の物理環境の画像をキャプチャするための1つ以上の画像キャプチャデバイス114及び115とを含む。この文脈における「画像」は、静止画像とキャプチャされたビデオとの両方を含む。図1には示されていないが、UAV100はまた、無線通信チャネル116を介して、モバイルデバイス104等の他のデバイスと通信するための他のセンサ(例えば、オーディオをキャプチャするためのセンサ)及びシステムを含んでいてもよい。
図1に示される例では、画像キャプチャデバイス114及び/又は115は、偶然人であった物理環境内のオブジェクト102をキャプチャするように示されている。いくつかの場合では、画像キャプチャデバイスは、ユーザに対して(例えば、空中ビデオプラットフォームとして)表示するための画像をキャプチャするように構成されてもよく、及び/又は、上述のように、自律ナビゲーションにおいて使用するための画像をキャプチャするように構成されてもよい。換言すれば、UAV100は、例えば、任意の1つ以上の画像キャプチャデバイスによってキャプチャされた画像を処理することによって、自律的に(すなわち、直接的な人間の制御なしで)物理環境をナビゲートしてもよい。自律飛行している間に、UAV100はまた、任意の1つ以上の画像キャプチャデバイスを使用して画像をキャプチャすることも可能であり、それらの画像は、リアルタイムで表示したり、後に他のデバイス(例えば、モバイルデバイス104)にて表示するために記録したりすることができる。
図1は、それぞれ異なる目的のために構成された複数の画像キャプチャデバイスを備えたUAV100の例示的な構成を示す。図1に示す例示的な構成では、UAV100は、UAV100の周囲に配置された複数の画像キャプチャデバイス114を含む。画像キャプチャデバイス114は、UAV100による自律飛行の案内において視覚ナビゲーションシステムによって使用される、及び/又は、(例えば、図2に関して説明されるような)物理環境内の他のオブジェクトを追跡するための追跡システムによって使用される画像をキャプチャするように構成されてもよい。具体的には、図1に示すUAV100の例示的な構成は、UAV100の周りに360度最大限の立体画像キャプチャを提供するようにUAV100の周囲に配置された、複数の立体画像キャプチャデバイス114のアレイを含む。
画像キャプチャデバイス114のアレイに加えて、図1に示すUAV100はまた、画像をキャプチャするように構成された別の画像キャプチャデバイス115を含む。この画像キャプチャデバイス115によってキャプチャされる画像は、ナビゲーションのために表示されるが、必ずしもナビゲーションのために使用される必要はない。いくつかの実施形態では、画像キャプチャデバイス115は、キャプチャされた画像の利用方法を除いて、画像キャプチャデバイス114と同様であってもよい。しかしながら、他の実施形態では、画像キャプチャデバイス115及び114は、それぞれの役割に適合するように、異なって構成されてもよい。
多くの場合では、所定のハードウェア及びソフトウェアの制約があるとすると、一般的に、見られることが意図された画像を可能な限り高い解像度でキャプチャすることが好ましい。一方で、視覚ナビゲーションやオブジェクト追跡に使用する場合、所定の状況では、処理負荷を軽減してより堅牢なモーションプランニング性能を提供するために、低解像度の画像が望ましい場合がある。したがって、いくつかの実施形態では、画像キャプチャデバイス115は、比較的高い解像度(例えば、3840×2160)のカラー画像をキャプチャするように構成されてもよく、一方で、画像キャプチャデバイス114は、比較的低い解像度(例えば、320×240)のグレースケール画像をキャプチャするように構成されてもよい。
UAV100は、画像キャプチャデバイス114及び/又は115を介して受信された画像に基づいて、人間の対象102等の1つ以上のオブジェクトを物理環境中で追跡するように構成され得る。さらに、UAV100は、そのようなオブジェクトの画像キャプチャを、例えば撮影の目的で追跡するように構成することができる。いくつかの実施形態では、画像キャプチャデバイス115は、UAV100の本体に対する運動の1つ以上の自由度を与える調整可能な機構を介して、UAV100の本体に結合される。UAV100は、UAV100及びオブジェクトの両方が物理環境中を動いている際に、画像キャプチャデバイス115の向きを、オブジェクト(例えば、人間の対象102)の画像キャプチャを追跡するように自動的に調整するよう構成されてもよい。いくつかの実施形態では、この調整可能な機構は、取り付けられた画像キャプチャデバイスを1つ以上の軸を中心に回転させる機械的ジンバル機構を含んでいてもよい。いくつかの実施形態では、ジンバル機構は、画像キャプチャデバイス115をUAV100の本体に結合するハイブリッド機械的デジタルジンバルシステムとして構成されてもよい。ハイブリッド機械的デジタルジンバルシステムでは、画像キャプチャデバイス115の1つ以上の軸回りの向きが機械的手段によって調整されてもよく、一方で、他の軸回りの向きがデジタル手段によって調整されてもよい。例えば、機械的ジンバル機構は、画像キャプチャデバイス115のピッチにおける調整を取り扱ってもよく、一方で、ロール及びヨーの調整は、UAV100に対する画像キャプチャデバイス115の運動の少なくとも3自由度を効果的に提供するために、キャプチャされた画像を変換する(例えば、回転する、パンする等)ことによってデジタルで達成される。
モバイルデバイス104は、ラップトップコンピュータ、テーブルコンピュータ(例えば、Apple iPad(登録商標)、携帯電話、スマートフォン(例えば、Apple iPhone(登録商標)、手持ち式ゲームデバイス(例えば、Nintendo Switch(登録商標)、単機能リモートコントロールデバイス等の任意のタイプのモバイルデバイス、又は、ユーザ入力を受信し、(例えば、ユーザ入力に基づいて)伝送のための信号をUAV100へと送信し、及び/若しくは、(例えば、UAV100によって収集されたセンサデータに基づいて)ユーザに対して情報を提示することが可能な任意の他のタイプのデバイスを含んでいてもよい。いくつかの実施形態では、モバイルデバイス104は、タッチスクリーンディスプレイと、ユーザ入力を受信して情報を提示するための関連するグラフィカルユーザインタフェース(GUI)とを含んでいてもよい。いくつかの実施形態では、モバイルデバイス104は、センサデータを収集可能な様々なセンサ(例えば、画像キャプチャデバイス、加速度計、ジャイロスコープ、GPS受信機等)を含んでいてもよい。いくつかの実施形態では、そのようなセンサデータは、例えばUAV100の搭載ナビゲーションシステムによって使用されるために、UAV100に伝達され得る。
図2は、図1に関して記載された例示的なUAV100の一部として実装され得る、例示的なナビゲーションシステム120を表すブロック図である。ナビゲーションシステム120は、任意の組み合わせのハードウェア及び/又はソフトウェアを含んでいてもよい。例えば、いくつかの実施形態では、ナビゲーションシステム120及び関連するサブシステムは、メモリに格納されて1つ以上のプロセッサによって実行可能な命令として実装されてもよい。
図2に示すように、例示的なナビゲーションシステム120は、UAV100を物理環境中において自律的に操縦するためのモーションプランナ130(本明細書では、「モーションプランニングシステム」とも称される)と、物理環境内の1つ以上のオブジェクトを追跡するための追跡システム140と、本明細書に記載のスマート着陸技術を実行するための着陸システム150とを含む。なお、図2に示したシステムの構成は、例示の目的で提供された例であり、限定するものとして解釈されるべきではない。例えば、いくつかの実施形態では、追跡システム140及び/又は着陸システム150は、ナビゲーションシステム120から分離されていてもよい。さらに、ナビゲーションシステム120を構成するサブシステムは、図2に示されるように論理的に分離されていなくてもよく、その代わりに単一の統合ナビゲーションシステムとして効果的に動作してもよい。
いくつかの実施形態では、モーションプランナ130は、別個に又は追跡システム140と連携して動作し、例えば、画像キャプチャデバイス114及び/若しくは115から受信された画像、他のセンサ112(例えば、IMU、GPS、近接センサ等)からのデータ並びに/又は1つ以上の制御入力170に基づいて、物理環境の3次元(3D)空間中に計画軌道を生成するように構成される。制御入力170は、ユーザによって操作されるモバイルデバイス等の外部ソースからのものであってもよく、UAVに搭載された他のシステムからのものであってもよい。
いくつかの実施形態では、ナビゲーションシステム120は、モーションプランナ130によって生成された計画軌道に沿ってUAV100を操縦させるように構成された制御コマンドを生成してもよい。例えば、制御コマンドは、UAV100を計画された3D軌道に沿って操縦させるように1つ以上の制御アクチュエータ110(例えば、ロータ及び/又は操縦翼面)を制御するよう構成され得る。あるいは、モーションプランナ130によって生成された計画軌道は、軌道情報を処理して、1つ以上の制御アクチュエータ110を制御するように構成された適切な制御コマンドを生成するように構成された別個の飛行コントローラ160へと出力されてもよい。
追跡システム140は、別個に又はモーションプランナ130と連携して動作し、例えば、画像キャプチャデバイス114及び/若しくは115から受信された画像、他のセンサ112(例えば、IMU、GPS、近接センサ等)からのデータ、外部ソース(例えば、リモートユーザ、ナビゲーションアプリケーション等)からの1つ以上の制御入力170、並びに/又は、特定の1つ以上の指示された追跡目標に基づいて、物理環境内の1つ以上のオブジェクトを追跡するように構成されてもよい。追跡目標は、例えば、物理環境内において特定の検出されたオブジェクトを追跡するとのユーザによる指定、又は特定の分類のオブジェクト(例えば、人々)を追跡するとの持続的目標を含んでいてもよい。
上記にて言及したように、追跡システム140は、例えば、物理環境内のオブジェクトの測定、推定及び/又は予測された位置、向き及び/又は軌道に基づいてUAV100を操縦するように、モーションプランナ130に伝達してもよい。例えば、追跡システム140は、運動中の追跡されるオブジェクトまでの特定の離隔距離を維持するように、ナビゲーション目標をモーションプランナ130に伝達してもよい。
いくつかの実施形態では、追跡システム140は、別個に又はモーションプランナ130と連携して動作し、さらに、UAV100の本体に対する任意の画像キャプチャデバイス114/115の向きを、1つ以上のオブジェクトの追跡に基づいて機構に調整させるよう構成された、制御コマンドを生成するように構成される。そのような機構は、前述のように、機械的ジンバル又はハイブリッドデジタル機械的ジンバルを含んでいてもよい。例えば、UAV100に対して相対的に運動中のオブジェクトを追跡している間に、追跡システム140は、画像キャプチャデバイス115の向きを、追跡されるオブジェクトをUAV100が運動中に画像キャプチャデバイス115の視野(FOV)の中心に保持するように調整するよう構成された、制御コマンドを生成してもよい。同様に、追跡システム140は、追跡されるオブジェクトをUAV100が運動中の画像キャプチャデバイス115のFOVの中心に保持するために画像キャプチャデバイス115によってキャプチャされた画像を変換するよう、デジタル画像プロセッサ(例えば、ハイブリッドデジタル機械的ジンバルの一部である)へのコマンド又は出力データを生成してもよい。
着陸システム150は、別個に又はモーションプランナ130と連携して動作し、着陸手順をいつ(例えば、ユーザコマンドに応答して、又は、低バッテリ等の検出されたイベントに応答して)開始するか、着陸場所をいつ(例えば、画像キャプチャデバイス114及び/又は115から受信した画像及び/又は他のセンサ112(例えば、IMU、GPS、近接センサなど)からのデータに基づいて)識別するか、及び、UAVに選択された場所にて着陸させるように構成された制御コマンドをいつ生成するかを決定するよう構成されもよい。なお、いくつかの実施形態では、着陸システム150は、出力を着陸目標の形態で生成して該着陸目標をモーションプランナ130へと入力するように構成されるが、モーションプランナ130では、該着陸目標は、UAVを自律的に着陸させるための他の目標(例えば、他のオブジェクトとの衝突を回避すること)と併せて利用されることに留意されたい。
いくつかの実施形態では、ナビゲーションシステム120(例えば、具体的には運動計画コンポーネント130)は、任意の所与の時間にて、UAV100の自律行動を案内するために使用可能な計画軌道等の出力を生成するための複数の目標を組み込むように構成される。例えば、障害物の回避や輸送機械動態の制限等の所定の組み込み済目標は、軌道生成プロセスの一部として他の入力目標(例えば、着陸目標)と組み合わせられ得る。いくつかの実施形態では、軌道生成プロセスは、勾配に基づく最適化、勾配なしの最適化、サンプリング、エンドツーエンド学習又はそれらの任意の組み合わせを含み得る。この軌道生成プロセスの出力は、ある時間軸(例えば、10秒)にわたる計画軌道であることができ、該計画軌道に従ってUAV100を操縦する制御コマンドを生成するために、飛行コントローラ160によって解釈及び利用されるように構成される。モーションプランナ130は、新しい知覚入力(例えば、画像又は他のセンサデータ)及び目標入力が受信された際に、軌跡生成プロセスを継続的に実行してもよい。したがって、計画軌道は、ある時間軸にわたって継続的に更新されてもよく、それによって、変化していく条件にUAV100が動的かつ自律的に応答できるようになる。
図3Aは、目標に基づく運動計画のための例示的なシステムを表すブロック図を示す。図3Aに示すように、(例えば、図2に関して論じられるような)モーションプランナ130は、1つ以上の目標(例えば、前述のような目標)及び/又はより多くの知覚入力306に関与する軌道生成プロセスに基づいて、計画軌道320を生成して継続的に更新してもよい。知覚入力306は、1つ以上の画像キャプチャデバイス114/115から受信された画像、そのような画像(例えば、視差画像又は深度値)の処理結果、及び/又は、UAV100に搭載された若しくはUAV100と通信する他のコンピューティングデバイス(例えば、モバイルデバイス104)に関連付けられた1つ以上の他のセンサ112からのセンサデータを含んでいてもよい。モーション計画プロセスにおいて利用される1つ以上の目標302は、高レベルの行動(例えば、他のオブジェクトとの衝突の回避、ここで説明するスマート着陸テクニックなど)を統御する組み込み済目標、及び、(ユーザから等の)(複数の)制御入力308に基づく目標を含んでいてもよい。目標302のそれぞれは、1つ以上の目標を満たすように計画軌道を生成する際にモーションプランナ130によって利用される1つ以上のモーション計画方程式内に組み込むための1つ以上の方程式としてエンコードされてもよい。制御入力308は、ユーザからの制御コマンドの形態であってもよく、追跡システム140及び/又はスマート着陸システム150等のナビゲーションシステム120の他のコンポーネントからの制御コマンドの形態であってもよい。いくつかの実施形態では、そのような入力は、ナビゲーションシステム120に関連付けられたアプリケーションプログラミングインタフェース(API)への呼び出しの形態で受信される。いくつかの実施形態では、制御入力308は、追跡システム140又は着陸システム150等のナビゲーションシステム120の他のコンポーネントによって生成された所定の目標を含んでいてもよい。
モーション計画プロセスにおいて利用される1つ以上の目標302のセットにおける所与の目標のそれぞれは、APIを通じて公開される1つ以上の定義されたパラメータ化を含んでいてもよい。例えば、図3Bは、例示的な目標332を示しており、例示的な目標332は、ターゲット334、デッドゾーン336、重み係数338及び他のパラメータ340を含む。
ターゲット344は、計画軌道320を生成する際にモーションプランナ130が満たそうと試みる特定の目標のゴールを定義する。例えば、所与の目標のターゲット334は、1つ以上の検出されたオブジェクトに視線を維持すること、又は、物理環境内の特定の位置へと飛行することであってもよい。
デッドゾーンは、モーションプランナ130が修正するための動作を行わなくてもよいターゲット334回りの領域を定義する。このデッドゾーン336は、所与のターゲット334を満たすための許容レベルと考えられてもよい。例えば、例示的な画像に対する目標におけるターゲットは、追跡されるオブジェクトがキャプチャされた画像の画像空間内の特定の位置(例えば、中心)に現れるように、追跡されるオブジェクトの画像キャプチャを維持することであってもよい。このターゲットからのわずかなずれに基づいて継続的に調整されることを回避するため、ある程度の許容差を許容するためのデッドゾーンが定義される。例えば、デッドゾーンは、画像空間のターゲット位置の周囲のy方向及びx方向に定義され得る。換言すれば、追跡されるオブジェクトが、画像におけるターゲットによって囲まれた領域内及びそれぞれのデッドゾーンに表示されている限り、目標は満たされているとみなされる。
重み係数336(「積極性」係数とも称される)は、特定の目標332がモーションプランナ130によって実行される全体的な軌道生成プロセスに及ぼすことになる影響の相対的なレベルを定義する。特定の目標332は、競合するターゲットを含み得るいくつかの目標302のうちの1つであり得ることを思い出されたい。理想的な状況では、モーションプランナ130は、任意の所与の瞬間にて、関連する目標の全てを完全に満たすプランナ軌道320を生成する。例えば、モーションプランナ130は、追跡されるオブジェクトを追跡し、追跡されるオブジェクトの画像をキャプチャし、追跡されるオブジェクトとの視線を維持し、他のオブジェクトとの衝突を回避しつつ、UAV100を特定のGPS座標に操縦する計画軌道を生成してもよい。実際には、そのような理想的な状況はまれであるかもしれない。したがって、モーションプランナシステム130は、(任意の数の理由で)両方を満たすことが不可能又は非実用的である際には、ある目標を別の目標よりも優先する必要があり得る。目標302のそれぞれの重み係数は、それらがモーションプランナ130によってどのように考慮されるかを定義する。
例示的な実施形態では、重み係数は、0.0~1.0のスケールの数値である。特定の目標についての値0.0は、モーションプランナ130が(必要な場合に)目標を完全に無視できることを示し、値1.0は、モーションプランナ130が安全な飛行を維持しながら目標を満たすために最大限の取り組みをすることを示す。値0.0は、同様に、非アクティブな目標に関連付けられてもよく、例えば目標のアプリケーション1210によってアクティブ状態から非アクティブ状態へと切り替わることに応答して、ゼロに設定されてもよい。キャプチャされた画像の視覚的顕著性を維持する等の主観的又は審美的なターゲットに基づく所定の目標に対しては、低い重み係数値(例えば、0.0~0.4)が設定されてもよい。逆に、別のオブジェクトとの衝突を回避する等のより重要な目標に対しては、より高い重み係数値(例えば、0.5~1.0)が設定されてもよい。
いくつかの実施形態では、UAV100が飛行している間に計画軌道が継続的に更新されるため、重み係数値338は静的なままであってもよい。あるいは又はこれに加えて、所定の目標の重み係数は、UAV100が飛行している間に変化する条件に基づいて、動的に変化してもよい。例えば、キャプチャされた画像内における(例えば、光量が少ない条件であることに起因する)不確実な深度値の計算に関連付けられた領域を回避するための目標は、UAV100の安全な運転に対する他の知覚された脅威に基づいて増減する可変の重み係数を有していてもよい。いくつかの実施形態では、目標は、その目標がどのように適用されるかに応じて変化する複数の重み係数値に関連付けられてもよい。例えば、衝突回避目標は、回避されるべき検出されたオブジェクトのクラスに応じて、異なる重み係数を利用してもよい。図示の例として、システムは、建物又は木との衝突を回避することに対して、人又は動物との衝突を回避することをより重視するように構成されてもよい。
図1に示すUAV100及び図2に示す関連するナビゲーションシステム120は、例示の目的で提供される例である。本教示に係るUAV100は、示されたものよりも多い又は少ないコンポーネントを含んでいてもよい。さらに、図1に示すUAV100及び図2に示す関連するナビゲーションシステム120の例は、図21に関して説明される例示的なUAVシステム2100及び/又は図22に関して説明される例示的なコンピュータ処理システム2200の1つ以上のコンポーネントを含む又はその一部であり得る。例えば、前述のナビゲーションシステム120と、関連するモーションプランナ130、追跡システム140及び着陸システム150とは、UAVシステム2100及び/又はコンピュータ処理システム2200を含む又はその一部であり得る。
スマート着陸のために提示された技術は、例示を簡潔にするために、図1に示されるUAV100のような無人航空機の文脈で記載しているが、提示の手法はこの文脈に限定されない。提示の技術は、ヘリコプターなどの有人ロータクラフトや、有人又は無人の固定翼航空機等、他のタイプの航空機の着陸を案内するために同様に適用されてもよい。例えば、有人航空機は、手動制御(直接又は間接的)のコンポーネントに加えて、自律ナビゲーションコンポーネント(例えば、ナビゲーションシステム120)を含んでいてもよい。着陸シーケンス中に、航空機の制御は、手動制御コンポーネントから自動制御コンポーネントへと切り替わってもよく、その際、提示のタッチダウン検出技術が実行される。手動制御から自動制御への切り替えは、パイロット入力に応答して、及び/又は、リモート信号、環境条件、航空機の運転状態等の検出されたイベントに自動的に応答して実行される。
スマート着陸プロセス
図4は、提示の技術に係る、UAVによる自律着陸のための例示的なプロセス400のフローチャートを示す。この例示的なプロセスの1つ以上のステップは、図2に示す例示的なナビゲーションシステム120のコンポーネントのうちの任意の1つ以上によって実行されてもよい。例えば、プロセス400は、ナビゲーションシステム120の着陸システム150コンポーネントによって実行されてもよい。さらに、プロセス400の実行は、図21又は22の例示的なコンピュータシステムのコンピューティングコンポーネントのいずれかを含んでいてもよい。例えば、図4に示されるプロセス400は、メモリ内に格納された命令において表され、それらの命令は、後に処理ユニットによって実行される。図4に関して説明されたプロセス400は、例示の目的で提供される例であって、限定するものとして解釈されるべきではない。その他のプロセスは、本開示の範囲内であることを保ちつつ、示されるよりも多い又は少ないステップを含んでいてもよい。さらに、例示的なプロセスに示されるステップが、示されているものとは異なる順序で実行されてもよい。
例示的なプロセス400はまず、ステップ402にて、UAVが物理環境中を飛行している間に、搭載又は他の方法でUAVに関連付けられた1つ以上のセンサからセンサデータ(すなわち、知覚入力)を受信することによって始まる。前述のように、センサは、画像キャプチャデバイス114及び/又は115などの視覚センサ、並びに、物理環境内の所定の態様を認識するように構成された他のタイプのセンサ112を含んでいてもよい。
例示的なプロセス400は続いて、ステップ404にて、受信されたセンサデータを、物理環境の「地面マップ」を生成するように処理する。多数の潜在的な着陸エリアを効果的に評価するために、着陸システム150は、本明細書で「セル」と称される地面マップのより小さいエリアに関する情報を保持してもよい。換言すれば、地面マップは、物理環境における表面の特定の部分を表す複数のセルの配置を含んでいてもよい。セルのそれぞれは、該セルに対応する物理環境の該セル部分における知覚された特性を示すデータ(「特性データ」とも称される)に関連付けられてもよい。例えば、後でより詳細に記載するように、所与のセルについての特性データは、該セルに対応するエリア内の表面に沿った様々な点の高さに関する統計値を含んでいてもよい。特性データはまた、該セルに対応する領域内において検出された物理オブジェクトに関連付けられた意味情報を含んでいてもよい。いずれの場合においても、特性データは、ステップ402にて受信された、UAVが飛行している間にUAVによって収集されるセンサデータに主として基づいてもよいが、物理環境内のリモートセンサ、他のUAVに搭載されたセンサ、モバイルデバイス104内のセンサ、事前決定された標高値のデータベース、オブジェクトの位置等の他のデータソースからの情報によって補足されてもよい。
図5Aは、物理地表面502を含む物理環境500中を飛行中の例示的なUAV100を示す。図5Aに示すように、UAV100に関連付けられた着陸システム150は、複数のセルを含む2次元(2D)地面マップ510を保持して継続的に更新してもよい。図5Aに示す例では、地面マップ510のセルは、形状が長方形であり、幅Mセル×長さMセルの長方形2Dグリッドに配置される。地面マップ510におけるセルのこの例示的な構成は、例示の目的で提供されており、限定するものとして解釈されるべきではない。例えば、地面マップのセルは、図5Aに示されているものとは異なる形状であってもよい。さらに、地面マップ510のセルは、図5Aに示されるものとは異なるように配置されてもよい。例えば、代替となる地面マップは、幅M1セル×長さM2セル(M1がM2と等しくない)であってもよい。
いくつかの実施形態では、UAV100が物理環境502上を飛行している際に、ステップ402及び404が継続的に実行される。換言すると、UAVの飛行中に新しいセンサデータが受信されると、地面マップ510のセルのそれぞれに関連付けられた特性データが、該セルに関連付けられた物理環境502の表面の一部の特性を反映するように継続的に更新される。この文脈において「継続的」とは、所与のステップをミリ秒毎等の短い間隔で実行することを示すことがある。利用される実際の間隔は、UAV100の動作要件及び/又は着陸システム150の計算能力に依存する。
いくつかの実施形態では、地面マップ510は、UAVを中心とするものである。換言すれば、UAV100が飛行している間、地面マップ510は、UAV100の位置を基準として中心に保っているか、そうでなければ静止状態を保っている。このことは、任意の所与の瞬間において、地面マップ510は、地面マップ510の寸法に基づくUAV100の特定の範囲内の物理環境の一部に関連付けられた特性データのみを含んでいてもよいことを意味する。
特性データ(例えば、高さ統計値)を地面マップの一部(すなわち、セル)に関連付けると、後に着陸する表面上の適切な領域を選択するために必要な計算が簡略化され、それによって特性データを格納及び計算するために必要な計算リソースが削減され得ると共に、適切な着陸エリアを選択する際の待ち時間が短縮され得る。さらに、地面マップ510内のセルの配置は、利用可能なコンピューティングリソース、電力使用量等の特定の制約内に留まりつつ、UAV100の動作要件に適合するように調整され得る。例えば、値Mを増加させることによって地面マップ510の「解像度」を増加させることは、地面マップ510に対応する物理環境502の部分の特性のより正確な知覚を、着陸システム150に提供し得る。しかしながら、この解像度の増加は、セルに関連付けられた特性データを計算及び維持するために必要な計算リソースを増加させることとなり、それによって搭載システムの能力を超えたり、及び/又は、消費電力が増加したりする可能性がある。いずれの場合にも、地面マップ510の特定の構成は、動作要件と所与の制約とのバランスを取るように(設計中又はUAV100が飛行している間のいずれかの際に)調整され得る。
図4に戻って参照すると、例示的なプロセス400は続いて、ステップ406にて、1つ以上の指示された着陸基準を満たす特性データに関連付けられている地面マップ510内のセルのサブセットを含むフットプリントを識別する。本明細書で使用される場合、「フットプリント」とは、地面マップ510に含まれるセルの任意のサブセットの配置を示す。例えば、フットプリントは、地面マップ510内の単一のセルを含んでいてもよく、複数のセルの配置を含んでいてもよい。例えば、図5Bは、フットプリント512を表す強調表示されたセルのサブセットを備えた地面マップ510の図を示す。
図5Bに示される例示的なフットプリント512は、幅Nセル×長さNセル(MはNより大きい)の長方形のセル配置を含むが、フットプリントを含む実際のセルの配置は、いくつかの要因に応じて異なっていてもよい。例えば、UAV100のサイズ及び/又は形状は、そのナビゲーションシステムの精度と併せて、安全な着陸を実行するために地面の必要とされるエリアのタイプに影響を与えることになる。具体的な図示の例として、UAV100の寸法が幅2フィート×長さ2フィートの場合、地面の面積は、安全率により4平方フィートよりも大きくなければならないことになる。安全率は、例えば、着陸システム150の能力、気象条件、他のナビゲーション目標、ユーザの嗜好等に基づいて変化し得る。例えば、強風を感知したことに応答して、着陸システム150は、安全率を増加させてもよく、それによって、表面に安全に着陸するために必要なフットプリントのサイズを増加させてもよい。
さらに、例示的なフットプリント512を含むセルの配置は、長方形として示されているが、より高い解像度の地面マップを採用する他の実施形態は、UAV100の実際の形状により密に対応する、より不規則な形状を備えたフットプリントを識別してもよい。これにより、複数のフットプリント候補を評価するために要求されるコンピューティングリソースが増加する可能性があるが、狭いスペース又は不均一な地形における着陸が可能になることがある。
上述のように、フットプリントを識別するステップは、1つ以上の指示された着陸基準に対してそのフットプリントに関連付けられた特性データを評価することを含んでいてもよい。例えば、特性データが高さ統計値に関連付けられている場合、フットプリントを評価するステップは、地面マップ510の複数のセルの高さ値を集計して、分散(変化)のある閾値レベル内にある(例えば、比較的平坦な地面を示す)高さ統計値を有するセルの配置を識別することを含んでいてもよい。同様に、特性データが検出されたオブジェクトに関する意味情報に関連付けられている場合、フットプリントを評価するステップは、水域、木、岩等の危険なオブジェクトを示す意味情報を含まないセルの配置を識別することを含んでいてもよい。フットプリントを評価するステップはまた、指示された着陸パッド、舗装区域又は芝生等の安全な着陸場所を示す意味情報を含むセルの配置を識別することを含んでいてもよい。
いくつかの実施形態では、フットプリントを識別するステップは、複数のフットプリント候補を(例えば、並列で又は逐次的に)評価することと、複数のフットプリント候補から特定のフットプリント候補を選択することとを含んでいてもよく、ここで、複数のフットプリント候補のそれぞれは、地面マップ510内のセルのそれぞれ異なるサブセットを含み、少なくとも1つのセルによって(x方向及び/又はy方向に)互いにオフセットされている。いくつかの実施形態では、選択されたフットプリントは、1つ以上の指示された着陸基準を満たす着陸システム150によって評価された第1のフットプリント候補であってもよい。あるいは、着陸システム150は、特定の数のフットプリント候補を評価し、それらの候補から最良のフットプリントを、それが1つ以上の指示された着陸基準を満たしている限りにおいて選択してもよい。例えば、高さ分散の場合、着陸システム150は、それら複数の候補の中から最も低い高さ分散を備えたフットプリント候補を、その高さ分散が閾値分散レベルを下回っている限りにおいて選択してもよい。
ステップ402及び404と同様に、ステップ406にてフットプリントを識別するプロセスは、UAV100が物理環境502上を飛行している際に、継続的に実行されてもよい。換言すると、UAVの飛行中に新しいセンサデータに基づいて地面マップが更新されると、着陸システム150は、指示された1つ以上の着陸基準に対して様々なフットプリント候補を継続的に評価及び再評価してもよい。この場合も、この文脈において「継続的」とは、所与のステップをミリ秒毎等の短い間隔で再実行することを示すことがある。
フットプリントが識別されると、例示的なプロセス400は続いて、ステップ408にて、識別されたフットプリントに基づいて物理環境内の表面上の着陸エリアを指定し、ステップ410にて、UAV100を指定された着陸エリアに自律的に着陸させる。
UAV100を指定された着陸エリア上に着陸させることは、例えば、UAV100を指定された着陸エリアに自律的に着陸させるように操縦するよう構成された制御コマンドを生成することを含んでいてもよい。いくつかの実施形態では、このステップは、着陸システム150が、所定のパラメータ(例えば、着陸位置、降下速度等)を設定する着陸目標を生成し、生成された着陸目標をモーションプランナ130に入力する又はそうでなければ伝達することを含んでいてもよく、ここで、モーションプランナ130は、着陸目標を1つ以上の他の行動目標と併せて、計画軌道を生成するように処理し、この計画軌道は、その後に飛行コントローラ160によって制御コマンドを生成するように利用され得る。
ジオメトリ的スマート着陸
先に言及したように、所定の実施形態では、着陸システム150は、着陸が要求された又は必要であるとの決定に応答して、地面の最も平坦な領域を選択するように構成されてもよい。以下で説明する技術はジオメトリ的スマート着陸と称され、所与の領域において観測される全ての点についての高さ(z)の分散が、その領域の平坦度に反比例するという前提に依拠している。例えば、図6は、地面602の上方を飛行中のUAV100の立面図を示す。図6に示すように、エリアA内の地面に沿った様々な点の高さ(z)の分散は、エリアA内の地面の傾斜のため、エリアB内の地面に沿った様々な点の高さ(z)の分散よりも大きい。この観察に基づいて、エリアBは、UAV100の着陸にはエリアAよりも好ましいと推測され得る。以下に記載のジオメトリ的スマート着陸技術は、後に論じる意味論的スマート着陸技術の代わりに又はそれに加えて実行されてもよい。
ジオメトリ的スマート着陸-分散データの計算及び維持
先に論じたように、高さ統計値等の特性データは、例えば図5A~5Bに関して記載したように、1つ以上のセンサから受信されたセンサデータに基づいて継続的に更新される地面マップ内の複数のセルについて生成及び維持され得る。地面マップ内の様々なセルについての高さ統計値を使用して、着陸システム150は、ある指示された基準(例えば、閾値レベル未満)を満たす高さ分散を伴うフットプリントを識別してもよい。
図7Aは、ジオメトリ的スマート着陸技術を使用したUAVによる自律着陸のための例示的なプロセス700aのフローチャートを示す。図4の例示的なプロセス400と同様に、例示的なプロセス700aの1つ以上のステップは、図2に示す例示的なナビゲーションシステム120のコンポーネントのうちの任意の1つ以上によって実行されてもよい。例えば、プロセス700aは、ナビゲーションシステム120の着陸システム150コンポーネントによって実行されてもよい。さらに、プロセス700aの実行は、図21又は22の例示的なコンピュータシステムのコンピューティングコンポーネントのいずれかを含んでいてもよい。例えば、プロセス700aは、メモリに格納された命令で表され、それらの命令は、後に処理ユニットによって実行される。図7Aに関して説明されたプロセス700aは、例示の目的で提供された例であって、限定するものとして解釈されるべきではない。その他のプロセスは、本開示の範囲内であることを保ちつつ、示されるよりも多い又は少ないステップを含んでいてもよい。さらに、例示的なプロセスに示されるステップが、示されているものとは異なる順序で実行されてもよい。
例示的なプロセス700aはまず、例えば、例示的なプロセス400のステップ402に記載されているように、ステップ702にて、UAV100に搭載されたセンサからセンサデータを受信することによって始まる。図示の例では、UAV100に搭載されたセンサは、UAV100が物理環境中を飛行している間に地面の画像をキャプチャするように構成された下向きの立体カメラを含む。この下向きの立体カメラは、例えば、前述の画像キャプチャデバイス114を含む立体ナビゲーションカメラのアレイの一部であってもよい。
ステップ704では、受信されたセンサデータは、物理環境内の表面(例えば、地面)に沿った複数の点における高さ値を示すデータ点を決定する(すなわち、生成する)ように処理される。この文脈において、高さ値とは、表面に沿った点とUAV100の位置との間の相対的な垂直距離を示すことがある。高さ値はまた、該表面に沿った点の、海面等の他の基準フレームに対する垂直位置(すなわち、海抜)を示してもよい。
ステップ704a及び704bは、下向きの立体カメラからキャプチャされた画像に基づいてデータ点を決定するための例示的なサブプロセスを記載する。ステップ704にて、画像キャプチャデバイス(例えば、立体カメラ)によってキャプチャされた画像は、視差画像を生成するように処理される。本明細書で使用される場合、「視差画像」は、2つ以上の対応する画像間の視差を表す画像である。例えば、立体画像キャプチャデバイスによってキャプチャされた画像のステレオペア(例えば、左画像及び右画像)は、立体画像キャプチャデバイスに関連付けられた2つ以上のカメラの位置のわずかな違いによって、固有のオフセットを表すことになる。このオフセットにもかかわらず、1つの画像内に表示されるオブジェクトの少なくともいくつかは、他の画像にも現れる。しかしながら、そのようなオブジェクトに対応するピクセルの画像位置は、異なるものとなる。一方の画像のピクセルを他方の対応するピクセルと照合し、これらの対応するピクセル間の距離を計算することによって、距離計算に基づくピクセル値を備えた視差画像が生成され得る。換言すると、視差画像内の各ピクセルは、画像キャプチャデバイスから物理環境内の表面等のキャプチャされた物理オブジェクトまでの距離を示す値(例えば、高さ値)に関連付けられてもよい。
いくつかの実施形態では、サブプロセスは続いて、ステップ706bにて、生成された視差画像内のピクセルを、物理環境内の表面(例えば、地面)に沿った点に対応する空間内の3D点に、その点に関連付けられた高さ(z)値を解決するようにマッピングしてもよい。好ましい実施形態は、立体カメラ等の視覚センサを使用して高さ情報をキャプチャすることに依拠しているが、他のタイプのセンサもまた同様にされてもよい。例えば、UAV100は、高さデータを収集するためにUAVの下方の地面を継続的にスキャンするため、LIDAR等の下向きの距離センサを装備していてもよい。
例示的なプロセス700aは続いて、例えば、プロセス400のステップ404に関して記載したものと同様に、ステップ706にて、地面マップを生成する。ステップ706a及び706bは、UAV100が物理環境中を飛行中に、地面マップを生成して継続的に更新するために特定のセルに高さ値を追加するための例示的なサブプロセスを記載する。例えば、ステップ706aでは、生成されたデータ点に基づく高さ値が、地面マップ内の対応するセルに「追加」される。いくつかの実施形態では、高さ値を追加するこのステップは、例えば、どのセルがデータ点に対応する空間内の3D点に重なるかを決定する(すなわち、x及びy方向におけるデータのビニングを行う)ことによって、地面マップ内のどのセルに特定のデータ点が関連付けられているかを決定することを含んでいてもよい。
特定のセルが識別されると、特定の点の高さ値がそのセルに追加される。具体的には、いくつかの実施形態では、セルに高さデータを追加するこのプロセスは、ステップ706bにて、セルの高さ統計値を更新することを含んでいてもよく、該セルの高さ統計値は、例えば、収集されたデータ点の数、平均高さ値、中央高さ値、最小高さ値、最大高さ値、高さ値の差の2乗の合計、又は、特定のセルのデータ点の集計に基づく任意の他のタイプの統計値である。
着陸システム150は、収集された複数のデータ点のそれぞれについてのエントリの代わりに、維持された統計値に関する情報を格納することのみが要求されるため、この高さ統計値の更新を通じてのデータ点の集計は、全体的なメモリ使用量を削減し得る。いくつかの実施形態では、同様の高さ統計値は、フットプリントのそれぞれに含まれるセルについての高さ統計値に基づいて、複数のフットプリント候補のそれぞれについて継続的に更新されてもよい。あるいは、フットプリント候補のそれぞれについての高さ統計値は、フットプリント毎に含まれる個々の点に基づいて計算してもよいが、このことは計算コストが高くなる可能性がある。いずれの場合にも、所与のフットプリントにおける高さ値の分散は、いつでも、高さ値の差の2乗の合計をそのエリアのポイント数で割った値として計算され得る。
前述のように、UAV100の飛行中にセンサデータが受信されると、地面マップはセンサデータに基づいて継続的に更新されてもよい。換言すれば、少なくともステップ702,704及び706(関連するサブステップを含む)は、地面マップを生成して継続的に更新するように、継続的に実行されてもよい。この場合も、この文脈において「継続的」とは、所与のステップをミリ秒毎等の短い間隔で再実行することを示すことがある。
例示的なプロセス700aは続いて、例えば、例示的なプロセス400のステップ406と同様に、ステップ708にて、1つ以上の指示された基準を満たすフットプリントを識別する。いくつかの実施形態では、フットプリント候補に関連付けられた高さ統計値が閾値分散レベルを下回る分散を有する場合、着陸基準が満たされる。この場合も、分散は、所与のフットプリント候補に含まれる1つ以上のセルについての高さ統計値に基づいて計算されてもよい。いくつかの実施形態では、特定のフットプリント候補に関連付けられた高さ統計値が他のフットプリント候補と比較して最も低い分散を有する場合、かつ、高さ統計値が閾値分散レベルを下回っている場合、着陸基準が満たされる。
フットプリントが識別されると、例示的なプロセス700aは続いて、例えば、プロセス400のステップ408及び410と同様に、ステップ710にて、識別されたフットプリントに基づいて物理環境内の表面上の着陸エリアを指定し、ステップ712にて、UAV100を指定された着陸エリアに自律的に着陸させる。
ジオメトリ的スマート着陸-ステレオにおける不確実性の考慮
ステレオ視が適用される場合には、ジオメトリ的スマート着陸技術は、推定/測定された高さ値の不確実性を考慮するように構成され得る。ステレオ視では、視差が大きくなると、その点の範囲(カメラからの距離)の不確実性も大きくなる。予想される点の分散は、その点の範囲の4乗でスケーリングされる。これを考慮するために、着陸システム150は、所定の高さ値を適切な補正係数によって調整してもよい。例えば、いくつかの実施形態では、着陸システム150は、この所与の点の高さの差の2乗の合計の増分を、その点の範囲の4乗で除算してもよい。
ジオメトリ的スマート着陸-古い点のダウンウェイト
地面マップが動くオブジェクトに対してより応答できるようにするため、着陸システム150は、セルのそれぞれについての統計値に寄与するデータ点の数を制限するか、そうでなければ、より最近収集されたデータ点を重視するように構成されてもよい。例えば、特定の点で測定された高さに基づくデータ点が、既に最大数の点を有するセルに追加された場合、システムは、高さ値の差の2乗の合計の平均を計算した後、計算された平均値を、該セルについての統計値を更新する前の高さ値の差の2乗の合計から差し引くように構成されてもよい。この方法では、セルについて収集された点の数は増加しない。古いデータのダウンウェイトはまた、データ点の数を固定することによって、平均高さに基づいて行われ得る。例えば、一般的な平均高さの増分は、以下に基づいて計算され得る:mean[n+1] = (x-mean[n])/(n+1)(ここで、“n”は点の数及び更新の数の両方を表す)。これは、続いてmean[n+1] = (x-mean[n])/min(n+1, n_max)となり、ここでは所与のセルについて最大の点の数“n_max”が設定される。これは、古いデータをダウンウェイトすることと同様の効果を有する。
図7Bは、新しい点に基づいて所与のセルについての統計値を更新する際にセル内の古い点をダウンウェイトするための例示的なプロセス700bのフローチャートを示す。ステップ720にて、高さ値を備えた(すなわち、プロセス700aのステップ704で生成された)所与のデータ点に対応する、地面マップ内のセルが識別される。前述のように、着陸システム150は、地面マップ内のセルのそれぞれについての統計値を保持する。これらの統計値の1つには、そのセルに追加されたデータ点の総数が含まれていてもよい。データ点の総数がまだ指示された最大閾値に達していない場合、プロセスはステップ724へと進み、データ点を該セルに追加して、そのセルについての高さ統計値を更新する。データ点の最大数が既にそのセルに追加されていた場合、プロセス700bは代わりにステップ722へと進み、例えば前のパラグラフに記載したように、他の高さ値データをダウンウェイトしてから、ステップ724にて、セルの高さ統計値を更新する。
各セルのデータ点の最大数は、静的であってもよく、UAV100の動作要件、任意の所与の瞬間に利用可能なコンピューティングリソース、環境条件等の様々な要因に基づいて経時的に動的に変化してもよい。セルのそれぞれについての最大の点の数は、地面マップ全体で均一であってもよく、セル間で異なっていてもよい。いくつかの実施形態では、点の最大数は、ユーザに指示されるものであってもよい。
ジオメトリ的スマート着陸-着陸スポットの選択
UAV100が(ユーザコマンドに応答して、又は、低バッテリ等のイベントに応答して)着陸する必要があることを想定すると、着陸システム150は、着陸のための物理的な地面上のエリアを選択するために、地面マップ内のフットプリントのそれぞれについて計算された分散を、ある指示された基準を満たす(すなわち、プロセス700aのステップ708及び710に関して記載したような)フットプリントを識別するために利用することができる。この基準は、着陸用の地面マップ内において分散が最も低いフットプリントの選択を指示してもよい。あるいは又はこれに加えて、該基準は、いくつかの最大許容分散を指示することがある。いくつかの実施形態では、含まれるデータが少なすぎるフットプリントの高さ統計値は信頼できない可能性があるため、計算された高さの分散に関わらず、そのようなフットプリントのセルが回避されてもよい。そのような基準は、ユーザに指示されるものであってもよく、固定されていてもよく、所定の条件に応答して動的に変更されてもよい。例えば、UAV100のバッテリが低く、即時の着陸が必要な場合には、着陸システム150は、すぐ近くで高さ値の分散が最も低いフットプリントを単に選択してもよい。逆に、着陸がユーザコマンドの要求にあり、電力喪失の即時の危険がない場合には、着陸システム150は、フットプリントをより選択的にしても支障がないかもしれない。そのような状況では、UAV100は、高さの分散が最大限許容可能な分散よりも低くなるフットプリントが識別されるまで飛行を続けてもよい。
いくつかの実施形態では、UAV100は、着陸のためのフットプリントを選択する前に、UAV100自体をより効果的に配置するように構成され得る。例えば、一実施形態では、着陸する必要があるとの決定に応答して、着陸システム150は、着陸前の状況をよりよく評価するために、UAV100を地面からの指示された高さまで自律的に操縦させることができる。例えば、観測された最も低い点から少なくとも約2メートルかつ観測された最も高い点から最大で約4メートルの高さであれば、重要な地面のエリアを見ることができること、高すぎる上昇でのバッテリの浪費がないこと、比較的小さな障害物を検出可能な程度に十分に近いこととのバランスが効果的に取られることが判明している。
試験中に観察された1つの重要なエッジケースは、2つの同じように平坦なエリアの地面の高さが異なる場合である。例えば、UAV100が崖の近くを飛行している場合、崖の上及び下の両方が平坦である(すなわち、同じような高さの分散が見られる)可能性がある。しかしながら、少なくとも着陸後にユーザがUAV100にアクセスするという観点から、一方の着陸エリアが他方の着陸エリアよりも好ましい場合が依然としてあり得る。これを考慮するため、着陸システム150は、あるオブジェクト(例えば、着陸用のフットプリントを選択した際のユーザ)の最後に知られた位置(例えば、高度)に最も近いフットプリントを選好するヒューリスティックにより構成されてもよい。例えば、上述の崖に関する状況では、着陸システム150は、追跡されたユーザの最後に知られた位置が、識別された崖の上のフットプリントと一致する高度にあると(例えば、追跡システム140からの情報に基づいて)決定し得る。したがって、着陸システム150は、着陸後のUAV100を回収するためにユーザが崖を降りることを回避するために、UAV100を崖の下ではなく崖の上のフットプリントに着陸させてもよい。
他のヒューリスティックは、手動で追加されても、ユースケースに基づいて学習されてもよく、UAV100が最も直感的かつ便利な(すなわち、好ましい)位置に着陸するように構成されることを確保してもよい。例えば、UAV100は、屋根の検査を行う際に、UAV100の元の離陸高さで着陸することを選好するように構成され得る。別の例として、UAV100は、(近くの茂み又は木に着陸するのではなく)追跡された対象の経路上に着陸することを選好するように構成され得る。別の例として、UAV100は、不意の接触を回避するために、人や機械がほとんど横断しない地面のエリア内に着陸することを選好するように構成され得る。逆に、UAV100はまた、ユーザに対して遠すぎる又はアクセス不可能なエリアへの着陸を回避するために、より交通量の多いエリア内に着陸することを選好するようにも構成され得る。別の例として、UAV100は、農業/農作業の設定で動作している際に、(農場の真ん中に着陸するのではなく)建物又は他の構造物の近くに着陸することを選好するように構成され得る。これらは、適切な着陸エリアを選択する際に着陸システム150を案内するために実装可能なヒューリスティックのほんの数例である。他のヒューリスティックは、UAV100の具体的な使用要件に基づいて、同様に実装され得る。
意味論的スマート着陸
ジオメトリ的スマート着陸は、いくつかの状況で効果的であり得るが、その所定の現実世界の状況を見分ける能力には限界がある。例えば、ジオメトリ的スマート着陸技術を使用すると、着陸システム150は、水域の表面、木の平らな上面又は道路を、高さの分散が十分に低いため着陸に効果的であると識別することがある。そのような表面は、様々な理由で望ましい着陸エリアを表さない場合がある。さらに、いくつかの比較的小さな障害物(例えば、小さな茂み、細い木の枝、小さな岩等)は、所与のセルにおける高さ値の分散に対して、着陸システムがそのセルを含むフットプリントを選択することを防止するような影響を与えないことがある。全体として、これにより望ましくない着陸エリアが選択され得る。
このような状況を回避するために、いくつかの実施形態では、着陸プロセスを支援するために、周囲環境内のオブジェクトに関連付けられた意味情報が(例えば、周囲の物理環境のキャプチャ画像の分析に基づいて)抽出されて前述の地面マップに組み込まれ得る。例えば、図8Aは、図5A~5Bに示されるものと同様の、物理環境上を飛行中のUAV100を示す。図8Aに示すように、環境500は、人802、湖804、岩806及び木808等の様々なオブジェクトで占められている。いくつかの実施形態では、これらのオブジェクトの意味知識は、例えば画像キャプチャデバイス114/115によってキャプチャされた画像を処理することによって抽出され、地面マップ510の対応するセルに対し、例えば、ラベル若しくはタグとして、又は、該セルに関連付けられているコスト要因を更新することによって、追加され得る。例えば、湖804と重なる1つ以上のセルは、「水」とラベル付けされてもよい。いくつかの実施形態では、着陸システム150は、水ラベルを含むセル(又は、少なくとも所定の数のセル)を含む任意のフットプリントにて着陸することを回避するように構成されてもよい。同様に、セルは、歩行可能又は横断可能な地面等のより具体的な情報でラベル付けされ得る。以下に記載の意味論的スマート着陸テクニックは、前述のジオメトリ的スマート着陸テクニックの代わりに実行されてもよく、それに加えて実行されてもよい。例えば、高さ値及び/又は意味情報に関連付けられた特性データは、同じ地面マップに追加されてもよく、別個の重なり合う地面マップに追加されてもよい。いずれの場合にも、着陸システムは、ジオメトリ的及び意味論的スマート着陸技術の所定のステップを並列に実行し、それによってフットプリント候補を評価すると共に、高さ統計値と意味情報の両方に基づいて、指示された着陸基準を満たすフットプリントを識別してもよい。
図9は、オブジェクトに関する意味情報を抽出して該意味情報を地面マップに入力し、それによってUAV100の着陸を案内するための例示的なプロセスのフローチャートを示す。この例示的なプロセス900の1つ以上のステップは、図2に示す例示的なナビゲーションシステム120のコンポーネントのうちの任意の1つ以上によって実行されてもよい。例えば、プロセス900は、ナビゲーションシステム120の着陸システム150コンポーネントによって実行されてもよい。さらに、プロセス900の実行は、図21又は22の例示的なコンピュータシステムのコンピューティングコンポーネントのいずれかを含んでいてもよい。例えば、プロセス900は、メモリ内に格納された命令において表され、それらの命令は、後に処理ユニットによって実行される。図9に関して説明されたプロセス900は、例示の目的で提供される例であって、限定するものとして解釈されるべきではない。その他のプロセスは、本開示の範囲内であることを保ちつつ、示されるよりも多い又は少ないステップを含んでいてもよい。さらに、例示的なプロセスに示されるステップが、示されているものとは異なる順序で実行されてもよい。
例示的なプロセス900はまず、例えば、例示的なプロセス400のステップ402に記載されているように、ステップ902にて、UAV100に搭載されたセンサからセンサデータを受信することによって始まる。図示の例では、UAV100に搭載されたセンサは、UAV100が物理環境中を飛行している間に地面の画像をキャプチャするように構成された下向きの立体カメラを含む。この下向きの立体カメラは、例えば、前述の画像キャプチャデバイス114を含む立体ナビゲーションカメラのアレイの一部であってもよい。
ステップ904では、受信されたセンサデータは、物理環境内の1つ以上の物理オブジェクトを検出して、検出された1つ以上の物理オブジェクトに関連付けられた意味情報を抽出するように処理される。図示の例では、着陸システム150は、画像内のピクセルの分析に基づいて、画像内のキャプチャされた所定のオブジェクトに関する意味情報を抽出してもよい。キャプチャされたオブジェクトに関する意味情報には、オブジェクトのカテゴリ(すなわち、クラス)、場所、形状、サイズ、スケール、ピクセルセグメンテーション、向き、クラス間の外観、活動、ポーズ等の情報が含まれ得る。例えば、オブジェクトを検出し、検出されたオブジェクトに関連する意味情報を抽出するための技術は、「オブジェクト検出」というタイトルのセクションの下、図15~20を参照して、後でより詳細に記載する。物理環境でオブジェクトを検出するプロセスは、対象の追跡を容易にするために別個の追跡システム140によって実行されるものとして、後のセクションにて記載する。しかしながら、そのようなプロセスは、同様に、着陸システム150によって、スマート着陸プロセスの一部として実行されてもよい。いくつかの実施形態では、着陸システム150は、追跡システム140によって検出されたオブジェクトに関する意味情報を受信するように、追跡システム140と通信してもよい。あるいは又はこれに加えて、着陸システム150は、追跡システム140とは独立かつ並列に、所定のプロセスを実行してもよい。
ステップ906にて、地面マップは、物理環境内において検出された物理オブジェクトに関する抽出された意味情報に基づいて更新される。前述のように、意味情報は、ラベル、タグ又は検出されたオブジェクトを示す任意の他のデータを含んでいてもよい。例えば、図8の岩806に関連する意味情報は、「岩」ラベルを含んでいてもよい。「岩」ラベルは、タイプ、形状、サイズ、向き、インスタンス識別子等の岩に関する追加情報を含んでいてもよい。人802等の移動体オブジェクトの場合、関連付けられたラベルは、現在の活動に関する情報(例えば、「走っている」、「歩いている」、「止まっている」)を含んでいてもよい。したがって、そのような実施形態では、ステップ906は、ラベルの形態のデータ点を、検出されたオブジェクトの場所に対応する地面マップの特定のセルに追加することを含んでいてもよい。例えば、図8Bは、岩806の場所に対応するセルに追加された意味ラベル「岩」を示す要素826等、セルに追加された意味ラベルを示す様々な要素を有する物理環境500の別の図を示す。
いくつかの実施形態では、地面マップは、検出されたオブジェクトに関連付けられたコスト値を計算し、そのコスト値を検出されたオブジェクトの場所に対応するセルに追加することによって、意味情報に基づいて更新され得る。この文脈において「コスト値」とは、例えば、人又は財産への損傷、オブジェクトとの衝突、失敗した着陸等のリスクのレベルを示すことがある。木808及び/又は湖804等の所定のオブジェクトは、岩806などの他のオブジェクトよりも大きなリスクをもたらすため、より高いコスト値に関連付けられてもよい。いくつかの実施形態では、所与のセル内の複数の検出されたオブジェクトのコスト値が集計されて、例えば前述の高さ値と同様に、平均コスト値、中央コスト値、最小コスト値、最大コスト値などのコスト統計値を生成してもよい。そのようなコスト値は、意味ラベルに加えて又はそれに代えて、セルに追加され得る。
図9に戻ると、例示的なプロセス900は続いて、例えば、例示的なプロセス400のステップ406と同様に、ステップ908にて、1つ以上の指示された基準を満たすフットプリントを識別する。いくつかの実施形態では、フットプリント候補の1つ以上のセルが、木、水域、岩等の既知の危険物を示す意味ラベルを含まない場合、着陸基準が満たされる。図8Bは、指示された着陸基準を満たし得るフットプリント514を示し、このフットプリント514は、該フットプリント内におけるセルの配置が木、岩、人、水域等の所定の既知の危険物についての意味ラベルを含まないため、指示された着陸基準を満たし得る。
いくつかの実施形態では、検出されたオブジェクトの所定の特性は、着陸基準に対するフットプリント候補の評価に影響を与えてもよい。例えば、フットプリントが所定の検出されたオブジェクトに関連付けられたセルを含んでいても、その検出されたオブジェクトが(例えば、サイズ、タイプ、運動などに基づく)所定のパラメータ閾値を満たす限り、該フットプリント候補は着陸基準を満たし得る。図示の例として、フットプリントが「岩」ラベルの付いたセルを含んでいても、検出された岩が閾値サイズを下回っている限り、該フットプリント候補は指示された着陸基準を満たし得る。この場合も、サイズ等の所定のパラメータがラベル内に示されていてもよい。
いくつかの実施形態では、フットプリントについて計算されたコスト統計値が閾値コストレベルを下回る場合、及び/又は、他のフットプリント候補よりも低い場合、着陸基準は満たされる。この場合も、コスト統計値は、フットプリント内のセルに対応する場所にある検出されたオブジェクトに基づいて計算されてもよい。例えば、図8Bに示す意味ラベルのそれぞれは、対応するオブジェクトが位置するエリア内に着陸する相対的リスクに基づく、対応するコスト値に関連付けられてもよい。コスト値は、0~1のスケールの数値であり、0はリスク無しを、1は最大のリスクを示す。図示の例として、「湖」についての意味ラベルは、水の中に着陸する場合はUAV100への損傷のリスクが高くなるため、コスト値0.7に関連付けられてもよい。逆に、意味ラベル「岩」は、岩の近くに着陸する場合はUAV100への損傷のリスクが比較的低くなるため、コスト値0.3(岩が比較的小さいと想定)に関連付けられてもよい。
コスト統計値に基づいてフットプリント候補を評価するために利用される1つ以上の着陸基準は、静的のままであるか、又は例えば、ユーザ入力、変化する環境条件、UAV100の運転状態などに基づいて動的に変化することができる。例えば、UAV100が墜落する代わりに危険なオブジェクトがある可能性のあるエリア内に着陸できるように、バッテリがゼロ充電に近づくにつれて、閾値コストレベルが徐々に増加するか、オブジェクトコスト値が減少する。しかしながら、人との衝突を回避する等の所定の最重要な行動目標は、安全な着陸の実行よりも優先されることがある。
フットプリントが識別されると、例示的なプロセス900は続いて、例えば、プロセス400のステップ408及び410と同様に、ステップ910にて、識別されたフットプリントに基づいて物理環境内の表面上の着陸エリアを指定し、ステップ912にて、UAV100を指定された着陸エリアに自律的に着陸させる。
学習されたスマート着陸
いくつかの実施形態では、UAV100が着陸するための場所を選択するために、例えば、モバイルデバイス104に提示されるインタフェースを介して、ユーザにオプションが提供されてもよい。一実施形態では、ユーザは、UAV100によってキャプチャされてモバイルデバイス104のタッチスクリーンディスプレイを介して表示される物理環境のビューと対話してもよい。ユーザは、表示されたビューの、UAVが着陸する物理的な地面の場所に対応する部分に触れることによって、着陸する場所を選択することができる。ユーザによるこのタイプの選択、及び、着陸に関する他のタイプの命令又は案内(ユーザによって完全にリモート制御された着陸の監視を含む)は、着陸システム150によって、内部着陸選択及び運動計画プロセスを訓練する目的で監視され得る。ユーザには、そのような情報収集をオプトインするオプションが提供されてもよい。ユーザがオプトインする場合、情報は以下のいずれかで収集でされ得る:着陸のためにユーザによって選択されたビュー内のピクセル、ジンバルが地面を見るように下に向けられた対象カメラ115の画像、下に向けられたナビゲーションカメラ114又は任意の他のナビゲーションカメラ114、UAV100の位置、最新の追跡対象の位置、モバイルデバイス104の場所等。
この収集された情報は、ユーザがUAVを着陸することを選好する場所を学習し、それによって自律スマート着陸を特徴付けるように使用され得る。いくつかの実施形態では、スマート着陸アルゴリズムのコアアルゴリズムを訓練及び更新するために、複数のユーザUAVからデータが収集される。次に、着陸アルゴリズムの更新は、例えばネットワークを介して、様々なUAVにソフトウェア更新として送信されてもよい。あるいは、データ収集及び訓練は、特定のUAV100に対してローカルであってもよい。所与のUAV100内の着陸システム150は、着陸を監視して、この情報を中央データ収集設備と共有することなく特定のユーザの嗜好を識別してもよい。次に、UAV100の着陸システム150は、内部着陸アルゴリズムを訓練するために、収集された情報を使用することができる。
エッジケースの取り扱い
自律スマート着陸(及びナビゲーション一般)は、特別な取り扱いを要求する様々なエッジケースを提示することがある。特別な取り扱いには、例えば、ユーザに対して発せられる警告及び/又は潜在的な危険を緩和するための具体的なアクションが含まれる。
エッジケースの取り扱い-警告
所定の状態の検出に応答して生成された警告は、接続されたモバイルデバイス104を介して、ユーザに対して表示され得るか、そうでなければユーザに対して(例えば、可聴アラームを通じて)提示され得る。
例示的なエッジケースでは、UAV100は、離陸の計画軌道を障害物マップ(例えば、ボクセルベースの占有マップ)に対してチェックすることによって、離陸の計画経路までの妨害を(例えば、地面又はユーザの手から)検出してもよい。離陸が妨害される可能性を検出したことに応答して、システムは、モバイルデバイス104を介して、妨害に関する警告がユーザに対して提示されるようにしてもよい。システムはさらに、検出された妨害が存在しなくなるまで離陸を制限するように構成されてもよい。
別の例示的なエッジケースは、UAV100が狭いエリアを通って追跡対象を追いかけることに関与する。ある点にて、UAV100は、エリア内の限られた隙間が、追跡対象を追いかけるというUAV100の目標の達成を妨げることになると決定することがある。この状況では、システムは、モバイルデバイス104を介して、潜在的な取得対象の損失に関する警告がユーザに対して提示されるようにしてもよい。この警告は、別の経路を移動するための命令、及び/又は、UAVを手動で制御するオプションを含んでいてもよい。
別の例示的なエッジケースは、UAV100が低照明条件で動作していることに関与する。前述のように、UAV100は、所定の実施形態では、1つ以上の画像キャプチャデバイスによってキャプチャされた画像に依存して、自律飛行を誘導することがある。照明条件が所定の閾値レベルを下回る場合、システムは、モバイルデバイス104を介して、照明条件が不十分であることに関する警告がユーザに対して提示されるようにしてもよい。
エッジケースの取り扱い-アクションの緩和
前述のように、UAV100は、Wi-Fi等の無線通信リンクを介して、ユーザのモバイルデバイス104と通信してもよい。距離が離れるにつれ、無線信号が弱まり、時に接続が失われる。いくつかの実施形態では、ナビゲーションシステム120は、無線通信信号が弱いこと又は無線通信リンクが完全に失われたことの検出に応答して、UAV100に、モバイルデバイス104の最後に知られた位置(例えば、GPS位置)へと自動的かつ自律的に戻らせるように構成される。モバイルデバイス104の最後に知られた位置に戻る(又は、少なくともその方向に向かって移動する)ことによって、UAV100は、モバイルデバイス104との無線通信リンクをより容易に再確立することができる。あるいは又はこれに加えて、システムは、信号が失われた場合にUAVが戻るための事前定義される位置を、ユーザが設定できるようにしてもよい。この場所は、軌道に沿った経由地点、仮想マップ上のピン、UAVの離陸位置、ユーザの家等である。残りのバッテリ寿命に関する情報もまた、UAVの応答を通知するのに役立ち得る。例えば、UAVは、残りのバッテリ寿命に基づいて、複数の所定の戻り位置(例えば、上記列挙のもの)の1つから選択し、その意図された戻り位置の指定を(例えば、モバイルデバイス104を介して)ユーザに送信してもよい。上記の特徴はまた、何らかの理由でUAV100が対象の視覚的追跡を失った場合にも使用され得る。
いくつかの状況では、ナビゲーションシステム120は、追跡対象を追い続けることがもはや安全ではないと決定することがある。特に、UAV100の1つ以上のコンポーネントの動作が損なわれる状況が発生することがある。例えば、画像キャプチャデバイス114のいずれかが画像のキャプチャを停止した場合、ナビゲーションシステム120は、障害物回避のための知覚入力をもはや信頼することができない。別の例として、処理コンポーネント(例えば、CPU)が熱くなりすぎると、処理コンポーネントによるスロットルが発生し、処理パフォーマンスが低下する可能性がある。これは、ソフトウェアスタックの実行に大きな影響を及ぼし、自律ナビゲーションのエラー、特に、衝突につながる可能性がある。このような状況では、ナビゲーションシステム120は、衝突による任意の損傷を回避するために、追跡対象を追いかけることをUAV100に停止させ、UAV100を自律的に着陸させてもよい。
図11は、UAV100の運転状態に基づいてUAV100を着陸させるための例示的なプロセス1000のフローチャートを示す。この例示的なプロセス1000の1つ以上のステップは、図2に示す例示的なナビゲーションシステム120のコンポーネントのうちの任意の1つ以上によって実行されてもよい。例えば、プロセス1000は、ナビゲーションシステム120の追跡システム140及び着陸システム150コンポーネントによって実行されてもよい。さらに、プロセス1000の実行は、図21又は22の例示的なコンピュータシステムのコンピューティングコンポーネントのいずれかを含んでいてもよい。例えば、プロセス1000は、メモリ内に格納された命令において表され、それらの命令は、後に処理ユニットによって実行される。図10に関して説明されたプロセス1000は、例示の目的で提供される例であって、限定するものとして解釈されるべきではない。その他のプロセスは、本開示の範囲内であることを保ちつつ、示されるよりも多い又は少ないステップを含んでいてもよい。さらに、例示的なプロセスに示されるステップが、示されているものとは異なる順序で実行されてもよい。
例示的なプロセス1000はまず、ステップ1002にて、物理環境内の物理オブジェクトを検出及び追跡することによって開始し、ステップ1004にて、追跡されるオブジェクトをUAV100に自律的に追いかけさせる。ステップ1002及び1004は、追跡システム140によって、例えば1つ以上の画像キャプチャデバイス114/115からキャプチャされた画像に基づいて実行されてもよい。追跡システム140は、追跡目標を生成することによってUAV100に追跡対象を自律的に追いかけさせてもよく、該追跡目標は、モーションプランナ130に入力されるか、そうでなければ他の方法でモーションプランナ130に伝達され、その後、モーションプランナ130は、該追跡目標を1つ以上の他の行動目標と併せて、UAV100のための計画軌道を生成するように処理する。
ステップ1006では、UAVの運転状態が監視される。いくつかの実施形態では、UAV100が飛行していて追跡されるオブジェクトを自律的に追いかけている間に、運転状態が継続的に監視される。いくつかの実施形態では、着陸システム150は、UAV100の運転状態を監視するためにステップ1006を実行するが、このステップは、任意の他の搭載システムによって実行されてもよい。運転状態の監視は、例えば、ステータス更新について様々な搭載システムに能動的に問い合わせること、ステータス更新を伴う様々な搭載システムから通知を受動的に受信すること、又は、それらの任意の組み合わせを含んでいてもよい。
ステップ1006で運転状態を監視することの一部として、着陸システム150は、運転状態が1つ以上の運転基準を満たすかどうかを決定してもよい。UAV100の運転状態が1つ以上の運転基準を満たさない場合、着陸システム150は、ステップ1008にて、UAV100に追跡されるオブジェクトを追いかけることを停止させ、例えば提示の技術に従って、自動スマート着陸を実行させる。
運転状態が運転基準を満たさない状況の例は、UAV100に搭載された電源(例えば、バッテリ)が閾値電力レベルを下回っているとき、UAV100に搭載された(例えば、キャプチャされたビデオを格納するための)記憶装置が利用可能なストレージレベルの閾値を下回っているとき、UAV100に搭載されたシステムのいずれかが正常に働いていない又は過熱しているとき、モバイルデバイス104との無線通信リンクが失われたかその品質が悪いとき、又は、追跡対象との視覚的接触が失われた(追跡対象を見失った)ときが含まれる。他の運転基準も同様に、スマート着陸プロセスをいつ開始するかについての決定を導くために実装され得る。
いくつかの実施形態では、UAV100に追跡対象を追いかけることを停止させることは、以前に生成された追跡目標をキャンセルするか、そうでなければ他の方法で該追跡目標を修正するために、着陸システム150が追跡システムと通信することを含んでいてもよい。あるいは又はこれに加えて、着陸システム150は、以前に入力された追跡目標をキャンセルするか、そうでなければ他の方法で該追跡目標を修正するように、モーションプランナ130に命令を伝達してもよい。いずれの場合にも、着陸システム150は、前述のように、着陸目標を生成して該着陸目標をモーションプランナ130に伝達することによって、UAV100にスマート着陸プロセスを実行させることができる。
いくつかのレアケースでは、UAV100は、時間なしで着陸する必要があってもよく、前述の技術のいずれかを使用してスマート着陸を実行する能力が必要であってもよい。例えば、ナビゲーションシステム120による状態推定が失敗した場合、システムは、ホバリングを維持するために必要な程度までUAV100の位置を制御できないことがある。このような状況での最善のアクションは、UAV100が安全に地面上に着陸するまでUAVが着陸したかどうかを確認しながら、制御された降下をすぐに開始することであってもよい。
図11A~11Bは、スマート着陸が不可能であるとの決定に応答して、制御された降下を開始するための例示的なプロセス1100a~bのフローチャートを示す。この例示的なプロセス1100a~bの1つ以上のステップは、図2に示す例示的なナビゲーションシステム120のコンポーネントのうちの任意の1つ以上によって実行されてもよい。例えば、プロセス1100は、ナビゲーションシステム120の着陸システム150コンポーネントによって実行されてもよい。さらに、プロセス1100の実行は、図21又は22の例示的なコンピュータシステムのコンピューティングコンポーネントのいずれかを含んでいてもよい。例えば、プロセス1100は、メモリ内に格納された命令において表され、それらの命令は、後に処理ユニットによって実行される。図11A~11Bに関して説明されたプロセス1100は、例示の目的で提供される例であって、限定するものとして解釈されるべきではない。その他のプロセスは、本開示の範囲内であることを保ちつつ、示されるよりも多い又は少ないステップを含んでいてもよい。さらに、例示的なプロセスに示されるステップが、示されているものとは異なる順序で実行されてもよい。
例示的なプロセス1100aはまず、例えば、図4に関して記載された例示的なプロセス400に従って、ステップ1102にて、スマート着陸プロセスを開始する。スマート着陸プロセスの間、着陸システム150は、UAV100の運転状態を継続的に監視して、スマート着陸が可能かどうかを判断する。スマート着陸が可能であると着陸システム150が決定した場合、ステップ1104にて、UAV100が安全に着陸するまでスマート着陸プロセスが継続することとなる。
一方、スマート着陸プロセス中に、スマート着陸プロセスがもはや不可能であるとシステムが決定した場合、着陸システム150は、ステップ1106において、UAV100が地面と接触するまで、制御された降下をUAV100に実行させることになる。制御された降下をUAV100に実行させることは、制御された降下目標を生成して、該目標をモーションプランナ130へと伝達することを含んでいてもよい。あるいは、モーションプランナ130による軌道生成が作動しないか、そうでなければ妥協する場合、着陸システムは、飛行コントローラ160に対して、UAV100を制御された方法で降下させるように構成された制御コマンドを飛行コントローラに生成させる命令を送信し得る。このことは、UAV100が降下する際においてUAV100を実質的に水平に保つように、UAV100の1つ以上のロータのそれぞれへの電力出力を、バランスを取りつつ徐々に減少させることを含み得る。利用可能な場合には、たとえUAV100の実際の位置及び/又は向きが不明な場合であっても、(例えば、搭載されたジャイロスコープ及び/又は加速度計からの)所定のセンサデータが、飛行コントローラ160によって、制御された降下中における任意の回転及び/又は横加速度を無効にするようにロータへの電力を調整するために利用されてもよい。
いくつかの実施形態では、着陸システム150は、初期着陸エリアでのスマート着陸が可能でない場合、代替着陸エリアを見つけることを試みてもよい。例えば、図11Bに示すプロセス1100bはまず、例えば、プロセス1100aのステップ1102と同様に、初期着陸エリア上に着陸するスマート着陸プロセスを開始することによって始まる。また、プロセス1100aと同様に、例示的なプロセス1100bは、初期着陸エリアでのスマート着陸が可能であると着陸システム150が決定した場合、スマート着陸プロセスを継続するためにステップ1124へと進むこととなる。
しかしながら、初期着陸エリアでのスマート着陸が不可能であると着陸システムが決定した場合、プロセス1100bはステップ1126へと進み、着陸システム150は、制御された降下をUAV100に開始させる。制御された降下中では、着陸システムは、代替着陸エリアを識別することを試みることとなる。この代替着陸エリアの識別は、例えば、ステップ1128にて代替フットプリントを識別し、ステップ1130にて代替フットプリントに基づいて代替着陸エリアを指定し、ステップ1132にてUAV100を代替着陸エリアに自律的に着陸させることによって行われる。代替着陸エリアを探索するこのプロセスは、制御された降下中に、UAV100が着陸するまで継続的に実行されてもよい。
図11A又は図11Bには図示されないが、いくつかの実施形態では、着陸システム150は、地面からの特定の高さまでの制御された降下を、そのような操縦がUAV100の現在の運転状態を考慮して可能である場合に、UAV100に行わせてもよい。着陸システム150は続いて、スマート着陸プロセスを、そのような着陸が可能である場合に開始することを再び試みてもよい。スマート着陸が依然として不可能な場合、着陸システム150は、UAV100が着陸完了するまで、UAV100は制御された降下を続けることとなる。
位置特定
UAV100のナビゲーションシステム120は、位置特定のための任意の数のシステム及び技術を採用してもよい。図12は、UAV100等の輸送機械の自律ナビゲーションを案内するために利用され得る例示的な位置特定システム1200の図を示す。いくつかの実施形態では、物理環境内のUAV100及び他の様々な物理的オブジェクトの位置及び/又は向きが、図12に図示されるサブシステムの任意の1つ以上を使用して推定され得る。位置及び/又は向きの変化を経時的に(継続的に、又は、規則的若しくは不規則な時間間隔で(すなわち、繰り返し))追跡することによって、UAV100及び他のオブジェクトの運動(例えば、速度、加速度など)もまた、推定されてもよい。したがって、位置及び/又は向きを決定するための本明細書に記載される任意のシステムが同様に、運動を推定するために採用されてもよい。
図12に示すように、例示的な位置特定システム1200は、UAV100、複数のGPS衛星1202を含む全地球測位システム(GPS)、複数のセルラーアンテナ1204を含む(位置特定データ1206のソースへのアクセスを備えた)セルラーシステム、複数のWi-Fiアクセスポイント1208を含む(位置特定データのソース1206へのアクセスを備えた)Wi-Fiシステム、及び/又は、ユーザ106に操作されるモバイルデバイス104を含んでいてもよい。
GPS等の衛星ベースの測位システムは、受信機を装備した任意のデバイスの(数メートル範囲の)効果的なグローバル位置推定を提供し得る。例えば、図12に示すように、UAV100にてGPSシステム1202の衛星から受信された信号が、UAV100の全地球位置を推定するために利用され得る。同様に、他のデバイス(例えば、モバイルデバイス104)に対する位置は、(例えば、無線通信リンク116を介して)通信し、該他のデバイスのグローバル位置を比較することにより決定され得る。
位置特定技術はまた、無線で通信信号を送信するように構成された様々な通信システムの文脈でも適用され得る。例えば、UAV100とセルラーシステムのセルラーアンテナ1204又はWi-FiシステムのWi-Fiアクセスポイント1208,1210のいずれかとの間で送信される信号に基づいてUAV100の位置を推定するために、様々な位置特定技術が適用され得る。実装可能な既知の測位技術には、例えば、到達時間(ToA)、到達時間差(TDoA)、往復遅延時間(RTT)、到達角度(AoA)及び受信信号強度(RSS)が含まれる。さらに、TDoA及びAoA、ToA及びRSS、又は、TDoA及びRSS等の複数の技術を実装するハイブリッド測位システムが、精度を向上させるために使用され得る。
802.11ac等のいくつかのWi-Fi規格は、送信するWi-FiルータからのRF信号ビームフォーミング(すなわち、位相シフトされたアンテナアレイを使用する指向性信号送信)を可能にする。ビームフォーミングは、空間的に分散されたアンテナ(「フェーズドアンテナアレイ」)から様々な位相でRF信号を送信することで達成されてもよく、それによって、所定の角度では建設的干渉が発生することがあり、他の角度では破壊的干渉が発生することがあるため、結果としてターゲット指向性RF信号フィールドが生じる。そのようなターゲットフィールドは、図12において、Wi-Fiルータ1210から出ている点線1212により概念的に示されている。
慣性測定ユニット(IMU)は、デバイスの位置及び/又は向きを推定するために使用されてもよい。IMUは、輸送機械の角速度及び線形加速度を測定するデバイスである。これらの測定値は、速度、向き、及び、センサの較正を正確に推測するために、他の情報源(例えば、上記にて説明されたもの)と融合され得る。本明細書に記載のように、UAV100は、1つ以上のIMUを含んでいてもよい。一般に「推測航法(dead reckoning)」と称される方法を使用して、IMU(又は関連システム)は、測定された加速度を使用して以前に測定された位置と、以前に測定された位置からの経過時間とに基づいて、現在位置を推定してもよい。ある程度の効果はあるものの、IMUからの測定値に基づく推測航法によって達成される精度は、予測された現在位置のそれぞれにおける誤差の累積的な影響のため、急速に低下する。誤差は、予測位置のそれぞれが測定された速度の計算された積分に基づいている事実によって、さらに悪化する。そのような影響を打ち消すため、IMUを使用した位置特定を利用する実施形態は、オブジェクトの最後に知られた位置及び/又は向きを継続的に更新するための、他のソース(例えば、上述のGPS、Wi-Fi及びセルラーシステム)からの位置特定データを含んでいてもよい。さらに、非線形推定アルゴリズム(一実施形態は「拡張カルマンフィルタ」である)が、現在の位置及び/又は向きのリアルタイム最適化予測を観測データ内の想定される不確実性に基づいて生成するために、一連の測定された位置及び/又は向きに適用されてもよい。カルマンフィルタは、航空機のナビゲーション、案内及び制御の分野において一般的に適用されている。
コンピュータビジョンは、キャプチャカメラ(及び、その延長線上として、カメラが結合されているデバイス)や、物理環境内の他のオブジェクトの位置及び/又は向きを推定するために使用されてもよい。この文脈において、用語「コンピュータビジョン」は、概して、キャプチャされた画像を取得、処理、分析及び「理解」する任意の方法を示すことがある。コンピュータビジョンは、いくつかの種々異なる方法を使用して、位置及び/又は向きを推定するために使用されてもよい。例えば、いくつかの実施形態では、(搭載された、又は、UAV100から離れた)1つ以上の画像キャプチャデバイスから受信した生の画像データを受信して、所定の変数(例えば、カメラの向きの違い、及び/又は、固有のパラメータ(例えば、レンズのバリエーション))について訂正するように処理してもよい。図1に関して前述したように、UAV100は、2つ以上の画像キャプチャデバイス114/115を含んでいてもよい。2つ以上の視点からキャプチャされた画像を比較することにより(例えば、運動している画像キャプチャデバイスからの異なるタイムステップで)、コンピュータビジョンを採用するシステムは、画像キャプチャデバイスが取り付けられている(UAV100など)輸送機械、及び/又は、物理環境内のキャプチャされたオブジェクト(例えば、木、建物など)の、位置及び/又は向きについての推定を計算してもよい。
コンピュータビジョンは、「視覚オドメトリ」と呼ばれるプロセスを使用して位置及び/又は向きを推定するために適用され得る。図13は、視覚オドメトリの背後にある作業概念を高レベルで示す。画像キャプチャデバイスが空間を移動する際に、複数の画像が逐次的にキャプチャされる。画像キャプチャデバイスの運動に起因して、周囲の物理環境のキャプチャされた画像がフレームからフレームへと変化していく。図13では、このことは、画像キャプチャデバイスがある期間にわたって第1の位置から第2の位置へと移動した際にキャプチャされた、最初の画像キャプチャFOV1352及び後続の画像キャプチャFOV1354によって示される。両方の画像において、画像キャプチャデバイスは、現実世界の物理オブジェクト、例えば家1380及び/又は人物1302をキャプチャしてもよい。コンピュータビジョン技術は、画像キャプチャデバイスのFOVにキャプチャされた物理オブジェクトの特徴を検出及び照合するために、一連の画像に対して適用される。例えば、コンピュータビジョンを採用するシステムは、重なり合うFOVを有するデジタル画像のピクセル内における対応について探索してもよい。この対応は、相関に基づく方法及び特徴に基づく方法等、いくつかの種々異なる方法を使用して識別されてもよい。図13に示すように、人の対象1302の頭又は家1380上の煙突の隅等の特徴が識別され、照合され、それによって追跡され得る。画像キャプチャデバイスに関連付けられたIMU(又は、(1つ以上の)加速度計若しくは(1つ以上の)ジャイロスコープ)からのセンサデータを画像キャプチャの追跡された特徴に組み込むことにより、画像にキャプチャされたオブジェクト1380,1302に対する位置及び/又は方向について、推定が行われてもよい。さらに、これらの推定は、例えばカメラの向き及び/又は固有のパラメータ(例えばレンズの変化)又はIMUバイアス及び/又は向きの違いを推定することによって、様々な他のシステムを較正するために使用され得る。視覚オドメトリは、UAV100及びモバイルデバイス104などの他の任意のコンピューティングデバイスの両方において、UAV100及び/又は他のオブジェクトの位置及び/又は向きを推定するために適用されてもよい。さらに、これらの推定をシステム間で(例えば、無線通信リンク116を介して)通信することによって、互いに対するそれぞれの位置及び/又は向きについて推定が計算されてもよい。搭載されたIMUからのセンサデータに部分的に基づく位置及び/又は方向の推定は、エラー伝播の問題を引き起こすことがある。前述のように、不確実性を打ち消すために、最適化手法がそのような推定に対して適用されてもよい。いくつかの実施形態では、非線形推定アルゴリズム(一実施形態は「拡張カルマンフィルタ」である)が、現在の位置及び/又は向きのリアルタイム最適化予測を観測データ内の想定される不確実性に基づいて生成するために、一連の測定された位置及び/又は向きに適用されてもよい。このような推定アルゴリズムは、同様に、スムーズな運動推定を生成するために適用され得る。
いくつかの実施形態では、UAV100に搭載されたセンサから受信したデータは、物理環境内におけるUAV100及び/又は他のオブジェクトの相対位置及び/又は向きを推定しつつ、周囲の物理環境の3Dマップを生成するように処理され得る。このプロセスは、同時の位置特定及びマッピング(SLAM)と称されることもある。そのような実施形態では、本教示によるシステムは、コンピュータビジョン処理を使用して、重なり合うFOVを備えた画像(例えば、連続する時間ステップ中に取得された画像及び/又は同じ時間ステップ内に取得された立体画像)間の密な対応を探索し得る。次に、システムはこれらの密な対応を、それぞれの画像内に表される各ピクセルまでの深度又は距離を推定するために使用し得る。続いて、これらの深度の推定は、物理環境中の画像キャプチャデバイス(すなわち、UAV100)の運動推定を考慮して、物理環境の生成された3Dモデルを継続的に更新するために使用され得る。
いくつかの実施形態では、周囲の物理環境の3Dモデルは、各ボクセルが物理オブジェクトによって少なくとも部分的に占有されている物理環境内の空間の3Dボリュームに対応する複数のボクセルを含む3D占有マップとして生成されてもよい。例えば、図14は、複数の立方体ボクセルを含む物理環境の3D占有マップ1402の例示的な図を示す。3D占有マップ1402内のボクセルのそれぞれは、物理オブジェクトによって少なくとも部分的に占有されている物理環境内の空間に対応する。UAV100のナビゲーションシステム120は、ボクセルを回避する3D占有マップ1402を通して3D軌道1420を計画することによって、物理環境をナビゲートするように構成され得る。いくつかの実施形態では、3D占有マップ1402を使用する該3D軌道1420計画は、画像空間運動計画プロセスを適用することによって最適化され得る。そのような実施形態では、計画されたUAV100の3D軌道1420は、所定の識別された高コスト領域(例えば、無効な深度推定を有する領域)に関する分析のために、キャプチャされた画像の画像空間内に投影される。
コンピュータビジョンはまた、光の検出及び測距(LIDAR)技術など、カメラ以外の感知技術を使用して適用されてもよい。例えば、LIDARを装備したUAV100は、スキャンにおいて、1つ以上のレーザビームを、UAV100周りの最大360度に放射してもよい。周囲の物理世界内の物理的オブジェクトでレーザビームが反射する際にUAV100が受け取る光が、周囲の物理世界のリアルタイム3Dコンピュータモデルを構築するために分析され得る。LIDARの使用による深度感知は、いくつかの実施形態では、前述のようにピクセル対応によって、深度感知を強化することができる。さらに、(例えば、前述のように)カメラによりキャプチャされた画像をレーザで構築された3Dモデルと組み合わせてテクスチャ処理された3Dモデルを形成してもよく、該3Dモデルは、物理オブジェクト認識について(例えば、コンピュータビジョンアルゴリズムを使用して)リアルタイム又はほぼリアルタイムで分析されてもよい。
上述のコンピュータビジョン支援位置特定技術は、UAV100の位置及び/又は向きに加えて、物理世界におけるオブジェクトの位置及び/又は向きを計算してもよい。次に、これらのオブジェクトの推定される位置及び/又は向きは、ナビゲーションシステム120のモーションプランナ130へと供給され、(例えば、前述のように)所定の目的を満たしつつ障害物を回避する経路を計画してもよい。加えて、いくつかの実施形態では、ナビゲーションシステム120は、障害物の位置をより正確に推定するために、近接センサ(例えば、電磁気、音響、及び/又は光学ベース)からのデータを組み込んでもよい。さらなる改良は、前述のように複数のカメラで立体視コンピュータビジョンを使用することによよって可能となる。
図12の位置特定システム1200(前述の関連するサブシステムの全てを含む)は、物理環境内のUAV100及び他のオブジェクトの位置及び/又は向きを推定するように構成されたシステムの一例にすぎない。位置特定システム1200は、示されているよりも多い又は少ないコンポーネントを含んでいてもよく、2つ以上のコンポーネントを組み合わせてもよく、コンポーネントの異なる構成又は配置を有していてもよい。図12に示す様々なコンポーネントのいくつかは、ハードウェア、ソフトウェア、又は、ハードウェア及びソフトウェアの両方の組み合わせで実装されてもよく、これらは1つ以上の信号処理及び/又は特定用途向け集積回路を含んでいてもよい。
オブジェクト追跡
UAV100は、例えばインテリジェント自律飛行を可能にするために、1つ以上のオブジェクトを追跡するように構成され得る。この文脈において、用語「オブジェクト」は、物理的な世界で発生するあらゆるタイプの物理的なオブジェクトを含み得る。オブジェクトには、人、動物及び他の輸送機械等の動的オブジェクトが含まれ得る。オブジェクトにはまた、地形、建物、家具等の静的オブジェクトも含まれ得る。さらに、本明細書の所定の説明は、「対象」(例えば、人である対象102)を示すことがある。本開示で使用される用語「対象」は、任意の開示の技術を使用して追跡されているオブジェクトを単に示すことがある。したがって、用語「オブジェクト」及び「対象」は、交換可能に使用されてもよい。
図2を参照すると、UAV100に関連付けられた追跡システム140は、UAV100に搭載された画像キャプチャデバイス(例えば、画像キャプチャデバイス114及び/又は115)によってキャプチャされたオブジェクトの画像に基づいて1つ以上の物理オブジェクトを追跡するように構成できる。追跡システム140は、画像キャプチャデバイスからの入力のみに基づいて動作するように構成され得る一方で、追跡システム140はまた、追跡を助けるために他のタイプの情報を組み込むようにも構成され得る。例えば、UAV100及び/又は他のオブジェクトの相対的な位置及び/又は向きを測定、推定及び/又は予測するための他の様々な技術が、図12~20に関して説明される。
いくつかの実施形態では、追跡システム140は、2つの主要なカテゴリ、すなわち、意味及び3Dジオメトリに関係する情報を融合するように構成され得る。画像が受信されると、追跡システム140は、画像内のピクセルの分析に基づいて、画像内にキャプチャされた所定のオブジェクトに関する意味情報を抽出してもよい。キャプチャされたオブジェクトに関する意味情報には、オブジェクトのカテゴリ(すなわち、クラス)、場所、形状、サイズ、スケール、ピクセルセグメンテーション、向き、クラス間の外観、活動、ポーズ等の情報が含まれ得る。例示的な実施形態では、追跡システム140は、キャプチャされた画像に基づいてオブジェクトの大まかな位置及びカテゴリを識別し、その後、さらなる処理に基づいてオブジェクトの個々のインスタンスに関する追加の詳細情報を決定又は推測してもよい。そのようなプロセスは、一連の個別の操作、一連の並列操作又は単一の操作として実行されてもよい。例えば、図15は、物理環境中を飛行中のUAVによってキャプチャされた例示的な画像1520を示す。図15に示すように、例示的な画像1520は、2つの物理オブジェクトのキャプチャ、具体的には、物理環境内に存在する2人の人のキャプチャを含む。例示的な画像1520は、UAVによってキャプチャされたビデオの一連のフレーム内の単一のフレームを表してもよい。追跡システム140は、まず、画像1520内のキャプチャされたオブジェクトの大まかな位置を識別してもよい。例えば、ピクセルマップ1530は、画像内のキャプチャされたオブジェクトの大まかな位置に対応する2つのドットを示す。これらの大まかな位置は、画像座標として表されてもよい。追跡システム140はさらに、キャプチャされた画像1520を、キャプチャされたオブジェクトの個々のインスタンスに関する情報を決定するように処理してもよい。例えば、ピクセルマップ1540は、個々のオブジェクトインスタンス(すなわち、この場合では人々)に対応するピクセルを識別する画像1520の追加の処理の結果を示す。キャプチャされた画像内のオブジェクトを特定及び識別してもよく、複数の画像で発生した識別されたオブジェクトを関連付けるために、意味的手掛かり(semantic cue)が使用されてもよい。例えば、前述のように、図15に示すキャプチャされた画像1520は、キャプチャされたビデオの一連のフレームにおける単一のフレームを表してもよい。意味的手がかりを使用して、追跡システム140は、複数の画像内にキャプチャされたピクセルの領域を、物理環境内で生じている同じ物理オブジェクトに対応するものとして関連付けてもよい。
いくつかの実施形態では、追跡システム140は、識別されたオブジェクトの3Dジオメトリを、物理環境の複数のビューからキャプチャされた画像に基づいてオブジェクトに関する意味情報を関連付けるために利用するよう構成され得る。複数のビューからキャプチャされた画像は、複数の画像キャプチャデバイスによってキャプチャされた、単一の時刻にてそれぞれ異なる位置及び/又は向きを有する画像を含んでいてもよい。例えば、図1のUAV100に取り付けられて示されるそれぞれの画像キャプチャデバイス114は、(立体的なキャプチャを達成するために)複数のカメラをわずかにオフセットされた位置に含んでいてもよい。さらに、立体画像キャプチャのために個別に構成されていない場合であっても、複数の画像キャプチャデバイス114は、例えば、図1に示されるように、UAV100に対してそれぞれ異なる位置に配置されてもよい。複数のビューからキャプチャされた画像には、画像キャプチャデバイスが物理環境中を移動する際に、複数の時刻にて画像キャプチャデバイスによってキャプチャされた画像も含まれ得る。例えば、UAV100が物理環境中を移動する際に、UAV100に取り付けられた画像キャプチャデバイス114及び/又は115のいずれかが、複数のビューから画像を個別にキャプチャする。
オンライン視覚慣性状態推定システムを使用して、追跡システム140は、UAV100が物理環境中を移動する際のUAV100の軌道を決定又は推定し得る。したがって、追跡システム140は、UAV100の既知の又は推定された3D軌道を使用して、検出されたオブジェクトの位置などのキャプチャされた画像内の意味情報をオブジェクトの3D軌道に関する情報に関連付けることができる。例えば、図16は、物理環境中を移動するUAV100の軌道1610を示す。UAV100が軌道1610に沿って移動する際に、1つ以上の画像キャプチャデバイス(例えば、デバイス114及び/又は115)が、複数のビュー1612a~cにて物理環境の画像をキャプチャする。複数のビュー1612a~cの画像内には、人である対象102等のオブジェクトのキャプチャが含まれる。キャプチャされた画像を複数のビュー1612a~cで処理することによって、オブジェクトの軌跡1620もまた解決され得る。
キャプチャされた画像におけるオブジェクト検出は、該オブジェクトが沿って存在する放射線を、キャプチャカメラの中心位置から該オブジェクトまで、ある程度の不確実性を伴って生成する。追跡システム140は、これらの検出のための深度測定値を計算して、カメラの焦点面に平行な、オブジェクトが沿って存在する面を、ある程度の不確実性を伴って作成し得る。これらの深度測定値は、異なるビューの2つ以上のカメラ画像間のオブジェクトに対応するピクセル上で動作するステレオビジョンアルゴリズムによって計算され得る。深度の計算は、特に、対象のオブジェクト(例えば、対象102)の一部であるとラベル付けされたピクセルを考慮し得る。これらの経時的な放射線及び面の組み合わせ
追跡システム140が、UAV100に搭載された画像キャプチャデバイスからの視覚データのみに依存するように構成され得る一方で、他のセンサ(例えば、オブジェクト上のセンサ、UAV100上のセンサ又は環境内のセンサ)からのデータが、利用可能な場合、このフレームワーク内に組み込まれ得る。追加のセンサには、GPS、IMU、気圧計、磁力計及びカメラ、又は、モバイルデバイス104等の他のデバイスが含まれていてもよい。例えば、人が持つモバイルデバイス104からのGPS信号は、UAV100に搭載された画像キャプチャデバイスからの視覚情報と融合された、その人の大まかな位置測定を提供し得る。UAV100及び/又はモバイルデバイス104におけるIMUセンサは、加速度及び角速度情報を提供することができ、気圧計は、相対高度を提供することができ、磁力計は、方位情報を提供することができる。人が持つモバイルデバイス104上のカメラによってキャプチャされた画像は、画像にキャプチャされた共通の特徴を識別することによってUAV100と人との間の相対的なポーズを推定するために、UAV100に搭載されたカメラからの画像と融合され得る。UAV100及び/又は他のオブジェクトの相対的な位置及び/又は向きを測定、推定及び/又は予測するための様々な他の技術が、図12~20に関して記載される。
いくつかの実施形態では、様々なセンサからのデータが、非線形最適化を使用して総測定誤差を確率論的に最小化するために、時空間因子グラフ内に入力される。図17は、(例えば、経時的なポーズ及び速度を含む)オブジェクトの3D軌道を推定するために使用可能な例示的な時空間因子グラフ1700の図表示を示す。この例では、図17に示す時空間因子グラフ1700は、ポーズ及び速度((それぞれ1702及び1704として表される)ノードとして表される)等の変数値は、1つ以上の運動モデルプロセスによって接続される(接続端に沿ったノード1706として表される)。例えば、時間ステップ1(すなわち、変数X(1))でのUAV100及び/又は他のオブジェクトのポーズの推定又は予測は、前の時間ステップにて推定されたポーズ及び速度(すなわち、変数X(0)及びV(0)))を入力することによって計算されてもよく、1つ以上のモーションモデルを介してステレオ深度測定やカメラ画像測定等の様々な知覚入力を入力することによって計算されてもよい。時空間因子モデルは、推定された分布からの逸脱が大きすぎる測定値が破棄される外れ値除去メカニズムと組み合わせられ得る。複数の時刻における測定から3D軌跡を推定するために、1つ以上のモーションモデル(又はプロセスモデル)が、因子グラフの各タイムステップ間で推定変数を接続するように使用される。そのようなモーションモデルには、等速、ゼロ速度、減衰速度、減衰加速度のいずれかが含まれ得る。適用されるモーションモデルは、機械学習技術を使用して追跡及び/又は学習されているオブジェクトのタイプの分類に基づいてもよい。例えば、自転車に乗る者は、高速で大回りする可能性があるが、横に動くことは想定されない。逆に、犬などの小動物は、予測不可能な運動パターンを示すことがある。
いくつかの実施形態では、追跡システム140は、オブジェクトの予測された3D軌道に基づいて、追跡されるオブジェクトが後にキャプチャされる画像のどこに現れるかについてのインテリジェントな初期推定を生成し得る。図18は、この概念を図示する図を示す。図18に示すように、UAV100は、人である対象102を含む周囲の物理環境の画像をキャプチャしつつ、軌道1810に沿って移動している。UAV100が軌道1810に沿って移動する際に、複数の画像(例えば、ビデオのフレーム)が、1つ以上の搭載された画像キャプチャデバイス114/115からキャプチャされる。図18は、第1のポーズ1840における画像キャプチャデバイスの第1のFOVと、第2のポーズ1842における画像キャプチャデバイスの第2のFOVとを示す。この例では、第1のポーズ1840は、時刻t(0)における画像キャプチャデバイスの以前のポーズを表してもよく、第2のポーズ1842は、時刻t(1)における画像キャプチャデバイスの現在のポーズを表してもよい。時刻t(0)において、画像キャプチャデバイスは、物理環境内の第1の3D位置1860にて、人である対象102の画像をキャプチャする。この第1の位置1860は、人である対象102の最後に知られた位置であってもよい。画像キャプチャデバイスの第1のポーズ1840が与えられると、第1の3D位置1860にいる間の人である対象102は、キャプチャ画像内の第1の画像位置1850に現れる。したがって、第2の(又は、現在の)画像位置1852の初期推定は、オブジェクトに関連付けられた1つ以上の運動モデルを使用して、人である対象102の最後に知られた3D軌跡1820aの未来を投影することに基づいて行われ得る。例えば、図18に示される予測された軌跡1820bは、この未来の3D軌道1820aの投影を表す。次に、この予測軌道1820bに沿った人である対象102の(時間t(1)における)第2の3D位置1862は、t(0)からt(1)までの経過時間に基づいて計算され得る。続いて、この第2の3D位置1862は、第2のポーズ1842にて画像キャプチャデバイスの画像平面内に投影され、それによって、人である対象102に対応することになる第2の画像位置1852が推定され得る。このような新たにキャプチャされた画像内の追跡されるオブジェクトの位置についての初期推定を生成することによって、追跡のための探索空間が絞り込まれ、特に、位置及び/又は向きの急速な変化を示すUAV100及び/又は追跡されるオブジェクトの場合において、より堅牢な追跡システムが可能になる。
いくつかの実施形態では、追跡システム140は、UAV100に搭載された2つ以上のタイプの画像キャプチャデバイスを利用し得る。例えば、図1に関して前述したように、UAV100は、視覚的ナビゲーション用に構成された画像キャプチャデバイス114、及び、視認される画像をキャプチャするための画像キャプチャデバイス115を含んでいてもよい。画像キャプチャデバイス114は、低レイテンシ、低解像度かつ高FOVに構成されてもよく、画像キャプチャデバイス115は、高解像度に構成されてもよい。UAV100の周囲にある画像キャプチャデバイス114のアレイは、UAV100周りに最大360度のオブジェクトに関する低レイテンシ情報を提供し得ると共に、ステレオビジョンアルゴリズムを使用して深度を計算するために使用され得る。逆に、他の画像キャプチャデバイス115は、限られたFOVにおいてより詳細な画像(例えば、高解像度、カラー等)を提供し得る。
両方のタイプの画像キャプチャデバイス114及び115からの情報を組み合わせることは、いくつかの方法において、オブジェクト追跡目的のために有益であり得る。第1に、画像キャプチャデバイス115からの高解像度カラー情報は、追跡されるオブジェクトの3D表現を作成するために、画像キャプチャデバイス114からの深度情報と融合され得る。第2に、画像キャプチャデバイス114の低レイテンシは、オブジェクトのより正確な検出及びオブジェクトの軌跡の推定を可能にし得る。これらのような推定は、高レイテンシ、高解像度の画像キャプチャデバイス115から受信した画像に基づいて、さらに改善及び/又は修正され得る。画像キャプチャデバイス114からの画像データは、画像キャプチャデバイス115からの画像データと融合され得るか、純粋に初期推定として使用され得る。
画像キャプチャデバイス114を使用することによって、追跡システム140は、オブジェクトのUAV100周りに最大360度の追跡を達成し得る。追跡システム140は、画像キャプチャデバイス114及び115の位置及び向きが経時的に変化しているときに追跡されるオブジェクトの相対位置及び/又は向きを推定する際、画像キャプチャデバイス114又は115のいずれかからの測定値を融合し得る。追跡システム140はまた、画像キャプチャデバイス115を、関心のある特定のオブジェクトのより正確な追跡を取得するように配向して、両方の画像キャプチャ様式からの情報を流動的に組み込むこともできる。シーン内の全てのオブジェクトの位置に関する知識を使用して、UAV100は、よりインテリジェントな自律飛行を行い得る。
前述のように、高解像度画像キャプチャデバイス115は、UAV100の本体に対する運動の1つ以上の自由度を与える、ジンバル等の調整可能な機構に取り付けられてもよい。このような構成は、画像キャプチャの安定化や、特に関心のあるオブジェクトの追跡に役立つ。物理環境内のオブジェクトの位置を追跡するように高解像度の画像キャプチャデバイス115のUAV100に対する向きを調整するよう構成されたアクティブジンバル機構は、より低解像度の画像キャプチャデバイス114単独の使用によって可能となり得る視覚的追跡よりも長い距離での視覚的追跡を可能にしてもよい。アクティブジンバル機構の実装は、任意の所与の時点におけるジンバル機構の1つ以上のコンポーネントの向きを推定することに関与してもよい。そのような推定は、ジンバル機構(例えば、加速度計、ロータリエンコーダ等)に結合された任意のハードウェアセンサ、画像キャプチャデバイス114/115からの視覚情報、又は、それらの任意の組み合わせに基づく融合に基づいてもよい。
追跡システム140は、様々なオブジェクトを検出及び追跡するためのオブジェクト検出システムを含んでいてもよい。1つ以上のクラスのオブジェクト(例えば、人、建物、車、動物等)が与えられると、オブジェクト検出システムは、物理環境のキャプチャされた画像において生じるオブジェクトの様々なクラスのインスタンスを識別してもよい。オブジェクト検出システムによる出力は、いくつかの異なる方法でパラメータ化され得る。いくつかの実施形態では、オブジェクト検出システムは、受信した画像を処理して、密なピクセル毎セグメンテーションを出力する。各ピクセルは、オブジェクトクラスラベル(例えば、人、建物、車、動物等)に対応する値、及び/又は、そのオブジェクトクラスに属する尤度のいずれかに関連付けられる。例えば、図19は、キャプチャされた画像1902の密なピクセル毎セグメンテーションの視覚化1904を示し、このキャプチャされた画像1902では、人として分類された検出されたオブジェクト1910a~bに対応するピクセルが、画像1902内の他の全ての他のピクセルから離れて設定されている。別のパラメータ化は、例えば受信された画像内のオブジェクトの表現の幾何中心に基づいて、(例えば、図15のマップ1530に示されるように)特定の画像座標に検出されたオブジェクトの画像位置を解決することを含んでいてもよい。
いくつかの実施形態では、オブジェクト検出システムは、オブジェクト検出のために深層畳み込みニューラルネットワークを利用し得る。例えば、入力はデジタル画像(例えば、画像1902)であってもよく、出力は同じ空間次元を備えたテンソルであってもよい。出力テンソルのスライスのそれぞれは、密なセグメンテーション予測を表してもよく、ここで、各ピクセルの値は、そのピクセルがスライスに対応するオブジェクトのクラスに属する尤度に比例する。例えば、図19に示す視覚化1904は、前述のテンソルの特定のスライスを表してもよく、ここで、各ピクセルの値は、そのピクセルが人に対応する尤度に比例する。加えて、深層畳み込みニューラルネットワークはまた、次のセクションで説明するように、検出されたインスタンスのそれぞれの幾何中心位置も予測し得る。
追跡システム140は、オブジェクト検出システムによって検出されたオブジェクトの個々のインスタンスを区別するためのインスタンスセグメンテーションシステムも含んでいてもよい。いくつかの実施形態では、検出されたオブジェクトの個々のインスタンスを区別するプロセスは、UAV100によってキャプチャされたデジタル画像を、物理環境内に存在し、デジタル画像内にキャプチャされた物理オブジェクトのクラスの複数のインスタンスの1つに属するピクセルを識別するように処理することを含んでいてもよい。図19に関して前述したように、密なピクセル毎セグメンテーションアルゴリズムは、画像内の所定のピクセルを、オブジェクトの1つ以上のクラスに対応するものとして分類し得る。このセグメンテーションプロセスの出力によって、追跡システム140は、画像内に表されるオブジェクトと、画像の残りの部分(すなわち、背景)とを区別してもよい。例えば、視覚化1904は、(例えば、領域1912内に含まれる)人に対応するピクセルを、(例えば、領域1930内に含まれる)人に対応しないピクセルから区別する。しかしながら、このセグメンテーションプロセスは、必ずしも検出されたオブジェクトの個々のインスタンスを区別しない。視覚化1904を見ている人は、検出された画像内の人に対応するピクセルが実際には2人の別々の人に対応すると結論付けるかもしれないが、さらなる分析なしでは、追跡システム140はこの区別を行うことはできない可能性がある。
効果的なオブジェクト追跡は、検出されたオブジェクトの別個のインスタンスに対応するピクセルを区別することを含んでいてもよい。このプロセスは「インスタンスセグメンテーション」として知られている。図20は、キャプチャされた画像2002に基づくインスタンスセグメンテーション出力の例示的な視覚化2004を示す。図19に関して説明した密なピクセル毎セグメンテーションプロセスと同様に、視覚化2004によって表される出力は、特定のクラスのオブジェクト(この場合、人)の検出されたオブジェクト2010a~cに対応するピクセル(例えば、領域2012a~cに含まれるピクセル)を、そのようなオブジェクトに対応しないピクセル(例えば、領域2030に含まれるピクセル)から区別する。なお、インスタンスセグメンテーションプロセスは、検出されたオブジェクトの個々のインスタンスに対応するピクセルを互いに区別するよう、さらに一歩進んでいる。例えば、領域2012aのピクセルは、人2010aの検出されたインスタンスに対応し、領域2012bのピクセルは、人2010bの検出されたインスタンスに対応し、領域2012cのピクセルは、人2010cの検出されたインスタンスに対応する。
検出されたオブジェクトのインスタンス間の区別は、検出されたオブジェクトに対応するピクセルの分析に基づいてもよい。例えば、グループ化方法は、オブジェクトの特定のクラスに対応するピクセルをそのクラスの特定のインスタンスに関連付けるために、追跡システム140によって適用されてもよい。そのような関連付けは、該インスタンスに対応する所定の他のピクセルに実質的に類似するピクセル、空間的にクラスタ化されたピクセル、オブジェクトクラス等についての外観ベースのモデルに適合するピクセルクラスタ等を選択することによって行われ得る。この場合も、このプロセスは、検出されたオブジェクトの個々のインスタンスを区別するために、深層畳み込みニューラルネットワークを適用することに関与してもよい。
インスタンスセグメンテーションは、オブジェクトの特定のインスタンスに対応するピクセルを関連付けてもよいが、そのような関連付けは、時間的に一貫していないことがある。図20に関して記載された例について、再度検討する。図20に示すように、追跡システム140は、インスタンスセグメンテーションプロセスを物理環境のキャプチャされた画像2002に適用することによって、所定のクラスのオブジェクト(すなわち、人)の3つのインスタンスを識別している。このキャプチャされた例示的な画像2002は、キャプチャされたビデオの一連のフレームにおける1つのフレームのみを表してもよい。第2のフレームが受信された際、追跡システム140は、新たに識別されたオブジェクトインスタンスを、画像2002でキャプチャされたものと同じ3人の人々2010a~cに対応するものとして認識できない場合がある。
この問題に対処するために、追跡システム140は、アイデンティティ認識システムを含み得る。アイデンティティ認識システムは、受信した入力(例えば、キャプチャした画像)を、所定のオブジェクト(例えば、特定の人々)のインスタンスの外観を学習するように処理してもよい。具体的には、アイデンティティ認識システムは、機械学習の外観ベースのモデルを、UAV100に関連付けられた1つ以上の画像キャプチャデバイス114/115によってキャプチャされたデジタル画像に適用してもよい。キャプチャされた画像の処理に基づいて識別されたインスタンスセグメンテーションは、その後、検出されたオブジェクトの1つ以上のユニークなアイデンティティを解決するために、そのような外観ベースのモデルと比較され得る。
アイデンティティ認識は、オブジェクト追跡に関連する様々な異なるタスクに有用であり得る。先に言及したように、検出されたオブジェクトのユニークなアイデンティティを認識することで、時間的な一貫性が可能になる。さらに、アイデンティティ認識は、複数の種々異なるオブジェクトの追跡を可能にし得る(詳細については後述する)。アイデンティティ認識はまた、オブジェクトの永続性を促進してもよく、このオブジェクトの永続性によって、画像キャプチャデバイスのFOVの制限、オブジェクトの運動及び/又は別のオブジェクトによる遮蔽のためにビューから外れた、以前に追跡されるオブジェクトの再取得が可能になる。アイデンティティ認識はまた、特定の人物が表示されている際にビデオを記録する等の、所定のアイデンティティ固有の行動又はアクションを実行するためにも適用され得る。
いくつかの実施形態では、アイデンティティ認識プロセスは、所定のオブジェクトの1つ以上の効果的な外観ベースのモデルを学習するために、深層畳み込みニューラルネットワークを採用してもよい。いくつかの実施形態では、ニューラルネットワークは、オブジェクト(例えば、人)の同じインスタンスに属する画像クロップに対しては低い距離値を返し、それ以外には高い距離値を返す、距離メトリックを学習するように訓練され得る。
いくつかの実施形態ではまた、アイデンティティ認識プロセスは、人等のオブジェクトの個々のインスタンスの外観を学習することを含んでいてもよい。人を追跡する際、追跡システム140は、ユーザ入力データ、又は、ソーシャルメディア上で利用可能な個人に関連する画像等の外部データソースのいずれかを通じて、人のアイデンティティを関連付けるように構成されてもよい。そのようなデータは、UAV100に搭載された1つ以上の画像キャプチャデバイス114/115のいずれかから受信された画像に基づく詳細な顔認識プロセスと組み合わせられ得る。いくつかの実施形態では、アイデンティティ認識プロセスは、1人以上の主要な個人に焦点を合わせてもよい。例えば、UAV100に関連付けられた追跡システム140は、UAV100の指定された所有者のアイデンティティの学習に特に焦点を合わせて、追跡、ナビゲーション及び/又は他の目的(例えば、アクセス制御)のために、その飛行間における知識を保持及び/又は改善してもよい。
いくつかの実施形態では、追跡システム140は、キャプチャされた画像内に検出された特定のオブジェクトに追跡の焦点を合わせるように構成されてもよい。そのような単一オブジェクト追跡アプローチでは、識別されたオブジェクト(例えば、人)が追跡対象として指定され、一方で、他の全てのオブジェクト(例えば、他の人、木、建物、景観など)は眩惑させるもの(distractor)として扱われ、無視される。一部の文脈においては便利である一方、単一オブジェクト追跡アプローチは、いくつかのデメリットを有することがある。例えば、画像キャプチャデバイスの観点から、追跡されるオブジェクトと眩惑オブジェクトとの軌跡が重なっていると、追跡されているオブジェクトが不注意に切り替わる可能性があり、そのため、追跡システム140が代わりに眩惑させるものの追跡を開始することがある。同様に、オブジェクト検出器による空間的に近い誤検知も、追跡が不注意に切り替わることにつながる可能性がある。
複数オブジェクト追跡アプローチは、これらの欠点に対処し、いくつかの追加の利点を提示する。いくつかの実施形態では、ユニークな追跡が、1つ以上の画像キャプチャデバイス114/115によってキャプチャされた画像内に検出された各オブジェクトに関連付けられる。いくつかの場合では、コンピューティングの観点から、画像内にキャプチャされた全ての単一のオブジェクトに対してユニークな追跡を関連付けることは現実的ではない。例えば、所与の画像は、岩や葉や木などの小さな特徴を含む、何百ものオブジェクトを含むことがある。代わりに、追跡の観点から、関心のある所定のクラスのオブジェクトに対してユニークな追跡を関連付けてもよい。例えば、追跡システム140は、一般的に移動可能であるクラス(例えば、人、動物、輸送機械等)に属する検出された全オブジェクトに対して、ユニークな追跡を関連付けるように構成されてもよい。
ユニークな追跡のそれぞれは、(例えば、前述の時空間因子グラフを使用しての)追跡されているオブジェクトの空間的位置及び動きの推定、並びに、(例えば、識別認識機能を使用しての)該オブジェクトの外観の推定を含んでいてもよい。全ての他の眩惑させるものを一緒にプールする(すなわち、単一のオブジェクト追跡アプローチで実行され得るようにする)代わりに、追跡システム140は、複数の個々の追跡されるオブジェクトを区別することを学習し得る。そうすることにより、追跡システム140は、不注意なアイデンティティの切り替えをより起こりにくくしてもよい。同様に、オブジェクト検出器による誤検知は、何らかのユニークな追跡とは一致しない傾向があるため、より堅牢に拒否され得る。
複数オブジェクト追跡を実行する際に考慮する態様には、関連付け問題が含まれる。換言すれば、キャプチャされた画像に基づくオブジェクト検出のセット(セグメンテーションに対応する画像内の3D位置及び領域によるパラメータ化を含む)が与えられると、オブジェクト検出のセットのそれぞれを対応する追跡にどのようにして関連付けるかに関し、問題が発生する。この関連付けの問題に対処するために、追跡システム140は、検出されたオブジェクトと推定されたオブジェクト追跡との間の関係に基づいて、複数の検出されたオブジェクトの1つを、複数の推定されたオブジェクト追跡の1つに関連付けるように構成され得る。具体的には、このプロセスには、オブジェクト検出の1つ以上のペアの「コスト」値の計算と、オブジェクト追跡の推定とが含まれていてもよい。計算されたコスト値は、例えば、所与のオブジェクト検出の(例えば、3D空間及び/又は画像空間内の)現在の位置と所与の追跡の(例えば、3D空間及び/又は画像空間内の)現在の推定との間の空間距離、所与の追跡の現在の推定の不確実性、所与の検出されたオブジェクトの外観と所与の追跡についての外観の推定の差、及び/又は、所与の検出されたオブジェクトと所与の追跡との間の関連付けを示唆する傾向があり得る任意の他の要因を考慮し得る。いくつかの実施形態では、複数のコスト値が様々な異なる要因に基づいて計算されて単一のスカラー値に融合され、この単一のスカラー値は、所与の検出されたオブジェクトが所与の追跡にどれだけよく適合するかの尺度として扱われる。次に、コスト定式化を最小コストの完全二部マッチング問題のインスタンスとして処理することによって、検出されたオブジェクトと対応する追跡との間の最適な関連付けを決定するために、前述のコスト定式化が使用され得る。この完全二部マッチング問題は、例えば、ハンガリアンアルゴリズムを使用して解決され得る。
いくつかの実施形態では、追跡システム140による効果的なオブジェクト追跡は、オブジェクトの状態に関する情報を組み込むことによって改善されてもよい。例えば、人等の検出されたオブジェクトは、1つ以上の定義された状態に関連付けられてもよい。この文脈において、状態には、座っている、立っている、歩いている、走っている、ジャンプしている等のオブジェクトによる活動が含まれることがある。いくつかの実施形態では、1つ以上の知覚入力(例えば、画像キャプチャデバイス114/115からの視覚入力)が、検出されたオブジェクトに関連付けられた1つ以上のパラメータを推定するために使用されてもよい。この推定されたパラメータには、活動タイプ、運動能力、軌道の進行方向、文脈上の場所(例えば、屋内と屋外)、他の検出されたオブジェクトとの相互作用(例えば、一緒に歩く2人、人が持つ革紐に繋がれた犬、車に牽引されたトレーラ等)、及び、任意の他の意味属性が含まれていてもよい。
概して、オブジェクト状態推定は、知覚入力(例えば、UAV100に搭載された1つ以上の画像キャプチャデバイス114/115によってキャプチャされた、検出されたオブジェクトの画像、又は、UAV100に搭載されている他のセンサからのセンサデータ)に基づいて、検出されたオブジェクトの状態に関連付けられた1つ以上のパラメータを推定するために適用されてもよい。次に、推定されたパラメータは、検出されたオブジェクトの運動の予測を支援し、それによって検出されたオブジェクトの追跡を支援するために適用されてもよい。例えば、検出された人間の未来の軌跡推定は、その検出された人が歩いているか、走っているか、ジャンプしているか、自転車に乗っているか、車に乗っているか等に応じて、異なることがある。いくつかの実施形態では、深層畳み込みニューラルネットワークは、複数のデータソース(例えば、知覚入力)に基づくパラメータ推定を生成して、未来の軌道推定の生成を支援し、それによって追跡を支援するために適用されてもよい。
先に言及したように、追跡システム140は、過去の軌道測定及び/又は推定、現在の知覚入力、運動モデル並びに任意の他の情報(例えば、オブジェクトの状態の推定)に基づいて、検出されたオブジェクトの未来の軌道を推定(すなわち、予測)するように構成されてもよい。検出されたオブジェクトの未来の軌道を予測することは、UAV100による自律ナビゲーションに特に有用であり得る。UAV100による効果的な自律ナビゲーションは、物理環境内の現在の状態の予測と全く同じくらい、未来の状態の予測に依存する場合がある。運動計画プロセスを通じて、UAV100のナビゲーションシステムは、例えば、衝突を回避するように、運動中の追跡されるオブジェクトとの間隔を維持するように、及び/又は、任意の他のナビゲーション目標を満たすように、UAV100が操縦されるよう構成された、制御コマンドを生成してもよい。
検出されたオブジェクトの未来の軌道を予測することは、一般に、解決が比較的難しい問題である。この問題は、既知の予測可能な運動モデルに従って動いているオブジェクトについては、簡略化され得る。例えば、自由落下中のオブジェクトは、既知の重力定数及び他の既知の要素(例えば、風の抵抗)に基づいた速度で加速しつつ、以前の軌道に沿って継続すると予想される。そのような場合、未来の軌道の予測を生成する問題は、オブジェクトに関連付けられた既知の又は予測可能な運動モデルに従って、単に過去及び現在の運動を伝播するように単純化され得る。勿論、オブジェクトは、いくつかの理由で(例えば、別のオブジェクトとの衝突によって)、そのような仮定に基づいて生成された予測軌道から逸脱することがある。しかしながら、予測された軌跡は、運動計画や追跡の目的で依然として役立つことがある。
人々や動物等の動的オブジェクトは、そのようなオブジェクトの運動が一般に環境及びそれら自身の自由意志に基づくため、未来の軌道を予測する際により困難な課題をもたらす。そのような課題に対処するために、追跡システム140は、未来の短時間(例えば、数秒)の軌道を予測し、そのような予測を新しい測定値が取得された際に継続的に更新するために、オブジェクトの現在の位置及び運動の正確な測定を行うと共に微分された速度及び/又は加速度を使用ように構成されてもよい。さらに、追跡システム140はまた、予測された軌跡を生成するのを助けるために、キャプチャされた画像の分析から収集された意味情報を手掛かりとして使用してもよい。例えば、追跡システム140は、検出されたオブジェクトが、道路に沿って移動する自転車に乗っている人であると決定してもよい。この意味情報を用いて、追跡システム140は、追跡されるオブジェクトが道路の道とほぼ一致する軌道に沿って続く可能性が高いという仮定を形成してもよい。別の関連する例として、追跡システム140は、人が自転車のハンドルバーを左に曲げ始めたことを決定してもよい。この意味情報を用いて、追跡システム140は、追跡されるオブジェクトが左に曲がる可能性が高いという仮定を、この運動が露呈される何らかの位置測定値を受信する前に形成してもよい。人々や動物等の自律オブジェクトに特に関連する別の例としては、オブジェクトが他のオブジェクトとの衝突を回避する傾向があると仮定することが挙げられる。例えば、追跡システム140は、追跡されるオブジェクトが、電柱等の別のオブジェクトと衝突することになる軌道上に向かう人であると決定してもよい。この意味情報を用いて、追跡システム140は、追跡されるオブジェクトが、衝突が発生する前の何らかの時点で、該オブジェクトの現在の軌道を変える可能性が高いという仮定を形成してもよい。当業者は、これらが、意味情報を所定のオブジェクトの未来の軌跡の予測を導くための手掛かりとしてどのように利用し得るかについての単なる例であることを認識するであろう。
1つ以上のキャプチャされた画像においてオブジェクト検出プロセスを時間フレーム毎に実行することに加えて、追跡システム140はまた、例えば、特定のセットの運動、又は、後続の時間フレーム(例えば、ビデオフレーム)における画像内のピクセル領域を検出するために、フレーム間追跡プロセスを実行するように構成されてもよい。そのようなプロセスは、平均値シフトアルゴリズム、相関フィルタ及び/又は深層ネットワークの適用に関与してもよい。いくつかの実施形態では、フレーム間追跡は、オブジェクト検出システムとは別のシステムによって適用されてもよく、ここで、フレーム間追跡からの結果は、時空間因子グラフ内に融合される。あるいは又はこれに加えて、オブジェクト検出システムは、例えば、システムが利用可能なコンピューティングリソース(例えば、メモリ)を十分に有する場合に、フレーム間追跡を実行してもよい。例えば、オブジェクト検出システムは、深層ネットワークでの反復を通じて、及び/又は一度に複数の画像を渡すことを通じて、フレーム間追跡を適用してもよい。フレーム間追跡プロセス及びオブジェクト検出プロセスはまた、障害が発生した際に一方が他方を復帰させることにより、互いに補完するように構成することもできる。
前述のように、追跡システム140は、UAV100に搭載された1つ以上の画像キャプチャデバイス114/115から受信された画像(例えば、生のピクセルデータ)を処理するように構成されてもよい。あるいは又はこれに加えて、追跡システム140はまた、視差画像を処理することによって動作するように構成されてもよい。そのような視差画像は、空間内のオブジェクトの3D位置に起因してオブジェクトに対応するピクセルが同様の視差を持つため、物理環境内のオブジェクトに対応する画像の領域を強調する傾向がある。したがって、視差画像は、2つ以上の画像を別個のステレオアルゴリズムに従って処理することにより生成されたものであってもよく、物理環境内のオブジェクトの検出において追跡システム140を導くための有用な手掛かりを提供してもよい。多くの状況、特に、苛烈な照明が存在する状況では、視差画像は、実際には、オブジェクトの位置に関して、画像キャプチャデバイス114/115からキャプチャされた画像より強い手がかりを提供してもよい。前述のように、視差画像は、別のステレオアルゴリズムを用いて計算されてもよい。あるいは又はこれに加えて、視差画像は、追跡システム140によって適用される同じ深層ネットワークの一部として出力されてもよい。視差画像は、画像キャプチャデバイス114/115から受信された画像とは別個にオブジェクト検出に使用されてもよく、それらの画像が共同推定のために単一のネットワーク内へと組み合わされてもよい。
概して、追跡システム140(例えば、オブジェクト検出システム及び/又は関連するインスタンスセグメンテーションシステムを含む)は、主として、所与の画像内のどのピクセルが各オブジェクトインスタンスに対応するかを決定することに関係し得る。しかしながら、これらのシステムは、所与のオブジェクトの、所与の画像内に実際にキャプチャされていない部分を考慮しないことがある。例えば、オブジェクトの遮蔽部分(例えば、木によって部分的に遮蔽された人)に遮蔽がなければ対応していたと考えられるピクセルは、オブジェクトに対応するものとしてラベル付けされない場合がある。これは、オブジェクトのサイズ及び形状が、遮蔽によってキャプチャされた画像内で歪んでいるように見える可能性があるため、オブジェクトの検出、インスタンスセグメンテーション、アイデンティティ認識について不利になり得る。この問題に対処するために、追跡システム140は、キャプチャされた画像内のオブジェクトインスタンスのセグメンテーションを、該オブジェクトインスタンスが他のオブジェクトインスタンスによって遮蔽されている場合であっても暗に行うように構成されてもよい。さらに、オブジェクト追跡システム140は、オブジェクトインスタンスに関連付けられたピクセルのどれが、該オブジェクトインスタンスの遮蔽部分に対応するかを決定するように構成されてもよい。このプロセスは、一般に「アモーダルセグメンテーション」と称され、(例えば、画像キャプチャデバイス114/115によってキャプチャされた受信画像に)物理オブジェクトの一部が必ずしも認識されない場合であっても、このセグメンテーションプロセスは、物理オブジェクトの全体を考慮する。アモーダルセグメンテーションは、アイデンティティ認識を実行する際に、及び、複数オブジェクト追跡のために構成された追跡システム140において、特に有利であり得る。
物理環境中を運動中のオブジェクトを追跡する際、視覚的接触の喪失が予想される。主として視覚入力(例えば、画像キャプチャデバイス114/115によってキャプチャされた画像)に基づく追跡システム140は、(例えば、別のオブジェクトによって遮蔽される、又は、オブジェクトが画像キャプチャデバイスの114/115のFOVを離れることに起因して)視覚的接触が失われると、オブジェクトについての追跡を喪失する可能性がある。そのような場合、追跡システム140は、オブジェクトの位置について不確実になることがあり、そのため、オブジェクトが喪失されたと宣言することがある。人のパイロットであれば、オブジェクトの永続性を理解しているため、特に一時的な遮蔽の場合には、通常この問題を抱えていない。オブジェクトの永続性は、所定の物理的制約があるとして、オブジェクトが突然消えたり、即座に別の場所にテレポートしたりできないことを前提としている。この仮定に基づけば、全ての脱出経路が明確に見えていることが明らかな場合、オブジェクトは遮蔽されたボリューム内に残っている可能性が高い。この状況は、単一の遮蔽オブジェクト(例えば、巨石)が全周に空きスペースがある平坦な地面上にある場合には、最も明らかである。キャプチャされた画像内において、運動中の追跡されるオブジェクトが別のオブジェクト(例えば、巨石)の位置で突然姿を消した場合、そのオブジェクトは他のオブジェクトによって遮蔽された位置に残されており、追跡されるオブジェクトは、1つ以上の可能な対比経路のうち1つに沿って出現することになるいくつかの実施形態では、追跡システム140は、この概念があるとして、追跡されるオブジェクトの位置の不確実性の増大を抑え込むアルゴリズムを実装するように構成されてもよい。換言すれば、追跡対象との視覚的接触が特定の位置で喪失された場合、追跡システム140は、対象の位置の不確実性を、最後に観察された位置と、最後に観察された軌道が与えられた1つ以上の可能な脱出経路とにまで抑え込むことができる。この概念の可能な実装には、追跡システム140によって、ステレオによって切り分けられた占有マップ、及び、可能な脱出経路上に粒子フィルタを用いたセグメンテーションを生成することが含まれていてもよい。
無人航空機-システム例
本教示に係るUAV100は、任意のタイプのUAVとして実装されてもよい。UAVは、時にはドローンと称され、人のパイロットが搭乗していなくても操縦可能な航空機として一般に定義される。UAVは、搭載されたコンピュータプロセッサによって自律的に制御されてもよく、遠隔地に位置する人のパイロットによるリモートコントロールを介して制御されてもよい。飛行機と同様に、UAVは、揚力を得るために、推進システム(例えば、プロペラ、ジェットなど)と併せて固定された空気力学的表面を利用してもよい。あるいは、ヘリコプターと同様に、UAVは、重力を打ち消して揚力を得るために、推進システム(例えば、プロペラ、ジェットなど)を直接使用してもよい。(ヘリコプターの場合と同様の)推進力で駆動する揚力は、全ての軸に沿った制御された運動を可能にするために、例えばモバイル撮影プラットフォームとしての所定の実装において、大きな利点を提供する。
マルチロータヘリコプター、特にクワッドコプターは、人気のUAV構成として現れている。クワッドコプター(クワッドロータヘリコプター又はクワッドロータとしても知られている)は、4つのロータによって浮上及び推進されるマルチロータヘリコプターである。大半のヘリコプターとは異なり、クワッドコプターは、2つの固定ピッチプロペラの2セットを使用する。第1のロータのセットは時計回りに回転し、第2のロータのセットは反時計回りに回転する。互いに反対方向に回転すると、第1のロータのセットは、他のセットの回転によって引き起こされる角トルクを打ち消すことができ、それによって飛行を安定させ得る。飛行制御は、4つの固定ピッチロータのそれぞれの角速度を変化させることによって達成される。各ロータの角速度を変化させることによって、クワッドコプターはその位置(例えば、高度、並びに、水平飛行の前後左右の調整)と向き(ピッチ(第1の横軸回りの回転)、ロール(第2の横軸回りの回転)及びヨー(縦軸回りの回転)を含む)を正確に調整し得る。例えば、4つのロータ全てが同じ角速度で回転(時計回りに2つ、反時計回りに2つ)している場合、垂直ヨー軸周りの正味の空力トルクはゼロである。4つのロータが十分な角速度で回転し、重力に等しい垂直推力を提供する場合、クワッドコプターはホバリングを維持できる。ヨーの調整は、4つのロータのサブセットの角速度を変化させ、それによって4つのロータの累積的な空気力学的トルクを不釣り合いにすることによって誘導されてもよい。同様に、ピッチ及び/又はロールの調整は、4つのロータのサブセットの角速度を変化させることによって誘導されるが、機体の一方側で揚力が増加し、機体の他方側で揚力が減少するようなバランスの取れた様式にて行われる。ホバーからの高度の調整は、4つのロータ全てにバランスの取れた変化を適用することによって誘導されてもよく、それによって垂直推力が増加又は減少され得る。前後左右の位置調整は、バランスの取れた垂直方向の推力を適用したピッチ/ロール操作の組み合わせによって誘導されてもよい。例えば、水平面上で前進するために、クワッドコプターは、ピッチ前進操縦を実行するために、4つのロータのサブセットの角速度を変化させることになる。ピッチ前進している間に、全てのロータの角速度を増加させることによって、総垂直推力が増加し得る。前方にピッチした向きのため、垂直推力操縦によって生じる加速度は、水平成分を有することとなり、それによって、機体を水平面上にて前方に加速することとなる。
図21は、いくつかの実施形態に係る、UAV100の一部であり得る様々な機能システムコンポーネントを含む、例示的なUAVシステム2100の図を示す。UAVシステム2100は、1つ以上の推進システム(例えば、ロータ2102及び(1つ以上の)モータ2104)と、1つ以上の電子速度コントローラ2106と、飛行コントローラ2108と、周辺機器インタフェース2110と、(1つ以上の)プロセッサ2112と、メモリコントローラ2114と、メモリ2116(1つ以上のコンピュータ可読記憶媒体を含んでいてもよい)と、電力モジュール2118と、GPSモジュール2120と、通信インタフェース2122と、オーディオ回路2124と、加速度計2126(ジャイロスコープ等のサブコンポーネントを含む)と、IMU2128と、近接センサ2130と、光学センサコントローラ2132及び(1つ以上の)関連する光学センサ2134と、モバイルデバイスインタフェースコントローラ2136及び(1つ以上の)関連するインタフェースデバイス2138と、任意の他の入力コントローラ2140及び(1つ以上の)入力デバイス2142(例えば、(1つ以上の)関連するディスプレイデバイスを備えたディスプレイコントローラ)とを含んでいてもよい。これらのコンポーネントは、図21の矢印によって表されるように、1つ以上の通信バス又は信号線を介して通信してもよい。
UAVシステム2100は、UAV100の一部であり得るシステムの一例にすぎない。UAV100は、システム2100に示されるよりも多い又は少ないコンポーネントを含んでいてもよく、機能ユニットとして2つ以上のコンポーネントを組み合わせてもよく、コンポーネントの異なる構成又は配置を有していてもよい。図21に示されるシステム2100の様々なコンポーネントのいくつかは、ハードウェア、ソフトウェア、又は、ハードウェア及びソフトウェアの両方の組み合わせで実装されてもよく、これらは1つ以上の信号処理及び/又は特定用途向け集積回路を含んでいてもよい。また、UAV100には、本開示において記載される革新的な機能を実行するために、モジュール式アドオンデバイス(例えば、アウトライン2190内のコンポーネントを含むもの)と結合された既製のUAV(例えば、現在利用可能なリモート制御クワッドコプター)が含まれていてもよい。
推進システム(例えば、コンポーネント2102~2104を含む)は、固定ピッチロータを含んでいてもよい。推進システムはまた、可変ピッチロータ(例えば、ジンバル機構を使用する)、可変ピッチジェットエンジン、又は、力を提供する効果を有する任意の他の推進モードを含んでいてもよい。推進システムは、例えば、電子速度コントローラ2106を使用することによって、固定ピッチロータのそれぞれの速度を変化させるように、加えられる推力を変化させてもよい。
飛行コントローラ2108は、入力データ(例えば、画像キャプチャデバイス2134からのセンサデータ、自律ナビゲーションシステム120からの生成された軌道、又は、任意の他の入力)を受信し、制御コマンドをUAV100の推進システム2102~2106及び/又は空力面(例えば、固定翼制御面)へと出力するようにデータを解釈するよう構成された、ハードウェア及び/又はソフトウェアの組み合わせを含んでいてもよい。あるいは又はこれに加えて、飛行コントローラ2108は、別のコンポーネント又はデバイス(例えば、プロセッサ2112及び/又は別個のコンピューティングデバイス)によって生成された制御コマンドを受信し、それらの制御コマンドを解釈し、制御信号を推進システム2102~2106及び/又はUAV100の空力面(例えば、固定翼操縦面)に対して生成するように構成されてもよい。いくつかの実施形態では、UAV100の前述のナビゲーションシステム120は、飛行コントローラ2108及び/又はシステム2100の他のコンポーネントのうちの任意の1つ以上を含んでいてもよい。あるいは、図21に示される飛行コントローラ2108は、例えば、図2に示す飛行コントローラ160と同様に、ナビゲーションシステム120とは別個のコンポーネントとして存在してもよい。
メモリ2116は、高速ランダムアクセスメモリを含んでいてもよく、また、1つ以上の磁気ディスクストレージデバイス、フラッシュメモリデバイス、又は、他の不揮発性固体メモリデバイス等の不揮発性メモリも含んでいてもよい。システム2100の他のコンポーネント(例えば、プロセッサ2112及び周辺機器インタフェース2110)によるメモリ2116へのアクセスは、メモリコントローラ2114によって制御されてもよい。
周辺機器インタフェース2110は、システム2100の入力及び出力周辺機器を、プロセッサ2112及びメモリ2116に結合してもよい。1つ以上のプロセッサ2112は、UAV100のための様々な機能を実施してデータを処理するために、メモリ2116内に格納された様々なソフトウェアプログラム及び/又は命令セットを実行又は遂行する。いくつかの実施形態では、プロセッサ2112は、一般的な中央処理装置(CPU)、並列処理用途に特に適したグラフィックス処理装置(GPU)などの特殊処理装置、又は、それらの任意の組み合わせを含んでいてもよい。いくつかの実施形態では、周辺機器インタフェース2110、プロセッサ2112及びメモリコントローラ2114は、単一の統合チップ上に実装されてもよい。他のいくつかの実施形態では、それらは別個のチップ上に実装されてもよい。
ネットワーク通信インタフェース2122は、多くの場合に電磁信号の形態である通信信号の送信及び受信を促進してもよい。電磁通信信号の送信及び受信は、銅線ケーブル又は光ファイバーケーブル等の物理的媒体を介して実施されてもよく、例えば無線周波数(RF)トランシーバを介して無線で実施されてもよい。いくつかの実施形態では、ネットワーク通信インタフェースは、RF回路を含んでいてもよい。そのような実施形態では、RF回路は、電気信号を電磁信号に/から変換して、通信ネットワーク及び他の通信デバイスと電磁信号を介して通信してもよい。RF回路は、これらの機能を実行するための周知の回路を含んでいてもよく、そのような回路には、以下に限定されないが、アンテナシステム、RFトランシーバ、1つ以上の増幅器、チューナー、1つ以上の発振器、デジタル信号プロセッサ、コーデックチップセット、加入者識別モジュール(SIM)カード、メモリ等が含まれる。RF回路は、通信ネットワーク(パブリック、プライベート、ローカル及びワイドエリアを含む)を介してのデータの送受信を促進してもよい。例えば、通信は、広域ネットワーク(WAN)、ローカルエリアネットワーク(LAN)、又は、インターネット等のネットワークのネットワークを介して行われてもよい。通信は、有線の伝送媒体を介して(例えば、イーサネットを介して)促進されてもよく、無線で促進されてもよい。無線通信は、無線セルラー電話ネットワーク、無線ローカルエリアネットワーク(LAN)及び/又はメトロポリタンエリアネットワーク(MAN)、並びに、他のモードの無線通信を介してもよい。無線通信は、複数の通信規格、プロトコル及び技術のうち任意のものを使用してもよく、そのような通信規格、プロトコル及び技術には、以下に限定されないが、グローバルシステムモバイルコミュニケーション(GSM)、拡張データGSM環境(EDGE)、高速ダウンリンクパケットアクセス(HSDPA)、広帯域符号分割多元接続(W-CDMA)、符号分割多元接続(CDMA)、時分割多元接続(TDMA)、Bluetooth、ワイヤレスフィデリティ(Wi-Fi)(IEEE 802.11n及び/又はIEEE 802.11ac等)、ボイスオーバーインターネットプロトコル(VoIP)、Wi-MAX、又は、任意の他の適切な通信プロトコルが含まれる。
スピーカ及びマイクロフォン2150を含むオーディオ回路2124は、周囲環境とUAV100との間のオーディオインタフェースを提供してもよい。オーディオ回路2124は、周辺機器インタフェース2110からオーディオデータを受信し、オーディオデータを電気信号に変換し、電気信号をスピーカ2150へと送信してもよい。スピーカ2150は、電気信号を人が聞こえる音波へと変換してもよい。オーディオ回路2124はまた、マイクロ波2150によって音波から変換された電気信号を受信してもよい。オーディオ回路2124は、電気信号をオーディオデータに変換し、オーディオデータを処理のために周辺機器インタフェース2110へと送信してもよい。オーディオデータは、周辺機器インタフェース2110によって、メモリ2116及び/又はネットワーク通信インタフェース2122から引き出され及び/又は送信されてもよい。
I/Oサブシステム2160は、光学センサシステム2134、モバイルデバイスインタフェース2138、及び、他の入力/制御デバイス2142等の、UAV100の入力/出力周辺機器を、周辺機器インタフェース2110に結合してもよい。I/Oサブシステム2160は、光センサコントローラ2132、モバイルデバイスインタフェースコントローラ2136、及び、他の入力又は制御デバイスのための(1つ以上の)他の入力コントローラ2140を含んでいてもよい。1つ以上の入力コントローラ2140は、電気信号を、他の入力又は制御デバイス2142から受信/へと送信する。
他の入力/制御デバイス2142は、物理的なボタン(例えば、プッシュボタン、ロッカーボタンなど)、ダイヤル、タッチスクリーンディスプレイ、スライダースイッチ、ジョイスティック、クリックホイールなどを含んでいてもよい。仮想ボタン又はソフトボタンと、1つ以上のソフトキーボードとを実装するために、タッチスクリーンディスプレイが使用されてもよい。タッチ感応タッチスクリーンディスプレイは、UAV100とユーザとの間の入力インタフェース及び出力インタフェースを提供してもよい。ディスプレイコントローラは、電気信号をタッチスクリーンから受信及び/又はタッチスクリーンへと送信してもよい。タッチスクリーンは、視覚的出力をユーザに対して表示してもよい。視覚的出力は、グラフィックス、テキスト、アイコン、ビデオ及びそれらの任意の組み合わせ(まとめて「グラフィックス」と称される)を含んでいてもよい。いくつかの実施形態では、視覚的出力の一部又は全部は、ユーザインタフェースオブジェクトに対応してもよく、その詳細は以下にて記載する。
タッチ感応ディスプレイシステムは、触覚及び/又は触知性接触に基づいてユーザからの入力を受容するタッチ感応表面、センサ又はセンサのセットを有していてもよい。タッチ感応ディスプレイシステム及びディスプレイコントローラ(併せて、メモリ2116内の任意の関連するモジュール及び/又は命令セット)は、タッチスクリーン上の接触(及び、接触についての任意の移動又は中断)を検出すると共に、検出された接触をタッチスクリーンに表示されるユーザインタフェースオブジェクト(1つ以上のソフトキー又は画像等)との対話へと変換してもよい。例示的な実施形態では、タッチスクリーンとユーザとの間の接触点は、ユーザの指に対応する。
タッチスクリーンは、液晶ディスプレイ(LCD)技術又は発光ポリマーディスプレイ(LPD)技術を使用してもよいが、他の実施形態において、他のディスプレイ技術を使用してもよい。タッチスクリーン及びディスプレイコントローラは、現在知られている又は今後開発される複数のタッチ感知技術の任意のものを使用して、接触及びその動き又は中断を検出してもよく、そのようなタッチ感知技術には、以下に限定されないが、静電容量式、抵抗膜式、赤外線及び弾性表面波技術、並びに、タッチスクリーンとの1つ以上の接触点を決定するための他の近接センサアレイ又は他の要素が含まれる。
モバイルデバイスインタフェースデバイス2138は、モバイルデバイスインタフェースコントローラ2136と併せて、UAV100とモバイルデバイス104等の他のコンピューティングデバイスとの間のデータの送信を促進してもよい。いくつかの実施形態によれば、通信インタフェース2122は、(例えば、データがWi-Fiネットワークを介して転送される場合)UAV100とモバイルデバイス104との間のデータの送信を促進してもよい。
UAVシステム2100はまた、様々なコンポーネントに電力を供給するための電力システム2118を含む。電力システム2118は、電力管理システム、1つ以上の電源(例えば、電池、交流(AC)等)、再充電システム、電力喪失検出回路、電力変換器又はインバータ、電力状態インジケータ(例えば、発光ダイオード(LED))、及び、コンピュータ化されたデバイスにおける電力の生成、管理及び配電に関連する任意の他のコンポーネントを含んでいてもよい。
UAVシステム2100はまた、1つ以上の画像キャプチャデバイス2134を含んでいてもよい。画像キャプチャデバイス2134は、図1に関して記載したUAV100の画像キャプチャデバイス114/115と同じであってもよい。図21は、I/Oサブシステム2160内の画像キャプチャコントローラ2132に結合された画像キャプチャデバイス2134を示す。画像キャプチャデバイス2134は、1つ以上の光学センサを含んでいてもよい。例えば、画像キャプチャデバイス2134は、電荷結合デバイス(CCD)又は相補型金属酸化膜半導体(CMOS)フォトトランジスタを含んでいてもよい。画像キャプチャデバイス2134の光学センサは、1つ以上のレンズを通して投影される環境から光を受けて(光学センサとレンズとの組み合わせは、「カメラ」と称され得る)、その光を画像を表すデータへと変換する。メモリ2116内に配置されたイメージングモジュールと連携して、画像キャプチャデバイス2134は、画像(静止画像及び/又はビデオを含む)をキャプチャしてもよい。いくつかの実施形態では、画像キャプチャデバイス2134は、単一の固定カメラを含んでいてもよい。他の実施形態では、画像キャプチャデバイス2140は、単一の調整可能なカメラ(1つ以上の運動軸を備えたジンバル機構を使用して調整可能)を含んでいてもよい。いくつかの実施形態では、画像キャプチャデバイス2134は、より広いFOVを提供する広角レンズを備えたカメラを含んでいてもよい。いくつかの実施形態では、画像キャプチャデバイス2134は、全方向に最大360度の視野を提供する複数のカメラのアレイを含んでいてもよい。いくつかの実施形態では、画像キャプチャデバイス2134は、立体視を提供するために互いに隣り合って配置された(本明細書に記載の任意のタイプの)2つ以上のカメラを含んでいてもよい。いくつかの実施形態では、画像キャプチャデバイス2134は、上述のような任意の組み合わせの複数のカメラを含んでいてもよい。いくつかの実施形態では、画像キャプチャデバイス2134のカメラは、少なくとも2つのカメラにUAV100回りの複数の角度で重なり合うFOVが提供され、それによってUAV100回りの複数の角度での立体(すなわち、3D)画像/ビデオのキャプチャ及び深度回復を(例えば、コンピュータビジョンアルゴリズムを使用して)可能にするように配置されてもよい。例えば、UAV100は、UAV100回りの複数の角度にて立体視ビューを提供するようにそれぞれ配置された2つのカメラの4セットを含んでいてもよい。いくつかの実施形態では、UAV100は、対象の画像キャプチャ専用であるいくつかのカメラと、(例えば、視覚慣性オドメトリによる)視覚ナビゲーション用の画像キャプチャ専用である他のカメラとを含んでいてもよい。
UAVシステム2100はまた、1つ以上の近接センサ2130を含んでいてもよい。図21は、周辺機器インタフェース2110に結合された近接センサ2130を示す。あるいは、近接センサ2130は、I/Oサブシステム2160内の入力コントローラ2140に結合されてもよい。近接センサ2130は、一般に、近接検出、距離測定、ターゲット識別等のためのリモートセンシング技術を含んでいてもよい。例えば、近接センサ2130は、レーダ、ソナー及びLIDARを含んでいてもよい。
UAVシステム2100はまた、1つ以上の加速度計2126を含んでいてもよい。図21は、周辺機器インタフェース2110に結合された加速度計2126を示す。あるいは、加速度計2126は、I/Oサブシステム2160内の入力コントローラ2140に結合されてもよい。
UAVシステム2100は、1つ以上のIMU2128を含んでいてもよい。IMU2128は、ジャイロスコープと加速度計(例えば、加速度計2126)との組み合わせを使用して、UAVの速度、加速度、向き及び重力を測定及び報告する。
UAVシステム2100は、全地球測位システム(GPS)受信機2120を含んでいてもよい。図21は、周辺機器インタフェース2110に結合されたGPS受信機2120を示す。あるいは、GPS受信機2120は、I/Oサブシステム2160内の入力コントローラ2140に結合されてもよい。GPS受信機2120は、地球の周りの軌道にあるGPS衛星から信号を受信し、(GPSソフトウェアの使用により)GPS衛星のそれぞれまでの距離を計算して、それによりUAV100の現在の全地球的位置を正確に示してもよい。
いくつかの実施形態では、メモリ2116内に格納されたソフトウェアコンポーネントは、オペレーティングシステム、通信モジュール(又は命令のセット)、飛行制御モジュール(又は命令のセット)、位置特定モジュール(又は命令のセット)、コンピュータビジョンモジュール(又は命令のセット)、グラフィックスモジュール(又は命令のセット)及び他のアプリケーション(又は命令のセット)を含んでいてもよい。明確にするために、1つ以上のモジュール及び/又はアプリケーションは、図21に示されていない場合がある。
オペレーティングシステム(例えば、Darwin(登録商標)、RTXC、Linux(登録商標)、Unix(登録商標)、Apple(登録商標) OS X、Microsoft Windows(登録商標)、又は、VxWorks(登録商標)等の組み込みオペレーティングシステム)は、一般的なシステムタスク(例えば、メモリ管理、ストレージデバイス制御、電源管理等)を制御及び管理するための様々なソフトウェアコンポーネント及び/又はドライバを含んでおり、様々なハードウェアとソフトウェアコンポーネントとの間の通信を促進する。
通信モジュールは、1つ以上の外部ポート2144を介して他のデバイスとの通信を促進してもよく、また、ネットワーク通信インタフェース2122を介してデータ送信を取り扱うための様々なソフトウェアコンポーネントを含んでいてもよい。外部ポート2144(例えば、ユニバーサルシリアルバス(USB)、FIREWIRE(登録商標)等)は、他のデバイスに直接、又は、ネットワーク(例えば、インターネット、ワイヤレスLAN等)を介して間接的に結合するように適合されてもよい。
グラフィックスモジュールは、グラフィックスデータを処理、レンダリング及び表示するための様々なソフトウェアコンポーネントを含んでいてもよい。本明細書で使用される場合、用語「グラフィックス」は、ユーザに対して表示可能な任意のオブジェクトを含んでいてもよく、そのようなオブジェクトには、テキスト、静止画像、ビデオ、アニメーション、アイコン(例えば、ソフトキーを含むユーザインタフェースオブジェクト)及びそれらに類するものが含まれる。グラフィックスモジュールは、グラフィックス処理ユニット(GPU)2112と連携して、リアルタイム又はほぼリアルタイムに、光学センサ2134及び/又は近接センサ2130によってキャプチャされたグラフィックスデータを処理してもよい。
コンピュータビジョンモジュールは、グラフィックスモジュールのコンポーネントであってもよく、グラフィックスデータの分析及び認識を提供する。例えば、UAV100が飛行している間、コンピュータビジョンモジュールは、グラフィックスモジュール(別々である場合)、GPU2112、画像キャプチャデバイス2134及び/又は近接センサ2130と併せて、地面上に位置するオブジェクトのキャプチャされた画像を認識及び追跡してもよい。コンピュータビジョンモジュールはさらに、UAV100の位置及び/又は方向を更新すると共にコース修正を行い、それによって計画軌道に沿って物理環境中を飛行するために、位置特定/ナビゲーションモジュール及び飛行制御モジュールと通信してもよい。
位置特定/ナビゲーションモジュールは、UAV100の位置及び/又は向きを決定し、この情報を、様々なモジュール及びアプリケーションで使用するために(例えば、飛行コントローラ2108が使用するコマンドを生成するために、フライトコントロールモジュールへと)提供してもよい。
画像キャプチャデバイス2134は、画像キャプチャデバイスコントローラ2132及びグラフィックスモジュールと連携して、画像(静止画像及びビデオを含む)をキャプチャしてそれらをメモリ2116内に格納するために使用されてもよい。
上記で識別されたモジュール及びアプリケーションは、上述の1つ以上の機能を実行するための命令のセットにそれぞれ対応する。これらのモジュール(すなわち、命令のセット)は、別個のソフトウェアプログラム、手順又はモジュールとして実装する必要はなく、したがって、これらのモジュールの様々なサブセットは、様々な実施形態において組み合わせられもよく、別の方法で再構成されてもよい。いくつかの実施形態では、メモリ2116は、上記で識別されたモジュール及びデータ構造のサブセットを格納してもよい。さらに、メモリ2116は、上述されていない追加のモジュール及びデータ構造を格納してもよい。
例示的なコンピュータ処理システム
図22は、本開示に記載の少なくともいくつかの動作が実装され得る、例示的なコンピュータ処理システム2200を示すブロック図である。例示的なコンピュータ処理システム2200は、任意の前述のデバイスの一部であってもよく、そのようなデバイスには、以下に限定されないが、UAV100及びモバイルデバイス104が含まれる。処理システム2200は、1つ以上の中央処理装置(「プロセッサ」)2202、メインメモリ2206、不揮発性メモリ2210、ネットワークアダプタ2212(例えば、ネットワークインタフェース)、ディスプレイ2218、入力/出力デバイス2220、制御デバイス2222(例えば、キーボード及びポインティングデバイス)、記憶媒体2226を含むドライブユニット2224、及び、バス2216に通信可能に接続された信号生成デバイス2230を含んでいてもよい。バス2216は、適切なブリッジ、アダプタ又はコントローラによって接続された、任意の1つ以上の別個の物理バス、ポイントツーポイント接続又はその両方を表す抽象概念として示されている。したがって、バス2216は、例えば、システムバス、周辺機器相互接続(PCI)バス又はPCI-Expressバス、HyperTransport又は業界標準アーキテクチャ(ISA)バス、小型コンピュータシステムインタフェース(SCSI)バス、ユニバーサルシリアルバス(USB)、IIC(I2C)バス、又は、Institute of Electrical and Electronics Engineers(IEEE)標準1394バス(「Firewire」とも称される)を含み得る。バスは、スイッチングファブリック、(1つ以上の)ネットワークポート、(1つ以上の)ツールポート等のネットワークアプライアンスのコンポーネント間で(全二重線又は半二重線を介して)データパケットを中継することもできる。
メインメモリ2206、不揮発性メモリ2210、及び記憶媒体2226(「機械可読媒体」とも称される)は、単一の媒体として示されているが、用語「機械可読媒体」及び「記憶媒体」は、1つ以上のセットの命令2228を格納する単一の媒体又は複数の媒体(例えば、集中型若しくは分散型データベース、並びに/又は、関連するキャッシュ及びサーバ)を含むと解釈されるべきである。「機械可読媒体」及び「記憶媒体」という用語はまた、コンピューティングシステムによって実行されるための命令のセットを格納、符号化又は伝達可能であって、本明細書に開示の実施形態の方法論の任意の1つ以上をコンピューティングシステムに実行させる、任意の媒体を含むと解釈されるべきである。
一般に、本開示の実施形態を実装するために実行されるルーチンは、オペレーティングシステムの一部として実装されてもよく、特定のアプリケーション、コンポーネント、プログラム、オブジェクト、モジュール、又は、「コンピュータプログラム」と称される命令のシーケンスとして実装されてもよい。コンピュータプログラムは、典型的には、コンピュータの様々なメモリ及びストレージデバイス内に様々な時点にて設定された1つ以上の命令(例えば、命令2204,2208,2228)を含み、1つ以上の処理ユニット又はプロセッサ2202によって読み出されて実行された際に、本開示の様々な態様を含む要素を実行するための操作を処理システム2200に実行させる。
さらに、実施形態は、完全に機能するコンピュータ及びコンピュータシステムの文脈で記載されているが、当業者は、様々な実施形態がプログラム製品として様々な形態で配布可能であること、及び、実際に配布を行うために使用されるマシン又はコンピュータ可読媒体の特定のタイプに関わらず、本開示が等しく適用されることについて理解するであろう。
機械可読記憶媒体、機械可読媒体又はコンピュータ可読(記憶)媒体のさらなる例としては、揮発性及び不揮発性メモリデバイス2210、フロッピー及び他のリムーバブルディスク、ハードディスクドライブ、光ディスク(例えば、コンパクトディスク読み出し専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD))等の記録可能タイプの媒体、並びに、デジタル及びアナログ通信リンク等の伝送タイプの媒体が含まれる。
ネットワークアダプタ2212は、コンピュータ処理システム2200及び外部エンティティによってサポートされる任意の既知の及び/又は従来の通信プロトコルを介して、ネットワーク2214内のデータを、ネットワークアプライアンス等のコンピュータ処理システム2200の外部にあるエンティティと仲介することを、コンピュータ処理システム2200が行えるようにする。ネットワークアダプタ2212は、ネットワークアダプタカード、無線ネットワークインタフェースカード、ルータ、アクセスポイント、無線ルータ、スイッチ、マルチレイヤスイッチ、プロトコルコンバータ、ゲートウェイ、ブリッジ、ブリッジルータ、ハブ、デジタルメディアレシーバ、及び/又は、リピータの1つ以上を含んでいてもよい。
ネットワークアダプタ2212は、ファイアウォールを含むことができ、いくつかの実施形態では、ファイアウォールは、コンピュータネットワーク内のデータへのアクセス/プロキシの許可を統御及び/又は管理すると共に、異なるマシン及び/又はアプリケーション間の信頼レベルの変化を追跡することが可能である。ファイアウォールは、特定のマシンとアプリケーションとのセット、マシンとマシンとのセット、及び/又は、アプリケーションとアプリケーションとのセットの間における、既定のアクセス権のセットを行使することが可能な(例えば、これらの様々なエンティティ間におけるトラフィック及びリソース共有のフローを調整することが可能な)、ハードウェア及び/又はソフトウェアコンポーネントの任意の組み合わせを有する任意の数のモジュールであり得る。ファイアウォールは、アクセス制御リストをさらに管理及び/又はアクセス制御リストにアクセスしてもよく、該アクセス制御リストには、例えば、個人、マシン及び/又はアプリケーションによるオブジェクトのアクセス権及び操作権、並びに、許可権が有効である状況を含む許可が詳述されている。
上記のように、本明細書にて提示の技術は、例えば、ソフトウェア及び/又はファームウェアによってプログラムされたプログラマブル回路(例えば、1つ以上のマイクロプロセッサ)、完全に専用のハードワイヤード(すなわち、プログラム可能でない)回路、又は、それらの組み合わせ若しくはそのような形式によって実装されてもよい。専用の回路は、例えば、1つ以上の特定用途向け集積回路(ASIC)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)等の形式であり得る。
なお、任意の上述の実施形態は、上記にて別段の記載がない限り、又は、任意のそのような実施形態が機能及び/又は構造において相互に排他的であると考えられるものでない限りにおいて、別の実施形態と組み合わせられ得ることに留意されたい。
本発明は特定の例示的な実施形態を参照して記載されているが、本発明は記載の実施形態には限定されず、添付の特許請求の範囲の趣旨及び範囲内で修正及び変更を加えて実施され得ることが認識されよう。したがって、明細書及び図面は、限定的な意味ではなく、例示的な意味において考慮されるべきである。

Claims (15)

  1. 有人航空機であって、
    1つ以上の制御アクチュエータと、
    前記有人航空機のパイロットから入力を受信して、前記パイロットからの入力に基づいて前記有人航空機を操縦するように前記1つ以上の制御アクチュエータを調整するための手動制御システムと、
    前記有人航空機の周囲の物理環境の画像をキャプチャするように構成された画像キャプチャデバイスと、
    自動着陸システムであって、
    着陸の命令に応じて:
    前記物理環境内の表面の一部の地面マップを生成して継続的に更新するように、前記画像キャプチャデバイスによってキャプチャされた前記画像を処理するステップであって、前記地面マップは、複数のセルを含み、前記複数のセルのそれぞれは、キャプチャされた前記画像に基づいて継続的に更新される特性データを含む、ステップと、
    前記地面マップに基づいて着陸フットプリントを識別するステップであって、前記着陸フットプリントは、指示された着陸基準を満たす特性データを含む前記地面マップ内の前記複数のセルのサブセットを含む、ステップと、
    識別された前記着陸フットプリントに基づいて前記物理環境内の前記表面上の着陸エリアを指定するステップと、
    1つ以上の制御アクチュエータを自動的に調整して、有人航空機を指定された着陸エリアに自律的に着陸させるステップと
    を行うように構成された、自動着陸システムと
    を含む、有人航空機。
  2. 前記1つ以上の制御アクチュエータは、推進システム及び/又は1つ以上の調整可能な操縦翼面のいずれかを含む、請求項1に記載の有人航空機。
  3. 前記地面マップを生成するステップは、
    複数のデータ点を生成するように、前記画像を処理するステップと、
    前記セルに対応する前記複数のデータ点の1つ以上に基づいて前記地面マップ内のセルについての特性データを更新するステップと
    を含む、請求項1に記載の有人航空機。
  4. 前記複数のデータ点を生成するように、前記画像を処理するステップは、
    視差画像を生成するように、前記画像を処理するステップと、
    生成された前記視差画像のピクセルを、前記物理環境の前記表面に沿った点に対応する空間の3次元(3D)点にマッピングするステップであって、各3D点は、空間内における該3D点のそれぞれの位置に基づく高さ値を有している、ステップと
    を含み、
    前記複数のデータ点の1つ以上は、前記3D点の高さ値に基づいている、請求項3に記載の有人航空機。
  5. 特定のセルについての特性データが、前記特定のセルに対応する前記物理環境の前記表面の一部に沿った複数の3D点の統計値的高さ情報を含み、前記特定のセルについての前記特性データを更新することが、
    前記特定のセルに対応するデータ点を処理して、前記特定のセルについての平均高さ値、又は、高さ値の差の2乗の合計のいずれかを計算することを含む、請求項4に記載の有人航空機。
  6. 前記自動着陸システムは、さらに、
    前記有人航空機が前記物理環境中を飛行している間に、前記有人航空機の運転状態を監視し、
    前記監視に基づいて前記有人航空機の前記運転状態が運転基準を満たしていないことを決定し、
    前記運転状態が前記運転基準を満たしていないことを決定するステップに応じて、前記着陸の命令を生成する
    ように構成される、請求項1に記載の有人航空機。
  7. 前記着陸の命令は、前記パイロットによる入力に応答して受信される、請求項1に記載の有人航空機。
  8. 前記自動着陸システムは、
    モーションプランナと、
    飛行コントローラと、
    を含み、
    前記有人航空機を指定された前記着陸エリアに自律的に着陸させるように、前記1つ以上の制御アクチュエータを調整するステップは、指定された前記着陸エリア上に着陸するための行動目標を生成することを含み、
    前記モーションプランナは
    計画軌道を生成するように、前記行動目標を処理し、
    前記計画軌道を前記飛行コントローラに出力する
    ように構成され、
    前記飛行コントローラは、前記有人飛行機が指定された前記着陸エリア上に着陸するよう前記計画軌道に沿って操縦されるように前記1つ以上の制御アクチュエータを制御するための制御コマンドを生成するように構成される、請求項1に記載の有人航空機。
  9. 有人航空機を自律着陸させるための方法であって、
    着陸の命令に応じて:
    物理環境内の表面の一部の地面マップを生成して継続的に更新するように、前記有人航空機に結合された画像キャプチャデバイスによってキャプチャされた前記画像を処理するステップであって、前記地面マップは、複数のセルを含み、前記複数のセルのそれぞれは、キャプチャされた前記画像に基づく特性データを含む、ステップと、
    前記地面マップに基づいて着陸フットプリントを識別するステップであって、前記着陸フットプリントは、指示された着陸基準を満たす特性データを含む前記地面マップ内の前記複数のセルのサブセットを含む、ステップと、
    識別された前記着陸フットプリントに基づいて前記物理環境内の前記表面上の着陸エリアを指定するステップと、
    前記有人航空機の1つ以上の制御アクチュエータを自動的に調整して、有人航空機を指定された着陸エリアに自律的に着陸させるステップと
    を行うことを含む、方法。
  10. 前記1つ以上の制御アクチュエータは、推進システム及び/又は1つ以上の調整可能な操縦翼面のいずれかを含む、請求項9に記載の方法。
  11. 前記地面マップを生成して継続的に更新するために、前記方法は、
    複数のデータ点を生成するように前記画像を処理するステップと、
    前記セルに対応する前記複数のデータ点の1つ以上に基づいて前記地面マップ内のセルについての特性データを更新するステップと
    を行うことを含む、請求項9に記載の方法。
  12. 前記複数のデータ点を生成するように前記画像を処理するステップは、
    視差画像を生成するように前記画像を処理するステップと、
    生成された前記視差画像のピクセルを、前記物理環境の前記表面に沿った点に対応する空間の3次元(3D)点にマッピングするステップであって、各3D点は、空間内における該3D点のそれぞれの位置に基づく高さ値を有している、ステップと
    を含み、
    前記複数のデータ点の1つ以上は、前記3D点の高さ値に基づいている、請求項11に記載の方法。
  13. 特定のセルについての特性データが、前記特定のセルに対応する前記物理環境の前記表面の一部に沿った複数の3D点の統計値的高さ情報を含み、前記特定のセルについての前記特性データを更新することが、
    前記特定のセルに対応するデータ点を処理して、前記特定のセルについての平均高さ値、又は、高さ値の差の2乗の合計のいずれかを計算することを含む、請求項12に記載の方法。
  14. 前記指定された着陸エリアに自律的に着陸させるために、前記方法は、
    前記有人航空機が前記物理環境中を飛行している間に、前記有人航空機の運転状態を監視するステップと、
    前記監視に基づいて前記有人航空機の前記運転状態が運転基準を満たしていないことを決定するステップと、
    前記運転状態が前記運転基準を満たしていないことを決定するステップに応じて、前記着陸の命令を生成するステップと
    を行うことをさらに含む、請求項9に記載の方法。
  15. 前記着陸の命令は、パイロットによる入力に応答して受信される、請求項14に記載の方法。
JP2022145979A 2018-02-09 2022-09-14 航空機のスマート着陸 Active JP7465615B2 (ja)

Applications Claiming Priority (6)

Application Number Priority Date Filing Date Title
US201862628871P 2018-02-09 2018-02-09
US62/628,871 2018-02-09
PCT/US2019/017526 WO2019157455A1 (en) 2018-02-09 2019-02-11 Aerial vehicle smart landing
JP2020564803A JP7143444B2 (ja) 2018-02-09 2019-02-11 航空機のスマート着陸
US16/272,111 2019-02-11
US16/272,111 US11242144B2 (en) 2018-02-09 2019-02-11 Aerial vehicle smart landing

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020564803A Division JP7143444B2 (ja) 2018-02-09 2019-02-11 航空機のスマート着陸

Publications (2)

Publication Number Publication Date
JP2022184945A JP2022184945A (ja) 2022-12-13
JP7465615B2 true JP7465615B2 (ja) 2024-04-11

Family

ID=67542051

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020564803A Active JP7143444B2 (ja) 2018-02-09 2019-02-11 航空機のスマート着陸
JP2022145979A Active JP7465615B2 (ja) 2018-02-09 2022-09-14 航空機のスマート着陸

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020564803A Active JP7143444B2 (ja) 2018-02-09 2019-02-11 航空機のスマート着陸

Country Status (4)

Country Link
US (2) US11242144B2 (ja)
EP (1) EP3750140A4 (ja)
JP (2) JP7143444B2 (ja)
WO (1) WO2019157455A1 (ja)

Families Citing this family (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114476105A (zh) 2016-08-06 2022-05-13 深圳市大疆创新科技有限公司 自动着陆表面地形评估以及相关的系统和方法
US11242144B2 (en) 2018-02-09 2022-02-08 Skydio, Inc. Aerial vehicle smart landing
US11453513B2 (en) * 2018-04-26 2022-09-27 Skydio, Inc. Autonomous aerial vehicle hardware configuration
GB2574001B (en) * 2018-05-18 2022-08-17 Univ Bath Apparatus, method and system relating to aircraft systems
US11136096B2 (en) * 2018-07-25 2021-10-05 Thomas Lawrence Moses Unmanned aerial vehicle search and rescue system
US10935987B2 (en) * 2018-08-07 2021-03-02 Reliable Robotics Corporation Landing site localization for dynamic control of an aircraft toward a landing site
US11749126B2 (en) 2018-08-07 2023-09-05 Reliable Robotics Corporation Landing site localization for dynamic control of an aircraft toward a landing site
FR3089038B1 (fr) * 2018-11-22 2020-10-30 Thales Sa Procede d’apprentissage d’un reseau de neurones embarque dans un aeronef pour l’aide a l’atterrissage dudit aeronef et serveur pour la mise en œuvre d’un tel procede
US11694563B2 (en) * 2019-07-09 2023-07-04 Here Global B.V. Method and apparatus to control one or more drones based on real-time or predictive position information
US11600067B2 (en) * 2019-09-12 2023-03-07 Nec Corporation Action recognition with high-order interaction through spatial-temporal object tracking
US11355022B2 (en) * 2019-09-13 2022-06-07 Honeywell International Inc. Systems and methods for computing flight controls for vehicle landing
ES2819325B2 (es) * 2019-10-14 2022-04-21 Univ Alcala Henares Metodo de aproximacion y trincado entre plataformas vtol y htol, sistema autonomo de aproximacion y trincado y plataforma vtol asociada
CN114987779A (zh) * 2019-11-05 2022-09-02 深圳市道通智能航空技术股份有限公司 镜头模组的控制方法、装置、飞行器、飞行系统及介质
DE102019217104A1 (de) * 2019-11-06 2021-05-06 Zf Friedrichshafen Ag Sensorbasierte Ansteuerung eines Flugobjektes in einer Flugumgebung
KR102189742B1 (ko) * 2019-11-12 2020-12-11 한국항공우주연구원 지형맵에 대한 등고선 정보를 이용하여 안전 착륙 지점을 탐색하는 안전 착륙 지점 탐색 장치, 및 안전 착륙 지점 탐색 방법
CN110865650B (zh) * 2019-11-19 2022-12-20 武汉工程大学 基于主动视觉的无人机位姿自适应估计方法
US11699235B2 (en) * 2019-11-20 2023-07-11 Baidu Usa Llc Way to generate tight 2D bounding boxes for autonomous driving labeling
SG10201913873QA (en) * 2019-12-30 2021-07-29 Singpilot Pte Ltd Sequential Mapping And Localization (SMAL) For Navigation
US11687778B2 (en) 2020-01-06 2023-06-27 The Research Foundation For The State University Of New York Fakecatcher: detection of synthetic portrait videos using biological signals
US20210241639A1 (en) * 2020-02-05 2021-08-05 Lockheed Martin Corporation Landing zone suitability indicating system
WO2021168452A2 (en) * 2020-02-21 2021-08-26 Bluespace Al, Inc. Method for object avoidance during autonomous navigation
JP7247133B2 (ja) * 2020-03-12 2023-03-28 株式会社東芝 検出装置、検出方法およびプログラム
US11687072B2 (en) 2020-05-08 2023-06-27 Honeywell International Inc. Automatic UAV landing pad
IL275198B1 (en) * 2020-06-08 2024-03-01 Elbit Systems Ltd Systems and methods for guiding landing and cross-country flight
EP4172862A4 (en) 2020-06-24 2023-08-09 Magic Leap, Inc. OBJECT RECOGNITION NEURONAL NETWORK FOR AMODAL CENTER PREDICTION
CN111782755B (zh) * 2020-07-20 2021-05-25 中国人民解放军国防科技大学 基于虚拟网格字典的目标行进类意图识别方法和装置
JP7363733B2 (ja) * 2020-09-30 2023-10-18 トヨタ自動車株式会社 端末プログラム、無人航空機、及び情報処理装置
US11741702B2 (en) * 2020-10-21 2023-08-29 Honeywell International Inc. Automatic safe-landing-site selection for unmanned aerial systems
US11960276B2 (en) * 2020-11-19 2024-04-16 Tusimple, Inc. Multi-sensor collaborative calibration system
CN113359782B (zh) * 2021-05-28 2022-07-29 福建工程学院 一种融合lidar点云与图像数据的无人机自主选址降落方法
CN113052151B (zh) * 2021-06-01 2021-08-06 四川泓宝润业工程技术有限公司 基于计算机视觉的无人机自动降落引导方法
CN113359810B (zh) * 2021-07-29 2024-03-15 东北大学 一种基于多传感器的无人机着陆区域识别方法
RU2769016C1 (ru) * 2021-08-11 2022-03-28 Федеральное государственное автономное образовательное учреждение высшего образования «Южно-Уральский государственный университет (национальный исследовательский университет)» ФГАОУ ВО «ЮУрГУ (НИУ)» Система управления посадкой многоразовой ракеты с искусственным интеллектом
US11932394B2 (en) 2021-09-14 2024-03-19 Honeywell International Inc. System and method for localization of safe zones in dense depth and landing quality heatmaps
KR102448233B1 (ko) * 2021-12-13 2022-10-04 주식회사 유시스 정밀 착륙을 위한 드론 제어 방법
CN114625159B (zh) * 2022-01-21 2023-07-28 中国空气动力研究与发展中心计算空气动力研究所 一种基于被控变量的结冰飞机控制方法
US20230252896A1 (en) * 2022-02-08 2023-08-10 Nullmax (Hong Kong) Limited Autonomous driving system with air support
US20230348106A1 (en) * 2022-04-27 2023-11-02 Skydio, Inc. Base Stations For Unmanned Aerial Vehicles (UAVs)
US20230394814A1 (en) * 2022-06-01 2023-12-07 Wing Aviation Llc Stereo Abort of Unmanned Aerial Vehicle Deliveries
WO2023239910A1 (en) * 2022-06-10 2023-12-14 Supernal, Llc Camera calibration using feature of vehicle
CN115496930B (zh) * 2022-11-08 2023-03-21 之江实验室 一种图像处理方法、装置、存储介质及电子设备
CN116380057B (zh) * 2023-06-05 2023-08-29 四川腾盾科技有限公司 一种gnss拒止环境下无人机自主着陆定位方法
US11945609B1 (en) * 2023-08-16 2024-04-02 Falcon Exodynamics, Inc. System and method for identifying and distinguishing spacecraft appendages from the spacecraft body

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160063009A1 (en) 2014-09-03 2016-03-03 Verizon Patent And Licensing Inc. Proactively clearing digital storage
WO2017172486A1 (en) 2016-03-28 2017-10-05 Zipline International Inc. Vision Based Calibration System For Unmanned Aerial Vehicles
WO2017206384A1 (zh) 2016-05-31 2017-12-07 北京小米移动软件有限公司 飞行设备降落方法及装置
CN107444665A (zh) 2017-07-24 2017-12-08 长春草莓科技有限公司 一种无人机自主降落方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6604706B1 (en) 1998-08-27 2003-08-12 Nicolae Bostan Gyrostabilized self propelled aircraft
US11571938B2 (en) 2002-10-01 2023-02-07 Andrew H B Zhou Jet-propelled VTOL hybrid car
US7520466B2 (en) 2005-03-17 2009-04-21 Nicolae Bostan Gyro-stabilized air vehicle
RU2596246C2 (ru) * 2011-02-21 2016-09-10 Стратек Системс Лимитед Система наблюдения и способ обнаружения засорения или повреждения аэродрома посторонними предметами
IL218327A (en) 2012-02-26 2013-05-30 Elbit Systems Ltd Safe emergency landing of unmanned aerial vehicles
EP3323715B1 (en) 2013-12-13 2019-07-03 SZ DJI Technology Co., Ltd. Method for landing an unmanned aerial vehicle
US9573701B2 (en) 2014-08-06 2017-02-21 Disney Enterprises, Inc. Robust and autonomous docking and recharging of quadrotors
WO2016019562A1 (en) 2014-08-08 2016-02-11 SZ DJI Technology Co., Ltd. Systems and methods for uav battery power backup
US9511878B1 (en) * 2014-08-13 2016-12-06 Trace Live Network Inc. System and method for adaptive y-axis power usage and non-linear battery usage for unmanned aerial vehicle equipped with action camera system
US9778660B2 (en) 2015-09-16 2017-10-03 Qualcomm Incorporated Unmanned aerial vehicle low-power operation
WO2017123346A2 (en) 2015-12-07 2017-07-20 Aai Corporation Uav with wing-plate assemblies providing efficient vertical takeoff and landing capability
US9630713B1 (en) 2015-12-17 2017-04-25 Qualcomm Incorporated Unmanned aerial vehicle with adjustable aiming component
KR20170138797A (ko) 2016-06-08 2017-12-18 엘지전자 주식회사 드론
CN114476105A (zh) * 2016-08-06 2022-05-13 深圳市大疆创新科技有限公司 自动着陆表面地形评估以及相关的系统和方法
KR102514566B1 (ko) 2016-08-23 2023-03-27 삼성전자주식회사 전자 장치 및 그의 동작 방법
WO2018134795A1 (en) * 2017-01-23 2018-07-26 Urban Aeronautics, Ltd. Method of drag reduction on vehicle with internal rotors
US11242144B2 (en) 2018-02-09 2022-02-08 Skydio, Inc. Aerial vehicle smart landing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160063009A1 (en) 2014-09-03 2016-03-03 Verizon Patent And Licensing Inc. Proactively clearing digital storage
WO2017172486A1 (en) 2016-03-28 2017-10-05 Zipline International Inc. Vision Based Calibration System For Unmanned Aerial Vehicles
WO2017206384A1 (zh) 2016-05-31 2017-12-07 北京小米移动软件有限公司 飞行设备降落方法及装置
CN107444665A (zh) 2017-07-24 2017-12-08 长春草莓科技有限公司 一种无人机自主降落方法

Also Published As

Publication number Publication date
US20190248487A1 (en) 2019-08-15
JP7143444B2 (ja) 2022-09-28
EP3750140A4 (en) 2021-05-19
US20220234733A1 (en) 2022-07-28
WO2019157455A1 (en) 2019-08-15
US11242144B2 (en) 2022-02-08
EP3750140A1 (en) 2020-12-16
JP2021513714A (ja) 2021-05-27
JP2022184945A (ja) 2022-12-13

Similar Documents

Publication Publication Date Title
JP7465615B2 (ja) 航空機のスマート着陸
US11726498B2 (en) Aerial vehicle touchdown detection
US11592845B2 (en) Image space motion planning of an autonomous vehicle
US20240062663A1 (en) User Interaction With An Autonomous Unmanned Aerial Vehicle
US11829139B2 (en) Applications and skills for an autonomous unmanned aerial vehicle
US11861892B2 (en) Object tracking by an unmanned aerial vehicle using visual sensors
US11755041B2 (en) Objective-based control of an autonomous unmanned aerial vehicle
US20220374013A1 (en) Fitness And Sports Applications For An Autonomous Unmanned Aerial Vehicle
US10379545B2 (en) Detecting optical discrepancies in captured images
US20190250601A1 (en) Aircraft flight user interface

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240109

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240301

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240327

R150 Certificate of patent or registration of utility model

Ref document number: 7465615

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150