JP7143444B2 - 航空機のスマート着陸 - Google Patents
航空機のスマート着陸 Download PDFInfo
- Publication number
- JP7143444B2 JP7143444B2 JP2020564803A JP2020564803A JP7143444B2 JP 7143444 B2 JP7143444 B2 JP 7143444B2 JP 2020564803 A JP2020564803 A JP 2020564803A JP 2020564803 A JP2020564803 A JP 2020564803A JP 7143444 B2 JP7143444 B2 JP 7143444B2
- Authority
- JP
- Japan
- Prior art keywords
- uav
- landing
- cells
- physical environment
- height
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 claims description 229
- 230000008569 process Effects 0.000 claims description 152
- 210000004027 cell Anatomy 0.000 claims description 148
- 230000033001 locomotion Effects 0.000 claims description 86
- 238000012545 processing Methods 0.000 claims description 60
- 230000000007 visual effect Effects 0.000 claims description 28
- 230000004044 response Effects 0.000 claims description 23
- 238000003860 storage Methods 0.000 claims description 21
- 230000009471 action Effects 0.000 claims description 12
- 238000012544 monitoring process Methods 0.000 claims description 11
- 210000004460 N cell Anatomy 0.000 claims description 8
- 238000013507 mapping Methods 0.000 claims description 5
- 206010069633 Decreased eye contact Diseases 0.000 claims description 3
- 238000004891 communication Methods 0.000 description 35
- 238000001514 detection method Methods 0.000 description 28
- 230000011218 segmentation Effects 0.000 description 25
- 239000011435 rock Substances 0.000 description 18
- 238000004422 calculation algorithm Methods 0.000 description 17
- 230000007246 mechanism Effects 0.000 description 15
- 238000005259 measurement Methods 0.000 description 14
- 230000002093 peripheral effect Effects 0.000 description 14
- 238000005516 engineering process Methods 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 230000001133 acceleration Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 9
- 230000003287 optical effect Effects 0.000 description 9
- 230000001953 sensory effect Effects 0.000 description 9
- 238000012800 visualization Methods 0.000 description 9
- 241001465754 Metazoa Species 0.000 description 8
- 238000004458 analytical method Methods 0.000 description 8
- 230000005540 biological transmission Effects 0.000 description 8
- 230000004807 localization Effects 0.000 description 8
- 230000000670 limiting effect Effects 0.000 description 7
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 230000008859 change Effects 0.000 description 6
- 230000006378 damage Effects 0.000 description 6
- 238000013459 approach Methods 0.000 description 5
- 238000003491 array Methods 0.000 description 5
- 230000001413 cellular effect Effects 0.000 description 5
- 238000013527 convolutional neural network Methods 0.000 description 5
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 4
- 238000004364 calculation method Methods 0.000 description 4
- 238000009826 distribution Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000000977 initiatory effect Effects 0.000 description 4
- 238000007726 management method Methods 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 230000003068 static effect Effects 0.000 description 4
- 230000006399 behavior Effects 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 230000007423 decrease Effects 0.000 description 3
- 230000007613 environmental effect Effects 0.000 description 3
- 230000005484 gravity Effects 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 2
- 230000002776 aggregation Effects 0.000 description 2
- 238000004220 aggregation Methods 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 238000012937 correction Methods 0.000 description 2
- 230000001186 cumulative effect Effects 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000003247 decreasing effect Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000009472 formulation Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 230000009191 jumping Effects 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000000203 mixture Substances 0.000 description 2
- 230000002688 persistence Effects 0.000 description 2
- 230000002829 reductive effect Effects 0.000 description 2
- 244000025254 Cannabis sativa Species 0.000 description 1
- RYGMFSIKBFXOCR-UHFFFAOYSA-N Copper Chemical compound [Cu] RYGMFSIKBFXOCR-UHFFFAOYSA-N 0.000 description 1
- 206010011971 Decreased interest Diseases 0.000 description 1
- 208000036829 Device dislocation Diseases 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 208000027418 Wounds and injury Diseases 0.000 description 1
- 230000004931 aggregating effect Effects 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000000386 athletic effect Effects 0.000 description 1
- 238000013475 authorization Methods 0.000 description 1
- 230000003542 behavioural effect Effects 0.000 description 1
- 230000009286 beneficial effect Effects 0.000 description 1
- 230000000052 comparative effect Effects 0.000 description 1
- 230000001010 compromised effect Effects 0.000 description 1
- 238000005094 computer simulation Methods 0.000 description 1
- 229910052802 copper Inorganic materials 0.000 description 1
- 239000010949 copper Substances 0.000 description 1
- 230000000593 degrading effect Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000001066 destructive effect Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 230000001747 exhibiting effect Effects 0.000 description 1
- 239000004744 fabric Substances 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 238000009313 farming Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000010006 flight Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010348 incorporation Methods 0.000 description 1
- 208000014674 injury Diseases 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000001788 irregular Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000000116 mitigating effect Effects 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000013021 overheating Methods 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000002245 particle Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000002085 persistent effect Effects 0.000 description 1
- 229920000642 polymer Polymers 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000011084 recovery Methods 0.000 description 1
- 238000009877 rendering Methods 0.000 description 1
- 230000000717 retained effect Effects 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 230000000087 stabilizing effect Effects 0.000 description 1
- 238000010897 surface acoustic wave method Methods 0.000 description 1
- 230000026676 system process Effects 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 230000001131 transforming effect Effects 0.000 description 1
- -1 trees Substances 0.000 description 1
Images
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U70/00—Launching, take-off or landing arrangements
- B64U70/90—Launching from or landing on platforms
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/22—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
- G06V10/225—Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/13—Satellite images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/60—Type of objects
- G06V20/64—Three-dimensional objects
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
- B64U10/14—Flying platforms with four distinct rotor axes, e.g. quadcopters
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/10—UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2201/00—UAVs characterised by their flight controls
- B64U2201/20—Remote controls
- B64U2201/202—Remote controls using tethers for connecting to ground station
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/30—Supply or distribution of electrical power
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U50/00—Propulsion; Power supply
- B64U50/30—Supply or distribution of electrical power
- B64U50/34—In-flight charging
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Remote Sensing (AREA)
- Computing Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Databases & Information Systems (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Aviation & Aerospace Engineering (AREA)
- Astronomy & Astrophysics (AREA)
- Computational Linguistics (AREA)
- Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
- Traffic Control Systems (AREA)
Description
本出願は、2018年2月9日に出願された「無人航空機スマート着陸」という題名の米国仮出願第62/628,871号(代理人整理番号113391-8012.US00)の利益及び/又は優先権を享受する権利を有し、その内容は全ての目的のためにその全体が参照により本明細書に組み込まれる。したがって、本出願は、2018年2月9日の優先日を享受する権利を有する。
本開示は、概して、自律輸送機械技術に関する。
無人航空機(UAV)による継続的な飛行を安全でないか望ましくないものとしかねない、様々な状況が存在する。例えば、UAVに搭載されているバッテリの充電が低下している可能性や、特定のシステム(視覚ナビゲーション用のシステム等)が正しく動作していない可能性がある。名目上のユースケースであっても、UAVは、通常の飛行中において、電力がなくなる前に制御された降下及び着陸を完了するのがやっとの電荷しかバッテリ内に残っていないポイントに到達するかもしれない。どのような状況であっても、UAVによる自律着陸が必要になる可能性がある。
図1は、本明細書に記載の所定の技術が適用され得る、UAV100の例示的な構成を示す。図1に示すように、UAV100は、ロータベースの航空機(例えば、「クワッドコプター」)として構成されてもよいが、他の提示の技術は、固定翼航空機などの他のタイプのUAVにおいて同様に適用され得る。例示的なUAV100は、制御された飛行を維持するための制御アクチュエータ110を含む。制御アクチュエータ110は、UAVの構成に応じて、推進システム(例えば、ロータ)、及び/又は、1つ以上の操縦翼面(例えば、フラップ、補助翼、方向舵等)を含む又はそれらに関連し得る。図1に示される例示的なUAV100は、電子ロータの形態である制御アクチュエータ110を含み、この制御アクチュエータ110は、UAV100の推進システムを含む。UAV100はまた、自動ナビゲーション及び飛行制御112のための様々なセンサと、飛行中に周囲の物理環境の画像をキャプチャするための1つ以上の画像キャプチャデバイス114及び115とを含む。この文脈における「画像」は、静止画像とキャプチャされたビデオとの両方を含む。図1には示されていないが、UAV100はまた、無線通信チャネル116を介して、モバイルデバイス104等の他のデバイスと通信するための他のセンサ(例えば、オーディオをキャプチャするためのセンサ)及びシステムを含んでいてもよい。
図4は、提示の技術に係る、UAVによる自律着陸のための例示的なプロセス400のフローチャートを示す。この例示的なプロセスの1つ以上のステップは、図2に示す例示的なナビゲーションシステム120のコンポーネントのうちの任意の1つ以上によって実行されてもよい。例えば、プロセス400は、ナビゲーションシステム120の着陸システム150コンポーネントによって実行されてもよい。さらに、プロセス400の実行は、図21又は22の例示的なコンピュータシステムのコンピューティングコンポーネントのいずれかを含んでいてもよい。例えば、図4に示されるプロセス400は、メモリ内に格納された命令において表され、それらの命令は、後に処理ユニットによって実行される。図4に関して説明されたプロセス400は、例示の目的で提供される例であって、限定するものとして解釈されるべきではない。その他のプロセスは、本開示の範囲内であることを保ちつつ、示されるよりも多い又は少ないステップを含んでいてもよい。さらに、例示的なプロセスに示されるステップが、示されているものとは異なる順序で実行されてもよい。
先に言及したように、所定の実施形態では、着陸システム150は、着陸が要求された又は必要であるとの決定に応答して、地面の最も平坦な領域を選択するように構成されてもよい。以下で説明する技術はジオメトリ的スマート着陸と称され、所与の領域において観測される全ての点についての高さ(z)の分散が、その領域の平坦度に反比例するという前提に依拠している。例えば、図6は、地面602の上方を飛行中のUAV100の立面図を示す。図6に示すように、エリアA内の地面に沿った様々な点の高さ(z)の分散は、エリアA内の地面の傾斜のため、エリアB内の地面に沿った様々な点の高さ(z)の分散よりも大きい。この観察に基づいて、エリアBは、UAV100の着陸にはエリアAよりも好ましいと推測され得る。以下に記載のジオメトリ的スマート着陸技術は、後に論じる意味論的スマート着陸技術の代わりに又はそれに加えて実行されてもよい。
先に論じたように、高さ統計値等の特性データは、例えば図5A~5Bに関して記載したように、1つ以上のセンサから受信されたセンサデータに基づいて継続的に更新される地面マップ内の複数のセルについて生成及び維持され得る。地面マップ内の様々なセルについての高さ統計値を使用して、着陸システム150は、ある指示された基準(例えば、閾値レベル未満)を満たす高さ分散を伴うフットプリントを識別してもよい。
ステレオ視が適用される場合には、ジオメトリ的スマート着陸技術は、推定/測定された高さ値の不確実性を考慮するように構成され得る。ステレオ視では、視差が大きくなると、その点の範囲(カメラからの距離)の不確実性も大きくなる。予想される点の分散は、その点の範囲の4乗でスケーリングされる。これを考慮するために、着陸システム150は、所定の高さ値を適切な補正係数によって調整してもよい。例えば、いくつかの実施形態では、着陸システム150は、この所与の点の高さの差の2乗の合計の増分を、その点の範囲の4乗で除算してもよい。
地面マップが動くオブジェクトに対してより応答できるようにするため、着陸システム150は、セルのそれぞれについての統計値に寄与するデータ点の数を制限するか、そうでなければ、より最近収集されたデータ点を重視するように構成されてもよい。例えば、特定の点で測定された高さに基づくデータ点が、既に最大数の点を有するセルに追加された場合、システムは、高さ値の差の2乗の合計の平均を計算した後、計算された平均値を、該セルについての統計値を更新する前の高さ値の差の2乗の合計から差し引くように構成されてもよい。この方法では、セルについて収集された点の数は増加しない。古いデータのダウンウェイトはまた、データ点の数を固定することによって、平均高さに基づいて行われ得る。例えば、一般的な平均高さの増分は、以下に基づいて計算され得る:mean[n+1] = (x-mean[n])/(n+1)(ここで、"n"は点の数及び更新の数の両方を表す)。これは、続いてmean[n+1] = (x-mean[n])/min(n+1, n_max)となり、ここでは所与のセルについて最大の点の数"n_max"が設定される。これは、古いデータをダウンウェイトすることと同様の効果を有する。
UAV100が(ユーザコマンドに応答して、又は、低バッテリ等のイベントに応答して)着陸する必要があることを想定すると、着陸システム150は、着陸のための物理的な地面上のエリアを選択するために、地面マップ内のフットプリントのそれぞれについて計算された分散を、ある指示された基準を満たす(すなわち、プロセス700aのステップ708及び710に関して記載したような)フットプリントを識別するために利用することができる。この基準は、着陸用の地面マップ内において分散が最も低いフットプリントの選択を指示してもよい。あるいは又はこれに加えて、該基準は、いくつかの最大許容分散を指示することがある。いくつかの実施形態では、含まれるデータが少なすぎるフットプリントの高さ統計値は信頼できない可能性があるため、計算された高さの分散に関わらず、そのようなフットプリントのセルが回避されてもよい。そのような基準は、ユーザに指示されるものであってもよく、固定されていてもよく、所定の条件に応答して動的に変更されてもよい。例えば、UAV100のバッテリが低く、即時の着陸が必要な場合には、着陸システム150は、すぐ近くで高さ値の分散が最も低いフットプリントを単に選択してもよい。逆に、着陸がユーザコマンドの要求にあり、電力喪失の即時の危険がない場合には、着陸システム150は、フットプリントをより選択的にしても支障がないかもしれない。そのような状況では、UAV100は、高さの分散が最大限許容可能な分散よりも低くなるフットプリントが識別されるまで飛行を続けてもよい。
ジオメトリ的スマート着陸は、いくつかの状況で効果的であり得るが、その所定の現実世界の状況を見分ける能力には限界がある。例えば、ジオメトリ的スマート着陸技術を使用すると、着陸システム150は、水域の表面、木の平らな上面又は道路を、高さの分散が十分に低いため着陸に効果的であると識別することがある。そのような表面は、様々な理由で望ましい着陸エリアを表さない場合がある。さらに、いくつかの比較的小さな障害物(例えば、小さな茂み、細い木の枝、小さな岩等)は、所与のセルにおける高さ値の分散に対して、着陸システムがそのセルを含むフットプリントを選択することを防止するような影響を与えないことがある。全体として、これにより望ましくない着陸エリアが選択され得る。
いくつかの実施形態では、UAV100が着陸するための場所を選択するために、例えば、モバイルデバイス104に提示されるインタフェースを介して、ユーザにオプションが提供されてもよい。一実施形態では、ユーザは、UAV100によってキャプチャされてモバイルデバイス104のタッチスクリーンディスプレイを介して表示される物理環境のビューと対話してもよい。ユーザは、表示されたビューの、UAVが着陸する物理的な地面の場所に対応する部分に触れることによって、着陸する場所を選択することができる。ユーザによるこのタイプの選択、及び、着陸に関する他のタイプの命令又は案内(ユーザによって完全にリモート制御された着陸の監視を含む)は、着陸システム150によって、内部着陸選択及び運動計画プロセスを訓練する目的で監視され得る。ユーザには、そのような情報収集をオプトインするオプションが提供されてもよい。ユーザがオプトインする場合、情報は以下のいずれかで収集でされ得る:着陸のためにユーザによって選択されたビュー内のピクセル、ジンバルが地面を見るように下に向けられた対象カメラ115の画像、下に向けられたナビゲーションカメラ114又は任意の他のナビゲーションカメラ114、UAV100の位置、最新の追跡対象の位置、モバイルデバイス104の場所等。
自律スマート着陸(及びナビゲーション一般)は、特別な取り扱いを要求する様々なエッジケースを提示することがある。特別な取り扱いには、例えば、ユーザに対して発せられる警告及び/又は潜在的な危険を緩和するための具体的なアクションが含まれる。
所定の状態の検出に応答して生成された警告は、接続されたモバイルデバイス104を介して、ユーザに対して表示され得るか、そうでなければユーザに対して(例えば、可聴アラームを通じて)提示され得る。
前述のように、UAV100は、Wi-Fi等の無線通信リンクを介して、ユーザのモバイルデバイス104と通信してもよい。距離が離れるにつれ、無線信号が弱まり、時に接続が失われる。いくつかの実施形態では、ナビゲーションシステム120は、無線通信信号が弱いこと又は無線通信リンクが完全に失われたことの検出に応答して、UAV100に、モバイルデバイス104の最後に知られた位置(例えば、GPS位置)へと自動的かつ自律的に戻らせるように構成される。モバイルデバイス104の最後に知られた位置に戻る(又は、少なくともその方向に向かって移動する)ことによって、UAV100は、モバイルデバイス104との無線通信リンクをより容易に再確立することができる。あるいは又はこれに加えて、システムは、信号が失われた場合にUAVが戻るための事前定義される位置を、ユーザが設定できるようにしてもよい。この場所は、軌道に沿った経由地点、仮想マップ上のピン、UAVの離陸位置、ユーザの家等である。残りのバッテリ寿命に関する情報もまた、UAVの応答を通知するのに役立ち得る。例えば、UAVは、残りのバッテリ寿命に基づいて、複数の所定の戻り位置(例えば、上記列挙のもの)の1つから選択し、その意図された戻り位置の指定を(例えば、モバイルデバイス104を介して)ユーザに送信してもよい。上記の特徴はまた、何らかの理由でUAV100が対象の視覚的追跡を失った場合にも使用され得る。
UAV100のナビゲーションシステム120は、位置特定のための任意の数のシステム及び技術を採用してもよい。図12は、UAV100等の輸送機械の自律ナビゲーションを案内するために利用され得る例示的な位置特定システム1200の図を示す。いくつかの実施形態では、物理環境内のUAV100及び他の様々な物理的オブジェクトの位置及び/又は向きが、図12に図示されるサブシステムの任意の1つ以上を使用して推定され得る。位置及び/又は向きの変化を経時的に(継続的に、又は、規則的若しくは不規則な時間間隔で(すなわち、繰り返し))追跡することによって、UAV100及び他のオブジェクトの運動(例えば、速度、加速度など)もまた、推定されてもよい。したがって、位置及び/又は向きを決定するための本明細書に記載される任意のシステムが同様に、運動を推定するために採用されてもよい。
UAV100は、例えばインテリジェント自律飛行を可能にするために、1つ以上のオブジェクトを追跡するように構成され得る。この文脈において、用語「オブジェクト」は、物理的な世界で発生するあらゆるタイプの物理的なオブジェクトを含み得る。オブジェクトには、人、動物及び他の輸送機械等の動的オブジェクトが含まれ得る。オブジェクトにはまた、地形、建物、家具等の静的オブジェクトも含まれ得る。さらに、本明細書の所定の説明は、「対象」(例えば、人である対象102)を示すことがある。本開示で使用される用語「対象」は、任意の開示の技術を使用して追跡されているオブジェクトを単に示すことがある。したがって、用語「オブジェクト」及び「対象」は、交換可能に使用されてもよい。
本教示に係るUAV100は、任意のタイプのUAVとして実装されてもよい。UAVは、時にはドローンと称され、人のパイロットが搭乗していなくても操縦可能な航空機として一般に定義される。UAVは、搭載されたコンピュータプロセッサによって自律的に制御されてもよく、遠隔地に位置する人のパイロットによるリモートコントロールを介して制御されてもよい。飛行機と同様に、UAVは、揚力を得るために、推進システム(例えば、プロペラ、ジェットなど)と併せて固定された空気力学的表面を利用してもよい。あるいは、ヘリコプターと同様に、UAVは、重力を打ち消して揚力を得るために、推進システム(例えば、プロペラ、ジェットなど)を直接使用してもよい。(ヘリコプターの場合と同様の)推進力で駆動する揚力は、全ての軸に沿った制御された運動を可能にするために、例えばモバイル撮影プラットフォームとしての所定の実装において、大きな利点を提供する。
図22は、本開示に記載の少なくともいくつかの動作が実装され得る、例示的なコンピュータ処理システム2200を示すブロック図である。例示的なコンピュータ処理システム2200は、任意の前述のデバイスの一部であってもよく、そのようなデバイスには、以下に限定されないが、UAV100及びモバイルデバイス104が含まれる。処理システム2200は、1つ以上の中央処理装置(「プロセッサ」)2202、メインメモリ2206、不揮発性メモリ2210、ネットワークアダプタ2212(例えば、ネットワークインタフェース)、ディスプレイ2218、入力/出力デバイス2220、制御デバイス2222(例えば、キーボード及びポインティングデバイス)、記憶媒体2226を含むドライブユニット2224、及び、バス2216に通信可能に接続された信号生成デバイス2230を含んでいてもよい。バス2216は、適切なブリッジ、アダプタ又はコントローラによって接続された、任意の1つ以上の別個の物理バス、ポイントツーポイント接続又はその両方を表す抽象概念として示されている。したがって、バス2216は、例えば、システムバス、周辺機器相互接続(PCI)バス又はPCI-Expressバス、HyperTransport又は業界標準アーキテクチャ(ISA)バス、小型コンピュータシステムインタフェース(SCSI)バス、ユニバーサルシリアルバス(USB)、IIC(I2C)バス、又は、Institute of Electrical and Electronics Engineers(IEEE)標準1394バス(「Firewire」とも称される)を含み得る。バスは、スイッチングファブリック、(1つ以上の)ネットワークポート、(1つ以上の)ツールポート等のネットワークアプライアンスのコンポーネント間で(全二重線又は半二重線を介して)データパケットを中継することもできる。
Claims (39)
- 無人航空機(UAV)による自律着陸のための方法であって、
前記UAVのコンピュータシステムによって、前記UAVが物理環境中を飛行している間に、前記UAVに搭載されたセンサからセンサデータを受信するステップであって、前記センサは、前記UAVに取り付けられた画像キャプチャデバイスを含み、前記センサデータは、前記画像キャプチャデバイスによってキャプチャされた画像を含む、ステップと、
前記コンピュータシステムによって、前記物理環境内の表面に沿った複数の点における高さ値を表す複数のデータ点を決定するように、前記画像を含む前記センサデータを処理するステップと、
前記コンピュータシステムによって、決定された前記高さ値に基づいて前記表面の一部の地面マップを生成して継続的に更新するステップであって、前記地面マップは、複数のセルのグリッドを含み、前記セルのそれぞれは、該セルに関連付けられた決定された前記データ点に基づいて継続的に更新される高さ統計値を含む、ステップと、
前記コンピュータシステムによって、前記地面マップに基づいてフットプリントを識別するステップであって、前記フットプリントは、指示された基準を満たす高さ統計値を含む前記複数のセルのサブセットを含む、ステップと、
前記コンピュータシステムによって、識別された前記フットプリントに基づいて前記物理環境内の前記表面上の着陸エリアを指定するステップと、
前記コンピュータシステムによって、前記UAVを指定された前記着陸エリア上に着陸させるように自律的に操縦するよう構成された制御コマンドを生成するステップと
を含む、方法。 - 前記制御コマンドを生成するステップは、
指定された前記着陸エリア上に着陸するための行動目標を生成するステップと、
生成された前記行動目標を、複数の行動目標を処理して計画軌道を生成するように構成されたモーションプランナへと入力するステップと
を含み、
前記制御コマンドは、前記モーションプランナによって生成された前記計画軌道に基づいて生成される、請求項1に記載の方法。 - 前記複数のデータ点を決定するように、前記センサデータを処理するステップは、
視差画像を生成するように、前記画像キャプチャデバイスによってキャプチャされた画像を処理するステップと、
生成された前記視差画像のピクセルを、前記物理環境の前記表面に沿った点に対応する空間の3次元(3D)点にマッピングするステップであって、各3D点は、空間内における該3D点のそれぞれの位置に基づく高さ値を有している、ステップと
を含み、
前記データ点は、前記3D点の高さ値に基づいている、請求項1に記載の方法。 - 前記地面マップを生成するステップは、
新しい画像が処理された際に、前記地面マップの1つ以上のセルにデータ点を継続的に追加するステップと、
データ点が追加された際に、前記1つ以上のセルの前記高さ統計値を更新するステップと
を含む、請求項3に記載の方法。 - 前記1つ以上のセルの前記高さ統計値を更新するステップは、
より新しいデータ点が前記1つ以上のセルの特定のセルに追加された際に、より古いデータ点に関連付けられた高さ値のウェイトを下げるステップを含む、請求項4に記載の方法。 - 特定のセルについて決定された前記データ点に基づく前記高さ統計値は、前記特定のセルに対応する前記表面の一部に沿った点における平均高さ、中央高さ、最小高さ又は最大高さのいずれかを含む、請求項1に記載の方法。
- 前記複数のセルの前記サブセットに関連付けられた前記高さ統計値が閾値レベル未満の分散を有する場合に、前記指示された基準が満たされる、請求項1に記載の方法。
- 前記物理環境内の物理オブジェクトを検出して、検出された前記物理オブジェクトに関連付けられた意味情報を抽出するように、前記センサデータを処理するステップと、
前記意味情報を、前記物理環境内の前記物理オブジェクトの位置に対応する前記地面マップの1つ以上のセルに追加するステップと
をさらに含み、
識別された前記フットプリントに含まれる前記複数のセルの前記サブセットは、前記指示された基準を満たす意味情報を含む、請求項1に記載の方法。 - 指定された前記着陸エリア上に着陸する前に:
前記UAVによる指定された前記着陸エリアへの自律着陸が可能かどうかを決定するように、前記センサから受信された新しいセンサデータの処理を続けるステップと、
指定された前記エリアへの自律着陸が可能でない場合、前記UAVに高度を降下させるように構成された制御コマンドを生成するステップと、
前記UAVによる降下中に:
前記地面マップに基づいて第2のフットプリントを識別するステップであって、前記第2のフットプリントは、前記指示された基準を満たす高さ統計値を含む前記複数のセルの第2サブセットを含み、前記複数のセルの前記第2のサブセットは、前記複数のセルの前記サブセットとは異なる、ステップと、
識別された前記第2のフットプリントに基づいて、前記物理環境内の前記表面上の第2の着陸エリアを指定するステップと、
前記UAVを指定された前記第2の着陸エリア上に着陸させるように自律的に操縦するよう構成された制御コマンドを生成するステップと
をさらに含む、請求項1に記載の方法。 - 識別された前記フットプリントのサイズ及び/又は形状が、前記UAVのサイズ若しくは形状、ユーザの嗜好又は前記UAVに近接する前記物理環境の一部の特性のいずれかに基づく、請求項1に記載の方法。
- 前記地面マップに含まれる前記複数のセルは、形状が長方形であり、前記UAVが飛行している間に、前記UAVの位置に実質的に中心を保つように継続的に更新される2次元(2D)長方形グリッドとして配置される、請求項1に記載の方法。
- 前記地面マップの前記2D長方形グリッドは、幅Mセル×長さMセルであり、識別された前記フットプリントは、幅Nセル×長さNセルの長方形に配置された前記複数のセルの前記サブセットを含み、NはM未満である、請求項11に記載の方法。
- 前記フットプリントを識別するステップは、
複数のフットプリント候補の高さ統計値を、前記複数のフットプリント候補のそれぞれに含まれるセルの高さ統計値に基づいて決定するステップであって、前記複数のフットプリント候補のそれぞれは、前記地面マップの前記複数のセルのそれぞれ異なるサブセットを含み、少なくとも1つのセルによって互いにオフセットされている、ステップと、
前記複数のフットプリント候補から識別された前記フットプリントであって、最大閾値未満かつ他の前記フットプリント候補のいずれかの高さ統計値の分散よりも低い前記高さ統計値の分散を有する前記フットプリントを選択するステップと、
を含む、請求項1に記載の方法。 - 無人航空機(UAV)を自律的に着陸させるための方法であって、前記UAVは、物理環境内の対象物を自律的に追跡するように構成されており、
前記UAVのコンピュータシステムによって、前記UAVが前記物理環境中を飛行している間に、前記UAVの運転状態を監視するステップと、
前記コンピュータシステムによって、前記監視に基づいて、前記UAVの前記運転状態が運転基準を満たしていないことを決定するステップと、
前記運転状態が前記運転基準を満たしていないことを決定するステップに応じて、自動的に:
前記コンピュータシステムによって、前記UAVに前記物理環境内における前記対象の追跡を停止させるステップと、
前記コンピュータシステムによって、前記UAVが、
着陸フットプリントを識別するように地面マップを処理することであって、前記地面マップは、前記UAVに結合された画像キャプチャデバイスによってキャプチャされた前記物理環境の画像に基づいて生成されて継続的に更新され、前記地面マップは複数のセルを含み、前記セルのそれぞれはキャプチャされた前記画像に基づいて継続的に更新される特性データを含み、前記着陸フットプリントは、指示された着陸基準を満たす特性データを含む前記地面マップ内の前記複数のセルのサブセットを含むことと、
識別された前記着陸フットプリントに基づいて前記物理環境内の表面上の着陸エリアを指定することと、
前記コンピュータシステムによって、前記UAVを指定された前記着陸エリア上に着陸させるように自律的に操縦するよう構成された制御コマンドを生成することと
によって自律着陸プロセスを実行するようにするステップと、
を含む、方法。 - 前記制御コマンドを生成するステップは、
指定された前記着陸エリア上に着陸するための行動目標を生成するステップと、
生成された前記行動目標を、複数の行動目標を処理して計画軌道を生成するように構成されたモーションプランナへと入力するステップと
を含み、
前記制御コマンドは、前記モーションプランナによって生成された前記計画軌道に基づいて生成される、請求項14に記載の方法。 - 複数のデータ点を生成するように、前記画像キャプチャデバイスによってキャプチャされた前記画像を処理するステップと、
前記セルに対応する前記複数のデータ点の1つ以上に基づいて前記地面マップ内のセルについての特性データを更新することによって、前記地面マップを生成するステップと
をさらに含む、請求項14に記載の方法。 - 前記複数のデータ点を生成するように、前記画像を処理するステップは、
視差画像を生成するように、前記画像を処理するステップと、
生成された前記視差画像のピクセルを、前記物理環境の前記表面に沿った点に対応する空間の3次元(3D)点にマッピングするステップであって、各3D点は、空間内における該3D点のそれぞれの位置に基づく高さ値を有している、ステップと
を含み、
前記複数のデータ点の1つ以上は、前記3D点の高さ値に基づいている、請求項16に記載の方法。 - 特定のセルについての特性データが、前記特定のセルに対応する前記物理環境の前記表面の一部に沿った複数の3D点の統計値的高さ情報を含み、前記特定のセルについての前記特性データを更新することが、
前記特定のセルに対応するデータ点を処理して、前記特定のセルについての平均高さ値、又は、高さ値の差の2乗の合計のいずれかを計算することを含む、請求項17に記載の方法。 - 前記複数のデータ点を生成するように、前記画像を処理するステップは、
前記物理環境内の物理オブジェクトを検出して、検出された前記物理オブジェクトに関連付けられた意味情報を抽出するように、センサデータを処理するステップを含み、
前記複数のデータ点の1つ以上は、抽出された前記意味情報に基づく、請求項16に記載の方法。 - 特定のセルの特性データが、前記特定のセルに対応する前記物理環境の一部に位置する1つ以上の検出されたオブジェクトを示す、抽出された前記意味情報に基づく1つ以上のラベルを含む、請求項19に記載の方法。
- 前記地面マップに含まれる前記複数のセルは、形状が長方形であり、前記UAVが飛行している間に、前記UAVの位置に実質的に中心を保つように継続的に更新される2次元(2D)長方形グリッドとして配置される、請求項14に記載の方法。
- 前記地面マップの前記2D長方形グリッドは、幅Mセル×長さMセルであり、識別された前記フットプリントは、幅Nセル×長さNセルの長方形に配置された前記複数のセルの前記サブセットを含み、NはM未満である、請求項21に記載の方法。
- 以下の条件のいずれかが存在する場合、前記UAVの前記運転状態が運転基準を満たさない、請求項14に記載の方法。
・前記UAVに搭載された電源が閾値電力レベルを下回っている。
・前記UAVに搭載されているストレージデバイスが使用可能なストレージレベルを下回っている。
・前記UAVに搭載されているシステムが正常に働いていない。
・前記対象との視覚的接触が失われた。 - 前記自律着陸プロセス中に:
前記地面マップの更新に基づいて、指定された前記着陸エリアへの自律着陸が不可能であると決定するステップと、
前記物理環境内の前記表面上の特定の高さまで制御された降下を前記UAVに実行させるように構成された制御コマンドを生成するステップと、
前記制御された降下中に:
前記地面マップに基づいて第2のフットプリントを識別するステップであって、前記第2のフットプリントは、前記指示された基準を満たす特性データを含む前記複数のセルの第2サブセットを含み、前記複数のセルの前記第2のサブセットは、前記複数のセルの前記サブセットとは異なる、ステップと、
識別された前記第2のフットプリントに基づいて、前記物理環境内の前記表面上の第2の着陸エリアを指定するステップと、
前記UAVを指定された前記第2の着陸エリア上に着陸させるように自律的に操縦するよう構成された制御コマンドを生成するステップと
をさらに含む、請求項14に記載の方法。 - 識別された前記フットプリントのサイズ及び/又は形状が、前記UAVのサイズ若しくは形状、ユーザの嗜好又は前記UAVに近接する前記物理環境の一部の特性のいずれかに基づく、請求項14に記載の方法。
- 物理環境中を自律飛行するように構成された無人航空機(UAV)であって、
前記物理環境の画像をキャプチャするように構成された画像キャプチャデバイスと、
着陸システムであって、
着陸の命令に応じて:
前記物理環境内の表面の一部の地面マップを生成して継続的に更新するように、前記画像キャプチャデバイスによってキャプチャされた前記画像を処理するステップであって、前記地面マップは、複数のセルを含み、前記複数のセルのそれぞれは、キャプチャされた前記画像に基づいて継続的に更新される特性データを含む、ステップと、
前記地面マップに基づいて着陸フットプリントを識別するステップであって、前記着陸フットプリントは、指示された着陸基準を満たす特性データを含む前記地面マップ内の前記複数のセルのサブセットを含む、ステップと、
識別された前記着陸フットプリントに基づいて前記物理環境内の表面上の着陸エリアを指定するステップと、
指定された前記着陸エリアに基づいて着陸目標を生成するステップと、
指定された前記着陸エリアに前記UAVを着陸させるための計画軌道の生成を容易にするために、前記着陸目標をモーションプランナに伝達するステップと
を行うように構成された、着陸システムと
を含む、UAV。 - 前記地面マップを生成するステップは、
複数のデータ点を生成するように、前記画像を処理するステップと、
前記セルに対応する前記複数のデータ点の1つ以上に基づいて前記地面マップ内のセルについての前記特性データを更新するステップと
を含む、請求項26に記載のUAV。 - 前記複数のデータ点を生成するように、前記画像を処理するステップは、
視差画像を生成するように、前記画像を処理するステップと、
生成された前記視差画像のピクセルを、前記物理環境の前記表面に沿った点に対応する空間の3次元(3D)点にマッピングするステップであって、各3D点は、空間内における該3D点のそれぞれの位置に基づく高さ値を有している、ステップと
を含み、
前記複数のデータ点の1つ以上は、前記3D点の高さ値に基づいている、請求項27に記載のUAV。 - 特定のセルについての特性データが、前記特定のセルに対応する前記物理環境の前記表面の一部に沿った複数の3D点の統計値的高さ情報を含み、前記特定のセルについての前記特性データを更新することが、
前記特定のセルに対応するデータ点を処理して、前記特定のセルについての平均高さ値、又は、高さ値の差の2乗の合計のいずれかを計算することを含む、請求項28に記載のUAV。 - 前記複数のデータ点を生成するように、前記画像を処理するステップは、
前記物理環境内の物理オブジェクトを検出して、検出された前記物理オブジェクトに関連付けられた意味情報を抽出するように、センサデータを処理するステップを含み、
前記複数のデータ点の1つ以上は、抽出された前記意味情報に基づく、請求項27に記載のUAV。 - 特定のセルの特性データが、前記特定のセルに対応する前記物理環境の一部に位置する1つ以上の検出されたオブジェクトを示す、抽出された前記意味情報に基づく1つ以上のラベルを含む、請求項30に記載のUAV。
- 前記地面マップに含まれる前記複数のセルは、形状が長方形であり、前記UAVが飛行している間に、前記UAVの位置に実質的に中心を保つように継続的に更新される2次元(2D)長方形グリッドとして配置される、請求項26に記載のUAV。
- 前記地面マップの前記2D長方形グリッドは、幅Mセル×長さMセルであり、識別された前記フットプリントは、幅Nセル×長さNセルの長方形に配置された前記複数のセルの前記サブセットを含み、NはM未満である、請求項32に記載のUAV。
- 前記着陸システムは、さらに、
前記UAVが前記物理環境中を飛行している間に、前記UAVの運転状態を監視し、
前記監視に基づいて、前記UAVの前記運転状態が運転基準を満たしていないことを決定し、
前記運転状態が前記運転基準を満たしていないことを決定するステップに応じて、前記着陸の命令を生成する
ように構成される、請求項26に記載のUAV。 - 前記UAVに搭載された1つ以上のシステムに電力を供給するように構成された電源をさらに含み、
前記着陸システムは、さらに、
前記UAVが飛行している間に、前記電源の電力レベルを監視し、
前記監視に基づいて前記電力レベルが閾値電力レベル未満に低下していることを決定し、
前記電源の前記電力レベルが前記閾値電力レベル未満に低下したと決定したことに応答して、前記着陸の命令を生成する、
請求項26に記載のUAV。 - 前記画像キャプチャデバイスによってキャプチャされた画像に基づいて画像データを格納するように構成されたストレージデバイスをさらに含み、
前記着陸システムは、さらに、
前記UAVが飛行している間に、前記ストレージデバイス内で利用可能なストレージのレベルを監視し、
前記監視に基づいて前記利用可能なストレージのレベルが前記利用可能なストレージレベル未満に低下していることを決定し、
前記利用可能なストレージのレベルが前記利用可能なストレージレベル未満に低下したと決定したことに応答して、前記着陸の命令を生成する、
請求項26に記載のUAV。 - 前記物理環境内の対象を検出及び追跡するように、前記画像キャプチャデバイスによってキャプチャされた前記画像を処理し、
前記対象の追跡に基づいて追跡目標を生成し、
前記対象を追跡するための計画軌道の生成を容易にするために、前記追跡目標をモーションプランナに伝達する
ように構成された追跡システムをさらに含み、
前記着陸システムは、さらに、
前記追跡システムから前記対象との視覚的接触が失われたという指標を受信し、
前記指標の受信に応答して、前記着陸の命令を生成する、
請求項26に記載のUAV。 - 前記モーションプランナと、
飛行コントローラと、
推進システムと
をさらに含み、
前記モーションプランナは
前記計画軌道を生成するように、前記着陸目標を処理し、
前記計画軌道を前記飛行コントローラに出力する
ように構成され、
前記飛行コントローラは、前記UAVが指定された前記着陸エリア上に着陸するよう前記計画軌道に沿って操縦されるように前記推進システムを制御するための制御コマンドを生成するように構成される、請求項26に記載のUAV。 - 識別された前記フットプリントのサイズ及び/又は形状が、前記UAVのサイズ若しくは形状、ユーザの嗜好又は前記UAVに近接する前記物理環境の一部の特性のいずれかに基づく、請求項26に記載のUAV。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2022145979A JP7465615B2 (ja) | 2018-02-09 | 2022-09-14 | 航空機のスマート着陸 |
JP2024052268A JP2024088679A (ja) | 2018-02-09 | 2024-03-27 | 航空機のスマート着陸 |
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201862628871P | 2018-02-09 | 2018-02-09 | |
US62/628,871 | 2018-02-09 | ||
PCT/US2019/017526 WO2019157455A1 (en) | 2018-02-09 | 2019-02-11 | Aerial vehicle smart landing |
US16/272,111 US11242144B2 (en) | 2018-02-09 | 2019-02-11 | Aerial vehicle smart landing |
US16/272,111 | 2019-02-11 |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022145979A Division JP7465615B2 (ja) | 2018-02-09 | 2022-09-14 | 航空機のスマート着陸 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2021513714A JP2021513714A (ja) | 2021-05-27 |
JPWO2019157455A5 JPWO2019157455A5 (ja) | 2022-02-02 |
JP7143444B2 true JP7143444B2 (ja) | 2022-09-28 |
Family
ID=67542051
Family Applications (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020564803A Active JP7143444B2 (ja) | 2018-02-09 | 2019-02-11 | 航空機のスマート着陸 |
JP2022145979A Active JP7465615B2 (ja) | 2018-02-09 | 2022-09-14 | 航空機のスマート着陸 |
JP2024052268A Pending JP2024088679A (ja) | 2018-02-09 | 2024-03-27 | 航空機のスマート着陸 |
Family Applications After (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2022145979A Active JP7465615B2 (ja) | 2018-02-09 | 2022-09-14 | 航空機のスマート着陸 |
JP2024052268A Pending JP2024088679A (ja) | 2018-02-09 | 2024-03-27 | 航空機のスマート着陸 |
Country Status (4)
Country | Link |
---|---|
US (2) | US11242144B2 (ja) |
EP (1) | EP3750140A4 (ja) |
JP (3) | JP7143444B2 (ja) |
WO (1) | WO2019157455A1 (ja) |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN114476105A (zh) | 2016-08-06 | 2022-05-13 | 深圳市大疆创新科技有限公司 | 自动着陆表面地形评估以及相关的系统和方法 |
JP7143444B2 (ja) | 2018-02-09 | 2022-09-28 | スカイディオ,インコーポレイテッド | 航空機のスマート着陸 |
US11453513B2 (en) * | 2018-04-26 | 2022-09-27 | Skydio, Inc. | Autonomous aerial vehicle hardware configuration |
GB2574001B (en) * | 2018-05-18 | 2022-08-17 | Univ Bath | Apparatus, method and system relating to aircraft systems |
US11136096B2 (en) * | 2018-07-25 | 2021-10-05 | Thomas Lawrence Moses | Unmanned aerial vehicle search and rescue system |
US11749126B2 (en) | 2018-08-07 | 2023-09-05 | Reliable Robotics Corporation | Landing site localization for dynamic control of an aircraft toward a landing site |
US10935987B2 (en) * | 2018-08-07 | 2021-03-02 | Reliable Robotics Corporation | Landing site localization for dynamic control of an aircraft toward a landing site |
FR3089038B1 (fr) * | 2018-11-22 | 2020-10-30 | Thales Sa | Procede d’apprentissage d’un reseau de neurones embarque dans un aeronef pour l’aide a l’atterrissage dudit aeronef et serveur pour la mise en œuvre d’un tel procede |
JPWO2020262189A1 (ja) * | 2019-06-27 | 2020-12-30 | ||
US11694563B2 (en) * | 2019-07-09 | 2023-07-04 | Here Global B.V. | Method and apparatus to control one or more drones based on real-time or predictive position information |
US11600067B2 (en) * | 2019-09-12 | 2023-03-07 | Nec Corporation | Action recognition with high-order interaction through spatial-temporal object tracking |
US11355022B2 (en) | 2019-09-13 | 2022-06-07 | Honeywell International Inc. | Systems and methods for computing flight controls for vehicle landing |
ES2819325B2 (es) * | 2019-10-14 | 2022-04-21 | Univ Alcala Henares | Metodo de aproximacion y trincado entre plataformas vtol y htol, sistema autonomo de aproximacion y trincado y plataforma vtol asociada |
CN110597297A (zh) * | 2019-10-21 | 2019-12-20 | 深圳市道通智能航空技术有限公司 | 一种飞行器返航控制方法、装置、飞行器和存储介质 |
CN114987779A (zh) * | 2019-11-05 | 2022-09-02 | 深圳市道通智能航空技术股份有限公司 | 镜头模组的控制方法、装置、飞行器、飞行系统及介质 |
DE102019217104A1 (de) * | 2019-11-06 | 2021-05-06 | Zf Friedrichshafen Ag | Sensorbasierte Ansteuerung eines Flugobjektes in einer Flugumgebung |
KR102189742B1 (ko) * | 2019-11-12 | 2020-12-11 | 한국항공우주연구원 | 지형맵에 대한 등고선 정보를 이용하여 안전 착륙 지점을 탐색하는 안전 착륙 지점 탐색 장치, 및 안전 착륙 지점 탐색 방법 |
CN110865650B (zh) * | 2019-11-19 | 2022-12-20 | 武汉工程大学 | 基于主动视觉的无人机位姿自适应估计方法 |
US11699235B2 (en) * | 2019-11-20 | 2023-07-11 | Baidu Usa Llc | Way to generate tight 2D bounding boxes for autonomous driving labeling |
SG10201913873QA (en) * | 2019-12-30 | 2021-07-29 | Singpilot Pte Ltd | Sequential Mapping And Localization (SMAL) For Navigation |
US11687778B2 (en) | 2020-01-06 | 2023-06-27 | The Research Foundation For The State University Of New York | Fakecatcher: detection of synthetic portrait videos using biological signals |
US20210241639A1 (en) * | 2020-02-05 | 2021-08-05 | Lockheed Martin Corporation | Landing zone suitability indicating system |
MX2022010293A (es) * | 2020-02-21 | 2023-01-04 | Bluespace Ai Inc | Metodo para evitar objetos durante la navegacion autonoma. |
JP7247133B2 (ja) * | 2020-03-12 | 2023-03-28 | 株式会社東芝 | 検出装置、検出方法およびプログラム |
US11687072B2 (en) | 2020-05-08 | 2023-06-27 | Honeywell International Inc. | Automatic UAV landing pad |
IL275198B2 (en) * | 2020-06-08 | 2024-07-01 | Elbit Systems Ltd | Systems and methods for guiding landing and cross-country flight |
EP4172862A4 (en) | 2020-06-24 | 2023-08-09 | Magic Leap, Inc. | OBJECT RECOGNITION NEURONAL NETWORK FOR AMODAL CENTER PREDICTION |
CN111782755B (zh) * | 2020-07-20 | 2021-05-25 | 中国人民解放军国防科技大学 | 基于虚拟网格字典的目标行进类意图识别方法和装置 |
US11994407B2 (en) * | 2020-07-31 | 2024-05-28 | Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company | Evaluation of a ground region for landing a robot |
JP7363733B2 (ja) * | 2020-09-30 | 2023-10-18 | トヨタ自動車株式会社 | 端末プログラム、無人航空機、及び情報処理装置 |
US11741702B2 (en) * | 2020-10-21 | 2023-08-29 | Honeywell International Inc. | Automatic safe-landing-site selection for unmanned aerial systems |
US11960276B2 (en) * | 2020-11-19 | 2024-04-16 | Tusimple, Inc. | Multi-sensor collaborative calibration system |
CN113359782B (zh) * | 2021-05-28 | 2022-07-29 | 福建工程学院 | 一种融合lidar点云与图像数据的无人机自主选址降落方法 |
CN113052151B (zh) * | 2021-06-01 | 2021-08-06 | 四川泓宝润业工程技术有限公司 | 基于计算机视觉的无人机自动降落引导方法 |
US12007790B2 (en) | 2021-06-09 | 2024-06-11 | Ford Global Technologies, Llc | Systems and methods for service drone landing zone operations |
CN113359810B (zh) * | 2021-07-29 | 2024-03-15 | 东北大学 | 一种基于多传感器的无人机着陆区域识别方法 |
RU2769016C1 (ru) * | 2021-08-11 | 2022-03-28 | Федеральное государственное автономное образовательное учреждение высшего образования «Южно-Уральский государственный университет (национальный исследовательский университет)» ФГАОУ ВО «ЮУрГУ (НИУ)» | Система управления посадкой многоразовой ракеты с искусственным интеллектом |
US11932394B2 (en) * | 2021-09-14 | 2024-03-19 | Honeywell International Inc. | System and method for localization of safe zones in dense depth and landing quality heatmaps |
KR102448233B1 (ko) * | 2021-12-13 | 2022-10-04 | 주식회사 유시스 | 정밀 착륙을 위한 드론 제어 방법 |
CN114625159B (zh) * | 2022-01-21 | 2023-07-28 | 中国空气动力研究与发展中心计算空气动力研究所 | 一种基于被控变量的结冰飞机控制方法 |
US20230252896A1 (en) * | 2022-02-08 | 2023-08-10 | Nullmax (Hong Kong) Limited | Autonomous driving system with air support |
US12050475B2 (en) | 2022-03-31 | 2024-07-30 | Wing Aviation Llc | Unmanned aerial vehicle trajectories for nudging and un-nudging |
US20230348099A1 (en) * | 2022-04-27 | 2023-11-02 | Skydio, Inc. | Base Stations For Unmanned Aerial Vehicles (UAVs) |
US20230394814A1 (en) * | 2022-06-01 | 2023-12-07 | Wing Aviation Llc | Stereo Abort of Unmanned Aerial Vehicle Deliveries |
WO2023239910A1 (en) * | 2022-06-10 | 2023-12-14 | Supernal, Llc | Camera calibration using feature of vehicle |
CN115357035A (zh) * | 2022-06-30 | 2022-11-18 | 广州极飞科技股份有限公司 | 一种无人设备降落处理方法、装置、设备及存储介质 |
US20240239531A1 (en) * | 2022-08-09 | 2024-07-18 | Pete Bitar | Compact and Lightweight Drone Delivery Device called an ArcSpear Electric Jet Drone System Having an Electric Ducted Air Propulsion System and Being Relatively Difficult to Track in Flight |
CN115496930B (zh) * | 2022-11-08 | 2023-03-21 | 之江实验室 | 一种图像处理方法、装置、存储介质及电子设备 |
WO2024137067A1 (en) * | 2022-12-23 | 2024-06-27 | Wing Aviation Llc | Using ambiguous semantic labeled images for uav positioning |
EP4390316A1 (en) * | 2022-12-23 | 2024-06-26 | Wing Aviation LLC | Using ambiguous semantic labeled images for uav positioning |
WO2024167476A1 (en) * | 2023-02-10 | 2024-08-15 | Berkin Savunma Sanayi Muhendislik Ticaret Anonim Sirketi | A landing assistance system |
CN116380057B (zh) * | 2023-06-05 | 2023-08-29 | 四川腾盾科技有限公司 | 一种gnss拒止环境下无人机自主着陆定位方法 |
US11945609B1 (en) * | 2023-08-16 | 2024-04-02 | Falcon Exodynamics, Inc. | System and method for identifying and distinguishing spacecraft appendages from the spacecraft body |
CN118466518A (zh) * | 2024-07-09 | 2024-08-09 | 天津云圣智能科技有限责任公司 | 拍摄对象的无人机航拍方法、装置及计算机存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014513642A (ja) | 2011-02-21 | 2014-06-05 | ストラテック システムズ リミテッド | 監視システムおよび飛行場内の異物、破片、または損害を検出する方法 |
US20160063009A1 (en) | 2014-09-03 | 2016-03-03 | Verizon Patent And Licensing Inc. | Proactively clearing digital storage |
WO2017172486A1 (en) | 2016-03-28 | 2017-10-05 | Zipline International Inc. | Vision Based Calibration System For Unmanned Aerial Vehicles |
WO2017206384A1 (zh) | 2016-05-31 | 2017-12-07 | 北京小米移动软件有限公司 | 飞行设备降落方法及装置 |
CN107444665A (zh) | 2017-07-24 | 2017-12-08 | 长春草莓科技有限公司 | 一种无人机自主降落方法 |
Family Cites Families (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AU2251500A (en) | 1998-08-27 | 2000-04-03 | Nicolae Bostan | Gyrostabilized self propelled aircraft |
US11571938B2 (en) | 2002-10-01 | 2023-02-07 | Andrew H B Zhou | Jet-propelled VTOL hybrid car |
US7520466B2 (en) | 2005-03-17 | 2009-04-21 | Nicolae Bostan | Gyro-stabilized air vehicle |
IL218327A (en) | 2012-02-26 | 2013-05-30 | Elbit Systems Ltd | Safe emergency landing of unmanned aerial vehicles |
JP6366730B2 (ja) | 2013-12-13 | 2018-08-01 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 無人機を発射および着陸させるための方法 |
US9573701B2 (en) | 2014-08-06 | 2017-02-21 | Disney Enterprises, Inc. | Robust and autonomous docking and recharging of quadrotors |
WO2016019562A1 (en) | 2014-08-08 | 2016-02-11 | SZ DJI Technology Co., Ltd. | Systems and methods for uav battery power backup |
US9511878B1 (en) * | 2014-08-13 | 2016-12-06 | Trace Live Network Inc. | System and method for adaptive y-axis power usage and non-linear battery usage for unmanned aerial vehicle equipped with action camera system |
US9778660B2 (en) | 2015-09-16 | 2017-10-03 | Qualcomm Incorporated | Unmanned aerial vehicle low-power operation |
CN108698690B (zh) | 2015-12-07 | 2021-08-17 | 特克斯特罗恩系统公司 | 具有提供有效的竖直起飞和着陆能力的翼板组件的uav |
US9630713B1 (en) | 2015-12-17 | 2017-04-25 | Qualcomm Incorporated | Unmanned aerial vehicle with adjustable aiming component |
KR20170138797A (ko) * | 2016-06-08 | 2017-12-18 | 엘지전자 주식회사 | 드론 |
CN114476105A (zh) * | 2016-08-06 | 2022-05-13 | 深圳市大疆创新科技有限公司 | 自动着陆表面地形评估以及相关的系统和方法 |
KR102514566B1 (ko) | 2016-08-23 | 2023-03-27 | 삼성전자주식회사 | 전자 장치 및 그의 동작 방법 |
WO2018134795A1 (en) * | 2017-01-23 | 2018-07-26 | Urban Aeronautics, Ltd. | Method of drag reduction on vehicle with internal rotors |
JP7143444B2 (ja) | 2018-02-09 | 2022-09-28 | スカイディオ,インコーポレイテッド | 航空機のスマート着陸 |
-
2019
- 2019-02-11 JP JP2020564803A patent/JP7143444B2/ja active Active
- 2019-02-11 EP EP19751386.4A patent/EP3750140A4/en active Pending
- 2019-02-11 US US16/272,111 patent/US11242144B2/en active Active
- 2019-02-11 WO PCT/US2019/017526 patent/WO2019157455A1/en unknown
-
2022
- 2022-02-07 US US17/665,811 patent/US20220234733A1/en active Pending
- 2022-09-14 JP JP2022145979A patent/JP7465615B2/ja active Active
-
2024
- 2024-03-27 JP JP2024052268A patent/JP2024088679A/ja active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014513642A (ja) | 2011-02-21 | 2014-06-05 | ストラテック システムズ リミテッド | 監視システムおよび飛行場内の異物、破片、または損害を検出する方法 |
US20160063009A1 (en) | 2014-09-03 | 2016-03-03 | Verizon Patent And Licensing Inc. | Proactively clearing digital storage |
WO2017172486A1 (en) | 2016-03-28 | 2017-10-05 | Zipline International Inc. | Vision Based Calibration System For Unmanned Aerial Vehicles |
WO2017206384A1 (zh) | 2016-05-31 | 2017-12-07 | 北京小米移动软件有限公司 | 飞行设备降落方法及装置 |
CN107444665A (zh) | 2017-07-24 | 2017-12-08 | 长春草莓科技有限公司 | 一种无人机自主降落方法 |
Also Published As
Publication number | Publication date |
---|---|
JP7465615B2 (ja) | 2024-04-11 |
EP3750140A4 (en) | 2021-05-19 |
WO2019157455A1 (en) | 2019-08-15 |
US11242144B2 (en) | 2022-02-08 |
JP2021513714A (ja) | 2021-05-27 |
JP2024088679A (ja) | 2024-07-02 |
EP3750140A1 (en) | 2020-12-16 |
US20220234733A1 (en) | 2022-07-28 |
US20190248487A1 (en) | 2019-08-15 |
JP2022184945A (ja) | 2022-12-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7143444B2 (ja) | 航空機のスマート着陸 | |
US11726498B2 (en) | Aerial vehicle touchdown detection | |
US11592845B2 (en) | Image space motion planning of an autonomous vehicle | |
US11755041B2 (en) | Objective-based control of an autonomous unmanned aerial vehicle | |
US20240062663A1 (en) | User Interaction With An Autonomous Unmanned Aerial Vehicle | |
US11829139B2 (en) | Applications and skills for an autonomous unmanned aerial vehicle | |
US11861892B2 (en) | Object tracking by an unmanned aerial vehicle using visual sensors | |
US20220374013A1 (en) | Fitness And Sports Applications For An Autonomous Unmanned Aerial Vehicle | |
US20210358315A1 (en) | Unmanned aerial vehicle visual point cloud navigation | |
US20190250601A1 (en) | Aircraft flight user interface |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220125 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20220125 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20220125 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220721 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220819 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220914 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7143444 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |