JP2019513653A - 具体的に意図された対象と相互作用する無人航空機システム及び方法 - Google Patents
具体的に意図された対象と相互作用する無人航空機システム及び方法 Download PDFInfo
- Publication number
- JP2019513653A JP2019513653A JP2018548343A JP2018548343A JP2019513653A JP 2019513653 A JP2019513653 A JP 2019513653A JP 2018548343 A JP2018548343 A JP 2018548343A JP 2018548343 A JP2018548343 A JP 2018548343A JP 2019513653 A JP2019513653 A JP 2019513653A
- Authority
- JP
- Japan
- Prior art keywords
- uas
- delivery
- package
- pad
- predefined location
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000000034 method Methods 0.000 title claims abstract description 26
- 230000015654 memory Effects 0.000 claims abstract description 33
- 238000012384 transportation and delivery Methods 0.000 claims description 207
- 238000004891 communication Methods 0.000 claims description 45
- 238000012545 processing Methods 0.000 claims description 24
- 238000005259 measurement Methods 0.000 claims description 10
- 230000000977 initiatory effect Effects 0.000 claims description 6
- 230000004044 response Effects 0.000 claims description 5
- 239000003086 colorant Substances 0.000 claims 2
- 230000008569 process Effects 0.000 abstract description 6
- 238000001514 detection method Methods 0.000 description 17
- 238000010586 diagram Methods 0.000 description 10
- 230000033001 locomotion Effects 0.000 description 8
- 238000012790 confirmation Methods 0.000 description 6
- 230000009471 action Effects 0.000 description 4
- 230000001413 cellular effect Effects 0.000 description 4
- 238000013507 mapping Methods 0.000 description 4
- 238000012795 verification Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 230000006399 behavior Effects 0.000 description 2
- 230000008901 benefit Effects 0.000 description 2
- 230000008878 coupling Effects 0.000 description 2
- 238000010168 coupling process Methods 0.000 description 2
- 238000005859 coupling reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000011156 evaluation Methods 0.000 description 2
- 230000001815 facial effect Effects 0.000 description 2
- 230000014509 gene expression Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- RZVHIXYEVGDQDX-UHFFFAOYSA-N 9,10-anthraquinone Chemical compound C1=CC=C2C(=O)C3=CC=CC=C3C(=O)C2=C1 RZVHIXYEVGDQDX-UHFFFAOYSA-N 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000010267 cellular communication Effects 0.000 description 1
- 230000019771 cognition Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000002716 delivery method Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000024703 flight behavior Effects 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000003550 marker Substances 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
- G05D1/0011—Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot associated with a remote control arrangement
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D1/00—Dropping, ejecting, releasing, or receiving articles, liquids, or the like, in flight
- B64D1/22—Taking-up articles from earth's surface
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D47/00—Equipment not otherwise provided for
- B64D47/08—Arrangements of cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06Q—INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
- G06Q10/00—Administration; Management
- G06Q10/08—Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/24—Aligning, centring, orientation detection or correction of the image
- G06V10/245—Aligning, centring, orientation detection or correction of the image by locating a pattern; Special marks for positioning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/172—Classification, e.g. identification
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/60—UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/60—UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
- B64U2101/64—UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons for parcel delivery or retrieval
Abstract
いくつかの実施例において、システム、装置、方法、及び処理が、UASを制御し、割り振るために提供される。いくつかの実施例において、無人航空機システム(UAS)を制御するシステムが、UASと通信するように構成された1つ以上の無線送受信機と、送受信機に結合された制御回路と、制御回路に結合され、コンピュータ命令を記憶したメモリであり、コンピュータ命令は、制御回路により実行されたときに制御回路に、UASの少なくとも1つのセンサにより捕捉されたセンサデータを受信するステップと、センサデータから、予め定義された場所における対象の一意識別を決定するステップと、センサデータから、識別された対象が予め定義された場所で予期された、予期された対象であると確認するステップとを実行させる、メモリと、を含む。
Description
本発明は一般に無人航空機システム(UAS)に関する。
現代の小売環境において、顧客サービス及び/又は顧客に対する利便性を向上させる必要がある。顧客サービスの一態様は製品の配達である。製品を顧客に配達するための多数の方法がある。しかしながら、製品を配達場所に運ぶことは、望まれない遅延を引き起こす可能性があり、コストを追加し、収益を低減させる可能性がある。
関連出願の相互参照
本出願は、2016年3月14日に申請された米国仮出願第62/308,140号の利益を主張し、該出願はその全体を本明細書において参照により援用される。
本出願は、2016年3月14日に申請された米国仮出願第62/308,140号の利益を主張し、該出願はその全体を本明細書において参照により援用される。
無人航空機システム(UAS)に関するシステム、装置、及び方法の実施例が本明細書において開示される。本説明は図面を含む。
いくつかの実施例に従う例示的なUAS制御システムの簡略化されたブロック図を示す。
いくつかの実施例に従う例示的なタスク制御システムの簡略化されたブロック図を示す。
いくつかの実施例に従う例示的なUASの簡略化されたブロック図を示す。
いくつかの実施例に従う例示的なパイロット制御システムの簡略化されたブロック図を示す。
いくつかの実施例に従う1つ以上のUASを制御する例示的な処理の簡略化されたフロー図を示す。 図内の要素は簡潔さ及び明りょうさのため例示され、必ずしも縮尺どおり描かれていない。例えば、本発明の様々な実施例の理解を向上させるのを助けるために、図内の要素のうちいくつかの寸法及び/又は相対的位置が他の要素に対して誇張されていることがある。また、商業的に実現可能な実施例において有用又は必要である一般的だが良く理解された要素は、本発明のこれら様々な実施例のあまり妨げられないビューを容易にするために、しばしば描かれない。特定の動作及び/又はステップが特定の発生順序で説明され、あるいは描かれることがあり、当業者は、シーケンスに関するこうした特定性が実際には必要とされないと理解するであろう。本明細書において使用される用語及び表現は、異なる特定の意味がその他の方法で本明細書において明記されている場合を除き、上記で明記された技術分野における当業者によるこうした用語及び表現に一致するように通常の技術的意味を有する。
下記の説明は、限定的な意味でとられるべきでなく、例示的な実施例の一般的原理を単に説明する目的で行われる。本明細書を通しての「1つの実施例」、「一実施例」、「いくつかの実施例」、「一実現例」、「いくつかの実現例」、又は同様の言語に対する参照は、実施例に関連して説明される具体的な特徴、構造、又は特性が本発明の少なくとも1つの実施例に含まれることを意味する。ゆえに、本明細書を通してのフレーズ「1つの実施例において」、「一実施例において」、「いくつかの実施例において」、「いくつかの実現例において」、及び同様の言語の出現は、すべて同じ実施例を参照してよいが、必ずしもそうではない。
一般的に言えば、様々な実施例に従い、スケジュールされた場所の顧客に荷物を配達し、及び/又は予め定義された場所で他のタスクを実行することにおいて、無人航空機システム(unmanned aircraft systems)(UAS)を利用するシステム、装置、方法、及び処理が提供される。いくつかの実施例は、UAS上のセンサを利用して、UASが回避するべきである対象を検出することに追加で、相互作用されるよう意図される対象を検出する。いくつかの実施例において、システムが対象を認識し、それにより、UASが意図された対象と対話することができる。UASは、対応するセンサデータを捕捉することができる1つ以上のセンサ(例えば、カメラ、距離測定センサ、信号強度センサ、ビーコン検出器など)を用いて構成される。このUAS検出センサデータは、UASが荷物を配達すべき意図された配達場所などの予め定義された場所で相互作用されるよう意図された対象の一意識別(unique identification)を決定するために利用できる。さらに、センサデータを使用し、識別された対象が、予め定義された場所で予期される予期された対象と確認できる。いくつかの実施例は、1つ以上の送受信機を通して通信する制御回路を含む。制御回路は、UASの1つ以上のセンサにより捕捉されたセンサデータを受信することができる。センサデータから、制御回路は、予め定義された場所における対象の一意識別を決定し、識別された対象が予め定義された場所で予期された対象、典型的にはUASが相互作用するよう意図された対象であると確認することができる。
図1は、いくつかの実施例に従う例示的なUAS制御システム100の簡略化されたブロック図を示す。例示的なUAS制御システム100は、1つ以上のタスク制御システム102と、複数の無人航空機システム(UAS)104とを含む。UASは、1つ以上の分散通信及び/又はコンピュータネットワーク106を通じてタスク制御システム102と通信する。タスク制御システムは、これらに限られないが荷物を配達すること、ビデオを捕捉すること、調査データを取得すること、及び他のこうしたタスクなどの1つ以上のタスクを実現することにおいて、配送を制御し、かつ/あるいは飛行経路情報をUASに提供する。以下の説明は製品の配達を実行するタスクを説明するが、システムは配達を実行することに限定されず、代わりに複数の他のタスクに適用できることに留意する。いくつかの実施例は、リモートパイロットがUASにより実現されるべき飛行コマンドを提供することを可能にする1つ以上のパイロット制御システム108を含む。飛行コマンドは、単一の簡素なコマンド(例えば、コースを変更する)、一連のコマンド、又はリモートパイロットが少なくともある期間、UASの完全な制御を引き継ぐことを可能にすることであり得る。
1つ以上の小売店及び/又は製品配送センターシステム110が、ユーザインターフェースユニット112(例えば、コンピュータ、ラップトップ、スマートフォン、タブレット、及び他のこうしたデバイス)及び/又は他のこうした顧客デバイスを使用する顧客により、1つ以上の分散ネットワーク106を通じてアクセス可能であり得る。顧客は、小売店システムにアクセスし、1つ以上の製品を購入することができる。さらに、顧客は、購入した製品を配達させるように選ぶことができる。システムは、各々が少なくとも1の顧客に関連づけられた複数のユーザインターフェースユニット112を含み、かつ/あるいは該ユーザインターフェースユニット112によりアクセス可能である。ユーザインターフェースユニットは、通信ネットワーク106を介して小売店システム110と通信することができ、いくつかの適用においてタスク制御システム102及び/又はUASと通信することができる。いくつかの実施例は、1つ以上のUASを輸送する1つ以上の配送及び/又は発進車両(launch vehicles)118をさらに利用し、関連した荷物がこれらUASにより配達されるとき、意図されたタスク(例えば、無人空中配達、ビデオ捕捉、無線ネットワークの確立等)を実現するために1つ以上UASが発進できる戦略的発進場所に輸送する。
タスク制御システム102は、顧客により注文された荷物及び/又は製品の配達を調整するなど、UAS104により実行されるタスクを調整するように構成される。これは、配達スケジューリング、飛行スケジュール、飛行ルート計画、代替ルート情報、飛行禁止区域の識別、及び/又は他のこうした機能を決定すること及び/又は提供することを含むことができる。いくつかの適用において、製品注文が小売店システム110から受信される。小売店システムは、インターネットマーケット小売店ソース、店舗内注文システム、及び/又は他のこうしたソースを含んでよい。さらに、製品注文は、注文の1つ以上の製品がUASにより配達されるべきと指定し、かつ/あるいは要求してもよい。さらに、又は別法として、顧客が、顧客プロファイル又はレコードを維持する小売エンティティを登録してもよく、登録の間、顧客は、承認及び/又は要求された製品をUASを使用して配達させてもよい。
受信した注文、及び/又は、1つ以上のUASにより実行されるようスケジュールされた他のタスクに基づき、タスク制御システムは、配達(及び/又はタスク)をスケジュールし、関連したルーティング及び/又は飛行経路情報をUAS104のうち対応する1つに提供することができる。決定される飛行経路は、顧客から受信された指定された配達場所、及び/又は、UASがタスクを実行し又は実行することを支援すべきタスク場所に基づき決定される。いくつかの実施例において、顧客は、そのポータブルのユーザインターフェースユニット112を使用して配達場所を指定してよい。指定された配達場所に基づき、タスク制御システムは、UASが配達のために1つ以上の荷物を運搬する間に移動する飛行経路又はルートと共に、1つ以上のファクタに基づきスケジュールされた配達を決定することができる。したがって、いくつかの実施例が、UASがペイロードを決定された配達場所に配達し、かつ/あるいは予め定義されたタスク場所で他のタスクを実行することができるようにする。
動作において、実行されているタスク及び/又は荷物の配達に対応するセンサデータが受信される。センサデータは、UAS104の1つ以上のセンサにより捕捉されたセンサデータを典型的に含む。他のセンサデータが、これらに限られないがユーザインターフェースユニット112、固定カメラ、他のUAS、及び/又は他のこうしたデバイスなどの、他のデバイスから受信されてもよい。センサデータに基づき、対象がある対象クラス内であると識別でき、予め定義された場所における対象の一意識別が識別でき、他のこうした識別が識別できる。この対象は、意図された配達場所における配達及び/又は着地パッド、意図された配達場所における配達ロッカー、顧客、建物、特定車両、UAS発進システム、UASハンガー、又は予め定義された場所における他のこうした対象であり得る。その認識は、画像処理、RFID検出、光学バーコードスキャン、テキスト捕捉及び比較、ビーコン検出、他のこうした認識方法、又はこうした認識方法のうち2つ以上の組み合わせに基づくことができる。例えば、配達場所に対応する領域の1つ以上の画像及び/又はビデオが、荷物を配達する処理の間、UASの1つ以上のカメラにより捕捉されてよい。画像及び/又はビデオ処理が、荷物が配達されるべき意図された配達パッドを検出するために実行できる。いくつかの例において、例えば、認識されるべき配達パッド又は他の対象が、UASが配達場所に対応する領域を飛行している間にUASにより捕捉された画像及び/又はビデオの画像認識を通して検出できる予め定義された色パターン、英数字文字、バーコード等を含んでよい。別の例として、画像処理が、配達場所に対応する領域にいる人を検出することができ、顔認識を使用し、その人が、UASが荷物を配達することにおいて相互作用するよう意図された個人(例えば、荷物を受け取るべき顧客、及び/又は、配偶者、子供、隣人などの、顧客に関連づけられた人)であると確認することができる。さらに、又は別法として、いくつかの実施例が、対象又は対象に関連づけられたデバイス(例えば、顧客に関連づけられたスマートフォン)から1つ以上の通信を受信してもよい。システムは、対象を識別及び/又は確認することにおいてこの通信を使用してよい。いくつかの例において、UASは、意図された対象及び/又は対象に関連づけられたデバイス(例えば、顧客に関連づけられたユーザインターフェースユニット112)に通信を送信することにより通信交換を開始してよい。
図2は、いくつかの実施例に従う例示的なタスク制御システム102の簡略化されたブロック図を示す。タスク制御システムは、1つ以上の制御回路202、メモリ204、及び入力/出力(I/O)インターフェース及び/又はデバイス206を含む。いくつかの実施例が、1つ以上のユーザインターフェース208をさらに含む。制御回路202は、1つ以上のプロセッサ及び/又はマイクロプロセッサを典型的に含む。メモリ204は、タスク制御システム102の機能性を実現するために制御回路202及び/又はプロセッサにより実行される命令の動作コード又はセットを記憶する。いくつかの実施例において、メモリ204は、配達をスケジュールし、配達場所を決定し、配達場所を確認し、飛行経路を決定し、飛行経路及び/又は飛行命令をUAS104に対して通信させ、本明細書に説明される関連づけ、決定、測定、及び/又は通信のうち任意のものを行うために必要とされ得る特定データのいくつか又はすべてをさらに記憶してよい。こうしたデータは、メモリに予め記憶され、外部ソース(例えば、小売店配送システム110、UAS104、パイロット制御システム108、ユーザインターフェースユニット112等)から受信され、決定され、かつ/あるいはタスク制御システムに通信されてもよい。
制御回路202及び/又はプロセッサは、当該分野において周知の1つ以上のプロセッサデバイスとして実現されてよいことが理解される。同様に、メモリ204は、1つ以上のプロセッサ読取可能及び/又はコンピュータ読取可能媒体などの、当該分野において周知の1つ以上のメモリデバイスとして実現されてよく、RAM、ROM、EEPROM、フラッシュメモリ、及び/又は他のメモリ技術などの揮発及び/又は不揮発媒体を含むことができる。さらに、メモリ204は、タスク制御システム102に対して内部として図示されているが、メモリ204は、内部、外部、又は内部及び外部メモリの組み合わせであり得る。さらに、タスク制御システムは、典型的に再充電可能である電源(図示されていない)を典型的に含み、かつ/あるいは、タスク制御システムは、外部ソースから電力を受け取ってもよい。図2は、バスを介して一緒に結合されている様々なコンポーネントを示すが、この様々なコンポーネントは実際、制御回路202及び/又は1つ以上の他のコンポーネントに直接結合されてもよいことが理解される。
一般に、タスク制御システム102の制御回路202及び/又は電子コンポーネントは、固定された目的のハードワイヤードのプラットフォームを含むことができ、あるいは部分的又は全体的にプログラム可能なプラットフォームを含むことができる。これらのアーキテクチャ的選択肢は周知であり、当該分野において理解され、ここでさらなる説明を必要としない。タスク制御システム及び/又は制御回路は、本明細書に説明されるステップ、動作、及び/又は機能のうち1つ以上を実行するように(例えば、当業者により良く理解されるような対応するプログラミングを使用することにより)構成できる。いくつかの実現例において、制御回路202及びメモリ204は、マイクロコントローラ、特定用途向け集積回路、フィールドプログラマブルゲートアレイ、又は他のこうしたデバイスなどに一緒に統合されてもよく、あるいは一緒に結合された別個のデバイスでもよい。
I/Oインターフェース206は、UAS104、小売店システム110、パイロット制御システム108、ユーザインターフェースユニット112、データベース114、及び他のこうしたデバイス若しくはシステムなどの外部コンポーネントに対するタスク制御システム102の有線及び/又は無線通信結合を可能にする。典型的に、I/Oインターフェース206は、有線及び/又は無線通信(例えば、Wi‐Fi(登録商標)、Bluetooth(登録商標)、セルラー、RF、及び/又は他のこうした無線通信)を提供し、いくつかの例において、これらに限られないが1つ以上の送信機、受信機、送受信機などの、任意の既知の有線及び/又は無線インターフェースデバイス、回路、及び/又は接続デバイスを含んでよい。
ユーザインターフェース208は、ユーザ入力及び/又は出力表示に使用されてよい。例えば、ユーザインターフェース208は、1つ以上のボタン、ノブ、セレクタ、スイッチ、キー、タッチ入力面、オーディオ入力、及び/又はディスプレイなどの任意の既知の入力デバイスを含んでよい。さらに、ユーザインターフェース208は、ライト、視覚インジケータ、表示画面などの1つ以上の出力表示デバイスを含み、これらに限られないが製品注文、製品情報、飛行経路マッピング、飛行経路情報、UASパラメータデータ、顧客情報、画像、ビデオ、通信情報(例えば、テキストメッセージ、電子メール等)、ステータス情報、マッピング情報、動作ステータス情報、通知、エラー、コンディション、及び/又は他のこうした情報などの情報をユーザ/作業者に伝達する。同様に、ユーザインターフェース208はいくつかの実施例において、作業者により口頭で発行されたオーディオコマンド又は要求を受信し、かつ/あるいはオーディオコンテンツ、警告などを出力することができる、オーディオシステムを含んでもよい。
図3は、いくつかの実施例に従う例示的なUAS104の簡略化されたブロック図を示す。UASは、1つ以上のUAS制御回路302、メモリ304、入力/出力(I/O)インターフェース及び/又はデバイス306、モータ及びモータ制御回路308、場所検出システム310、並びに1つ以上のカメラ312を含む。いくつかの実施例が、1つ以上のセンサ314、クレーンシステム316、ユーザインターフェース318、及び/又は他のこうしたシステムをさらに含む。UAS制御回路302は、1つ以上のプロセッサ及び/又はマイクロプロセッサを含み、UAS104の機能性を実現するためにUAS制御回路302及び/又はプロセッサにより実行される命令の動作コード又はセットを記憶するメモリ304と結合する。いくつかの実施例において、メモリ304は、配達場所にナビゲートし、1つ以上の製品を配達するために必要とされ得る特定データのいくつか又はすべてをさらに記憶してよい。UAS制御回路302は、当該分野において周知の1つ以上のプロセッサデバイスとして実現されてよいことが理解される。同様に、メモリ304は、上記で説明されたものなどの、当該分野において周知の1つ以上のメモリデバイスとして実現されてよい。さらに、メモリ304は、UAS104に対して内部として図示されているが、メモリ304は、内部、外部かつ無線アクセス可能、又は内部及び外部メモリの組み合わせであり得る。さらに、UASは、典型的に再充電可能である電源(図示されていない)を典型的に含み、かつ/あるいは、UASは、外部ソースから電力を受け取ってもよい。図3は、バスを介して一緒に結合されている様々なコンポーネントを示すが、この様々なコンポーネントは実際、UAS制御回路302及び/又は1つ以上の他のコンポーネントに直接結合されてもよいことが理解される。
UAS104のUAS制御回路302及び/又は電子コンポーネントは、固定された目的のハードワイヤードのプラットフォームを含むことができ、あるいは部分的又は全体的にプログラム可能なプラットフォームを含むことができる。これらのアーキテクチャ的選択肢は周知であり、当該分野において理解され、ここでさらなる説明を必要としない。UAS及び/又はUAS制御回路は、本明細書に説明されるステップ、動作、及び/又は機能のうち1つ以上を実行するように(例えば、当業者により良く理解されるような対応するプログラミングを使用することにより)構成できる。いくつかの実現例において、UAS制御回路302及びメモリ304は、マイクロコントローラ、特定用途向け集積回路、フィールドプログラマブルゲートアレイ、又は他のこうしたデバイスなどに一緒に統合されてもよく、あるいは一緒に結合された別個のデバイスでもよい。
I/Oインターフェース306は、タスク制御システム102、小売店システム110、パイロット制御システム108、いくつかの例において1つ以上のユーザインターフェースユニット112、及び他のこうしたデバイス若しくはシステムなどの外部コンポーネントに対するUAS104の有線及び/又は無線通信結合を可能にする。典型的に、I/Oインターフェース306は、少なくとも無線通信(例えば、Wi‐Fi、Bluetooth、セルラー、RF、及び/又は他のこうした無線通信)を提供し、いくつかの例において、これらに限られないが1つ以上の送信機、受信機、送受信機などの、任意の既知の有線及び/又は無線インターフェースデバイス、回路、及び/又は接続デバイスを含んでよい。
場所検出システム310は、場所情報を取得して、UASの現在の場所を決定し、その場所及び動きを追跡する。UAS制御回路302は、UASの動きを制御することにおいて場所情報を利用する。いくつかの例において、場所検出システムは、全地球測位検出システム及び/又は全地球測位座標情報を受信するシステム、Wi‐Fi信号三角測量及び/又は評価システム、セルラータワー三角測量システム、ビーコン検出、及び/又は他のこうした場所検出システムを含んでよい。さらに、場所検出システムは、場所情報を決定すること及び/又は追跡することにおいて、1つ以上のセンサ314により提供される情報を使用してよい。センサは実質的に、これらに限られないが1つ以上の慣性センサ、加速度計、高度計、ジャイロスコープ、コンパス、距離測定システム(例えば、超音波、レーザ等)などの任意の関連したセンサ、及び/又は他のこうしたセンサ情報を含むことができる。これらに限られないが無線信号強度センサ、天候センサ、磁気放射検出センサ、動き検出器(例えば、配達場所の閾距離内の動きを検出する)などの、場所検出に使用されてもそうでなくてもよい他のセンサ314が含まれてもよい。
典型的に、UAS104は、UASのUAS制御回路302により評価され、かつ/あるいは処理のためにタスク制御システム102に通信され得る、画像及び/又はビデオを捕捉する1つ以上のカメラ312を含む。動作において、UASのUAS制御回路302は、カメラ312の1つ以上をアクティブ化することができ、これは、タスク制御システムからのコマンドに応答してでもよく、パイロット制御システムから受信されたパイロットコマンドに応答してでもよく、UAS制御回路は、予め定義された配達シーケンスに基づき1つ以上のカメラをアクティブ化する(例えば、配達場所の閾距離内のときに、配達サイトの上でホバリングするとき、UASを降下させる間、クレーンシステム316により荷物を降下させる間などに、カメラをアクティブ化して画像及び/又はビデオを捕捉する)などする。いくつかの実施例が、異なる一般的方向(例えば、上、下、前、後)に向けられた異なるカメラを含み、さらに、又は別法として、1つ以上のカメラが、1つ以上のカメラの動きを制御することができるカメラ方向制御システム(例えば、モータ、トラック、ジンバル等)と協働してもよい。いくつかの実施例において、1つ以上のカメラは、全方向性の画像化及び/又はビデオ能力を提供する。上記で導かれたように、いくつかの実施例において、UASのカメラ312により捕捉された1つ以上のピクチャ及び/又はビデオが、UASが相互作用するはずの1つ以上の対象を検出すること及び/又は識別することにおいて評価できる。さらに、いくつかの適用において、ビデオがパイロット制御システムに通信されて、パイロットが配達場所の及び/又はその周囲のコンディションを見ることを可能にすることができる。
いくつかの実現例において、UAS104はクレーンシステム316を含んでよく、クレーンシステム316は、UASが配達サイトの上でホバリングする、典型的には配達サイトの上で閾高さ又はそれ以上でホバリングする間、配達されている製品が配達サイトに降ろされることを可能にする。クレーンシステム及び/又は荷物リリースシステムは、いくつかの実施例において、2015年9月23日に申請されSYSTEMS AND METHODS OF DELIVERING PRODUCTS WITH UNMANNED DELIVERY AIRCRAFTSと題されたNathan G. Jonesらによる米国仮出願第62/222,572号、及び2015年9月23日に申請されPACKAGE RELEASE SYSTEM FOR USE IN DELIVERY PACKAGES, AND METHODS OF DELIVERING PACKAGESと題されたNathan G. Jonesによる米国仮出願第62/222,575号で説明されるクレーンシステム及び/又はリリースシステムに従い、あるいはこれらと同様に実現されてよく、上記出願はその全体を本明細書において参照により援用される。
いくつかの実施例において、UASは、ユーザ入力及び/又は出力表示に使用できる1つ以上のユーザインターフェース318を含んでよい。例えば、ユーザインターフェース318は、1つ以上のボタン、ノブ、セレクタ、スイッチ、キー、タッチ入力面、オーディオ入力、及び/又はディスプレイなどの任意の既知の入力デバイスを含んでよい。さらに、ユーザインターフェース318は、ライト、視覚インジケータ、表示画面などの1つ以上の出力表示デバイスを含み、情報をユーザに伝達する。同様に、ユーザインターフェース318はいくつかの実施例において、作業者により口頭で発行されたオーディオコマンド又は要求を受信し、かつ/あるいはオーディオコンテンツ、警告などを出力することができる、オーディオシステムを含んでもよい。
図4は、いくつかの実施例に従う例示的なパイロット制御システム108の簡略化されたブロック図を示す。パイロット制御システムは、1つ以上のパイロットシステム制御回路402、メモリ404、入力/出力(I/O)インターフェース及び/又はデバイス406、ユーザインターフェース408を含む。パイロット制御回路402は、1つ以上のプロセッサ及び/又はマイクロプロセッサを典型的に含み、メモリ404に結合して、パイロット制御システム108の機能性を実現するために制御回路402により実行される命令の動作コード又はセットにアクセスする。いくつかの実施例において、メモリ404は、UAS104をリモートで制御し、本明細書に説明される関連づけ、決定、測定、及び/又は通信のうち任意のものを行うために必要とされ得る特定データのいくつか又はすべてをさらに記憶してよい。制御回路402及び/又はメモリ404は、上記で説明されたものなどの、当該分野において周知の1つ以上のプロセッサデバイス及びメモリとして実現されてよいことが理解される。さらに、メモリ404は、パイロット制御システム108に対して内部として図示されているが、メモリ404は、内部、外部、又は内部及び外部メモリの組み合わせであり得る。図4は、バスを介して一緒に結合されている様々なコンポーネントを示すが、この様々なコンポーネントは実際、パイロットシステム制御回路402及び/又は1つ以上の他のコンポーネントに直接結合されてもよいことが理解される。いくつかの実現例において、パイロットシステム制御回路及びメモリ404は、マイクロコントローラ、特定用途向け集積回路、フィールドプログラマブルゲートアレイ、又は他のこうしたデバイスなどに一緒に統合されてもよく、あるいは一緒に結合された別個のデバイスでもよい。
I/Oインターフェース406は、UAS104、タスク制御システム102、小売店システム110、データベース114、及び他のこうしたデバイス若しくはシステムなどの外部コンポーネントに対するパイロット制御システム108の有線及び/又は無線通信結合を可能にする。典型的に、I/Oインターフェース406は、少なくとも無線通信(例えば、セルラー、衛星、Wi‐Fi、Bluetooth、RF、及び/又は他のこうした無線通信)を提供し、いくつかの例において、これらに限られないが1つ以上の送信機、受信機、送受信機などの、任意の既知の有線及び/又は無線インターフェースデバイス、回路、及び/又は接続デバイスを含んでよい。ユーザインターフェース408は、ユーザ入力及び/又は出力表示に使用される。例えば、ユーザインターフェース408は、1つ以上のボタン、ノブ、セレクタ、スイッチ、キー、タッチ入力面、ジョイスティック、ダイヤル、オーディオ入力、及び/又はディスプレイなどの任意の既知の入力デバイスを含んでよい。さらに、ユーザインターフェース408は、ライト、視覚インジケータ、表示画面などの1つ以上の出力表示デバイスをさらに含み、これらに限られないがビデオデータ、画像、配達場所パラメータ及び/又は統計、製品情報、飛行経路マッピング、飛行経路情報、UASパラメータデータ、顧客情報、通信情報(例えば、テキストメッセージ、電子メール等)、ステータス情報、マッピング情報、動作ステータス情報、通知、エラー、コンディション、及び/又は他のこうした情報などの情報をユーザ/作業者に伝達する。同様に、ユーザインターフェース408はいくつかの実施例において、口頭で発行されたオーディオコマンド又は要求を受信し、かつ/あるいはオーディオコンテンツ、警告などを出力することができる、オーディオシステムを含んでもよい。
さらに、いくつかの実施例が、UASがタスクに対してスケジュールされている間、及び/又はUASがタスクを実行している間、パイロット制御システムを受け持つ1以上のパイロットを有するパイロット制御システム108のバンクを提供する。パイロット制御システムを通して、パイロットが、UASの制御の少なくともいくつかをリモートで引き継ぐことができる。パイロットシステム制御回路は、UASがタスク場所(例えば、配達場所)の閾パイロット制御距離内である間、パイロット支援が要求されるという通知を受信することができる。UASの制御の少なくともいくつかにわたるリモート制御は、送受信機を通して確立できる。そのようなものとして、コマンドがユーザインターフェース408を通してパイロットから受信され、UASに通信されてコマンドを実現することができ、それにより、パイロットは、UASの少なくともいくつかの態様を制御し、かつ/あるいはUASの全制御を引き継ぐ。典型的に、パイロットは、UASが動作中である(例えば、UASが飛行の準備をしている、飛行中である、かつ/あるいは飛行が始まった直後等)任意の時間の間、制御を引き継ぐことができる。例えば、いくつかの例において、パイロットが、少なくとも配達場所で製品を置いている間、少なくとも部分的な制御を引き継いでよい。
上記で説明されたように、いくつかの実施例が配送車両118を利用する。1つ以上のUAS及び配達されるべき製品が発進車両に積まれてよい。スケジュールされた配達に基づき、発進車両は、1つ以上のスケジュールされた配達場所の予め定義された飛行距離内(例えば、電池電力、配達されている荷物の重量、天候コンディション等に基づく)である所定の発進場所にルーティングされ得る。配達されるべき製品の1つ以上と協働し得る1つ以上のUASが、次いで、発進車両から発進され得る。配送車両118は、複数の異なる発進場所に移動して複数の異なるスケジュールされた配達を実現することができる。さらに、発進後、配送車両が、後続の発進場所に進んで1つ以上の他のUASを発進させ、次いで、最初の発進場所に後に戻って1つ以上の前に発進されたUASを回収してもよい。
いくつかの実施例が、UASがタスク場所でタスクを実現し、意図された対象を認識することを可能にするシステムを提供する。センサデータが、UASの少なくとも1つのセンサにより捕捉される。再びになるが、センサデータは、画像及び/又はビデオコンテンツ、テキスト認識、RFID信号、バーコード検出、他のこうしたセンサデータ、又はこうしたセンサデータの2つ以上の組み合わせであり得る。センサデータから、予め定義された場所における対象の一意識別が決定できる。識別及びセンサデータに基づき、システムは、識別された対象が予め定義された場所で予期された、予期された対象であると確認することができる。対象の確認は、システムが1つ以上の動作を行うことを可能にして、UASが対象と相互作用することを可能にする。UAS、パイロット、及び/又はタスク制御システムが、回避されるべき潜在的な対象(例えば、木、高い電線、建物など)をさらに検出することができる。しかしながら、システムは、センサデータを使用して、相互作用されるよう意図された予期された場所で対象をさらに識別し、UASがある信頼度でタスクを効率的に実行することを可能にする。
UAS制御回路302は、いくつかの適用においてセンサデータの少なくとも一部として、UAS上のカメラにより捕捉された画像データを受信することができる。典型的に、UAS制御回路は、カメラ及び/又はUASを方向づけて1つ以上の画像及び/又はビデオを捕捉することができる。画像及び/又はビデオデータは、予期された対象に対応する1つ以上の特徴を検出するために処理できる(例えば、画像処理、テキスト捕捉など)。これは、パターン、検出された動き、他のこうした特徴、又はこうした特徴の組み合わせであり得る。いくつかの実現例において、画像処理及び対象識別はUASでローカルに実行される。さらに、UASは、予期された対象が検出されるよう予測された場所を識別してもよい。したがって、UAS制御回路は、UASが該場所の閾距離内になるまで、センサデータの評価を制限することができる。いくつかの実施例において、UAS制御回路は、画像処理センサデータから対象の一意識別を取得することができる。例えば、いくつかの適用において、UASは、着地パッド上の予め定義されたパターンに基づき配達パッドを認識してよい。このパターンは、着地パッドより上の数百フィート又は数千フィートもの高さでカメラにより撮影する画像から容易に認識できるように構成できる。同様に、画像処理は、格納ロッカー、配達パッド、配送車両の屋根、ある場所における1つ以上の旗、又は他のこうした対象上の、予め定義された番号、バーコード、又は他のこうした一意識別を認識してよい。いくつかの適用において、UAS制御回路は、一意識別を取得することにおいて、画像処理から、予め定義された場所に関連づけられた配達パッドに対して一意であり他の同様の及び異なる配達パッドと区別可能である配達パッド識別子を取得する。上記で導かれたように、配達パッドは、UASにより配達されるべき荷物を受け取るように構成される。
いくつかの実施例において、UAS制御回路302は、予め定義された場所の1つ以上の画像及び/又はビデオに対して顔認識処理を実行させる。一意識別を取得することにおいて、UASは、予め定義された場所の近くに位置する顧客の顔認識を通して識別を取得してよい。いくつかの適用において、画像及び/又はビデオコンテンツが、(例えば、タスク制御システムの一部として)リモートの画像及び/又はビデオ処理システムに通信されてよい。複数の対象、顧客、作業者、及び他のこうした対象のデータベースがアクセスされてよい。予め取得された画像の画像処理との比較を通して、システムは、顧客の顔の特徴を、顧客の予め取得及び処理された画像の特徴と相関させてよい。例えば、顧客は、配達サービス、小売エンティティなどを登録し、自身及び/又は自身の代わりに配達を受け取り得る他の人の1つ以上の画像を提供していてよい。画像及び/又は画像処理は、顧客が関連づけられるべき配達がある1つ以上の予め定義された場所に関連づけできる(例えば、自宅、別荘、仕事場等)。そのようなものとして、画像処理は、UASにより捕捉された画像を前に取得された画像及び/又は画像処理と相関させて、予期された人が当該場所にいると確認することができる。
いくつかの実施例において、システムは、対象及び/又は対象に前に関連づけられたデバイスからの通信に基づき対象をさらに確認することができる。例えば、UAS104及び/又はタスク制御システム102は、予め定義された場所における顧客又は他の人に関連づけられるよう予め登録されたユーザインターフェースユニット112から通信をさらに受信してよい。いくつかの例において、通信は無線送受信機を通して受信され、UAS及び/又は配達システムは、予め定義された場所に関連づけられた顧客に関連づけられたユーザインターフェースユニットからの通信を検出することができる。さらに、UASは、ビーコン信号をブロードキャストすること、光学信号を生成すること、及び/又は(例えば、顧客のユーザインターフェースユニットに対するセルラー通信又はテキストメッセージを介して)意図された直接通信を開始することにより、通信交換を開始してよい。UAS制御回路は、識別された対象が予期された対象であると確認することにおいて、受信したセンサデータとユーザインターフェースユニットからの検出された通信とに基づき、識別された対象を少なくとも部分的に確認することができる。同様に、制御回路は、対象の一意識別を決定することにおいて、配送車両118から通信を受信してもよい。いくつかの実現例において、例えば、通信は、配送車両の識別を含むことができる。制御回路は、配送車両の識別が、予め定義された場所から離れUASを輸送するよう割り当てられた予期された配送車両と一致すると確認する。
センサデータは、対象と相互作用することに、及び/又はタスクを実行することにさらに利用されてよい。例えば、センサデータは、荷物を配達するのに配達場所に十分な空間があると確認するために使用されてよい。これは、例えば、配達パッド上に何かがある場合、荷物を配達するのに依然として十分な空間があると確認することを含むことができる。十分な空間の確認は、例えば、顧客がUASを介して荷物を返品しているとき、関連し得る。いくつかの例において、制御回路は、UASからさらなるセンサデータを受信するようにさらに構成される。制御回路は、荷物が配達パッド上、配達ロッカー内、又は別の予め定義された場所にあると識別し得る。再びになるが、配達パッド又は同様のものは、UASにより配達されている荷物を受け取るよう意図されてよい。制御回路は、配達パッド上の荷物の周りの空間を評価し、配達パッド上に、既に配置された荷物により占有されていない、UASにより運搬されている荷物を受け取るための十分な空間があると確認することができる。UASは、配達パッド上に、荷物を配達するための十分な空間があると確認したことに応答して、荷物の配達を開始することができる。他の例において、カメラデータが、配達パッドのいくらか又はすべてをふさぐ雪又は他のこうした障害物があると示し得る。UASは、配達されている荷物の寸法を使用して、荷物が適合するかどうかを決定することができる。いくつかの実施例が、マーキング、配達パッドに対する測定値、配達領域のサイズの電子透かしを検出し、この情報を使用してどれほどの領域がふさがれているかを検出して、荷物を受け取るのに利用可能な領域の量を決定し得る。いくつかの例において、パイロットが、確認を要求するため、及び/又は配達制御を引き継ぐために通知されてよい。さらに、又は別法として、顧客は空間が不十分であると通知されてもよく、配達パッド上のアイテムを取り除くように、又は代替的な配達場所を選択するように顧客に要求する。他の実現例において、UAS又は別のUASが、後続の荷物を配達する前に、返品された荷物を回収するように命令されてもよい。
いくつかの実現例において、センサデータは、UAS104により運搬されるべき正しい荷物を検証するために使用できる。制御回路は、対象の識別を決定することにおいて、UASと協働すべき予期された荷物のセンサデータから荷物識別子を識別し、あるいは決定してよい。荷物は、UASにより配達場所に配達されるよう意図された荷物、顧客により返品された荷物などであり得る。センサデータは、バーコードを読み出すこと、サイズ、形状、及び/又は色合いを検出すること、1つ以上の予め定義されたマーカを検出すること、RFIDデータ、他のこうしたデータ、又はこうしたデータの2つ以上の組み合わせを含んでよい。
図5は、いくつかの実施例に従う1つ以上のUASを制御する例示的な処理500の簡略化されたフロー図を示す。ステップ502において、UASの少なくとも1つのセンサにより捕捉されたセンサデータが受信される。再びになるが、センサデータは、RFIDセンサデータ、画像及び/又はビデオデータ、距離測定データ、ビーコンデータ、及び/又は他のこうしたセンサデータであり得る。ステップ504において、予め定義された場所における対象の一意識別が、センサデータから少なくとも部分的に決定される。さらに、一意識別は、その対象に固有であり、その対象を他の対象から区別する。
ステップ506において、システムはセンサデータから、識別された対象が予め定義された場所で予期された、予期された対象であると確認する。いくつかの例において、対象及び/又は対象の特性が、タスク制御システム、小売店システム110、及び/又は他のこうしたシステム若しくはデータベースに登録される。したがって、対象の識別を確認することにおいて、システムは、考慮される対象の数を制限することができる。この制限された対象数は、確認の速度を大きく増加させることができる。同様に、いくつかの適用において、制限されたアイテム数が、センサデータを評価することにおいてUASに通信され、かつセンサデータに対して比較されるべきデータの量を、低減させることができる。
センサデータを受信することにおけるいくつかの実施例が、UAS上のカメラにより捕捉された画像データを受信する。UAS及び/又はタスク制御システムは、この画像データを使用して、画像処理から対象の一意識別を取得することができる。対象は、人、配達ロッカー、配達パッド、旗、又は他のこうした対象であり得る。例えば、いくつかの例において、制御回路が画像処理から、予め定義された場所に関連づけられた配達パッドに対して一意である配達パッド識別子を取得することができる。典型的に、配達パッド識別子は、他の同様の又は異なる配達パッドと区別可能である。再びになるが、配達パッドは、UASにより配達されるべき荷物を受け取るように構成された場所、マーカ、箱、マットなどであり得る。さらに、又は別法として、いくつかの実現例において、センサデータは、予め定義された場所の近くに位置する顧客の顔認識を通して識別を取得するために利用される。
いくつかの実施例が、UASからさらなるセンサデータをさらに受信する。このさらなるセンサデータを使用し、システムは、第1の荷物が配達パッド上にあると検出することができる。この検出に基づき、UAS及び/又はタスク制御システムは、配達パッド上に、第1の荷物により占有されていない、UASにより運搬されている第2の荷物を受け取るための十分な空間があると確認することができる。配達パッド上に、第2の荷物を配達するための十分な空間があるという確認に部分的に基づき、UASは、第2の荷物の配達を開始することができる。
UAS及び/又はタスク制御システムは、顧客、配送車両、及び/又は、ルーティング、飛行、及び/又はタスク実現に影響し得る他の対象と通信し得る。いくつかの実現例において、例えば、ユーザインターフェースユニット112からの検出された通信が、予め定義された場所に関連づけられた顧客に関連づけられる。ユーザインターフェースユニットからの検出された通信は、識別された対象を確認することにおいて、受信したセンサデータと協働して使用できる。例えば、顔認識が、タスク場所で顧客を識別するために使用でき、その顧客に前に関連づけられているユーザインターフェースユニット112からの通信が、顧客、顧客に関連づけられた配達パッド、又は他のこうした対象の識別の確認の少なくとも一部として使用できる。さらに、対象からの通信が、配送車両118からの通信を受信することを含むことができる。配送車両からの通信は、配送車両の識別を含むことができる。識別を使用し、システムは、配送車両の識別が、予め定義された場所から離れUASを輸送するよう割り当てられた予期された配送車両と一致すると確認することができる。センサデータが、UASにより配達される、UASによりピックアップされる、等されるべき荷物の正確さを確認するためにさらに使用されてよい。いくつかの実施例において、対象の一意識別の決定は、センサデータから、UASと協働すべき、かつUASにより配達場所に配達されるべき予期された荷物の、荷物識別子を決定することを含むことができる。
したがって、UASは、センサデータを利用して、部分的に、(例えば、見通し線動作を必要とする)政府規制を取り除くことができ、見通し線外(beyond line of sight)(BLOS)荷物配達、イベント又は建物のビデオ捕捉、対象を数えること、及び他のこうしたタスクなどの自律的なタスクを安全かつ効率的に完了することができる。センサデータは、UASがUASの飛行経路又はその配達領域内の障害を自律的に回避することだけでなく、対象(例えば、建物、人々、及び他の対象)のクラス、タイプ、及び特定インスタンスを識別する能力も可能にする。荷物配達タスクが、荷積み、UAS発進、対象回避と結合された全地球測位システム(GPS)又は同様の技術を使用した空中ウェイポイント(airborne waypoint)ナビゲーション、配達場所の測距及び識別、特定の対象及び挙動に基づく回避及び相互作用と共にこれら対象及び挙動の認識を含み得る荷物配達、空中ウェイポイントに戻るナビゲーション、戻り場所(例えば、倉庫、店舗、配送車両等)の測距及び識別、並びに戻り場所におけるUAS着地を含むことができる。いくつかの場合、UASは、(例えば、手動の荷積みステップをなくすため、又は顧客返品のために)荷物をピックアップするため使用されてもよい。
UAS制御システム100は、クラス、タイプ、及び/又は特定の対象、並びにこれら対象に対する応答の集合を識別することを活用する。応答は、直面した対象のクラス及び特定インスタンスと、UASが現在実行しているタスクの部分とに依存して、回避、相互作用、観察、記録、又は他の機能を含んでよい。いくつかの実施例において、UASは、対象を、ある対象クラス内であると識別する。クラスは、例えば、荷物、タスク/配達場所、車両、人々、ペット、建物、障害物(例えば、木、柱、電力線、及び他の障害物)を含むことができる。荷物は、UASが使用されて配達し得るアイテムであり得る。いくつかの実施例が、サイズ、形状、色、マーキング、バーコード、電子透かし、RFIDタグ、又は他の方法により特定の荷物タイプを識別することから変動する(ranging from)、汎用的荷物識別のいくつかの繰り返しを利用し得る。いくつかの実現例が、可能な選択肢の小さいセットを使用することにより、繰り返しを簡略化し得る。例えば、容易に識別可能な特定のマーキングを有するトート又はボックスが、配達されるべきアイテムを収容するために使用されてよい。これは、UASが如何にして荷物をピックアップし、荷物のバランスをとり、荷物を運搬するかを決定する必要を制限することになる(所定の有限個の可能性のみがオファーされることになる)。UASが考慮に入れることになる1つの変数は、荷物間の重量の差であることになる。重量は、UASにより測定され、あるいはトート、荷物ラベリング等にデジタル形式で符号化されてよい。UASは、タスク場所に対する飛行経路を典型的に提供される。いくつかの例において、UASは、GPS座標に基づき、及び他のセンサデータを使用して、タスク場所を識別することができる。さらに、UASは、明りょうにマークされた着地区域、配達容器、他の容易に区別できる目印などに基づきタスク場所を検出できてもよい。さらに、いくつかの実現例において、システム及び/又はUASは、障害物がタスク場所に、及び/又は配達場所に存在するかどうかを決定することができる(例えば、顧客により回収されていない、前に配達された荷物)。いくつかの適用において、UASは、障害物が検出されたときに顧客に警告することができ、配達場所及び/又は着地場所を空けるように顧客に要求してもよい。同様に、UASは、新しい荷物を配置するための十分なあきがあるかどうかを決定する、代替的な配達方法を使用する(例えば、着地区域に商品を直接配置し、商品をリリースするのでなく、ある高さから商品を落とす)、配達時間又は場所を再スケジュールするなどしてもよい。
いくつかの実施例において、UASは、車両の様々なクラスをさらに識別してもよく、該クラスには、ラストマイル配達のためにUASが発進され得る配達トラック、乗用車、緊急車両、UAS、ヘリコプター、及び飛行機を含む他の航空機、自転車、オートバイ、ボート等が含まれる。さらに、UASは、車両が止まっているか又は動いているかのいずれかの間、飛行経路を実現し、センサ処理を実行して、配送車両に戻ってもよい。同様に、UASは、他のこうしたトラフィック(例えば、海軍の空中トラフィック)として回避すべき車両を識別するための処理を実行してもよい。いくつかの実現例において、UAS制御システム及び/又はUASは、人々のクラス(例えば、子供に対して大人、UASオペレータ、顧客、第三者)及び/又は個々の人々を識別することができる。人々の認識は、飛行動作の間の人々との接触及び人々への被害を回避するために部分的に使用できる。他の例において、上記で説明されたように、UASは、特定の人を識別してその識別された人と相互作用してもよい。またさらに、いくつかの例において、UAS制御システム及び/又はUASは、ペット及び他の動物が飛行動作の間にこれらとの接触、これらへの被害、又はこれらによる損害を回避すると認識してもよい。
UASシステム及び/又はUASは典型的に、配達場所をホストするもの(例えば、個人住宅、アパート、オフィスビル等)や配達されるべきその荷物の在庫ソース(例えば、配送センター、倉庫、小売アウトレット等)を含む、構造物を検出し、かつ/あるいは建物を識別するようにさらに構成される。UASは、建物との接触を自動的に回避してそれ自体への損害を防止することができ、同時に、建物の特定の部分にナビゲートすることもできる(例えば、荷物を配達する、倉庫に戻る等)。これらに限られないが木、柱、電力線、支線、及び他の障害物などの他の障害が飛行動作の間に検出されて、これらとの接触及びUASへの損害を防止することができる。
いくつかの実施例が、飛行動作、安全性、及びタスクパフォーマンスの補償能力に対して対象のクラスを識別する。UASシステムはさらに、これらクラスのうち1つの、特定のインスタンスを識別するように典型的に構成される。例えば、UASは、対象が荷物であると単に識別することを超えて特定の荷物を識別してよい。これは、配達のためにスケジュールされた特定の荷物を識別することを含むことができる。いくつかの例において、複数の荷物が、配送センター内に、又は配達トラック上にあり得る。UASは、いくつかの他の荷物の中から特定の荷物を選び、荷物にくっつき(attach)、荷物を持ち上げ、荷物をその正当な宛先に配達するように構成されてよい。同様に、いくつかの例において、UASは、返品サービスのために特定の荷物を認識し、かつ/あるいは識別してもよい。さらに、UASシステム及び/又はUASは、特定の配達場所を識別してもよい。いくつかの実施例が、例えば、配達のための標準設計(例えば、UASが荷物を配達することになる着地パッド又は安全なロッカー)を組み込み得る。さらに、又は別法として、UASシステムは、他の場所から特定の場所をさらに識別して正しい配達を提供することができる。いくつかの例において、一意識別が該場所で検出できる。さらに、センサデータが、場所のさらなる確認として、場所識別情報と協働して使用されてもよい。
UASシステム及び/又はUASは、いくつかの実施例において、特定の人々、例えば、荷物が配達されるべき顧客をさらに識別してもよい。例えば、顔認識が、顔の特徴を顔データのデータベースと比較して人を識別するために使用できる。同様に、UASシステム及び/又はUASは、特定の車両(例えば、配送及び/又は配達車両)を識別してもよい。例えば、タスクを実行した後に回収されるためにUASがいるべき配送車両である。さらなる例として、UASは、UASが発進された配送車両を認識してもよく、それにより、UASは戻って、可能な場合に配達のためさらなる荷物をピックアップし、あるいは回収されて再充電され/燃料補給され、さらなる荷物を積まれ、又は地上ベースの配達ルートの期間の間、格納される。またさらに、UASシステム及び/又はUASは、それが発進され、かつそれが戻る特定の建物(例えば、店舗、配送センター、倉庫等)を識別することができる。前のユースケースと同様に、UASは、さらなる特定の荷物をピックアップして新しい配達ルートを開始し、あるいは着地して再充電され/燃料補給され、又はさらなる使用まで格納されてもよい。
いくつかの実施例において、UASは、配送車両、配達パッド、配達ロッカー、又は他の場所から来る信号を検出し、かつ/あるいはロックインするように構成される。これは、UASが配送車両又は他の場所に対して自律的な飛行を利用することを可能にする。さらに、又は別法として、タスク制御システム102又は他の中央コンピュータシステム(CCS)が、その動作領域に対し、例えばGPSによりリアルタイムで、ルーティング命令を提供し、かつ/あるいはUASをガイドする。UASはさらに、各タスク場所の後(例えば、各配達の後)、再ルーティングする時間を必要とすることなく複数の停止を行うように命令され、構成されてよい。動作において、UASは、アクティブ化すると、又は閾高度に到達した後、オンボード認知(onboard awareness)をアクティブ化することができる。
UASは、対象識別センサを含み、該センサには、例えば、複数又は全方向性ビデオ、ソナー、超音波、レーザ測距、LIDAR(光検出及び測距(light detection and ranging))、赤外線検出システム、他のこうしたセンサシステム、又はこうしたセンサシステムの2つ以上の組み合わせが含まれる。これらセンサシステムは、UASが飛行の間に他の対象を回避することを可能にし、さらに、ナビゲーション及び予期された対象を検出することに使用されてもよい。対象が検出範囲内に入るとき、UASは、接触を回避するための動作を行ってよく、例えば、高度を上げ又は落とし、あるいは障害を回避するために回転し、その宛先に対するそのルートを再計算する。センサからのデータは、追跡のために配送車両及び/又はタスク制御システムに直接供給されてよい。タスク制御システムに供給される情報のいくつか又はすべてが、パイロット制御システム又は飛行センターにさらに通信されてもよい。パイロット制御システムは、センサステータス及びGPS場所ステータスを監視することができ、飛行センター同僚(例えば、パイロット)がアクションを行い、かつ/あるいはUASの飛行制御を引き継ぐことを可能にすることができる。飛行センター同僚はさらに、適切なとき(例えば、危険を脱している、識別されていない対象が閾距離を超えている等)、UASの制御を手放すことができる。制御が手放されると、UASは、パイロット又は地上局がやめたところを自動的に再開する。典型的に、飛行センター同僚は、現在の経路を無効にし、UASを方向転換する能力を有する。
センサが、正確な配達のため地上レベル及び他の対象の上の高度を決定するのを助けることになる。距離測定システムが、さらなる保護及び認知について他の対象識別システムと調整することができる。例えば、対象がソナーにより検出された場合、レーザ距離測定システムがアクティブ化されて、この対象を発見し、対象がどこにあり、UASからどの程度にあるかを測定することができる。荷物を配達するとき、距離測定システムは、地上からの距離を決定することを支援して正確な荷物配達を可能にする。UASが荷物を配達した後、UASは飛行の高度を再開することになる。UASは、タスク制御システム又は飛行センターから供給された情報に基づきルートを終了することになる。UASが配達を終了すると、UASは、その発進場所及び/又は配送車両に戻ることができる。いくつかの実施例において、UASは、(例えば、ソナー、GPS、光学ビーコン、他の無線ビーコン、RFID、及び/又は他のこうした信号を使用して)配送車両からの信号を使用してもよい。
いくつかの実施例が、1つ以上の対象クラスの1つ以上の対象の特定インスタンスを識別する。例えば、UAS及び/又はUAS制御システムが、ターゲット配達区域内の対象が着地パッド又は格納ロッカーであると識別し得るが、着地パッド又は格納ロッカーが正しいものであると決定するために、さらなる検証が達成されてもよい。別の例として、アテンドあり(attended)配達で、UASは、荷物を配達すべき特定の人を識別してもよい。これは、例えば、顔認識、又は、対象認識(例えば、人が認識されている)の、(例えば、スマートフォン、ビーコン、又はその身元がUASのオンボードデバイスで独立して裏づけできる他のデバイスを用いた)配達を受け取る権利の電子検証との組み合わせを通して行われてよい。アテンドなし(unattended)配達について、UASは、正しい配達場所が到達されたと確認し、検証のため荷物の配達を記録することができる。いくつかの場合、これは、UAS及び関連づけられた中央コンピュータシステムにより維持されるクレデンシャルで開くことができる安全化格納エンクロージャの中にあることになる。さらに、アテンドなし配達のいくつかの例において、UASは、特に、前の配達が行われている、荷物が返品されている等の場合、新しい荷物を配達するのに配達場所に(例えば、着地パッド上、又は安全化格納コンテナ内に)十分な空間があるかどうかを決定することができる。アテンドなし荷物ピックアップ(例えば、顧客返品のため)で、UASは、UASがピックアップすべき特定の荷物を(例えば、バーコード、RFID等を通して)識別するように構成できる。いくつかの例において、UASは、荷物と協働する最良の方法を決定し、検証のためインシデントをビデオ記録してもよい。いくつかの場合、荷物は、安全な格納コンテナに格納されてよく、UASは、リモートでロック解除し、該コンテナを開けて荷物を回収することになる。
いくつかの実施例において、システム、装置、方法、及び処理が、UASを制御し、割り振るために提供される。いくつかの実施例において、無人航空機システム(UAS)を制御するシステムが、UASと通信するように構成された1つ以上の無線送受信機と、送受信機に結合された制御回路と、制御回路に結合され、コンピュータ命令を記憶したメモであり、コンピュータ命令は、制御回路により実行されたときに制御回路に、UASの少なくとも1つのセンサにより捕捉されたセンサデータを受信するステップと、センサデータから、予め定義された場所における対象の一意識別を決定するステップと、センサデータから、識別された対象が予め定義された場所で予期された、予期された対象であると確認するステップとを実行させる、メモリと、を含む。
さらに、いくつかの実施例が、無人航空機システム(UAS)を制御する方法を提供し、該方法は、UASの少なくとも1つのセンサにより捕捉されたセンサデータを受信するステップと、センサデータから、予め定義された場所における対象の一意識別を決定するステップと、センサデータから、識別された対象が予め定義された場所で予期された、予期された対象であると確認するステップとを含む。
当業者は、上記で説明された実施例に関して発明の範囲から逸脱することなく様々な種類の他の変更、変形、及び組み合わせがさらに可能であり、こうした変更、変形、及び組み合わせは発明概念の範囲内と見なされるべきであることを認識するであろう。
Claims (18)
- 無人航空機システム(UAS)を制御するシステムであって、
1つ以上の無線送受信機と、
前記送受信機に結合された制御回路と、
前記制御回路に結合され、コンピュータ命令を記憶したメモリであり、前記コンピュータ命令は、前記制御回路により実行されたときに前記制御回路に、
予め定義された場所に配達されて前記予め定義された場所に関連づけられた顧客により受け取られるよう意図された荷物の、前記UASによる配達及び降下を開始する前、前記UASのカメラにより捕捉された画像データを含むUASの少なくとも1つのセンサにより捕捉されたセンサデータを受信するステップと、
前記センサデータから、前記予め定義された場所における第1の配達パッドの一意識別を決定するステップであり、前記画像データの画像処理から、前記予め定義された場所に関連づけられた前記第1の配達パッドに対して一意であり他の配達パッドと区別可能である第1の配達パッド識別子を取得するステップを含み、前記第1の配達パッドは、前記UASにより配達されるべき荷物を少なくとも受け取るように構成される、ステップと、
前記センサデータから、前記予め定義された場所に配達されるよう意図された前記荷物の前記UASによる前記配達を開始する前、識別された第1の配達パッドが、前記予め定義された場所で予期された、予期された対象であると確認するステップと、
前記UASから、さらなるセンサデータを受信するステップと、
前記第1の配達パッド上に第2の荷物があると検出するステップと、
前記第1の配達パッド上に、前記第2の荷物により占有されていない、前記UASにより運搬されている前記荷物を受け取るための十分な空間があると確認するステップと、
前記第1の配達パッド上に、前記荷物を配達するための十分な空間があると確認したことに応答して、前記荷物の配達を開始するステップと、
を実行させる、メモリと、
を含むシステム。 - 前記制御回路は、前記無線送受信機を通して、前記予め定義された場所に関連づけられた前記顧客に関連づけられたユーザインターフェースユニットからの検出された通信をさらに受信し、前記制御回路は、前記識別された第1の配達パッドが前記予期された対象であると確認するステップにおいて、前記受信したセンサデータと前記ユーザインターフェースユニットからの前記検出された通信とに基づき前記識別された第1の配達パッドを確認する、請求項1に記載のシステム。
- 前記制御回路は、前記予め定義された場所の近くに位置する前記顧客の顔認識を通して識別を取得し、前記第1の配達パッド識別子と前記顧客の前記顔認識との双方の識別に基づき前記予め定義された場所を確認するようにさらに構成される、請求項1に記載のシステム。
- 前記制御回路は、配送車両から通信を受信することであって前記通信は前記配送車両の識別を含み、前記UASが前記配送車両の屋根より上にいる間に前記UASの前記カメラにより捕捉されたさらなる画像データを取得し、前記さらなる画像データの画像処理からある場所における前記配送車両の一意識別を取得し、前記配送車両の前記識別が前記予め定義された場所から離れ前記UASを輸送するよう割り当てられた予期された配送車両と一致すると確認する、ようにさらに構成される、請求項1に記載のシステム。
- 前記制御回路は、前記第1の配達パッドの前記一意識別を決定するステップにおいて、前記UASと協働し、かつ前記UASにより回収されてサプライヤに返品されるよう予期された前記第2の荷物の、荷物識別子を前記センサデータから決定する、請求項1に記載のシステム。
- 無人航空機システム(UAS)を制御する方法であって、
予め定義された場所に配達されて前記予め定義された場所に関連づけられた顧客により受け取られるよう意図された荷物の、UASによる配達及び降下を開始する前、前記UASのカメラにより捕捉された画像データを含む前記UASの少なくとも1つのセンサにより捕捉されたセンサデータを受信するステップと、
前記センサデータから、前記予め定義された場所における第1の配達パッドの一意識別を決定するステップであり、前記画像データの画像処理から、前記予め定義された場所に関連づけられた前記第1の配達パッドに対して一意であり他の配達パッドと区別可能である第1の配達パッド識別子を取得するステップを含み、前記第1の配達パッドは、前記UASにより配達されるべき荷物を少なくとも受け取るように構成される、ステップと、
前記センサデータから、前記予め定義された場所に配達されるよう意図された前記荷物の前記UASによる前記配達を開始する前、識別された第1の配達パッドが、前記予め定義された場所で予期された、予期された対象であると確認するステップと、
前記UASから、さらなるセンサデータを受信するステップと、
前記第1の配達パッド上に第2の荷物があると検出するステップと、
前記第1の配達パッド上に、前記第2の荷物により占有されていない、前記UASにより運搬されている前記荷物を受け取るための十分な空間があると確認するステップと、
前記第1の配達パッド上に、前記第2の荷物を配達するための十分な空間があると確認したことに応答して、前記荷物の配達を開始するステップと、
を含む方法。 - 前記予め定義された場所に関連づけられた前記顧客に関連づけられたユーザインターフェースユニットからの検出された通信を受信するステップ
をさらに含み、
前記識別された第1の配達パッドが前記予期された対象であると確認するステップは、前記受信したセンサデータと前記ユーザインターフェースユニットからの前記検出された通信とに基づき前記識別された第1の配達パッドを確認するステップを含む、
請求項6に記載の方法。 - 前記予め定義された場所の近くに位置する前記顧客の顔認識を通して識別を取得し、前記第1の配達パッド識別子と前記顧客の前記顔認識との双方の識別に基づき前記予め定義された場所を確認するステップ
をさらに含む請求項6に記載の方法。 - 配送車両から通信を受信するステップであり、前記配送車両からの前記通信は前記配送車両の識別を含む、ステップと、
前記UASが前記配送車両の屋根より上にいる間、前記UASの前記カメラにより捕捉されたさらなる画像データを取得し、前記さらなる画像データの画像処理からある場所における前記配送車両の一意識別を取得するステップと、
前記配送車両の前記識別が前記予め定義された場所から離れ前記UASを輸送するよう割り当てられた予期された配送車両と一致すると確認するステップと、
をさらに含む請求項6に記載の方法。 - 前記第1の配達パッドの前記一意識別を決定するステップは、前記UASと協働し、かつ前記UASにより回収されてサプライヤに返品されるよう予期された前記第2の荷物の、荷物識別子を前記センサデータから決定するステップを含む、請求項6に記載の方法。
- 前記制御回路は、前記第1の配達パッド識別子と前記第2の荷物の荷物識別子との双方の識別に基づき前記予め定義された場所を確認するようにさらに構成される、請求項1に記載のシステム。
- 前記第1の配達パッド識別子は色の予め定義されたパターンを含む、請求項1に記載のシステム。
- 前記制御回路は、配達されている前記荷物の寸法を取得し、画像処理から前記第1の配達パッドに対する測定値を検出し、前記第2の荷物によりどれほどの領域がふさがれているかを検出し、前記第2の荷物により占有されていない利用可能な配達領域を決定し、前記第1の配達パッド上に、適合する前記荷物を受け取るための十分な空間があると確認する、ようにさらに構成される、請求項1に記載のシステム。
- 前記制御回路は、前記予め定義された場所の近くに位置する顧客の顔認識を通して識別を取得し、前記第1の配達パッド識別子と前記ユーザインターフェースユニットからの前記検出された通信と前記顧客の前記顔認識との識別に基づき前記予め定義された場所を確認する、ようにさらに構成される、請求項2に記載のシステム。
- 前記UASにより、前記第1の配達パッド識別子と前記第2の荷物の荷物識別子との双方の識別に基づき前記予め定義された場所を確認するステップ
をさらに含む請求項6に記載の方法。 - 前記第1の配達パッド識別子が色の予め定義されたパターンを含むと識別するステップ、をさらに含む請求項6に記載の方法。
- 前記UASにより、配達されている前記荷物の寸法を取得し、画像処理から前記第1の配達パッドに対する測定値を検出するステップと、
前記第2の荷物によりどれほどの領域がふさがれているかを検出するステップと、
前記第2の荷物により占有されていない利用可能な配達領域を決定するステップと、
前記第1の配達パッド上に、適合する前記荷物を受け取るための十分な空間があると確認するステップと、
をさらに含む請求項6に記載の方法。 - 前記予め定義された場所の近くに位置する前記顧客の顔認識を通して識別を取得するステップと、
前記第1の配達パッド識別子と前記ユーザインターフェースユニットからの前記検出された通信と前記顧客の顔認識との識別に基づき前記予め定義された場所を確認するステップと、
をさらに含む請求項7に記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662308140P | 2016-03-14 | 2016-03-14 | |
US62/308,140 | 2016-03-14 | ||
PCT/US2017/021774 WO2017180270A2 (en) | 2016-03-14 | 2017-03-10 | Unmanned aircraft systems and methods to interact with specifically intended objects |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019513653A true JP2019513653A (ja) | 2019-05-30 |
Family
ID=59786446
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018548343A Pending JP2019513653A (ja) | 2016-03-14 | 2017-03-10 | 具体的に意図された対象と相互作用する無人航空機システム及び方法 |
Country Status (7)
Country | Link |
---|---|
US (2) | US10139817B2 (ja) |
JP (1) | JP2019513653A (ja) |
CN (1) | CN109219733A (ja) |
CA (1) | CA3017153A1 (ja) |
GB (1) | GB2563782B (ja) |
MX (1) | MX2018011073A (ja) |
WO (1) | WO2017180270A2 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102328567B1 (ko) * | 2021-02-26 | 2021-11-19 | (주)에코앰넷 | 헬기의 영상 및 음성 장치를 이용한 재난재해 작전 모니터링 시스템 |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2558851B (en) | 2015-11-13 | 2018-10-31 | Walmart Apollo Llc | Product delivery methods and systems utilizing portable unmanned delivery aircraft |
US11093892B2 (en) * | 2016-04-11 | 2021-08-17 | International Business Machines Corporation | Realtime product backup delivery |
US11227270B2 (en) * | 2017-05-30 | 2022-01-18 | Robomart, Inc. | One tap/command grocery ordering via self-driving mini marts and seamless checkout-free technology |
US11009868B2 (en) | 2017-07-20 | 2021-05-18 | Nuro, Inc. | Fleet of autonomous vehicles with lane positioning and platooning behaviors |
WO2019018695A1 (en) | 2017-07-20 | 2019-01-24 | Nuro, Inc. | REPOSITIONING AN AUTONOMOUS VEHICLE |
WO2019023521A1 (en) | 2017-07-28 | 2019-01-31 | Nuro, Inc. | AUTOMATED RETAIL STORE ON AUTONOMOUS OR SEMI-AUTONOMOUS VEHICLE |
CN109598457A (zh) * | 2017-09-30 | 2019-04-09 | 北京京东尚科信息技术有限公司 | 物流方法和系统、无人机、无人车、调度平台和交接方法 |
US10824862B2 (en) | 2017-11-14 | 2020-11-03 | Nuro, Inc. | Three-dimensional object detection for autonomous robotic systems using image proposals |
US11176630B2 (en) * | 2017-12-21 | 2021-11-16 | Wing Aviation Llc | Dynamic UAV transport tasks |
US11003972B2 (en) * | 2018-06-27 | 2021-05-11 | Intel Corporation | Localizing a vehicle's charging or fueling port—methods and apparatuses |
CN109573040A (zh) * | 2019-01-31 | 2019-04-05 | 吉林大学 | 一种基于云端存储的应急物资存储装置 |
US11964627B2 (en) | 2019-09-30 | 2024-04-23 | Nuro, Inc. | Methods and apparatus for supporting compartment inserts in autonomous delivery vehicles |
US11747821B1 (en) | 2019-12-30 | 2023-09-05 | Express Scripts Strategic Development, Inc. | Location-based presence model for item delivery |
US11789469B1 (en) | 2020-02-27 | 2023-10-17 | Express Scripts Strategic Development, Inc. | Systems and methods for package delivery with unmanned aerial vehicles |
WO2021194747A1 (en) | 2020-03-23 | 2021-09-30 | Nuro, Inc. | Methods and apparatus for automated deliveries |
US11513538B1 (en) | 2020-04-15 | 2022-11-29 | Express Scripts Strategic Development, Inc. | System and method for thermal control during delivery of a medication package |
US11475778B1 (en) | 2020-05-01 | 2022-10-18 | Express Scripts Strategic Development, Inc. | System and method for secure delivery of a medication package |
US11691756B1 (en) * | 2020-05-21 | 2023-07-04 | Amazon Technologies, Inc. | Enhancing airborne visibility of ground markers by vertical variation |
CN112068587B (zh) * | 2020-08-05 | 2021-09-03 | 北京航空航天大学 | 基于欧椋鸟通信机制的有人/无人机共融集群交互方法 |
US11783273B1 (en) | 2020-12-02 | 2023-10-10 | Express Scripts Strategic Development, Inc. | System and method for receiving and delivering a medical package |
US20220207871A1 (en) * | 2020-12-27 | 2022-06-30 | Global Unmanned Products LLC | Digital License Tag |
US20230081498A1 (en) * | 2021-09-14 | 2023-03-16 | Beta Air, Llc | Systems and methods for monitoring electrical flow in an electric aircraft |
US11847604B2 (en) | 2021-11-18 | 2023-12-19 | Evernorth Strategic Development, Inc. | System and method for secure delivery of a medication package using unmanned aerial vehicles |
Family Cites Families (21)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8082102B2 (en) | 2008-01-14 | 2011-12-20 | The Boeing Company | Computing flight plans for UAVs while routing around obstacles having spatial and temporal dimensions |
US8543265B2 (en) | 2008-10-20 | 2013-09-24 | Honeywell International Inc. | Systems and methods for unmanned aerial vehicle navigation |
US20110084162A1 (en) | 2009-10-09 | 2011-04-14 | Honeywell International Inc. | Autonomous Payload Parsing Management System and Structure for an Unmanned Aerial Vehicle |
US9384668B2 (en) | 2012-05-09 | 2016-07-05 | Singularity University | Transportation using network of unmanned aerial vehicles |
US9120568B2 (en) | 2012-06-11 | 2015-09-01 | Lockheed Martin Corporation | Autonomous resupply system and method |
US8930044B1 (en) | 2012-12-28 | 2015-01-06 | Google Inc. | Multi-part navigation process by an unmanned aerial vehicle for navigating to a medical situatiion |
US8909391B1 (en) | 2012-12-28 | 2014-12-09 | Google Inc. | Responsive navigation of an unmanned aerial vehicle to a remedial facility |
US9014879B2 (en) * | 2013-09-17 | 2015-04-21 | Honeywell International Inc. | Messaging and data entry validation system and method for aircraft |
US9573684B2 (en) | 2013-10-26 | 2017-02-21 | Amazon Technologies, Inc. | Unmanned aerial vehicle delivery system |
KR20150104863A (ko) * | 2014-03-06 | 2015-09-16 | 정우성 | 무인 비행체를 이용한 배송 물품의 무인 수취 시스템 |
US10078136B2 (en) | 2014-03-25 | 2018-09-18 | Amazon Technologies, Inc. | Sense and avoid for automated mobile vehicles |
US9336506B2 (en) * | 2014-05-02 | 2016-05-10 | Google Inc. | Machine-readable delivery platform for automated package delivery |
WO2015180180A1 (en) * | 2014-05-30 | 2015-12-03 | SZ DJI Technology Co., Ltd. | Systems and methods for uav docking |
US9550577B1 (en) | 2014-06-26 | 2017-01-24 | Amazon Technologies, Inc. | Electricity generation in automated aerial vehicles |
US9767701B2 (en) | 2014-06-26 | 2017-09-19 | Amazon Technologies, Inc. | Ground effect based surface sensing in automated aerial vehicles |
US9409644B2 (en) * | 2014-07-16 | 2016-08-09 | Ford Global Technologies, Llc | Automotive drone deployment system |
US9359074B2 (en) * | 2014-09-08 | 2016-06-07 | Qualcomm Incorporated | Methods, systems and devices for delivery drone security |
US9809305B2 (en) | 2015-03-02 | 2017-11-07 | Amazon Technologies, Inc. | Landing of unmanned aerial vehicles on transportation vehicles for transport |
US10600020B2 (en) * | 2015-07-08 | 2020-03-24 | Here Global B.V. | Method and apparatus for generating delivery data models for aerial package delivery |
CN105069595A (zh) * | 2015-08-18 | 2015-11-18 | 杨珊珊 | 一种利用无人机实现的快递系统及方法 |
CN105139178A (zh) * | 2015-09-15 | 2015-12-09 | 余江 | 基于无人飞行器的快递方法和系统 |
-
2017
- 2017-03-10 WO PCT/US2017/021774 patent/WO2017180270A2/en active Application Filing
- 2017-03-10 GB GB1815298.3A patent/GB2563782B/en not_active Expired - Fee Related
- 2017-03-10 CN CN201780029633.7A patent/CN109219733A/zh active Pending
- 2017-03-10 CA CA3017153A patent/CA3017153A1/en not_active Abandoned
- 2017-03-10 MX MX2018011073A patent/MX2018011073A/es unknown
- 2017-03-10 JP JP2018548343A patent/JP2019513653A/ja active Pending
- 2017-03-13 US US15/457,638 patent/US10139817B2/en active Active
-
2018
- 2018-10-23 US US16/168,615 patent/US20190056724A1/en not_active Abandoned
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
KR102328567B1 (ko) * | 2021-02-26 | 2021-11-19 | (주)에코앰넷 | 헬기의 영상 및 음성 장치를 이용한 재난재해 작전 모니터링 시스템 |
Also Published As
Publication number | Publication date |
---|---|
GB2563782B (en) | 2022-03-09 |
WO2017180270A2 (en) | 2017-10-19 |
GB201815298D0 (en) | 2018-11-07 |
CN109219733A (zh) | 2019-01-15 |
US10139817B2 (en) | 2018-11-27 |
US20170261977A1 (en) | 2017-09-14 |
CA3017153A1 (en) | 2017-10-19 |
GB2563782A (en) | 2018-12-26 |
US20190056724A1 (en) | 2019-02-21 |
WO2017180270A3 (en) | 2018-01-04 |
MX2018011073A (es) | 2019-06-20 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10139817B2 (en) | Unmanned aircraft systems and methods to interact with specifically intended objects | |
US10414495B2 (en) | Product delivery methods and systems utilizing portable unmanned delivery aircraft | |
US10535035B2 (en) | Systems and methods for delivering products to multiple delivery destinations via autonomous transport vehicles | |
US10545500B2 (en) | Model for determining drop-off spot at delivery location | |
US10269255B2 (en) | Unmanned aircraft systems and methods | |
US10535037B2 (en) | Targeted location product delivery systems and methods | |
US20210005091A1 (en) | Flight management system | |
US20190012640A1 (en) | Establishing a Location for Unmanned Delivery/Pickup of a Parcel | |
US10586202B2 (en) | Systems and methods for validating products to be delivered by unmanned aerial vehicles | |
US11941579B2 (en) | Autonomous vehicles performing inventory management |