JP7252943B2 - 航空機のための対象物検出及び回避 - Google Patents

航空機のための対象物検出及び回避 Download PDF

Info

Publication number
JP7252943B2
JP7252943B2 JP2020515915A JP2020515915A JP7252943B2 JP 7252943 B2 JP7252943 B2 JP 7252943B2 JP 2020515915 A JP2020515915 A JP 2020515915A JP 2020515915 A JP2020515915 A JP 2020515915A JP 7252943 B2 JP7252943 B2 JP 7252943B2
Authority
JP
Japan
Prior art keywords
image
pixels
imaging device
aircraft
determining
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020515915A
Other languages
English (en)
Other versions
JP2020537217A (ja
Inventor
アンドレアス クラウス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Amazon Technologies Inc
Original Assignee
Amazon Technologies Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Amazon Technologies Inc filed Critical Amazon Technologies Inc
Publication of JP2020537217A publication Critical patent/JP2020537217A/ja
Priority to JP2023048759A priority Critical patent/JP2023085384A/ja
Application granted granted Critical
Publication of JP7252943B2 publication Critical patent/JP7252943B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q10/00Administration; Management
    • G06Q10/08Logistics, e.g. warehousing, loading or distribution; Inventory or stock management
    • G06Q10/083Shipping
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C39/00Aircraft not otherwise provided for
    • B64C39/02Aircraft not otherwise provided for characterised by special use
    • B64C39/024Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0094Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/042Control of altitude or depth specially adapted for aircraft
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • G05D1/102Simultaneous control of position or course in three dimensions specially adapted for aircraft specially adapted for vertical take-off of aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/579Depth or shape recovery from multiple images from motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/60UAVs specially adapted for particular uses or applications for transporting passengers; for transporting goods other than weapons
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Remote Sensing (AREA)
  • Business, Economics & Management (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Economics (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Automation & Control Theory (AREA)
  • Marketing (AREA)
  • General Business, Economics & Management (AREA)
  • Tourism & Hospitality (AREA)
  • Strategic Management (AREA)
  • Quality & Reliability (AREA)
  • Operations Research (AREA)
  • Human Resources & Organizations (AREA)
  • Entrepreneurship & Innovation (AREA)
  • Development Economics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

無人航空機(すなわち「UAV」)は、現在、ますます増えているモニタリング作業、監視作業及び配送作業において用いられている、最新の、用途の広い機械である。無人航空機は、空間内のある点(例えば、地上の点、または代替として、水上もしくは空上の点)から空間内の別の点に、地表の少なくとも一部の上方を移動することによって航空機が移動する前方飛行モード(または実質的に水平な飛行モード)を含む2つ以上の飛行モードで動作するように構成されてもよい。無人航空機はまた、航空機が、地表に実質的に垂直に、ある高度から別の高度に、垂直方向にもしくは実質的に垂直方向に(例えば、地上、水上もしくは空中の第1の点から空中の第2の点に、上方もしくは下方に、もしくはその逆に)移動する、または地表の上方の水平位置もしくは横方向位置の変化をごくわずかなものとしてホバリングする(例えば、実質的に一定の高度を保つ)垂直飛行モードに従うように構成されてもよい。無人航空機は、更に、例えば、無人航空機の位置が水平方向と垂直方向との両方で変化するハイブリッドモードにおいて、前方飛行モードと垂直飛行モードとの両方で動作するように構成されてもよい。揚力及び推進力は、一般に、1つ以上のプロペラ、または飛行動作中、数千の毎分回転数の角速度で回転し得る、ハブの周りに取り付けられ、原動機のシャフトまたは他の構成要素に結合された羽根を有するデバイスを用いて無人航空機に加えられる。
無人航空機は、多くの場合、航空機の誘導もしくは自律動作を支援するために、航空機が所与の場所に到着した、もしくはその場所を通過したときを、もしくは1つ以上の構造物、地物、物体もしくは人間(もしくは他の動物)の範囲内にあるときを判定するために、監視もしくはモニタリング動作を実施するために、または、任意の他の目的のために用いられ得るデジタルカメラなどの1つ以上の撮像デバイスを備える。
水平飛行モードから垂直飛行モードに移行し、着陸するために、例えば、ペイロードを配送もしくは回収するために、または他の任意の理由のために準備をするとき、無人航空機は、無人航空機のための指定された着陸エリアに障害物がないかどうかを判定しなければならない。人間、動物、構造物または破片などの、1つ以上の障害物を着陸エリアが含む場合、着陸エリアに着陸することを試みる無人航空機は、無人航空機自体のみならず、1つ以上の人間または他の動物への損傷または1つ以上の構造物への損害を引き起こす危険がある。着陸エリアが、十分に大きい1つ以上の障害物を含む、または着陸エリアの表面の色もしくはテクスチャとは別である1つ以上の色もしくはテクスチャを有する表面を含む場合、このような障害物は、無人航空機によって取り込まれた視覚的撮像データにおいて容易に識別され得る。しかしながら、着陸エリアが、小さい空間的範囲を有する、または着陸エリアの表面の色もしくはテクスチャと類似している、もしくは一致している色もしくはテクスチャを有する表面を特徴とする1つ以上の障害物を含む場合、このような障害物は、航空機によって取り込まれた1つ以上の視覚的撮像データにおいて容易に識別され得ず、しかも無人航空機の安全動作及び保全性に相当な危険を及ぼし得る。
本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムのブロック図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのプロセスのフローチャートである。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの図である。 本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの図である。
後で更に詳細に記載するように、本開示は、無人航空機を対象とし、このような機のための着陸エリアの中またはその周辺に位置する障害物(または障害)を自動的に検出及び回避するように無人航空機は構成される。より詳しくは、本明細書で開示されるシステム及び方法の1つ以上は、航空機上に提供された1つ以上の画像を用いて着陸エリアの2つ以上の画像を取り込むこと、及び着陸エリアに障害物がないかどうか、または着陸エリアにおいて試みられた着陸動作が変更または中止されるべきかどうかを判定するためにこのような画像を分析することを対象とする。画像は、画像内の画素の対応する領域間の視差を決定するために処理され得る。いくつかの実施形態では、画素視差は、オプティカルフローアルゴリズム、マッチングアルゴリズムにしたがって、または他の任意の技術によって決定されてもよい。いくつかの実施形態では、画素視差は、粗密の細密化技術によって決定されてもよい。その場合、画像は、対応する組の画素間の視差を決定するために、ダウンサンプリングされ、低い解像度で最初に処理される。画像は、次いで、層においてアップサンプリングされ、徐々により高いレベルの解像度で処理され、画素視差は、画像がその元の最大レベルの解像度になるまで修正される。
航空機によって取り込まれた画像から決定された画素視差は、着陸エリアの3次元復元物を生成すること及び個々の画像に基づいて差分画像を算出することを含む、複数の目的のために用いられてもよい。本開示のいくつかの実施形態によれば、着陸エリアが平坦かつ滑らかであることを3次元復元物が示している場合、及び差分画像が着陸エリア全体で目立たないと判定された場合、着陸エリアには障害物(または障害)が入っていないと判定され得る。着陸エリアが平坦でもなく滑らかでもないことを3次元復元物が示している場合、または1つ以上の障害物(または障害)が着陸エリアにおいて存在することを差分画像が示している場合、航空機は、着陸動作を中止してもよく、代替の着陸エリアにおいて着陸動作を実行することを試みてもよく、航空機によって取り込まれた画像に基づいて代替の着陸エリアを検索してもよく、またはそれに応じて任意の他の関連する措置を取ってもよい。
図1A~1Iを参照して、本開示の実施形態にしたがった対象物検出及び回避のためのシステム100を示す。図1A及び1Bに示すように、システム100は、着陸表面上に対象標識160がある目的地170(例えば、品物の配送を受け得る住宅もしくは他の住居、オフィスビルまたは任意の他の施設)に接近している航空機110を含む。フェンス(または壁)175-1、木(または他の自然の植物)175-2、1本以上の電線175-3、自転車175-4(または他の対象物)、自動車175-5及び複数の電柱175-6を含む、複数の障害物(または障害)175-1、175-2、175-3、175-4、175-5、175-6が対象標識160の付近内に存在する。障害物175-1、175-2、175-3、175-4、175-5、175-6は、本質的には静的または動的であってもよく、例えば、それらの個々の位置に固定されている、または可動である。
航空機110は、前方飛行モード及び/もしくは垂直飛行モード、またはホバリングモードで動作するように構成された任意の有人もしくは無人航空機であってもよい。図1A及び1Bの航空機110は、対の撮像デバイス(例えば、デジタルカメラ)140-1、140-2及び距離計150を含む。撮像デバイス140-1、140-2は、航空機の1つ以上の主軸に関して、垂直下方の方位に、または実質的に垂直下方の方位に整列され、航空機110の下方に位置する1つ以上の表面または他の対象物に関する撮像データを取り込むように構成される。距離計150は、航空機110の高度、または航空機110の下方に位置する1つ以上の表面もしくは他の対象物までの間隔を決定するための、例えば、高度計、レーザー距離計、別の撮像デバイス、レーダシステム、音響システム、全地球測位システム(すなわち「GPS」)トランシーバ、または任意の他の構成要素といった、任意のデバイスであってもよい。
図1Bに示すように、航空機110が所定の高度閾値に到達したとき、航空機110は着陸エリアにおいて障害物の検索を開始してもよい。例えば、図1Bに示すように、航空機110は、距離センサ150または任意のデバイスを用いて高度zに到達したと判定してもよく、目的地170の1つ以上の属性もしくは航空機110の任務、航空機110の任意の動作上の考慮事項、または任意の他の根拠(例えば、目的地170の近くの一般的な気象条件)を含む、任意の根拠によって定められ得る閾値と高度zとを比較してもよい。航空機110の高度zが所定の高度閾値内にあることを確認した直後に、航空機110は、対象標識160の検索を開始してもよく、目的地170における着陸エリアを評価してもよい。
図1A及び1Bに示すように、航空機110は、任意のシステム、方法または技術を用いて対象標識160の探索及び認識を行ってもよい。例えば、航空機110は、目的地170の付近内の表面の1つ以上の画像を取り込んでもよく、このような1つ以上の画像内の対象標識160の1つ以上の辺、輪郭、外形、色、テクスチャ、シルエット、形態または他の特性を認識してもよい。いくつかの実施形態では、対象標識160は、例えば、航空機110の着陸が所望される目的地170における1人以上の人員または1つ以上の機械によって表面上に敷設され得るマット、タープ、シートまたは任意の他のカバーの形態を取ってもよい。対象標識160は、対象標識160と対象標識160が施される目的地170の表面との間の境界を提供するために、可撓性であり、かつ十分に耐久性がある任意の材料から形成されてもよい。このような材料には、限定されるものではないが、天然もしくは合成の繊維(例えば、織布もしくは不織布の繊維)または他の基材が含まれる。いくつかの他の実施形態では、対象標識160は、塗料、インク、チョークまたは任意の他の材料から形成されてもよい。対象標識160は、限定されるものではないが、撮像デバイス140-1、140-2のいずれかまたは両方を含む航空機110上の1つ以上のセンサによって認識され得る1つ以上の英数字、シンボル、バーコード(例えば、「QR」コードなどの、1次元もしくは2次元のバーコード)または他のマーキングもしくは印を更に含んでもよい。なお他の実施形態では、対象標識160は、例えば、駐車場またはその識別名、マンホールカバー、水道主弁カバーなどの公共構造物など、目的地170における天然または既存の対象物または人工物であってもよい。
いくつかの実施形態では、対象標識160は、撮像デバイス140-1、140-2単体のいずれかまたは両方によって取り込まれた画像の分析に基づいて認識されてもよい。いくつかの実施形態では、対象標識160は、1つ以上の信号を航空機110に送信する、または1つ以上の信号を航空機110から受信するように構成された1つ以上のシステムまたは構成要素を装備してもよく、この航空機は、次いで、このような信号の1つ以上に基づいて対象標識160を検出及び/または認識し得る。例えば、対象標識160は、1つ以上の赤外線エミッタまたは赤外線レシーバ、音響エミッタまたは音響レシーバ、Wi-Fi対応デバイス、ブルートゥース(登録商標)対応デバイス、RFID対応デバイスなどを備えてもよい。対象標識160によって送信及び/または受信された信号は、対象標識160の位置、または代替として、航空機110の高度zを決定するために航空機110によって用いられてもよい。いくつかの実施形態では、対象標識160は、対象標識160によって航空機110に送信された、または航空機110から対象標識160によって受信された1つ以上の信号と共に、撮像デバイス140-1、140-2のいずれかまたは両方によって取り込まれた画像の分析に基づいて認識されてもよい。
航空機110は、目的地170における対象標識160を検出した直後に着陸エリア165を定めてもよい。例えば、図1Cに示すように、対象標識160の中心Oは、例えば、撮像デバイス140-1、140-2の1つ以上の属性(例えば、焦点距離)、高度zもしくは対象標識160の1つ以上の寸法、または任意の他の要因に基づき、撮像デバイス140-1、140-2によって取り込まれた1つ以上の画像から決定されてもよい。中心のOが一旦決定されると、着陸エリア165は、中心Oからの所定の半径rを有する円として定められてもよい。所定の半径rは、例えば、安全性及び/もしくは精度のための1つ以上のマージンを加味した、航空機110の最大幅もしくは他の寸法といった、航空機110の1つ以上の属性、または航空機110もしくはこの航空機によって実行されている任務の1つ以上の属性に基づいて決定されてもよい。所定の半径rは任意の値を有してもよい。いくつかの実施形態では、所定の半径rはほぼ3メートル(3m)であり得る。いくつかの他の実施形態では、着陸エリア165は、正方形、長方形、三角形または任意の多角形もしくは他の形状など、円の形状以外の任意の形状を有してもよい。着陸エリア165は、完全に平坦であり、許容可能な勾配があるとみなされてもよい。
代替として、いくつかの実施形態では、着陸エリア165は、任意の手法で定められてもよく、任意の識別された位置に基づいてもよい。例えば、航空機110は、特定の点に移動するように構成されてもよく、1つ以上のGPS信号に基づいて、または任意の他の手法で特定の点に到着したと判定した直後に、その特定の点に基づいて着陸エリア165を定めてもよい。例えば、航空機110は、着陸エリア165を、その特定の点からの所定の半径を有する円として、またはその特定の点に関する任意の他の形状(例えば、正方形、長方形、三角形もしくは任意の多角形もしくは他の形状)として定めてもよい。
図1Dに示すように、対象標識160が検出され、着陸エリア165が定められた後、または着陸エリア165が任意の他の根拠によって定められた後、航空機110は、航空機110が着陸エリア165に下降するにつれて複数の画像を取り込んでもよい。撮像デバイス140-1、140-2は、対象標識160及び着陸エリア165を含み、少なくとも部分的に重複する視野と整列されてもよく、例えば、毎秒10フレームといった任意のフレームレートで画像を取り込むように構成されてもよい。代替として、航空機110は、着陸エリア165を含む視野と整列された単一の撮像デバイスを特徴としてもよく、航空機110が着陸エリア165に下降するにつれて、例えば、毎秒10フレームといった任意のフレームレート画像を取り込むように構成される。航空機110が単一の撮像デバイスを含むいくつかの実施形態では、航空機110は、航空機110が着陸エリア165に下降するにつれて、1つ以上の位置の横方向変位をなし得る。
撮像デバイス140-1、140-2によって取り込まれた対の画像は、画像のそれぞれ内に現れる対応する画素間の任意の視差を決定するために処理されてもよい。図1Eに示すように、撮像デバイス140-1によって取り込まれた画像145-1及び撮像デバイス140-2によって取り込まれた画像145-2は、それぞれ、対象標識160、着陸エリア165、及び障害物175-3、175-4の一部を含む。例えば、画像145-1、145-2内に示されているように、電線175-3のうちの1本以上が着陸エリア165の一部の上を通過し、自転車175-4が着陸エリア165の周辺に存在する。
画像145-1、145-2は、画像145-1、145-2のそれぞれ内に現れる対応する画素間の視差を決定するために処理されてもよい。いくつかの実施形態では、画像145-1、145-2を入力として受信し、オプティカルフローアルゴリズムの出力として画像のそれぞれ内に現れている画素間の水平及び/または垂直の視差を判定するオプティカルフローアルゴリズム。このような出力は、画像145-1、145-2のそれぞれ内に現れている点の間の視差を示す視差画像、または代替として、画像145-1、145-2のそれぞれ内に現れている点の間の水平変位(例えば、水平視差)を示す変位画像、及び/もしくは画像145-1、145-2のそれぞれ内に現れている点の間の垂直パララックス(例えば、垂直視差)を示すパララックス画像を含んでもよい。
他の実施形態では、画像145-1、145-2は、ステレオマッチングアルゴリズムにしたがって処理されてもよい。このような実施形態では、画像145-1、145-2のそれぞれ内に現れている対応する画素間の任意の垂直パララックスを除去するために、撮像デバイス140-1、140-2は、好ましくはキャリブレーションされ、画像145-1、145-2は、好ましくは、例えば、画像145-1、145-2を共通の平面内に配置するための1つ以上の補正プロセスにしたがって前処理される。その結果、ステレオマッチングアルゴリズムの出力は、画像145-1、145-2のそれぞれ内に現れている対応する画素間の変位(例えば、水平視差)のみを描写する。
いくつかの実施形態では、個々の画像145-1、145-2のそれぞれ内に現れている点の間の対応関係を決定するための画像145-1、145-2の処理は、最初に粗いレベルで、例えば、画像145-1、145-2のダウンサンプリングされたバージョンに対して低レベルの解像度で実行されてもよく、次に、画像145-1、145-2のそれぞれに基づいて画素の対応関係がそれらの元の最も高いレベルの解像度で決定されるまで、画像145-1、145-2の徐々にアップサンプリングされたバージョンに対し、次第により高いレベルの複数の解像度のそれぞれに対して最急降下法の更新ステップで実行されてもよい。いくつかの実施形態では、粗いレベルの解像度における第1の処理の後、画像145-1、145-2のそれぞれは、画像145-1、145-2がそれらの元の最も高いレベルの解像度で処理されるまで、例えば、2倍または別の倍数で、徐々にアップサンプリングされてもよい。
例えば、オプティカルフローアルゴリズムまたはマッチングアルゴリズムにより、画像145-1、145-2のそれぞれ内に現れている点に対応する画素間の視差が一旦決定されたら、その視差は、着陸エリア165を3次元で構築する(または復元する)ために用いられてもよい。例えば、図1Fに示すように、画像145-1、145-2の両方内に現れている点Pのそれぞれは、画像145-1、145-2が取り込まれたとき、それらの個々の視差dだけではなく、撮像デバイス140-1、140-2間の基線間隔bにも基づいて構築され得る。それに応じて、航空機110とこのような点Pのそれぞれとの間の間隔zが決定されてもよい。画像145-1、145-2の両方内に現れている複数の点について決定された、このような間隔zを用いて、着陸エリア165及びその周囲の3次元表面マップが構築されてもよい。図1Gに示すように、着陸エリア165の表面マップ115の上面図及び側面図が示される。表面マップ115は、画像145-1、145-2の面内の視差の誤差を示す。表面マップ115は、次いで、着陸エリア165と比較されてもよい。この着陸エリアは、平坦であり、かつ障害がないと推定される。視差の誤差を全く含まない表面マップ115の一部は、平坦であり、かつ障害を含まない着陸エリア165の一部に対応する。しかしながら、表面マップ115内で識別されたいかなる不連続性も、着陸エリア165における1つ以上の障害を示し得る。例えば、図1Gに示すように、表面マップ115は、オプティカルフローアルゴリズム、ステレオマッチングアルゴリズムにしたがって画像145-1、145-2の間で識別された視差に基づき、または任意の他の根拠により、着陸エリア165における障害物、すなわち高さh175-4の自転車175-4の存在を示す。
加えて、画像145-1、145-2内に現れている画素間の視差はまた、差分画像125を算出するために用いられてもよい。差分画像125は、画像145-1、145-2の絶対強度を減算することによって、または画像145-1、145-2の強度勾配を導出し、それらの強度勾配を互いに比較することによって算出されてもよい。例えば、図1Hに示すように、画素視差が決定された後、入力画像(例えば、画像145-1または画像145-2のうちの一方)を出力画像(例えば、画像145-1または画像145-2のうちの他方)の上にワープすることにより、差分画像125が得られ得る。この差分画像は、左視からと右視からとの電線175-3の外観の差を示す。代替として、画像145-1、145-2のそれぞれは、新しい(例えば、第3の)座標フレームに、個別にワープされてもよい。差分画像125は、図1Gの表面マップ115など、着陸エリア165の復元物内に現れていない場合がある、小さい空間的範囲を有する障害物を検出するために用いられてもよい。任意選択で、差分画像125を算出する前に、画像145-1、145-2のいずれかまたは両方は、個々の画像145-1、145-2内の輝度または他の視覚的効果の変動を補償するために処理されてもよい。いくつかの実施形態では、差分画像125の1つ以上の態様に基づいて、例えば、差分画像125の1つ以上の画素、すなわち画像145-1、145-2のうちの一方の画素と画像145-1、145-2のうち他方の画素との間の強度値の差に基づいてスコアが算出されてもよい。例えば、このような画素間の差と関連付けられたピーク差、平均差、メディアン差または任意の他の尺度もしくはメトリックを示すスコアが算出されてもよく、着陸エリア165は、そのスコアが所定の閾値を超えている1つ以上の障害物または障害を有するように判定され得る。差分画像125の特性を表す任意の種類または形式のスコアが算出されてもよく、本開示にしたがって1つ以上の閾値と比較されてもよい。
図1Iに示すように、表面マップ115及び差分画像125が画像145-1、145-2から導出された後、航空機110上で動作している1つ以上のプロセッサ112は、着陸エリア165に障害があるかどうかを判定してもよく、着陸を中止し、または代替の着陸場を検索してもよい。例えば、表面マップ115が着陸エリア165における自転車175-4の存在を示している、または差分画像125が着陸エリア165の上方の電線175-3の存在を示している場合、航空機110は、着陸エリア165に障害があると判定してもよい。その結果、航空機110は、その元の場所もしくは代替の場所に戻ってもよく、または目的地170の付近内で、予備の着陸エリア(例えば、目的地170と関連付けられた顧客もしくは他の人間によって指定され得る1つ以上の着陸エリア)を探索するように試みてもよく、もしくは代替の着陸エリアを検索してもよい。
したがって、本開示のシステム及び方法は、無人航空機によって取り込まれた2つ以上の画像に基づき、無人航空機の着陸動作または無人航空機の任意の他の動作中に対象物を検出し、回避することを対象とする。画像は、図1A~1Iの航空機110の撮像デバイス140-1、140-2などの異なる撮像デバイスによって同時に取り込まれてもよく、または単一の撮像デバイスによって異なる時刻に取り込まれてもよい。画像は、例えば、オプティカルフローアルゴリズム、マッチングアルゴリズムまたは別の技術を用いて個々の画像の画素間の視差を決定するために処理されてもよい。このような視差は、航空機のための動作エリア(例えば、着陸エリア)の3次元復元物を生成するために、または動作エリアの差分画像を算出するために用いられてもよい。復元物または差分画像のいずれかが障害物の存在を示している場合、航空機は、永続的に、もしくは一時的に動作を停止してもよく、動作を完了するために別の動作エリアを検索してもよく、または動作エリアの状態を一定期間継続して評価してもよい。
したがって、本開示のシステム及び方法は、航空機によって取り込まれた対の画像に基づき、着陸エリアの周辺において、またはその上方に1つ以上の対象物が位置しているかどうかを判定することを対象とする。このような対の画像は、2つの撮像デバイスによって、同時に、もしくはほぼ同時に取り込まれてもよく、または代替として、単一の撮像デバイスによって異なる時刻に取り込まれてもよい。着陸エリアの3次元での復元と、更には画像からの差分画像の生成との両方のために、画像のそれぞれ内に現れている位置間の視差が決定され、用いられてもよい。着陸エリアの復元物及び差分画像は、着陸エリアの周辺、またはその上方における1つ以上の障害の存在を示してもよい。例えば、復元物は、着陸エリアの周辺、またはその上方における1つ以上の対象物の存在を示してもよい。着陸エリアは、このような対象物が着陸エリアの表面の色またはテクスチャと類似した色またはテクスチャを有する場合であっても、平坦であり、許容可能な勾配があると推定される。このような対象物が比較的小さい空間的範囲を有するときでも、差分画像は、着陸エリアの周辺またはその上方における1つ以上の対象物の存在を示し得る。
撮像データ(例えば視覚撮像データ)は、デジタルカメラなどの1つ以上の撮像デバイスを用いて取り込まれてもよい。このようなデバイスは、一般に、対象物から反射された光を取り込むことによって、更にはその後、反射された光の態様、例えば、画素の、1つ以上の定量的な値を計算し、または割り当て、このような値に基づく出力を生成し、このような値を1つ以上のデータ記憶装置内に記憶することによって動作してもよい。デジタルカメラは、1つ以上のセンサであって、これと関連付けられた1つ以上のフィルタを有する1つ以上のセンサを含んでもよく、このようなセンサは、反射された光の1色以上の基本色(例えば、赤色、緑色または青色)に対応する反射された光の任意の数の画素の態様に関する情報を検出してもよい。このようなセンサは、例えば、デジタル画像といった、このような情報を含むデータファイルを生成し、1つ以上のオンボードデータ記憶装置もしくはアクセス可能なデータ記憶装置(例えば、ハードドライブもしくは他の同様の構成要素)及び1つ以上のリムーバブルデータ記憶装置(例えば、フラッシュメモリデバイス)内にこのようなデータファイルを記憶し、または、1つ以上のブロードキャストネットワークもしくは閉回路テレビネットワーク上に、もしくはインターネットなどのコンピュータネットワークを経由して表示されてもよい。
デジタル画像は、シーンの1つ以上の対象物、背景または他の特徴の光学的に形成された複製を定める、典型的にはアレイに配列された画素の集合であり、データファイル内に記憶され得る。視覚画像において、画素のそれぞれは、このような対象物、背景または特徴の一部と関連付けられた色または他の光の状態を表現または識別する。例えば、白黒の視覚画像は、画素の光の状態を2値的に(例えば、白または黒のいずれかで)表現するための単一のビットを含み、他方、グレースケールの視覚画像は、光の状態を複数ビット(例えば、白と黒との割合または分担率の観点からグレーのトーンを定めるための2~8ビット)で表現してもよく、カラーの視覚画像は、複数の基本色(例えば、赤、緑または青)のそれぞれに対応するビット群を含んでもよく、ビット群は、画素と関連付けられた色を集合的に表現してもよい。深度画像も、シーンの1つ以上の対象物、背景または他の特徴の光学的に形成された複製を定める画素の集合であり、同様にデータファイル内に記憶され得る。しかしながら、視覚映像の画素とは異なり、深度画像の画素のそれぞれは、このような対象物、背景または特徴の光の状態でも色でもなく、対象物、背景または特徴までの間隔を表現または識別する。例えば、深度画像の画素は、深度画像を取り込んだ撮像デバイスのセンサ(例えば、深度カメラまたは距離センサ)と画素が対応する個々の対象物、背景または特徴との間の間隔を表現してもよい。
1つ以上のデータ記憶装置内に記憶された撮像データファイルは、紙に印刷されてもよく、1つ以上のコンピュータディスプレイ上に提示されてもよく、または、ディスプレイ内に表されたアイテムを識別するなどのために1回以上の分析を受けてもよい。このようなデータファイルは、限定されることはないが、.JPEGもしくは.JPGファイル、またはグラフィックスインターチェンジフォーマット(すなわち「.GIF」)、ビットマップ(すなわち「.BMP」)、ポータブルネットワークグラフィックス(すなわち「.PNG」)、タグ付き画像ファイルフォーマット(すなわち「.TIFF」)ファイル、オーディオビデオインタリーブ(すなわち「.AVI」)、QuickTime(すなわち「.MOV」)、ムービングピクチャエクスパーツグループ(すなわち「.MPG」、「.MPEG」もしくは「.MP4」)またはWindows Mediaビデオ(すなわち「.WMV」)ファイルを含む、任意の数のフォーマットで記憶されてもよい。
反射された光は、デバイス内のセンサとレンズとの間の間隔、すなわち焦点距離、ならびにデバイスの場所及びデバイスのレンズの角度方位に応じて定められるデバイスの視野内にその反射された光がある場合、撮像デバイスによって取り込まれてもよく、または検出されてもよい。それに応じて、被写界深度内、すなわち明瞭度及び焦点が十分に鮮明である視野内の間隔内に対象物が現れている場合、撮像デバイスは、その1つ以上のセンサを用いて任意の種類の対象物から反射された光を十分に高い程度の解像度にまで取り込み、反射された光に関する情報を1つ以上複数のデータファイル内に記憶してもよい。
多くの撮像デバイスはまた、それらの個々の視野または方位を変更するための手動または自動の機能も含む。例えば、デジタルカメラは、固定位置に、または固定の焦点距離(例えば、固定焦点レンズ)もしくは角度方位で構成されてもよい。代替として、撮像デバイスは、センサとレンズ(例えば、光学ズームレンズまたはデジタルズームレンズ)との間の間隔の変化、撮像デバイスの場所の変化、または角度方位を定める角度のうちの1つ以上の変化を生じさせることにより、撮像デバイスの位置を調節するための、または、焦点距離(例えば、撮像デバイスをズームする)もしくは角度方向(例えば、ロール角、ピッチ角もしくはヨー角)のいずれかを調節するための、1つ以上の駆動源付きの、またはモータ付きの特徴を含んでもよい。
例えば、撮像デバイスは、1軸、2軸または3軸に関して固定された構成または角度にデバイスを保持する支持体または取り付け台に堅固に取り付けられてもよい。しかしながら、代替として、撮像デバイスには、構成要素のうちの1つ以上を手動もしくは自動で動作させるための、またはデバイスの軸もしくは方向を再度方位付けるための(すなわち、デバイスをパンする、もしくはチルトすることによる)、1つ以上のモータ及び/またはコントローラが提供されてもよい。撮像デバイスをパンすることにより、水平面内の、または垂直軸(例えば、ヨー)の周りの回転が生じ得、他方、撮像装置をチルトすることにより、垂直面内の、または水平軸(例えば、ピッチ)の周りの回転が生じ得る。加えて、撮像デバイスは、その回転軸の周りに、かつこの回転軸に垂直でこのデバイスの視野に実質的に平行である面内で、ロール、すなわち回転され得る。
いくつかの最新式の撮像デバイスは、1つ以上の物理的制約及び動作上の制約を受けて、視野内で識別された画像をデジタル的に、または電子的に調節し得る。例えば、デジタルカメラは、デジタルカメラの視野に合焦する、またはこの視野を広げるために、画像の画素を仮想的に伸縮または圧縮してもよく、更には視野内の画像の1つ以上の部分を並進させてもよい。光学的に調節可能な焦点距離または方位の軸を有する撮像デバイスは、一般に、パンチルトズーム(すなわち「PTZ」)撮像デバイスと称され、他方、デジタル的に、または電子的に調節可能なズーミング機能または並進機能を有する撮像デバイスは、一般に、電子PTZ(すなわち「ePTZ」)撮像デバイスと称される。
特徴または対象物の色、テクスチャまたは外形を含む、撮像データ内に表された特徴または対象物に関する情報及び/またはデータは、任意の数の方式でデータから抽出されてもよい。例えば、デジタル画像内の画素または画素群の色は、1つ以上の規格、例えば、画素内の赤色、緑色もしくは青色の部分を0から255の範囲の3つの対応する数で値が表されるRGB(「赤-緑-青」)色モデル、または画素の色が6文字コード、すなわち#NNNNNNで表され、文字Nのそれぞれが16の数(すなわち、数字0~9及び文字A~F)の範囲を有する16進数モデルにしたがって決定され、定量化されてもよい。16進数モデルの最初の2文字NNは、この色に含まれる赤色の部分を指し、他方、2番目の2文字NNは、この色に含まれる緑色の部分を指し、3番目の2文字NNは、この色に含まれる青色の部分を指す。例えば、白色及び黒色は、それぞれ、16進数モデルにしたがって♯FFFFFF及び♯000000と表され、他方、キャンディアップルレッドの色は、♯31314Aと表される。画像または写真内の色またはカラースキームを定量化するための任意の手段またはモデルが、本開示にしたがって利用されてもよい。更に、デジタル画像内で表された対象物のテクスチャまたは特徴は、画像の領域またはセクタ内の強度の変化を識別することにより、または特定の表面に対応する画像のエリアを定めることなどにより、1つ以上のコンピュータベースの方法を用いて識別されてもよい。
更に、デジタル静止画像またはデジタル動画像内で表された、対象物または対象物の一部の辺、輪郭、外形、色、テクスチャ、シルエット、形状または他の特徴は、1つ以上のアルゴリズムまたは機械学習ツールを用いて識別されてもよい。対象物、または対象物の一部は、静止していてもよく、または動いていてもよく、単一の、有限の期間に、または1つ以上の期間もしくは持続時間にわたって識別されてもよい。このようなアルゴリズムまたはツールは、遷移(例えば、対象物またはその一部の辺、輪郭、外形、色、テクスチャ、シルエット、形状または他の特徴)を、デジタル画像内で可能な限り密接に、かつノイズ及び乱れを最小限し、偽の遷移を作成しない方式で、認識し、マーク付けすることを対象とし得る。本開示にしたがってデジタル画像内の対象物またはその一部の特徴を認識するために利用され得るいくつかの検出アルゴリズムまたは技術には、限定されるものではないが、Cannyエッジ検出器もしくはアルゴリズム、Sobel演算子、アルゴリズムもしくはフィルタ、Kayyali演算子、Robertsエッジ検出アルゴリズム、Prewitt演算子、Frei-Chen法、または当業者にとって既知であり得る任意の他のアルゴリズムもしくは技術が含まれる。
ステレオ測距(またはステレオ三角測量)とは、対象物までの間隔または距離が、固定間隔だけ隔離されたデジタルカメラなどの撮像デバイスを用いて取り込まれた、このような対象物を描写しているデジタル画像から、またはデジタルカメラなどの撮像デバイスを用いて異なる時刻に取り込まれた、このような対象物を描写している画像から決定され得るプロセスである。例えば、撮像デバイスによって取り込まれた環境の対の画像を処理することにより、画像の両方内で表された点(限定されるものではないが、特定の対象物と関連付けられた点を含む)までの距離は、撮像デバイスの個々のレンズまたはセンサから画像のそれぞれの内のこのような点の表現によって伸びる対の線の仮想交点を発見することによって決定され得る。代替として、異なる時刻に撮像デバイスによって取り込まれた環境の対の画像内で表された位置までの距離は、画像のそれぞれが画像のそれぞれの内のこのような点の表現によって取り込まれたときに撮像デバイスのレンズまたはセンサの位置から伸びる対の線の仮想交点を発見することによって決定され得る。
環境の画像のそれぞれが実質的に同時に取り込まれる場合、または画像のそれぞれが取り込まれたときに環境の条件が実質的に変化しない場合、所与の時刻における環境内の単一の点までの距離は、このような画像及び視差を取り込んだ1つ以上の撮像デバイスのレンズまたはセンサの位置間の基線間隔、または画像が互いに重ね合わせられたときに画像の両方内に表された空間内の単一の点の対応する表現間の間隔に基づいて決定され得る。このようなプロセスは、画像の両方内に表された3次元空間内の任意の数の点に対して完了されてもよく、このような点のモデル、例えば点群、深度マップまたは深度モデルが、それに応じて定められ得る。このような点のモデルは、このような点までの距離を決定するために対の画像がその後取り込まれ、処理されるときに更新されてもよい。
少なくとも部分的に重畳する視野を有する撮像デバイス(例えば、デジタルカメラ)によって取り込まれた対のステレオ画像内に表された対象物までの間隔(または深度もしくは距離)は、1つ以上のステレオ測距アルゴリズムまたは技術にしたがって決定され得る。画像の両方内に現れる各対象物の各点について、個々の撮像デバイスの個々のレンズ、レンズモジュールまたは他のセンサから画像のそれぞれ内の対象物の点の表現によって伸びる線は、3次元空間内で、その点の実際の位置に対応する場所にて仮想的に交差する。従来の幾何学的な原理及び特性、例えば、相似三角形の特性、ならびに撮像デバイス間の基線間隔または隔離などの既知の、または知り得る変数、個々の画像内の点の間の視差及び個々の撮像デバイスの焦点距離を用いることにより、交点の座標がそれに応じて決定され得る。
空間内の点が、例えば、エピポールとして2つの画像内に現れる場合、画像内の個々のエピポールの位置及び空間内の点の実際の位置によって定められる平面は、エピポーラ平面と呼ばれる。画像は、次いで、それらの内容に基づいて、例えば、個々の画像平面とエピポーラ平面との交点に対応する線、すなわち、それらの個々のエピポーラ線に沿って共に整列され得る。画像がそれらの内容に基づいて整列された後、対象物の実際の位置は、撮像デバイスのレンズ、レンズモジュールまたは他のセンサから結像面内の個々の画像内の点の表現によって伸びる三角測量線によって決定され得る。このような線の交点は、点の実際の位置に対応し、点までの間隔は、この実際の位置に基づき、それに応じて決定され得る。ステレオ測距アルゴリズム及び技術は、画像の両方内に現れる点のそれぞれまでの距離または間隔を決定するために用いられてもよく、このような距離または間隔は、対象物が提供される環境の点群、深度マップまたは別の3次元モデルを定めるために用いられてもよい。深度モデルは、データファイル(例えば、深度画像)内に記憶されてもよく、または、限定されるものではないが、ナビゲーション、案内、監視または衝突回避を含む任意の目的のために利用されてもよい。
したがって、ステレオ測距アルゴリズム及び技術は、対の画像のそれぞれにおけるエピポールの対応を決定することを必要とし、エピポールのそれぞれは、3次元空間内の共通点に対応する。エピポールの複数の対応が、シーンの対の画像のそれぞれから識別されると、エピポールの共役対のそれぞれに対する視差が判定され得、シーンの3次元構造を再現するこのような視差のマップが、シーンの態様、例えば、撮像デバイスの基線間隔または隔離、焦点距離などの幾何学的パラメータに関する情報が既知である場合、それに応じて構築され得る。
シーンの対の画像内で表された点の、現実世界での位置を決定するための、更にはこのような位置に基づいてこのようなシーンの深度マップ、点群または他の3次元表現を生成するための複数のコンピュータベースのステレオ測距アルゴリズム及び技術が存在する。このようなアルゴリズムまたは技術は、キャリブレーション機能、対応機能及び/または構築機能の実行を支援してもよい。例えば、Open Source Computer Vision(すなわち「OpenCV」)ライブラリは、対の画像から間隔または距離を決定することを対象とする複数のコンピュータベースのアルゴリズムまたは他のプログラミング機能を含む。同様に、MATLAB言語でプログラミングされている複数の他のステレオ測距アルゴリズムまたは技術が公的に利用可能である。コンピュータベースのアルゴリズムまたは技術は、複数の他のソースからも利用可能である。
撮像デバイスは、航空機の表面内に組み込まれ、水平または垂直に、例えば、前方もしくは後方の方位に、または上方もしくは下方の方位に、または相対的もしくは絶対的であり得る任意の他の方位もしくは角度に整列されてもよい。いくつかの実施形態では、2つ以上のデジタルカメラが、航空機のフレーム、舵面、主電動機、プロペラまたは任意の他の態様内に組み込まれ得る。デジタルカメラは、均質(例えば、機能的に同等すなわち同一の性能を有する)であってもよく、または代替として、不均質(例えば、異なる性能を有する)であってもよく、深度を決定するためにこのようなカメラによって取り込まれたステレオ画像は、複数の計算において処理され得る。いくつかの実施形態では、航空機は、航空機の固定された、または可動の特徴内に組み込まれた1つ以上の撮像デバイスを含んでもよい。撮像デバイスのそれぞれによって取り込まれた画像は、例えば、このような撮像デバイス間の基線間隔または隔離、このような画像内の対象物の視差、及び個々の撮像デバイスの焦点距離を決定することにより、ステレオ測距目的のために用いられてもよい。
図2を参照して、本開示の実施形態にしたがった対象物検出及び回避のためのシステム200のブロック図を示す。図2のシステム200は、全体的または部分的にインターネットを含み得るネットワーク290を経由して互いに接続された航空機210及びデータ処理システム280を含む。別段の記載がある場合を除き、図2に示した数「2」の後の参照番号は、図1A~1Iに示した数「1」の後の参照番号を有する構成要素または特徴と類似した構成要素または特徴を示す。
航空機210は、プロセッサ212、メモリ214及びトランシーバ216を含む。航空機210は、制御システム220、複数の推進モータ230-1、230-2...230-n、撮像デバイス240-1、240-2及び距離計250を更に含む。
プロセッサ212は、限定されるものではないが、1つ以上の機械学習アルゴリズムまたは技術の実行を含む任意の種類または形式の計算機能を実行するように構成されてもよい。例えば、プロセッサ212は、限定されるものではないが、推進モータ230-1、230-2...230-n、撮像デバイス240-1、240-2及び距離計250を含む、航空機210及びその航空機上の1つ以上のコンピュータベースの構成要素の動作の任意の態様を制御してもよい。例えば、プロセッサ212は、推進モータ230-1、230-2...230-n、撮像デバイス240-1、240-2または距離計250のうちの1つ以上の動作を実施するための命令を生成するために、制御システム220などの、1つ以上の制御システムまたはモジュールの動作を、独立的に、または互いに協調的にのいずれかで制御してもよい。このような制御システムは、1つ以上の他のコンピューティングデバイスまたは機械と関連付けられてもよく、データ処理システム280または1つ以上の他のコンピュータデバイス(図示せず)とネットワーク990を経由してデジタルデータの送受信によって通信してもよい。
プロセッサ212は、1つのプロセッサを含むユニプロセッサシステム、またはいくつかのプロセッサ(例えば、2つ、4つ、8つまたは別の適切な数)を含むマルチプロセッサシステムであってもよく、命令を実行することが可能であり得る。例えば、いくつかの実施形態では、プロセッサ212は、x86、PowerPC、SPARC、もしくはMIPS ISA、または任意の他の適切なISAなどの、複数の命令セットアーキテクチャ(ISA)のいずれかを実装する汎用または組み込みプロセッサであってもよい。プロセッサ212がマルチプロセッサシステムである場合、マルチプロセッサシステム内のプロセッサのそれぞれは、同一のISA、または異なるISAを動作させてもよい。
加えて、航空機210は、任意の種類の情報もしくはデータ、例えば、航空機210を動作させるための命令、または航空機210の動作中に取り込まれた任意の種類の情報もしくはデータを記憶するための1つ以上のメモリまたはストレージ構成要素214(データベースもしくはデータ記憶装置など)を更に含む。メモリ214は、プロセッサ212によって、またはこのプロセッサにアクセス可能な、実行可能命令、飛行経路、飛行制御パラメータ及び/または他のデータアイテムを記憶するように構成されてもよい。メモリ214は、スタティックランダムアクセスメモリ(SRAM)、同期ダイナミックRAM(SDRAM)、不揮発性/フラッシュ型メモリ、または任意の他の種類のメモリなど、任意の適切なメモリ技術を用いて実装されてもよい。いくつかの実施形態では、プログラム命令、飛行経路、飛行制御パラメータ及び/または他のデータ項目は、例えば、有線及び/または無線リンクなどの通信媒体を介して搬送され得る、電気信号、電磁信号またはデジタル信号などの伝送媒体または信号により、トランシーバ216を介して受信または送信されてもよい。
トランシーバ216は、1つ以上の有線または無線手段、例えば、ユニバーサルシリアルバス(すなわち「USB」)もしくは光ファイバケーブルなどの有線技術、またはBluetooth(登録商標)もしくは任意のワイヤレスフィデリティー(すなわち「Wi-Fi」)プロトコルなどの標準無線プロトコルを介して、例えば、ネットワーク290を経由して、または直接的に、航空機210が通信することを可能にするように構成されてもよい。トランシーバ216は、1つ以上の入力/出力(すなわち「I/O」)インタフェース、ネットワークインタフェース及び/または入力/出力デバイスを更に含んでもよく、またはこれらと通信してもよく、情報もしくはデータを航空機210の構成要素のうちの1つ以上の間で、または1つ以上の他のコンピュータデバイスもしくはシステム(例えば、図示されない、他の航空機)にネットワーク290を経由して交換することを可能にするように構成されてもよい。例えば、いくつかの実施形態では、トランシーバ216は、プロセッサ212と1つ以上のオンボードまたは外部のコンピュータデバイスまたは構成要素との間のI/Oトラフィックを調整するように構成されてもよい。トランシーバ216は、データ信号を、ある構成要素による使用に適切である第1のフォーマットから別の構成要素による使用に適切である第2のフォーマットに変換するために、任意の必要なプロトコル、タイミングまたは他のデータ変換を実行してもよい。いくつかの実施形態では、トランシーバ216は、例えば、ペリフェラルコンポーネントインターコネクト(PCI)バス規格、またはユニバーサルシリアルバス(USB)規格の変形といった、様々な種類のペリフェラルバスを通じて取り付けられたデバイスに対する対応を含んでもよい。いくつかの他の実施形態では、トランシーバ216の機能は、2つ以上の別々の構成要素に分割されてもよく、またはプロセッサ212と統合されてもよい。
制御システム220は、所望に応じて、1つ以上の電子速度制御、電源、ナビゲーションシステム及び/または航空機210の動作を制御するための、かつ品物と係合する、または品物を取り外すためのペイロード係合コントローラを含んでもよい。例えば、制御システム220は、推進モータ230-1、230-2...230-n、撮像デバイス240-1、240-2または距離計250のうちの1つ以上の動作を生じさせる、または制御するように構成されてもよい。例えば、制御システム220は、決定された、または所望の飛行経路に沿って航空機210を誘導するために、推進モータ230-1、230-2...230-nのうちの1つ以上に、1つ以上のプロペラを所望の速度で回転させてもよい。制御システム220はまた、撮像デバイス240-1、240-2のうちの1つ以上に、任意の撮像データ(例えば、静止画像または動画像)ならびに任意の関連付けられたオーディオデータ及び/またはメタデータを取り込ませてもよい。制御システム220は、距離計250を動作させて、航空機210と1つ以上の地上の特徴との間の距離(例えば、このような特徴上方の高度)または航空機210と1つ以上の飛行対象物との間の距離を決定してもよい。
制御システム220は、更に、限定されるものではないが、翼、ラダー、補助翼、エレベータ、フラップ、ブレーキ、スラットもしくは他の特徴などの1つ以上の舵面(図示せず)の所望の範囲内での動作、または1つ以上の係合システム(図示せず)による1つ以上の品物の施行または取り外しを含む、航空機210の任意の他の態様を制御してもよい。いくつかの実施形態では、制御システム220は、プロセッサ212、メモリ214及び/またはトランシーバ216のうちの1つ以上と統合されてもよい。
推進モータ230-1、230-2...230-nは、1つ以上のプロペラまたは他の構成要素の十分な回転速度を生じさせて、揚力及び/または推進力を航空機210及びこの航空機によって係合された任意のペイロードに与えることにより、この航空機によって係合されたペイロードを空中輸送することが可能である、任意の種類または形態のモータ(例えば、電気の、ガソリン動力の、または任意の他の種類のモータ)であってもよい。例えば、推進モータ230-1、230-2...230-nのうちの1つ以上は、アウトランナーブラシレスモータまたはインランナーブラシレスモータなどのブラシレス直流(DC)モータであってもよい。
航空機210は、任意の種類の任意の数のこのような推進モータ230-1、230-2...230-nを含んでもよい。いくつかの実施形態では、航空機210は、2つの推力モータ230-1、230-2...230-nを含んでもよい。いくつかの他の実施形態では、航空機210は、3つ、4つ、5つ、6つ、7つ、8つ、またはより多くの推進モータ230-1、230-2...230-nを含んでもよい。例えば、推進モータ230-1、230-2...230-nのうちの1つ以上は、排他的に、揚力を航空機210に提供するように整列または構成されてもよく、他方、推進モータ230-1、230-2...230-nのうちの1つ以上は、排他的に、推進力を航空機210に提供するように整列または構成されてもよい。代替として、推進モータ230-1、230-2...230-nのうちの1つ以上は、必要に応じて、揚力及び推進力を航空機210に提供するように整列または構成されてもよい。加えて、推進モータ230-1、230-2...230-nは、航空機210上でそれらの方位に固定されてもよく、または、例えば、ティルトロータ機など、それらの個々の方位を変えるように構成されてもよい。更に、推進モータ230-1、230-2...230-nは、異なる容量もしくは定格によって、もしくは異なる速度で動作するように整列もしくは構成されてもよく、または異なるサイズ及び形状を有するプロペラに結合されてもよい。
推進モータ230-1、230-2...230-nのそれぞれは、ハブまたはボスに連結された複数の形付けられた羽根を有する1つ以上のプロペラ(またはロータもしくは回転可能なシステム)に結合されてもよい。例えば、このようなプロペラのそれぞれは、推進モータ230-1、230-2...230-nのうちの個々の1つと関連付けられたマストまたはシャフトに回転可能に取り付けられてもよく、流体内で回転させたときに推進を生成するように構成されてもよい。このようなプロペラのそれぞれは、任意の数の羽根を含んでもよく、本質的には、固定ピッチ、調節可能なピッチまたは可変ピッチであってもよい。更に、このようなプロペラのうちの1つ以上は、任意の手法で結束されてもよく、または保護されてもよい。いくつかの実施形態では、プロペラのうちの1つ以上は、垂直軸の周りを回転するように、更にはそれに応じて推進力を垂直方向に(例えば上方に)提供するように構成されてもよい。いくつかの実施形態では、プロペラのうちの1つ以上は、水平軸の周りを回転するように、更にはそれに応じて推進力を水平方向に(例えば前方に)提供するように構成されてもよい。なお他の実施形態では、プロペラのうちの1つ以上は、水平でもなく垂直でもない軸の周りを回転するように、更にはそれに応じて推進力をこのような軸に対応する方向に提供するように構成されてもよい。
撮像デバイス240-1、240-2は、航空機240の表面に埋め込まれた、または取り付けられた任意の形態の光学記録デバイスであってもよく、航空機210の動作中に遭遇する構造物、施設、地形もしくは任意の他の要素の撮像データを撮影またはさもなければ記録するために、または任意の他の目的のために用いられてもよい。撮像デバイス240-1、240-2は、1つ以上のセンサ、メモリまたは記憶構成要素及びプロセッサを含んでもよく、このようなセンサ、メモリ構成要素またはプロセッサは、更に、1つ以上の感光面、フィルタ、チップ、電極、時計、基板、タイマーまたは任意の他の関連する特徴(図示せず)を含んでもよい。このような撮像デバイス240-1、240-2は、航空機210の動作中の任意の関連するオーディオ信号または他の情報のみならず、任意の種類または形態の1つ以上の静止画像または動画像の形態で撮像データを取り込んでもよい。
撮像デバイス240-1、240-2は、専用であり得る、または内部ネットワーク(図示せず)の全てもしくは一部を含み得る有線または無線接続により、プロセッサ212及び/もしくは制御システム220と、または互いに通信してもよい。加えて、撮像デバイス240-1、240-2は、ネットワーク290によってデータ処理システム280と通信するように適合されてもよく、またはさもなければ構成されてもよい。図2のブロック図200は撮像デバイス240-1、240-2に対応する2つのボックスを含むが、当業者は、限定されるものではないが、デジタルカメラ、深度センサもしくは距離カメラ、赤外線カメラ、放射線カメラまたは他の光学センサを含む任意の数または種類の撮像デバイスが、本開示にしたがって航空機210上に提供され得ることを認識するであろう。
撮像デバイス240-1、240-2に加えて、航空機210はまた、外的情報もしくはデータ、または内的情報もしくはデータを含む、航空機210が動作している、または動作するように予期され得る環境の1つ以上の属性を決定するために、限定されるものではないが、1つ以上の環境または動作センサを含む、航空機210の動作を制御または支援するための任意の数の他のセンサ、構成要素または他の特徴を含んでもよい。例えば、航空機210は、1つ以上の全地球測位システム(「GPS」)受信器もしくはセンサ、コンパス、速度計、高度計、温度計、気圧計、湿度計、ジャイロスコープ、空気監視センサ(例えば、酸素、オゾン、水素、一酸化炭素もしくは二酸化炭素のセンサ)、オゾンモニタ、pHセンサ、磁気異常検出器、金属探知器、放射線センサ(例えば、ガイガーカウンタ、中性子検出器、アルファ検出器)、姿勢指示器、深度計、加速度計、または音センサ(例えば、1つ以上の方向からの音響エネルギーを検出し、記録するための、マイクロホン、圧電センサ、振動センサもしくは他のトランスデューサ)を含んでもよい。
データ処理システム280は、1つ以上のコンピュータプロセッサ284及びそれらと関連付けられた任意の数のデータ記憶装置286(例えば、データベース)を有する1つ以上の物理コンピュータサーバ282を含み、任意の特定または汎用の目的のために提供されてもよい。例えば、図2のデータ処理システムは、航空機210から受信した、撮像データもしくは他の情報もしくはデータを受信する、分析する、もしくは記憶する専用の目的のために独立的に提供されてもよく、または代替として、このような撮像データもしくは他の情報もしくはデータ、及び1つ以上の他の機能を受信する、分析する、もしくは記憶するように構成された1つ以上の物理的または仮想サービスと関連して提供されてもよい。サーバ282は、プロセッサ284及び、限定されるものではないが、音響信号、撮像データに関する情報もしくはデータ、もしくは環境条件に関する情報もしくはデータ、動作特性、または位置を含む任意の種類の情報もしくはデータを任意の目的のために記憶し得るデータ記憶装置286と接続されてもよく、またはさもなければ通信してもよい。サーバ282及び/またはコンピュータプロセッサ284はまた、デジタルデータを送信及び受信することを通じて、線218によって示されるように、ネットワーク290に接続してもよく、またはさもなければこのネットワークと通信してもよい。例えば、データ処理システム280は、例えば、ネットワーク290を介して航空機210から、もしくは互いから、または1つ以上の他の外部コンピュータシステム(図示せず)から受信された、メディアファイルといったメディアファイルなどの情報またはデータを受信し、1つ以上のデータ記憶装置内に記憶するための能力または容量を有する任意の施設、ステーションまたは場所を含んでもよい。いくつかの実施形態では、データ処理システム280は、物理的な場所に提供されてもよい。他のこのような実施形態では、データ処理システム280は、例えば、「クラウド」ベースの環境といった、1つ以上の代替の、または仮想の場所に提供されてもよい。なお他の実施形態では、データ処理システム280は、限定されるものではないが、航空機210を含む、1つ以上の航空機上に提供されてもよい。
ネットワーク290は、任意の有線ネットワーク、無線ネットワーク、またはその組み合わせであってもよく、全体的または部分的にインターネットを含んでもよい。加えて、ネットワーク290は、パーソナルエリアネットワーク、ローカルエリアネットワーク、ワイドエリアネットワーク、ケーブルネットワーク、衛星ネットワーク、携帯電話ネットワーク、またはそれらの組み合わせであってもよい。ネットワーク290はまた、インターネットなどの様々な異なる当事者らによって運用される可能性がある、リンクされたネットワークの公共的にアクセス可能なネットワークであってもよい。いくつかの実施形態では、ネットワーク290は、企業または大学のイントラネットなどのプライベートまたはセミプライベートネットワークであってもよい。ネットワーク290は、グローバルシステムフォーモバイルコミュニケーションズ(GSM)ネットワーク、符号分割多元接続(CDMA)ネットワーク、ロングタームエボリューション(LTE)ネットワーク、またはいくつかの他の種類の無線ネットワークなどの、1つ以上の無線ネットワークを含んでもよい。インターネットまたは他の前述の種類の通信ネットワークのいずれかを介して通信するためのプロトコル及び構成要素は、コンピュータ通信の当業者にとって周知であり、したがって、本明細書においてより詳細に説明される必要はない。
本明細書で説明されるコンピュータ、サーバ、デバイスなどは、必要な電子機器、ソフトウェア、メモリ、ストレージ、データベース、ファームウェア、ロジック/ステートマシン、マイクロプロセッサ、通信リンク、ディスプレイまたは他の視覚もしくは聴覚ユーザインタフェース、印刷デバイス、及び本明細書で説明される機能またはサービスのいずれかを提供する、かつ/または本明細書で説明される結果を達成するための任意の他の入力/出力インタフェースを有する。また、当業者であれば、このようなコンピュータ、サーバ、デバイスなどのユーザが、コンピュータ、サーバ、デバイスなどと対話するために、または本開示のアイテム、リンク、ノード、ハブもしくは任意の他の態様を「選択」するために、キーボード、キーパッド、マウス、スタイラス、タッチスクリーン、または他のデバイス(図示せず)もしくは方法を操作し得ることを認識するであろう。
航空機210及び/またはデータ処理システム280は、ネットワーク290に接続するために、またはショートメッセージングサービスもしくはマルチメディアメッセージングサービス(SMSもしくはMMS)のテキストメッセージなどを介して互いに通信するために、任意のウェブ対応の、もしくはインターネットのアプリケーションもしくは機能、またはEメールもしくは他のメッセージング技術を含む任意の他のクライアント-サーバアプリケーションまたは機能を用いてもよい。例えば、航空機210は、ネットワーク290を介して、リアルタイムで、もしくはほぼリアルタイムで、または1つ以上のオフラインプロセスで、データ処理システム280に、または任意の他のコンピュータデバイスに(例えば、1つ以上の他の航空機に)、同期メッセージまたは非同期メッセージの形で情報またはデータを送信するように適合されてよい。当業者であれば、航空機210またはデータ処理システム280が、限定されるものではないが、セットトップボックス、パーソナルデジタルアシスタント、デジタルメディアプレーヤー、ウェブパッド、ラップトップコンピュータ、デスクトップコンピュータ、電子書籍リーダなどを含む、ネットワークを経由して通信することができる複数のコンピューティングデバイスのいずれかを操作し得る、またはこれらのいずれかによって操作され得ることを認識するであろう。このようなデバイス間で通信を提供するためのプロトコル及び構成要素は、コンピュータ通信の当業者にとって周知であり、本明細書においてより詳細に説明される必要はない。
本明細書で説明されるデータ及び/またはコンピュータ実行可能命令、プログラム、ファームウェア、ソフトウェアなど(本明細書では「コンピュータ実行可能」構成要素とも称される)は、プロセッサ212もしくはプロセッサ284、または航空機210もしくはデータ処理システム280によって(例えば、1つ以上の他の航空機によって)利用される任意の他のコンピュータもしくは制御システムなどのコンピュータもしくはコンピュータ構成要素内にあるかまたはコンピュータもしくはコンピュータ構成要素によってアクセス可能であり、プロセッサ(例えば、中央処理装置、すなわち「CPU」、またはグラフィックス処理装置、すなわち「GPU」)によって実行されるときに本明細書で説明される機能、サービス及び/または方法の全てまたは一部をプロセッサに実行させる命令シーケンスを有するコンピュータ可読媒体上に記憶されてもよい。このようなコンピュータ実行可能命令、プログラム、ソフトウェアなどは、フロッピードライブ、CD-ROMドライブ、DVD-ROMドライブなどのコンピュータ可読媒体と関連付けられたドライブ機構、ネットワークインタフェースなどを用いて、または外部接続を介して1つ以上のコンピュータのメモリにロードされてもよい。
本開示のシステム及び方法のいくつかの実施形態はまた、本明細書で説明されるプロセスまたは方法を実行するようにコンピュータ(または他の電子デバイス)をプログラムするのに用いられ得る命令を(圧縮形式で、または非圧縮形式で)記憶する非一時的な機械可読記憶媒体を含むコンピュータ実行可能プログラム製品として提供されてもよい。本開示の機械可読記憶媒体は、限定されるものではないが、ハードドライブ、フロッピーディスク、光ディスク、CD-ROM、DVD、ROM、RAM、消去可能プログラマブルROM(「EPROM」)、電気的消去可能プログラマブルROM(「EEPROM」)、フラッシュメモリ、磁気カードもしくは光カード、ソリッドステートメモリデバイス、または電子命令を記憶するのに適切であり得る他の種類の媒体/機械可読媒体を含んでもよい。更に、実施形態はまた、一時的な機械可読信号を(圧縮形式で、または非圧縮形式で)含むコンピュータ実行可能プログラム製品として提供されてもよい。機械可読信号の例としては、搬送波を用いて変調されるか否かに関わらず、限定されるものではないが、コンピュータプログラムをホスティングもしくは実行するコンピュータシステムもしくは機械がアクセスするように構成可能である信号、またはインターネットもしくは他のネットワークを通じてダウンロードされ得る信号を含む信号が挙げられ得る。
上述したように、航空機は、航空機の1つ以上の表面内に埋め込まれた、またはさもなければ統合された1つ以上の撮像デバイスによって取り込まれた撮像データを用いて障害物が着陸エリアにないかどうかを判定するように構成されてもよい。図3を参照して、本開示の実施形態にしたがった対象物検出及び回避のための1つのプロセスのフローチャート300を示す。
ボックス310で、無人航空機は、降下中に目的地の付近において高度閾値に到達したと判定する。例えば、無人航空機は、1つ以上のセンサ、例えば、レーザー距離計を備えてもよく、1つ以上の地上構造物に関して無人航空機の高度を決定するように構成される。代替として、無人航空機の高度は、1つ以上の撮像デバイス、レーダシステム、音響システム、全地球測位システム(すなわち「GPS」)構成要素などを用いて決定されてもよい。加えて、高度閾値は、任意の根拠によって定められてもよい。例えば、高度閾値は、例えば、ペイロードの質量といった、無人航空機によって実行されている任務の1つ以上の属性または特性に基づいて定められてもよい。高度閾値はまた、例えば、目的地における任意の数の人間、動物、構造物または植物といった、任務のための目的地の1つ以上の属性または特性に基づいて定められてもよい。高度閾値は、更に、目的地において効力のある1つ以上の法的要件もしくは規制要件、または他の任意の要因に基づいて定められてもよい。
ボックス312で、無人航空機は、目的地において対象標識を探索する。例えば、対象標識は、目的地における表面に施された任意の視覚的基準マーキングであってもよく、無人航空機によって認識されるように意図される。対象標識は、無人航空機によって走査され、着陸するための所望の場所として認識され得る1つ以上の英数字、シンボル、バーコード(例えば、「QR」コードなどの1次元または2次元のバーコード)などの任意の識別用マーキングを含んでもよい。例えば、いくつかの実施形態では、対象標識は、天然繊維または合成繊維(例えば、織布もしくは不織布の繊維)または1つ以上のマーキングが上にある他の基材などの、可撓性であり、かつ十分な耐久性のある材料の1つ以上の層から形成されてもよい。いくつかの他の実施形態では、対象標識は、着陸表面に塗布される塗料、インク、チョークまたは任意の他の材料から形成されてもよい。代替として、いくつかの実施形態では、対象標識は、無人航空機に信号を送信する、または無人航空機から信号を受信するための1つ以上のセンサまたは他の構成要素を含んでもよく、対象標識は、このような信号の1つ以上に基づいて探索され得る。
ボックス314で、着陸エリアは、対象標識の中心に基づき、目的地において定められる。例えば、着陸エリアは、対象標識の中心から及ぶ所定の半径に基づいて定められてもよい。例えば、対象標識の長さ、幅、高さまたは1つ以上の他の寸法は、例えば、1つ以上の画像切り出し技術によって決定されてもよく、中心は、このような寸法から決定されてもよい。所定の半径は、無人航空機のための目的地と関連付けられた1つ以上の安全係数または安全考慮事項に加えて、無人航空機の1つ以上の属性、または無人航空機によって実行されている任務に基づいて選択されてもよい。代替として、着陸エリアは、中心以外の、対象標識の任意の寸法に基づいて定められてもよい。例えば、着陸エリアは、対象標識の外周からの緩衝域または他の所定の間隔に基づいて定められてもよい。いくつかの実施形態では、着陸エリアは、例えば、所定の座標の組といった任意の点に基づいて定められてもよく、その点が対象標識と関連付けられているかどうかは問わない。
ボックス316で、降下中に無人航空機によって取り込まれた対の画像が識別される。例えば、画像は、無人航空機上に提供された2つの異なる撮像デバイスによって同時に取り込まれていてもよく、これらの撮像デバイスは、部分的に少なくとも重複した視野を有する。代替として、画像は、無人航空機上に提供された単一の撮像デバイスによって異なる時刻に取り込まれていてもよい。ボックス320で、無人航空機によって以前に取り込まれた画像間の画素視差が決定される。例えば、いくつかの実施形態では、画素視差は、1つ以上のオプティカルフローアルゴリズムを用いて決定されてもよい。オプティカルフローアルゴリズムは、2次元画像の次元のそれぞれに沿って、画像のそれぞれ内に現れている対応する点の間の視差(例えば、x次元の変位とy次元のパララックスとの両方)を決定し得る。いくつかの他の実施形態では、画素視差は、ステレオマッチングアルゴリズムを用いて決定されてもよい。ステレオマッチングアルゴリズムは、1次元に沿って、画像のそれぞれ内に現れている対応する点の間の視差(例えば、x次元の変位)を決定し得る。ステレオマッチングアルゴリズムを用いて画素視差が決定される場合、ステレオマッチングアルゴリズムへの入力として画像を提供する前に、画像のそれぞれは、好ましくは、キャリブレーションされた対の撮像デバイスのうちの一方によって取り込まれた後、補正され、例えば、共通の平面上に変換される。
オプティカルフローアルゴリズムを用いて画素視差が決定される場合、画素視差は、例えば、最初にダウンサンプリングし、低い解像度で画像を処理して対応する組の画素間の視差を決定することにより、最も低いレベルの解像度で対の画像のそれぞれの間で決定されてもよい。画像は、次いで、層において徐々にアップサンプリングされ、徐々により高いレベルの解像度で処理され、画素視差は、画像がその元の最大レベルの解像度になるまで修正される。画像は、任意の数の層において処理されてもよい。例えば、いくつかの実施形態では、画像は、7つの層において処理されてもよい。加えて、層のそれぞれについて、層のそれぞれの解像度は、例えば、2倍といった、任意の比率及び任意の手法で徐々に増加されてもよい。
ボックス320で画素視差が決定された後、画像は、着陸エリアを描写するこのような画像の少なくとも一部について、着陸エリアを3次元で復元するように、更には画像から差分画像を生成するように処理されてもよい。ボックス330で、着陸エリアは、画素視差に基づいて3次元で復元される。例えば、図1Fに示すように、着陸エリアは、画像のそれぞれ内に現れている対応する点(例えば、共役対のエピポールのそれぞれ)と関連付けられた視差のそれぞれを用いて3次元空間内に復元されてもよい。着陸エリアは、画像を取り込んだ撮像デバイスのそれぞれの間の基線間隔に基づいて、例えば、撮像デバイスの画像センサ及びそれらの焦点距離に関して点のそれぞれを三角測量することによって復元されてもよい。
ボックス340で、ガウシアンフィルタリングの差が、着陸エリアの3次元復元物に適用される。ガウシアンフィルタリングの差は、仮定の上では平坦であり、障害がなく、かつ許容可能な傾斜で提供されている、障害のない着陸エリアの地面に対応する低い周波数を3次元復元物から減算するために適用される。代替として、ボックス330で決定された着陸エリアの3次元復元物に、任意の種類または形式のフィルタリングが適用されてもよい。
ボックス350で、フィルタリングされた3次元復元物が着陸エリア内での標準外の表面の存在を示しているかどうかが判定される。例えば、フィルタリングされた3次元復元物が、着陸エリアの一部が平坦でもなく、障害がないわけでもなく、許容可能な傾斜で提供されているわけでもないことを示している場合、着陸エリアは、その上に位置する1つ以上の障害物を有すると判定されてもよい。しかしながら、フィルタリングされた3次元復元物が、仮定の上では平坦であり、障害のない着陸エリアと一致している場合、または任意のこのような障害物が十分に小さい、もしくは重要ではない場合、着陸エリアは、障害物がないと判定されてもよく、または航空機が安全に着陸するのを妨げるのに相当ではない程度の障害物を含むと判定されてもよい。
並行して、ボックス335で、対の画像に基づいて差分画像が生成される。例えば、画像のうちの一方から導出される、絶対強度または強度の勾配が、画像のうちの他方から減算されてもよく、それによって互いの上に画像をワープさせる。ボックス345で、着陸エリアに対応する差分画像の画素について差分画像スコアが導出される。差分画像スコアは、個々の画像の画素が着陸エリア内で互いに異なる程度を示し得る。差分画像スコアは、RGBカラーモデルまたは任意の他のモデルもしくは規格にしたがったピクセル値に基づいてもよい。例えば、差分画像スコアは、個々の画像の対応する画素の強度値間の、このような画素間のピーク差、平均差、メディアン差または他の任意の差を示してもよい。差分画像スコアはまた、所定の閾値を上回った強度値の差を有する複数の画素を示してもよい。差分画像スコアは、更に、このような画素が、十分に大きいエリアを定めていることにより、航空機の安全な動作に対する脅威をもたらし得る対象物に対応するかどうか、またはこのような画素が重要ではないサイズの対象物、すなわち航空機の安全な動作に対する現実的な脅威をもたらさない対象物に対応するかどうかを示してもよい。
ボックス355で、差分画像スコアが、割り当てられた閾値を超えているどうかが判定される。割り当てられた閾値は、任意の根拠により、着陸エリア及び/または航空機に対して決定され、割り当てられてもよい。例えば、割り当てられた閾値は、差分画像の単一の画素の、または差分画像の画素の1つ以上の領域の差分画像スコアの値に基づいてもよい。加えて、割り当てられた閾値は、着陸エリア、航空機、もしくは航空機によって実行されている任務の1つ以上の属性、または他の任意の要因に対応してもよい。例えば、割り当てられた閾値は、航空機の1つ以上の寸法または属性(例えば、サイズ、形状、回転プロペラの数、回転プロペラの動作速度、もしくは任意の他の関連する属性)、着陸エリアもしくは目的地、航空機によって実行されている任務、または任意の他の要因に関して定められてもよい。差分画像スコアが割り当てられた閾値を超えている場合、着陸エリアは、その上に1つ以上の障害物を有すると判定されてもよい。しかしながら、差分画像スコアが割り当てられた閾値を超えていない場合、着陸エリアは、障害物がないと判定されてもよく、または航空機が安全に着陸するのを妨げるのに相当ではない程度の障害物を含むと判定されてもよい。
ボックス360で、着陸エリアのフィルタリングされた復元物または差分画像のいずれかが、着陸エリア内での1つ以上の障害物の存在を示しているかどうかが判定される。フィルタリングされた復元物が、着陸エリアが、仮定されたように、平坦でもなく、障害がないわけでもなく、許容可能な傾斜でもないことを示している場合、または差分画像が、着陸エリア上に、またはその上方に1つ以上の障害物が存在すること示している場合、プロセスはボックス365に進み、そこで着陸動作が中止され、または航空機が代替の着陸エリアを識別することを試み、プロセスは終了する。代替の着陸エリアは、目的地と関連付けられた1人以上の個人によって指定されてもよく、または、例えば、航空機によって取り込まれた1つ以上の画像に基づいて、もしくは任意の他の手法で、航空機によって目的地において識別されてもよい。いくつかの実施形態では、1つ以上のアルゴリズム(例えば、差分画像アルゴリズムまたは構成アルゴリズム)の出力は、着陸エリアが1つ以上の障害物を含む確率を示す信頼水準またはスコアであってもよい。
代替として、航空機は、フィルタリングされた着陸エリアの復元物または差分画像のいずれかが着陸エリア内の1つ以上の障害物の存在を示しているときに任意の数の他の措置を取るようにプログラムされてもよく、またはさもなければ構成されてもよい。例えば、障害物が着陸エリアから除かれたと判定され得るまで、航空機の降下速度を減少させてもよく、または、例えば、ホバリングモードに移行することによって停止させてもよい。動いている人間、動物、または物体など、障害物が本質的には動的である場合、降下速度を遅くすることまたはホバリングすることは特に有用であり得る。例えば、動的障害物が1つ以上の画像内で識別された場合、動的障害物は、動的障害物が着陸エリアから離れるまで、またはもはや航空機に危険をもたらすことがないまで、着陸エリア全体にわたって追跡されてもよい。加えて、着陸エリアが1つ以上の障害物を含むという判定が正確である、または十分に高い信頼度に達しているかどうかを確認するために、任意の数の他の対の画像が評価されてもよい。航空機はまた、地上の、または空上の制御システムに1つ以上の信号またはメッセージを送信して着陸エリアの状態を報告してもよく、将来の動作のための1つ以上の命令を含む制御システムから1つ以上の信号またはメッセージを受信してもよい。
任意の障害物が着陸エリアにおいて(例えば、着陸エリア上に、または着陸エリアの上方に)に存在することをフィルタリングされた復元物も差分画像も示していない場合、プロセスはボックス370に進み、そこで、定められた着陸エリアに無人航空機が着陸したかどうかが判定される。無人航空機が着陸した場合、すなわち無人航空機がその降下を完了した場合、プロセスは終了する。無人航空機が着陸しなかった場合、プロセスは、ボックス316に戻り、そこで、降下中に無人航空機によって取り込まれた対の画像が識別され、更にはボックス320に戻り、そこで、無人航空機によって取り込まれた以前の画像間の画素の視差が決定される。対の画像は、別の画像と共に、ボックス316で以前に識別された対に含まれた画像のうちの一方を含んでもよく、例えば、その場合、画像は連続して取り込まれる。代替として、対の画像は、ボックス316で以前に識別されたどの対にも含まれなかった2つの画像を含んでもよい。
図3のフローチャート300は以前の画像間の画素視差を決定した後、3次元の着陸エリアの復元物と差分画像とを並行して生成するための1つのプロセスを説明しているが、いくつかの実施形態では、3次元の着陸エリアの復元物と差分画像の生成とは、連続して行われてもよい。更に、図3のフローチャート300はフィルタリングされた着陸エリアの復元物または差分画像のいずれかが単一の対の画像について識別された画素視差に基づいて着陸エリア内の1つ以上の障害物の存在を示している場合、着陸動作が中止され得る、または代替の着陸エリアが識別され得ることを示しているが、いくつかの実施形態では、例えば、所定数のフィルタリングされた復元物または差分画像が、着陸エリアが1つ以上の障害物または障害を含むことを示した後、複数の対の画像において識別された画素視差に基づいて着陸動作を中止する、または代替の着陸エリアを検索する判定がなされてもよい。このような実施形態では、例えば、単一の対の画像のみで、1つ以上の障害物または障害が擬似的またはランダム的に識別された場合、着陸動作を中止することまたは代替の着陸エリアを検索することが回避され得る。
更に、本開示のシステム及び方法は、対象標識が利用されない場合でも、航空機のための着陸エリアを識別するために利用され得る。例えば、本明細書で開示される実施形態の1つ以上は、取り込まれた環境の対の画像を比較することにより、平坦であり、かつその環境において障害物または障害のない十分なサイズの着陸エリアを識別するために利用されてもよい。例えば、航空機に適合するように十分なサイズであり、かつ平坦であるエリアがそれに応じて識別されてもよい。更に、本明細書で開示されるシステム及び方法の1つ以上は、例えば、1つ以上の座標の組によって定められる空中空間といった、地上の点と関連付けられていない、または着陸機動を含まない動作のための動作エリアに関連して利用されてもよい。例えば、航空機が現在の高度から所望の高度まで移行する場合、着陸することなく、本開示のシステム及び方法の1つ以上は、任意の障害が航空機と所望の高度との間に存続しているかどうかを判定してもよい。いくつかの実施形態では、航空機は、航空機の1つ以上の主軸に関して、垂直下方の方位に、または実質的に垂直下方の方位に整列され、図1Dに示したものなどの、航空機の下方に位置する1つ以上の表面または他の対象物に関する撮像データを取り込むように構成された1つ以上の撮像デバイスを備えてもよい。代替として、いくつかの実施形態では、航空機は、航空機の1つ以上の主軸に関して、垂直上方の方位に、または実質的に垂直上方の方位に整列され、航空機の上方に位置する1つ以上の表面または他の対象物に関する撮像データを取り込むように構成された1つ以上の撮像デバイスを備えてもよい。いくつかの実施形態では、航空機は、航空機の1つ以上の主軸に関して、任意の他の角度で整列され、このような軸に沿って位置する1つ以上の表面または他の対象物に関する撮像データを取り込むように構成された1つ以上の撮像デバイスを備えてもよい。
いくつかの実施形態では、本開示のシステム及び方法は、複数の撮像デバイスを用いて同時に取り込まれた1つ以上の対の画像(例えば、同期化画像)から画素視差を決定してもよい。図4を参照して、本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図を示す。別段の記載がある場合を除き、図4に示した数「4」の後の参照番号は、図2に示した数「2」の後の、または図1A~1Iに示した数「1」の後の参照番号を有する構成要素または特徴と類似した構成要素または特徴を示す。
図4に示すように、システム400は、着陸エリア465に接近する航空機410を含む。航空機410は、対の撮像デバイス440-1、440-2を装備する。これらの撮像デバイスは、航空機410の主軸(例えば、垂直軸、横軸、縦軸)に関して実質的に垂直下方の方位に整列され、少なくとも部分的に重複するそれらの個々の視野内に1つ以上の表面特徴を含む。いくつかの実施形態では、1つ以上の表面特徴上の任意の種類または形態の基準マーキング(例えば、図1Aの対象標識160)を認識した直後に着陸エリア465が定められてもよい。例えば、基準マーキングと関連付けられた1つ以上の点が検出されてもよく、例えば、所与の点からの所定の半径に基づき、または所与の点の周りに提供された任意の他の境界に基づき、このような点に関して着陸エリア465の境界が確立されてもよい。しかしながら、他の実施形態では、着陸エリア465は、任意の時刻に、または任意の手法によって定められてもよく、任意の根拠で定められてもよい。例えば、着陸エリア465は、例えば、1つ以上の座標の組に基づいて定められた点といった任意の点に基づいて定められてもよく、その点が対象標識または任意の他の対象物と関連付けられているどうかは問わない。
撮像デバイス440-1、440-2による画像の取り込みは、任意の手法で開始または起動されてもよい。例えば、航空機410は、所定の地上の場所または高度に接近していることを(例えば、GPSトランシーバなどの1つ以上の位置センサ、または高度計もしくは他のシステムを用いて)判定してもよく、所定の地上の場所または高度に接近した直後に撮像データの取り込みを開始してもよい。代替として、航空機410は、1つ以上のレーダシステム、音響システムまたは撮像デバイスを用いることなどにより、例えば、構造物、航空機、動物、もしくは任意の他の物体といった、1つ以上の地上の、もしくは空中の特徴にこの航空機が接近しているとき、または、1つ以上の地上の、もしくは空中の特徴がこの航空機に接近しているときを判定するように構成されてもよい。したがって、航空機410は、航空機410がこのような特徴に接近していると判定した直後に、またはこのような特徴が航空機410に接近していると判定した直後に撮像データの取り込みを開始してもよい。航空機410はまた、所定の時刻または日付に撮像データの取り込みを開始してもよい。
航空機410の撮像デバイス440-1、440-2は、航空機410が着陸エリア465に向かって下降するにつれて画像の取り込みを開始してもよく、または画像の取り込みを継続してもよい。例えば、図4に示すように、撮像デバイス440-1、440-2は、時刻t、時刻t、時刻t、時刻t...時刻tまで対の画像を取り込んでもよい。時刻tは、航空機410が着陸エリア465に着陸したとき、着陸動作を中止したとき、または撮像デバイス440-1、440-2による画像の取り込みが何らかの理由で終了したときである。いくつかの実施形態では、撮像デバイス440-1、440-2は、例えば、所定の、もしくは一定のフレームレートで、または特定の間隔で画像を連続して取り込むように構成される。
撮像デバイス440-1、440-2によって取り込まれた対の画像は、任意の方法または技術にしたがってそれらの間の画素視差を認識するように処理される。所与の時刻(例えば、時刻t、時刻t、時刻t、時刻tまたは時刻tのうちの1つ以上)に撮像デバイス440-1によって取り込まれた画像、及び同時に撮像デバイス440-2によって取り込まれた画像は、オプティカルフローアルゴリズムに入力として提供されてもよい。オプティカルフローアルゴリズムは、所与の時刻に撮像デバイス440-1によって取り込まれた画像及びその所与の時刻に撮像デバイス440-2によって取り込まれた画像からの画素の視差、または逆の場合の画素の視差を表すベクトルの場を返してもよい。オプティカルフローアルゴリズムは、個々の撮像デバイス440-1、440-2によって取り込まれた画像内の画素のうちの一部または全てに基づき、疎または密に動作してもよい。例えば、いくつかの実施形態では、着陸エリア465に対応している、またはそれを描写している個々の画像の一部が、認識されてもよく、画像から抽出されてもよい。オプティカルフローアルゴリズムは、疎に動作してもよく、着陸エリア465に対応する個々の画像のうちの一部の間の視差に基づいて着陸エリア465の疎な復元物を生成してもよい。
画素視差は、着陸エリア465の3次元復元物を生成するために、更にはこのような復元物が平坦かつ滑らかであるかどうか、またはこのような復元物が着陸動作もしくはこの着陸エリア上での他の機動を阻止する1つ以上の障害を含むかどうかを判定するために用いられてもよい。
代替として、所与の時刻(例えば、時刻t、時刻t、時刻t、時刻tまたは任意の時刻tのうちの1つ以上)に撮像デバイス440-1によって取り込まれた画像、及び同時に、またはほぼ同時に撮像デバイス440-2によって取り込まれた画像がステレオマッチングアルゴリズムに入力として提供されてもよく、これらの画像のうちの一方の画素とこれらの画像のうちの他方の画素との間の複数の視差(例えば、水平方向成分及び/または垂直方向成分を有するベクトル)が出力として戻されてもよい。いくつかの実施形態では、ステレオマッチングアルゴリズムを実行する前に、画像が補正されてもよい。それにより、このような画像内で識別された画素視差が、例えば、水平もしくは垂直、または任意の他の単一の方向といった、単一の方向に限定されることが保証される。
いくつかの実施形態では、本開示のシステム及び方法は、単一の撮像デバイスを用いて異なる時刻に取り込まれた1つ以上の対の画像から画素視差を決定してもよい。図5を参照して、本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図を示す。別段の記載がある場合を除き、図5に示した数「5」の後の参照番号は、図4に示した数「4」の後、図2に示した数「2」の後、または図1A~1Iに示した数「1」の後の参照番号を有する構成要素または特徴と類似した構成要素または特徴を示す。
図5に示すように、システム500は、着陸エリア565に接近する航空機510を含む。航空機510は、撮像デバイス540を装備する。この撮像デバイスは、航空機510の主軸(例えば、垂直軸、横軸、縦軸)に関して実質的に垂直下方の方位に整列され、それらの個々の視野内に1つ以上の表面特徴を含む。着陸エリア565は、任意の根拠によって、例えば、1つ以上の基準マーキングに基づいて定められてもよい。
撮像デバイス540は、例えば、ストリーミングフォーマットで、または所定の間隔で連続して画像を取り込んでもよい。撮像デバイス540による画像の取り込みは、任意の手法で、任意の時刻に、任意の根拠によって開始または起動されてもよい。例えば、航空機510は所定の時刻に、または任意の他の根拠により、航空機510が地上の、または空中の対象物に接近した、または接近していると判定した直後、航空機510が所定の場所または高度に到達したと判定した直後に画像の取り込みを開始するように構成されてもよい。
撮像デバイス540によって取り込まれた対の画像は、任意の方法または技術にしたがってそれらの間の画素視差を認識するように処理されてもよい。例えば、所与の時刻(例えば、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻tn-1または時刻tのうちの1つ以上)に撮像デバイス540によって取り込まれた画像、及び別の時刻(例えば、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻tn-1または時刻tのうちの別の時刻)に撮像デバイス540によって取り込まれた画像は、オプティカルフローアルゴリズムに入力として提供されてもよい。オプティカルフローアルゴリズムは、これらの画像のうちの第1の画像からこれらの画像のうちの第2の画像への、または逆の場合の、画素の視差を表すベクトルの場を返してもよい。画素視差は、着陸エリア565の3次元復元物を生成するために、更にはこのような復元物が平坦かつ滑らかであるかどうか、またはこのような復元物が着陸動作もしくはこの着陸エリア上での他の機動を阻止する1つ以上の障害を含むかどうかを判定するために用いられてもよい。代替として、所与の時刻(例えば、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻tn-1または時刻tのうちの1つ以上)に撮像デバイス540によって取り込まれた画像、及び後の時刻に撮像デバイス540によって取り込まれた画像がステレオマッチングアルゴリズムに入力として提供されてもよく、これらの画像のうちの一方の画素とこれらの画像のうちの他方の画素との間の複数の視差(例えば、水平方向成分及び/または垂直方向成分を有するベクトル)が出力として戻されてもよい。いくつかの実施形態では、ステレオマッチングアルゴリズムを実行する前に、画像が補正されてもよい。それにより、このような画像内で識別された画素視差が、例えば、水平もしくは垂直、または任意の他の単一の方向といった、単一の方向に限定されることが保証される。
いくつかの実施形態では、航空機510は、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻t、時刻tn-1または時刻tにおける撮像デバイス540の位置間での、ある形の横方向の隔たりを生じさせるために、動作中に1つ以上の位置の横方向変位を導くようにプログラムされてもよく、またはさもなければ構成されてもよい。例えば、着陸動作中、または降下もしくはホバリング中に画像を取り込むように撮像デバイス540を動作させる他の動作中、必要に応じて、航空機510を垂直軸から逸脱させるために、航空機510は、1つ以上の舵面を操作してもよく、または1つ以上の推進モータもしくは航空機510の任意の他の態様の動作を交替してもよい。垂直軸に関して撮像デバイス540の位置を変化させることにより、航空機510はこのような位置間の基線間隔を実現してもよく、または拡大してもよい。それにより、撮像デバイス540によって取り込まれた画像に基づいて決定される画素の変位に対する精度のレベルが向上する。
画素間の視差は、本開示にしたがった任意の方法または技術によって決定されてもよい。例えば、いくつかの実施形態では、画素視差は、このような視差を決定し得る1つ以上のオプティカルフローアルゴリズムを用いて決定されてもよい。図6を参照して、本開示の実施形態にしたがった対象物検出及び回避のための1つのシステムの態様の図を示す。別段の記載がある場合を除き、図6に示した数「6」の後の参照番号は、図5に示した数「5」の後、図4に示した数「4」の後、図2に示した数「2」の後、または図1A~1Iに示した数「1」の後の参照番号を有する構成要素または特徴と類似した構成要素または特徴を示す。
図6に示すように、1つ以上の撮像デバイス(図示せず)を用いて取り込まれた画像645-1、645-2内の共通の画素Pの識別は、対の画像ピラミッドによって表される。画像645-1、645-2は、図5に示したものなど、異なる時刻に単一の撮像デバイスを用いて取り込まれていてもよく、または図4に示したものなど、同一の時刻(例えば、同期された)もしくは異なる時刻に、2つの撮像デバイスを用いて取り込まれていてもよい。例えば、非常に粗いレベルの細密化といった、第1のレベルの細密化、すなわちレベルnにおいて、画素Pは、画像645-1、645-2のそれぞれ内に容易に現れ、水平方向または垂直方向のいずれにおいても視差がなく、したがってD=0かつD=0となる。引き続き、画像645-1、645-2が更なる細密化を受けるにつれて、個々の画像645-1、645-2内の画素Pの外観の間の視差は、正確な視差D、Dが最終レベルの細密化、すなわちレベル0で決定されるまで、後続のレベルの細密化(n-1)、(n-2)などにおいてますます鮮明になる。
任意の数のオプティカルフローアルゴリズムが本開示にしたがって利用されてもよく、このようなアルゴリズムは、任意の手法または技術にしたがって動作してもよい。例えば、いくつかの実施形態では、オプティカルフローアルゴリズムは、Lucas-Kanade法にしたがって動作してもよく、その場合、対の画像間の画素視差を示すベクトルの場が生成される。加えて、オプティカルフローアルゴリズムは、Lucas-Kanade法など、疎であってもよく、その場合、サブセットの共通の画素が、それらの間の個々の視差を識別し、算出するように評価され、オプティカルフローベクトル場の形態を取った出力が、個々の画素のそれぞれについて計算される。代替として、オプティカルフローアルゴリズムは、密であってもよい。それにより、個々の画像の画素のそれぞれが、それらの間の個々の視差を識別し、算出するように評価される。対の画像が着陸エリアの全てまたは一部を描写するいくつかの実施形態では、着陸エリアを描写するこのような画像の一部が、それらの個々の画素間の視差を識別するために画像から抽出されてもよく、疎なオプティカルフローアルゴリズムを受けてもよい。このような視差は、着陸エリアの3次元復元物を生成するために、または着陸エリアの差分画像を算出するために用いられてもよい。
画素視差はまた、ステレオマッチングアルゴリズムを用いて決定されてもよい。図7A及び7Bを参照して、本開示にしたがった対象物検出及び回避のための1つのシステムの態様の図を示す。別段の記載がある場合を除き、図7Aまたは7Bに示した数「7」の後の参照番号は、図6に示した数「6」の後、図5に示した数「5」の後、図4に示した数「4」の後、図2に示した数「2」の後、または図1A~1Iに示した数「1」の後の参照番号を有する構成要素または特徴と類似した構成要素または特徴を示す。
図7Aに示すように、システム700は、着陸エリア765に接近する航空機710を含む。航空機710は、視野FOV、視野FOVをそれぞれ有する対の撮像デバイス740-1、740-2を装備し、これらの視野は、少なくとも部分的に重複し、着陸エリア765の少なくとも一部を含み、1つ以上の他の表面特徴をその中に含む。撮像デバイス740-1、740-02は、航空機710の主軸(例えば、垂直軸、横軸、縦軸)に関して実質的に垂直下方の方位に整列される。着陸エリア765は、任意の根拠によって、例えば、1つ以上の基準マーキングに基づいて定められてもよい。図7Aに示すように、着陸エリア765は、複数の対象物775-1、775-2、775-3をその上に含む。
本開示にしたがって、個々の撮像デバイス740-1、740-2を用いて取り込まれた画像745-1、745-2は、1つ以上のステレオマッチングアルゴリズムを用いて処理されてもよい。図7Bに示すように、変形モデルにしたがって、または任意の他の手法で、画像745-1の画素のそれぞれが、画像745-2の画素のうちの1つの上にワープされてもよく、逆も同様であってよい。個々の画像745-1、745-2の画素をワープする前に、画像745-1、745-2が補正されてもよい、すなわち、対応するエピポーラ線が互いに並行になるように整列されてもよい。例えば、図7Bに示すように、画像745-1、745-2のそれぞれ内の対象物775-1の点G、Gが補正によって整列され、例えば、画像745-1、745-2のそれぞれ内の対象物775-1の点G、Gの位置間の差といった、個々の画像745-1、745-2内のこのような点に対応する画素間の視差ΔG、ΔGが、互いに関して水平方向(例えば、変位)に決定されてもよい。画像745-1、745-2が補正されるため、画素間の視差は水平変位からなり、垂直パララックスは全く含まない。同様に、図7Bに示すように、画像745-1、745-2のそれぞれ内の対象物775-2の点P、Pが補正によって整列され、例えば、画像745-1、745-2のそれぞれ内の対象物775-2の点P、Pの位置間の差といった、個々の画像745-1、745-2内のこのような点に対応する画素間の視差ΔP、ΔPが、互いに関して水平方向に決定されてもよい。最後に、図7Bにも示すように、画像745-1、745-2のそれぞれ内の対象物775-3の点Bが補正によって整列され、例えば、画像745-1、745-2のそれぞれ内の対象物775-3の点Bの位置間の差といった、個々の画像745-1、745-2内のこのような点に対応する画素間の視差ΔBが、互いに関して水平方向に決定されてもよい。上述したように、キャリブレーションされた撮像デバイスによって取り込まれた補正後の画像を用いることにより、個々の位置G、G、P、P、Bの間のエピポーラ線が互いに平行に整列されること、及び視差ΔG、ΔG、ΔP、ΔP、ΔBが水平変位からなり、垂直パララックスを全く含まないことが保証される。
本願明細書で開示される実施態様は、無人航空機のための着陸エリア内の障害を検出する方法であって、無人航空機上に提供された少なくとも1つのセンサにより、無人航空機の高度が所定の高度閾値以下であると判定することと、無人航空機上に提供された少なくとも1つの撮像デバイスにより、無人航空機の下方の表面上の対象標識を探索することと、対象標識の少なくとも一部に少なくとも部分的に基づいて着陸エリアを定めることであって、着陸エリアが、対象標識の一部に関して定められた幾何学的形状を含み得る、定めることと、少なくとも1つの撮像デバイスにより、無人航空機の下方の表面の少なくとも一部を含む第1の画像を取り込むことと、少なくとも1つの撮像デバイスにより、無人航空機の下方の表面の少なくとも一部を含む第2の画像を取り込むことと、第1の画像内に描写された少なくとも複数の点に対応する画素と第2の画像内に描写された少なくとも複数の点に対応する画素との間の視差を決定することであって、複数の点のそれぞれが着陸エリア内にある、決定することと、画素間の視差に少なくとも部分的に基づいて着陸エリアの復元物を生成することと、画素間の視差に少なくとも部分的に基づいて差分画像を算出することと、復元物または差分画像に少なくとも部分的に基づいて着陸エリアが少なくとも1つの障害を含むかどうかを判定することと、着陸エリアが少なくとも1つの障害を含むと判定することに応じて、着陸エリアにおける無人航空機の着陸を中止することとを含む方法を含んでもよい。
任意選択で、少なくとも1つの撮像デバイスは、第1の撮像デバイス及び第2の撮像デバイスを含んでもよく、第1の撮像デバイスと第2の撮像デバイスとは、基線間隔だけ隔離され、第1の画像は、第1の撮像デバイスによって取り込まれ、第2の画像は、第2の撮像デバイスによって取り込まれ、着陸エリアの復元物を生成することは、複数の点のそれぞれについて、第1の画像内に描写された複数の点に対応する画素のうちの1つと第2の画像内に描写された複数の点に対応する画素のうちの1つとの間の距離を算出することを含んでもよく、視差は、複数の点のそれぞれについて算出された間隔に少なくとも部分的に基づいて決定される。
任意選択で、方法は、第1の画像及び第2の画像のそれぞれをオプティカルフローアルゴリズムに入力として提供することと、オプティカルフローアルゴリズムから、複数のベクトルを含むベクトル場を含み得る出力を受け取ることとを含んでもよく、ベクトルのそれぞれは、第1の画像内に描写された複数の点に対応する画素のうちの1つと第2の画像内に描写された複数の点に対応する画素のうちの1つとの間の視差を表す。
任意選択で、方法は、第1の画像内に描写された複数の点に対応する画素のそれぞれを第2の画像内に描写された複数の点に対応する画素のうちの1つにマッチングさせることと、第1の画像内に描写された複数の点に対応する画素のそれぞれについて、第2の画像内に描写された複数の点に対応する画素のマッチングされた画素までの間隔を決定することとを含んでもよく、複数の点のそれぞれについて算出された間隔のそれぞれは、視差のうちの1つである。
本明細書で開示される実施態様は、航空機による機動の実行中に航空機上に提供された少なくとも1つの撮像デバイスによって第1の画像を取り込むことであって、少なくとも1つの撮像デバイスの視野が第1の場所において少なくとも1つの表面を含む、取り込むことと、航空機による機動の実行中に少なくとも1つの撮像デバイスによって第2の画像を取り込むことと、少なくとも1つの表面上の少なくとも1つの点に関して動作エリアを定めることと、第1の画像の第1の複数の画素と第2の画像の第2の複数の画素との間の第1の複数の画素視差を決定することであって、第1の画像の第1の複数の画素のうちの少なくとも一部が、第1の画像内に描写された動作エリアの点に対応し、第2の複数の画素のうちの少なくとも一部が、第2の画像内に描写された動作エリアの点に対応する、決定することと、第1の複数の画素視差に少なくとも部分的に基づいて動作エリアの少なくとも一部の第1の3次元復元物を生成することと、第1の複数の画素視差に少なくとも部分的に基づいて第1の差分画像を生成することと、少なくとも第1の3次元復元物または第1の差分画像に少なくとも部分的に基づいて動作エリアが少なくとも1つの障害を含むかどうかを判定することと、動作エリアが少なくとも1つの障害を含むと判定することに応じて、航空機の機動を中断することとを含む方法を含んでもよい。
任意選択で、方法は、動作エリアが少なくとも1つの障害を含まないと判定することに応じて、航空機の機動を完了することを更に含んでもよい。
任意選択で、方法は、第1の画像及び第2の画像のそれぞれをオプティカルフローアルゴリズムに入力として提供することと、オプティカルフローアルゴリズムから、複数のベクトルを含むベクトル場を含み得る出力を受け取ることとを更に含んでもよく、複数のベクトルのそれぞれは、画素視差のうちの1つを表す。
任意選択で、方法は、第1の画像の第1の複数の画素のそれぞれを第2の画像の第2の複数の画素のうちの1つにマッチングさせることと、第1の複数の画素のそれぞれについて、第2の画像の第2の複数の画素のうちのマッチングされた画素までの間隔を決定することとを更に含んでもよく、間隔のそれぞれは、画素視差のうちの1つに対応する。
任意選択で、少なくとも1つの撮像デバイスは、第1の撮像デバイス及び第2の撮像デバイスを含んでもよく、第1の撮像デバイスと第2の撮像デバイスとは、基線間隔だけ隔離され、第1の画像は、第1の撮像デバイスによって取り込まれ、第2の画像は、第2の撮像デバイスによって取り込まれ、動作エリアの第1の3次元復元物を生成することは、動作エリアの複数の点のそれぞれについて、第1の撮像デバイスまたは第2の撮像デバイスのうちの一方から複数の点のうちの1つまでの間隔を算出することと、第1の撮像デバイスまたは第2の撮像デバイスのうちの一方からの間隔及び動作エリアの複数の点に少なくとも部分的に基づいて動作エリアの第1の3次元復元物を生成することとを含んでもよい。
任意選択で、少なくとも1つの撮像デバイスは、第1の撮像デバイスを含んでもよく、第1の画像は、第1の時刻に第1の撮像デバイスによって取り込まれ、第2の画像は、第2の時刻に第1の撮像デバイスによって取り込まれる。
任意選択で、第1の画像は第1の時刻に取り込まれてもよく、第2の画像はほぼ第1の時刻に取り込まれてもよく、方法は、動作エリアが少なくとも1つの障害を含まないと判定することに応じて、航空機による機動の実行中に少なくとも1つの撮像デバイスにより、第2の時刻に第3の画像を取り込むことと、航空機による機動の実行中に少なくとも1つの撮像デバイスにより、ほぼ第2の時刻に第4の画像を取り込むことと、第3の画像の第3の複数の画素と第4の画像の第4の複数の画素との間の第2の複数の画素視差を決定することであって、第3の画像の第3の複数の画素のうちの少なくとも一部が、第3の画像内に描写された動作エリアの点に対応し、第4の複数の画素のうちの少なくとも一部が、第4の画像内に描写された動作エリアの点に対応する、決定することと、第2の複数の画素視差に少なくとも部分的に基づいて動作エリアの少なくとも一部の第2の3次元復元物を生成することと、第2の複数の画素視差に少なくとも部分的に基づいて第2の差分画像を生成することと、少なくとも第2の3次元復元物及び差分画像に少なくとも部分的に基づいて動作エリアが少なくとも1つの障害を含むかどうかを判定することと、動作エリアが少なくとも1つの障害を含むと判定することに応じて、航空機の機動を中断することとを更に含んでもよい。
任意選択で、方法は、第1の画像または第2の画像のうちの少なくとも一方内で少なくとも1つの表面上の少なくとも1つの基準標識を検出することと、少なくとも1つの基準標識の少なくとも1つの属性を認識することと、少なくとも1つの属性に少なくとも部分的に基づいて少なくとも1つの基準標識と関連付けられた少なくとも1つの点を決定することとを更に含んでもよく、動作エリアは、少なくとも1つの基準標識と関連付けられた少なくとも1つの点からの所定の半径を有する円である。
任意選択で、方法は、航空機と関連付けられた少なくとも1つのトランシーバにより、航空機のための目的地に関する情報を受信することであって、目的地に関する情報が、少なくとも1つの点の識別名を含み得る、受信することと、航空機と関連付けられた少なくとも1つのセンサにより、少なくとも1つの点の付近内に航空機があると判定することとを更に含んでもよく、第1の画像及び第2の画像は、少なくとも1つの点の付近内に航空機があると判定することに応じて取り込まれる。
任意選択で、方法は、第1の3次元復元物に対してガウシアンフィルタの差を実行することであって、少なくとも第1の3次元復元物及び第1の差分画像に少なくとも基づいて動作エリアが少なくとも1つの障害を含むかどうかを判定することが、少なくともフィルタリングされた第1の3次元復元物及び第1の差分画像に少なくとも部分的に基づいて動作エリアが少なくとも1つの障害を含むかどうかを判定することを含み得る、実行することを更に含んでもよい。
任意選択で、方法は、第1の画像の第1の複数の画素のそれぞれについて、第1の画像の第1の複数の画素のうちの1つの強度値と第2の画像の第2の複数の画素のうちの対応する1つの強度値との間の差を決定することであって、前記強度値間の差に少なくとも部分的に基づいて第1の差分画像が生成される、決定することと、差分画像のためのスコアを算出することであって、スコアが、第1の画像の第1の複数の画素のうちの1つと第2の画像の第2の複数の画素の対応する1つとの間の強度値のピーク差、平均差またはメディアン差のうちの少なくとも1つを含み得る、算出することと、スコアが所定の閾値を超えていると判定することとを更に含んでもよい。
任意選択で、機動は、所定の動作と関連付けられてもよく、方法は、動作エリアが少なくとも1つの障害を含むと判定することに応じて、所定の動作を実行するための第2の場所を識別することと、第1の場所から第2の場所まで無人航空機を移動させることとを更に含んでもよい。
本明細書で開示される実施態様は、無人航空機上の第1の撮像デバイスによって第1の複数の画像を取り込むことと、無人航空機上の第2の撮像デバイスによって第2の複数の画像を取り込むことと、複数の対の画像のそれぞれについて、複数の対の画像のうちの1つの間の複数の画素視差を決定することであって、複数の対のそれぞれが、第1の複数の画像のうちの1つ及び第2の複数の画像のうちの1つを含み得、複数の画素視差が、オプティカルフローアルゴリズムまたはステレオマッチングアルゴリズムのうちの少なくとも一方にしたがって決定される、決定することと、複数の画素視差のうちの少なくとも一部に少なくとも部分的に基づいてエリアの3次元復元物を生成することと、複数の対の画像のそれぞれについて差分画像を生成することと、3次元復元物または差分画像のうちの1つのうちの少なくとも一方に少なくとも部分的に基づき、少なくとも1つの障害を含まない少なくとも1つの場所を識別することと、少なくとも1つの場所において、または少なくとも1つの場所の近くに航空機を着陸させることとを含む方法を含んでもよい。
任意選択で、方法は、航空機の位置の横方向変位を生じさせることを更に含んでもよく、第1の複数の画像のうちの少なくとも第1の画像は、横方向変位を生じさせる前に取り込まれ、第2の複数の画像のうちの少なくとも第2の画像は、横方向変位を生じさせた後に取り込まれ、複数の対の画像のうちの第1の対は、第1の画像及び第2の画像を含み得る。
任意選択で、第1の撮像デバイスと第2の撮像デバイスとは、基線間隔だけ隔離されてもよく、エリアの3次元復元物を生成することは、エリアの複数の点のそれぞれについて、複数の画素視差のうちの少なくとも一部に少なくとも部分的に基づき、第1の撮像デバイスまたは第2の撮像デバイスのうちの一方から複数の点のうちの1つまでの間隔を算出することと、第1の撮像デバイスまたは第2の撮像デバイスのうちの一方からの間隔及び動作エリアの複数の点に少なくとも部分的に基づき、エリアの3次元復元物を生成することとを含んでもよい。
任意選択で、方法は、少なくとも1つの場所において関連する少なくとも1つの点を選択することと、少なくとも1つの点に関して着陸エリアを定めることであって、着陸エリアが、少なくとも1つの点からの所定の半径を有する円を含み得る、定めることと、着陸エリアを定めた後、第1の撮像デバイスによって第1の画像を取り込むことと、第2の撮像デバイスによって第2の画像を取り込むことと、オプティカルフローアルゴリズムまたはステレオマッチングアルゴリズムのうちの少なくとも一方にしたがって、第1の画像内に描写された着陸エリアの点に対応する画素と第2の画像内に描写された着陸エリアの点に対応する画素との間の複数の画素視差を決定することと、複数の画素視差に少なくとも部分的に基づいて着陸エリアの3次元復元物を生成することと、複数の画素視差に少なくとも部分的に基づいて差分画像を生成することと、複数の画素視差に少なくとも部分的に基づいて生成された着陸エリアの3次元復元物及び差分画像に少なくとも部分的に基づき、着陸エリアが少なくとも1つの障害を含まないと判定することと、着陸エリアが少なくとも1つの障害を含まないと判定することに応じて、航空機を着陸エリア内に着陸させることとを更に含んでもよい。
本開示は、本開示のシステム及び方法を実施するための例示的な技術、構成要素及び/またはプロセスを用いて本明細書に説明されているが、当業者であれば、本明細書で説明される同一の機能(複数可)及び/または結果(複数可)を達成し、かつ本開示の範囲内に含まれる、他の技術、構成要素及び/もしくはプロセス、または本明細書で説明される技術、構成要素、ならびに/もしくはプロセスの他の組み合わせ及びシーケンスが用いられ得る、または実行され得ることを理解すべきである。
本明細書中で用いる「前方」飛行または「水平」飛行という用語は、地面(すなわち海面)に実質的に平行な方向における飛行を指す。本明細書で用いる「垂直」飛行という用語は、地心から実質的に半径方向外側に拡張する方向における飛行を指す。当業者は、飛行軌跡が「前方」飛行すなわち「水平」飛行及び「垂直」飛行のベクトルの両方の成分を含み得ることを認識するであろう。本明細書で用いる「視差」という用語は、2つの差分画像フレーム内の共通の画素または画素の位置の差を指すように用いられ得る。したがって、「視差」という用語は、本開示によれば、「変位」と称されるときがある水平の位置の差、「パララックス」と称されるときがある垂直の位置の差、または水平と垂直との両方の、もしくは任意の他の軸に沿って整列された位置の差を指し得る。この点について、「視差」、「変位」または「パララックス」という用語は、2つ以上の画像フレーム内の画素または複数の画素の位置の差を指すように同義的に用いられ得る。更に、本明細書で用いる「障害物」及び「障害」という用語は、航空機の動作エリア内に、一時的に、または永続的に存在し得る任意の対象物を指し得る。例えば、障害物または障害は、静的または動的、例えば可動であり得、人間、動物、または自転車、三輪車、ベビーカー、スケートボードもしくはボールなどの物体などである。「障害物」及び「障害」という用語は、本明細書で同義的に用いられる。
本明細書で開示される実施形態のいくつかは、倉庫または他の同様の設備から顧客にペイロードを配達するための無人航空機の使用を参照するが、当業者は、本明細書で開示されるシステム及び方法はそのように限定されず、任意の意図された工業的用途、商業的用途、娯楽的用途または他の用途のために固定翼または回転翼を有する任意の種類または形の航空機(例えば、有人または無人)と関連して利用され得ることを認識するであろう。更に、当業者は、本明細書で開示される実施形態の1つ以上が航空機の任意の動作に関連して利用されてもよく、着陸動作に限定されないことを認識するであろう。例えば。航空機が、所与のエリアにおいて、前方飛行もしくは垂直飛行またはホバリングを必要とする監視動作を実行するようにプログラムまたは命令される場合、航空機は、所与のエリアに障害が入っていないかどうか、または所与のエリア内の動作が、所望したように、もしくは意図したように安全に実行され得るかどうかを判定するときに画像を取り込んでもよく、このような画像内で表される画素間の視差を決定してもよい。上述したように、着陸エリアが2次元で定められる場合、例えば、2次元の表面に関して、着陸動作が安全に行われ得るかどうかが、画素視差を算出し、画素視差を用いて、着陸エリアの3次元復元物及び着陸エリアのための差分画像を生成することによって判定されてもよい。本開示によれば、動作エリアは、2次元(例えば、空間内の平面領域)または3次元(例えば、空間内の体積領域)のいずれかで定められてもよいが、動作エリアは、任意の所与の表面と関連付けられる必要はなくてもよい。いくつかの実施形態では、本開示のシステム及び方法は、空間内の2次元領域、または空間内の3次元領域が、航空機によるこのような領域内での1つ以上の機動の実行を妨げ得る、阻止し得る、または困難にし得る1つ以上の障害物または障害を含むかどうかを判定するために用いられてもよい。
本明細書中に明示的にまたは黙示的に別段の指示がない限り、本明細書中で特定の実施形態に関して説明される特徴、特性、代替物または変形のいずれも、本明細書で説明される任意の他の実施形態にも適用、使用、または組み込み得ること、ならびに本開示の図面及び詳細な説明は、添付の特許請求の範囲によって定められる様々な実施形態に対する全ての変形、等価物及び代替物を網羅することを意図することが理解されるべきである。更に、限定されるものではないが、図3のフローチャートに表現されたプロセスを含む、本明細書で説明される本開示の1つ以上の方法またはプロセスに関して、このような方法またはプロセスが提示される順番は、特許請求された発明に対するいずれの制限としても解釈されるように意図されず、本明細書で説明される任意の数の方法またはプロセスステップまたはボックスは、本明細書で説明される方法またはプロセスを実現するために、任意の順番において、かつ/または並列して組み合わせることができる。また、本明細書の図面は縮尺通りに描かれていない。
特に断りのない限り、または使用されている文脈の中でそれ以外に理解されない限り、とりわけ、「できる」、「場合がある」、「可能性がある」または「してもよい」などの条件付きの文言は、概して、特定の実施形態が特定の特徴、要素及び/またはステップを含む場合がある、または含む可能性があるが、特定の特徴、要素、及び/またはステップを要求しないまたは必要としないことを許容的に伝達するように意図される。同様に、「含む(include)」、「含んでいる(including)」及び「含む(includes)」などの用語は、概して、「含むが限定されない(including,but not limited to)」を意味するように意図される。したがって、このような条件付きの文言は、一般に、特徴、要素及び/またはステップが1つ以上の実施形態に全て必要であることを示すように意図されるものでもなく、これらの特徴、要素及び/もしくはステップが任意の特定の実施形態に含まれるか、それとも任意の特定の実施形態において実行されるものであるかをユーザの入力または指示の有無に関わらず決定する論理が1つ以上の実施形態に必ず含まれることを示すように意図されるものでもない。
特に明記しない限り、「X、YまたはZのうちの少なくとも1つ」または「X、Y及びZのうちの少なくとも1つ」という句などの選言的な文言は、そうでなければ項目、用語などがX、YもしくはZまたはそのいずれかの組み合わせ(例えば、X、Y及び/またはZ)であってよいことを示すために一般的に用いられるものとして文脈によって理解される。したがって、このような選言的言語は、一般に、ある実施形態がXの少なくとも1つ、Yの少なくとも1つ、またはZの少なくとも1つがそれぞれ存在することを必要とすることを示唆するように意図されておらず、そのように示唆するように意図されるべきではない。
特に明記しない限り、「a」または「an」などの冠詞は、一般に、1つ以上の説明された項目を含むように解釈されるべきである。したがって、「~するように構成されたデバイス」などの句は、1つ以上の列挙されたデバイスを含むように意図される。このような1つ以上の列挙されたデバイスは、記載された列挙を実行するように集合的に構成することもできる。例えば、「列挙A、B及びCを実行するように構成されたプロセッサ」は、列挙Aを実行するように構成された第1のプロセッサが、列挙B及びCを実行するように構成された第2のプロセッサと協働することを含むことができる。
本明細書中で使用される「約」、「ほぼ」、「概して」、「およそ」または「実質的に」という用語のなどの、本明細書で用いられる程度の文言は、記載された値、量、または依然として所望の機能を果たすかもしくは所望の結果を達成する特性に近似する値、量または特性を示す。例えば、「約」、「ほぼ」、「概して」、「およそ」または「実質的に」という用語は、記載された量の10%未満の範囲内、5%未満の範囲内、1%未満の範囲内、0.1%未満の範囲内、及び0.01%未満の範囲内である量を指してもよい。
本発明をその例示的な実施形態に関して説明し示したが、前述の追加及び省略、ならびに様々な他の追加及び省略が、本開示の趣旨及び範囲から逸脱することなく、その中で、及びそれになされ得る。

Claims (15)

  1. 無人航空機のための着陸エリア内の障害を検出する方法であって、
    前記無人航空機上に提供された少なくとも1つのセンサにより、前記無人航空機の高度が所定の高度閾値以下であると判定することと、
    前記無人航空機上に提供された少なくとも1つの撮像デバイスにより、前記無人航空機の下方の表面上の対象標識を探索することと、
    前記対象標識の少なくとも一部に基づいて前記着陸エリアを定めることであって、前記着陸エリアが、前記対象標識の前記一部に関して定められた幾何学的形状を含む、前記定めることと、
    前記少なくとも1つの撮像デバイスにより、該少なくとも1つの撮像デバイスの第1水平位置で、前記無人航空機の下方の前記表面の少なくとも一部を含む第1の画像を取り込むことと、
    前記少なくとも1つの撮像デバイスにより、前記少なくとも1つの撮像デバイスの第2水平位置で、前記無人航空機の下方の前記表面の少なくとも一部を含む第2の画像を取り込むことと、
    前記第1の画像内に描写された前記着陸エリア内にある少なくとも複数の点に対応する画素と前記第2の画像内に描写された少なくとも前記複数の点に対応する画素との間の視差を決定することと、
    前記画素間の前記視差に基づいて前記着陸エリアの3次元復元物を生成することと、
    前記画素間の前記視差に基づいて差分画像を算出することと、
    前記差分画像の画素について、画素間のピーク差、平均差もしくはメディアン差の少なくとも1つの差分画像スコアを導出することと、
    前記3次元復元物に標準外の表面の存在があるかまたは前記差分画像スコアが閾値を超えているかに基づいて前記着陸エリアが少なくとも1つの障害を含むかどうかを判定することであって、前記標準外の表面の存在があるとは、前記着陸エリアが平坦でなく、前記着陸エリアに障害があり、もしくは前記着陸エリアが許容可能な傾斜でないことの少なくとも1つを含む、前記判定することと、
    前記着陸エリアが前記少なくとも1つの障害を含むと判定することに応じて、前記着陸エリアにおける前記無人航空機の着陸を中止することと
    を含む、前記方法。
  2. 前記視差を決定することが、
    前記第1の画像及び前記第2の画像のそれぞれをオプティカルフローアルゴリズムに入力として提供することと、
    前記オプティカルフローアルゴリズムから、複数のベクトルを含むベクトル場を含む出力を受け取ることとを含み、
    前記ベクトルのそれぞれが、前記第1の画像内に描写された前記複数の点に対応する前記画素のうちの1つと前記第2の画像内に描写された前記複数の点に対応する前記画素のうちの1つとの間の視差を表す、請求項1に記載の方法。
  3. 前記視差を決定することが、
    前記第1の画像内に描写された前記複数の点に対応する前記画素のそれぞれを前記第2の画像内に描写された前記複数の点に対応する前記画素のうちの1つにマッチングさせることと、
    前記第1の画像内に描写された前記複数の点に対応する前記画素のそれぞれについて、前記第2の画像内に描写された前記複数の点に対応する前記画素の前記マッチングされた画素までの間隔を決定することとを含み、
    前記複数の点のそれぞれについて算出された前記間隔のそれぞれが前記視差のうちの1つである、請求項1または2に記載の方法。
  4. 航空機による機動の実行中に前記航空機上に提供された少なくとも1つの撮像デバイスによって、第1水平位置で、第1の画像を取り込むことであって、前記少なくとも1つの撮像デバイスの視野が第1の場所において少なくとも1つの表面を含む、前記取り込むことと、
    前記航空機による前記機動の実行中に前記少なくとも1つの撮像デバイスによって、第2水平位置で、第2の画像を取り込むことと、
    前記少なくとも1つの表面上の少なくとも1つの点に関して動作エリアを定めることと、
    前記第1の画像の第1の複数の画素と前記第2の画像の第2の複数の画素との間の第1の複数の画素視差を決定することであって、前記第1の画像の前記第1の複数の画素のうちの少なくとも一部が、前記第1の画像内に描写された前記動作エリアの点に対応し、前記第2の複数の画素のうちの少なくとも一部が、前記第2の画像内に描写された前記動作エリアの前記点に対応する、前記決定することと、
    前記第1の複数の画素視差に基づいて前記動作エリアの少なくとも一部の第1の3次元復元物を生成することと、
    前記第1の複数の画素視差に基づいて第1の差分画像を生成することと、
    前記差分画像の画素について、画素間のピーク差、平均差もしくはメディアン差の少なくとも1つの第1の差分画像スコアを導出することと、
    少なくとも前記第1の3次元復元物に標準外の表面の存在があるかまたは前記第1の差分画像スコアが閾値を超えているかに基づいて前記動作エリアが少なくとも1つの障害を含むかどうかを判定することであって、前記標準外の表面の存在があるとは、前記着陸エリアが平坦でなく、前記着陸エリアに障害があり、もしくは前記着陸エリアが許容可能な傾斜でないことの少なくとも1つを含む、前記判定することと
    前記動作エリアが前記少なくとも1つの障害を含むと判定することに応じて、
    前記航空機の前記機動を中断することと
    を含む方法。
  5. 前記第1の複数の画素視差を決定することが、
    前記第1の画像及び前記第2の画像のそれぞれをオプティカルフローアルゴリズムに入力として提供することと、
    前記オプティカルフローアルゴリズムから、複数のベクトルを含むベクトル場を含む出力を受け取ることとを含み、
    前記複数のベクトルのそれぞれが前記画素視差のうちの1つを表す、請求項4に記載の方法。
  6. 前記第1の複数の画素視差を決定することが、
    前記第1の画像の前記第1の複数の画素のそれぞれを前記第2の画像の前記第2の複数の画素のうちの1つにマッチングさせることと、
    前記第1の複数の画素のそれぞれについて、前記第2の画像の前記第2の複数の画素のうちの前記マッチングされた画素までの間隔を決定することとを含み、
    前記間隔のそれぞれが前記画素視差のうちの1つに対応する、請求項4または5に記載の方法。
  7. 前記少なくとも1つの撮像デバイスが、第1の撮像デバイス及び第2の撮像デバイスを含み、
    前記第1の撮像デバイスと前記第2の撮像デバイスとが基線間隔だけ隔離され、
    前記第1の画像が前記第1の撮像デバイスによって取り込まれ、
    前記第2の画像が前記第2の撮像デバイスによって取り込まれ、
    前記動作エリアの前記第1の3次元復元物を生成することが、
    前記動作エリアの前記複数の点のそれぞれについて、前記第1の撮像デバイスまたは前記第2の撮像デバイスのうちの一方から前記複数の点のうちの1つまでの間隔を算出することと、
    前記第1の撮像デバイスまたは前記第2の撮像デバイスのうちの前記一方からの前記間隔及び前記動作エリアの前記複数の点に基づいて前記動作エリアの前記第1の3次元復元物を生成することと
    を含む、請求項4、5または6に記載の方法。
  8. 前記第1の画像が第1の時刻に取り込まれ、前記第2の画像がほぼ前記第1の時刻に取り込まれ、
    前記方法は、
    前記動作エリアが前記少なくとも1つの障害を含まないと判定することに応じて、
    前記航空機による前記機動の実行中に前記少なくとも1つの撮像デバイスにより、第2の時刻に第3の画像を取り込むことと、
    前記航空機による前記機動の実行中に前記少なくとも1つの撮像デバイスにより、ほぼ前記第2の時刻に第4の画像を取り込むことと、
    前記第3の画像の第3の複数の画素と前記第4の画像の第4の複数の画素との間の第2の複数の画素視差を決定することであって、前記第3の画像の前記第3の複数の画素のうちの少なくとも一部が、前記第3の画像内に描写された前記動作エリアの点に対応し、前記第4の複数の画素のうちの少なくとも一部が、前記第4の画像内に描写された前記動作エリアの前記点に対応する、前記決定することと、
    前記第2の複数の画素視差に基づいて前記動作エリアの少なくとも一部の第2の3次元復元物を生成することと、
    前記第2の複数の画素視差に基づいて第2の差分画像を生成することと、
    前記第2の差分画像の画素について第2の差分画像スコアを導出することと、
    少なくとも前記第2の3次元復元物に標準外の表面の存在があるか及び前記第2の差分画像スコアが閾値を超えているかに基づいて前記動作エリアが少なくとも1つの障害を含むかどうかを判定することと、
    前記動作エリアが前記少なくとも1つの障害を含むと判定することに応じて、
    前記航空機の機動を中断することと
    を含む、請求項4、5、6または7に記載の方法。
  9. 前記少なくとも1つの表面上の前記少なくとも1つの点に関して前記動作エリアを決定することが、
    前記第1の画像または前記第2の画像のうちの前記少なくとも一方内で前記少なくとも1つの表面上の少なくとも1つの基準標識を検出することと、
    前記少なくとも1つの基準標識の少なくとも1つの属性を認識することと、
    前記少なくとも1つの属性に基づいて前記少なくとも1つの基準標識と関連付けられた前記少なくとも1つの点を決定することとを含み、
    前記動作エリアが、前記少なくとも1つの基準標識と関連付けられた前記少なくとも1つの点からの所定の半径を有する円である、請求項4、5、6、7または8に記載の方法。
  10. 前記航空機と関連付けられた少なくとも1つのトランシーバにより、前記航空機のための目的地に関する情報を受信することであって、前記目的地に関する前記情報が、前記少なくとも1つの点の識別名を含む、前記受信することと、
    前記航空機と関連付けられた少なくとも1つのセンサにより、前記少なくとも1つの点の付近内に前記航空機があると判定することとを更に含み、
    前記第1の画像及び前記第2の画像が、前記少なくとも1つの点の前記付近内に前記航空機があると判定することに応じて取り込まれる、請求項4、5、6、7、8または9に記載の方法。
  11. 前記第1の複数の画素視差に基づいて前記第1の差分画像を生成することが、
    前記第1の画像の前記第1の複数の画素のそれぞれについて、前記第1の画像の前記第1の複数の画素のうちの1つの強度値と前記第2の画像の前記第2の複数の画素のうちの対応する1つの強度値との間の差を決定することであって、前記強度値間の前記差に基づいて前記第1の差分画像が生成される、前記決定することと、
    前記差分画像のためのスコアを算出することであって、前記スコアが、前記第1の画像の前記第1の複数の画素のうちの前記1つと前記第2の画像の前記第2の複数の画素の前記対応する1つとの間の前記強度値のピーク差、平均差またはメディアン差のうちの少なくとも1つを含む、前記算出することと、
    前記スコアが所定の閾値を超えていると判定することとを含む、請求項4、5、6、7、8、9または10に記載の方法。
  12. 前記機動が所定の動作と関連付けられ、
    前記方法は、
    前記動作エリアが前記少なくとも1つの障害を含むと判定することに応じて、
    前記所定の動作を実行するための第2の場所を識別することと、
    前記第1の場所から前記第2の場所まで前記航空機を移動させることとを更に含む、請求項4、5、6、7、8、9、10または11に記載の方法。
  13. 無人航空機上の第1の撮像デバイスによって第1の複数の画像を取り込むことと、
    前記無人航空機の位置の横方向変位を生じさせることであって、前記第1の複数の画像のうちの少なくとも第1の画像が、前記横方向変位を生じさせる前に取り込まれる、前記生じさせることと、
    前記無人航空機上の第2の撮像デバイスによって第2の複数の画像を取り込むことであって、前記横方向変位を生じさせた後に前記複数の第2の画像のうちの少なくとも第2の画像が取り込まれる、前記取り込むことと、
    複数の対の画像のそれぞれについて、前記複数の対の画像のうちの1つの間の複数の画素視差を決定することであって、前記複数の対のそれぞれが、前記第1の複数の画像のうちの1つ及び前記第2の複数の画像のうちの1つを含み、前記複数の対の画像のうちの第1の対が、前記第1の画像及び前記第2の画像を含み、前記複数の画素視差が、
    オプティカルフローアルゴリズムまたは
    ステレオマッチングアルゴリズム
    のうちの少なくとも一方にしたがって決定される、前記決定することと、
    前記複数の画素視差のうちの少なくとも一部に基づいてエリアの3次元復元物を生成することと、
    前記複数の対の画像のそれぞれについて差分画像を生成することと、
    前記差分画像の画素について、画素間のピーク差、平均差もしくはメディアン差の少なくとも1つの差分画像スコアを導出することと、
    前記3次元復元物に標準外の表面に存在しないかまたは前記差分画像スコアが閾値より低いかのうちの1つのうちの少なくとも一方に基づき、少なくとも1つの障害を含まない少なくとも1つの場所を識別することであって、前記標準外の表面に存在しないとは、前記着陸エリアが平坦であり、前記着陸エリアに障害がなく、もしくは前記着陸エリアが許容可能な傾斜であることの少なくとも1つを含む、前記判定することと
    前記少なくとも1つの場所において、または前記少なくとも1つの場所の近くに前記無人航空機を着陸させることと
    を含む、方法。
  14. 前記第1の撮像デバイスと前記第2の撮像デバイスとが基線間隔だけ隔離され、
    前記エリアの前記3次元復元物を生成することが、
    前記エリアの複数の点のそれぞれについて、前記複数の画素視差のうちの前記少なくとも一部に基づき、前記第1の撮像デバイスまたは前記第2の撮像デバイスのうちの一方から前記複数の点のうちの前記1つまでの間隔を算出することと、
    前記第1の撮像デバイスまたは前記第2の撮像デバイスのうちの前記一方からの前記間隔及び前記エリアの前記複数の点に基づいて前記エリアの前記3次元復元物を生成することと
    を含む、請求項13に記載の方法。
  15. 前記少なくとも1つの場所において、または前記少なくとも1つの場所の近くに前記無人航空機を着陸させることが、
    前記少なくとも1つの場所に関連する少なくとも1つの点を選択することと、
    前記少なくとも1つの点に関して着陸エリアを定めることであって、前記着陸エリアが、前記少なくとも1つの点からの所定の半径を有する円を含む、前記定めることと、
    前記着陸エリアを定めた後、
    前記第1の撮像デバイスによって第1の画像を取り込むことと、
    前記第2の撮像デバイスによって第2の画像を取り込むことと、
    前記オプティカルフローアルゴリズムまたは前記ステレオマッチングアルゴリズムのうちの少なくとも一方にしたがって、前記第1の画像内に描写された前記着陸エリアの点に対応する画素と前記第2の画像内に描写された前記着陸エリアの点に対応する画素との間の複数の画素視差を決定することと、
    前記複数の画素視差に基づいて前記着陸エリアの3次元復元物を生成することと、
    前記複数の画素視差に基づいて差分画像を生成することと、
    前記複数の画素視差に基づいて生成された前記着陸エリアの前記3次元復元物及び前記差分画像に基づき、前記着陸エリアが前記少なくとも1つの障害を含まないと判定することと、
    前記着陸エリアが前記少なくとも1つの障害を含まないと判定することに応じて、
    前記無人航空機を前記着陸エリア内に着陸させることと
    を含む、請求項13または14に記載の方法。
JP2020515915A 2017-09-21 2018-09-19 航空機のための対象物検出及び回避 Active JP7252943B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2023048759A JP2023085384A (ja) 2017-09-21 2023-03-24 航空機のための対象物検出及び回避

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762561635P 2017-09-21 2017-09-21
US62/561,635 2017-09-21
US15/838,250 US10402646B2 (en) 2017-09-21 2017-12-11 Object detection and avoidance for aerial vehicles
US15/838,250 2017-12-11
PCT/US2018/051750 WO2019060414A1 (en) 2017-09-21 2018-09-19 OBJECT DETECTION AND ESQUIVE FOR AERIAL VEHICLES

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2023048759A Division JP2023085384A (ja) 2017-09-21 2023-03-24 航空機のための対象物検出及び回避

Publications (2)

Publication Number Publication Date
JP2020537217A JP2020537217A (ja) 2020-12-17
JP7252943B2 true JP7252943B2 (ja) 2023-04-05

Family

ID=65721437

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2020515915A Active JP7252943B2 (ja) 2017-09-21 2018-09-19 航空機のための対象物検出及び回避
JP2023048759A Pending JP2023085384A (ja) 2017-09-21 2023-03-24 航空機のための対象物検出及び回避

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2023048759A Pending JP2023085384A (ja) 2017-09-21 2023-03-24 航空機のための対象物検出及び回避

Country Status (5)

Country Link
US (2) US10402646B2 (ja)
EP (1) EP3685307B1 (ja)
JP (2) JP7252943B2 (ja)
CN (1) CN111247523B (ja)
WO (1) WO2019060414A1 (ja)

Families Citing this family (53)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10657647B1 (en) * 2016-05-20 2020-05-19 Ccc Information Services Image processing system to detect changes to target objects using base object models
WO2018176000A1 (en) 2017-03-23 2018-09-27 DeepScale, Inc. Data synthesis for autonomous control systems
US10557936B2 (en) 2017-06-30 2020-02-11 Gopro, Inc. Target value detection for unmanned aerial vehicles
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US10402646B2 (en) * 2017-09-21 2019-09-03 Amazon Technologies, Inc. Object detection and avoidance for aerial vehicles
CN109814588A (zh) * 2017-11-20 2019-05-28 深圳富泰宏精密工业有限公司 飞行器以及应用于飞行器的目标物追踪系统和方法
WO2019126930A1 (zh) * 2017-12-25 2019-07-04 深圳市道通智能航空技术有限公司 测距方法、装置以及无人机
EP3528081A4 (en) * 2017-12-26 2019-11-13 Autel Robotics Co., Ltd. METHOD AND DEVICE FOR PROTECTING LANDING OF AIRCRAFT AND AIRCRAFT
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
US11032527B2 (en) * 2018-09-27 2021-06-08 Intel Corporation Unmanned aerial vehicle surface projection
IL282172B2 (en) 2018-10-11 2024-02-01 Tesla Inc Systems and methods for training machine models with enhanced data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11055862B2 (en) * 2018-10-26 2021-07-06 Here Global B.V. Method, apparatus, and system for generating feature correspondence between image views
US11467582B2 (en) * 2018-11-05 2022-10-11 Usic, Llc Systems and methods for an autonomous marking apparatus
US11366473B2 (en) * 2018-11-05 2022-06-21 Usic, Llc Systems and methods for autonomous marking identification
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
US10766638B1 (en) 2019-04-01 2020-09-08 Elbit Systems Of America, Llc Landing strobe, system and method for deploying the landing strobe
US10815006B2 (en) 2019-04-01 2020-10-27 Elbit Systems Of America, Llc Landing strobe signature
US10818191B2 (en) * 2019-04-01 2020-10-27 Elbit Systems Of America, Llc Landing zone designation system and method
DE102019118483A1 (de) * 2019-07-09 2021-01-14 Dr. Ing. H.C. F. Porsche Aktiengesellschaft Kraftfahrzeug, Luftfahrzeug und Verfahren zum Betreiben derselben
US11458988B2 (en) * 2019-09-13 2022-10-04 Ghost Locomotion Inc. Controlling an automated vehicle using visual anchors
US10769457B1 (en) * 2019-09-26 2020-09-08 Pony Al Inc. System and method for detecting airborne objects
WO2021149546A1 (ja) * 2020-01-21 2021-07-29 株式会社Nttドコモ 情報処理装置
JP7391114B2 (ja) * 2020-01-21 2023-12-04 株式会社Nttドコモ 情報処理装置
US11511885B2 (en) 2020-03-13 2022-11-29 Wing Aviation Llc Adhoc geo-fiducial mats for landing UAVs
US11417020B2 (en) * 2020-04-07 2022-08-16 Zebra Technologies Corporation Detection of calibration errors
US11587241B2 (en) 2020-05-29 2023-02-21 Wing Aviation Llc Detection of environmental changes to delivery zone
US20220156681A1 (en) * 2020-11-13 2022-05-19 DropZone.store LLC Aerial delivery location identifier
US20220309932A1 (en) * 2021-03-26 2022-09-29 Honeywell International Inc. Systems and methods for identifying landing zones for unmanned aircraft
KR102358372B1 (ko) * 2021-06-02 2022-02-08 아주대학교 산학협력단 영상의 스테레오 정합 방법 및 장치
NO347027B1 (en) * 2021-06-02 2023-04-24 Kleon Solutions As Method and system for detecting a line above ground from a helicopter
DE102021115139B4 (de) * 2021-06-11 2023-01-19 Spleenlab GmbH Verfahren zum Steuern einer Flugbewegung eines Fluggeräts sowie Fluggerät
CN113420443B (zh) * 2021-06-23 2022-03-01 天津市生态环境科学研究院(天津市环境规划院、天津市低碳发展研究中心) 一种耦合峰值均值因子的恶臭精准模拟方法
US11932394B2 (en) 2021-09-14 2024-03-19 Honeywell International Inc. System and method for localization of safe zones in dense depth and landing quality heatmaps
US20230112666A1 (en) * 2021-10-12 2023-04-13 Zebra Technologies Corporation System and Method for Detecting Calibration of a 3D Sensor
GB2614251A (en) * 2021-12-22 2023-07-05 Hidef Aerial Surveying Ltd Classification, length measurement and height measurement apparatus and method
US20230394814A1 (en) * 2022-06-01 2023-12-07 Wing Aviation Llc Stereo Abort of Unmanned Aerial Vehicle Deliveries
WO2024069700A1 (ja) * 2022-09-26 2024-04-04 株式会社Subaru 空陸両用移動体
US20240169573A1 (en) * 2022-11-18 2024-05-23 Wing Aviation Llc Detection of close encounters with obstacles by aerial vehicles
CN116353828A (zh) * 2023-03-24 2023-06-30 北京航空航天大学 一种无人机空中捕获地面物体的装置和方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001328600A (ja) 2000-05-19 2001-11-27 Fuji Heavy Ind Ltd 着陸地点探索装置、それを用いた飛行体、および着陸地点評価装置
JP2016146118A (ja) 2015-02-09 2016-08-12 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
JP2017501484A (ja) 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd ある環境内で可動物体を制御する方法、ある環境内で可動物体を制御するシステム、ある環境内で無人航空機を制御する方法、及び、ある環境内で無人航空機を制御するシステム
US20170090271A1 (en) 2015-09-24 2017-03-30 Amazon Technologies, Inc. Unmanned aerial vehicle descent

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3833786B2 (ja) * 1997-08-04 2006-10-18 富士重工業株式会社 移動体の3次元自己位置認識装置
US6348918B1 (en) 1998-03-20 2002-02-19 Microsoft Corporation Stereo reconstruction employing a layered approach
US6847728B2 (en) 2002-12-09 2005-01-25 Sarnoff Corporation Dynamic depth recovery from multiple synchronized video streams
EP2430615A2 (en) * 2009-05-08 2012-03-21 Scientific Systems Company Inc. Method and system for visual collision detection and estimation
KR101733131B1 (ko) 2010-12-14 2017-05-10 한국전자통신연구원 3차원 제스처 처리 방법 및 장치
WO2012155121A2 (en) 2011-05-11 2012-11-15 University Of Florida Research Foundation, Inc. Systems and methods for estimating the geographic location at which image data was captured
CN102389361B (zh) * 2011-07-18 2014-06-25 浙江大学 一种基于计算机视觉的盲人户外支援系统
US9098229B2 (en) 2012-05-04 2015-08-04 Aaron Hallquist Single image pose estimation of image capture devices
GB2506411B (en) * 2012-09-28 2020-03-11 2D3 Ltd Determination of position from images and associated camera positions
CN102981616B (zh) 2012-11-06 2017-09-22 中兴通讯股份有限公司 增强现实中对象的识别方法及系统和计算机
CN103522970B (zh) * 2013-05-31 2016-04-27 深圳Tcl工业研究院有限公司 基于机器视觉的车辆行驶安全检测方法和系统
US9514574B2 (en) 2013-08-30 2016-12-06 Qualcomm Incorporated System and method for determining the extent of a plane in an augmented reality environment
US20160122038A1 (en) * 2014-02-25 2016-05-05 Singularity University Optically assisted landing of autonomous unmanned aircraft
DE102014014446A1 (de) * 2014-09-26 2016-03-31 Airbus Defence and Space GmbH Redundantes Bestimmen von Positionsdaten für ein automatisches Landesystem
WO2017100579A1 (en) * 2015-12-09 2017-06-15 Dronesense Llc Drone flight operations
WO2018027338A1 (en) * 2016-08-06 2018-02-15 SZ DJI Technology Co., Ltd. Automatic terrain evaluation of landing surfaces, and associated systems and methods
US10395544B1 (en) * 2016-08-29 2019-08-27 Amazon Technologies, Inc. Electronic landing marker
US10049589B1 (en) * 2016-09-08 2018-08-14 Amazon Technologies, Inc. Obstacle awareness based guidance to clear landing space
US10402646B2 (en) * 2017-09-21 2019-09-03 Amazon Technologies, Inc. Object detection and avoidance for aerial vehicles

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001328600A (ja) 2000-05-19 2001-11-27 Fuji Heavy Ind Ltd 着陸地点探索装置、それを用いた飛行体、および着陸地点評価装置
JP2017501484A (ja) 2014-09-05 2017-01-12 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd ある環境内で可動物体を制御する方法、ある環境内で可動物体を制御するシステム、ある環境内で無人航空機を制御する方法、及び、ある環境内で無人航空機を制御するシステム
JP2016146118A (ja) 2015-02-09 2016-08-12 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
US20170090271A1 (en) 2015-09-24 2017-03-30 Amazon Technologies, Inc. Unmanned aerial vehicle descent

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHAO, H. et al.,A survey of optical flow techniques for UAV navigation applications,2013 International Conference on Unmanned Aircraft Systems,2013年,pp. 710-716
CHOI, J. H. et al.,Tracking an unknown moving target from UAV: Extracting and localizing an moving target with vision sensor based on optical flow,The 5th International Conference on Automation, Robotics and Applications,2011年,pp. 384-389

Also Published As

Publication number Publication date
WO2019060414A1 (en) 2019-03-28
JP2020537217A (ja) 2020-12-17
US20200012842A1 (en) 2020-01-09
EP3685307A1 (en) 2020-07-29
CN111247523A (zh) 2020-06-05
US20190087635A1 (en) 2019-03-21
CN111247523B (zh) 2022-05-10
US11195011B2 (en) 2021-12-07
JP2023085384A (ja) 2023-06-20
US10402646B2 (en) 2019-09-03
EP3685307B1 (en) 2023-09-06

Similar Documents

Publication Publication Date Title
JP7252943B2 (ja) 航空機のための対象物検出及び回避
JP6700482B2 (ja) プロペラの羽根に統合された撮像装置を用いたステレオ距離情報の判定
US11704812B2 (en) Methods and system for multi-target tracking
US10475209B2 (en) Camera calibration
US10599149B2 (en) Salient feature based vehicle positioning
JP6496323B2 (ja) 可動物体を検出し、追跡するシステム及び方法
CN108292140B (zh) 用于自动返航的系统和方法
WO2020113423A1 (zh) 目标场景三维重建方法、系统及无人机
US20200357141A1 (en) Systems and methods for calibrating an optical system of a movable object
EP4058984A1 (en) Geometry-aware instance segmentation in stereo image capture processes
US10896512B1 (en) Determining and controlling propeller speeds using imaging devices
JP6473188B2 (ja) 深度マップを生成するための方法、装置およびプログラム
JP7317684B2 (ja) 移動体、情報処理装置、及び撮像システム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200424

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200317

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210405

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211111

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221128

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230228

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230324

R150 Certificate of patent or registration of utility model

Ref document number: 7252943

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150