JP2020066421A - 離陸時の航空機と滑走路中心線との位置合わせ - Google Patents

離陸時の航空機と滑走路中心線との位置合わせ Download PDF

Info

Publication number
JP2020066421A
JP2020066421A JP2019153772A JP2019153772A JP2020066421A JP 2020066421 A JP2020066421 A JP 2020066421A JP 2019153772 A JP2019153772 A JP 2019153772A JP 2019153772 A JP2019153772 A JP 2019153772A JP 2020066421 A JP2020066421 A JP 2020066421A
Authority
JP
Japan
Prior art keywords
aircraft
line
angle
image
runway
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019153772A
Other languages
English (en)
Other versions
JP7334090B2 (ja
Inventor
スティーヴン・ジー・デイム
G Dame Stephen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2020066421A publication Critical patent/JP2020066421A/ja
Application granted granted Critical
Publication of JP7334090B2 publication Critical patent/JP7334090B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/04Control of altitude or depth
    • G05D1/06Rate of change of altitude or depth
    • G05D1/0607Rate of change of altitude or depth specially adapted for aircraft
    • G05D1/0653Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing
    • G05D1/0661Rate of change of altitude or depth specially adapted for aircraft during a phase of take-off or landing specially adapted for take-off
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C13/00Control systems or transmitting systems for actuating flying-control surfaces, lift-increasing flaps, air brakes, or spoilers
    • B64C13/02Initiating means
    • B64C13/16Initiating means actuated automatically, e.g. responsive to gust detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/13Satellite images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C9/00Adjustable control surfaces or members, e.g. rudders
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/0202Control of position or course in two dimensions specially adapted to aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/97Determining parameters from multiple pictures
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0017Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
    • G08G5/0021Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located in the aircraft
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G5/00Traffic control systems for aircraft, e.g. air-traffic control [ATC]
    • G08G5/0047Navigation or guidance aids for a single aircraft
    • G08G5/0065Navigation or guidance aids for a single aircraft for taking-off
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D2205/00Aircraft with means for ground manoeuvring, such as taxiing, using an auxiliary thrust system, e.g. jet-engines, propellers or compressed air
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/25Fixed-wing aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2201/00UAVs characterised by their flight controls
    • B64U2201/10UAVs characterised by their flight controls autonomous, i.e. by navigating independently from ground or air stations, e.g. by using inertial navigation systems [INS]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02TCLIMATE CHANGE MITIGATION TECHNOLOGIES RELATED TO TRANSPORTATION
    • Y02T50/00Aeronautics or air transport
    • Y02T50/80Energy efficient operational measures, e.g. ground operations or mission management

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Business, Economics & Management (AREA)
  • Geometry (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Medical Informatics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Multimedia (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Image Processing (AREA)

Abstract

【課題】離陸時の航空機と滑走路中心線との位置合わせする方法を提供する。【解決手段】航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスするステップ202と、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスするステップ204と、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定するステップ206と、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定するステップ208と、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面を移動させるステップ210と、を含む。【選択図】図2

Description

本開示は、概して、離陸時に航空機を滑走路中心線と位置合わせするためのコンピューティングデバイス及び方法に関し、より具体的には、画像取り込み及び画像解析を使用して離陸時に航空機を滑走路中心線と位置合わせするためのコンピューティングデバイス及び方法に関する。
無人航空ビークル(unmanned aerial vehicle(UAV))は、国防、警察、学術研究、商業、娯楽などの状況においてますます広く使用されるようになっていく。一部のUAVは、少なくとも部分的に自律的である(例えば、自律型無人航空ビークル(AUAV))。AUAVは、自動離陸などの航法上の課題を提起している。すなわち、搭載されるか又はそうではなくネットワーク接続されたコンピューティングデバイスは多くの場合、AUAVが離陸時に滑走路を進んで加速するときにAUAVを操縦し調整する任務を負う。より具体的には、AUAVは通常、滑走路を進んで加速するときにその(例えば長手方向の)中心線を十分に滑走路の中心線の近くに維持する。
これを達成するための一手法は、ニューラルネットワークその他の機械学習技術を使用することであるが、これらの技術は通常、コンピューティングデバイスが運航に先立って何千もの画像を解析することによってそれ自体を訓練することを必要とし、通常、運航時に高水準の計算処理リソースを必要とし、滑走路が非典型的な外観を有する場合に滑走路中心線を誤認する可能性がある。よって、離陸時に航空機を滑走路中心線と位置合わせするより効率的で確実な方法が求められている。
本開示の一態様は、1つ又は複数のプロセッサーと、1つ又は複数のプロセッサーによって実行されると、コンピューティングデバイスに、離陸時に航空機を滑走路の中心線と位置合わせするための機能を実行させる命令を格納したコンピューター読み取り可能な媒体と、を含む、コンピューティングデバイスであり、機能は、航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスすることと、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスすることと、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定することと、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定することと、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面を移動させることと、を含む。
本開示の別の態様は、コンピューティングデバイスによって実行されると、コンピューティングデバイスに、離陸時に航空機を滑走路の中心線と位置合わせするための機能を実行させる命令を格納した非一時的なコンピューター読み取り可能な媒体であり、機能は、航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスすることと、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスすることと、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定することと、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定することと、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面を移動させることと、を含む。
本開示の別の態様は、離陸時に航空機を滑走路の中心線と位置合わせするための方法であり、本方法は、航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスするステップと、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスするステップと、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定するステップと、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定するステップと、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面を移動させるステップと、を含む。
本明細書に記載される量又は測定値に関する「約(about)」又は「実質的に(substantially)」という用語は、記載の特性、パラメータ、又は値が厳密に達成される必要はないが、例えば、公差、測定誤差、測定精度限界、及び当業者に公知の他の要因を含む、偏差や変動が、その特性が提供することを意図された効果を妨げない量で発生し得ることを意味する。
以上で論じた特徴、機能、及び利点は、様々な例において独立して達成することができ、又は以下の説明及び図面を参照すればそのさらなる詳細を理解できるさらに別の例において組み合わされ得る。
例示的な例を特徴付けると考えられる新規の特徴は添付の特許請求の範囲に記載されている。しかしながら、例示的な例、並びにその好ましい使用形式、さらなる目的及び説明は、本開示の例示的な例の以下の詳細な説明を添付の図と併せて読めば最もよく理解されるであろう。
一例による、コンピューティングデバイスの概略図である。 一例による、方法のフローチャートである。 一例による、航空機に搭載されたそれぞれのカメラで取り込まれた画像を示す図である。 一例による、航空機の概略的俯瞰図である。 一例による、航空機に搭載されたそれぞれのカメラで取り込まれた画像を示す図である。 一例による、航空機に搭載されたそれぞれのカメラで取り込まれた画像を示す図である。 一例による、航空機に搭載されたそれぞれのカメラで取り込まれた画像を示す図である。 一例による、航空機に搭載されたそれぞれのカメラで取り込まれた画像を示す図である。 一例による、航空機の概略的俯瞰図である。 一例による、航空機に搭載されたそれぞれのカメラで取り込まれた画像を示す図である。 一例による、(i)滑走路上の航空機の位置に関連した第1の角度と第2の角度との間の差の大きさと(ii)航空機の操縦翼面の偏角の大きさとの関係を示す図である。
上述したように、離陸時に航空機(例えば、有人航空機、UAV、AUAV)を滑走路中心線と位置合わせするより効率的で確実な方法が求められている。したがって、本開示はそのような方法及びコンピューティングデバイスを含む。
各例内で、コンピューティングデバイスは、航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスし、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスすることができる。例えば、コンピューティングデバイスは、第1のカメラに航空機の左舷(例えば翼)から第1の画像を取り込ませ、第2のカメラに航空機の右舷(例えば翼)から第2の画像を取り込ませることができる。第1の画像と第2の画像とは通常、離陸時に同時に取り込まれる。第1のカメラと第2のカメラとは通常、航空機に対して前向きになるように航空機に搭載されることになる。
次に、コンピューティングデバイスは、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定することができる。例えば、コンピューティングデバイスは、第1の画像内の滑走路の中心線と第1の画像内の水平線との間の第1の角度を決定することができる。他の例では、第1の標識線は滑走路の左境界線又は右境界線の形を取ることができ、第1の基準線は水平線に平行な任意の線の形を取ることができる。
コンピューティングデバイスは第1の標識線を、第1の画像の複数の画素の線の中から、第1の標識線の(例えば既知の)色に最も近い平均色を有する画素の線を識別することによって識別することができる。またコンピューティングデバイスは第1の基準線を、第1の画像の複数の画素の線の中から、空に対応する色を有する第1の画像の領域と地面及び/又は滑走路に対応する色を有する第1の画像の領域との境界を定義する画素の線を識別することによって識別することもできる。
またコンピューティングデバイスは、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定することもできる。例えば、コンピューティングデバイスは、第2の画像内の滑走路の中心線と第2の画像内の水平線との間の第2の角度を決定することができる。他の例では、第2の標識線は滑走路の左境界線又は右境界線(例えば、第1の標識線ではない境界線)の形を取ることができ、第2の基準線は水平線に平行な任意の線の形を取ることができる。
コンピューティングデバイスは第2の標識線を、第2の画像の複数の画素の線の中から、第2の標識線の(例えば既知の)色に最も近い平均色を有する画素の線を識別することによって識別することができる。またコンピューティングデバイスは第2の基準線を、第2の画像の複数の画素の線の中から、空に対応する色を有する第2の画像の領域と地面及び/又は滑走路に対応する色を有する第2の画像の領域との境界を定義する画素の線を識別することによって識別することもできる。
次に、コンピューティングデバイスは、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面(例えば、方向舵)を移動させることができる。コンピューティングデバイスは一般に、第1の角度と第2の角度との間の差を決定し、その差を使用して、航空機が前方へ移動しているときに航空機を滑走路の中心線のより近くに移動させるように作用する、航空機の操縦翼面と中心線との間の偏角を決定する。
本明細書で開示される方法は、離陸時に航空機を自律的に制御する従来の方法と比較して、開示の方法は一般に、計算処理リソースの消費がより少なく、面倒な運航前の較正がより少なく、より誤りを起こしにくいため、有利になることができる。
本開示の実施態様は、コンピューターネットワーク及びコンピューティングデバイス、例えば、離陸時に航空機を自律制御するために使用されるコンピューティングデバイスに特有の技術的改善を提供する。
コンピューティングデバイスに特有に技術的問題、例えば、複数のソースに由来する大量の複雑なデータの管理及び使用、並びにそれらと関連付けられる非効率性の全部又は一部を、本開示の実施態様によって解決することができる。例えば、本開示の実施態様は、運航前に参照画像でのコンピューティングデバイスの「訓練」に費やされる時間をなくすことができ、運航時に消費される計算処理リソースの量を減らすことができる。よって、本開示の実施態様は、離陸時に航空機を自律制御するためのより効率の低い方法及びシステムを実施する際のコスト及び複雑さを低減させることができる。別の例として、本開示の実施態様は、滑走路線識別の精度及び信頼度を高める。
よって本開示の実施態様は、コンピューティングデバイスが離陸時に航空機を制御する方法に新規の効率的な改善を導入することができ、さらには、関連付けられたデータが問題の診断及び解決に使用される方法において新規の効率的な改善を容易にする。
次に開示の例について、添付の図面を参照して以下でさらに十分に説明する。添付の図面には、開示の例の全部ではなく一部が示されている。実際、いくつかの異なる例を示すことが可能であり、それらは本明細書に記載される例に限定されると解釈されるべきではない。むしろ、これらの例は、本開示が十分かつ完全であり、当業者に本開示の範囲を十分に伝えるように記載されている。
次に図1を参照すると、コンピューティングデバイス100が示されている。いくつかの例では、図1に示される構成要素は、複数のコンピューティングデバイスに分散され得る。しかしながら、例示のために、構成要素はコンピューティングデバイス100の一部として図示され、説明されている。コンピューティングデバイス100は、モバイル機器(携帯電話など)、デスクトップコンピューター、ラップトップコンピューター、タブレットコンピューター、サーバー、複数のサーバーのネットワーク、又は本明細書に記載される機能を実行するように構成することができる同様の(1つ若しくは複数の)デバイスであるか、又はそれらを含み得る。
図1に示されるように、コンピューティングデバイス100は、1つ又は複数のプロセッサー102と、非一時的なコンピューター読み取り可能な媒体104と、通信インターフェース106と、ディスプレイ108と、ユーザーインターフェース110とを含む。図1に示される構成要素は、システムバス、ネットワーク、又は他の接続機構112によって相互にリンクされ得る。
1つ又は複数のプロセッサー102は、非一時的なコンピューター読み取り可能な媒体104に結合された、マイクロプロセッサー、デジタル信号プロセッサー、マルチコアプロセッサーなどの任意の種類の(1つ又は複数の)プロセッサーとすることができる。非一時的なコンピューター読み取り可能な媒体104は、一時的又は永続的にデータ又はプログラムを格納するために使用されるデバイスの中でも特に、ランダム・アクセス・メモリ(RAM)や、ダイナミック・ランダム・アクセス・メモリ(DRAM)や、スタティック・ランダム・アクセス・メモリ(SRAM)のような揮発性メモリ、又は読取り専用メモリ(ROM)や、フラッシュメモリや、磁気ディスク若しくは光ディスクや、コンパクトディスク読取り専用メモリ(CD−ROM)のような不揮発性メモリなどの任意の種類のメモリとすることができる。
加えて、非一時的なコンピューター読み取り可能な媒体104は、命令114を格納するように構成することができる。命令114は、コンピューティングデバイス100に本明細書に記載される機能のいずれかを行わせるために1つ又は複数のプロセッサー102によって実行され得る。
通信インターフェース106は、コンピューティングデバイス100内及び/又はコンピューティングデバイス100と1つ若しくは複数の他のデバイスとの間の通信を可能にするハードウェアを含むことができる。ハードウェアは、例えば、送信機、受信機、及びアンテナを含むことができる。通信インターフェース106は、1つ又は複数の有線通信プロトコル又は無線通信プロトコルに従って、1つ又は複数の他のデバイスとの通信を容易にするように構成することができる。例えば、通信インターフェース106は、1つ又は複数の米国電気電子技術者協会(Institute of Electrical and Electronics Engineers(IEEE))801.11規格、ZigBee規格、Bluetooth(登録商標)規格などといった1つ又は複数の無線通信規格に従って、コンピューティングデバイス100のための無線データ通信を容易にするように構成することができる。別の例として、通信インターフェース106は、1つ又は複数の他のデバイスとの有線データ通信を容易にするように構成することもできる。
ディスプレイ108は、データを表示する任意の種類の表示コンポーネントとすることができる。一例として、ディスプレイ108はタッチスクリーンディスプレイを含むことができる。別の例として、ディスプレイ108は、液晶ディスプレイ(LCD)や発光ダイオード(LED)ディスプレイなどのフラットパネルディスプレイを含むこともできる。
ユーザーインターフェース110は、コンピューティングデバイス100にデータ及び制御信号を提供するために使用される1つ又は複数のハードウェアを含むことができる。例えば、ユーザーインターフェース110は、可能な種類のユーザー入力装置の中でも特に、マウスやポインティングデバイス、キーボードやキーパッド、マイクロフォン、タッチパッド、又はタッチスクリーンを含むことができる。一般に、ユーザーインターフェース110は、オペレーターに、コンピューティングデバイス100によって提供された(例えばディスプレイ108によって表示された)グラフィカル・ユーザー・インターフェース(GUI)と対話させることができる。
コンピューティングデバイス100は通常、航空機10の一部である。航空機10(例えば、無人航空ビークル)は、第1のカメラ304と、第2のカメラ308と、操縦翼面322とをさらに含む。
第1のカメラ304と第2のカメラ308とは各々通常、可視光カメラの形を取るが、他の形も可能である。操縦翼面322は方向舵の形を取ることができるが、フラップ、補助翼、昇降舵なども含み得る。
図2は、離陸時に航空機を滑走路の中心線と位置合わせするための方法200のフローチャートである。図3を参照すると、方法200は、コンピューティングデバイス100が離陸時に航空機10を滑走路30の中心線20と位置合わせすることを含むことができる。
図2を参照すると、ステップ202で方法200は、航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスするステップを含む。図3及び図4を参照すると、コンピューティングデバイス100は、航空機10の第1の側12(例えば、左舷翼)に搭載された第1のカメラ304によって取り込まれた第1の画像302にアクセスすることができる。いくつかの例では、コンピューティングデバイス100は第1のカメラ304に第1の画像302を取り込ませる。
図2を参照すると、ステップ204で方法200は、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスするステップを含む。図3及び図4を参照すると、コンピューティングデバイス100は、航空機10の第2の側14(例えば、右舷翼)に搭載された第2のカメラ308によって取り込まれた第2の画像306にアクセスすることができる。いくつかの例では、コンピューティングデバイス100は、(第1の画像302の取り込みと同時に)第2のカメラ308に第2の画像306を取り込ませる。図4を参照すると、第1のカメラ304と第2のカメラ308とは、通常、航空機10の中心線332に対して実質的に対称に位置決めされており、通常、中心線332に平行な光軸を各々有するように位置決めされている。
図2を参照すると、ステップ206で方法200は、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定するステップを含む。図3を参照すると、コンピューティングデバイス100は、第1の画像302内の滑走路30上の第1の標識線312と第1の画像302内の第1の基準線314との間の第1の角度310を決定することができる。図3の例では、第1の標識線312は滑走路30の中心線20であり、第1の基準線314は(例えば空と地面とが接する)水平線328である。他の例(例えば後述する例)では、第1の標識線312は異なる形を取る。第1の基準線314は、代替として、第1の画像302内で水平線328と実質的に平行な任意の線の形を取ることもできる。
図3に示されるように、第1の基準線314は直角三角形331の隣辺を形成し、第1の標識線312は第1の角度310に対して直角三角形331の斜辺を形成する。図3には直角三角形331の対辺333が示されているが、これは、第1の基準線314と直角を成し、第1の基準線314と第1の標識線312とにそれぞれ端点を有する任意の線分の形を取ることができる。
いくつかの例では、コンピューティングデバイス100は、対辺333の長さを第1の標識線312(例えば直角三角形331の斜辺)の一部分の長さで割った商の逆正弦を計算することによって第1の角度310を決定する。
いくつかの例では、第1の角度310を決定する前に、コンピューティングデバイス100は、第1の標識線312と、第3の標識線324(例えば左境界線)と、第4の標識線326(例えば右境界線)とが第1の画像302内の水平線328において又は水平線328を越えて一点に集まると判断することによって第1の標識線312を識別する。加えて、コンピューティングデバイス100は、第3の標識線324が第1の標識線312の左にあり、第1の標識線312が第4の標識線326の左にあると判断したことに基づいて、第1の標識線312、第3の標識線324、及び第4の標識線326を識別することもできる。
例えば図5を参照すると、コンピューティングデバイス100は第2の標識線318(例えば右境界線)を、第2の画像306の複数の画素の線342の中から、第2の標識線318の(例えば既知の)色に最も近い平均色を有する画素の線を識別することによって識別することができる。図3を参照すると、コンピューティングデバイス100は第1の標識線312を、第1の画像302の複数の画素の線の中から、第1の標識線312の(例えば既知の)色に最も近い平均色を有する画素の線を識別することによって同様に識別することができる。すなわち、コンピューティングデバイス100は、画素の線を解析して、それぞれの(例えば、赤緑青(RGB)カラースケール上の)平均画素色を決定し、標識線の予期される色に最も近い平均画素色を有する画素の線が確かにその標識線であると判断することができる。
図2を参照すると、ステップ208で方法200は、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定するステップを含む。例えば図3を参照すると、コンピューティングデバイス100は、第2の画像306内の滑走路30上の第2の標識線318と第2の画像306内の第2の基準線320との間の第2の角度316を決定することができる。図3の例では、第2の標識線318は滑走路30の中心線20であり、第2の基準線320は水平線328である。他の例(例えば後述する例)では、第2の標識線は異なる形を取る。第2の基準線320は、代替として、第2の画像306内で水平線328と実質的に平行な任意の線の形を取ることもできる。
図3に示されるように、第2の基準線320は直角三角形337の隣辺を形成し、第2の標識線318は第2の角度316に対して直角三角形337の斜辺を形成する。図3には直角三角形337の対辺335が示されているが、これは、第2の基準線320と直角を成し、第2の基準線320と第2の標識線318とにそれぞれ端点を有する任意の線分の形を取ることができる。
いくつかの例では、コンピューティングデバイス100は、対辺335の長さを第2の標識線318(例えば直角三角形337の斜辺)の一部分の長さで割った商の逆正弦を計算することによって第2の角度316を決定する。
いくつかの例では、第2の角度316を決定する前に、コンピューティングデバイス100は、第2の標識線318と、第3の標識線324(例えば左境界線)と、第4の標識線326(例えば右境界線)とが第2の画像306内の水平線328において又は水平線328を越えて一点に集まると判断することによって第2の標識線318を識別する。加えて、コンピューティングデバイス100は、第3の標識線324が第2の標識線318の左にあり、第2の標識線318が第4の標識線326の左にあると判断したことに基づいて、第2の標識線318、第3の標識線324、及び第4の標識線326を識別することもできる。
図6に、第1の標識線312が滑走路30の左境界線の形を取り、第2の標識線318が滑走路30の右境界線の形を取る、本開示のさらに別の例を示す。よって、コンピューティングデバイス100は、ステップ206に従って、第1の画像302内の第1の標識線312と第1の画像302内の第1の基準線314との間の第1の角度310を決定することができる。
図6に示されるように、第1の基準線314は直角三角形の隣辺を形成し、第1の標識線312は第1の角度310に対して直角三角形の斜辺を形成する。図6には直角三角形の対辺が示されていないが、これは、第1の基準線314と直角を成し、第1の基準線314と第1の標識線312とにそれぞれ端点を有する任意の線分の形を取ることができる。
いくつかの例では、第1の角度310を決定する前に、コンピューティングデバイス100は、第1の標識線312と、中心線20と、第4の標識線326(例えば右境界線)とが第1の画像302内の水平線328において又は水平線328を越えて一点に集まると判断することによって第1の標識線312を識別する。加えて、コンピューティングデバイス100は、第1の標識線312が中心線20の左にあり、中心線20が第4の標識線326の左にあると判断したことに基づいて、第1の標識線312、中心線20、及び第4の標識線326を識別することもできる。
図2に戻って、ステップ208に従い、図6に示されるように、コンピューティングデバイス100は、第2の画像306内の第2の標識線318と第2の画像306内の第2の基準線320との間の第2の角度316を決定することができる。
図6に示されるように、第2の基準線320は直角三角形の隣辺を形成し、第2の標識線318は第2の角度316に対して直角三角形の斜辺を形成する。図6には直角三角形の対辺が示されていないが、これは、第2の基準線320と直角を成し、第2の基準線320と第2の標識線318とにそれぞれ端点を有する任意の線分の形を取ることができる。
いくつかの例では、第2の角度316を決定する前に、コンピューティングデバイス100は、第2の標識線318と、中心線20と、第3の標識線324(例えば左境界線)とが第2の画像306内の水平線328において又は水平線328を越えて一点に集まると判断することによって第2の標識線318を識別する。加えて、コンピューティングデバイス100は、第2の標識線318が中心線20の右にあり、中心線20が第3の標識線324の右にあると判断したことに基づいて、第2の標識線318、中心線20、及び第3の標識線324を識別することもできる。
図7に、第1の標識線312が滑走路30の右境界線の形を取り、第2の標識線318が滑走路30の左境界線の形を取る、本開示のさらに別の例を示す。よって、コンピューティングデバイス100は、ステップ206に従って、第1の画像302内の第1の標識線312と第1の画像302内の第1の基準線314との間の第1の角度310を決定することができる。
図7に示されるように、第1の基準線314は直角三角形の隣辺を形成し、第1の標識線312は第1の角度310に対して直角三角形の斜辺を形成する。図7には直角三角形の対辺が示されていないが、これは、第1の基準線314と直角を成し、第1の基準線314と第1の標識線312とにそれぞれ端点を有する任意の線分の形を取ることができる。
いくつかの例では、第1の角度310を決定する前に、コンピューティングデバイス100は、第1の標識線312と、中心線20と、第3の標識線324(例えば左境界線)とが第1の画像302内の水平線328において又は水平線328を越えて一点に集まると判断することによって第1の標識線312を識別する。加えて、コンピューティングデバイス100は、第1の標識線312が中心線20の右にあり、中心線20が第3の標識線324の右にあると判断したことに基づいて、第1の標識線312、中心線20、及び第3の標識線324を識別することもできる。
図2に戻って、ステップ208に従い、図7に示されるように、コンピューティングデバイス100は、第2の画像306内の第2の標識線318と第2の画像306内の第2の基準線320との間の第2の角度316を決定することができる。
図7に示されるように、第2の基準線320は直角三角形の隣辺を形成し、第2の標識線318は第2の角度316に対して直角三角形の斜辺を形成する。図7には直角三角形の対辺が示されていないが、これは、第2の基準線320と直角を成し、第2の基準線320と第2の標識線318とにそれぞれ端点を有する任意の線分の形を取ることができる。
いくつかの例では、第2の角度316を決定する前に、コンピューティングデバイス100は、第2の標識線318と、中心線20と、第4の標識線326(例えば右境界線)とが第2の画像306内の水平線328において又は水平線328を越えて一点に集まると判断することによって第2の標識線318を識別する。加えて、コンピューティングデバイス100は、第2の標識線318が中心線20の左にあり、中心線20が第4の標識線326の左にあると判断したことに基づいて、第2の標識線318、中心線20、及び第4の標識線326を識別することもできる。
図2を参照すると、ステップ210で方法200は、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面を移動させるステップを含む。例えば図8及び図9を参照すると、コンピューティングデバイス100は、第1の角度310と第2の角度316とに基づき、(航空機10の前方移動中に)航空機10が滑走路30の中心線20のより近くに移動するように、操縦翼面322を移動させることができる。
いくつかの例では、コンピューティングデバイス100は、第1の角度310と第2の角度316との間の差を決定し、この差に基づいて操縦翼面322を移動させることができる。図8に、第1の角度310引く第2の角度316の差が負になるように第1の角度310が第2の角度316より小さい例を示す。この例では、航空機は中心線20に対して左にずれている(図9参照)。よって、コンピューティングデバイス100は、操縦翼面322と中心線332との間の偏角330を用いて操縦翼面322を中心線332の右に移動させることができる。この状況では、偏角330を第2の角度316引く第1の角度310の差に対して単調に増加する関数によって定義することができる。すなわち、第2の角度316引く第1の角度310の差が増加するにつれて、図9の偏角330も増加する。
図11に、(i)第1の角度310と第2の角度316との間の差(例えば、|θ1−θ2|)の大きさと(ii)偏角330の大きさ(例えば、|θd|)との1つの可能な関係を示す。約90度未満の|θ1−θ2|の値(例えば、点339)では、偏角330の大きさは|θ1−θ2|におおよそ比例する。約90度より大きい|θ1−θ2|の値では、偏角330の大きさは図11に示されるようにやや非線形になる。
図10に、第1の角度310引く第2の角度316の差が正になるように第1の角度310が第2の角度316より大きい例を示す。この例では、航空機は中心線20に対して右にずれている(図4参照)。よって、コンピューティングデバイス100は、操縦翼面322と中心線332との間の偏角330を用いて操縦翼面322を中心線332の左に移動させることができる。この状況では、偏角330を第1の角度310引く第2の角度316の差に対して単調に増加する関数によって定義することができる。すなわち、第1の角度310引く第2の角度316の差が増加するにつれて、図4の偏角330も増加する。
コンピューティングデバイス100は、第1の角度310と第2の角度316とに基づいて航空機が滑走路30の中心線20からずれている方向334を決定することができる。例えば図10を参照すると、コンピューティングデバイス100は、第1の角度310は第2の角度316より大きいと判断し、次いで、航空機10は中心線20に対して方向334に(例えば右に)ずれていると判断することができる。この状況では、コンピューティングデバイス100は、図4に示されるように操縦翼面322を方向336に(例えば左に)移動させることができる。例えば図8を参照すると、コンピューティングデバイス100は、第1の角度310は第2の角度316より小さいと判断し、次いで、航空機10は中心線20に対して方向334に(例えば左に)ずれていると判断することができる。この状況では、コンピューティングデバイス100は、図9に示されるように操縦翼面322を方向336に(例えば右に)移動させることができる。
図4及び図9の例を参照すると、コンピューティングデバイス100は、第1の角度310と第2の角度316とに基づいて航空機10が滑走路30の中心線20からずれている距離338を決定することができる。例えば図4では、コンピューティングデバイス100は、第1の角度310と第2の角度316との間の差に基づいて航空機10は中心線20の右にずれていると判断することができる。第1の角度310引く第2の角度316の差が大きいほど、図4の距離338も大きい。よって、コンピューティングデバイス100は、距離338に対して単調に増加する関数によって定義される偏角330を形成するように操縦翼面322を左に移動させることができる。
例えば図9では、コンピューティングデバイス100は、第1の角度310と第2の角度316との間の差に基づいて航空機10は中心線20の左にずれていると判断することができる。第2の角度316引く第1の角度310の差が大きいほど、図9の距離338も大きい。よって、コンピューティングデバイス100は、距離338に対して単調に増加する関数によって定義される偏角330を形成するように操縦翼面322を右に移動させることができる。
いくつかの例では、コンピューティングデバイス100は航空機10の機首方位を解決することができる。例えば図4及び図9を参照すると、航空機10の機首方位340が中心線20からそれる方向を指し示す場合、コンピューティングデバイス100は偏角330を増やすことができる。対照的に、航空機10の機首方位340が中心線20の方向を指し示す場合、コンピューティングデバイス100は偏角330を減らすことができる。
いくつかの例では、コンピューティングデバイス100は、航空機10が滑走路30を進むときに航空機10の速度を解決することができる。例えば、航空機10の速度が低い場合、コンピューティングデバイス100は偏角330を増やすことができる。航空機10がより高速の場合、コンピューティングデバイス100は偏角330を減らすことができる。
いくつかの例では、コンピューティングデバイス100は、滑走路上に標された特定の線が例えば雪のために不明瞭であると判断することができる。例えば図3を参照すると、コンピューティングデバイス100が、滑走路30の左境界線又は右境界線が不明瞭であると判断した場合、コンピューティングデバイス100は、第1の画像302内で第1の標識線312の形を取り、第2の画像306内で第2の標識線318の形を取る中心線20を用いて上記の方法を行うことができる。例えば図6を参照すると、コンピューティングデバイス100が、滑走路30の中心線20が不明瞭であると判断した場合、コンピューティングデバイス100は、第1の標識線312の形を取る滑走路30の左境界線と第2の標識線318の形を取る右境界線とを用いて上記の方法を行うことができる。別の例として図7を参照すると、コンピューティングデバイス100が、滑走路30の中心線20が不明瞭であると判断した場合、コンピューティングデバイス100は、第1の標識線312の形を取る滑走路30の右境界線と第2の標識線318の形を取る左境界線とを用いて上記の方法を行うことができる。
よって本開示の各例は、以下に記載される列挙項目(EC)のうちの1つに関連し得る。
EC1は、1つ又は複数のプロセッサーと、1つ又は複数のプロセッサーによって実行されると、コンピューティングデバイスに、離陸時に航空機を滑走路の中心線と位置合わせするための機能を実行させる命令を格納したコンピューター読み取り可能な媒体と、を含む、コンピューティングデバイスであり、機能は、航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスすることと、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスすることと、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定することと、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定することと、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面を移動させることと、を含む。
EC2はEC1に記載のコンピューティングデバイスであり、機能は、第1の角度を決定する前に、第1の標識線と、第3の標識線と、第4の標識線とが第1の画像内の水平線において又は水平線を越えて一点に集まると判断することによって第1の標識線を識別することをさらに含む。
EC3はEC1又は2に記載のコンピューティングデバイスであり、第1の基準線は第1の角度に対して直角三角形の隣辺を形成し、第1の標識線は直角三角形の斜辺を形成する。
EC4はEC1〜3のいずれか一項に記載のコンピューティングデバイスであり、第1の標識線は滑走路の中心線であり、第2の標識線も滑走路の中心線である。
EC5はEC1〜3のいずれか一項に記載のコンピューティングデバイスであり、航空機の第1の側は航空機の左舷であり、航空機の第2の側は航空機の右舷であり、第1の標識線は滑走路の左境界線であり、第2の標識線は滑走路の右境界線である。
EC6はEC1〜3のいずれか一項に記載のコンピューティングデバイスであり、航空機の第1の側は航空機の左舷であり、航空機の第2の側は航空機の右舷であり、第1の標識線は滑走路の右境界線であり、第2の標識線は滑走路の左境界線である。
EC7はEC1〜6のいずれか一項に記載のコンピューティングデバイスであり、第1の基準線は第1の画像内で水平線に実質的に平行であり、第2の基準線は第2の画像内で水平線に実質的に平行である。
EC8はEC1〜7のいずれか一項に記載のコンピューティングデバイスであり、第1の画像と第2の画像とは実質的に同時に取り込まれる。
EC9はEC1〜8のいずれか一項に記載のコンピューティングデバイスであり、航空機は無人航空ビークルである。
EC10はEC1〜9のいずれか一項に記載のコンピューティングデバイスであり、第1のカメラと第2のカメラとは航空機の中心線に対して実質的に対称に位置決めされている。
EC11はEC1〜10のいずれか一項に記載のコンピューティングデバイスであり、操縦翼面は方向舵である。
EC12はEC1〜11のいずれか一項に記載のコンピューティングデバイスであり、機能は、第1の角度と第2の角度との間の差を決定することをさらに含み、操縦翼面を移動させることは、差に基づいて操縦翼面を移動させることを含む。
EC13はEC12に記載のコンピューティングデバイスであり、差に基づいて操縦翼面を移動させることは、操縦翼面と航空機の中心線との間の偏角を形成するように操縦翼面を移動させることを含み、偏角は、差に対して単調に増加する関数によって定義される。
EC14はEC1〜13のいずれか一項に記載のコンピューティングデバイスであり、機能は、第1の角度と第2の角度とに基づいて航空機が滑走路の中心線からずれている方向を決定することをさらに含み、操縦翼面を移動させることは、操縦翼面が、航空機の中心線に対して、決定された方向と反対の方向にずれるように操縦翼面を移動させることを含む。
EC15はEC1〜14のいずれか一項に記載のコンピューティングデバイスであり、機能は、第1の角度と第2の角度とに基づいて航空機が滑走路の中心線からずれている距離を決定することをさらに含み、操縦翼面を移動させることは、操縦翼面と航空機の中心線との間の偏角を形成するように操縦翼面を移動させることを含み、偏角は、距離に対して単調に増加する関数によって定義される。
EC16はEC1〜15のいずれか一項に記載のコンピューティングデバイスであり、機能は、第1の角度と第2の角度とに基づいて航空機の機首方位(340)を決定することをさらに含み、操縦翼面を移動させることは、機首方位に基づいて操縦翼面を移動させることを含む。
EC17はEC1〜16のいずれか一項に記載のコンピューティングデバイスであり、機能は、第1の画像の複数の画素の線の中から、第1の標識線の色に最も近い平均色を有する画素の線を識別することによって第1の標識線を識別することをさらに含む。
EC18はEC1〜17のいずれか一項に記載のコンピューティングデバイスであり、機能は、第1の画像内の滑走路上の第3の標識線が不明瞭であると判断することをさらに含み、第1の角度を決定することは、第1の画像内の滑走路上の第3の標識線が不明瞭であると判断したことに基づいて第1の角度を決定することを含む。
EC19は、コンピューティングデバイスによって実行されると、コンピューティングデバイスに、離陸時に航空機を滑走路の中心線と位置合わせするための機能を実行させる命令を格納した非一時的なコンピューター読み取り可能な媒体であり、機能は、航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスすることと、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスすることと、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定することと、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定することと、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面を移動させることと、を含む。
EC20は、離陸時に航空機を滑走路の中心線と位置合わせするための方法であり、本方法は、航空機の第1の側に搭載された第1のカメラによって取り込まれた第1の画像にアクセスするステップと、第1の側と反対の航空機の第2の側に搭載された第2のカメラによって取り込まれた第2の画像にアクセスするステップと、第1の画像内の滑走路上の第1の標識線と第1の画像内の第1の基準線との間の第1の角度を決定するステップと、第2の画像内の滑走路上の第2の標識線と第2の画像内の第2の基準線との間の第2の角度を決定するステップと、第1の角度と第2の角度とに基づき、航空機が滑走路の中心線のより近くに移動するように、航空機の操縦翼面を移動させるステップと、を含む。
様々な有利な構成の説明は例示と説明のために提示されており、網羅的であることも開示された形態の例に限定することも意図されていない。当業者には多くの改変形態及び変形形態が明らかであろう。さらに、様々な有利な例は他の有利な例と比較して異なる利点を説明している場合がある。選択された1つ又は複数の例は、各例の原理、実際の応用を説明し、当業者が、企図される特定の用途に適する様々な改変を伴った様々な例について本開示を理解することを可能にするために選択され、記載されている。
10 航空機
12 第1の側
14 第2の側
20 中心線
30 滑走路
100 コンピューティングデバイス
102 プロセッサー
104 コンピューター読み取り可能な媒体
106 通信インターフェース
108 ディスプレイ
110 ユーザーインターフェース
112 システムバス、ネットワーク、又は他の接続機構
114 命令
200 方法
302 第1の画像
304 第1のカメラ
306 第2の画像
308 第2のカメラ
310 第1の角度
312 第1の標識線
314 第1の基準線
316 第2の角度
318 第2の標識線
320 第2の基準線
322 操縦翼面
324 第3の標識線
326 第4の標識線
328 水平線
330 偏角
331 直角三角形
332 中心線
333 直角三角形331の対辺
334 方向
335 直角三角形337の対辺
336 方向
337 直角三角形
338 距離
339 点
340 航空機の機首方位
342 画素の線

Claims (15)

  1. コンピューティングデバイス(100)であって、
    1つ又は複数のプロセッサー(102)と、
    前記1つ又は複数のプロセッサーによって実行されるとき、前記コンピューティングデバイスに、離陸時に航空機(10)を滑走路(30)の中心線(20)と位置合わせするための機能を実行させる命令(114)を格納したコンピューター読み取り可能な媒体(104)であって、前記機能が、
    前記航空機の第1の側(12)に搭載された第1のカメラ(304)によって取り込まれた第1の画像(302)にアクセスすること(202)と、
    前記第1の側と反対の前記航空機の第2の側(14)に搭載された第2のカメラ(308)によって取り込まれた第2の画像(306)にアクセスすること(204)と、
    前記第1の画像内の前記滑走路上の第1の標識線(312)と前記第1の画像内の第1の基準線(314)との間の第1の角度(310)を決定すること(206)と、
    前記第2の画像内の前記滑走路上の第2の標識線(318)と前記第2の画像内の第2の基準線(320)との間の第2の角度(316)を決定すること(208)と、
    前記第1の角度と前記第2の角度とに基づき、前記航空機が前記滑走路の前記中心線のより近くに移動するように、前記航空機の操縦翼面(322)を移動させること(210)と、
    を含む、コンピューター読み取り可能な媒体(104)と、
    を含む、コンピューティングデバイス(100)。
  2. 前記機能が、前記第1の角度を決定する前に、前記第1の標識線と、第3の標識線(324)と、第4の標識線(326)とが前記第1の画像内の水平線(328)において又は前記水平線(328)を越えて一点に集まると判断することによって前記第1の標識線を識別することをさらに含む、請求項1に記載のコンピューティングデバイス。
  3. 前記第1の基準線が前記第1の角度に対して直角三角形の隣辺を形成し、
    前記第1の標識線が前記直角三角形の斜辺を形成する、
    請求項1に記載のコンピューティングデバイス。
  4. 前記第1の標識線が前記滑走路の前記中心線であり、
    前記第2の標識線も前記滑走路の前記中心線である、
    請求項1に記載のコンピューティングデバイス。
  5. 前記航空機の前記第1の側が前記航空機の左舷であり、
    前記航空機の前記第2の側が前記航空機の右舷であり、
    前記第1の標識線が前記滑走路の左境界線であり、
    前記第2の標識線が前記滑走路の右境界線である、
    請求項1に記載のコンピューティングデバイス。
  6. 前記航空機の前記第1の側が前記航空機の左舷であり、
    前記航空機の前記第2の側が前記航空機の右舷であり、
    前記第1の標識線が前記滑走路の右境界線であり、
    前記第2の標識線が前記滑走路の左境界線である、
    請求項1に記載のコンピューティングデバイス。
  7. 前記第1の基準線が前記第1の画像内で水平線に実質的に平行であり、
    前記第2の基準線が前記第2の画像内で前記水平線に実質的に平行である、
    請求項1に記載のコンピューティングデバイス。
  8. 前記第1の画像と前記第2の画像とが実質的に同時に取り込まれる、請求項1に記載のコンピューティングデバイス。
  9. 前記航空機が無人航空ビークルである、請求項1に記載のコンピューティングデバイス。
  10. 前記第1のカメラと前記第2のカメラとが前記航空機の中心線(332)に対して実質的に対称に位置決めされている、請求項1に記載のコンピューティングデバイス。
  11. 前記操縦翼面が方向舵である、請求項1に記載のコンピューティングデバイス。
  12. 前記機能が、前記第1の角度と前記第2の角度との間の差を決定することをさらに含み、前記操縦翼面を移動させることが、前記差に基づいて前記操縦翼面を移動させることを含む、請求項1に記載のコンピューティングデバイス。
  13. 前記差に基づいて前記操縦翼面を移動させることが、前記操縦翼面と前記航空機の中心線との間の偏角(330)を形成するように前記操縦翼面を移動させることを含み、前記偏角が、前記差に対して単調に増加する関数によって定義される、請求項12に記載のコンピューティングデバイス。
  14. 前記機能が、
    前記第1の角度と前記第2の角度とに基づいて前記航空機が前記滑走路の前記中心線からずれている方向(334)を決定することであって、前記操縦翼面を移動させることが、前記操縦翼面が、前記航空機の中心線に対して、前記決定された方向と反対の方向(336)にずれるように前記操縦翼面を移動させることを含む、前記方向(334)を決定すること、
    前記第1の角度と前記第2の角度とに基づいて前記航空機が前記滑走路の前記中心線からずれている距離(338)を決定することであって、前記操縦翼面を移動させることが、前記操縦翼面と前記航空機の中心線との間の偏角を形成するように前記操縦翼面を移動させることを含み、前記偏角が、前記距離に対して単調に増加する関数によって定義される、前記距離(338)を決定すること、
    前記第1の角度と前記第2の角度とに基づいて前記航空機の機首方位(340)を決定することであって、前記操縦翼面を移動させることが、前記機首方位に基づいて前記操縦翼面を移動させることを含む、前記機首方位(340)を決定すること、
    前記第1の画像の複数の画素の線(342)の中から、前記第1の標識線の色に最も近い平均色を有する画素の線を識別することによって前記第1の標識線を識別すること、
    前記第1の画像内の前記滑走路上の第3の標識線が不明瞭であると判断することであって、前記第1の角度を決定することが、前記第1の画像内の前記滑走路上の前記第3の標識線が不明瞭であると判断したことに基づいて前記第1の角度を決定することを含む、前記判断すること、
    のうちの少なくとも1つをさらに含む、請求項1に記載のコンピューティングデバイス。
  15. 離陸時に航空機(10)を滑走路(30)の中心線(20)と位置合わせするための方法(200)であって、前記方法が、
    前記航空機の第1の側(12)に搭載された第1のカメラ(304)によって取り込まれた第1の画像(302)にアクセスするステップ(202)と、
    前記第1の側と反対の前記航空機の第2の側(14)に搭載された第2のカメラ(308)によって取り込まれた第2の画像(306)にアクセスするステップ(204)と、
    前記第1の画像内の前記滑走路上の第1の標識線(312)と前記第1の画像内の第1の基準線(314)との間の第1の角度(310)を決定するステップ(206)と、
    前記第2の画像内の前記滑走路上の第2の標識線(318)と前記第2の画像内の第2の基準線(320)との間の第2の角度(316)を決定するステップ(208)と、
    前記第1の角度と前記第2の角度とに基づき、前記航空機が前記滑走路の前記中心線のより近くに移動するように、前記航空機の操縦翼面(322)を移動させるステップ(210)と
    を含む、方法(200)。
JP2019153772A 2018-10-23 2019-08-26 離陸時の航空機と滑走路中心線との位置合わせ Active JP7334090B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/168,429 2018-10-23
US16/168,429 US11364992B2 (en) 2018-10-23 2018-10-23 Aligning aircraft with runway centerline during takeoff

Publications (2)

Publication Number Publication Date
JP2020066421A true JP2020066421A (ja) 2020-04-30
JP7334090B2 JP7334090B2 (ja) 2023-08-28

Family

ID=67659707

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019153772A Active JP7334090B2 (ja) 2018-10-23 2019-08-26 離陸時の航空機と滑走路中心線との位置合わせ

Country Status (5)

Country Link
US (1) US11364992B2 (ja)
EP (1) EP3644298B1 (ja)
JP (1) JP7334090B2 (ja)
CN (1) CN111091039A (ja)
BR (1) BR102019020843A2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220012889A1 (en) * 2020-07-07 2022-01-13 Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company System and method for performing sky-segmentation

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11074820B2 (en) * 2018-12-19 2021-07-27 Embraer S.A. Low/No visibility takeoff system
US11335009B2 (en) * 2020-04-27 2022-05-17 University Of Malta Method and system for aerodrome taxiway surface marking detection
US12073837B2 (en) 2021-06-18 2024-08-27 The Boeing Company Speech detection using image classification

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05114099A (ja) * 1991-10-22 1993-05-07 Fuji Heavy Ind Ltd 車輌用距離検出装置
DE10305993A1 (de) * 2003-02-12 2004-08-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vermessungsverfahren, insbesondere zur Flug- und Fahrzeugführung
US20130138273A1 (en) * 2011-11-30 2013-05-30 Honeywell International Inc. System and method for aligning aircraft and runway headings during takeoff roll
US20130169450A1 (en) * 2011-12-28 2013-07-04 Honeywell International Inc. System and method for selecting images to be displayed
US20150142220A1 (en) * 2013-11-15 2015-05-21 Airbus Operations (Sas) Method and device for automatically guiding an aircraft taxiing on the ground
US20150310277A1 (en) * 2012-11-15 2015-10-29 Airbus Defence and Space GmbH Method and device for image-assisted runway localization
WO2017056484A1 (ja) * 2015-09-28 2017-04-06 京セラ株式会社 画像処理装置、ステレオカメラ装置、車両及び画像処理方法

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2911713B1 (fr) * 2007-01-19 2014-03-21 Thales Sa Dispositif et procede de mesure de parametres dynamiques d'un aeronef evoluant sur une zone aeroportuaire
FR3016222B1 (fr) * 2014-01-03 2016-02-05 Airbus Operations Sas Procede et dispositif de guidage vertical d'un aeronef lors d'une approche d'une piste d'atterrissage le long d'une trajectoire laterale d'approche.
US9117370B1 (en) * 2014-03-12 2015-08-25 Honeywell International Inc. System and method for identifying runway position during an intersection takeoff
FR3024127B1 (fr) * 2014-07-25 2016-08-26 Airbus Operations Sas Procede et systeme d'atterrissage automatique autonome
RU2713958C2 (ru) * 2015-12-17 2020-02-11 Ниссан Мотор Ко., Лтд. Способ и устройство содействия при парковке
US10399696B2 (en) * 2016-08-31 2019-09-03 The Boeing Company Aircraft pilot display system and method of use
US20180091797A1 (en) * 2016-09-27 2018-03-29 The Boeing Company Apparatus and method of compensating for relative motion of at least two aircraft-mounted cameras
US20190248480A1 (en) * 2016-10-31 2019-08-15 Advanced Aerial Services, Llc Modular unmanned aerial vehicle with adjustable center of gravity
US10247573B1 (en) * 2017-03-29 2019-04-02 Rockwell Collins, Inc. Guidance system and method for low visibility takeoff
US10249203B2 (en) * 2017-04-17 2019-04-02 Rosemount Aerospace Inc. Method and system for providing docking guidance to a pilot of a taxiing aircraft
US10583779B2 (en) * 2017-10-02 2020-03-10 Magna Electronics Inc. Parking assist system using backup camera
WO2019123587A1 (ja) * 2017-12-20 2019-06-27 日産自動車株式会社 駐車制御方法及び駐車制御装置

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05114099A (ja) * 1991-10-22 1993-05-07 Fuji Heavy Ind Ltd 車輌用距離検出装置
DE10305993A1 (de) * 2003-02-12 2004-08-26 Deutsches Zentrum für Luft- und Raumfahrt e.V. Vermessungsverfahren, insbesondere zur Flug- und Fahrzeugführung
US20130138273A1 (en) * 2011-11-30 2013-05-30 Honeywell International Inc. System and method for aligning aircraft and runway headings during takeoff roll
US20130169450A1 (en) * 2011-12-28 2013-07-04 Honeywell International Inc. System and method for selecting images to be displayed
US20150310277A1 (en) * 2012-11-15 2015-10-29 Airbus Defence and Space GmbH Method and device for image-assisted runway localization
US20150142220A1 (en) * 2013-11-15 2015-05-21 Airbus Operations (Sas) Method and device for automatically guiding an aircraft taxiing on the ground
WO2017056484A1 (ja) * 2015-09-28 2017-04-06 京セラ株式会社 画像処理装置、ステレオカメラ装置、車両及び画像処理方法

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20220012889A1 (en) * 2020-07-07 2022-01-13 Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company System and method for performing sky-segmentation
US11995836B2 (en) * 2020-07-07 2024-05-28 Aurora Flight Sciences Corporation, a subsidiary of The Boeing Company System and method for performing sky-segmentation

Also Published As

Publication number Publication date
JP7334090B2 (ja) 2023-08-28
EP3644298A1 (en) 2020-04-29
CN111091039A (zh) 2020-05-01
US11364992B2 (en) 2022-06-21
US20200122820A1 (en) 2020-04-23
EP3644298B1 (en) 2021-05-12
BR102019020843A2 (pt) 2020-12-08

Similar Documents

Publication Publication Date Title
JP7334090B2 (ja) 離陸時の航空機と滑走路中心線との位置合わせ
US20210287015A1 (en) Method and apparatus for vehicle re-identification, training method and electronic device
US12073542B2 (en) Image processing method, image processing apparatus, and non-transitory storage medium
US11004225B2 (en) Systems and methods for generating a 3D world model using velocity data of a vehicle
US20220020175A1 (en) Method for Training Object Detection Model, Object Detection Method and Related Apparatus
Huang et al. Visual odometry and mapping for autonomous flight using an RGB-D camera
US10282623B1 (en) Depth perception sensor data processing
US10671068B1 (en) Shared sensor data across sensor processing pipelines
US9541417B2 (en) Panning for three-dimensional maps
US20190130603A1 (en) Deep-learning based feature mining for 2.5d sensing image search
WO2019033747A1 (zh) 无人机智能跟随目标确定方法、无人机和遥控器
KR102474160B1 (ko) 맵 작성 방법, 장치, 및 시스템, 및 저장 매체
WO2019015158A1 (zh) 无人机避障方法及无人机
US10409293B1 (en) Gimbal stabilized components for remotely operated aerial vehicles
US11092690B1 (en) Predicting lidar data using machine learning
WO2021043214A1 (zh) 一种标定方法、装置及飞行器
Li et al. Fast vision‐based autonomous detection of moving cooperative target for unmanned aerial vehicle landing
WO2021136224A1 (zh) 图像分割方法以及图像分割装置
CN112686149A (zh) 一种基于视觉的固定翼无人机近地段自主着陆方法
Jeon et al. Image processing acceleration for intelligent unmanned aerial vehicle on mobile GPU
Sanket et al. Ajna: Generalized deep uncertainty for minimal perception on parsimonious robots
US11026048B1 (en) Indoor positioning system for a mobile electronic device
US11244470B2 (en) Methods and systems for sensing obstacles in an indoor environment
WO2022252036A1 (zh) 障碍物信息获取方法、装置、可移动平台及存储介质
CN114842080A (zh) 位姿优化方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220808

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230316

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230320

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230612

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230724

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230816

R150 Certificate of patent or registration of utility model

Ref document number: 7334090

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150