JP2022133258A - Autonomous maneuver generation to mate connectors - Google Patents

Autonomous maneuver generation to mate connectors Download PDF

Info

Publication number
JP2022133258A
JP2022133258A JP2022030581A JP2022030581A JP2022133258A JP 2022133258 A JP2022133258 A JP 2022133258A JP 2022030581 A JP2022030581 A JP 2022030581A JP 2022030581 A JP2022030581 A JP 2022030581A JP 2022133258 A JP2022133258 A JP 2022133258A
Authority
JP
Japan
Prior art keywords
image
connector
data
generate
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2022030581A
Other languages
Japanese (ja)
Inventor
トレント エム. キョノ,
M Kyono Trent
ジェーコブ アーサー ルーカス,
Arthur Lucas Jacob
ニコール キャサリン ガグニアー,
Catherine Gagnier Nicole
ジャスティン クリーブ ハッチャー,
Cleve Hatcher Justin
イーファン ヤン,
Yifan Yang
ジェームズ リー クレートン,
Lee Clayton James
ポール エス. イデル,
S Idell Paul
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Boeing Co
Original Assignee
Boeing Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boeing Co filed Critical Boeing Co
Publication of JP2022133258A publication Critical patent/JP2022133258A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/0094Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot involving pointing a payload, e.g. camera, weapon, sensor, towards a fixed or moving target
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D39/00Refuelling during flight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D39/00Refuelling during flight
    • B64D39/02Means for paying-in or out hose
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D39/00Refuelling during flight
    • B64D39/06Connecting hose to aircraft; Disconnecting hose therefrom
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENTS OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D47/00Equipment not otherwise provided for
    • B64D47/08Arrangements of cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/64Systems for coupling or separating cosmonautic vehicles or parts thereof, e.g. docking arrangements
    • B64G1/646Docking or rendezvous systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/22Parts of, or equipment specially adapted for fitting in or to, cosmonautic vehicles
    • B64G1/66Arrangements or adaptations of apparatus or instruments, not otherwise provided for
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course or altitude of land, water, air, or space vehicles, e.g. automatic pilot
    • G05D1/10Simultaneous control of position or course in three dimensions
    • G05D1/101Simultaneous control of position or course in three dimensions specially adapted for aircraft
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Abstract

To provide a method of autonomous maneuver generation to mate connectors.SOLUTION: A method includes providing an image of feature data on the basis of a feature extraction model of connector mating. The image depicts a first portion of a first device and a second portion of a second device. The feature data includes coordinates representing key points of each of the first and second devices depicted in the image. The method also includes obtaining position data indicating a position in 3D space of a connector of the first device. The method further includes providing the feature data and the position data to a trained autonomous agent to generate a proposed maneuver to mate the connector with a connector of the second device.SELECTED DRAWING: Figure 1

Description

本開示は、広くは、コネクタを接続するための自律的な手順の生成に関する。 The present disclosure relates generally to generating autonomous procedures for connecting connectors.

高度に熟練した作業人員は、典型的には、空中での燃料再補給や宇宙船のドッキング動作などのような複雑な高速ドッキング動作を誘導するために使われる。したがって、それらの動作は人間の判断に強く依存し、その人間の判断は、しばしば、コンピュータ視覚技法によって補われる。説明すると、複雑な立体視覚システムを使用して、コネクタ(例えば、レシーバ及び燃料再補給ブーム又はドッキングコネクタ)を接続することにおいて作業人員を補助することができる。 Highly skilled operating personnel are typically used to guide complex high speed docking operations such as airborne refueling and spacecraft docking operations. Therefore, their actions rely heavily on human judgment, which is often supplemented by computer vision techniques. To illustrate, complex stereo vision systems can be used to assist operating personnel in connecting connectors (eg, receivers and refueling boom or docking connectors).

特定の一態様では、方法が、特徴データを生成するために、第1の画像を入力として特徴抽出モデルに提供することを含む。第1の画像は、第1のデバイスの第1の部分と第2のデバイスの第2の部分とを描いている。特徴データは、第1の画像内で描かれている第1のデバイスのキーポイントを表している第1の座標を含み、第1の画像内で描かれている第2のデバイスのキーポイントを表している第2の座標を含む。該方法はまた、第1のデバイスに搭載されている1以上のセンサから、第1のデバイスの第1のコネクタの三次元空間内の位置を示す位置データを取得することも含む。第1のコネクタは、第1のデバイスの第1の部分上に配置されている。該方法は、第1のコネクタを第2のデバイスの第2のコネクタに接続するための提案される手順を生成するために、特徴データ及び位置データを入力として訓練済み自律エージェントに提供することを更に含む。 In one particular aspect, a method includes providing a first image as input to a feature extraction model to generate feature data. The first image depicts a first portion of the first device and a second portion of the second device. The feature data includes first coordinates representing keypoints of a first device depicted within the first image and keypoints of a second device depicted within the first image. Contains the second coordinate representing. The method also includes obtaining position data indicative of a position in three-dimensional space of the first connector of the first device from one or more sensors onboard the first device. A first connector is disposed on the first portion of the first device. The method includes providing feature data and location data as inputs to a trained autonomous agent to generate a suggested procedure for connecting the first connector to the second connector of the second device. Including further.

別の特定の一態様では、デバイスが、第2のデバイスの第2のコネクタに対して第1のコネクタを移動させるように構成された移動可能カップリングシステムを含む。該デバイスはまた、第1のコネクタの三次元空間内の位置を示す位置データを生成するように構成された1以上のセンサも含む。該デバイスは、移動可能カップリングシステムの一部分と第2のデバイスの少なくとも一部分とを描いている画像データを生成するように構成されたカメラを更に含む。デバイスはまた、画像データに基づいて第1の画像を受け取るように構成された特徴抽出モデルであって、第1の画像に基づいて特徴データを生成するように構成された特徴抽出モデルも含む。特徴データは、第1の画像内で描かれている移動可能カップリングシステムのキーポイントを表している第1の座標を含み、第1の画像内で描かれている第2のデバイスのキーポイントを表している第2の座標を含む。該デバイスは、特徴データ及び位置データに基づいて、第1のコネクタを第2のデバイスの第2のコネクタに接続するための提案される手順を生成するように構成された訓練済み自律エージェントを更に含む。 In another particular aspect, a device includes a moveable coupling system configured to move a first connector relative to a second connector of a second device. The device also includes one or more sensors configured to generate position data indicative of the position of the first connector in three-dimensional space. The device further includes a camera configured to generate image data depicting a portion of the movable coupling system and at least a portion of the second device. The device also includes a feature extraction model configured to receive a first image based on the image data and a feature extraction model configured to generate feature data based on the first image. The feature data includes first coordinates representing keypoints of the moveable coupling system depicted within the first image, and keypoints of the second device depicted within the first image. including a second coordinate representing . The device further comprises a trained autonomous agent configured to generate suggested procedures for connecting the first connector to the second connector of the second device based on the feature data and the location data. include.

別の特定の一態様では、空中給油機が、第2の航空機の燃料再補給中に第2の航空機の第2のコネクタと結合するように構成された第1のコネクタを含む、操縦可能ブームを含む。空中給油機はまた、操縦可能ブームに結合された1以上のセンサであって、三次元空間内の操縦可能ブームの位置を示す位置データを生成するように構成された1以上のセンサも含む。空中給油機は、操縦可能ブームの一部分と第2の航空機の少なくとも一部分とを描く画像データを生成するように構成されたカメラを更に含む。空中給油機はまた、画像データに基づいて第1の画像を受け取るように構成された特徴抽出モデルであって、第1の画像に基づいて特徴データを生成するように構成された特徴抽出モデルも含む。特徴データは、第1の画像内で描かれている操縦可能ブームのキーポイントを表している第1の座標を含み、第1の画像内で描かれている第2の航空機のキーポイントを表している第2の座標を含む。空中給油機は、特徴データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成された訓練済み自律エージェントを更に含む。 In another particular aspect, a tanker aircraft includes a steerable boom including a first connector configured to couple with a second connector of a second aircraft during refueling of the second aircraft. including. The tanker aircraft also includes one or more sensors coupled to the steerable boom and configured to generate position data indicative of the position of the steerable boom in three-dimensional space. The tanker aircraft further includes a camera configured to generate image data depicting a portion of the steerable boom and at least a portion of the second aircraft. The tanker aircraft also has a feature extraction model configured to receive a first image based on the image data, the feature extraction model configured to generate feature data based on the first image. include. The feature data includes first coordinates representing keypoints of the steerable boom depicted within the first image and representing keypoints of the second aircraft depicted within the first image. contains a second coordinate that is The tanker aircraft further includes a trained autonomous agent configured to generate a suggested procedure for connecting the first connector to the second connector based on the feature data and the location data.

別の特定の一態様では、宇宙船が、ドッキング動作中に第2の宇宙船の第2のコネクタと結合するように構成された第1のコネクタを含む操縦可能ドッキング機構を含む。宇宙船はまた、操縦可能ドッキング機構に結合された1以上のセンサであって、三次元空間内の操縦可能ドッキング機構の位置を示す位置データを生成するように構成された1以上のセンサも含む。宇宙船は、操縦可能ドッキング機構の一部分と第2の宇宙船の少なくとも一部分を描く画像データを生成するように構成されたカメラを更に含む。宇宙船はまた、画像データに基づいて第1の画像を受け取るように構成された特徴抽出モデルであって、第1の画像に基づいて特徴データを生成するように構成された特徴抽出モデルも含む。特徴データは、第1の画像内で描かれている操縦可能ドッキング機構のキーポイントを表している第1の座標を含み、第1の画像内で描かれている第2の宇宙船のキーポイントを表している第2の座標を含む。宇宙船はまた、特徴データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成された訓練済み自律エージェントも含む。 In another particular aspect, a spacecraft includes a steerable docking mechanism including a first connector configured to mate with a second connector of a second spacecraft during a docking operation. The spacecraft also includes one or more sensors coupled to the steerable docking mechanism and configured to generate position data indicative of the position of the steerable docking mechanism in three-dimensional space. . The spacecraft further includes a camera configured to generate image data depicting a portion of the steerable docking mechanism and at least a portion of the second spacecraft. The spacecraft also includes a feature extraction model configured to receive a first image based on the image data, the feature extraction model configured to generate feature data based on the first image. . The feature data includes first coordinates representing keypoints of the steerable docking mechanism depicted within the first image and keypoints of the second spacecraft depicted within the first image. including a second coordinate representing . The spacecraft also includes a trained autonomous agent configured to generate suggested procedures for connecting the first connector to the second connector based on the feature data and the position data.

本明細書に記載された特徴、機能、及び利点は、様々な実装形態において単独で実現することが可能であり、又は、更に別の実装形態において組み合わせることも可能である。これらの更なる詳細は、以下の明細書の記載及び図面を参照して理解され得る。 The features, functions, and advantages described herein may be implemented independently in various implementations or may be combined in still other implementations. These additional details can be understood with reference to the following specification description and drawings.

画像データ及び位置データに基づいて第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成されたシステムを示す図である。FIG. 10 illustrates a system configured to generate suggested procedures for connecting a first connector to a second connector based on image data and position data; 画像データ及び位置データに基づいて第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成されたシステムを示す図である。FIG. 10 illustrates a system configured to generate suggested procedures for connecting a first connector to a second connector based on image data and position data; 図2のシステムによって生成された表示の一実施例を示す図である。Figure 3 shows an example of a display generated by the system of Figure 2; 図2のシステムによる画像処理及び特徴検出の様々な態様の図である。FIG. 3 is a diagram of various aspects of image processing and feature detection by the system of FIG. 2; 図2のシステムによる画像処理及び特徴検出の様々な態様の図である。FIG. 3 is a diagram of various aspects of image processing and feature detection by the system of FIG. 2; 図2のシステムによる画像処理及び特徴検出の様々な態様の図である。FIG. 3 is a diagram of various aspects of image processing and feature detection by the system of FIG. 2; 図2のシステムによる画像処理及び特徴検出の様々な態様の図である。FIG. 3 is a diagram of various aspects of image processing and feature detection by the system of FIG. 2; 画像データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成されたシステムを示す図である。FIG. 2 illustrates a system configured to generate a suggested procedure for connecting a first connector to a second connector based on image data and position data; 図5のシステムによって生成された表示の一実施例を示している図である。Figure 6 shows an example of a display generated by the system of Figure 5; 図5のシステムによる画像処理及び特徴検出の様々な態様の図である。FIG. 6 is a diagram of various aspects of image processing and feature detection by the system of FIG. 5; 図5のシステムによる画像処理及び特徴検出の様々な態様の図である。FIG. 6 is a diagram of various aspects of image processing and feature detection by the system of FIG. 5; 図5のシステムによる画像処理及び特徴検出の様々な態様の図である。FIG. 6 is a diagram of various aspects of image processing and feature detection by the system of FIG. 5; 図5のシステムによる画像処理及び特徴検出の様々な態様の図である。FIG. 6 is a diagram of various aspects of image processing and feature detection by the system of FIG. 5; 画像データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成する方法の一実施例のフローチャートである。FIG. 5 is a flowchart of one embodiment of a method for generating suggested procedures for connecting a first connector to a second connector based on image data and position data; FIG. 画像データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成する方法の別の一実施例のフローチャートである。FIG. 5 is a flowchart of another embodiment of a method for generating suggested procedures for connecting a first connector to a second connector based on image data and position data; FIG. 画像データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成するために、自律エージェントを訓練する方法の一実施例のフローチャートである。Figure 10 is a flowchart of one embodiment of a method for training an autonomous agent to generate suggested procedures for connecting a first connector to a second connector based on image data and location data; 画像データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成された航空機のライフサイクルの一実施例のフローチャートである。4 is a flow chart of one embodiment of an aircraft life cycle configured to generate suggested procedures for connecting a first connector to a second connector based on image data and position data; 画像データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成された航空機の一実施例のブロック図である。1 is a block diagram of an embodiment of an aircraft configured to generate suggested procedures for connecting a first connector to a second connector based on image data and position data; FIG. 本開示によるコンピュータに実装可能な方法及びコンピュータで実行可能なプログラム指示命令(又はコード)の態様をサポートするように構成された計算デバイスを含む計算環境のブロック図である。1 is a block diagram of a computing environment including a computing device configured to support aspects of computer-implementable methods and computer-executable program instructions (or code) according to the present disclosure; FIG.

本明細書で開示される態様は、2つの異なるデバイスのコネクタを接続するための提案される手順を生成するために、訓練済み自律エージェントを使用するシステム及び方法を提示する。例えば、自律エージェントは、空中での燃料再補給中に燃料再補給コネクタを航空機の燃料再補給ポートに誘導するための手順勧告又は命令を生成するように訓練された、1以上のニューラルネットワーク又は他の機械学習モデルを含んでよい。別の一実施例として、自律エージェントは、1つの宇宙船のもう1つの宇宙船へのドッキングを誘導するための手順勧告又は命令を生成するように訓練されてよい。幾つかの実施態様では、訓練済み自律エージェントを使用して、作業人員が、コネクタを接続するための操縦中の信頼性を高め、動作を標準化することを支援することができる。他の実施態様では、作業人員の代わりに訓練済み自律エージェントを使用して、作業人員を訓練することに関連する費用、コネクタを接続するための動作に関連する費用などの、費用を低減させることができる。 Aspects disclosed herein present systems and methods that use trained autonomous agents to generate suggested procedures for connecting connectors of two different devices. For example, the autonomous agent may be one or more neural networks or others trained to generate procedural recommendations or instructions for guiding a refueling connector to an aircraft refueling port during airborne refueling. may include a machine learning model of As another example, autonomous agents may be trained to generate procedural recommendations or instructions to guide the docking of one spacecraft to another. In some implementations, trained autonomous agents can be used to assist workers in increasing reliability and standardizing operations during maneuvers to connect connectors. In other embodiments, trained autonomous agents are used in place of operating personnel to reduce costs, such as costs associated with training operating personnel, costs associated with operations to connect connectors, and the like. can be done.

幾つかの文脈では、ドッキングを実行する2つのデバイスが、主たるデバイスと従たるデバイスとを含む。幾つかの文脈(2つのピアデバイスがドッキングしている場合など)では、それらの用語が任意に割り当てられてよいが、一般的には、主たるデバイスが、従たるデバイスにサービスしているデバイスを指し、又は、主たるデバイスが、訓練済み自律エージェントが搭載されているデバイスを指す。説明すると、空中での燃料再補給の文脈では、主たるデバイスが空中給油機である。同様に、従たるデバイスは、一対のデバイスのうちの他方のデバイスを指す。説明すると、空中での燃料再補給の文脈では、従たるデバイスが受け取る側の航空機(例えば、燃料再補給されている航空機)である。更に、デバイスという用語は、ユニットとして操作される(例えば、従たるデバイスの場合における)又は作業を実現するために協働する(例えば、主たるデバイスの場合における)、物体、システム、又は構成要素のアセンブリを含むように広く使用される。 In some contexts, the two devices that perform docking include a primary device and a secondary device. In some contexts (such as when two peer devices are docked), the terms may be arbitrarily assigned, but in general, a principal device may refer to a device serving a slave device. Alternatively, the primary device refers to the device on which the trained autonomous agent is installed. To illustrate, in the context of airborne refueling, the primary device is the tanker aircraft. Similarly, a slave device refers to the other device of a pair of devices. To illustrate, in the context of airborne refueling, the slave device is the receiving aircraft (eg, the aircraft being refueled). Further, the term device may be used to refer to any body, system, or component that is operated as a unit (e.g., in the case of a secondary device) or cooperates to accomplish a task (e.g., in the case of a primary device). Widely used to contain assemblies.

特定の一態様では、システムが、ドッキング動作を経験しているデバイスの各々の少なくとも一部分の単眼ビデオをキャプチャするためのカメラ(例えば、単一のカメラ)を使用する。例えば、カメラは、燃料再補給ブームの一部分及び受け取る側の航空機の一部分の画像をキャプチャしてよい。別の一実施例として、カメラは、2つの宇宙船のドッキングポートの一部分の画像をキャプチャしてよい。自律エージェントが、ドッキングを経験しているデバイスのカプラを配置するための手順のリアルタイムの方向インジケータを出力するように訓練される。この方向インジケータは、作業人員又は自動化されたシステムのいずれかによって解釈及び実行され得るやり方で出力され得る。幾つかの実施態様では、自律エージェントがまた、或いは代替的に、デバイス間の意図せぬ接触の可能性を低減させるために実行され得る手順を制限するようにも訓練される。 In one particular aspect, the system employs a camera (eg, a single camera) to capture monocular video of at least a portion of each of the devices undergoing a docking operation. For example, the camera may capture images of a portion of the refueling boom and a portion of the receiving aircraft. As another example, a camera may capture images of portions of two spacecraft docking ports. An autonomous agent is trained to output a real-time directional indicator of the procedure for positioning the coupler of the device undergoing docking. This directional indicator can be output in a manner that can be interpreted and executed by either operating personnel or an automated system. In some implementations, autonomous agents are also, or alternatively, trained to limit the steps that can be taken to reduce the likelihood of unintended contact between devices.

説明すると、空中での燃料再補給の一形態は、空中給油機からのブームの受け取る側の航空機の受け口へのドッキングを制御することと組み合わされた複雑なターゲッティング動作を使用する。この動作中に、作業人員は、カメラからの画像を解釈し、両方の航空機が動いている間に、ブームを受け取る側の航空機の受け口とドッキングさせるように誘導する。作業人員は、ブームの相対的な角度ならびにブームの展開される長さを制御する。その動作は、航空機の相対的な動き、視界の悪さ、不十分な照明条件などのために複雑になり得る。作業人員が、1以上のカメラからの二次元(2D)情報に基づいて、三次元(3D)空間内のブームを制御するときに、更なる複雑さが生じ得る。例えば、画像からの2D情報を解釈することによって、及び乱流によるブームの振動のために、作業人員の深さ認識、ブームのレシーバとの接触ポイントを予測する作業人員の能力、及び、作業人員の評価が複雑になる。2D情報の不正確な解釈によって、燃料再補給の不成功がもたらされ得る。というのも、ブームが受け口以外の受け取る側の航空機の部分と接触した場合、受け取る側の航空機又はブームが損傷を受け得るからである。同じ又は類似の困難さが、2つの宇宙船がドッキングしているときに存在し得る。 To illustrate, one form of airborne refueling employs complex targeting operations combined with controlling the docking of a boom from a tanker aircraft into a receiving aircraft receptacle. During this operation, the operator interprets the images from the cameras and guides the boom to dock with the receiving aircraft receptacle while both aircraft are in motion. Operators control the relative angles of the booms as well as the extended length of the booms. Its operation can be complicated by relative aircraft movements, poor visibility, poor lighting conditions, and the like. Further complications can arise when operators control the boom in three-dimensional (3D) space based on two-dimensional (2D) information from one or more cameras. For example, by interpreting 2D information from images, and for vibrations of the boom due to turbulence, the depth perception of the operator, the ability of the operator to predict the point of contact with the boom receiver, and the operator's ability to evaluation becomes complicated. Incorrect interpretation of 2D information can lead to unsuccessful refueling. This is because the receiving aircraft or boom can be damaged if the boom contacts a portion of the receiving aircraft other than the socket. The same or similar difficulties may exist when two spacecraft are docked.

本明細書で開示される特定の一態様では、作業人員に取って代わり又は作業人員を補助するために、機械学習を使用して自律エージェントを訓練する。例えば、自律エージェントは、2D画像データ及びセンサデータ(例えば、位置エンコーダデータ)に基づいて、3D空間内の2つのデバイスの正確な位置特定を可能にするやり方で、利用可能な情報を処理してよい。別の一実施例として、自律エージェントは、2つのデバイスのコネクタを接続するための最適制御方式を決定してよい(特定の状況の下で)。 In one particular aspect disclosed herein, machine learning is used to train autonomous agents to replace or assist workers. For example, based on 2D image data and sensor data (e.g., position encoder data), the autonomous agent processes the available information in a manner that enables precise localization of two devices in 3D space. good. As another example, an autonomous agent may determine (under certain circumstances) the optimal control scheme for connecting connectors of two devices.

特定の一実施態様では、U-Net畳み込みニューラルネットワーク(CNN)が、特徴抽出器として訓練されて、ターゲットの画像を、特徴を中心としたガウス分布で示される特徴の位置を持つバイナリマスク(又は複数のマスク)にマッピングする。この実施態様では、特徴検出の信頼性が、種々のレベルの詳細度を持つ画像を使用して特徴抽出器を訓練することによって改善される。例えば、元の画像又はソース画像を1以上の回数だけダウンサンプリングして、1以上のダウンサンプリング画像を生成することができ、特徴抽出器は、ソース画像及び1以上のダウンサンプリング画像を使用して訓練されてよい。種々のレベルの詳細度を持つ複数の画像を使用して特徴抽出器を訓練することによって、特徴検出器が、一般的な属性よりもむしろ特徴の具体的な詳細を検出する機会が低減される。今度はそれが、特徴検出器の信頼性を改善する。説明すると、特徴抽出器は、具体的で詳細な特徴が曖昧であったとしても、一般的な属性を検出することができる。 In one particular implementation, a U-Net Convolutional Neural Network (CNN) is trained as a feature extractor to map a target image to a binary mask (or multiple masks). In this embodiment, the reliability of feature detection is improved by using images with different levels of detail to train the feature extractor. For example, an original image or a source image can be downsampled one or more times to generate one or more downsampled images, and the feature extractor uses the source image and the one or more downsampled images to be trained. By training the feature extractor using multiple images with varying levels of detail, the chances of the feature detector detecting specific details of features rather than general attributes are reduced. . In turn it improves the reliability of the feature detector. To illustrate, the feature extractor can detect general attributes even when specific and detailed features are ambiguous.

画像をダウンサンプリングすることによって、特徴の詳細を表すより高い周波数のコンテンツが除去又は低減される。それによって、特徴抽出j器は、一般的な形状及び幾何学的寸法形状などのようなより一般的な特徴を学習するように促される。U-Net CNNアーキテクチャは、様々なレベルのダウンサンプリングにおける特徴データを生成すること、及び特徴データを結合して特徴データ出力を生成することを可能にする。このやり方で結合された特徴データを生成することによって、精度が保持される(高解像度画像の使用により)一方で、信頼性が改善される(低解像度画像の使用により)。特徴抽出器は、このやり方で訓練されて、単一の画像解像度を使用する特徴抽出器よりも桁違いに低い誤差率を有し得る。 By downsampling the image, higher frequency content that represents feature detail is removed or reduced. The feature extractor is thereby encouraged to learn more general features such as general shape and geometry. The U-Net CNN architecture allows generating feature data at various levels of downsampling and combining the feature data to generate the feature data output. By generating combined feature data in this manner, reliability is improved (by using lower resolution images) while accuracy is preserved (by using higher resolution images). A feature extractor trained in this manner can have an error rate that is orders of magnitude lower than a feature extractor using a single image resolution.

特徴抽出器によって生成される特徴データは、画像内のデバイスのキーポイントの座標を特定する。特定の一態様では、デバイスの知られている幾何学的寸法形状に基づいて、インピュテーションネットワークが訓練され、特徴データ内の異常値を認識及び修復する。例えば、インピュテーションネットワークは、燃料再補給ブーム及び特定の受け取る側の航空機の知られている幾何学的寸法形状をキーポイントと比較してよく、誤ったキーポイントを除去又は再配置してよい。幾つかの態様では、カルマンフィルタを使用して、画像及び/又は特徴データを時間的にフィルタして、精度を更に改善する。幾つかの実施態様では、画像データに加えて、特徴抽出器が、ライダーシステムやレーダーシステムなどのうちの1以上からのデータのような補足的なセンサデータを使用して、特徴データを生成してよい。 The feature data generated by the feature extractor identifies the coordinates of keypoints of the device in the image. In one particular aspect, an imputation network is trained to recognize and repair outliers in the feature data based on the known geometries of the device. For example, the imputation network may compare known geometries of a refueling boom and a particular receiving aircraft to keypoints and may remove or relocate erroneous keypoints. . In some aspects, a Kalman filter is used to temporally filter the image and/or feature data to further improve accuracy. In some implementations, in addition to image data, the feature extractor uses supplemental sensor data, such as data from one or more of lidar systems, radar systems, etc., to generate feature data. you can

特定の一態様では、特徴データが、入力として訓練済み自律エージェントに提供される。幾つかの態様では、訓練済み自律エージェントがまた、主たるデバイスの第1のコネクタの3D空間内での位置を示す位置データも入力として受け取る(例えば、空中での燃料再補給においてブームの燃料補給カプラを使用する場合)。訓練済み自律エージェントは、特徴データ及び位置データに基づいて、推奨される手順を生成するように構成される。推奨される手順は、主たるデバイスのコネクタが従たるデバイスのコネクタに接続するための動きを示す。 In one particular aspect, feature data is provided as input to a trained autonomous agent. In some aspects, the trained autonomous agent also receives as input position data indicating the position in 3D space of the primary device's first connector (e.g., boom refueling coupler in air refueling). ). A trained autonomous agent is configured to generate recommended procedures based on feature data and location data. The recommended procedure shows the movement of the master device's connector to connect to the slave device's connector.

特定の一実施態様では、自律エージェントが、強化学習技法を使用して訓練される。例えば、強化学習において、自律エージェントが、いかに良く所望の動作を実行するかに基づいて報酬が決定される。更に又は代替的に、自律エージェントが、いかに悪く所望の動作を実行するかに基づいてペナルティが決定される。特定の一態様では、強化学習を使用して、コネクタを接続するための最も短い又は少ない費用の手順などのような最適な手順を決定するように、自律エージェントを訓練する。別の特定の一態様では、強化学習を使用して、1人以上の高度に熟練した作業人員を模倣するように、自律エージェントを訓練する。主たるデバイスのコネクタが、従たるデバイスのコネクタを除いて従たるデバイスの任意の表面に接触することなしに、自律エージェントが2つのデバイスのコネクタを成功裡に接続した場合、報酬が与えられ得る。更に又は代替的に、自律エージェントが、主たるデバイスの部分と受たるデバイスの部分との間の任意の意図せぬ接触をもたらした場合、ペナルティが与えられ得る。 In one particular implementation, autonomous agents are trained using reinforcement learning techniques. For example, in reinforcement learning, rewards are determined based on how well an autonomous agent performs a desired action. Additionally or alternatively, a penalty is determined based on how badly the autonomous agent performs the desired action. In one particular aspect, reinforcement learning is used to train an autonomous agent to determine the optimal procedure, such as the shortest or least expensive procedure for connecting connectors. In another particular aspect, reinforcement learning is used to train autonomous agents to imitate one or more highly skilled workers. If the autonomous agent successfully connects the connectors of the two devices without the master device's connector contacting any surface of the slave device except the slave device's connector, a reward can be given. Additionally or alternatively, penalties may be provided if an autonomous agent causes any unintended contact between a portion of the principal device and a portion of the receiving device.

本開示のシステム及び方法の1つの利点は、機械学習に基づいたドッキングプロセスが、1以上のグラフィカル処理ユニット(GPU)での実行のために並列化されて、パターンマッチングに依存するコンピュータ視覚技法よりも迅速に動作できることである。例えば、パターンマッチング技法は、概して、数秒毎に約1つのフレームで動作し、一方、本開示の技法は、1秒毎に20を超えるフレームで動作することができる。更に、自律エージェントは、デバイスのコネクタを接続するために高度に熟練した作業人員によって使用される学習パターンにより、作業人員を模倣することができ、これらのパターンを改善して、準最適な動作を排除し、又は複数の異なる熟練した作業人員の最善の手順を組み合わせることができる。 One advantage of the disclosed systems and methods is that the machine learning-based docking process can be parallelized for execution on one or more graphical processing units (GPUs) rather than computer vision techniques that rely on pattern matching. It is also possible to operate quickly. For example, pattern matching techniques generally operate at about one frame every few seconds, while the techniques of this disclosure can operate at over 20 frames per second. In addition, the autonomous agent can mimic a worker by learning patterns used by highly skilled workers to connect connectors on devices, and improve these patterns to achieve sub-optimal behavior. can be eliminated or combined with the best practices of several different skilled workers.

図面及び以下の説明により、具体的で例示的な態様が示される。当業者は、本明細書に記載の原理を具現化し、且つこの説明に続く特許請求項の想定される範囲に含まれる様々な構成を、たとえ本明細書で明示的に説明又は図示されていなくとも、考案可能になることが、認識されよう。更に、本明細書に記載のいかなる例も、本開示の原理の理解を支援するためのものであり、限定を含まないものと見做される。その結果、本開示は、後述する具体的な実施形態又は実施例に限定されないが、特許請求の範囲及びその均等物によって限定される。 The drawings and the following description set forth specific illustrative aspects. Those skilled in the art will recognize various configurations that embody the principles described herein and fall within the contemplated scope of the claims that follow this description, even though not explicitly described or illustrated herein. It will be appreciated that both can be devised. Furthermore, any examples given herein are intended to aid in understanding the principles of the disclosure and are not to be considered limiting. As a result, the disclosure is not limited to the specific embodiments or examples described below, but by the claims and their equivalents.

本明細書では、特定の実現について図面を参照して説明する。本明細書の記載では、共通の特徴が図面全体を通じて、共通の参照番号により指し示される。一部の図面では、特定の種類の特徴の複数の例が使用される。これらの特徴は、物理的及び/又は論理的に異なるが、それぞれに同じ参照番号が使用され、異なる例が、参照番号に文字を追加することで区別される。群又は種類としての特徴が本明細書で言及される場合(例えば、特徴の特定の1つが参照されていない場合)、参照番号は区別する文字なしで使用される。しかし、本明細書で同じ種類の複数の特徴のうちの1つの特定の特徴が言及されるときに、参照番号は、区別するための文字を伴って使用される。例えば、図1を参照すると、それは、任意の主たるデバイス(例えば、第1のデバイス102)及び任意の従たるデバイス(例えば、第2のデバイス112)を包括する一実施例を示し、一方で、図2、図3、図5、及び図6は、主たるデバイスの特定の実施例(例えば、空中給油機102A又は第1の宇宙船102B)及び従たるデバイスの特定の実施例(例えば、受け取る側の航空機112A又は第2の宇宙船112B)を示している。図2で示されている一実施例などのような具体的な実施例のうちの特定の1つを参照すると、主たるデバイスは、空中給油機102Aとして言及される。しかし、図1の任意の無作為な実施例又は包括的な実施例を参照すると、第1のデバイス102は、区別する文字「A」なしに使用される。特定の文脈において特段の定めがない場合、各包括的な説明(例えば、第1のデバイス102の説明)はまた、特定の実施例の各々(例えば、航空機102A)の説明でもある。 Particular implementations are described herein with reference to the drawings. In the present description, common features are indicated by common reference numerals throughout the drawings. In some drawings, multiple examples of a particular type of feature are used. Although these features are physically and/or logically different, the same reference number is used for each, and different instances are distinguished by adding a letter to the reference number. When features are referred to herein as groups or classes (eg, when no specific one of the features is referenced), reference numbers are used without distinguishing letters. However, when referring herein to one particular feature of a plurality of features of the same type, reference numerals are used with distinguishing letters. For example, referring to FIG. 1, it shows an embodiment encompassing any primary device (e.g., first device 102) and any secondary device (e.g., second device 112), while: 2, 3, 5, and 6 illustrate particular embodiments of a primary device (e.g., tanker vehicle 102A or first spacecraft 102B) and particular embodiments of a secondary device (e.g., receiving side). aircraft 112A or a second spacecraft 112B). Referring to a particular one of the specific examples, such as the one shown in FIG. 2, the primary device is referred to as tanker aircraft 102A. However, referring to any random or generic example of FIG. 1, the first device 102 is used without the distinguishing letter "A". Unless otherwise specified in a particular context, each generic description (eg, description of first device 102) is also a description of each specific example (eg, aircraft 102A).

本明細書で使用され得る際に、様々な用語は、特定の実施態様を説明することのみが目的で使用され、限定することを意図していない。例えば、単数形「1つの(a、an)」及び「その(the)」は、文脈が明らかにそうでないことを示さない限りは、複数形も含むことが意図されている。更に、本明細書で説明される幾つかの特徴は、幾つかの実施態様では単数で存在し、他の実施態様では複数で存在する。説明すると、図1は、1以上のプロセッサ(図1の「(1以上の)プロセッサ120」)を含むシステム100を描いている。それは、幾つかの実施態様では、システム100が、単一のプロセッサ120を含み、他の実施態様では、システム100が、複数のプロセッサ120を含むことを示している。本明細書で容易に参照されるように、このような特徴は、概して「1以上の」特徴として導入され、それ以降は、複数の上記特徴に関連する態様が説明されていない限り、単数の特徴を指す。 Various terms, as may be used herein, are used for the purpose of describing particular embodiments only and are not intended to be limiting. For example, the singular forms "a, an" and "the" are intended to include the plural unless the context clearly indicates otherwise. Moreover, some features described in this specification may be present in the singular in some implementations and in the plural in other implementations. To illustrate, FIG. 1 depicts a system 100 including one or more processors (“(one or more) processor(s) 120” in FIG. 1). It illustrates that in some implementations system 100 includes a single processor 120 and in other implementations system 100 includes multiple processors 120 . As readily referred to herein, such features are generally introduced as "one or more" features and henceforth in the singular, unless aspects relating to a plurality of such features are described. point to the characteristics.

「備える(comprise、comprises、comprising)」という用語は、「含む(include、includes、including)」と交換可能に使用される。さらに、「ここで(wherein)」という用語は、「その場合に(where)」という用語と交換可能に使用される。本明細書で使用される際に、「例示的な(exemplary)」は、一実施例(an example)、一実施態様(an implementation)、及び/又は一態様(an aspect)を示し、限定的なものとして、又は好適さ若しくは好適な一実施態様を示すものとして解釈されるべきでない。本明細書で使用される際に、構造、構成要素、動作などの要素を変形するために使用される、順序を示す用語(例えば、「第1の(first)」、「第2の(second)」、「第3の(third)」など)は、それ自体、別の1つの要素に対するその要素の優先度又は順序を示すものではないが、(順序を示す用語の使用を除いて)むしろ単に同じ名前を有する別の1つの要素からその要素を区別するものである。本明細書で使用される「組み(set)」という用語は、1以上の要素の群化のことを指し、「複数の(plurality)」という用語は、複数の要素のことを指す。 The terms "comprise, comprises, comprising" are used interchangeably with "include, includes, including." Further, the term "wherein" is used interchangeably with the term "wherein". As used herein, "exemplary" refers to an example, an implementation, and/or an aspect and is not limiting. It should not be construed as exclusive or as indicating one preferred or preferred embodiment. As used herein, sequential terms (e.g., "first," "second )", "third", etc.) does not in itself indicate a priority or order of that element over another, but rather (except for the use of ordering terms) rather It simply distinguishes the element from another one with the same name. As used herein, the term "set" refers to a grouping of one or more elements, and the term "plurality" refers to a plurality of elements.

本明細書では、「生成する(generating)」、「計算する(calculating)」、「使用する(using)」、「選択する(selecting)」、「アクセスする(accessing)」、及び「決定する(determining)」は、文脈がそうでないことを示さない限り交換可能である。例えば、パラメータ(若しくは信号)を「生成する」、「計算する」、若しくは「決定する」ことは、パラメータ(若しくは信号)を能動的に生成、計算、若しくは決定することを指し、又は、例えば他の構成要素若しくはデバイスによって、既に生成されているパラメータ(若しくは信号)を使用、選択、若しくはアクセスすることを指し得る。本明細書で使用される「結合(coupled)」は、「通信可能に接続」、「電気的に結合」、又は「物理的に結合」を含むことができ、更に(又は代替的に)その任意の組み合わせを含むことができる。2つのデバイス(若しくは構成要素)は、1以上の他のデバイス、構成要素、ワイヤ、バス、ネットワーク(有線ネットワーク、無線ネットワーク、又はその組み合わせ)などを介して直接又は間接的に結合(通信可能に結合、電気的に結合、若しくは物理的に結合)することができる。電気的に結合される2つのデバイス(若しくは構成要素)は、同じデバイス又は異なるデバイスに含めることができ、例示的な非限定的実施例として、電子機器、1以上のコネクタ、又は誘導結合を介して結合することができる。幾つかの実施態様では、電気通信などで通信可能に接続された2つのデバイス(若しくは構成要素)が、1以上の配線、バス、ネットワークなどを介して直接又は間接的に電気信号(デジタル信号若しくはアナログ信号)を送受信することが可能である。本明細書では、「直接結合された(directly coupled)」は、構成要素を介在させることなく結合される(例えば、通信可能に接続され、電気的に結合され、若しくは物理的に結合された)2つのデバイスを記述するために使用される。 As used herein, "generating," "calculating," "using," "selecting," "accessing," and "determining." "determining" are interchangeable unless the context indicates otherwise. For example, "generating," "calculating," or "determining" a parameter (or signal) refers to actively generating, calculating, or determining the parameter (or signal) or, for example, can refer to using, selecting, or accessing parameters (or signals) that have already been produced by a component or device of the As used herein, "coupled" may include "communicatively coupled," "electrically coupled," or "physically coupled," and may also (or alternatively) Any combination can be included. Two devices (or components) may be directly or indirectly coupled (communicatively coupled, electrically coupled, or physically coupled). Two devices (or components) that are electrically coupled can be included in the same device or different devices, by way of illustrative non-limiting examples, electronics, one or more connectors, or inductive coupling. can be combined with In some embodiments, two devices (or components) that are communicatively connected, such as by telecommunications, transmit electrical signals (digital or analog signals) can be sent and received. As used herein, "directly coupled" means coupled without intervening components (e.g., communicatively connected, electrically coupled, or physically coupled) Used to describe two devices.

図1は、画像データ及び位置データに基づいて、第1のデバイス102の第1のコネクタ106を第2のデバイス112の第2のコネクタ116に接続するための提案される手順を生成するように構成された第1のデバイス102を含む、幾つかのデバイスを含む、システム100を示している。図1で示されている実施例では、第1のデバイス102が、上述されたように、主たるデバイスを含み又はそれに対応し、第2のデバイス112が、上述されたように、従たるデバイスを含み又はそれに対応する。例えば、第1のデバイス102は、訓練済み自律エージェント132を含み、第2のデバイス112にサービスし又はそれをサポートするように構成されてよい。第2のデバイス112は、第1のデバイス102に結合するように構成されたデバイス又はシステムであって、潜在的に第1のデバイス102によってサービス又はサポートされるように構成されたデバイス又はシステムを含む。 1 to generate a suggested procedure for connecting the first connector 106 of the first device 102 to the second connector 116 of the second device 112 based on image data and location data. A system 100 is shown that includes several devices, including a first device 102 that has been configured. In the example shown in FIG. 1, the first device 102 comprises or corresponds to a primary device, as described above, and the second device 112 comprises a secondary device, as described above. Contain or correspond to. For example, first device 102 may include trained autonomous agent 132 and be configured to serve or support second device 112 . A second device 112 is a device or system configured to couple to the first device 102 and potentially a device or system configured to be serviced or supported by the first device 102 . include.

第1のデバイス102は、第2のデバイス112の第2のコネクタ116に対して第1のコネクタ106を移動させるように構成された移動可能カップリングシステム104を含む。例えば、移動可能カップリングシステム104は、図2及び図3で更に詳細に説明されるように、燃料再補給システムの操縦可能ブームを含んでよい。別の一実施例として、移動可能カップリングシステム104は、図5及び図6で更に詳細に説明されるように、ドッキングシステムの操縦可能ドッキングアームを含んでよい。上で参照された実施例は、単なる例示であり限定するものではない。 First device 102 includes a moveable coupling system 104 configured to move first connector 106 relative to second connector 116 of second device 112 . For example, movable coupling system 104 may include a steerable boom of a refueling system, as described in greater detail in FIGS. As another example, movable coupling system 104 may include a steerable docking arm of a docking system, as described in greater detail in FIGS. The examples referenced above are merely illustrative and non-limiting.

第1のデバイス102はまた、カメラ122、1以上のセンサ124、1以上のプロセッサ120、及びメモリ140も含む。図1で示されている実施例では、第1のデバイス102がまた、1以上の画像プロセッサ114も含む。幾つかの実施態様では、(1以上の)画像プロセッサ114及び(1以上の)プロセッサ120が組み合わされる。説明すると、1以上のGPU、1以上の中央処理装置(CPU)、又は1以上の他のマルチコア若しくはマルチスレッド処理ユニットが、(1以上の)画像プロセッサ114と(1以上の)プロセッサ120との両方として働いてよい。 First device 102 also includes camera 122 , one or more sensors 124 , one or more processors 120 , and memory 140 . In the example shown in FIG. 1, first device 102 also includes one or more image processors 114 . In some implementations, image processor(s) 114 and processor(s) 120 are combined. Illustratively, one or more GPUs, one or more central processing units (CPUs), or one or more other multi-core or multi-threaded processing units are integrated with image processor(s) 114 and processor(s) 120. can work as both.

図1では、(1以上の)センサ124が、位置エンコーダ126及び1以上の補足的なセンサ128を含む。位置エンコーダ126は、移動可能カップリングシステム104に結合され、第1のコネクタ106の3D空間108内の位置を示す位置データ178を生成するように構成される。例えば、位置エンコーダ126は、移動可能カップリングシステム104の1以上のジョイントの角度、移動可能カップリングシステム104の展開長さ、他の3D位置データ、又はそれらの組み合わせを示す、データを生成してよい。この実施例では、位置データ178が、第1のデバイス102に関連付けられ且つ第2のデバイス112から独立した基準フレーム内の位置を示している。説明すると、移動可能カップリングシステム104のジョイントの角度は、ジョイントの基準フレーム又は第1のデバイス102の基準フレームに対して示されてよい。その角度は、それ自体、第2のデバイス112に対する第1のコネクタ106又はジョイントの位置を示さない。というのも、第2のデバイス112は、第1のデバイス102に対して移動可能だからである。 In FIG. 1, sensor(s) 124 include position encoder 126 and one or more complementary sensors 128 . Position encoder 126 is coupled to moveable coupling system 104 and configured to generate position data 178 indicative of the position of first connector 106 within 3D space 108 . For example, position encoder 126 may generate data indicative of angles of one or more joints of moveable coupling system 104, deployed length of moveable coupling system 104, other 3D position data, or a combination thereof. good. In this illustrative example, position data 178 indicates a position within a frame of reference associated with first device 102 and independent of second device 112 . To illustrate, the angles of the joints of the moveable coupling system 104 may be indicated relative to the joint's frame of reference or the first device's 102 frame of reference. The angle by itself does not indicate the position of the first connector 106 or joint relative to the second device 112 . This is because the second device 112 is movable with respect to the first device 102 .

(1以上の)補足的なセンサ128は、存在する場合、3D空間108内の第1のデバイス102と第2のデバイス112の相対的な位置を示す補足的なセンサデータ(例えば、更なる位置データ)を生成するように構成される。例えば、(1以上の)補足的なセンサ128は、測距器(例えば、レーザー測距器)を含んでよく、補足的なセンサデータは、距離データ(例えば、測距器から第2のデバイス112までの距離)を含んでよい。更に又は代替的に、(1以上の)補足的なセンサ128は、レーダーシステムを含んでよく、補足的なセンサデータは、レーダーデータ(例えば、第2のデバイス112までの距離、第2のデバイス112への方向、又はそれらの両方を示すレーダー反射)を含んでよい。更に又は代替的に、(1以上の)捕捉的なセンサ128は、ライダーシステムを含んでよく、補足的なセンサデータは、ライダーデータ(例えば、第2のデバイス112までの距離、第2のデバイス112への方向、又はそれらの両方を示すライダー反射)を含んでよい。更に又は代替的に、(1以上の)捕捉的なセンサ128は、ソナーシステムを含んでよく、補足的なセンサデータは、ソナーデータ(例えば、第2のデバイス112までの距離、第2のデバイス112への方向、又はそれらの両方を示すソナー反射)を含んでよい。更に又は代替的に、(1以上の)捕捉的なセンサ128は、1以上の更なるカメラ(例えば、カメラ122に加えて)を含んでよく、補足的なセンサデータは、立体画像データを含んでよい。 Supplemental sensor(s) 128, if present, provide supplemental sensor data (e.g., additional position data). For example, the supplemental sensor(s) 128 may include a rangefinder (eg, a laser rangefinder), and the supplemental sensor data may transmit range data (eg, a rangefinder to the second device). 112). Additionally or alternatively, the supplemental sensor(s) 128 may include a radar system, and the supplemental sensor data may include radar data (eg, distance to the second device 112, distance to the second device 112 or both). Additionally or alternatively, the acquisition sensor(s) 128 may include a lidar system, and the supplemental sensor data may include lidar data (e.g., distance to second device 112, distance to second device 112, 112 or both). Additionally or alternatively, the capture sensor(s) 128 may include a sonar system, and the supplemental sensor data may include sonar data (e.g., distance to second device 112, distance to second device 112, or both). Additionally or alternatively, the capture sensor(s) 128 may include one or more additional cameras (eg, in addition to camera 122), and the supplemental sensor data includes stereoscopic image data. OK.

第1のデバイス102のカメラ122は、移動可能カップリングシステム104の少なくとも一部分及び第2のデバイス112の少なくとも一部分を描く、画像データ(例えば、(1以上の)画像170)を生成するように構成されている。幾つかの実施態様では、(1以上の)画像170が、移動可能カップリングシステム104と第2のデバイス112との相対的な位置を表すリアルタイムの(例えば、ビデオフロントエンド処理の遅延及びバッファリングは、わずかである)ビデオフレームのストリームを含む。 Camera 122 of first device 102 is configured to generate image data (eg, image(s) 170) depicting at least a portion of moveable coupling system 104 and at least a portion of second device 112. It is In some implementations, the image(s) 170 represents the relative position of the moveable coupling system 104 and the second device 112 in real-time (e.g., video front-end processing delays and buffering). contains a stream of video frames, which are few).

図1の一実施例では、(1以上の)画像170が、(1以上の)画像プロセッサ114によって処理されて、処理済み画像データを生成する。例えば、図1の(1以上の)画像プロセッサ114は、(1以上の)画像170に基づいて、1以上のダウンサンプリングされた画像172を生成するように構成されたダウンサンプラー134を含む。幾つかの実施態様では、ダウンサンプラー134が、種々のレベルのダウンサンプリングされた(1以上の)画像172を生成する複数のダウンサンプリングステージを含み得る。説明すると、カメラ122からのソース画像は、初めてダウンサンプリングされて第1のダウンサンプリングされた画像を生成し得、第1のダウンサンプリングされた画像は、1以上の更なる回数だけダウンサンプリングされて第2のダウンサンプリングされた画像を生成し得る。(1以上の)ダウンサンプリングされた画像172は、第1のダウンサンプリングされた画像、第2のダウンサンプリングされた画像、1以上の更なる画像、又はそれらの組み合わせを含んでよい。したがって、幾つかの実施態様では、複数のダウンサンプリングされた画像172が、カメラ122からの各ソース画像170について生成されてよい。 In one embodiment of FIG. 1, image(s) 170 are processed by image processor(s) 114 to generate processed image data. For example, image processor(s) 114 of FIG. 1 includes downsampler 134 configured to generate one or more downsampled images 172 based on image(s) 170 . In some implementations, downsampler 134 may include multiple downsampling stages that generate various levels of downsampled image(s) 172 . To illustrate, a source image from camera 122 may be downsampled for the first time to produce a first downsampled image, which is downsampled one or more additional times. A second downsampled image may be generated. Downsampled image(s) 172 may include a first downsampled image, a second downsampled image, one or more further images, or a combination thereof. Accordingly, in some implementations, multiple downsampled images 172 may be generated for each source image 170 from camera 122 .

図1の一実施例では、(1以上の)画像プロセッサ114がまた、(1以上の)画像170に基づいて、1以上の区分けマップ174(図1の「(1以上の)区分けマップ」)を生成するように構成された、区分けモデル136も含む。(1以上の)画像170の第1の画像に関連付けられた(1以上の)区分けマップ174は、第1の画像の区別可能な領域を表す。例えば、区分けマップ174は、第2のデバイス112の様々な部分の間の境界、第1の画像内で表されている第2のデバイス112と第1のデバイス102の部分との間の境界、第2のデバイス112、第1のデバイス102、若しくはそれらの両方、及び背景領域の間の境界、又はこれらの組み合わせを特徴付けてよい。 In one embodiment of FIG. 1, image processor(s) 114 also generates one or more segmentation maps 174 (“(one or more) segmentation maps” in FIG. 1) based on image(s) 170 . It also includes a partition model 136 configured to generate The segmentation map(s) 174 associated with the first of the image(s) 170 represent distinguishable regions of the first image. For example, the partition map 174 may include boundaries between various portions of the second device 112, boundaries between the portions of the second device 112 and the first device 102 represented in the first image, A boundary between the second device 112, the first device 102, or both, and the background region, or a combination thereof, may be characterized.

(1以上の)画像170、(1以上の)ダウンサンプリングされた画像172、(1以上の)区分けマップ174、又はそれらの組み合わせは、特徴データ176を生成するために、入力として特徴抽出モデル130に提供される。特定の一態様では、特徴データ176が、移動可能カップリングシステム104のキーポイントを表している第1の座標を含み、第2のデバイス112のキーポイントを表している第2の座標を含む。例えば、特徴データ176の少なくとも一部分を有する(1以上の)画像170の画像154を示している典型的なディスプレイ152が、図1で示されている。この実施例では、画像154が、第1のデバイス102の第1の部分156(移動可能カップリングシステム104の一部分など)と、第2のデバイス112の第2の部分162とを描いている。第1の部分156は、第1の座標160を表す又は第1の座標160によって表されるキーポイント158を含み、第2の部分162は、第2の座標166を表す又は第2の座標166によって表されるキーポイント164を含む。キーポイント158、164及び座標160、166は、特徴抽出モデル130によって決定され、特徴データ176内で示される。 Image(s) 170 , downsampled image(s) 172 , segmentation map(s) 174 , or combinations thereof are used as inputs to feature extraction model 130 to generate feature data 176 . provided to In one particular aspect, feature data 176 includes first coordinates representing keypoints of movable coupling system 104 and includes second coordinates representing keypoints of second device 112 . For example, an exemplary display 152 showing image 154 of image(s) 170 having at least a portion of feature data 176 is shown in FIG. In this illustrative example, image 154 depicts first portion 156 of first device 102 (such as a portion of moveable coupling system 104 ) and second portion 162 of second device 112 . A first portion 156 includes a keypoint 158 that represents or is represented by a first coordinate 160 and a second portion 162 represents or is represented by a second coordinate 166 . contains key points 164 represented by . Keypoints 158 , 164 and coordinates 160 , 166 are determined by feature extraction model 130 and represented within feature data 176 .

幾つかの実施態様では、特徴抽出モデル130が、機械学習モデルを含み又はそれに対応する。説明すると、特徴抽出モデル130は、画像154内のキーポイント158、164を検出し、各キーポイントに関連付けられた画像154内の座標位置を決定するように訓練された、ニューラルネットワークを含んでよく又はそれに対応してよい。幾つかの実施態様では、特徴抽出モデル130が、U-CNNなどの1以上の畳み込みニューラルネットワークを含み、又はそれに対応する。そのような実施態様では、ダウンサンプラー134と特徴抽出モデル130とが、U-CNNアーキテクチャ内で組み合わされてよい。それによって、(1以上の)画像170の特定の画像が、複数の異なる解像度でCNNによって評価され、特徴データ176を生成する。更に又は代替的に、ダウンサンプラー134と区分けモデル136とが、U-CNNアーキテクチャ内で組み合わされる。それによって、区分けマップを画像170の複数の解像度に基づいて生成することが可能になる。 In some implementations, feature extraction model 130 includes or corresponds to a machine learning model. To illustrate, the feature extraction model 130 may include a neural network trained to detect keypoints 158, 164 within the image 154 and determine the coordinate location within the image 154 associated with each keypoint. or correspond to it. In some implementations, feature extraction model 130 includes or corresponds to one or more convolutional neural networks, such as U-CNN. In such implementations, the downsampler 134 and the feature extraction model 130 may be combined within the U-CNN architecture. Thereby, a particular image (one or more) of images 170 is evaluated by the CNN at multiple different resolutions to generate feature data 176 . Additionally or alternatively, the downsampler 134 and the partitioning model 136 are combined within the U-CNN architecture. This allows a segmentation map to be generated based on multiple resolutions of image 170 .

特定の一態様では、特徴抽出モデル130が、少なくとも部分的に、第2のデバイス112の知られている幾何学的寸法形状142に基づいて、特徴データ176を生成するように構成されている。例えば、図1のメモリ140が、第2のデバイス112の知られている幾何学的寸法形状142を表すデータを記憶し、特徴抽出モデル130が、(1以上の)画像170内で検出されたキーポイントを、知られている幾何学的寸法形状142と比較して、間違った位置のキーポイントを検出し修正する。特定の一実施例として、特徴抽出モデル130は、知られている幾何学的寸法形状142をキーポイントと比較するインピュテーションネットワークであって、誤ったキーポイントを除去又は再配置するためのインピュテーションネットワークを含んでよい。幾つかの態様では、特徴抽出モデル130がまた、特徴データ176の精度を改善するために、(1以上の)画像170及び/又は特徴データ176を時間的にフィルタするためのカルマンフィルタも含む。 In one particular aspect, feature extraction model 130 is configured to generate feature data 176 based, at least in part, on known geometry 142 of second device 112 . For example, memory 140 of FIG. 1 stores data representing known geometric dimensions 142 of second device 112 and feature extraction model 130 detected in image(s) 170. Keypoints are compared to known geometry 142 to detect and correct misplaced keypoints. As one particular example, the feature extraction model 130 is an imputation network that compares known geometric dimensions 142 to keypoints and provides an imputation to remove or relocate erroneous keypoints. may include a computational network. In some aspects, feature extraction model 130 also includes a Kalman filter to temporally filter image(s) 170 and/or feature data 176 to improve accuracy of feature data 176 .

特徴データ176及び位置データ178は、入力として訓練済み自律エージェント132に提供される。特定の一態様では、訓練済み自律エージェント132が、特徴データ176及び位置データ178に基づいて、第1のコネクタ106を第2のコネクタ116に接続するための提案される手順180を生成するように構成される。特定の一実施態様では、訓練済み自律エージェント132が、ニューラルネットワークを含み又はニューラルネットワークに対応する。一実施例として、訓練済み自律エージェント132のニューラルネットワークは、1以上の強化学習技法を使用して訓練される。説明すると、訓練フェーズ中に、強化学習技法は、ニューラルネットワークによって出力された提案される手順180を、特定の状況における(例えば、特定の組の入力特徴データ176及び特定の組の位置データ178について)最適な又はターゲット手順と比較することによって決定される報酬に部分的に基づいて、ニューラルネットワークを訓練してよい。この文脈では、最適な又はターゲット手順が、例えば、コネクタ106、116を接続するための最も短い又は少ない費用の手順、同様な状況下で1人以上の熟練した作業人員によって実行される手順を模倣する手順、デバイス102、112の部分間の任意の望ましくない接触をもたらさないような一組の安全条件を満たす手順、訓練中又は訓練前に指定される操縦特性に対応する手順、又はそれらの組み合わせを含んでよい。 Feature data 176 and location data 178 are provided as inputs to trained autonomous agent 132 . In one particular aspect, trained autonomous agent 132 generates suggested procedures 180 for connecting first connector 106 to second connector 116 based on feature data 176 and location data 178. Configured. In one particular implementation, trained autonomous agent 132 includes or corresponds to a neural network. As one example, the neural network of trained autonomous agents 132 is trained using one or more reinforcement learning techniques. To illustrate, during the training phase, the reinforcement learning technique applies the proposed procedure 180 output by the neural network in a particular situation (e.g., for a particular set of input feature data 176 and a particular set of position data 178). ) may train the neural network based in part on a reward determined by comparison to an optimal or target procedure. In this context, the optimal or target procedure is, for example, the shortest or least expensive procedure for connecting the connectors 106, 116, mimicking the procedure performed by one or more skilled personnel under similar circumstances. a set of safety conditions that do not result in any undesired contact between parts of the device 102, 112, a procedure corresponding to the handling characteristics specified during or prior to training, or a combination thereof. may contain

訓練済み自律エージェント132によって生成される提案される手順180は、操縦システム144に、グラフィカルユーザインターフェース(GUI)エンジン150に、又はそれらの両方に出力されてよい。操縦システム144は、第1のデバイス102、移動可能カップリングシステム104、又はそれらの両方を再配置するための命令を生成及び/又は実行するように構成される。説明すると、操縦システム144は、提案される手順180に基づいて、移動可能カップリングシステム104の再配置を命令するように構成された、制御システムを含んでよく又はそれに対応してよい。具体的な一実施例として、第1のデバイス102が空中給油機を含むときに、操縦システム144は、空中給油機の飛行制御システム、燃料再補給ブームのブーム制御システム、又はそれらの両方を含む。 Suggested procedures 180 generated by trained autonomous agent 132 may be output to navigation system 144, to graphical user interface (GUI) engine 150, or both. Steering system 144 is configured to generate and/or execute instructions to reposition first device 102, moveable coupling system 104, or both. To illustrate, steering system 144 may include or correspond to a control system configured to command repositioning of moveable coupling system 104 based on proposed procedures 180 . As a particular example, when the first device 102 includes a tanker aircraft, the maneuvering system 144 includes a tanker aircraft flight control system, a refueling boom boom control system, or both. .

幾つかの実施態様では、操縦システム144が、1以上の機器146、手順制限器148、若しくはそれらの両方を含み、又はそれらに結合される。(1以上の)機器146は、第1のデバイス102に関連付けられた制御及び/若しくは安全センサを含み、又はそれらに結合される。特定の一実施態様では、(1以上の)機器146からのデータが、訓練済み自律エージェント132に提供されて、提案される手順180を生成する。例えば、第1のデバイス102が空中給油機に対応するときに、(1以上の)機器146は、空中給油機の飛行機器(例えば、高度計、迎え角インジケータ、機首方位インジケータ、対気速度インジケータなど)を含んでよい。この実施例では、(1以上の)機器146によって生成される飛行データが(特徴データ176及び位置データ178と共に)、訓練済み自律エージェント132に提供されて、提案される手順180を生成してよい。 In some embodiments, steering system 144 includes or is coupled to one or more instruments 146, procedure limiters 148, or both. The instrument(s) 146 include or are coupled to control and/or safety sensors associated with the first device 102 . In one particular implementation, data from device(s) 146 is provided to trained autonomous agent 132 to generate suggested procedure 180 . For example, when the first device 102 corresponds to a tanker aircraft, the equipment(s) 146 may correspond to the tanker aircraft's aircraft equipment (e.g., altimeter, angle of attack indicator, heading indicator, airspeed indicator). etc.). In this example, flight data generated by device(s) 146 (along with feature data 176 and position data 178) may be provided to trained autonomous agent 132 to generate suggested procedure 180. .

手順制限器148は、手順制限基準が満たされているかどうかを判定するために、操縦システム144に関連付けられたチェックを行う。手順制限器148が、手順制限基準が満たされていると判定した場合、手順制限器148は、操縦システム144に、実行され得る操縦動作を制限させる。一実施例として、手順制限器148は、提案される手順180として選択され得る一組の手順を制限するために、訓練済み自律エージェント132にデータを提供してよい。説明すると、手順制限基準は、空中での燃料再補給のための最低高度を示してよく、手順制限器148は、高度計(例えば、機器146のうちの1つ)が、空中給油機(例えば、第1のデバイス102)が最低高度より下方にあることを示すときに、訓練済み自律エージェント132が、ブーム燃料再補給コネクタ(例えば、第1のコネクタ106)を燃料受け口(例えば、第2のコネクタ116)に接続するための手順を提案することを防止してよい。更に又は代替的に、手順制限器148は、提案される手順180に基づいて、第1のデバイス102又は移動可能カップリングシステム104によって実行され得る操縦動作を制限してよい。 A procedure limiter 148 performs checks associated with the steering system 144 to determine if procedure limit criteria are met. If procedure limiter 148 determines that the procedure limit criteria are met, procedure limiter 148 causes steering system 144 to limit the maneuver operations that may be performed. As one example, procedure limiter 148 may provide data to trained autonomous agent 132 to limit the set of procedures that may be selected as suggested procedures 180 . Illustratively, the procedure limit criteria may indicate a minimum altitude for airborne refueling, and the procedure limiter 148 indicates that the altimeter (e.g., one of the instruments 146) When the first device 102) indicates that it is below the minimum altitude, the trained autonomous agent 132 moves the boom refueling connector (eg, first connector 106) to the fuel receptacle (eg, second connector). 116) may be prevented from proposing a procedure for connecting to . Additionally or alternatively, procedure limiter 148 may limit steering actions that may be performed by first device 102 or moveable coupling system 104 based on suggested procedure 180 .

GUIエンジン150は、表示152を生成するように構成され、第1のデバイス102に搭載された又は搭載されないディスプレイデバイスに表示152を提供するように構成される。表示152は、第1のデバイス102の第1の部分156、第2のデバイス112の第2の部分162、又はそれらの両方、を描いている画像154を含む。幾つかの実施態様では、キーポイント158、164、座標160、166、又はそれらの両方が、表示152内に描かれる。他の実施態様では、キーポイント158、164及び座標160、166が、特徴データ176の部分として決定されるが、表示152内で描かれない。幾つかの実施態様では、表示152が、画像154の少なくとも一部分と重なり且つ提案される手順180を示す1以上のグラフィカル要素168を含む。例えば、(1以上の)グラフィカル要素168は、移動可能カップリングシステム104を誘導する方向、移動可能カップリングシステム104を誘導する量(例えば、角度変位又は距離)、又はそれらの両方を示してよい。 GUI engine 150 is configured to generate display 152 and to provide display 152 to a display device that may or may not be mounted on first device 102 . Display 152 includes image 154 depicting first portion 156 of first device 102, second portion 162 of second device 112, or both. In some implementations, keypoints 158 , 164 , coordinates 160 , 166 , or both are depicted within display 152 . In other embodiments, keypoints 158 , 164 and coordinates 160 , 166 are determined as part of feature data 176 but not drawn within display 152 . In some implementations, display 152 includes one or more graphical elements 168 that overlap at least a portion of image 154 and indicate suggested procedures 180 . For example, graphical element(s) 168 may indicate a direction to steer moveable coupling system 104, an amount (e.g., angular displacement or distance) to steer moveable coupling system 104, or both. .

訓練済み自律エージェント132は、第1のデバイス102の他の特徴と併せて、第1のコネクタ106と第2のコネクタ116とを接続するための動作の効率(例えば、訓練費用を低減させることによって)、信頼性、及び再現性を改善する。例えば、訓練済み自律エージェント132は、作業人員を訓練するために必要とされる時間及び費用なしに、高度に熟練した作業人員によって実行される手順を模倣することができる。例えば、訓練済み自律エージェント132は、熟練した作業人員によって実行されるものよりも最適な手順を決定することによって、熟練した作業人員によって実行される手順を改善することができる。 The trained autonomous agent 132, in conjunction with other features of the first device 102, increases the efficiency of operations (e.g., by reducing training costs) for connecting the first connector 106 and the second connector 116. ), improving reliability and reproducibility. For example, trained autonomous agents 132 can mimic procedures performed by highly skilled workers without the time and expense required to train the workers. For example, trained autonomous agent 132 can improve procedures performed by skilled workers by determining procedures that are more optimal than those performed by skilled workers.

図1は、(1以上の)補足的なセンサ128を含む第1のデバイス102を描いているが、幾つかの実施態様では、補足的なセンサ128が、省略され、又は訓練済み自律エージェント132への入力を生成するために使用されない。例えば、位置データ178は、位置エンコーダ126の出力のみから決定されてよい。 Although FIG. 1 depicts first device 102 including supplemental sensor(s) 128 , in some implementations supplemental sensors 128 are omitted or trained autonomous agent 132 . not used to generate input to For example, position data 178 may be determined from the output of position encoder 126 alone.

図1は、(1以上の)画像プロセッサ114を含む第1のデバイス102を描いているが、他の実施態様では、(1以上の)画像170が、それらが入力として特徴抽出モデル130に提供される前に、(1以上の)画像プロセッサ114によって前処理されない。 Although FIG. 1 depicts first device 102 including image processor(s) 114, in other implementations, image(s) 170 are provided to feature extraction model 130 as inputs. are not preprocessed by the image processor(s) 114 before being processed.

図1は、第1のデバイス102に搭載されていない操縦システム144、GUIエンジン150、及びディスプレイ152を描いているが、他の実施態様では、操縦システム144、GUIエンジン150、又はディスプレイ152のうちの1以上が、第1のデバイス102に搭載される。 Although FIG. 1 depicts navigation system 144 , GUI engine 150 , and display 152 not onboard first device 102 , in other implementations, none of navigation system 144 , GUI engine 150 , or display 152 may be included. are mounted on the first device 102 .

区分けモデル136、ダウンサンプラー134、及び特徴抽出モデル130は、図1において別個の構成要素として描かれているが、他の実施態様では、区分けモデル136、ダウンサンプラー134、及び特徴抽出モデル130のうちの2つ以上の説明される機能が、単一の構成要素によって実行され得る。幾つかの実施態様では、区分けモデル136、ダウンサンプラー134、及び特徴抽出モデル130のうちの1以上を、特定用途向け集積回路(ASIC)又はフィールドプログラマブルゲートアレイ(FPGA)などを介して、ハードウェアで表すことができる。幾つかの実施態様では、区分けモデル136、ダウンサンプラー134、及び特徴抽出モデル130のうちの1以上を参照しながら説明される動作が、単一のプロセッサ(例えば、(1以上の)プロセッサ120若しくは(1以上の)画像プロセッサ114)によって、又は、直列動作、並列動作、若しくはそれらの組み合わせを使用する複数のプロセッサによって実行される。 Although segmentation model 136, downsampler 134, and feature extraction model 130 are depicted as separate components in FIG. 1, in other embodiments, segmentation model 136, downsampler 134, and feature extraction model 130 are Two or more of the described functions of may be performed by a single component. In some implementations, one or more of segmentation model 136, downsampler 134, and feature extraction model 130 are implemented in hardware, such as via an application specific integrated circuit (ASIC) or field programmable gate array (FPGA). can be expressed as In some implementations, the operations described with reference to one or more of segmentation model 136, downsampler 134, and feature extraction model 130 are performed by a single processor (eg, processor(s) 120 or by the image processor(s) 114), or by multiple processors using serial operation, parallel operation, or a combination thereof.

図2は、画像データ及び位置データに基づいて、第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成された、システム200を示す図である。システム200は、システム100の特定の非限定的な一実施例である。図2の一実施例では、第1のデバイス102が、空中給油機102Aに対応し、移動可能カップリングシステム104が、燃料再補給ブーム104Aに対応する。この実施例では、第1のコネクタ106が、燃料再補給ブーム104Aの燃料再補給コネクタ106Aに対応する。更に、第2のデバイス112は、受け取る側の航空機112Aに対応し、第2のコネクタ116は、受け取る側の航空機112Aの受け取る側の受け口116Aに対応する。 FIG. 2 illustrates a system 200 configured to generate suggested procedures for connecting a first connector to a second connector based on image data and position data. System 200 is one specific, non-limiting example of system 100 . In one embodiment of FIG. 2, first device 102 corresponds to tanker aircraft 102A and movable coupling system 104 corresponds to refueling boom 104A. In this example, first connector 106 corresponds to refueling connector 106A of refueling boom 104A. Further, the second device 112 corresponds to the receiving aircraft 112A and the second connector 116 corresponds to the receiving receptacle 116A of the receiving aircraft 112A.

図2では、空中給油機102Aが、(1以上の)センサ124とカメラ122とを含む。それらの各々は、図1を参照しながら説明されたように動作する。説明すると、(1以上の)センサ124は、空中給油機102Aの基準フレーム内の燃料再補給ブーム104Aの又は燃料再補給コネクタ106Aの位置を示す位置データ178を生成する位置エンコーダ126を含んでよい。 In FIG. 2 , tanker aircraft 102 A includes sensor(s) 124 and camera 122 . Each of them operates as described with reference to FIG. To illustrate, the sensor(s) 124 may include a position encoder 126 that produces position data 178 indicative of the position of the refueling boom 104A or of the refueling connector 106A within the frame of reference of the tanker aircraft 102A. .

更に、空中給油機102Aは、燃料再補給ブーム104Aを介して、受け取る側の航空機112Aに燃料を供給するための燃料タンク202を含む。空中給油機102Aはまた、1以上の飛行機器208に結合された飛行制御システム204も含む。飛行制御システム204は、空中給油機102Aの飛行動作を制御する又はその制御を容易にするように構成されている。空中給油機102Aはまた、燃料再補給ブーム104Aを制御する又はその制御を容易にするためのブームコントローラ206も含む。(1以上の)飛行機器208、飛行制御システム204、又はそれらの組み合わせは、飛行データを受け取るための航空機センサ210に結合されている。飛行データは、提案される手順180を生成するために訓練済み自律エージェント132によって使用されてよく、又は提案される手順180を制限するために手順制限器148によって使用されてよい。幾つかの実施態様では、飛行制御システム204、ブームコントローラ206、又はそれらの両方が、図1の操縦システム144を含み、それに対応し、又はそれに含まれる。 Additionally, tanker aircraft 102A includes fuel tanks 202 for supplying fuel to receiving aircraft 112A via refueling boom 104A. Tanker aircraft 102 A also includes a flight control system 204 coupled to one or more aircraft 208 . Flight control system 204 is configured to control or facilitate control of the flight operations of tanker aircraft 102A. Tanker aircraft 102A also includes boom controller 206 for controlling or facilitating control of refueling boom 104A. Airplane instrument(s) 208, flight control system 204, or a combination thereof are coupled to aircraft sensors 210 for receiving flight data. Flight data may be used by trained autonomous agent 132 to generate suggested procedures 180 or may be used by procedure limiter 148 to limit suggested procedures 180 . In some implementations, flight control system 204, boom controller 206, or both include, correspond to, or are included in steering system 144 of FIG.

空中給油機102Aのカメラ122は、空中での燃料再補給動作中に燃料再補給ブーム104A及び受け取る側の航空機112Aの少なくとも一部分を描く(1以上の)画像170をキャプチャするように配置されている。図3は、図2のカメラ122からの画像に基づいて生成された表示152Aの特定の一実施例を示している図である。図3では、表示152Aが、図1のディスプレイ152の特定の一実施例である。例えば、表示152Aは、受け取る側の航空機112Aの一部分、及び燃料再補給ブーム104Aの一部分を描いている。この特定の実施例では、表示152Aがまた、燃料再補給コネクタ106A、及び受け取る側の航空機112Aの燃料再補給受け口116Aも描いている。また、図3で示されている一実施例では、表示152Aが、提案される手順180を示すグラフィカル要素302も含む。図3で示されている一実施例では、提案される手順180が、燃料再補給コネクタ106Aを左へ(図示されている基準フレーム内で)移動させることを示唆している。 Camera 122 of tanker aircraft 102A is positioned to capture image(s) 170 depicting at least a portion of refueling boom 104A and receiving aircraft 112A during an airborne refueling operation. . FIG. 3 is a diagram showing one particular embodiment of display 152A generated based on images from camera 122 of FIG. In FIG. 3, display 152A is a specific example of display 152 in FIG. For example, display 152A depicts a portion of receiving aircraft 112A and a portion of refueling boom 104A. In this particular example, display 152A also depicts refueling connector 106A and refueling refueling receptacle 116A of receiving aircraft 112A. In one embodiment, shown in FIG. 3, display 152A also includes graphical element 302 that shows suggested procedure 180. As shown in FIG. In one example shown in FIG. 3, the proposed procedure 180 suggests moving the refueling connector 106A to the left (within the frame of reference shown).

図4A、図4B、図4C、及び図4Dは、幾つかの実施態様による、図2のシステム200による画像処理及び特徴検出の様々な態様を示す図である。特に、図4Aは、図2の受け取る側の航空機112Aを描くソース画像400の一実施例を示している。図4Bは、図1の特徴抽出モデル130によって検出された典型的なキーポイント412及び414などのキーポイントの一実施例410を描いている。図4Bの一実施例410では、キーポイント414が、受け取る側の航空機112Aの知られている幾何学的寸法形状142に基づいて位置416に配置されるべき間違った位置のキーポイントの一実施例である。図4Cは、図4Bのキーポイント414が、受け取る側の航空機112Aの知られている幾何学的寸法形状142に基づいて再配置された、一実施例420を描いている。図4Dは、区分けマップ174を生成するために、ソース画像400が区分けモデル136によって処理された、一実施例430を示している。例えば、図4Dでは、ソース画像400の典型的なセグメント432などの様々なセグメントが、異なる塗りつぶしパターンで区別されている。 4A, 4B, 4C, and 4D are diagrams illustrating various aspects of image processing and feature detection by system 200 of FIG. 2, according to some implementations. In particular, FIG. 4A shows an example of a source image 400 depicting receiving aircraft 112A of FIG. FIG. 4B depicts an example 410 of keypoints, such as exemplary keypoints 412 and 414 detected by the feature extraction model 130 of FIG. In one example 410 of FIG. 4B, a keypoint 414 is an example of a wrong position keypoint to be placed at a position 416 based on the known geometry 142 of the receiving aircraft 112A. is. FIG. 4C depicts an example 420 in which the keypoints 414 of FIG. 4B have been relocated based on the known geometry 142 of the receiving aircraft 112A. FIG. 4D shows an example 430 in which the source image 400 was processed by the segmentation model 136 to generate the segmentation map 174 . For example, in FIG. 4D, various segments, such as exemplary segment 432 of source image 400, are distinguished by different fill patterns.

図5は、画像データ及び位置データに基づいて第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成されたシステム500を示す図である。システム500は、システム100の特定の非限定的な一実施例である。図5の一実施例では、第1のデバイス102が、第1の宇宙船102Bに対応し、移動可能カップリングシステム104が、ドッキングアーム104Bに対応する。この実施例では、第1のコネクタ106が、ドッキングアーム104Bのドッキングコネクタ106Bに対応する。更に、第2のデバイス112が、第2の宇宙船112Bに対応し、第2のコネクタ116が、第2の宇宙船112Bのドッキングコネクタ116Bに対応する。 FIG. 5 illustrates a system 500 configured to generate suggested procedures for connecting a first connector to a second connector based on image data and position data. System 500 is one specific, non-limiting example of system 100 . In one example of FIG. 5, first device 102 corresponds to first spacecraft 102B and movable coupling system 104 corresponds to docking arm 104B. In this example, first connector 106 corresponds to docking connector 106B of docking arm 104B. Additionally, a second device 112 corresponds to a second spacecraft 112B and a second connector 116 corresponds to a docking connector 116B of the second spacecraft 112B.

図5では、第1の宇宙船102Bが、(1以上の)センサ124とカメラ122とを含み、それらの各々が、図1を参照しながら説明されたように動作する。説明すると、(1以上の)センサ124は、第1の宇宙船102Bの基準フレームに対するドッキングアーム104Bの又はドッキングコネクタ106Bの位置を示す位置データ178を生成する位置エンコーダ126を含んでよい。 In FIG. 5, first spacecraft 102B includes sensor(s) 124 and camera 122, each of which operates as described with reference to FIG. To illustrate, the sensor(s) 124 may include a position encoder 126 that produces position data 178 indicative of the position of the docking arm 104B or docking connector 106B relative to the frame of reference of the first spacecraft 102B.

第1の宇宙船102Bは、1以上の機器506に結合された制御システム504を含む。制御システム504は、第1の宇宙船102Bの動作を制御する又はその制御を容易にするように構成されている。第1の宇宙船102Bはまた、ドッキングアーム104Bを制御する又はその制御を容易にするためのドッキングコントローラ508も含む。制御システム504、ドッキングアーム104B、又はそれらの両方は、データを受け取るためにセンサ510に結合されている。データは、提案される手順180を生成するために訓練済み自律エージェント132によって使用されてよく、又は提案される手順180を制限するために手順制限器148によって使用されてよい。幾つかの実施態様では、制御システム504、ドッキングコントローラ508、又はそれらの両方が、図1の操縦システム144を含み、それに対応し、又はそれに含まれる。 First spacecraft 102B includes control system 504 coupled to one or more instruments 506 . Control system 504 is configured to control or facilitate control of the operation of first spacecraft 102B. First spacecraft 102B also includes docking controller 508 for controlling or facilitating control of docking arm 104B. Control system 504, docking arm 104B, or both are coupled to sensor 510 to receive data. The data may be used by trained autonomous agent 132 to generate suggested procedures 180 or may be used by procedure limiter 148 to limit suggested procedures 180 . In some implementations, control system 504, docking controller 508, or both include, correspond to, or are included in steering system 144 of FIG.

第1の宇宙船102Bのカメラ122は、ドッキング動作中にドッキングアーム104B及び第2の宇宙船112Bの少なくとも一部分を描く(1以上の)画像170をキャプチャするように配置されている。図6は、図5のカメラ122からの画像に基づいて生成された表示152Bの特定の一実施例を示している図である。図6では、表示152Bが、図1のディスプレイ152の特定の一実施例である。例えば、表示152Bは、第2の宇宙船の一部分、及びドッキングアーム104Bの一部分を描いている。この特定の実施例では、表示152Bがまた、ドッキングコネクタ106B、及び第2の宇宙船112Bのドッキングコネクタ116Bも描いている。また、図6で示されている一実施例では、表示152Bが、提案される手順180を示すグラフィカル要素602も含む。図6で示されている一実施例では、提案される手順180が、ドッキングコネクタ106Bを左へ(図示されている基準フレーム内で)移動させることを示唆している。 Camera 122 of first spacecraft 102B is positioned to capture image(s) 170 depicting at least a portion of docking arm 104B and second spacecraft 112B during a docking operation. FIG. 6 is a diagram showing one particular example of a display 152B generated based on images from camera 122 of FIG. In FIG. 6, display 152B is a specific example of display 152 in FIG. For example, display 152B depicts a portion of the second spacecraft and a portion of docking arm 104B. In this particular example, display 152B also depicts docking connector 106B and docking connector 116B of second spacecraft 112B. In one embodiment, shown in FIG. 6, display 152B also includes graphical element 602 that shows suggested procedure 180. FIG. In one example shown in FIG. 6, suggested procedure 180 suggests moving docking connector 106B to the left (within the frame of reference shown).

図7A、図7B、図7C、及び図7Dは、幾つかの実施態様による、図5のシステム500による画像処理及び特徴検出の様々な態様を示す図である。特に、図7Aは、図5の第2の宇宙船112Bを描くソース画像700の一実施例を示している。図7Bは、図1の特徴抽出モデル130によって検出された典型的なキーポイント712及び714を含むキーポイントの一実施例710を描いている。図7Bの一実施例710では、キーポイント714が、第2の宇宙船112Bの知られている幾何学的寸法形状142に基づいて位置716に配置されるべき間違った位置のキーポイントの一実施例である。図7Cは、図7Bのキーポイント714が、第2の宇宙船112Bの知られている幾何学的寸法形状142に基づいて再配置された、一実施例720を描いている。図7Dは、区分けマップ174を生成するために、ソース画像700が区分けモデル136によって処理された、一実施例730を示している。例えば、図7Dでは、典型的なセグメント732などのソース画像700の様々なセグメントが、異なる塗りつぶしパターンで区別されている。 7A, 7B, 7C, and 7D are diagrams illustrating various aspects of image processing and feature detection by system 500 of FIG. 5, according to some implementations. In particular, FIG. 7A shows an example of a source image 700 depicting second spacecraft 112B of FIG. FIG. 7B depicts an example of keypoints 710 including exemplary keypoints 712 and 714 detected by the feature extraction model 130 of FIG. In one embodiment 710 of FIG. 7B, a keypoint 714 is an implementation of a wrong position keypoint to be placed at a position 716 based on the known geometry 142 of the second spacecraft 112B. For example. FIG. 7C depicts an example 720 in which the keypoints 714 of FIG. 7B have been relocated based on the known geometry 142 of the second spacecraft 112B. FIG. 7D shows an example 730 in which the source image 700 was processed by the segmentation model 136 to generate the segmentation map 174 . For example, in FIG. 7D, various segments of source image 700, such as exemplary segment 732, are distinguished by different fill patterns.

図8は、画像データ及び位置データに基づいて第1のコネクタを第2のコネクタに接続するための提案される手順を生成する方法800の一実施例のフローチャートである。方法800は、第1のデバイス102又はその1以上の構成要素によって実行されてよく、(1以上の)画像プロセッサ114、(1以上の)プロセッサ120、ダウンサンプラー134、区分けモデル136、特徴抽出モデル130、訓練済み自律エージェント132、若しくはそれらの組み合わせなどによって実行されてよい。 FIG. 8 is a flowchart of one embodiment of a method 800 for generating suggested procedures for connecting a first connector to a second connector based on image data and position data. Method 800 may be performed by first device 102 or one or more components thereof, including image processor(s) 114, processor(s) 120, downsampler 134, segmentation model 136, feature extraction model. 130, a trained autonomous agent 132, or a combination thereof.

方法800は、802で、特徴データを生成するために、第1の画像を入力として特徴抽出モデルに提供することを含む。第1の画像は、第1のデバイスの第1の部分と第2のデバイスの第2の部分とを描いている。例えば、(1以上の)画像170のうちの1以上、(1以上の)ダウンサンプリングされた画像172のうちの1以上、又はそれらの両方が、第1の部分156と第2の部分162を描き、入力として図1の特徴抽出モデル130に提供されてよい。特徴抽出モデルによって生成された特徴データは、第1の画像内で描かれている第1のデバイスのキーポイントを表している第1の座標を含み、第1の画像内で描かれている第2のデバイスのキーポイントを表している第2の座標を含む。例えば、特徴データ176は、画像154内で描かれているキーポイント158を表している第1の座標160を示してよく、画像154内で描かれているキーポイント164を表している第2の座標166を示してよい。 The method 800 includes, at 802, providing the first image as input to a feature extraction model to generate feature data. The first image depicts a first portion of the first device and a second portion of the second device. For example, one or more of the images 170 (one or more), one or more of the downsampled images 172 (one or more), or both may form the first portion 156 and the second portion 162. may be drawn and provided as input to the feature extraction model 130 of FIG. The feature data generated by the feature extraction model includes first coordinates representing keypoints of a first device depicted within the first image, and a first coordinate depicted within the first image. 2 includes second coordinates representing keypoints of the device. For example, feature data 176 may indicate a first coordinate 160 representing keypoint 158 depicted within image 154 and a second coordinate 160 representing keypoint 164 depicted within image 154 . Coordinates 166 may be indicated.

方法800はまた、804で、第1のデバイスに搭載されている1以上のセンサから、第1のデバイスの第1のコネクタの3D空間内の位置を示している位置データを取得することを含む。その場合、第1のコネクタは、第1のデバイスの第1の部分上に配置されている。例えば、(1以上の)センサ124が位置データ178を生成する。位置データ178は、第1のデバイス102の基準フレーム内の第1のコネクタ106の位置を示している。 The method 800 also includes, at 804, obtaining position data indicative of a position in 3D space of the first connector of the first device from one or more sensors onboard the first device. . In that case, the first connector is arranged on the first portion of the first device. For example, sensor(s) 124 generate position data 178 . Position data 178 indicates the position of first connector 106 within the frame of reference of first device 102 .

方法800は、806で、第1のコネクタを第2のデバイスの第2のコネクタに接続するための提案される手順を生成するために、特徴データ及び位置データを入力として訓練済み自律エージェントに提供することを更に含む。例えば、(1以上の)プロセッサ120は、第1のコネクタ106と第2のコネクタ116とを接続するための提案される手順180を生成するために、特徴データ176及び位置データ178を入力として訓練済み自律エージェント132に提供する。 At 806, the method 800 provides feature data and location data as inputs to a trained autonomous agent to generate a suggested procedure for connecting the first connector to the second connector of the second device. further comprising: For example, processor(s) 120 may be trained with feature data 176 and location data 178 as input to generate suggested procedures 180 for connecting first connector 106 and second connector 116 . provided to the autonomous agent 132 .

図9は、画像データ及び位置データに基づいて第1のコネクタを第2のコネクタに接続するための提案される手順を生成する方法900の別の一実施例のフローチャートである。方法900は、第1のデバイス102又はその1以上の構成要素によって実行されてよく、(1以上の)画像プロセッサ114、(1以上の)プロセッサ120、ダウンサンプラー134、区分けモデル136、特徴抽出モデル130、訓練済み自律エージェント132、若しくはそれらの組み合わせなどによって実行されてよい。 FIG. 9 is a flowchart of another embodiment of a method 900 for generating suggested procedures for connecting a first connector to a second connector based on image data and position data. Method 900 may be performed by first device 102 or one or more components thereof, including image processor(s) 114, processor(s) 120, downsampler 134, segmentation model 136, feature extraction model. 130, a trained autonomous agent 132, or a combination thereof.

方法900は、902で、ソース画像を受け取ることを含む。例えば、ソース画像は、カメラ122によってキャプチャされた(1以上の)画像170のうちの1つを含んでよく、又はそれに対応してよい。 Method 900 includes, at 902, receiving a source image. For example, the source image may include or correspond to one of the image(s) 170 captured by camera 122 .

方法900は、904で、第1の画像を生成するために、ソース画像を1以上の回数だけダウンサンプリングすることを含む。例えば、ダウンサンプラー134が、(1以上の)画像170のうちの1つをダウンサンプリングして、(1以上の)ダウンサンプリングされた画像172のうちの1つを第1の画像として生成してよい。幾つかの実施例では、第1の画像を生成するために、ダウンサンプラー134が、ソース画像を1回より多い回数(2回以上など)だけダウンサンプリングする。説明すると、ダウンサンプラー134は、第1の画像を生成するためにソース画像を1以上の回数だけダウンサンプリングしてよく、第2の画像を生成するために第1の画像を1以上の更なる回数だけダウンサンプリングしてよい。 At 904, method 900 includes downsampling the source image one or more times to generate a first image. For example, downsampler 134 downsamples one of image(s) 170 to produce one of downsampled image(s) 172 as the first image. good. In some embodiments, downsampler 134 downsamples the source image more than one time (eg, two or more times) to generate the first image. To illustrate, downsampler 134 may downsample the source image one or more times to generate a first image, and one or more further samples of the first image to generate a second image. You can downsample as many times as you like.

方法900は、906で、特徴データを生成するために、複数の画像(例えば、ソース画像、第1の画像、第2の画像、又はそれらの組み合わせ)のうちの少なくとも1つを、入力として特徴抽出モデルに提供することを含む。幾つかの実施例では、方法900が、複数の画像のうちの少なくとも1つに基づいて区分けマップを生成し、区分けマップを同様に入力として特徴抽出モデルに提供することを含む。例えば、(1以上の)画像170のうちの1以上、(1以上の)ダウンサンプリングされた画像172のうちの1以上、区分けマップ174、又はそれらの組み合わせが、入力として図1の特徴抽出モデル130に提供される。この実施例では、特徴抽出モデル130によって生成される特徴データが、画像154内で描かれているキーポイント158を表している第1の座標160、及び、画像154内で描かれているキーポイント164を表している第2の座標166を示してよい。 At 906, the method 900 combines at least one of a plurality of images (eg, a source image, a first image, a second image, or a combination thereof) as input to generate feature data. Including providing to the extraction model. In some examples, the method 900 includes generating a segmentation map based on at least one of the plurality of images and providing the segmentation map as input to the feature extraction model as well. For example, one or more of the image(s) 170, one or more of the downsampled image(s) 172, the segmentation map 174, or a combination thereof may be input to the feature extraction model of FIG. 130. In this example, the feature data generated by feature extraction model 130 includes first coordinates 160 representing keypoints 158 depicted within image 154 and keypoints depicted within image 154 . A second coordinate 166 representing 164 may be shown.

方法900は、908で、第1のデバイスの第1のコネクタの3D空間内の位置を示している位置データを取得することを含む。例えば、(1以上の)センサ124が位置データ178を生成してよい。位置データ178は、第1のデバイス102の基準フレーム内の第1のコネクタ106の位置を示している。 The method 900 includes, at 908, obtaining position data indicative of a position in 3D space of the first connector of the first device. For example, sensor(s) 124 may generate position data 178 . Position data 178 indicates the position of first connector 106 within the frame of reference of first device 102 .

方法900は、910で、第2のデバイスのキーポイントを表している座標と第2のデバイスの知られている幾何学的寸法形状との比較を実行することを含む。例えば、キーポイント164の第2の座標166が、第2のデバイス112の知られている幾何学的寸法形状142と比較されて、任意のキーポイントが誤って配置されているかどうかを判定してよい。 The method 900 includes, at 910, performing a comparison of the coordinates representing the keypoints of the second device to the known geometry of the second device. For example, the second coordinates 166 of the keypoints 164 are compared to the known geometry 142 of the second device 112 to determine if any keypoints are misplaced. good.

方法900は、912で、その比較に基づいて特徴データを修正することを含む。例えば、知られている幾何学的寸法形状142と第2の座標166との比較に基づいて、キーポイント164のうちの1以上が誤って配置されていると判定したこと応じて、特徴データ176は修正されてよい。この実施例では、誤って配置されているキーポイント164が、特徴データ176内で再配置されてよく、又は特徴データ176から省略されてよい。 At 912, method 900 includes modifying the feature data based on the comparison. For example, in response to determining that one or more of the keypoints 164 are misplaced based on a comparison of the known geometry 142 and the second coordinates 166, the feature data 176 may be modified. In this example, misplaced keypoints 164 may be relocated within feature data 176 or omitted from feature data 176 .

方法900は、914で、第1のコネクタを第2のデバイスの第2のコネクタに接続するための提案される手順を生成するために、特徴データ及び位置データを入力として訓練済み自律エージェントに提供することを含む。例えば、(1以上の)プロセッサ120は、第1のコネクタ106と第2のコネクタ116とを接続するための提案される手順180を生成するために、特徴データ176及び位置データ178を入力として訓練済み自律エージェント132に提供してよい。幾つかの実施例では、位置データ178が、補足的なセンサ128からの補足的なセンサデータを含む。そのデータがまた、入力として訓練済み自律エージェント132に提供される。 At 914, the method 900 provides feature data and location data as inputs to a trained autonomous agent to generate a suggested procedure for connecting the first connector to the second connector of the second device. including doing For example, processor(s) 120 may be trained with feature data 176 and location data 178 as input to generate suggested procedures 180 for connecting first connector 106 and second connector 116 . provided to the autonomous agent 132 . In some examples, position data 178 includes supplemental sensor data from supplemental sensors 128 . That data is also provided to the trained autonomous agent 132 as input.

方法900は、916で、手順制限基準が満たされている場合に手順制限出力を生成することを含む。例えば、図1の手順制限器148が、手順制限基準が満たされているかどうかを判定してよく、手順制限基準が満たされていることに応じて手順制限出力を生成してよい。幾つかの実施例では、提案される手順として選択され得る手順を制限するために、手順制限出力がまた、入力として訓練済み自律エージェントに提供される。 The method 900 includes, at 916, generating a procedure-limited output if the procedure-limited criteria are met. For example, the procedure limiter 148 of FIG. 1 may determine whether the procedure limit criteria are met and may generate a procedure limit output in response to the procedure limit criteria being met. In some embodiments, a procedure limit output is also provided as an input to the trained autonomous agent to limit the procedures that can be selected as suggested procedures.

方法900は、918で、提案される手順を示すこと、提案される手順に基づいて第1のデバイスの再配置を命令すること、又はその両方を行う、グラフィカル要素を有するGUIを生成することを含む。例えば、図1の提案される手順180は、表示152を生成するGUIエンジン150に提供されてよい。この実施例では、表示152が、提案される手順180を表す(1以上の)グラフィカル要素を含む。別の一実施例として、提案される手順180は、第1のデバイス102又はその部分(移動可能カップリングシステム104など)に提案される手順180を実行させ得る操縦システム144に提供されてよい。 At 918, the method 900 includes generating a GUI having graphical elements that indicate the proposed procedure, instruct relocation of the first device based on the proposed procedure, or both. include. For example, suggested procedure 180 of FIG. 1 may be provided to GUI engine 150 to generate display 152 . In this example, display 152 includes graphical element(s) representing proposed procedure 180 . As another example, suggested procedure 180 may be provided to steering system 144 that may cause first device 102 or portions thereof (such as movable coupling system 104 ) to perform suggested procedure 180 .

図10は、画像データ及び位置データに基づいて第1のコネクタを第2のコネクタに接続するための提案される手順を生成するために、自律エージェントを訓練する方法1000の一実施例のフローチャートである。方法1000は、図1の第1のデバイス102に搭載されている又は第1のデバイス102に搭載されていない1以上のプロセッサによって実行されてよい。例えば、方法1000は、(1以上の)画像プロセッサ114、(1以上の)プロセッサ120、又は図13の(1以上の)プロセッサ1320で実行されてよい。 FIG. 10 is a flowchart of one embodiment of a method 1000 for training an autonomous agent to generate suggested procedures for connecting a first connector to a second connector based on image data and location data. be. The method 1000 may be performed by one or more processors on or off the first device 102 of FIG. For example, method 1000 may be performed by image processor(s) 114, processor(s) 120, or processor(s) 1320 of FIG.

方法1000は、1002で、特徴データを生成するために、第1の画像を入力として特徴抽出モデルに提供することを含む。第1の画像は、第1のデバイスの第1の部分と第2のデバイスの第2の部分とを描いている。例えば、(1以上の)画像170のうちの1以上、(1以上の)ダウンサンプリングされた画像172のうちの1以上、又はそれらの両方が、第1の部分156と第2の部分162を描き、入力として図1の特徴抽出モデル130に提供されてよい。特徴抽出モデルによって生成された特徴データは、第1の画像内で描かれている第1のデバイスのキーポイントを表している第1の座標を含み、第1の画像内で描かれている第2のデバイスのキーポイントを表している第2の座標を含む。例えば、特徴データ176は、画像154内で描かれているキーポイント158を表している第1の座標160を示してよく、画像154内で描かれているキーポイント164を表している第2の座標166を示してよい。 At 1002, method 1000 includes providing a first image as input to a feature extraction model to generate feature data. The first image depicts a first portion of the first device and a second portion of the second device. For example, one or more of the images 170 (one or more), one or more of the downsampled images 172 (one or more), or both may form the first portion 156 and the second portion 162. may be drawn and provided as input to the feature extraction model 130 of FIG. The feature data generated by the feature extraction model includes first coordinates representing keypoints of a first device depicted within the first image, and a first coordinate depicted within the first image. 2 includes second coordinates representing keypoints of the device. For example, feature data 176 may indicate a first coordinate 160 representing keypoint 158 depicted within image 154 and a second coordinate 160 representing keypoint 164 depicted within image 154 . Coordinates 166 may be indicated.

方法1000はまた、1004で、第1のデバイスに搭載されている1以上のセンサから、第1のデバイスの第1のコネクタの3D空間内の位置を示している位置データを取得することを含む。その場合、第1のコネクタは、第1のデバイスの第1の部分上に配置されている。例えば、(1以上の)センサ124が位置データ178を生成する。位置データ178は、第1のデバイス102の基準フレーム内の第1のコネクタ106の位置を示している。 The method 1000 also includes, at 1004, obtaining position data indicative of a position in 3D space of the first connector of the first device from one or more sensors onboard the first device. . In that case, the first connector is arranged on the first portion of the first device. For example, sensor(s) 124 generate position data 178 . Position data 178 indicates the position of first connector 106 within the frame of reference of first device 102 .

方法1000は、1006で、第1のコネクタを第2のデバイスの第2のコネクタに接続するための提案される手順を生成するために、特徴データ及び位置データを入力として機械学習モデルに提供することを更に含む。例えば、第1のコネクタ106と第2のコネクタ116とを接続するための提案される手順180を生成するために、特徴データ176及び位置データ178が、入力として機械学習モデルに提供されてよい。 At 1006, the method 1000 provides feature data and location data as inputs to a machine learning model to generate suggested procedures for connecting the first connector to the second connector of the second device. further includes For example, feature data 176 and location data 178 may be provided as inputs to a machine learning model to generate suggested procedures 180 for connecting first connector 106 and second connector 116 .

方法1000は、1008で、提案される手順に基づいて見積もられる報酬を生成することを更に含む。例えば、報酬値は、強化学習技法の見積もり機能を使用して決定されてよい。 Method 1000 further includes, at 1008, generating an estimated reward based on the proposed procedure. For example, the reward value may be determined using the estimation function of reinforcement learning techniques.

方法1000は、1010で、訓練済み自律エージェントを生成するために、報酬値に基づいて機械学習モデルの決定方式を修正することを更に含む。例えば、提案される手順を生成する決定方式が更新されてよい。 At 1010, method 1000 further includes modifying a decision scheme of the machine learning model based on the reward value to generate a trained autonomous agent. For example, the decision scheme that generates the suggested procedures may be updated.

幾つかの実施態様では、訓練済み自律エージェントを生成するよう機械学習モデルを訓練するために使用される画像データ、位置データ、若しくは他のデータが、シミュレート又は予め記録される。例えば、システム100のシミュレータを使用して、画像データ、位置データ、又はそれらの両方を生成することができる。 In some implementations, image data, location data, or other data used to train a machine learning model to generate a trained autonomous agent is simulated or pre-recorded. For example, the simulator of system 100 can be used to generate image data, position data, or both.

図11は、画像データ及び位置データに基づいて第1のコネクタを第2のコネクタに接続するための提案される手順を生成するように構成された航空機のライフサイクル1100の一実施例のフローチャートである。製造前の段階で、例示的なライフサイクル1100は、1102で、図2を参照しながら説明された空中給油機102Aなどの航空機の仕様及び設計を含む。航空機の仕様及び設計中に、ライフサイクル1100は、特徴抽出モデル130、訓練済み自律エージェント132、又はそれらの両方の仕様及び設計を含んでよい。1104で、ライフサイクル1100は、材料の調達を含む。それは、特徴抽出モデル130、訓練済み自律エージェント132、又はそれらの両方のための材料を調達することを含んでよい。 FIG. 11 is a flowchart of one embodiment of an aircraft lifecycle 1100 configured to generate suggested procedures for connecting a first connector to a second connector based on image data and position data. be. In the pre-manufacturing stage, the exemplary lifecycle 1100 includes specifications and designs of an aircraft, such as the tanker aircraft 102A described at 1102 with reference to FIG. During aircraft specification and design, lifecycle 1100 may include specification and design of feature extraction model 130, trained autonomous agent 132, or both. At 1104, lifecycle 1100 includes procurement of materials. It may involve procuring material for the feature extraction model 130, the trained autonomous agent 132, or both.

製造の段階で、ライフサイクル1100は、1106で構成要素及びサブアセンブリの製造、及び1108で航空機のシステムインテグレーションを含む。例えば、ライフサイクル1100は、特徴抽出モデル130、訓練済み自律エージェント132、又はそれらの両方の構成要素及びサブアセンブリの製造、及び、特徴抽出モデル130、訓練済み自律エージェント132、又はそれらの両方のシステムインテグレーションを含んでよい。ライフサイクル1100は、1110で航空機の認可及び納品、及び1112で航空機を運航させることを含む。認可及び納品は、特徴抽出モデル130、訓練済み自律エージェント132、又はそれらの両方の認可を含んでよく、それによって、特徴抽出モデル130、訓練済み自律エージェント132、又はそれらの両方を運航させてよい。顧客により運行される間、航空機は、定期的な整備及び保守(改造、再構成、改修等も含み得る)が予定され得る。1114で、ライフサイクル1100は、航空機の整備及び保守を実行することを含む。それは、特徴抽出モデル130、訓練済み自律エージェント132、又はそれらの両方の整備及び保守を実行することを含んでよい。 During manufacturing, the lifecycle 1100 includes component and subassembly manufacturing at 1106 and aircraft systems integration at 1108 . For example, the lifecycle 1100 may include the manufacture of components and subassemblies of the feature extraction model 130, the trained autonomous agent 132, or both, and the production of the system of the feature extraction model 130, the trained autonomous agent 132, or both. May include integration. Lifecycle 1100 includes certification and delivery of the aircraft at 1110 and placing the aircraft in service at 1112 . Authorization and delivery may include authorization of the feature extraction model 130, the trained autonomous agent 132, or both, thereby operating the feature extraction model 130, the trained autonomous agent 132, or both. . While in service with the customer, the aircraft may be scheduled for periodic maintenance and maintenance (which may also include modifications, reconfigurations, refurbishments, etc.). At 1114, lifecycle 1100 includes performing maintenance and maintenance on the aircraft. It may include performing maintenance and maintenance of feature extraction models 130, trained autonomous agents 132, or both.

ライフサイクル1100のプロセスの各々は、システムインテグレータ、第三者、及び/又は作業人員(例えば、顧客)によって実行され、又は実施され得る。本明細書の目的のために、システムインテグレータは、限定しないが、任意の数の航空機製造者及び主要システムの下請業者を含み得、第三者は、限定しないが、任意の数のベンダー、下請業者、及び供給業者を含み得、且つ、作業人員は、航空会社、リース会社、軍事団体、サービス機関などであり得る。 Each of the lifecycle 1100 processes may be performed or performed by system integrators, third parties, and/or operating personnel (eg, customers). For purposes of this specification, system integrators may include, without limitation, any number of aircraft manufacturers and major system subcontractors, and third parties may include, without limitation, any number of vendors, subcontractors, Vendors and suppliers may be included, and workers may be airlines, leasing companies, military organizations, service organizations, and the like.

本開示の態様は、宇宙船又は航空機などの輸送体の一実施例の文脈で説明され得る。輸送体の特定の一実施例は、図12で示されている航空機1200である。 Aspects of the present disclosure may be described in the context of one embodiment of a vehicle such as a spacecraft or aircraft. One particular example of a vehicle is aircraft 1200 shown in FIG.

図12の実施例では、航空機1200が、複数のシステム1220を有する機体1218、及び内装1222を含む。複数のシステム1220の例は、推進システム1224、電気システム1226、環境システム1228、及び液圧システム1230のうちの1以上を含む。任意の数の他のシステムも含まれ得る。図12のシステム1220はまた、(1以上の)プロセッサ120、特徴抽出モデル130、及び訓練済み自律エージェント132も含む。 In the example of FIG. 12, aircraft 1200 includes fuselage 1218 with multiple systems 1220 and interior 1222 . Examples of systems 1220 include one or more of propulsion system 1224 , electrical system 1226 , environmental system 1228 , and hydraulic system 1230 . Any number of other systems may also be included. System 1220 of FIG. 12 also includes processor(s) 120 , feature extraction model 130 , and trained autonomous agent 132 .

図13は、本開示による、コンピュータによって実施される方法及びコンピュータで実行可能なプログラム指示命令(又はコード)の諸態様をサポートするように構成された計算デバイス1310を含む計算環境1300のブロック図である。例えば、計算デバイス1310又はその部分は、指示命令を実行して、図1から図10を参照しながら説明された1以上の動作を開始、実行、又は制御するように構成されている。 FIG. 13 is a block diagram of a computing environment 1300 including a computing device 1310 configured to support aspects of computer-implemented methods and computer-executable program instructions (or code) according to the present disclosure. be. For example, computing device 1310, or portions thereof, may be configured to execute instructions to initiate, perform, or control one or more of the operations described with reference to FIGS. 1-10.

計算デバイス1310は、1以上のプロセッサ1320を含む。プロセッサ1320は、システムメモリ1330、1以上の記憶デバイス1340、1以上の入力/出力インターフェース1350、1以上の通信インターフェース1360、又はこれらの任意の組み合わせと通信するように構成されている。幾つかの実施態様では、(1以上の)プロセッサ1320が、図1の(1以上の)画像プロセッサ114若しくは(1以上の)プロセッサ120に対応し、又はそれらに含まれる。 Computing device 1310 includes one or more processors 1320 . Processor 1320 is configured to communicate with system memory 1330, one or more storage devices 1340, one or more input/output interfaces 1350, one or more communication interfaces 1360, or any combination thereof. In some implementations, processor(s) 1320 may correspond to or be included in image processor(s) 114 or processor(s) 120 of FIG.

システムメモリ1330は、揮発性メモリデバイス(例えば、ランダムアクセスメモリ(RAM:random access memory)デバイス)、不揮発性メモリデバイス(例えば、読み出し専用メモリ(ROM:read-only memory)デバイス、プログララム可能な読み出し専用メモリ、及びフラッシュメモリ)、又はその両方を含む。システムメモリ1330は、オペレーティングシステム1332を記憶しており、このオペレーティングシステム1332は、計算デバイス1310を起動するための基本入力/出力システムと、計算デバイス1310が、ユーザ、他のプログラム、又は他のデバイスと連携することを可能にする完全なオペレーティングシステムとを含み得る。システムメモリ1330は、図1の知られている幾何学的寸法形状142を表すデータなどのシステム(プログラム)データ1336を記憶する。 System memory 1330 can include volatile memory devices (eg, random access memory (RAM) devices), non-volatile memory devices (eg, read-only memory (ROM) devices), programmable read-only memory devices (eg, read-only memory (ROM) devices), dedicated memory, and flash memory), or both. System memory 1330 stores an operating system 1332, which is the basic input/output system for powering computing device 1310 and for enabling computing device 1310 to operate by users, other programs, or other devices. and a complete operating system that allows it to work with System memory 1330 stores system (program) data 1336, such as data representing known geometry 142 of FIG.

システムメモリ1330は、プロセッサ1320により実行可能な1以上のアプリケーション1334(例えば、指示命令の複数の組)を含む。一実施例として、1以上のアプリケーション1334には、図1~図10を参照しながら説明された1以上の動作を開始、制御、又は実施するために(1以上の)プロセッサ1320によって実行可能な指示命令が含まれる。説明すると、1以上のアプリケーション1334には、特徴抽出モデル130、訓練済み自律エージェント132、又はそれらの組み合わせを参照しながら説明された1以上の動作を開始、制御、又は実行するために(1以上の)プロセッサ1320によって実行可能な指示命令が含まれる。 System memory 1330 includes one or more applications 1334 (eg, sets of instructions) executable by processor 1320 . As one example, one or more applications 1334 may include a program executable by processor(s) 1320 to initiate, control, or perform one or more operations described with reference to FIGS. 1-10. Includes instructions. Illustratively, one or more applications 1334 may include (one or more ) includes instructions executable by processor 1320 .

特定の一実施態様では、システムメモリ1330が、指示命令を記憶した非一過性のコンピュータ可読媒体を含む。該指示命令は、(1以上)のプロセッサ1320によって実行されると、(1以上の)プロセッサ1320に、画像データ及び位置データに基づいて提案される手順を生成するための動作を開始、実行、又は制御することを実行させる。例えば、それらの動作は、特徴データを生成するために、第1の画像を入力として特徴抽出モデルに提供すること、第1のデバイスの第1のコネクタの三次元空間内の位置を示す位置データを取得すること、並びに、第1のコネクタを第2のコネクタに接続するための提案される手順を生成するために、特徴データ及び位置データを入力として訓練済み自律エージェントに提供することを含む。 In one particular implementation, system memory 1330 includes a non-transitory computer-readable medium that stores instructions. The instructions, when executed by the processor(s) 1320, cause the processor(s) 1320 to initiate, perform, and perform operations to generate suggested procedures based on image data and location data. Or let it do what it controls. For example, the operations may include providing a first image as input to a feature extraction model to generate feature data, position data indicating the position in three-dimensional space of a first connector of a first device and providing feature data and location data as inputs to a trained autonomous agent to generate a suggested procedure for connecting the first connector to the second connector.

1以上の記憶デバイス1340は、磁気ディスク、光ディスク、又はフラッシュメモリデバイスといった、不揮発性の記憶デバイスを含む。特定の一実施例では、記憶デバイス1340が、取り外し可能なメモリデバイスと取り外し不可能なメモリデバイスとの両方を含む。記憶デバイス1340は、オペレーティングシステム、オペレーティングシステムの画像、アプリケーション(例えば、1以上のアプリケーション1334)、及び、プログラムデータ(例えば、プログラムデータ1336)を記憶するよう構成される。特定の一態様では、システムメモリ1330、記憶デバイス1340、又はその両方が、有形のコンピュータ可読媒体を含む。特定の一態様では、記憶デバイス1340のうちの1以上が、計算デバイス1310の外部に存在する。 The one or more storage devices 1340 include non-volatile storage devices such as magnetic disks, optical disks, or flash memory devices. In one particular implementation, storage device 1340 includes both removable and non-removable memory devices. Storage device 1340 is configured to store an operating system, images of the operating system, applications (eg, one or more of applications 1334), and program data (eg, program data 1336). In one particular aspect, system memory 1330, storage device 1340, or both include tangible computer-readable media. In one particular aspect, one or more of storage devices 1340 reside external to computing device 1310 .

1以上の入力/出力インターフェース1350が、ユーザとの相互作用を容易にするために、計算デバイス1310が、1以上の入力/出力デバイス1370と通信することを可能にする。例えば、1以上の入力/出力インターフェース1350は、図1のGUIエンジン150、ディスプレイインターフェース、入力インターフェース、又はそれらの両方を含み得る。例えば、入力/出力インターフェース1350は、ユーザから入力を受け取り、他の計算デバイスから入力を受け取り、又はこれらを組み合わせて行うように適合されている。幾つかの実現において、入力/出力インターフェース1350は、シリアルインターフェース(例えば、USB(universal serial bus)インターフェース、又は、(IEEE(Institute of Electrical and Electronics Engineers)インターフェース標準)、パラレルインターフェース、表示アダプタ、音声アダプタ、又は、カスタムインターフェースを含む、1以上の標準インターフェースプロトコルに準拠している(「IEEE」は、Institute of Electrical and Electronics Engineers、Inc. of Piscataway(ニュージャージー州)の登録商標である)。幾つかの実施態様では、入力/出力デバイス1370が、ボタン、キーボード、ポインティングデバイス、ディスプレイ、スピーカ、マイクロフォン、タッチスクリーン、及び他のデバイスの何らかの組み合わせを含む、1以上のユーザインターフェースデバイス、及びディスプレイを含む。 One or more input/output interfaces 1350 enable computing device 1310 to communicate with one or more input/output devices 1370 to facilitate interaction with a user. For example, one or more input/output interfaces 1350 may include GUI engine 150 of FIG. 1, a display interface, an input interface, or both. For example, input/output interface 1350 is adapted to receive input from a user, receive input from other computing devices, or a combination thereof. In some implementations, the input/output interface 1350 is a serial interface (e.g., universal serial bus (USB) interface or (IEEE (Institute of Electrical and Electronics Engineers) interface standard), parallel interface, display adapter, audio adapter). or conforms to one or more standard interface protocols, including custom interfaces ("IEEE" is a registered trademark of the Institute of Electrical and Electronics Engineers, Inc. of Piscataway, NJ). In embodiments, input/output devices 1370 include one or more user interface devices and displays, including any combination of buttons, keyboards, pointing devices, displays, speakers, microphones, touch screens, and other devices.

(1以上の)プロセッサ1320は、1以上の通信インターフェース1360を介して、デバイス又はコントローラ1380と通信するように構成されている。例えば、1以上の通信インターフェース1360は、ネットワークインターフェースを含み得る。デバイス又はコントローラ1380は、例えば、図1の操縦システム144、1以上の他のデバイス、又はこれらの任意の組み合わせを含み得る。 Processor(s) 1320 are configured to communicate with devices or controllers 1380 via one or more communication interfaces 1360 . For example, one or more communication interfaces 1360 may include network interfaces. Device or controller 1380 may include, for example, steering system 144 of FIG. 1, one or more other devices, or any combination thereof.

説明されたシステム及び方法と併せて、装置は、特徴データを生成するために、第1の画像を入力として特徴抽出モデルに提供するための手段を含む。幾つかの実施態様では、第1の画像を入力として特徴抽出モデルに提供するための手段が、第1のデバイス102、カメラ122、(1以上の)画像プロセッサ114、ダウンサンプラー134、(1以上の)プロセッサ120、画像を入力として特徴抽出モデルに提供するように構成された1以上の他の回路若しくはデバイス、又はそれらの組み合わせに対応する。 In conjunction with the systems and methods described, the apparatus includes means for providing the first image as input to a feature extraction model to generate feature data. In some implementations, the means for providing the first image as input to the feature extraction model include first device 102, camera 122, image processor(s) 114, downsampler 134, (one or more ) processor 120, one or more other circuits or devices configured to provide an image as input to the feature extraction model, or a combination thereof.

該装置はまた、第1のデバイスの第1のコネクタの三次元空間内の位置を示す位置データを取得するための手段も含む。例えば、位置データを取得するための手段は、第1のデバイス102、(1以上の)センサ124、位置エンコーダ126、(1以上の)プロセッサ120、位置データを取得するように構成された1以上の他のデバイス、又はそれらの組み合わせに対応し得る。 The apparatus also includes means for obtaining position data indicative of a position in three-dimensional space of the first connector of the first device. For example, means for obtaining position data may include first device 102, sensor(s) 124, position encoder 126, processor(s) 120, one or more other devices, or combinations thereof.

該装置はまた、第1のコネクタを第2のデバイスの第2のコネクタに接続するための提案される手順を生成するために、特徴データ及び位置データを入力として訓練済み自律エージェントに提供するための手段も含む。例えば、特徴データ及び位置データを入力として訓練済み自律エージェントに提供するための手段は、第1のデバイス102、特徴抽出モデル130、(1以上の)プロセッサ120、特徴データ及び位置データを入力として訓練済み自律エージェントに提供するように構成された1以上の他のデバイス、又はそれらの組み合わせに対応し得る。 The apparatus also provides feature data and location data as input to a trained autonomous agent to generate a suggested procedure for connecting the first connector to the second connector of the second device. including the means of For example, the means for providing feature data and location data as inputs to a trained autonomous agent include the first device 102, the feature extraction model 130, the processor(s) 120, the feature data and location data as inputs. It may correspond to one or more other devices configured to serve autonomous agents, or a combination thereof.

幾つかの実施態様では、非一過性のコンピュータ可読媒体が、指示命令を記憶する。該指示命令は、1以上のプロセッサによって実行されると、1以上のプロセッサに、上述された機能の一部又は全部を実行するための動作を開始、実行、又は制御させる。例えば、指示命令は、図1~図10の動作又は方法のうちの1以上を実施するために実行可能であってよい。幾つかの実施態様では、図1~図10の動作又は方法のうちの1以上の一部又は全部が、専用のハードウェア回路によって指示命令を実行する1以上のプロセッサ(例えば、1以上の中央処理装置(CPU:central processing unit)、1以上のGPU(graphics processing unit)、1以上のデジタル信号プロセッサ(DSP:digital signal processor))、又はこれらの任意の組み合わせによって実施されてよい。 In some implementations, a non-transitory computer-readable medium stores instructions. The instructions, when executed by one or more processors, cause the one or more processors to initiate, perform, or control operations to perform some or all of the functions described above. For example, the instructions may be executable to perform one or more of the acts or methods of FIGS. 1-10. In some implementations, part or all of one or more of the acts or methods of FIGS. It may be implemented by a central processing unit (CPU), one or more graphics processing units (GPUs), one or more digital signal processors (DSPs), or any combination thereof.

本明細書で説明された実施例の図は、様々な実施態様の構造の概略的な理解をもたらすことを意図している。これらの図は、本明細書に記載された構造又は方法を利用する装置及びシステムの全ての要素及び特徴を網羅的に説明することを意図していない。本開示を精査することで、当業者には、他の多くの実行形態が明らかになり得る。本開示の範囲を逸脱することなく構造的及び論理的な置換及び変更が行うことができるように、他の実施態様を利用し、他の実装を本開示から引き出すことができる。例えば、方法動作を図に示す順序とは異なる順序で実行してもよく、或いは、1以上の方法動作を省略してもよい。したがって、本開示及び図は、限定的というよりは、むしろ例示的なものと見なすべきである。 The example illustrations described herein are intended to provide a general understanding of the structure of the various implementations. These figures are not intended to be an exhaustive description of all the elements and features of the devices and systems utilizing the structures or methods described herein. Many other implementations may become apparent to those of skill in the art upon review of this disclosure. Other implementations may be utilized and other implementations may be derived from the present disclosure such that structural and logical substitutions and changes may be made without departing from the scope of the present disclosure. For example, method operations may be performed in a different order than shown in the figures, or one or more method operations may be omitted. Accordingly, the present disclosure and figures are to be regarded as illustrative rather than restrictive.

本開示の態様は、以下の相互に関連する条項の組を参照しながら更に説明される。
条項1.
特徴データを生成するために第1の画像を入力として特徴抽出モデルに提供することであって、前記第1の画像は第1のデバイスの第1の部分と第2のデバイスの第2の部分とを描き、前記特徴データは、前記第1の画像内で描かれる前記第1のデバイスのキーポイントを表す第1の座標を含み、前記第1の画像内で描かれる前記第2のデバイスのキーポイントを表す第2の座標を含む、第1の画像を入力として特徴抽出モデルに提供すること、前記第1のデバイスに搭載されている1以上のセンサから、前記第1のデバイスの第1のコネクタの三次元空間内の位置を示す位置データを取得することであって、前記第1のコネクタは前記第1のデバイスの前記第1の部分上に配置されている、位置データを取得すること、並びに、前記第1のコネクタを前記第2のデバイスの第2のコネクタに接続するための提案される手順を生成するために、前記特徴データ及び前記位置データを入力として訓練済み自律エージェントに提供することを含む、方法を含む。
条項2.
前記第1のデバイスは空中給油機を含み、前記第1のデバイスの前記第1の部分は燃料再補給ブームを含み、前記第1のコネクタは前記燃料再補給ブームの燃料再補給コネクタを含み、前記第2のデバイスは航空機を含み、前記第2のコネクタは前記航空機の燃料再補給受け口を含む、条項1に記載の方法を含む。
条項3.
前記第1のデバイスは第1の宇宙船を含み、前記第1のコネクタは第1のドッキングコネクタを含み、前記第2のデバイスは第2の宇宙船を含み、前記第2のコネクタは第2のドッキングコネクタを含む、条項1に記載の方法を含む。
条項4.
前記位置データは、前記第1のデバイスに関連付けられ且つ前記第2のデバイスから独立した基準フレーム内の位置を示す、条項1から3のいずれか一項に記載の方法を含む。
条項5.
前記位置データは、前記第1の部分に関連付けられた1以上の位置エンコーダの出力に基づいて生成される、条項1から4のいずれか一項に記載の方法を含む。
条項6.
前記第1の画像を入力として前記特徴抽出モデルに提供する前に、前記第1の画像を生成するために、ソース画像を受け取り、前記ソース画像を1以上の回数だけダウンサンプリングすることを更に含む、条項1から5のいずれか一項に記載の方法を含む。
条項7.
前記第1の画像を入力として前記特徴抽出モデルに提供する前に、ソース画像を受け取ること、第2の画像を生成するために前記ソース画像をダウンサンプリングすること、前記第1の画像を生成するために前記第2の画像をダウンサンプリングすること、及び、前記特徴データを生成するために、前記第2の画像を入力として前記特徴抽出モデルに提供することを更に含む、条項1から6のいずれか一項に記載の方法を含む。
条項8.
前記提案される手順を示すグラフィカル要素を含むグラフィカルユーザインターフェースを生成することを更に含む、条項1から7のいずれか一項に記載の方法を含む。
条項9.
前記グラフィカルユーザインターフェースは、前記第1の画像、及び前記グラフィカルユーザインターフェース内の前記第1の画像の少なくとも一部分と重なる前記グラフィカル要素を更に含む、条項8に記載の方法を含む。
条項10.
手順制限基準が満たされている場合に手順制限出力を生成することを更に含み、前記手順制限出力は、前記第1のデバイスによって実行され得る操縦動作、前記第1のデバイスの前記第1の部分によって実行され得る操縦動作、又は前記提案される手順として選択され得る一組の手順、のうちの少なくとも1つに、制限が適用されることをもたらす、条項1から9のいずれか一項に記載の方法を含む。
条項11.
前記訓練済み自律エージェントは、前記第1のコネクタと前記第2のコネクタとを接続するための操縦動作を決定するために、強化学習プロセスを介して訓練されるニューラルネットワークを含み又はそれに対応する、条項1から10のいずれか一項に記載の方法を含む。
条項12.
前記第1のデバイスに搭載されている前記1以上のセンサから、三次元空間内の前記第1のデバイスと前記第2のデバイスとの相対的な位置を示す補足的なセンサデータを取得することを更に含み、前記補足的なセンサデータは、距離データ、レーダーデータ、ライダーデータ、ソナーデータ、又は立体画像データのうちの1以上を含む、条項1から11のいずれか一項に記載の方法を含む。
条項13.
前記第1のデバイスは航空機を含み、前記方法は更に、前記航空機の飛行制御システム又は飛行計器のうちの1以上から飛行データを取得し、前記提案される手順を生成するために、前記飛行データを入力として前記訓練済み自律エージェントに提供することを含む、条項1から12のいずれか一項に記載の方法を含む。
条項14.
前記第1のデバイスは航空機を含み、前記方法は更に、前記航空機の飛行制御システム又は飛行計器のうちの1以上から飛行データを取得することを含み、前記提案される手順は、前記飛行データが審査基準を満たすとの判定に基づいて生成される、条項1から13のいずれか一項に記載の方法を含む。
条項15.
前記第1の画像の区別可能な領域を表す区分けマップを生成するために、前記第1の画像を区分けモデルに提供すること、及び、前記特徴データを生成するために、前記区分けマップを入力として前記特徴抽出モデルに提供することを更に含む、条項1から14のいずれか一項に記載の方法を含む。
条項16.
前記第2のデバイスの前記キーポイントを表す前記第2の座標と前記第2のデバイスの知られている幾何学的寸法形状との比較を実行すること、及び、前記比較に基づいて前記特徴データを修正することを更に含む、条項1から15のいずれか一項に記載の方法を含む。
条項17.
前記提案される手順に基づいて報酬値を生成すること、及び、前記報酬値に基づいて前記訓練済み自律エージェントのリンク重みを修正することを更に含む、条項1から16のいずれか一項に記載の方法を含む。
条項18.
前記報酬値は、少なくとも部分的に、前記提案される手順が、作業人員によって実行される手順にどれ程近く合致するかに基づく、条項17に記載の方法を含む。
条項19.
前記報酬値は、少なくとも部分的に、前記第1のコネクタと前記第2のコネクタとを接続するために必要とされる時間に基づく、条項17又は18に記載の方法を含む。
条項20.
前記報酬値は、少なくとも部分的に、前記提案される手順が、前記第1のコネクタが前記第2のコネクタ以外の前記第2のデバイスの任意の部分に接触することをもたらすかどうかに基づく、条項17から19のいずれか一項に記載の方法を含む。
条項21.
前記提案される手順に基づいて前記第1のデバイスの前記第1の部分の再配置を命令することを更に含む、条項1から20のいずれか一項に記載の方法を含む。
条項22.
第2のデバイスの第2のコネクタに対して第1のコネクタを移動させるように構成された移動可能カップリングシステム、前記第1のコネクタの三次元空間内の位置を示す位置データを生成するように構成された1以上のセンサ、前記移動可能カップリングシステムの一部分と前記第2のデバイスの少なくとも一部分とを描く画像データを生成するように構成されたカメラ、前記画像データに基づいて第1の画像を受け取り、前記第1の画像に基づいて特徴データを生成するように構成された特徴抽出モデルであって、前記特徴データは、前記第1の画像内で描かれる前記移動可能カップリングシステムのキーポイントを表す第1の座標を含み、前記第1の画像内で描かれる前記第2のデバイスのキーポイントを表す第2の座標を含む、特徴抽出モデル、並びに、前記特徴データ及び前記位置データに基づいて、前記第1のコネクタを前記第2のデバイスの第2のコネクタに接続するための提案される手順を生成するように構成された訓練済み自律エージェントを含む、デバイスを含む。
条項23.
前記移動可能カップリングシステムは、空中給油機の燃料再補給ブームを含み、前記第1のコネクタは、前記燃料再補給ブームの燃料再補給コネクタを含み、前記第2のデバイスは航空機を含み、前記第2のコネクタは、前記航空機の燃料再補給受け口を含む、条項22に記載のデバイスを含む。
条項24.
前記移動可能カップリングシステムは、第1の宇宙船の第1のドッキングコネクタを含み、前記第2のデバイスは第2の宇宙船を含み、前記第2のコネクタは第2のドッキングコネクタを含む、条項22に記載のデバイスを含む。
条項25.
前記位置データは、前記デバイスに関連付けられ且つ前記第2のデバイスから独立した基準フレーム内の位置を示す、条項22から24のいずれか一項に記載のデバイスを含む。
条項26.
前記位置データは、前記移動可能カップリングシステムに関連付けられた1以上の位置エンコーダの出力に基づいて生成される条項22から25のいずれか一項に記載のデバイスを含む。
条項27.
前記カメラからソース画像を受け取り、前記第1の画像を生成するために前記ソース画像をダウンサンプリングするように構成された画像プロセッサを更に含む、条項22から26のいずれか一項に記載のデバイスを含む。
条項28.
前記画像プロセッサは、第2の画像を生成するために前記第1の画像をダウンサンプリングするように更に構成され、前記特徴抽出モデルは、前記第1の画像と前記第2の画像とに基づいて前記特徴データを生成する、条項22から27のいずれか一項に記載のデバイスを含む。
条項29.
前記訓練済み自律エージェントに結合され、前記提案される手順を示すグラフィカル要素を含むグラフィカルユーザインターフェースを出力するように構成されたグラフィカルユーザインターフェースエンジンを更に含む、条項22から28のいずれか一項に記載のデバイスを含む。
条項30.
前記グラフィカルユーザインターフェースは、前記第1の画像、及び前記グラフィカルユーザインターフェース内の前記第1の画像の少なくとも一部分と重なる前記グラフィカル要素を更に含む、条項29に記載のデバイスを含む。
条項31.
手順制限基準が満たされたことに基づいて、前記デバイスによって実行され得る操縦動作、前記操縦可能ブームによって実行され得る操縦動作、又は前記提案される手順として選択され得る一組の手順、のうちの少なくとも1つに、制限が適用されることをもたらすように構成された手順制限器を更に含む、条項22から30のいずれか一項に記載のデバイスを含む。
条項32.
前記訓練済み自律エージェントは、前記第1のコネクタと前記第2のコネクタとを接続するための操縦動作を決定するために、強化学習プロセスを介して訓練されるニューラルネットワークを含み又はそれに対応する、条項22から31のいずれか一項に記載のデバイスを含む。
条項33.
前記1以上のセンサは、三次元空間内の前記デバイスと前記第2のデバイスとの相対的な位置を示す補足的なセンサデータを生成するように更に構成され、前記補足的なセンサデータは、距離データ、レーダーデータ、ライダーデータ、ソナーデータ、又は立体画像データのうちの1以上を含む、条項22から32のいずれか一項に記載のデバイスを含む。
条項34.
飛行データを生成し、前記提案される手順を生成するために、前記飛行データを入力として前記訓練済み自律エージェントに提供するように構成された飛行制御システム又は飛行計器のうちの少なくとも1つを更に含む、条項22から33のいずれか一項に記載のデバイスを含む。
条項35.
前記提案される手順は、前記飛行データが審査基準を満たすとの判定に基づいて生成される、条項34に記載のデバイスを含む。
条項36.
前記第1の画像の区別可能な領域を表す区分けマップを生成するように構成された区分けモデルを更に含み、前記特徴抽出モデルは、少なくとも部分的に、前記区分けマップに基づいて前記特徴データを生成するように構成されている、条項22から35のいずれか一項に記載のデバイスを含む。
条項37.
前記第2のデバイスの知られている幾何学的寸法形状を表すデータを記憶したメモリを更に含み、前記特徴抽出モデルは、少なくとも部分的に、前記第2のデバイスの前記知られている幾何学的寸法形状に基づいて前記特徴データを生成するように構成されている、条項22から36のいずれか一項に記載のデバイスを含む。
条項38.
前記提案される手順に基づいて前記移動可能カップリングシステムの再配置を命令するように構成された制御システムを更に含む、条項22から37のいずれか一項に記載のデバイス。
条項39.
第2の航空機の燃料再補給中に前記第2の航空機の燃料再補給受け口に結合されるように構成された燃料再補給コネクタを含む操縦可能燃料再補給ブーム、前記操縦可能燃料再補給ブームに結合され、三次元空間内の前記操縦可能燃料再補給ブームの位置を示す位置データを生成するように構成された1以上のセンサ、前記操縦可能燃料再補給ブームの一部分と前記第2の航空機の少なくとも一部分とを描く画像データを生成するように構成されたカメラ、前記画像データに基づいて第1の画像を受け取り、前記第1の画像に基づいて特徴データを生成するように構成された特徴抽出モデルであって、前記特徴データは、前記第1の画像内で描かれる前記操縦可能燃料再補給ブームのキーポイントを表す第1の座標を含み、前記第1の画像内で描かれる前記第2の航空機のキーポイントを表す第2の座標を含む、特徴抽出モデル、並びに、前記特徴データ及び前記位置データに基づいて、前記燃料再補給コネクタを前記燃料再補給受け口に接続するための提案される手順を生成するように構成された訓練済み自律エージェントを含む、空中給油機を含む。
条項40.
前記位置データは、前記空中給油機に関連付けられ且つ前記第2の航空機から独立した基準フレーム内の位置を示す、条項39に記載の空中給油機を含む。
条項41.
前記1以上のセンサは、前記操縦可能燃料再補給ブームに関連付けられた1以上の位置エンコーダを含み、前記位置データは、前記1以上の位置エンコーダの出力に基づいて生成される、条項39又は40に記載の空中給油機を含む。
条項42.
前記カメラからソース画像を受け取り、前記第1の画像を生成するために前記ソース画像をダウンサンプリングするように構成された画像プロセッサを更に含む、条項39から41のいずれか一項に記載の空中給油機を含む。
条項43.
前記画像プロセッサは、第2の画像を生成するために前記第1の画像をダウンサンプリングするように更に構成され、前記特徴抽出モデルは、前記第1の画像と前記第2の画像とに基づいて前記特徴データを生成する、条項42に記載の空中給油機を含む。
条項44.
前記提案される手順を示すグラフィカル要素を含むグラフィカルユーザインターフェースを出力するように構成されたグラフィカルユーザインターフェースエンジンを更に含む、条項39から43のいずれか一項に記載の空中給油機を含む。
条項45.
前記グラフィカルユーザインターフェースは、前記第1の画像、及び前記グラフィカルユーザインターフェース内の前記第1の画像の少なくとも一部分と重なる前記グラフィカル要素を更に含む、条項44に記載の空中給油機を含む。
条項46.
手順制限基準が満たされたことに基づいて、前記空中給油機によって実行され得る操縦動作、前記操縦可能補給ブームによって実行され得る操縦動作、又は前記提案される手順として選択され得る一組の手順、のうちの少なくとも1つに、制限が適用されることをもたらすように構成された手順制限器を更に含む、条項39から45のいずれか一項に記載の空中給油機を含む。
条項47.
前記訓練済み自律エージェントは、前記燃料再補給コネクタを前記燃料再補給受け口に接続するための操縦動作を決定するために、強化学習プロセスを介して訓練されるニューラルネットワークを含み又はそれに対応する、条項39から46のいずれか一項に記載の空中給油機を含む。
条項48.
前記1以上のセンサは、三次元空間内の前記空中給油機と前記第2の航空機との相対的な位置を示す補足的なセンサデータを生成するように更に構成され、前記補足的なセンサデータは、距離データ、レーダーデータ、ライダーデータ、ソナーデータ、又は立体画像データのうちの1以上を含む、条項39から47のいずれか一項に記載の空中給油機を含む。
条項49.
飛行データを生成し、前記提案される手順を生成するために、前記飛行データを入力として前記訓練済み自律エージェントに提供するように構成された飛行制御システム又は飛行計器のうちの少なくとも1つを更に含む、条項39から48のいずれか一項に記載の空中給油機を含む。
条項50.
前記第1の画像の区別可能な領域を表す区分けマップを生成するように構成された区分けモデルを更に含み、前記特徴抽出モデルは、少なくとも部分的に、前記区分けマップに基づいて前記特徴データを生成するように構成されている、条項39から49のいずれか一項に記載の空中給油機を含む。
条項51.
前記第2のデバイスの知られている幾何学的寸法形状を表すデータを記憶したメモリを更に含み、前記特徴抽出モデルは、少なくとも部分的に、前記第2のデバイスの前記知られている幾何学的寸法形状に基づいて前記特徴データを生成するように構成されている、条項39から50のいずれか一項に記載の空中給油機を含む。
条項52.
前記提案される手順に基づいて前記操縦可能燃料再補給ブームの再配置を命令するように構成された制御システムを更に含む、条項39から51のいずれか一項に記載の空中給油機を含む。
条項53.
ドッキング動作中に第2の宇宙船の第2のドッキングコネクタに結合されるように構成された第1のドッキングコネクタを含む操縦可能ドッキング機構、前記操縦可能ドッキング機構に結合され、三次元空間内の前記操縦可能ドッキング機構の位置を示す位置データを生成するように構成された1以上のセンサ、前記操縦可能ドッキング機構の一部分と前記第2の宇宙船の少なくとも一部分とを描く画像データを生成するように構成されたカメラ、前記画像データに基づいて第1の画像を受け取り、前記第1の画像に基づいて特徴データを生成するように構成された特徴抽出モデルであって、前記特徴データは、前記第1の画像内で描かれる前記操縦可能ドッキング機構のキーポイントを表す第1の座標を含み、前記第1の画像内で描かれる前記第2の宇宙船のキーポイントを表す第2の座標を含む、特徴抽出モデル、並びに、前記特徴データ及び前記位置データに基づいて、前記第1のドッキングコネクタを前記第2のドッキングコネクタに接続するための提案される手順を生成するように構成された訓練済み自律エージェントを含む、宇宙船を含む。
条項54.
前記位置データは、前記宇宙船に関連付けられ且つ前記第2の宇宙船から独立した基準フレーム内の位置を示す、条項53に記載の宇宙船を含む。
条項55.
前記1以上のセンサは、前記操縦可能ドッキング機構に関連付けられた1以上の位置エンコーダを含み、前記位置データは、前記1以上の位置エンコーダの出力に基づいて生成される、条項53又は54に記載の宇宙船を含む。
条項56.
前記カメラからソース画像を受け取り、前記第1の画像を生成するために前記ソース画像をダウンサンプリングするように構成された画像プロセッサを更に含む、条項53から55のいずれか一項に記載の宇宙船を含む。
条項57.
前記画像プロセッサは、第2の画像を生成するために前記第1の画像をダウンサンプリングするように更に構成され、前記特徴抽出モデルは、前記第1の画像と前記第2の画像とに基づいて前記特徴データを生成する、条項56に記載の宇宙船を含む。
条項58.
前記提案される手順を示すグラフィカル要素を含むグラフィカルユーザインターフェースを出力するように構成されたグラフィカルユーザインターフェースエンジンを更に含む、条項53から57のいずれか一項に記載の宇宙船を含む。
条項59.
前記グラフィカルユーザインターフェースは、前記第1の画像、及び前記グラフィカルユーザインターフェース内の前記第1の画像の少なくとも一部分と重なる前記グラフィカル要素を更に含む、条項58に記載の宇宙船を含む。
条項60.
手順制限基準が満たされたことに基づいて、前記宇宙船によって実行され得る操縦動作、前記操縦可能ドッキング機構によって実行され得る操縦動作、又は前記提案される手順として選択され得る一組の手順、のうちの少なくとも1つに、制限が適用されることをもたらすように構成された手順制限器を更に含む、条項53から59のいずれか一項に記載の宇宙船を含む。
条項61.
前記訓練済み自律エージェントは、前記第1のコネクタと前記第2のコネクタとを接続するための操縦動作を決定するために、強化学習プロセスを介して訓練されるニューラルネットワークを含み又はそれに対応する、条項53から60のいずれか一項に記載の宇宙船を含む。
条項62.
前記1以上のセンサは、三次元空間内の前記宇宙船と前記第2の宇宙船との相対的な位置を示す補足的なセンサデータを生成するように更に構成され、前記補足的なセンサデータは、距離データ、レーダーデータ、ライダーデータ、ソナーデータ、又は立体画像データのうちの1以上を含む、条項53から61のいずれか一項に記載の宇宙船を含む。
条項63.
前記第1の画像の区別可能な領域を表す区分けマップを生成するように構成された区分けモデルを更に含み、前記特徴抽出モデルは、少なくとも部分的に、前記区分けマップに基づいて前記特徴データを生成するように構成されている、条項53から62のいずれか一項に記載の宇宙船を含む。
条項64.
前記第2の宇宙船の知られている幾何学的寸法形状を表すデータを記憶したメモリを更に含み、前記特徴抽出モデルは、少なくとも部分的に、前記第2の宇宙船の前記知られている幾何学的寸法形状に基づいて前記特徴データを生成するように構成されている、条項53から63のいずれか一項に記載の宇宙船を含む。
条項65.
前記提案される手順に基づいて前記操縦可能ドッキング機構の再配置を命令するように構成された制御システムを更に含む、条項53から64のいずれか一項に記載の宇宙船を含む。
Aspects of the present disclosure are further described with reference to the following set of interrelated clauses.
Clause 1.
providing a first image as input to a feature extraction model to generate feature data, the first image being a first portion of a first device and a second portion of a second device; and wherein the feature data includes first coordinates representing keypoints of the first device depicted in the first image, and the second device depicted in the first image. providing a first image as input to a feature extraction model, including second coordinates representing keypoints; obtaining position data indicating a position in three-dimensional space of a connector of the first connector, wherein the first connector is positioned on the first portion of the first device; and to a trained autonomous agent with the feature data and the location data as inputs to generate a suggested procedure for connecting the first connector to the second connector of the second device. including providing, including methods;
Clause 2.
said first device comprising a tanker aircraft, said first portion of said first device comprising a refueling boom, said first connector comprising a refueling connector of said refueling boom; The method of clause 1, wherein the second device includes an aircraft and the second connector includes a refueling refueling receptacle of the aircraft.
Article 3.
The first device comprises a first spacecraft, the first connector comprises a first docking connector, the second device comprises a second spacecraft, the second connector comprises a second docking connector. including the method of Clause 1, including the docking connector of the
Article 4.
4. The method of any one of clauses 1-3, wherein the position data indicates a position within a frame of reference associated with the first device and independent of the second device.
Article 5.
5. The method of any one of clauses 1-4, wherein the position data is generated based on outputs of one or more position encoders associated with the first portion.
Clause 6.
Further comprising receiving a source image and downsampling the source image one or more times to generate the first image prior to providing the first image as an input to the feature extraction model. , including the method of any one of clauses 1 to 5.
Article 7.
receiving a source image before providing the first image as an input to the feature extraction model; downsampling the source image to generate a second image; generating the first image; and providing the second image as an input to the feature extraction model to generate the feature data. or the method of claim 1.
Article 8.
8. The method of any one of clauses 1-7, further comprising generating a graphical user interface including graphical elements indicative of the suggested procedure.
Article 9.
9. The method of clause 8, wherein the graphical user interface further comprises the first image and the graphical element overlapping at least a portion of the first image within the graphical user interface.
Clause 10.
further comprising generating a procedure-limited output if a procedure-limited criterion is met, the procedure-limited output being a maneuvering action that may be performed by the first device, the first portion of the first device; or a set of procedures that may be selected as said suggested procedures, resulting in a restriction being applied to at least one of the maneuvering actions that may be performed by including the method of
Clause 11.
said trained autonomous agent comprises or corresponds to a neural network trained via a reinforcement learning process to determine a maneuvering action for connecting said first connector and said second connector; Including a method according to any one of clauses 1-10.
Clause 12.
Acquiring supplemental sensor data indicating the relative positions of the first device and the second device in three-dimensional space from the one or more sensors mounted on the first device. and wherein the supplemental sensor data comprises one or more of range data, radar data, lidar data, sonar data, or stereo image data. include.
Article 13.
The first device comprises an aircraft, and the method further obtains flight data from one or more of a flight control system or flight instruments of the aircraft; as an input to the trained autonomous agent.
Article 14.
The first device comprises an aircraft, the method further comprises obtaining flight data from one or more of a flight control system or flight instruments of the aircraft, and the proposed procedure comprises: including the method of any one of clauses 1-13, generated based on the determination that the screening criteria are met.
Article 15.
providing the first image to a segmentation model to generate a segmentation map representing distinguishable regions of the first image; and using the segmentation map as input to generate the feature data. 15. The method of any one of clauses 1-14, further comprising providing said feature extraction model.
Article 16.
performing a comparison of said second coordinates representing said keypoints of said second device with known geometrical dimensions of said second device; and said feature data based on said comparison. 16. The method of any one of clauses 1-15, further comprising modifying the
Article 17.
17. The method of any one of clauses 1-16, further comprising generating a reward value based on the proposed procedure and modifying link weights of the trained autonomous agent based on the reward value. including the method of
Article 18.
18. The method of Clause 17, wherein the reward value is based, at least in part, on how closely the proposed procedure matches a procedure performed by operating personnel.
Article 19.
19, comprising the method of clause 17 or 18, wherein the reward value is based, at least in part, on the time required to connect the first connector and the second connector.
Clause 20.
the reward value is based, at least in part, on whether the suggested procedure results in the first connector contacting any portion of the second device other than the second connector; Including the method of any one of clauses 17-19.
Article 21.
21. The method of any one of clauses 1-20, further comprising instructing relocation of the first portion of the first device based on the suggested procedure.
Article 22.
a movable coupling system configured to move a first connector relative to a second connector of a second device, to generate position data indicative of a position in three-dimensional space of the first connector; a camera configured to generate image data depicting a portion of the moveable coupling system and at least a portion of the second device; a first sensor based on the image data; A feature extraction model configured to receive an image and to generate feature data based on said first image, said feature data being of said movable coupling system depicted in said first image. A feature extraction model comprising first coordinates representing keypoints and comprising second coordinates representing keypoints of said second device depicted in said first image, and said feature data and said location data. a device comprising a trained autonomous agent configured to generate a suggested procedure for connecting said first connector to a second connector of said second device based on a.
Article 23.
said movable coupling system comprising a refueling boom of a tanker aircraft, said first connector comprising a refueling connector of said refueling boom, said second device comprising an aircraft, said A second connector includes the device of Clause 22, including a refueling refueling receptacle of said aircraft.
Article 24.
wherein the movable coupling system includes a first docking connector of a first spacecraft, the second device includes a second spacecraft, and the second connector includes a second docking connector; Including the device according to Clause 22.
Article 25.
25. The position data comprises a device according to any one of clauses 22-24, indicating a position within a frame of reference associated with the device and independent of the second device.
Article 26.
26. The device of any one of clauses 22-25, wherein the position data is generated based on the output of one or more position encoders associated with the moveable coupling system.
Article 27.
27. The device of any one of clauses 22-26, further comprising an image processor configured to receive a source image from the camera and downsample the source image to generate the first image. include.
Article 28.
The image processor is further configured to downsample the first image to generate a second image, wherein the feature extraction model is based on the first image and the second image. 28. A device according to any one of clauses 22 to 27 for generating said characteristic data.
Article 29.
29. Any one of clauses 22-28, further comprising a graphical user interface engine coupled to said trained autonomous agent and configured to output a graphical user interface comprising graphical elements indicative of said proposed procedure. devices.
Clause 30.
30. The device of clause 29, wherein the graphical user interface further comprises the first image and the graphical element overlapping at least a portion of the first image within the graphical user interface.
Article 31.
of a maneuvering action that may be performed by the device, a maneuvering action that may be performed by the steerable boom, or a set of procedures that may be selected as the suggested procedure based on a procedure restriction criterion being met; 31. The device of any one of clauses 22-30, further comprising, at least one, a procedure limiter configured to cause the restriction to be applied.
Article 32.
said trained autonomous agent comprises or corresponds to a neural network trained via a reinforcement learning process to determine a maneuvering action for connecting said first connector and said second connector; A device according to any one of clauses 22-31.
Article 33.
The one or more sensors are further configured to generate supplemental sensor data indicative of relative positions of the device and the second device in three-dimensional space, the supplemental sensor data comprising: 33. A device according to any one of clauses 22-32, comprising one or more of range data, radar data, lidar data, sonar data or stereo image data.
Article 34.
further at least one of a flight control system or a flight instrument configured to generate flight data and provide said flight data as input to said trained autonomous agent to generate said proposed procedure; A device according to any one of clauses 22 to 33, including.
Article 35.
The proposed procedure includes the device of Clause 34, generated based on determining that the flight data satisfies screening criteria.
Article 36.
A segmentation model configured to generate a segmentation map representing distinguishable regions of the first image, wherein the feature extraction model generates the feature data based, at least in part, on the segmentation map. comprising a device according to any one of clauses 22 to 35, adapted to
Article 37.
Further comprising a memory storing data representing known geometric dimensions of said second device, said feature extraction model being at least partially based on said known geometric dimensions of said second device. 37. The device of any one of clauses 22-36, wherein the device is configured to generate the characteristic data based on physical dimensions.
Article 38.
38. The device of any one of clauses 22-37, further comprising a control system configured to command repositioning of the movable coupling system based on the suggested procedure.
Article 39.
a steerable refueling boom including a refueling connector configured to be coupled to a refueling well of said second aircraft during refueling of said second aircraft, to said steerable refueling boom one or more sensors coupled and configured to generate position data indicative of the position of the steerable refueling boom in three-dimensional space; a portion of the steerable refueling boom and the second aircraft; a camera configured to generate image data depicting at least a portion thereof; a feature extractor configured to receive a first image based on said image data and generate feature data based on said first image; a model, wherein the feature data includes first coordinates representing key points of the steerable refueling boom depicted in the first image; and a proposal for connecting the refueling connector to the refueling refueling receptacle based on the feature data and the location data, the feature extraction model comprising second coordinates representing key points of the aircraft of Including a tanker aircraft including a trained autonomous agent configured to generate procedures.
Clause 40.
40. The position data includes the tanker aircraft of clause 39, indicating a position within a frame of reference associated with the tanker aircraft and independent of the second aircraft.
Article 41.
Clause 39 or 40, wherein the one or more sensors include one or more position encoders associated with the steerable refueling boom, and wherein the position data is generated based on outputs of the one or more position encoders including tanker aircraft described in .
Article 42.
42. Air refueling according to any one of clauses 39 to 41, further comprising an image processor configured to receive a source image from the camera and downsample the source image to generate the first image. Including machine.
Article 43.
The image processor is further configured to downsample the first image to generate a second image, wherein the feature extraction model is based on the first image and the second image. 43, including a tanker aircraft according to Clause 42 for generating said characteristic data.
Article 44.
44. A tanker aircraft according to any one of clauses 39 to 43, further comprising a graphical user interface engine configured to output a graphical user interface including graphical elements indicative of said proposed procedure.
Article 45.
45. The tanker aircraft of clause 44, wherein the graphical user interface further comprises the first image and the graphical element overlapping at least a portion of the first image within the graphical user interface.
Article 46.
a set of procedures that may be selected as a maneuvering action that may be performed by the tanker aircraft, a maneuvering action that may be performed by the steerable refueling boom, or the suggested procedure based on a procedure restriction criterion being met; 46, further comprising a procedure limiter configured to cause the restriction to apply to at least one of the tanker aircraft of any one of clauses 39-45.
Article 47.
wherein said trained autonomous agent comprises or corresponds to a neural network trained via a reinforcement learning process to determine a maneuvering action for connecting said refueling connector to said refueling receptacle; A tanker aircraft according to any one of claims 39 to 46.
Article 48.
The one or more sensors are further configured to generate supplemental sensor data indicative of relative positions of the tanker aircraft and the second aircraft in three-dimensional space, wherein the supplemental sensor data contains one or more of range data, radar data, lidar data, sonar data or stereoscopic image data.
Article 49.
further at least one of a flight control system or a flight instrument configured to generate flight data and provide said flight data as input to said trained autonomous agent to generate said proposed procedure; A tanker aircraft according to any one of Clauses 39 to 48, including.
Clause 50.
A segmentation model configured to generate a segmentation map representing distinguishable regions of the first image, wherein the feature extraction model generates the feature data based, at least in part, on the segmentation map. including a tanker aircraft according to any one of Clauses 39 to 49, adapted to
Article 51.
Further comprising a memory storing data representing known geometric dimensions of said second device, said feature extraction model being at least partially based on said known geometric dimensions of said second device. 51. A tanker aircraft according to any one of Clauses 39 to 50, wherein the tanker aircraft is configured to generate the characteristic data based on the physical dimensions.
Article 52.
52. The tanker aircraft of any one of Clauses 39-51, further comprising a control system configured to command repositioning of the steerable refueling boom based on the suggested procedure.
Article 53.
a steerable docking mechanism including a first docking connector configured to be coupled to a second docking connector of a second spacecraft during a docking operation; one or more sensors configured to generate position data indicative of the position of the steerable docking mechanism; and to generate image data depicting a portion of the steerable docking mechanism and at least a portion of the second spacecraft. a feature extraction model configured to receive a first image based on said image data and to generate feature data based on said first image, said feature data comprising said comprising a first coordinate representing a keypoint of said steerable docking mechanism depicted in a first image, and a second coordinate representing a keypoint of said second spacecraft depicted within said first image; a feature extraction model, and training configured to generate a suggested procedure for connecting the first docking connector to the second docking connector based on the feature data and the location data. Includes spacecraft, including autonomous agents.
Article 54.
54. The spacecraft of clause 53, wherein the position data indicates a position within a frame of reference associated with the spacecraft and independent of the second spacecraft.
Article 55.
Clause 53 or 54, wherein the one or more sensors include one or more position encoders associated with the steerable docking mechanism, and wherein the position data is generated based on outputs of the one or more position encoders. including spacecraft.
Article 56.
56. The spacecraft of any one of clauses 53-55, further comprising an image processor configured to receive source images from the camera and downsample the source images to generate the first image. including.
Article 57.
The image processor is further configured to downsample the first image to generate a second image, wherein the feature extraction model is based on the first image and the second image. 57, including the spacecraft of Clause 56 for generating said characterization data.
Article 58.
58. The spacecraft of any one of clauses 53-57, further comprising a graphical user interface engine configured to output a graphical user interface including graphical elements indicative of said proposed procedure.
Article 59.
59. The spacecraft of clause 58, wherein the graphical user interface further comprises the first image and the graphical element overlapping at least a portion of the first image within the graphical user interface.
Article 60.
a set of maneuvers that may be selected as the proposed maneuver, based on which a maneuver limit criterion has been met; 59. The spacecraft of any one of Clauses 53-59, further comprising a procedure limiter configured to cause at least one of the limits to be applied.
Article 61.
said trained autonomous agent comprises or corresponds to a neural network trained via a reinforcement learning process to determine a maneuvering action for connecting said first connector and said second connector; A spacecraft according to any one of Clauses 53 to 60.
Article 62.
The one or more sensors are further configured to generate supplemental sensor data indicative of relative positions of the spacecraft and the second spacecraft in three-dimensional space, wherein the supplementary sensor data includes a spacecraft according to any one of Clauses 53 to 61, including one or more of range data, radar data, lidar data, sonar data, or stereoscopic image data.
Article 63.
A segmentation model configured to generate a segmentation map representing distinguishable regions of the first image, wherein the feature extraction model generates the feature data based, at least in part, on the segmentation map. 63. A spacecraft according to any one of clauses 53 to 62, adapted to
Article 64.
Further comprising a memory storing data representing known geometrical dimensions of the second spacecraft, the feature extraction model being at least in part the known geometry of the second spacecraft. 64. A spacecraft according to any one of clauses 53-63, wherein the spacecraft is arranged to generate said characterization data based on geometrical dimensions.
Article 65.
65. The spacecraft of any one of Clauses 53-64, further comprising a control system configured to command repositioning of the steerable docking mechanism based on the suggested procedure.

更に、本明細書では具体的な例を図示および説明してきたが、同一又は類似の結果を実現するよう設計された任意の後続の構成を、示された特定の実施態様と置き換えてもよい。本開示は、様々な実施態様の後続する任意の又は全ての適用例又は変形例を含むことが意図されている。上述の実施態様の組み合わせ、及び、本明細書で特段に説明していない他の実施態様は、本明細書を精査することで当業者には明らかになろう。 Moreover, although specific examples have been illustrated and described herein, any subsequent configuration designed to achieve the same or similar results may be substituted for the specific implementations shown. This disclosure is intended to cover any and all subsequent adaptations or variations of various embodiments. Combinations of the above embodiments, and other embodiments not specifically described herein, will be apparent to those of skill in the art upon inspection of the specification.

本開示の「要約」は、特許請求の範囲又は意味を解釈したり、又は限定したりするために使用されるものではないとの理解のもとに、提出される。加えて、上記の「発明を実施するための形態においては、本開示を簡潔にする目的で、様々な特徴が、群化されたり、又は、単一の実装形態内で説明されたりする場合がある。上述の例は、本開示を例示しているのであって、限定しているわけではない。本開示の原理にしたがって多数の修正例及び変形例が実現可能であることも、理解すべきである。以下の特許請求の範囲に反映されているように、特許請求される主題は、開示されている例のいずれかの全ての特徴を対象としているわけではない場合がある。したがって、本開示の範囲は、以下の特許請求の範囲及びその均等物によって規定される。 The "Abstract" of this disclosure is submitted with the understanding that it will not be used to interpret or limit the scope or meaning of the claims. Additionally, in the above Detailed Description, various features may be grouped together or described within a single implementation for the purpose of conciseness of the disclosure. It should also be understood that the above examples are intended to illustrate rather than limit the present disclosure, and that many modifications and variations may be made in accordance with the principles of the disclosure. As the following claims reflect, claimed subject matter may not cover all features of any of the disclosed examples. The scope of the disclosure is defined by the following claims and their equivalents.

Claims (12)

方法(800、900)であって、
特徴データ(176)を生成するために第1の画像(170)を入力として特徴抽出モデル(130)に提供すること(802、906)であって、前記第1の画像は第1のデバイス(102)の第1の部分(156)と第2のデバイス(112)の第2の部分(162)とを描き、前記特徴データは、前記第1の画像内で描かれる前記第1のデバイスのキーポイント(158)を表す第1の座標(160)を含み、前記第1の画像内で描かれる前記第2のデバイスのキーポイント(164)を表す第2の座標(166)を含む、第1の画像を入力として特徴抽出モデルに提供すること、
前記第1のデバイスに搭載されている1以上のセンサ(124)から、前記第1のデバイスの第1のコネクタ(106)の三次元空間(108)内の位置を示す位置データ(178)を取得すること(804、908)であって、前記第1のコネクタは前記第1のデバイスの前記第1の部分上に配置されている、位置データを取得すること、並びに
前記第1のコネクタを前記第2のデバイスの第2のコネクタに接続するための提案される手順(180)を生成するために、前記特徴データ及び前記位置データを入力として訓練済み自律エージェント(132)に提供すること(806、914)を含む、方法。
A method (800, 900) comprising:
providing (802, 906) a first image (170) as an input to a feature extraction model (130) to generate feature data (176), said first image being a first device ( 102) and a second portion (162) of a second device (112), wherein the characteristic data is of the first device depicted in the first image; comprising a first coordinate (160) representing a keypoint (158) and comprising a second coordinate (166) representing a keypoint (164) of said second device depicted in said first image; providing an image of 1 as an input to a feature extraction model;
position data (178) indicative of a position in three-dimensional space (108) of a first connector (106) of said first device from one or more sensors (124) on said first device; obtaining (804, 908), wherein the first connector is located on the first portion of the first device, obtaining location data; providing said feature data and said location data as input to a trained autonomous agent (132) to generate a suggested procedure (180) for connecting to a second connector of said second device; 806, 914).
前記第1のデバイスは空中給油機(102A)を含み、前記第1のデバイスの前記第1の部分は燃料再補給ブーム(104A)を含み、前記第1のコネクタは前記燃料再補給ブームの燃料再補給コネクタ(106A)を含み、前記第2のデバイスは航空機(112A)を含み、前記第2のコネクタは前記航空機の燃料再補給受け口(116A)を含む、請求項1に記載の方法。 Said first device comprises a tanker aircraft (102A), said first portion of said first device comprises a refueling boom (104A), said first connector comprises fuel for said refueling boom. The method of claim 1, comprising a refueling connector (106A), said second device comprising an aircraft (112A), said second connector comprising a refueling refueling well (116A) of said aircraft. 前記第1のデバイスは第1の宇宙船(102B)を含み、前記第1のコネクタは第1のドッキングコネクタ(106B)を含み、前記第2のデバイスは第2の宇宙船(112B)を含み、前記第2のコネクタは第2のドッキングコネクタ(116B)を含む、請求項1又は2に記載の方法。 The first device includes a first spacecraft (102B), the first connector includes a first docking connector (106B), and the second device includes a second spacecraft (112B). 3. The method of claim 1 or 2, wherein said second connector comprises a second docking connector (116B). 前記位置データは、前記第1のデバイスに関連付けられ且つ前記第2のデバイスから独立した基準フレーム内の位置を示す、請求項1から3のいずれか一項に記載の方法。 4. A method according to any one of claims 1 to 3, wherein said position data indicates a position within a frame of reference associated with said first device and independent of said second device. 前記第1の画像を入力として前記特徴抽出モデルに提供する前に、前記第1の画像を生成するために、ソース画像を受け取り、前記ソース画像を1以上の回数だけダウンサンプリングすること(904)を更に含む、請求項1から4のいずれか一項に記載の方法。 Receiving a source image and down-sampling the source image one or more times to generate the first image before providing the first image as input to the feature extraction model (904). 5. The method of any one of claims 1-4, further comprising: 前記第1の画像の区別可能な領域(432、732)を表す区分けマップ(174)を生成するために、前記第1の画像を区分けモデル(136)に提供すること、及び
前記特徴データを生成するために、前記区分けマップを入力として前記特徴抽出モデルに提供すること(906)を更に含む、請求項1から5のいずれか一項に記載の方法。
providing said first image to a segmentation model (136) to generate a segmentation map (174) representing distinguishable regions (432, 732) of said first image; and generating said feature data. 6. The method of any one of claims 1 to 5, further comprising providing (906) the segmentation map as an input to the feature extraction model to do so.
前記第2のデバイスの前記キーポイントを表す前記第2の座標と前記第2のデバイスの知られている幾何学的寸法形状(142)との比較を実行すること(910)、及び
前記比較に基づいて前記特徴データを修正すること(912)を更に含む、請求項1から6のいずれか一項に記載の方法。
performing (910) a comparison between said second coordinates representing said keypoints of said second device and a known geometry (142) of said second device; 7. The method of any one of claims 1 to 6, further comprising modifying (912) the feature data based on.
前記提案される手順に基づいて前記第1のデバイスの前記第1の部分の再配置を命令すること(918)を更に含む、請求項1から7のいずれか一項に記載の方法。 8. The method of any one of claims 1 to 7, further comprising instructing (918) relocation of the first portion of the first device based on the suggested procedure. デバイス(102)であって、
第2のデバイス(112)の第2のコネクタ(116)に対して第1のコネクタ(106)を移動させるように構成された移動可能カップリングシステム(104)、
前記第1のコネクタの三次元空間(108)内の位置を示す位置データ(178)を生成するように構成された1以上のセンサ(124)、
前記移動可能カップリングシステムの一部分(156)と前記第2のデバイスの少なくとも一部分(162)とを描く画像データ(170)を生成するように構成されたカメラ(122)、
前記画像データに基づいて第1の画像を受け取り、前記第1の画像に基づいて特徴データ(176)を生成するように構成された特徴抽出モデル(130)であって、前記特徴データは、前記第1の画像内で描かれる前記移動可能カップリングシステムのキーポイント(158)を表す第1の座標(160)を含み、前記第1の画像内で描かれる前記第2のデバイスのキーポイント(164)を表す第2の座標(166)を含む、特徴抽出モデル、並びに
前記特徴データ及び前記位置データに基づいて、前記第1のコネクタを前記第2のデバイスの第2のコネクタに接続するための提案される手順(180)を生成するように構成された訓練済み自律エージェント(132)を含む、デバイス。
A device (102),
a moveable coupling system (104) configured to move the first connector (106) relative to the second connector (116) of the second device (112);
one or more sensors (124) configured to generate position data (178) indicative of the position of the first connector in three-dimensional space (108);
a camera (122) configured to generate image data (170) depicting a portion (156) of said moveable coupling system and at least a portion (162) of said second device;
A feature extraction model (130) configured to receive a first image based on said image data and to generate feature data (176) based on said first image, said feature data comprising said comprising a first coordinate (160) representing a keypoint (158) of said moveable coupling system depicted in said first image; a keypoint of said second device depicted within said first image ( 164) for connecting the first connector to a second connector of the second device based on the feature extraction model and the feature data and the location data; a device comprising a trained autonomous agent (132) configured to generate a suggested procedure (180) of
前記移動可能カップリングシステムは、空中給油機(102A)の燃料再補給ブーム(104A)を含み、前記第1のコネクタは、前記燃料再補給ブームの燃料再補給コネクタ(106A)を含み、前記第2のデバイスは航空機(112A)を含み、前記第2のコネクタは、前記航空機の燃料再補給受け口(116A)を含む、請求項9に記載のデバイス。 The movable coupling system includes a refueling boom (104A) of a tanker aircraft (102A), the first connector includes a refueling boom refueling connector (106A), and the first connector includes a refueling boom (106A). 10. The device of claim 9, wherein two devices comprise an aircraft (112A) and said second connector comprises a refueling refueling receptacle (116A) of said aircraft. 前記移動可能カップリングシステムは、第1の宇宙船(102B)の第1のドッキングコネクタ(106B)を含み、前記第2のデバイスは第2の宇宙船(112B)を含み、前記第2のコネクタは第2のドッキングコネクタ(116B)を含む、請求項9又は10に記載のデバイス。 The moveable coupling system includes a first docking connector (106B) of a first spacecraft (102B), the second device includes a second spacecraft (112B), the second connector 11. The device according to claim 9 or 10, wherein the includes a second docking connector (116B). 前記位置データは、前記デバイスに関連付けられ且つ前記第2のデバイスから独立した基準フレーム内の位置を示し、前記位置データは、前記移動可能カップリングシステムに関連付けられた1以上の位置エンコーダ(126)の出力に基づいて生成される、請求項9から11のいずれか一項に記載のデバイス。 The position data indicates a position within a frame of reference associated with the device and independent of the second device, the position data being one or more position encoders (126) associated with the moveable coupling system. 12. A device according to any one of claims 9 to 11, wherein the device is generated based on the output of
JP2022030581A 2021-03-01 2022-03-01 Autonomous maneuver generation to mate connectors Pending JP2022133258A (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US202163155052P 2021-03-01 2021-03-01
US63/155,052 2021-03-01

Publications (1)

Publication Number Publication Date
JP2022133258A true JP2022133258A (en) 2022-09-13

Family

ID=80775145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022030581A Pending JP2022133258A (en) 2021-03-01 2022-03-01 Autonomous maneuver generation to mate connectors

Country Status (3)

Country Link
US (1) US20220276652A1 (en)
EP (1) EP4053020A1 (en)
JP (1) JP2022133258A (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2016225111B2 (en) * 2015-02-27 2021-12-09 Board Of Regents, The University Of Texas System Polypeptide therapeutics and uses thereof
CA3111563A1 (en) 2018-09-10 2020-03-19 Lung Therapeutics, Inc. Modified peptide fragments of cav-1 protein and the use thereof in the treatment of fibrosis
DE102022123653B3 (en) 2022-09-15 2024-02-29 Deutsches Zentrum für Luft- und Raumfahrt e.V. Assistance system to support a pilot when refueling an aircraft in the air

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5530650A (en) * 1992-10-28 1996-06-25 Mcdonnell Douglas Corp. Computer imaging system and method for remote in-flight aircraft refueling
US7469863B1 (en) * 2005-03-24 2008-12-30 The Boeing Company Systems and methods for automatically and semiautomatically controlling aircraft refueling
CN111942621B (en) * 2020-07-17 2022-03-04 北京控制工程研究所 On-orbit autonomous filling control method and system based on multitask learning

Also Published As

Publication number Publication date
US20220276652A1 (en) 2022-09-01
EP4053020A1 (en) 2022-09-07

Similar Documents

Publication Publication Date Title
JP2022133258A (en) Autonomous maneuver generation to mate connectors
CN110394780B (en) Simulation device of robot
US10496762B2 (en) Model generating device, position and orientation calculating device, and handling robot device
EP3767595A1 (en) Immersive design management system
US11745355B2 (en) Control device, control method, and non-transitory computer-readable storage medium
CN108961144B (en) Image processing system
CN112634318B (en) Teleoperation system and method for underwater maintenance robot
CN108177144B (en) Robot system
JP2012218119A (en) Information processing apparatus, method for controlling the same, and program
JP7376268B2 (en) 3D data generation device and robot control system
US10406688B2 (en) Offline programming apparatus and method having workpiece position detection program generation function using contact sensor
EP2741171A1 (en) Method, human-machine interface and vehicle
EP3535096B1 (en) Robotic sensing apparatus and methods of sensor planning
JP2022524108A (en) Collaborative decision on cargo footprint of robot vehicle
Lee et al. Registration method for maintenance-work support based on augmented-reality-model generation from drawing data
CN116249607A (en) Method and device for robotically gripping three-dimensional objects
CN111767843A (en) Three-dimensional position prediction method, device, equipment and storage medium
US20230419531A1 (en) Apparatus and method for measuring, inspecting or machining objects
US11816271B2 (en) Control system, gesture recognition system, vehicle, and method for controlling gesture recognition system
KR20180076966A (en) Method for detecting workpiece welding line by welding robot
CN114830204A (en) Training neural networks through neural networks
CN109459046B (en) Positioning and navigation method of suspension type underwater autonomous vehicle
Nakhaeinia et al. Adaptive robotic contour following from low accuracy RGB-D surface profiling and visual servoing
Nahapetyan et al. Gesture recognition in the problem of contactless control of an unmanned aerial vehicle
Konoplin et al. System for identifying target objects to perform manipulative operations by unmanned underwater vehicles