ES2584554A1 - Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje - Google Patents

Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje Download PDF

Info

Publication number
ES2584554A1
ES2584554A1 ES201531734A ES201531734A ES2584554A1 ES 2584554 A1 ES2584554 A1 ES 2584554A1 ES 201531734 A ES201531734 A ES 201531734A ES 201531734 A ES201531734 A ES 201531734A ES 2584554 A1 ES2584554 A1 ES 2584554A1
Authority
ES
Spain
Prior art keywords
mouth
boom
tip
pole
procedure
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201531734A
Other languages
English (en)
Other versions
ES2584554B2 (es
Inventor
Alberto ADARVE LOZANO
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Defensya Ingenieria Internacional SL
Original Assignee
Defensya Ingenieria Internacional SL
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Defensya Ingenieria Internacional SL filed Critical Defensya Ingenieria Internacional SL
Priority to ES201531734A priority Critical patent/ES2584554B2/es
Publication of ES2584554A1 publication Critical patent/ES2584554A1/es
Priority to US15/778,017 priority patent/US10706583B2/en
Priority to CN201680070182.7A priority patent/CN108290638A/zh
Priority to PCT/ES2016/070843 priority patent/WO2017093584A1/es
Priority to AU2016363838A priority patent/AU2016363838B2/en
Priority to EP16870036.7A priority patent/EP3385907B1/en
Application granted granted Critical
Publication of ES2584554B2 publication Critical patent/ES2584554B2/es
Priority to SA518391408A priority patent/SA518391408B1/ar
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/75Determining position or orientation of objects or cameras using feature-based methods involving models
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D39/00Refuelling during flight
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D39/00Refuelling during flight
    • B64D39/02Means for paying-in or out hose
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for
    • B64D45/0005Devices specially adapted to indicate the position of a movable element of the aircraft, e.g. landing gear
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/285Analysis of motion using a sequence of stereo image pairs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • G06T7/344Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/04Indexing scheme for image data processing or generation, in general involving 3D image data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30212Military
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Electromagnetism (AREA)
  • Signal Processing (AREA)
  • Optics & Photonics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje. Sistema de detección de la punta de la pértiga del botalón volador de un avión tanquero y de la boca del receptáculo del receptor para contacto semiautomático o automático para repostaje en vuelo con botalón que no precisa de dispositivos de señalización sobre el avión receptor, donde el sistema y procedimiento asociado es robusto y asegura proporcionar al sistema de control del botalón del tanquero, información robusta, fiable y simultánea en tiempo real, del extremo de su pértiga y de la boca del receptáculo del receptor, en cada instante. Para ello el sistema cuenta con: 1) unos emisores de luz montados en la punta de su pértiga, 2) un subsistema de procesamiento y 3) dos cámaras 3D y bien una cámara TOF o una de tipo DOE, (o ambas) además de, al menos, un láser L para proporcionarles su funcionalidad específica.

Description

imagen1
imagen2
imagen3
imagen4
imagen5
imagen6
procesadores, tanto de tipo convencional, que ejecutan instrucciones de forma secuencial (como son aquellos los procesadores multi-núcleo o los fpga-s (Field Programmable Gate Array) y gpu-s (graphics processor units) y otra con otros procesadores basados en redes neuronales con capacidad de entrenamiento y procesamiento en paralelo. Además el elemento P consta de un subsistema de comunicaciones con el resto de los subsistemas que componen la invención. Las funciones del elemento P consisten en obtener por un lado la posición del receptor y por otro la ubicación del botalón a partir de la información proporcionada por los subsistemas S3D, STOF y SDOE. Entre otros resultados, el elemento P obtiene una nube de puntos del receptáculo, y partes anexas a este, del avión receptor. Conocida esa nube de puntos y comparándola con información, almacenada en una base de datos, de los modelos 3D de los posibles aviones a contactar, se puede colocar en un espacio virtual un modelo 3D del receptor y partir de él obtener la posición exacta del receptáculo de este. También se hace pasar la nube de puntos por una red neuronal previamente entrenada para finalmente obtener de nuevo la posición del receptáculo (de forma redundante). Lo mismo hará con los datos de las nubes de puntos y el modelo 3D del botalón. Otra función que realiza el elemento P es determinar las posiciones de los emisores del elemento BD de la boquilla de la pértiga para obtener la posición del extremo de ésta. El elemento P calcula todos los puntos y vectores significativos ya indicados. También realiza el ajuste de dimensiones y eliminación de aberraciones procedentes de las lentes o del propio sensor. Una calibración previa será indispensable para el funcionamiento correcto de todo el sistema. Los componentes del elemento P pueden estar concentrados en una ubicación única o dispersos en partes junto con los demás subsistemas de esta invención.
En una primera instancia sólo las cámaras 3D realizan las funcionalidades necesarias. El sistema se reduciría a dos cámaras y el dispositivo BD de emisores de luz colocado en la punta de la pértiga. Todos con sus accesorios correspondientes, y a los que habría que añadir finalmente, el elemento P de procesamiento .
En una segunda implementación más completa, todos los subsistemas, están presentes aunque en una primera realización, el láser que algunos subsistemas emplean puede ser el mismo y la funcionalidad de sus cámaras realizada por una de las cámaras de 3D o por ambas.
En sucesivas realizaciones, los componentes de cada subsistema se van independizando y especializando en la tarea exigida por cada subsistema específico y el sistema completo va sumando más elementos individuales hasta
8
imagen7
imagen8
subsistemas que lo integran puedan estar dispersos, colocados en diferentes zonas del tanquero en distintas implementaciones de la misma patente.
Dentro del elemento C tenemos hasta tres subsistemas distintos, dependiendo de la implementación concreta de esta patente:
1.- En primer lugar un primer subsistema que denominamos S3D (9) que contiene a las cámaras 3D (17) y es responsable de la localización de los LEDs del elemento BD descrito en el punto I (figura 1) y de determinar la posición de dichos emisores frente a estas. También es responsable de determinar la posición del receptáculo a partir de las imágenes que se obtienen del avión receptor sobre cuya superficie se encuentra el mismo. Estas cámaras disponen de sus respectivos sensores de imagen, electrónica de procesamiento, lentes de enfoque (18) y un filtro paso-banda B3 estrecho centrado en un lugar λ3 del espectro. Alguna cámaras pueden contar con unas lentes de control electrónico variable (19). Esa longitud de onda es compatible con las otras cámaras involucradas en la operación de repostaje y está centrada en la misma longitud de onda de emisión de los LEDs (16) del elemento BD. Esto ayudará en la eliminación de fotones procedentes de otras fuentes como el propio sol. La electrónica adicional también tiene como misión controlar el encendido de los LEDs a lo largo del tiempo, generando ciertos patrones que ayudan también a distinguirlos de la luz emitida por otras fuentes. El procesado consiste, en esencia, en la realización de una correlación cruzada entre el patrón de luz, generado y la luz recibida en cada cuadro de imagen. Finalmente, esta electrónica, tras detectar cada emisor LED del elemento BD, que sea visible desde las cámaras, calcula la distancia y el resto de coordenadas de cada LED respecto un conjunto de ejes de referencia, que por simplicidad se colocan en el centro del sensor de una de las cámaras y que denominamos CR. El subsistema S3D será alimentado por una fuente de alimentación del avión y dará como salida un conjunto de coordenadas (X, Y, Z) de los puntos activos que vaya localizando en cada “frame” o cuadro de imágenes. La electrónica de procesamiento abarcará funcionalidades como la detección de coordenadas (x, y) de cada punto activo localizado por cada cámara de forma independiente así como el cálculo de las coordenadas globales respecto a los ejes de referencia con centro CR a partir de las (x, y) de ambas cámaras. También realizará ajuste de dimensiones y eliminación de aberraciones procedentes de las lentes
o del propio sensor. Una calibración previa será indispensable para el funcionamiento correcto de las mismas.
El cálculo de la distancia lo realiza cada intervalo temporal de cuadro, empleando las imágenes obtenidas por ambas cámaras a la frecuencia de obtención de imágenes de éstas. Además identificando un conjunto de puntos en ambas, podemos obtener por triangulación la distancia de cada punto a ellas y así obtener una nube de puntos de nuestro avión receptor y de nuestro
11
imagen9
imagen10
imagen11
imagen12
para identificar los mismos puntos en ambas imágenes de cuadro procedentes de ambas cámaras en cada instante. A partir de sus posiciones en al menos dos cámaras, y por un método de triangulación similar al empleado para detectar los emisores de luz en el apartado anterior, se obtienen las coordenadas de todos los puntos identificados en todas las cámaras de S3D. Ese conjunto de coordenadas no es ni más ni menos que la nube de puntos respecto al CR que se persigue conseguir. Obsérvese que se obtienen dos sub-nubes de puntos unidas: Una correspondiente al extremo del botalón y otra correspondiente al avión receptor.
- Obtención de una segunda nube de puntos, que se corresponde de nuevo, con el extremo del botalón y el avión receptor a partir del subsistema STOF, L1 junto con los demás otros componentes auxiliares. El láser L1 proporciona un conjunto de pulsos de luz de longitud de onda λ1. El circuito que dispara el encendido de este láser es el mismo que gobierna el disparo y adquisición de cuadros de imagen de la cámara tipo TOF incluida en STOF. Considerando la velocidad de la luz y el tiempo que tarda en recibirse el pulso generado en cada pixel del sensor de dicha cámara tipo TOF, puede obtenerse la distancia del punto del escenario que refleja la luz recibida. Para facilitar esa tarea se le antepone a la cámara tipo TOF un filtro paso banda estrecho B1 centrado en λ1. Además se emplea la técnica de desplazamiento de fase para determinar con exactitud el momento en el que el pulso emitido por L1 llega de vuelta al sensor. Eso se realiza para cada punto de nuestro escenario que es recibido en cada pixel de nuestro sensor en la cámara TOF. Se obtiene así una nueva nube con tantos puntos como la resolución del sensor empleado. Cada tiempo de cuadro, la cámara tipo TOF proporciona una nueva nube de puntos.
- Obtener una tercera nube de puntos que se corresponde de nuevo, con el extremo del botalón y el avión receptor a partir de la información que nos proporciona de forma muy similar a la anterior, el subsistema SDOE formado por la cámara tipo DOE más el láser L2 y demás componentes auxiliares. El láser L2 genera un patrón (este patrón puede ser fijo o variable según se controlen los demás lentes del láser) de luz estructurada gracias a la lente de difracción, por la que lo hacemos pasar una vez colimado adecuadamente. Los elementos de este patrón pueden ser identificados si somos capaces de "ver" la luz que emite el láser al ser reflejada por nuestro entorno. Para facilitarlo, empleamos un nuevo filtro paso banda B2 estrecho delante de la cámara del SDOE, sintonizado con L2 y que eliminará la luz de otras longitudes de onda. Además, el encendido y apagado con cierta cadencia nos ayudará también a distinguir la luz del láser con respecto a otra, de fuentes
16
distintas, que no parpadearán de la misma forma. Con técnicas de correlación cruzada obtendremos los píxeles que son reflejados en los objetos de nuestro escenario y a partir de sus intensidades relativas determinaremos qué píxeles corresponden a determinados puntos del patrón. Como resultado obtenemos un conjunto de puntos que, de nuevo, mediante técnicas de triangulación y trigonometría, teniendo en cuenta que conocemos la distancia del láser L2 a la cámara de SDOE y los ángulos de ambos, nos permitirán obtener las distancias desde la cámara de SDOE a cada punto de ese conjunto de puntos. En definitiva tendremos un conjunto de coordenadas (xi, yi, zi) pertenecientes a los objetos de nuestro escenario, por cada cuadro de imagen. Así las cosas de nuevo tenemos una nube de puntos similar a la obtenida por la cámara del STOF pero a partir de una forma diferente.
- El siguiente paso es, alternativamente, bien realizar una fusión de la información de las nubes de puntos, por cada cuadro, para obtener la mejor nube de puntos de partida, o aplicamos uno de los métodos de procesamiento (que se explicarán más adelante) de entre los que P puede realizar, a cada una de las nubes de puntos, para realizar una fusión de los resultados obtenidos y conseguir la mejor y más robusta solución de la posición de los puntos y vectores de interés. Como se ha dicho, todo esto para cada cuadro de imagen a lo largo del tiempo. El cálculo de las velocidades y aceleraciones relativas así como de los versores ortogonales indicados, es una cuestión meramente algebraica que requiere de pocos recursos de procesamiento. Los procesamientos que podemos realizar en P a las nubes de puntos obtenidas por los distintos elementos que integran esta invención consisten en:
Hacerlas pasar por una red neuronal artificial entrenada para proporcionar como salidas las coordenadas de la ubicación y vector ortogonal de los dos puntos de interés con respecto a nuestro centro de referencia CR.
Compararlas con uno de los modelos 3D almacenados, de nuestro receptor y del botalón, para hallar la posición tanto de la boca de repostaje de dicho receptor como del centro del extremo de la boquilla (4) de la pértiga una vez separados ambos. Dichos puntos con respecto a nuestro centro de referencia CR. La gran certidumbre que proporciona el elemento BD a la hora de obtener la posición de la puna del botalón nos permite eliminar la parte de la nube de puntos correspondiente a dicha punta del botalón y quedarnos con las subnubes correspondientes exclusivamente al avión receptor.
Las etapas por las que pasa el elemento P, en el caso de realizar una comparación de las nubes de puntos con uno de los modelos 3D
17
imagen13
- 4ª.- Realizar una fusión de las informaciones obtenidas por métodos alternativos para obtener la información de interés de una forma robusta y fiable y así poder alimentar las leyes de control del botalón y llevar a cabo la operación automática de repostaje. Para realizar esta tarea, cada subsistema es asignado con el cálculo de ciertos valores que se conocen como factores de calidad y nos indican en esencia cuán fiables son los resultados que han proporcionado o cuál es su probabilidad de error. Esa información es empleada para garantizar la fusión óptima de los resultados que se obtienen.
Las nubes de puntos obtenidas por los subsistemas S3D, SDOE y STOF se emplean en un cálculo híbrido con los dos procedimientos indicados, es decir, empleará conjuntamente redes neuronales y la comparación con un modelo 3D, para obtener las posiciones y vectores de interés.
Por lo tanto, gracias al sistema y procedimiento de esta invención, se proporciona un mecanismo de obtención de un conjunto de datos en función del tiempo, con una latencia despreciable y un ritmo adecuado, para permitir al sistema que gobierna las leyes de control del tanquero y del botalón del mismo así como al avión receptor, incorporar dichos datos en su control y así gobernar tanto al tanquero, al botalón y al receptor para dar lugar a un contacto entre los dos últimos de forma semiautomática o incluso automática, supervisada o no.
Descrita suficientemente la naturaleza de la presente invención, así como la manera de ponerla en práctica, se hace constar que, dentro de su esencialidad, podrá ser llevada a la práctica en otras formas de realización que difieran en detalle de la indicada a título de ejemplo, y a las cuales alcanzará igualmente la protección que se recaba, siempre que no altere, cambie o modifique su principio fundamental.
19

Claims (1)

  1. imagen1
    imagen2
    imagen3
    imagen4
    imagen5
    imagen6
ES201531734A 2015-11-30 2015-11-30 Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje Active ES2584554B2 (es)

Priority Applications (7)

Application Number Priority Date Filing Date Title
ES201531734A ES2584554B2 (es) 2015-11-30 2015-11-30 Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje
US15/778,017 US10706583B2 (en) 2015-11-30 2016-11-28 System and method for aerial refueling
CN201680070182.7A CN108290638A (zh) 2015-11-30 2016-11-28 用于检测加油管末端和容器口、飞行时用飞桁进行渐进式自动化空中加油的系统以及加油方法
PCT/ES2016/070843 WO2017093584A1 (es) 2015-11-30 2016-11-28 Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje
AU2016363838A AU2016363838B2 (en) 2015-11-30 2016-11-28 System for detecting the tip of the pole and mouth of the receptacle, progressive automation of aerial refuelling with a boom, and refuelling method
EP16870036.7A EP3385907B1 (en) 2015-11-30 2016-11-28 System for detecting the tip of the pole and mouth of the receptacle, progressive automation of aerial refuelling with a boom, and refuelling method
SA518391408A SA518391408B1 (ar) 2015-11-30 2018-04-21 نظام لاكتشاف مقدمة الأنبوب ومصب الوعاء، آلية تقدمية لإعادة التزود بالوقود أثناء الطيران بذراع تزود بالوقود، وطريقة إعادة التزود بالوقود

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201531734A ES2584554B2 (es) 2015-11-30 2015-11-30 Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje

Publications (2)

Publication Number Publication Date
ES2584554A1 true ES2584554A1 (es) 2016-09-28
ES2584554B2 ES2584554B2 (es) 2017-06-13

Family

ID=56973689

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201531734A Active ES2584554B2 (es) 2015-11-30 2015-11-30 Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje

Country Status (7)

Country Link
US (1) US10706583B2 (es)
EP (1) EP3385907B1 (es)
CN (1) CN108290638A (es)
AU (1) AU2016363838B2 (es)
ES (1) ES2584554B2 (es)
SA (1) SA518391408B1 (es)
WO (1) WO2017093584A1 (es)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016181117A1 (en) * 2015-05-11 2016-11-17 Bae Systems Plc Aircraft coupling method and system
CN106710363A (zh) * 2017-02-25 2017-05-24 佛山市三水区希望火炬教育科技有限公司 一种青少年国防科技研究专用的空中加油机模型
US10882635B2 (en) 2018-05-09 2021-01-05 The Boeing Company Aiding maneuvering of obscured objects
CN110163914B (zh) * 2018-08-01 2021-05-25 京东方科技集团股份有限公司 基于视觉的定位
US11022972B2 (en) * 2019-07-31 2021-06-01 Bell Textron Inc. Navigation system with camera assist
US20210104162A1 (en) * 2019-08-14 2021-04-08 US Govt as represented by Secretary of Air Force Stereo Vision Relative Navigation of Airborne Vehicles
CN112623239A (zh) * 2020-12-24 2021-04-09 杨剑 空军军用飞机隔空加油系统及使用方法
US20220306311A1 (en) * 2021-03-23 2022-09-29 The Boeing Company Segmentation-based fuel receptacle localization for air-to-air refueling (a3r)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5530650A (en) * 1992-10-28 1996-06-25 Mcdonnell Douglas Corp. Computer imaging system and method for remote in-flight aircraft refueling
US5904729A (en) * 1997-03-04 1999-05-18 The Boeing Company Automated director light system for aerial refueling operations
US20030205643A1 (en) * 2002-05-01 2003-11-06 Von Thal German Boom load alleviation using visual means

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6752357B2 (en) 2002-05-10 2004-06-22 The Boeing Company Distance measuring using passive visual means
US7469863B1 (en) 2005-03-24 2008-12-30 The Boeing Company Systems and methods for automatically and semiautomatically controlling aircraft refueling
US7309048B2 (en) 2005-07-29 2007-12-18 The Boeing Company Vision system and method incorporating graphics symbology for use in a tanker refueling system
EP2336028A1 (en) * 2009-12-18 2011-06-22 EADS Construcciones Aeronauticas, S.A. Improved method and system for enhanced vision in aerial refueling operations
EP2336027A1 (en) * 2009-12-18 2011-06-22 EADS Construcciones Aeronauticas, S.A. Method and system for enhanced vision in aerial refuelling operations
CN103557792B (zh) * 2013-11-12 2015-10-28 中国科学院自动化研究所 一种空中加油锥套目标的视觉跟踪与位置测量方法
ES2584231B2 (es) * 2015-10-09 2017-06-02 Defensya Ingeniería Internacional, S.L. Sistema de localización del extremo del boom, de la boca del receptáculo de repostaje y del tanquero
CN109085845B (zh) * 2018-07-31 2020-08-11 北京航空航天大学 一种自主空中加油对接仿生视觉导航控制系统及方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5530650A (en) * 1992-10-28 1996-06-25 Mcdonnell Douglas Corp. Computer imaging system and method for remote in-flight aircraft refueling
US5904729A (en) * 1997-03-04 1999-05-18 The Boeing Company Automated director light system for aerial refueling operations
US20030205643A1 (en) * 2002-05-01 2003-11-06 Von Thal German Boom load alleviation using visual means

Also Published As

Publication number Publication date
EP3385907A1 (en) 2018-10-10
EP3385907B1 (en) 2022-01-19
AU2016363838A1 (en) 2018-04-19
EP3385907A4 (en) 2019-09-04
US10706583B2 (en) 2020-07-07
SA518391408B1 (ar) 2021-11-15
ES2584554B2 (es) 2017-06-13
WO2017093584A1 (es) 2017-06-08
CN108290638A (zh) 2018-07-17
AU2016363838B2 (en) 2022-03-17
US20180350104A1 (en) 2018-12-06

Similar Documents

Publication Publication Date Title
ES2584554A1 (es) Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje
ES2909057T3 (es) Seguimiento ocular que utiliza la posición del centro del globo ocular
KR20180005659A (ko) 거리 센서
US10488192B2 (en) Distance sensor projecting parallel patterns
ES2693785T3 (es) Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno
EP3295239B1 (en) Augmenting a depth map representation with a reflectivity map representation
CN109425305A (zh) 使用多个脉冲式结构光投影仪的深度测量
JP2020501155A (ja) 焦点調整可能な画像センサを含む距離センサ
WO2019028152A1 (en) OCULAR TRACKING USING TEMPORAL MULTIPLEXING
KR20170072319A (ko) 거리 센서
WO2020117785A1 (en) Vertical cavity surface emitting laser-based projector
CN108354585B (zh) 用于检测角膜顶点的用计算机实现的方法
CN109425306A (zh) 深度测量组件
KR102005100B1 (ko) 소형 지상 레이저 표적 지시기
ES2584231A1 (es) Sistema de localización del extremo del boom, de la boca del receptáculo de repostaje y del tanquero
JP2016126144A5 (es)
WO2020086243A1 (en) Eye tracking systems and methods for near-eye-display (ned) devices
RU2018102751A (ru) Измеритель пуркинье и способ автоматической оценки
ES2436726B2 (es) Sistemas y métodos para el cálculo de la velocidad de aproximación en maniobras de reabastecimiento aéreo de combustible
ES2603430B2 (es) Sistema de detección y procedimiento de contacto de punta del botalón volador y boca del receptáculo para operaciones de repostaje aéreo con botalón
EA201401149A1 (ru) Способ повышения точности определения ориентации по звездам и длительного поддержания повышенной точности определения ориентации и устройство для их реализации
ES2806391T3 (es) Procedimiento para la determinación de los datos de posición de un objeto objetivo en un sistema de referencia y procedimiento para el guiado de una aeronave configurada preferentemente como misil
JP2010038847A (ja) モーショントラッカシステム及びその座標系設定方法
US10609365B2 (en) Light ray based calibration system and method
US20210287334A1 (en) Information processing apparatus, information processing method, and program

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2584554

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20170613