ES2584554A1 - Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje - Google Patents
Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje Download PDFInfo
- Publication number
- ES2584554A1 ES2584554A1 ES201531734A ES201531734A ES2584554A1 ES 2584554 A1 ES2584554 A1 ES 2584554A1 ES 201531734 A ES201531734 A ES 201531734A ES 201531734 A ES201531734 A ES 201531734A ES 2584554 A1 ES2584554 A1 ES 2584554A1
- Authority
- ES
- Spain
- Prior art keywords
- mouth
- boom
- tip
- pole
- procedure
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title abstract description 11
- 238000001514 detection method Methods 0.000 title abstract description 3
- 230000000750 progressive effect Effects 0.000 title abstract 2
- 230000011664 signaling Effects 0.000 abstract 1
- 238000004364 calculation method Methods 0.000 description 5
- 239000013598 vector Substances 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000004075 alteration Effects 0.000 description 2
- 230000008030 elimination Effects 0.000 description 2
- 238000003379 elimination reaction Methods 0.000 description 2
- 230000004927 fusion Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 230000010363 phase shift Effects 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 238000001228 spectrum Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/75—Determining position or orientation of objects or cameras using feature-based methods involving models
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D39/00—Refuelling during flight
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D39/00—Refuelling during flight
- B64D39/02—Means for paying-in or out hose
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64D—EQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
- B64D45/00—Aircraft indicators or protectors not otherwise provided for
- B64D45/0005—Devices specially adapted to indicate the position of a movable element of the aircraft, e.g. landing gear
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S17/00—Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
- G01S17/02—Systems using the reflection of electromagnetic waves other than radio waves
- G01S17/06—Systems determining position data of a target
- G01S17/08—Systems determining position data of a target for measuring distance only
- G01S17/10—Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/285—Analysis of motion using a sequence of stereo image pairs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
- G06T7/33—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
- G06T7/344—Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods involving models
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/521—Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10004—Still image; Photographic image
- G06T2207/10012—Stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30212—Military
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Aviation & Aerospace Engineering (AREA)
- Multimedia (AREA)
- General Engineering & Computer Science (AREA)
- Software Systems (AREA)
- Computer Hardware Design (AREA)
- Computer Graphics (AREA)
- Electromagnetism (AREA)
- Signal Processing (AREA)
- Optics & Photonics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje. Sistema de detección de la punta de la pértiga del botalón volador de un avión tanquero y de la boca del receptáculo del receptor para contacto semiautomático o automático para repostaje en vuelo con botalón que no precisa de dispositivos de señalización sobre el avión receptor, donde el sistema y procedimiento asociado es robusto y asegura proporcionar al sistema de control del botalón del tanquero, información robusta, fiable y simultánea en tiempo real, del extremo de su pértiga y de la boca del receptáculo del receptor, en cada instante. Para ello el sistema cuenta con: 1) unos emisores de luz montados en la punta de su pértiga, 2) un subsistema de procesamiento y 3) dos cámaras 3D y bien una cámara TOF o una de tipo DOE, (o ambas) además de, al menos, un láser L para proporcionarles su funcionalidad específica.
Description
procesadores, tanto de tipo convencional, que ejecutan instrucciones de forma secuencial (como son aquellos los procesadores multi-núcleo o los fpga-s (Field Programmable Gate Array) y gpu-s (graphics processor units) y otra con otros procesadores basados en redes neuronales con capacidad de entrenamiento y procesamiento en paralelo. Además el elemento P consta de un subsistema de comunicaciones con el resto de los subsistemas que componen la invención. Las funciones del elemento P consisten en obtener por un lado la posición del receptor y por otro la ubicación del botalón a partir de la información proporcionada por los subsistemas S3D, STOF y SDOE. Entre otros resultados, el elemento P obtiene una nube de puntos del receptáculo, y partes anexas a este, del avión receptor. Conocida esa nube de puntos y comparándola con información, almacenada en una base de datos, de los modelos 3D de los posibles aviones a contactar, se puede colocar en un espacio virtual un modelo 3D del receptor y partir de él obtener la posición exacta del receptáculo de este. También se hace pasar la nube de puntos por una red neuronal previamente entrenada para finalmente obtener de nuevo la posición del receptáculo (de forma redundante). Lo mismo hará con los datos de las nubes de puntos y el modelo 3D del botalón. Otra función que realiza el elemento P es determinar las posiciones de los emisores del elemento BD de la boquilla de la pértiga para obtener la posición del extremo de ésta. El elemento P calcula todos los puntos y vectores significativos ya indicados. También realiza el ajuste de dimensiones y eliminación de aberraciones procedentes de las lentes o del propio sensor. Una calibración previa será indispensable para el funcionamiento correcto de todo el sistema. Los componentes del elemento P pueden estar concentrados en una ubicación única o dispersos en partes junto con los demás subsistemas de esta invención.
En una primera instancia sólo las cámaras 3D realizan las funcionalidades necesarias. El sistema se reduciría a dos cámaras y el dispositivo BD de emisores de luz colocado en la punta de la pértiga. Todos con sus accesorios correspondientes, y a los que habría que añadir finalmente, el elemento P de procesamiento .
En una segunda implementación más completa, todos los subsistemas, están presentes aunque en una primera realización, el láser que algunos subsistemas emplean puede ser el mismo y la funcionalidad de sus cámaras realizada por una de las cámaras de 3D o por ambas.
En sucesivas realizaciones, los componentes de cada subsistema se van independizando y especializando en la tarea exigida por cada subsistema específico y el sistema completo va sumando más elementos individuales hasta
8
subsistemas que lo integran puedan estar dispersos, colocados en diferentes zonas del tanquero en distintas implementaciones de la misma patente.
Dentro del elemento C tenemos hasta tres subsistemas distintos, dependiendo de la implementación concreta de esta patente:
1.- En primer lugar un primer subsistema que denominamos S3D (9) que contiene a las cámaras 3D (17) y es responsable de la localización de los LEDs del elemento BD descrito en el punto I (figura 1) y de determinar la posición de dichos emisores frente a estas. También es responsable de determinar la posición del receptáculo a partir de las imágenes que se obtienen del avión receptor sobre cuya superficie se encuentra el mismo. Estas cámaras disponen de sus respectivos sensores de imagen, electrónica de procesamiento, lentes de enfoque (18) y un filtro paso-banda B3 estrecho centrado en un lugar λ3 del espectro. Alguna cámaras pueden contar con unas lentes de control electrónico variable (19). Esa longitud de onda es compatible con las otras cámaras involucradas en la operación de repostaje y está centrada en la misma longitud de onda de emisión de los LEDs (16) del elemento BD. Esto ayudará en la eliminación de fotones procedentes de otras fuentes como el propio sol. La electrónica adicional también tiene como misión controlar el encendido de los LEDs a lo largo del tiempo, generando ciertos patrones que ayudan también a distinguirlos de la luz emitida por otras fuentes. El procesado consiste, en esencia, en la realización de una correlación cruzada entre el patrón de luz, generado y la luz recibida en cada cuadro de imagen. Finalmente, esta electrónica, tras detectar cada emisor LED del elemento BD, que sea visible desde las cámaras, calcula la distancia y el resto de coordenadas de cada LED respecto un conjunto de ejes de referencia, que por simplicidad se colocan en el centro del sensor de una de las cámaras y que denominamos CR. El subsistema S3D será alimentado por una fuente de alimentación del avión y dará como salida un conjunto de coordenadas (X, Y, Z) de los puntos activos que vaya localizando en cada “frame” o cuadro de imágenes. La electrónica de procesamiento abarcará funcionalidades como la detección de coordenadas (x, y) de cada punto activo localizado por cada cámara de forma independiente así como el cálculo de las coordenadas globales respecto a los ejes de referencia con centro CR a partir de las (x, y) de ambas cámaras. También realizará ajuste de dimensiones y eliminación de aberraciones procedentes de las lentes
o del propio sensor. Una calibración previa será indispensable para el funcionamiento correcto de las mismas.
El cálculo de la distancia lo realiza cada intervalo temporal de cuadro, empleando las imágenes obtenidas por ambas cámaras a la frecuencia de obtención de imágenes de éstas. Además identificando un conjunto de puntos en ambas, podemos obtener por triangulación la distancia de cada punto a ellas y así obtener una nube de puntos de nuestro avión receptor y de nuestro
11
para identificar los mismos puntos en ambas imágenes de cuadro procedentes de ambas cámaras en cada instante. A partir de sus posiciones en al menos dos cámaras, y por un método de triangulación similar al empleado para detectar los emisores de luz en el apartado anterior, se obtienen las coordenadas de todos los puntos identificados en todas las cámaras de S3D. Ese conjunto de coordenadas no es ni más ni menos que la nube de puntos respecto al CR que se persigue conseguir. Obsérvese que se obtienen dos sub-nubes de puntos unidas: Una correspondiente al extremo del botalón y otra correspondiente al avión receptor.
- Obtención de una segunda nube de puntos, que se corresponde de nuevo, con el extremo del botalón y el avión receptor a partir del subsistema STOF, L1 junto con los demás otros componentes auxiliares. El láser L1 proporciona un conjunto de pulsos de luz de longitud de onda λ1. El circuito que dispara el encendido de este láser es el mismo que gobierna el disparo y adquisición de cuadros de imagen de la cámara tipo TOF incluida en STOF. Considerando la velocidad de la luz y el tiempo que tarda en recibirse el pulso generado en cada pixel del sensor de dicha cámara tipo TOF, puede obtenerse la distancia del punto del escenario que refleja la luz recibida. Para facilitar esa tarea se le antepone a la cámara tipo TOF un filtro paso banda estrecho B1 centrado en λ1. Además se emplea la técnica de desplazamiento de fase para determinar con exactitud el momento en el que el pulso emitido por L1 llega de vuelta al sensor. Eso se realiza para cada punto de nuestro escenario que es recibido en cada pixel de nuestro sensor en la cámara TOF. Se obtiene así una nueva nube con tantos puntos como la resolución del sensor empleado. Cada tiempo de cuadro, la cámara tipo TOF proporciona una nueva nube de puntos.
- Obtener una tercera nube de puntos que se corresponde de nuevo, con el extremo del botalón y el avión receptor a partir de la información que nos proporciona de forma muy similar a la anterior, el subsistema SDOE formado por la cámara tipo DOE más el láser L2 y demás componentes auxiliares. El láser L2 genera un patrón (este patrón puede ser fijo o variable según se controlen los demás lentes del láser) de luz estructurada gracias a la lente de difracción, por la que lo hacemos pasar una vez colimado adecuadamente. Los elementos de este patrón pueden ser identificados si somos capaces de "ver" la luz que emite el láser al ser reflejada por nuestro entorno. Para facilitarlo, empleamos un nuevo filtro paso banda B2 estrecho delante de la cámara del SDOE, sintonizado con L2 y que eliminará la luz de otras longitudes de onda. Además, el encendido y apagado con cierta cadencia nos ayudará también a distinguir la luz del láser con respecto a otra, de fuentes
16
distintas, que no parpadearán de la misma forma. Con técnicas de correlación cruzada obtendremos los píxeles que son reflejados en los objetos de nuestro escenario y a partir de sus intensidades relativas determinaremos qué píxeles corresponden a determinados puntos del patrón. Como resultado obtenemos un conjunto de puntos que, de nuevo, mediante técnicas de triangulación y trigonometría, teniendo en cuenta que conocemos la distancia del láser L2 a la cámara de SDOE y los ángulos de ambos, nos permitirán obtener las distancias desde la cámara de SDOE a cada punto de ese conjunto de puntos. En definitiva tendremos un conjunto de coordenadas (xi, yi, zi) pertenecientes a los objetos de nuestro escenario, por cada cuadro de imagen. Así las cosas de nuevo tenemos una nube de puntos similar a la obtenida por la cámara del STOF pero a partir de una forma diferente.
- El siguiente paso es, alternativamente, bien realizar una fusión de la información de las nubes de puntos, por cada cuadro, para obtener la mejor nube de puntos de partida, o aplicamos uno de los métodos de procesamiento (que se explicarán más adelante) de entre los que P puede realizar, a cada una de las nubes de puntos, para realizar una fusión de los resultados obtenidos y conseguir la mejor y más robusta solución de la posición de los puntos y vectores de interés. Como se ha dicho, todo esto para cada cuadro de imagen a lo largo del tiempo. El cálculo de las velocidades y aceleraciones relativas así como de los versores ortogonales indicados, es una cuestión meramente algebraica que requiere de pocos recursos de procesamiento. Los procesamientos que podemos realizar en P a las nubes de puntos obtenidas por los distintos elementos que integran esta invención consisten en:
- •
- Hacerlas pasar por una red neuronal artificial entrenada para proporcionar como salidas las coordenadas de la ubicación y vector ortogonal de los dos puntos de interés con respecto a nuestro centro de referencia CR.
- •
- Compararlas con uno de los modelos 3D almacenados, de nuestro receptor y del botalón, para hallar la posición tanto de la boca de repostaje de dicho receptor como del centro del extremo de la boquilla (4) de la pértiga una vez separados ambos. Dichos puntos con respecto a nuestro centro de referencia CR. La gran certidumbre que proporciona el elemento BD a la hora de obtener la posición de la puna del botalón nos permite eliminar la parte de la nube de puntos correspondiente a dicha punta del botalón y quedarnos con las subnubes correspondientes exclusivamente al avión receptor.
Las etapas por las que pasa el elemento P, en el caso de realizar una comparación de las nubes de puntos con uno de los modelos 3D
17
- 4ª.- Realizar una fusión de las informaciones obtenidas por métodos alternativos para obtener la información de interés de una forma robusta y fiable y así poder alimentar las leyes de control del botalón y llevar a cabo la operación automática de repostaje. Para realizar esta tarea, cada subsistema es asignado con el cálculo de ciertos valores que se conocen como factores de calidad y nos indican en esencia cuán fiables son los resultados que han proporcionado o cuál es su probabilidad de error. Esa información es empleada para garantizar la fusión óptima de los resultados que se obtienen.
Las nubes de puntos obtenidas por los subsistemas S3D, SDOE y STOF se emplean en un cálculo híbrido con los dos procedimientos indicados, es decir, empleará conjuntamente redes neuronales y la comparación con un modelo 3D, para obtener las posiciones y vectores de interés.
Por lo tanto, gracias al sistema y procedimiento de esta invención, se proporciona un mecanismo de obtención de un conjunto de datos en función del tiempo, con una latencia despreciable y un ritmo adecuado, para permitir al sistema que gobierna las leyes de control del tanquero y del botalón del mismo así como al avión receptor, incorporar dichos datos en su control y así gobernar tanto al tanquero, al botalón y al receptor para dar lugar a un contacto entre los dos últimos de forma semiautomática o incluso automática, supervisada o no.
Descrita suficientemente la naturaleza de la presente invención, así como la manera de ponerla en práctica, se hace constar que, dentro de su esencialidad, podrá ser llevada a la práctica en otras formas de realización que difieran en detalle de la indicada a título de ejemplo, y a las cuales alcanzará igualmente la protección que se recaba, siempre que no altere, cambie o modifique su principio fundamental.
19
Claims (1)
-
imagen1 imagen2 imagen3 imagen4 imagen5 imagen6
Priority Applications (7)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201531734A ES2584554B2 (es) | 2015-11-30 | 2015-11-30 | Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje |
US15/778,017 US10706583B2 (en) | 2015-11-30 | 2016-11-28 | System and method for aerial refueling |
CN201680070182.7A CN108290638A (zh) | 2015-11-30 | 2016-11-28 | 用于检测加油管末端和容器口、飞行时用飞桁进行渐进式自动化空中加油的系统以及加油方法 |
PCT/ES2016/070843 WO2017093584A1 (es) | 2015-11-30 | 2016-11-28 | Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje |
AU2016363838A AU2016363838B2 (en) | 2015-11-30 | 2016-11-28 | System for detecting the tip of the pole and mouth of the receptacle, progressive automation of aerial refuelling with a boom, and refuelling method |
EP16870036.7A EP3385907B1 (en) | 2015-11-30 | 2016-11-28 | System for detecting the tip of the pole and mouth of the receptacle, progressive automation of aerial refuelling with a boom, and refuelling method |
SA518391408A SA518391408B1 (ar) | 2015-11-30 | 2018-04-21 | نظام لاكتشاف مقدمة الأنبوب ومصب الوعاء، آلية تقدمية لإعادة التزود بالوقود أثناء الطيران بذراع تزود بالوقود، وطريقة إعادة التزود بالوقود |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES201531734A ES2584554B2 (es) | 2015-11-30 | 2015-11-30 | Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2584554A1 true ES2584554A1 (es) | 2016-09-28 |
ES2584554B2 ES2584554B2 (es) | 2017-06-13 |
Family
ID=56973689
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES201531734A Active ES2584554B2 (es) | 2015-11-30 | 2015-11-30 | Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje |
Country Status (7)
Country | Link |
---|---|
US (1) | US10706583B2 (es) |
EP (1) | EP3385907B1 (es) |
CN (1) | CN108290638A (es) |
AU (1) | AU2016363838B2 (es) |
ES (1) | ES2584554B2 (es) |
SA (1) | SA518391408B1 (es) |
WO (1) | WO2017093584A1 (es) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016181117A1 (en) * | 2015-05-11 | 2016-11-17 | Bae Systems Plc | Aircraft coupling method and system |
CN106710363A (zh) * | 2017-02-25 | 2017-05-24 | 佛山市三水区希望火炬教育科技有限公司 | 一种青少年国防科技研究专用的空中加油机模型 |
US10882635B2 (en) | 2018-05-09 | 2021-01-05 | The Boeing Company | Aiding maneuvering of obscured objects |
CN110163914B (zh) * | 2018-08-01 | 2021-05-25 | 京东方科技集团股份有限公司 | 基于视觉的定位 |
US11022972B2 (en) * | 2019-07-31 | 2021-06-01 | Bell Textron Inc. | Navigation system with camera assist |
US20210104162A1 (en) * | 2019-08-14 | 2021-04-08 | US Govt as represented by Secretary of Air Force | Stereo Vision Relative Navigation of Airborne Vehicles |
CN112623239A (zh) * | 2020-12-24 | 2021-04-09 | 杨剑 | 空军军用飞机隔空加油系统及使用方法 |
US20220306311A1 (en) * | 2021-03-23 | 2022-09-29 | The Boeing Company | Segmentation-based fuel receptacle localization for air-to-air refueling (a3r) |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5530650A (en) * | 1992-10-28 | 1996-06-25 | Mcdonnell Douglas Corp. | Computer imaging system and method for remote in-flight aircraft refueling |
US5904729A (en) * | 1997-03-04 | 1999-05-18 | The Boeing Company | Automated director light system for aerial refueling operations |
US20030205643A1 (en) * | 2002-05-01 | 2003-11-06 | Von Thal German | Boom load alleviation using visual means |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6752357B2 (en) | 2002-05-10 | 2004-06-22 | The Boeing Company | Distance measuring using passive visual means |
US7469863B1 (en) | 2005-03-24 | 2008-12-30 | The Boeing Company | Systems and methods for automatically and semiautomatically controlling aircraft refueling |
US7309048B2 (en) | 2005-07-29 | 2007-12-18 | The Boeing Company | Vision system and method incorporating graphics symbology for use in a tanker refueling system |
EP2336028A1 (en) * | 2009-12-18 | 2011-06-22 | EADS Construcciones Aeronauticas, S.A. | Improved method and system for enhanced vision in aerial refueling operations |
EP2336027A1 (en) * | 2009-12-18 | 2011-06-22 | EADS Construcciones Aeronauticas, S.A. | Method and system for enhanced vision in aerial refuelling operations |
CN103557792B (zh) * | 2013-11-12 | 2015-10-28 | 中国科学院自动化研究所 | 一种空中加油锥套目标的视觉跟踪与位置测量方法 |
ES2584231B2 (es) * | 2015-10-09 | 2017-06-02 | Defensya Ingeniería Internacional, S.L. | Sistema de localización del extremo del boom, de la boca del receptáculo de repostaje y del tanquero |
CN109085845B (zh) * | 2018-07-31 | 2020-08-11 | 北京航空航天大学 | 一种自主空中加油对接仿生视觉导航控制系统及方法 |
-
2015
- 2015-11-30 ES ES201531734A patent/ES2584554B2/es active Active
-
2016
- 2016-11-28 EP EP16870036.7A patent/EP3385907B1/en active Active
- 2016-11-28 US US15/778,017 patent/US10706583B2/en active Active
- 2016-11-28 AU AU2016363838A patent/AU2016363838B2/en not_active Ceased
- 2016-11-28 WO PCT/ES2016/070843 patent/WO2017093584A1/es unknown
- 2016-11-28 CN CN201680070182.7A patent/CN108290638A/zh active Pending
-
2018
- 2018-04-21 SA SA518391408A patent/SA518391408B1/ar unknown
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5530650A (en) * | 1992-10-28 | 1996-06-25 | Mcdonnell Douglas Corp. | Computer imaging system and method for remote in-flight aircraft refueling |
US5904729A (en) * | 1997-03-04 | 1999-05-18 | The Boeing Company | Automated director light system for aerial refueling operations |
US20030205643A1 (en) * | 2002-05-01 | 2003-11-06 | Von Thal German | Boom load alleviation using visual means |
Also Published As
Publication number | Publication date |
---|---|
EP3385907A1 (en) | 2018-10-10 |
EP3385907B1 (en) | 2022-01-19 |
AU2016363838A1 (en) | 2018-04-19 |
EP3385907A4 (en) | 2019-09-04 |
US10706583B2 (en) | 2020-07-07 |
SA518391408B1 (ar) | 2021-11-15 |
ES2584554B2 (es) | 2017-06-13 |
WO2017093584A1 (es) | 2017-06-08 |
CN108290638A (zh) | 2018-07-17 |
AU2016363838B2 (en) | 2022-03-17 |
US20180350104A1 (en) | 2018-12-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2584554A1 (es) | Sistema de detección de punta de la pértiga y boca de receptáculo, automatización progresiva del repostaje aéreo con botalón y procedimiento de repostaje | |
ES2909057T3 (es) | Seguimiento ocular que utiliza la posición del centro del globo ocular | |
KR20180005659A (ko) | 거리 센서 | |
US10488192B2 (en) | Distance sensor projecting parallel patterns | |
ES2693785T3 (es) | Procedimiento y disposición para desarrollar un modelo tridimensional de un entorno | |
EP3295239B1 (en) | Augmenting a depth map representation with a reflectivity map representation | |
CN109425305A (zh) | 使用多个脉冲式结构光投影仪的深度测量 | |
JP2020501155A (ja) | 焦点調整可能な画像センサを含む距離センサ | |
WO2019028152A1 (en) | OCULAR TRACKING USING TEMPORAL MULTIPLEXING | |
KR20170072319A (ko) | 거리 센서 | |
WO2020117785A1 (en) | Vertical cavity surface emitting laser-based projector | |
CN108354585B (zh) | 用于检测角膜顶点的用计算机实现的方法 | |
CN109425306A (zh) | 深度测量组件 | |
KR102005100B1 (ko) | 소형 지상 레이저 표적 지시기 | |
ES2584231A1 (es) | Sistema de localización del extremo del boom, de la boca del receptáculo de repostaje y del tanquero | |
JP2016126144A5 (es) | ||
WO2020086243A1 (en) | Eye tracking systems and methods for near-eye-display (ned) devices | |
RU2018102751A (ru) | Измеритель пуркинье и способ автоматической оценки | |
ES2436726B2 (es) | Sistemas y métodos para el cálculo de la velocidad de aproximación en maniobras de reabastecimiento aéreo de combustible | |
ES2603430B2 (es) | Sistema de detección y procedimiento de contacto de punta del botalón volador y boca del receptáculo para operaciones de repostaje aéreo con botalón | |
EA201401149A1 (ru) | Способ повышения точности определения ориентации по звездам и длительного поддержания повышенной точности определения ориентации и устройство для их реализации | |
ES2806391T3 (es) | Procedimiento para la determinación de los datos de posición de un objeto objetivo en un sistema de referencia y procedimiento para el guiado de una aeronave configurada preferentemente como misil | |
JP2010038847A (ja) | モーショントラッカシステム及びその座標系設定方法 | |
US10609365B2 (en) | Light ray based calibration system and method | |
US20210287334A1 (en) | Information processing apparatus, information processing method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG2A | Definitive protection |
Ref document number: 2584554 Country of ref document: ES Kind code of ref document: B2 Effective date: 20170613 |