ES2379644T3 - Sistema indicador de información del tráfico de un aeropuerto - Google Patents
Sistema indicador de información del tráfico de un aeropuerto Download PDFInfo
- Publication number
- ES2379644T3 ES2379644T3 ES07024748T ES07024748T ES2379644T3 ES 2379644 T3 ES2379644 T3 ES 2379644T3 ES 07024748 T ES07024748 T ES 07024748T ES 07024748 T ES07024748 T ES 07024748T ES 2379644 T3 ES2379644 T3 ES 2379644T3
- Authority
- ES
- Spain
- Prior art keywords
- panorama
- segment
- airport
- foveal
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 claims abstract description 53
- 230000033001 locomotion Effects 0.000 claims abstract description 30
- 230000002093 peripheral effect Effects 0.000 claims abstract description 18
- 230000000007 visual effect Effects 0.000 claims abstract description 8
- 238000000034 method Methods 0.000 claims description 12
- 238000001514 detection method Methods 0.000 claims description 7
- 238000004590 computer program Methods 0.000 claims description 3
- 230000010006 flight Effects 0.000 claims description 3
- 238000006073 displacement reaction Methods 0.000 claims description 2
- 230000004438 eyesight Effects 0.000 description 10
- 230000005540 biological transmission Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 210000003128 head Anatomy 0.000 description 3
- 230000009467 reduction Effects 0.000 description 3
- 210000001525 retina Anatomy 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000012544 monitoring process Methods 0.000 description 2
- 230000008447 perception Effects 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 1
- 230000003321 amplification Effects 0.000 description 1
- 230000001174 ascending effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 230000005057 finger movement Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- YFONKFDEZLYQDH-BOURZNODSA-N indaziflam Chemical compound CC(F)C1=NC(N)=NC(N[C@H]2C3=CC(C)=CC=C3C[C@@H]2C)=N1 YFONKFDEZLYQDH-BOURZNODSA-N 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000003340 mental effect Effects 0.000 description 1
- 238000003199 nucleic acid amplification method Methods 0.000 description 1
- 230000005043 peripheral vision Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- UEUXEKPTXMALOB-UHFFFAOYSA-J tetrasodium;2-[2-[bis(carboxylatomethyl)amino]ethyl-(carboxylatomethyl)amino]acetate Chemical compound [Na+].[Na+].[Na+].[Na+].[O-]C(=O)CN(CC([O-])=O)CCN(CC([O-])=O)CC([O-])=O UEUXEKPTXMALOB-UHFFFAOYSA-J 0.000 description 1
- 238000012800 visualization Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0073—Surveillance aids
- G08G5/0082—Surveillance aids for monitoring traffic from a ground station
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G5/00—Traffic control systems for aircraft, e.g. air-traffic control [ATC]
- G08G5/0017—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information
- G08G5/0026—Arrangements for implementing traffic-related aircraft activities, e.g. arrangements for generating, displaying, acquiring or managing traffic information located on the ground
Landscapes
- Engineering & Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Closed-Circuit Television Systems (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
- Traffic Control Systems (AREA)
- Studio Devices (AREA)
Abstract
Sistema indicador de información del tráfico de un aeropuerto (1) con -al menos una cámara (2) orientable a una zona del aeropuerto a observar, -una unidad de procesamiento de imágenes (9) unida con la cámara (2), de las que al menos hay dos, -al menos una unidad indicadora (11) conectada con la unidad de procesamiento de imágenes (9), estando equipada la unidad de procesamiento de imágenes (9) para elegir y representar un segmento del panorama foveal correspondiente al foco de atención de una dirección visual elegida sobre la zona del aeropuerto observada, caracterizada porque - la unidad para el procesamiento de imágenes (9) está equipada para la representación simultánea de informaciones sobre objetos que se han movido en el segmento de panorama extrafoveal periférico, no representado, y - la unidad de procesamiento de imágenes (9) está equipada para elegir un segmento de panorama foveal visualizado mediante registro del movimiento de la mirada, porque en el borde de la imagen del segmento de panorama foveal representado sobre la unidad indicadora (11) se encuentra una banda de imagen de información (16) que contiene información relativa a la posición del segmento de panorama foveal elegido y a objetos que se han movido en las zonas de panorama no representadas y cuando enfoca del operador a un determinado punto de la banda de imagen de información (16), se desplaza el centro del segmento de panorama foveal mostrado a este punto.
Description
Sistema indicador de información del tráfico de un aeropuerto
La invención se refiere a un sistema indicador de información de tráfico de un aeropuerto con al menos una cámara orientable hacia una zona del aeropuerto a observar, una unidad de procesamiento de imágenes unida con una cámara, de las que al menos hay una, y al menos una unidad indicadora unida con la unidad de procesamiento de imágenes.
Existe la necesidad de controlar el tráfico aéreo en la zona del aeropuerto sin una visión ocular exterior directa con medios para una central de control basada puramente en sensores. Esto tiene la ventaja de que en instalaciones de grandes dimensiones en los aeropuertos ya no tienen que estar ocupadas por personal la torres para vigilar zonas exteriores que no pueden observarse desde la torre principal. El control de todo el aeropuerto puede más bien realizarse en la torre principal. Además, el coste para levantar los edificios de la torre (tower) para vigilar las zonas exteriores se reduce considerablemente.
Además existe la necesidad de reducir el coste del control de aeropuertos poco frecuentados, desplazando las funciones de control a los controladores de (otro) aeropuerto más frecuentado. Para ello es necesaria una vigilancia basada en sensores de la zona del aeropuerto con una transmisión de los datos de las imágenes a una unidad indicadora para los controladores que realizan el control.
Las condiciones de trabajo exigen de los controladores, además de la comunicación por radio y por teléfono, un cambio frecuente de la atención entre la vista al exterior, reforzada accediendo una y otra vez a los prismáticos y diversos monitores y displays de radar. Cuando la visibilidad es mala, se reduce con claridad, naturalmente, la posibilidad de la vigilancia visual del tráfico mediante visión desde las ventanas de las centrales de control y el tráfico debe reducirse correspondientemente, por razones de seguridad.
En N. Fürstenau, M. Rudolph, M. Schmidt, B. Werther: Virtual Tower en “Competencia entre las visiones 2001 a 2004, “Centro Alemán para la aviación y la navegación espacial e.V., 2004, páginas 16 a 21, se describe el proyecto del desarrollo de una torre de control virtual, con propuestas sobre la interacción persona-máquina.
N. Fürstenau: Perspectives of Virtual Reality for Integration (Perspectivas de la realidad virtual para la integración), en el 12º Seminario Científico, DLR, Inst. of Flight Guidance (Inst. para guiar los vuelos), octubre 2002, da a conocer la utilización de tecnologías de la realidad virtual para el control y mando del tráfico aéreo en aeropuertos.
Por C. D. Wickens: Multiple Resources and Perfomance Prediction (Recursos multiples y predicción de resultados), en Theor. Issues in Ergon. Sci 2002, vol. 3, núm. 2, páginas 159 a 177, se describe un modelo tetradimensional multirrecursos, en el que se diferencia entre un procesamiento visual en el campo de la atención focal y en la zona del entorno de una persona, a los que están asociadas estructuras del cerebro y mecanismos de procesamiento de la información cuya forma de procesamiento es cualitativamente diferente. La visión focal de por ejemplo un controlador está limitada casi siempre a la zona foveal de la retina y es necesaria para tareas de reconocimiento de modelos. La visión fondo/entorno está fuertemente acoplada a la visión periférica y es competente para la percepción de la orientación y la percepción del movimiento (movimiento propio) del observador.
El documento DE 10 2005 055 879 da a conocer un procedimiento para reconstruir una visión exterior real desde la torre mediante una proyección de panorama de alta resolución sobre monitores o mediante una proyección de gran angular para representar imágenes de al menos cuatro videocámaras digitales de alta resolución para un panorama de 180º. Las señales digitalizadas son proporcionadas en una panorama compuesto por cuatro segmentos por respectivos ordenadores, uno por segmento, descomprimiéndose los datos de imagen comprimidos. Por cada segmento se prevé una cámara y una proyección o bien una pantalla por cada segmento de panorama. Existe la posibilidad de un procesamiento de imágenes en tiempo real para el reconocimiento de objetos, la detección del movimiento y/o determinación de parámetros de tráfico (posición, velocidad, etc.).
Además se conoce por el documento US 2005/0231419 A1 un sistema de control del tráfico aéreo compuesto por una serie de displays, que permiten al controlador una forma de visión de panorama sobre la zona a vigilar. Con la ayuda de los correspondientes medios de control pueden visualizarse entonces informaciones relativas a los correspondientes objetos a vigilar. Con ayuda de una función zoom visualmente controlable, puede fijarse un objeto representado sobre el display, respecto al que entonces pueden bajarse informaciones y con el que puede establecerse entonces un enlace por radio.
Además, se conoce por el documento US 6,628,321 B1 un sistema indicador en el que sobre una gran unidad indicadora de panorama pueden representarse datos de video tomados desde distintos ángulos de visión.
Las proyecciones de gran angular, adecuadas para la representación con gran resolución de un panorama de video, se conocen por el campo de la realidad virtual. Se trata de sistemas de proyección en mosaico con un proyector digital de alta resolución por cada pieza de mosaico o bien dos proyectores digitales en proyecciones estéreo. A los simuladores para la visión exterior (virtual) desde la torre del aeropuerto se les ensamblan hasta ahora más de cuatro imágenes parciales de alta resolución mediante superposición exacta a nivel de píxel en los bordes verticales (stitching) en una proyección de segmento cilíndrico o de esfera hueca para formar una vista panorámica virtual (200 a 300°) de la superficie del aeropuerto. Para un monopuesto de trabajo en el entorno de la torre no son adecuados los mismos debido al tamaño.
Como monopuesto de trabajo con una proyección de gran angular (por ejemplo 180°) puede también utilizarse una proyección esférica. Desde luego no corresponde la resolución máxima obtenible hasta ahora de 1600 a 1200 píxeles a las exigencias para un panorama de 180º, que puede sustituir a la visión exterior directa del operador desde la torre.
Por lo tanto, es tarea de la presente invención lograr un sistema indicador de información del tráfico en un aeropuerto mejorado, que con un coste técnico reducido posibilite una observación de alta resolución de las zonas relevantes del aeropuerto y ofrezca a la vez al operador las necesarias informaciones de visión del conjunto.
La tarea se resuelve mediante un sistema de información de aeropuertos con las características de la reivindicación 1 y un procedimiento para representar una zona del aeropuerto a observar sobre una unidad indicadora según la reivindicación 11. Otras mejoras ventajosas resultan de las reivindicaciones subordinadas.
Se aprovecha el hecho de que en la zona de la atención consciente y del procesamiento visual, en observación con el ojo sin amplificación mediante unos prismáticos, sólo se encuentra la zona del objeto reproducida en la zona foveal (<5º) de la retina. Correspondientemente, cubre un segmento que típicamente se representa mediante un único monitor (por ejemplo 45º) ya un segmento de panorama bastante mayor. No obstante, para una proyección de panorama en un monopuesto de trabajo no es necesario representar por completo la zona periférica por ejemplo de un panorama de 180º a la vez, ya que en una visión exterior real en estos sectores extrafoveales sólo se perciben movimientos destacados. La representación de estos sectores extrafoveales se reduce así según la invención a informaciones sobre movimientos esenciales, mientras que el segmento de panorama foveal se muestra con alta resolución y fidelidad de los detalles.
Preferiblemente se prevé además una cámara pan-tilt-zoom (panorámica/inclinación/zoom), equipada para elegir un detalle de zoom del segmento de panorama, para representar el detalle de zoom sobre una de las unidades indicadoras.
Con esta cámara pan-tilt-zoom telecontrolable es así posible simular la utilización de unos prismáticos por parte del operador y representar una vista ampliada de una zona de detalle. Para facilitar la orientación, se mantiene, al igual que en la realidad, la representación fidedigna en cuanto a los detalles de la zona panorámica foveal.
Una cámara pan-tilt-zoom es una cámara orientable por telecontrol mediante giro e inclinación con función de zoom. Para ello está alojada la cámara de zoom sobre un cabezal pan-tilt-panorámico, que permite un giro alrededor del punto nodal y una inclinación. El punto nodal describe la posición de los planos principales de un objetivo de la cámara de zoom.
La unidad de procesamiento de imágenes está unida directa o preferiblemente de forma indirecta, por ejemplo mediante el sistema de transmisión descrito en el documento DE 10 2005 055 879, con al menos una cámara.
Preferiblemente se prevén cuatro cámaras para tomar un panorama de 180° de alta resolución. Para minimizar los costes puede minimizarse la cantidad de cámaras de panorama de alta resolución dado el caso hasta una cámara de panorama, que dado el caso está dispuesta a tal que puede girar mediante un telemando y debido a ello puede cubrir el panorama completo. El segmento de panorama de 180° de una zona del aeropuerto que puede observarse, se divide así en cuatro segmentos de 45°, que se observan mediante respectivas cámaras de panorama. Entonces se reproduce sólo la zona de observación foveal actual de un detalle de un segmento de 45° con alta solución y correspondientemente fidedigno en cuanto a los detalles.
Es especialmente ventajoso prever al menos un sensor unido con el sistema de proyección de panorama para la elección automática del segmento a observar y a representar con alta resolución (zona de atención foveal) sobre la base del reconocimiento de objetos y/o determinación de la posición (por ejemplo mediante un procesamiento automático de imágenes, radar de despegue, sistema de multilateración o navegación por satélite con ADS-B (Automatic Dependent Surveillance Broadcast, multidifusión de vigilancia dependiente automática). La unidad de tratamiento de imágenes está equipada entonces para elegir automáticamente el segmento de panorama foveal en función del segmento de atención foveal. Con ello es posible dirigir en una representación reducida para los sectores extrafoveales a informaciones de movimiento esenciales dentro del sector foveal visualizado la atención del operador, es decir, su captación de información foveal, con la velocidad correspondiente a un giro de cabeza del operador, automáticamente a zonas de interés del panorama completo. Con ello no es necesaria una elección manual por parte del operador del sector de atención foveal representado en detalle con alta resolución.
El segmento de panorama foveal es preferiblemente inferior a 45º de un panorama de 180º que puede captarse con la cámara.
Además es ventajoso que la unidad de procesamiento de imágenes esté equipada para la representación permanente simultánea del segmento de panorama elegido (en función de la dirección de la vista en ese momento). De esta manera queda asegurado que el operador mantiene la orientación.
La unidad de procesamiento de imágenes está equipada además preferiblemente para la elección automática del segmento de panorama foveal en función de movimientos característicos detectados en el panorama captado, informaciones del movimiento de vuelos de un radar de despegues, información de posición de un equipo multilateral sobre aviones y/o vehículos en la zona del aeropuerto observada y/o informaciones de posición de navegación por satélite transmitidas por aviones. De esta manera puede dirigirse la atención del operador automáticamente en función de los citados movimientos detectados en la zona del aeropuerto observada a los objetos cuyo movimiento se ha detectado. Por ejemplo, cuando despega un avión, se detecta con ayuda del radar de despegue o de informaciones de posición de navegación por satélite, transmitidas por el avión, la aproximación de un avión y la representación de alta resolución del segmento de panorama foveal se dirige hacia el avión que despega. Tras detectar el operador la situación, puede el mismo entonces elegir manualmente otro segmento de panorama foveal o bien puede elegirse automáticamente un nuevo detalle del panorama foveal acoplando la detección automática de objetos basada en sensores con la determinación de posición en la reconstrucción del panorama de video.
La unidad de procesamiento de imágenes está equipada preferiblemente con un aparato de entrada sensible al contacto, en particular un monitor sensible al contacto para elegir un segmento de panorama en función de un movimiento del dedo sobre el aparato de entrada. Un tal monitor "touch-screen" (de pantalla táctil) tiene la ventaja de una rápida y sencilla introducción de órdenes por parte del operador.
La información sobre objetos que se han movido se representa fuera del segmento de panorama elegido preferiblemente en bandas de imagen horizontales y verticales contiguas a la representación del segmento de panorama foveal. La restante representación de las informaciones de movimiento debería depender entonces de la posición espacial de los objetos pertenecientes a las informaciones de movimiento. Con ello mantiene el operador la visión general sobre los objetos que se mueven en el entorno del panorama foveal, que han de tener en cuenta aún en su actividad como controladores.
La unidad de procesamiento de imagen está unida preferiblemente con otra unidad indicadora para representar el panorama captado con las cámaras. La visión de panorama completa de por ejemplo 180° se presenta entonces (sin alta resolución) en la otra unidad indicadora.
La tarea se resuelve además mediante el procedimiento con las características de las reivindicaciones 11 a 13, así como con el programa de ordenador equipado para realizar el procedimiento.
El procedimiento prevé una maximización de la velocidad de tramas (frame-rate) posible y una minimización de la anchura de banda de transmisión necesaria para una constelación de hardware dada, mediante la representación solamente de la zona del panorama correspondiente al foco de atención. Se genera un panorama virtual en una memoria de imagen de un ordenador a partir de un flujo de datos de video en tiempo real mediante la yuxtaposición sin huecos de las tramas procedentes de las distintas cámaras de panorama con elección y representación de una zona cualquiera mediante desplazamiento de un detalle de imagen eligiendo una posición virtual de observación.
Una reducción de datos se logra mediante el envío exclusivo de partes a mostrar (foco de atención) de los flujos de datos de video comprimidos a un ordenador de procesamiento de la imagen. La capacidad de transmisión así obtenida se utiliza en la adaptación dinámica de los parámetros de compresión para optimizar la calidad de la imagen. Por ejemplo puede reducirse de esta manera la compresión automáticamente, en el caso de que la calidad de la imagen empeore con la oscuridad.
La invención se describirá más en detalle a continuación en base a los dibujos adjuntos con ejemplos de ejecución. Se muestra en:
figura 1 diagrama de bloques de un sistema indicador de información del tráfico de un aeropuerto correspondiente a la
invención; figura 2 esquema de un sistema indicador de información del tráfico de un aeropuerto con una unidad indicadora para
representar un segmento de panorama foveal, y barras indicadoras horizontales y verticales para representar
informaciones sobre objetos periféricos que se han movido; figura 3 esquema de un sistema indicador de informaciones del tráfico de un aeropuerto con una unidad indicadora para
representar un segmento de panorama foveal, así como informaciones sobre objetos que se han movido en el
segmento de panorama periférico extrafoveal no representado, así como una segunda unidad indicadora para
representar un detalle de zoom procedente del segmento de panorama foveal.
La figura 1 muestra un diagrama de bloques de un sistema indicador de información del tráfico en el aeropuerto 1, que tiene al menos una cámara 2 orientable hacia la zona del aeropuerto a observar. Se representan a modo de ejemplo cuatro cámaras, conectadas con respectivos ordenadores de procesamiento de imágenes 3a, 3b, 3c, 3d. Los ordenadores de procesamiento de imágenes 3a, 3b, 3c, 3d están previstos para comprimir los datos de la imagen y para procesar las imágenes en tiempo real. Las cámaras de panorama 2 se conectan a través de líneas de datos rápidas, de banda ancha, 4a, 4b, 4c, 4d a los ordenadores de procesamiento de la imagen 3a, 3b, 3c, 3d. La salida de los ordenadores de procesamiento de imágenes 3a, 3b, 3c, 3d está conectada mediante respectivas líneas de datos rápidas, de banda ancha 5a, 5b, 5c, 5d con un conmutador y un emisor/convertidor 6, a través del que los datos de imagen se retransmiten por ejemplo ópticamente mediante una conexión de fibra óptica de banda ancha 7 a un conmutador y receptor 8. Una unidad de procesamiento de imágenes en forma de otro ordenador de procesamiento de imágenes 9 está conectada con el conmutador y receptor 8 y equipada para descomprimir las señales de video de la cámara panorámica 2 en función del segmento de panorama elegido por un operador 10. La unidad de procesamiento de imágenes 9 está además equipada para mostrar las informaciones sobre objetos que se han movido detectadas y enviadas por los ordenadores de procesamiento de imágenes 3a, 3b, 3c, 3d mediante tratamiento de imágenes en tiempo real. La visualización de al menos el segmento de panorama foveal correspondiente al foco de atención de una dirección de la vista elegida sobre la zona del aeropuerto a observar y la información sobre objetos que se han movido en el segmento de panorama extrafoveal periférico no representado, se realiza por ejemplo con ambas unidades indicadoras representadas 11a, 11b.
En el ejemplo de ejecución representado está conectada otra cámara pan-tilt-zoom 12 mediante una línea de datos rápida, de banda ancha, 4e con otro ordenador de procesamiento de la imagen 3e, igualmente equipado para procesar imágenes en tiempo real y extraer informaciones sobre objetos que se han movido a partir del video zoom tomado de un detalle de la zona del aeropuerto observada. La cámara pan-tilt-zoom 12 puede telecontrolarse con señales de control, que se conducen a través de la unidad de procesamiento de imágenes 9 y una línea de datos de control 13 a través del ordenador 3e hasta la cámara pan-tilt-zoom 12.
El control del sistema indicador de informaciones del tráfico en el aeropuerto lo realiza el operador 10 mediante teclado 14, ratón, touch-pad, etc., pudiendo conducirse a través de la unidad de procesamiento de imágenes 9 y las conexiones de datos a los ordenadores de procesamiento de imágenes 3a a 3d.
De esta manera pueden modificarse por ejemplo parámetros de la cámara, como diafragma, distancia focal, orientación de la cámara pan-tilt-zoom, etc.
Opcionalmente puede pensarse también en generar señales de control automáticamente a elección mediante el procesamiento en tiempo real de imágenes e informaciones ASMGCS mediante la unidad de procesamiento de imágenes.
El sistema indicador de informaciones del tráfico del aeropuerto 1 representado es así un sistema de panorama con un conjunto de cámaras 2 de alta resolución, que usualmente reproducen simultáneamente la zona vigilada desde la torre mediante visión directa. La separación del procesamiento cognitivo (foveal, periférico) se utiliza mostrando del panorama completo de alta resolución (por ejemplo una zona angular cubierta de 180° con por ejemplo aproximadamente 1600 × 1200 puntos de imagen) sólo un segmento del panorama (<45° para panorama de 180° con más de dos cámaras) correspondiente al foco de atención de la dirección de mira del operador 10 elegida (virtual) sobre el aeropuerto lejano, con una resolución máxima (por ejemplo 1600 × 1200 pixeles por cámara).
Para la elección manual y para la representación del segmento de panorama elegido, es conveniente la indicación permanente simultánea de la dirección visual (segmento de la cámara visualizado en ese momento) en una banda reducida de símbolos de segmento, por ejemplo en el borde inferior de la imagen de uno de ambos monitores o con ayuda de una representación simbólica, separada de la pantalla. Para la elección rápida de un segmento del panorama que interesa, puede pensarse en que el operador 10 pueda utilizar alternativamente procedimientos que pueden elegirse manual o automáticamente. El modo de trabajo activo, manual, posee una función de sobreescritura (override) sobre el modo automático. El modo automático elige el segmento representado en base a la situación del tráfico en ese momento. Entonces la elección está unida a la tarea actual y se controla mediante
a) los resultados de un procesamiento de imagen automático que corre en paralelo para la detección del movimiento;
b) a partir de informaciones del radar de despegue que existen en cualquier caso;
c) a partir de datos de posición eventualmente existentes de un sistema de multilateración (medición del tiempo
transcurrido) o bien d) a partir de señales de navegación por satélite transmitidas por el avión mediante ADS-B (automatic dependance
surveillance broadcast, multidifusión de vigilancia de dependencia automática).
Por ejemplo, cuando se detecta un avión en aproximación a la pista de aterrizaje, cuya posición se ha detectado mediante un procesamiento de imágenes en el correspondiente segmento periférico, se orienta el segmento momentáneamente activo al segmento periférico y a la vez el ángulo de orientación (azimut, ángulo vertical), así como el foco (distancia focal) de la cámara pan-tilt-zoom 12 automáticamente hacia la zona de aterrizaje fijada. La zona elegida en el segmento de panorama y aumentada mediante la cámara pan-tilt-zoom 12 separadamente controlable, se muestra en el panorama con un cajetín de marcación adecuado en ángulo recto y se representa como imagen de zoom sobre un monitor contiguo 11b, tal como se esboza en la figura 2.
En la figura 3 pueden observarse ambos monitores 11a, 11b del puesto de trabajo del operador 10 con el segmento de panorama elegido sobre el monitor izquierdo 11a y el detalle de zoom sobre el monitor derecho 11b. En el borde del monitor de segmento de panorama se encuentra abajo una pequeña banda de imagen de información 16, que contiene información relativa a la posición del segmento elegido y a los objetos que se han movido en las zonas panorámicas no representadas (periferia). Las marcas en la banda inferior indican la orientación de las por ejemplo cuatro cámaras 2 correspondiente a la segmentación del panorama completo en segmentos de igual tamaño. La posición de segmento elegido se marca mediante una barra de color (por ejemplo rojo). El segmento elegido está compuesto en general por partes de dos cámaras de panorama contiguas. Un rectángulo pequeño más claro (por ejemplo amarillo) en esta marcación indica la zona del zoom, que se muestra en el monitor derecho 11b. La zona del zoom puede moverse independientemente también en segmentos de panorama periféricos, que no se visualizan en ese momento. Una marca, en el ejemplo representado el rectángulo en la banda de imagen de información inferior, indica la posición en el panorama completo. Otro símbolo, una cruz roja con flecha, que se dibuja esquemáticamente en la zona derecha de la banda de imagen de información 16, indica un objeto cuyo movimiento se ha detectado, así como su dirección de movimiento. La longitud de la flecha puede elegirse como medida de la velocidad. Pueden elegirse distintos símbolos, por ejemplo acoplados a la posición del segmento, para las distintas fases del aterrizaje o bien del despegue (despegue/aterrizaje sobre pistas de despegue/aterrizaje, rodadura sobre una pista de rodadura, cruces de vías de rodaje, entrada en la explanada, etc.). La información sobre el objeto cuyo movimiento se ha detectado puede proceder de distintas fuentes, como por ejemplo el procesamiento de imágenes en tiempo real con detección del movimiento, que se implementan en paralelo a los algoritmos de descompresión en los ordenadores de procesamiento de imágenes 3a a 3e. También puede pensarse en la extracción de tales informaciones relativas a objetos cuyo movimiento se ha detectado mediante sistemas de multilateración o una navegación por satélite con enlaces de datos a bordo-tierra (o bien la central de control de vehículos). También objetos pasivos, que no se han movido, detectados mediante procesamiento de la imagen por ejemplo como nuevos obstáculos, pueden visualizarse mediante otro símbolo.
Alternativamente y como complemento a la representación de la información periférica sobre la banda de imagen de información inferior 16, pueden enmarcarse en los bordes verticales del display pequeñas bandas de imagen de información similares 17a, 17b. Esto es posible cuando se utilizan displays de elevada resolución con formato HDTV (1920 × 1080 píxeles) sin una reducción esencial de la resolución predeterminada por las cámaras 2 (1600 × 1200 píxeles). La representación simultánea de un objeto cuyo movimiento se ha detectado en la zona periférica sobre una de las bandas de imagen de información verticales 17a, 17b puede utilizarse entonces para representar la altura sobre la superficie del aeropuerto y dado el caso el distintivo del objeto volante (call sign). Para la indicación gráfica cuantitativa de la altura, es necesario conocer la distancia del objeto en la dirección del segmento de panorama correspondiente, que se toma de datos de navegación por satélite o de multilateración (medición del tiempo transcurrido), dado el caso existentes. La indicación gráfica de la altura exige entonces enmarcar una línea de referencia en la banda lateral, que corresponde a la base de la vertical bajo el avión. Las flechas asociadas a los símbolos (por ejemplo cruz para aterrizaje
o estrella para despegue) en las bandas de información verticales, indican vuelo descendente o ascendente, correspondientes a la dirección de la flecha orientada hacia abajo o hacia arriba. Las longitudes de la flecha corresponden de nuevo a velocidades. En el caso de que estas últimas no se conozcan, se indica esto en la flecha mediante una marca (por ejemplo guión transversal). Esta variante se muestra en la figura 2. Además de los símbolos en las bandas de imagen de información laterales 17a, 17b para objetos periféricos, se indican los símbolos de llamada de los aviones, que se aportan junto con las informaciones de posición de sensores ASMGCS (sistema secundario, de multilateración, sistema de navegación por satélite). Como aparatos de entrada para la interacción del operador 10 con el sistema de panorama, se dispone en el caso más sencillo de ratón y teclado 14, para elegir entre otros el segmento de panorama necesario en ese momento sobre la banda de imagen de información inferior 16, por ejemplo cliqueando o pulsando sobre una tecla de flecha.
Un aparato de entrada alternativo se basa en un touch-pad 15 o bien touch-screen. El segmento de panorama elegido se desplaza mediante movimiento del dedo sobre la touch-pad/touch-screen y se muestra correspondientemente. La orden de control del zoom se realiza con tres dedos como sigue:
- -
- desplazamiento conjunto de una cámara de zoom movida en una dirección hasta una nueva posición;
- -
- la separación o bien aproximación de las puntas de los dedos controla el aumento o la reducción del detalle del
zoom, cuyos elementos de marcado que se desplazan correspondientemente se visualizan a la vez en el display
panorámico.
En una realización opcional puede basarse la elección del panorama en las señales de una interfaz cerebro-ordenador, que mediante evaluación de señales EEG transforman la representación mental “derecha/izquierda” o “mover brazo derecho/mover brazo izquierdo” en el correspondiente desplazamiento de la barra roja del segmento en la banda de imagen de información inferior 16 y con ello en la zona visual. Además, es posible un control de segmentos mediante registro del movimiento de la mirada. El enfoque a un punto determinado de la banda indicadora del segmento hace que caiga entonces el centro del detalle del panorama visualizado sobre ese punto. Alternativamente puede moverse la posición del segmento en ese instante hacia la derecha o hacia la izquierda cuando la dirección de la mirada (dirección de la atención) se orienta correspondientemente hacia la derecha o hacia la izquierda.
En una forma de ejecución condicional, no representada, se utiliza junto a la cámara pan-tilt-zoom 12, en lugar del sistema de cámara de panorama completo compuesto por varias cámaras 2, sólo una única cámara 2 de alta resolución, montada sobre una mesa giratoria, orientada en cada caso al segmento de panorama correspondiente al foco de la atención. La elección manual o automática del segmento a representar controla en este caso la posición 5 horizontal de la cámara (ángulo acimutal alrededor del eje de giro vertical) mediante la orientación de la mesa giratoria. La velocidad de giro debe corresponderse con la de la cabeza de un operador 10, cuando éste dedica su atención en la torre real a un nuevo segmento. La cámara pan-tilt-zoom 12, que puede controlarse separadamente y que a diferencia de la cámara de panorama 2 también pueden volcarse verticalmente alrededor de un eje de giro horizontal, puede estar acoplada en cuanto a la dirección horizontal aproximada a elección a la cámara panorámica 2. Puesto que no existe una
10 detección de movimiento paralela mediante procesamiento de la imagen en tiempo real para zonas periféricas fuera de la única cámara de panorama, pueden aportarse informaciones sobre objetos periféricos que se han movido sólo mediante sensores ASMGCS en el radar de suelo, multilateración, navegación por satélite con conexión de datos a bordo-suelo (ADS-B), y mostrarse en las bandas de información 16, 17 en el borde del monitor de la pantalla.
15 Este sistema indicador de información del tráfico en el aeropuerto 1 puede ampliarse añadiendo cámaras de video estándar económicas tal que las mismas aporten un panorama completo con una resolución sólo normal (por ejemplo 768 × 576 píxeles). Las cámaras de video estándar no sirven para la visualización, sino sólo para la detección automática del movimiento mediante procesamiento de imágenes en tiempo real correspondientes a la forma de ejecución descrita en la figura 1. La cámara de alta resolución 2 para la visualización juntamente con las imágenes de
20 fondo no visualizadas, de baja resolución, corresponden al sistema visual humano con fovea de alta resolución y zona de la retina periférica con baja resolución. La realización puede pensarse también realizarla con sólo una cámara estándar para la información periférica, que para ello debe estar equipada con un objetivo de ojo de pez para un ángulo de toma de por ejemplo 180°.
Claims (14)
- REIVINDICACIONES1. Sistema indicador de información del tráfico de un aeropuerto (1) con-al menos una cámara (2) orientable a una zona del aeropuerto a observar, -una unidad de procesamiento de imágenes (9) unida con la cámara (2), de las que al menos hay dos, -al menos una unidad indicadora (11) conectada con la unidad de procesamiento de imágenes (9), estandoequipada la unidad de procesamiento de imágenes (9) para elegir y representar un segmento del panorama foveal correspondiente al foco de atención de una dirección visual elegida sobre la zona del aeropuerto observada,caracterizada porque
- -
- la unidad para el procesamiento de imágenes (9) está equipada para la representación simultánea de informaciones sobre objetos que se han movido en el segmento de panorama extrafoveal periférico, no representado, y
- -
- la unidad de procesamiento de imágenes (9) está equipada para elegir un segmento de panorama foveal visualizado mediante registro del movimiento de la mirada, porque en el borde de la imagen del segmento de panorama foveal representado sobre la unidad indicadora (11) se encuentra una banda de imagen de información (16) que contiene información relativa a la posición del segmento de panorama foveal elegido y a objetos que se han movido en las zonas de panorama no representadas y cuando enfoca del operador a un determinado punto de la banda de imagen de información (16), se desplaza el centro del segmento de panorama foveal mostrado a este punto.
-
- 2.
- Sistema indicador de información del tráfico en un aeropuerto (1) según la reivindicación 1, caracterizado por una cámara pan-tilt-zoom (12) telecontrolable, equipada para elegir un detalle del zoom del segmento de panorama, para representar el detalle del zoom en una de las unidades indicadoras (11).
-
- 3.
- Sistema indicador de información del tráfico en un aeropuerto (1) según la reivindicación 1 ó 2, caracterizado porque la unidad de procesamiento de imágenes (9) está conectada directamente con al menos una cámara (2).
-
- 4.
- Sistema indicador de información del tráfico en un aeropuerto (1) según la reivindicación 1 ó 2, caracterizado porque la unidad de procesamiento de imágenes (9) está conectada indirectamente con al menos una cámara (2).
-
- 5.
- Sistema indicador de información del tráfico en un aeropuerto (1) según una de las reivindicaciones procedentes, caracterizado porque están previstas cuatro cámaras (2) para captar un panorama de alta resolución de preferiblemente 180º.
-
- 6.
- Sistema indicador de información del tráfico en un aeropuerto (1) según una de las reivindicaciones procedentes, caracterizado porque el segmento de panorama foveal es inferior a 45° de un panorama que puede captarse con las cámaras (2) de preferiblemente 180°.
-
- 7.
- Sistema indicador de información del tráfico en un aeropuerto (1) según una de las reivindicaciones precedentes, caracterizado porque la unidad de procesamiento de imágenes (9) está equipada para la representación permanente simultánea del segmento de panorama elegido.
-
- 8.
- Sistema indicador de información del tráfico en un aeropuerto (1) según una de las reivindicaciones precedentes, caracterizado porque la unidad de tratamiento de imágenes (9) está equipada para la elección automática del segmento de panorama foveal en función de movimientos característicos detectados en el panorama captado, informaciones de movimiento de vuelos de un radar de aterrizaje, informaciones de posición de un equipo de multilateración sobre vuelos y/o vehículos en la zona del aeropuerto observada y/o de informaciones de posición de navegación por satélite transmitidas por aviones.
-
- 9.
- Sistema indicador de información del tráfico en un aeropuerto (1) según una de las reivindicaciones precedentes, caracterizado porque la unidad de tratamiento de imágenes (9) está conectada con un aparato de entrada sensible al tacto, en particular un monitor sensible al tacto, para elegir un segmento de panorama en función del movimiento de un dedo o de un lápiz sobre el aparato de entrada.
-
- 10.
- Sistema indicador de información del tráfico en un aeropuerto (1) según una de las reivindicaciones precedentes, caracterizado porque la unidad de tratamiento de imágenes (9) está conectada con otra unidad indicadora (11) para representar el panorama captado por las cámaras (2).
-
- 11.
- Procedimiento para representar una zona del aeropuerto a observar sobre una unidad indicadora con las etapas:
- -
- captación de un flujo de datos de video en tiempo real de al menos una zona de un aeropuerto,
- -
- detección de un sector de atención foveal de un operador,
- -
- elección de un segmento de panorama foveal en función del sector de atención foveal sobre la zona captada del aeropuerto,
- -
- representación del segmento panorámico foveal elegido,
caracterizado porque- -
- se representan simultáneamente informaciones sobre objetos que se han movido en el segmento de panorama extrafoveal periférico no representado, en el que
- -
- se elige un segmento de panorama foveal visualizado mediante registro del movimiento de la imagen tal que en el borde de la imagen del segmento de panorama foveal representado en la unidad indicadora (11) se representa una banda de imagen de información (16) que contiene una información relativa a la posición del segmento de panorama foveal elegido (16) y cuando enfoca el operador a un determinado punto de la banda de imágenes de información (15), se desplaza el centro del segmento de panorama foveal mostrado a este punto.
-
- 12.
- Procedimiento según la reivindicación 12, caracterizado por la generación de un panorama virtual de una zona del aeropuerto a partir de un flujo de datos de video en tiempo real mediante yuxtaposición de imágenes procedentes de cámaras de panorama individuales y elección y representación del segmento de panorama foveal mediante desplazamiento de un detalle de la imagen del panorama virtual mediante elección de una posición de observación virtual.
-
- 13.
- Procedimiento según la reivindicación 12 ó 13, caracterizado por el continuo desplazamiento de un segmento de panorama de alta resolución elegido y representado sobre un panorama captado por un conjunto de cámaras, tal que el segmento de panorama contiene partes de secuencias de video de cámaras contiguas.
-
- 14.
- Programa de ordenador con medios de código del programa para realizar el procedimiento según una de las reivindicaciones 11 a 13, cuando el programa de ordenador se ejecuta sobre una computadora.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102006060904A DE102006060904B4 (de) | 2006-12-20 | 2006-12-20 | Flughafenverkehrsinformations-Anzeigesystem |
DE102006060904 | 2006-12-20 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2379644T3 true ES2379644T3 (es) | 2012-04-30 |
Family
ID=39271425
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES07024748T Active ES2379644T3 (es) | 2006-12-20 | 2007-12-20 | Sistema indicador de información del tráfico de un aeropuerto |
Country Status (4)
Country | Link |
---|---|
EP (1) | EP1936583B1 (es) |
AT (1) | ATE542208T1 (es) |
DE (1) | DE102006060904B4 (es) |
ES (1) | ES2379644T3 (es) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102011084524A1 (de) | 2011-10-14 | 2013-04-18 | Robert Bosch Gmbh | Verfahren zur Darstellung eines Fahrzeugumfeldes |
EP3832624A1 (de) * | 2019-12-03 | 2021-06-09 | Rohde & Schwarz GmbH & Co. KG | Flugverkehrskontrollsystem zur flugsicherung sowie verfahren zur übertragung von video- und/oder bilddaten |
CN113766093A (zh) * | 2020-06-02 | 2021-12-07 | 璞洛泰珂(上海)智能科技有限公司 | 全景高清多焦距摄像装置、及系统 |
CN112203058B (zh) * | 2020-10-10 | 2024-03-01 | 深圳市卓层技术有限公司 | 通航塔台的监控方法、装置、计算机可读介质及电子设备 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5659475A (en) * | 1994-03-17 | 1997-08-19 | Brown; Daniel M. | Electronic air traffic control system for use in airport towers |
US6628321B1 (en) * | 1998-12-30 | 2003-09-30 | Honeywell, Inc. | Method and apparatus for simulating views from a window |
DE10032433A1 (de) * | 2000-07-04 | 2002-01-17 | H A N D Gmbh | Verfahren zur Bodenraumüberwachung |
US7129887B2 (en) * | 2004-04-15 | 2006-10-31 | Lockheed Martin Ms2 | Augmented reality traffic control center |
US7889232B2 (en) * | 2004-06-22 | 2011-02-15 | Stratech Systems Limited | Method and system for surveillance of vessels |
DE102005005879A1 (de) | 2005-02-09 | 2006-08-17 | Schill + Seilacher "Struktol" Ag | Stickstoffhaltige verbrückte Derivate von 6H-Dibenz[c,e][1,2]-oxaphosphorin-6-oxiden, Verfahren zu ihrer Herstellung sowie ihre Verwendung |
DE102005055879A1 (de) * | 2005-11-23 | 2007-05-31 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Flugverkehr-Leiteinrichtung |
-
2006
- 2006-12-20 DE DE102006060904A patent/DE102006060904B4/de not_active Expired - Fee Related
-
2007
- 2007-12-20 AT AT07024748T patent/ATE542208T1/de active
- 2007-12-20 EP EP07024748A patent/EP1936583B1/de not_active Not-in-force
- 2007-12-20 ES ES07024748T patent/ES2379644T3/es active Active
Also Published As
Publication number | Publication date |
---|---|
EP1936583A1 (de) | 2008-06-25 |
ATE542208T1 (de) | 2012-02-15 |
DE102006060904A1 (de) | 2008-06-26 |
DE102006060904B4 (de) | 2011-05-12 |
EP1936583B1 (de) | 2012-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6483492B2 (ja) | 空撮装置 | |
CN108139799B (zh) | 基于用户的兴趣区(roi)处理图像数据的系统和方法 | |
EP3494443B1 (en) | Systems and methods for controlling an image captured by an imaging device | |
US20090195652A1 (en) | Interactive Virtual Window Vision System For Mobile Platforms | |
JP5349055B2 (ja) | マルチレンズアレイシステム及び方法 | |
BR102016007066A2 (pt) | aparelho e sistema para exibir uma visão panorâmica em um visor, e, método de criação de uma visão panorâmica de uma cabine da aeronave | |
US9762864B2 (en) | System and method for monitoring at least one observation area | |
EP3060966A1 (en) | Systems and methods for target tracking | |
US11216661B2 (en) | Imaging system and method for unmanned vehicles | |
ES2379644T3 (es) | Sistema indicador de información del tráfico de un aeropuerto | |
KR101662032B1 (ko) | 조종사의 시선 방향과 동기화 된 uav 항공 영상 촬영 시스템 | |
US10397474B2 (en) | System and method for remote monitoring at least one observation area | |
WO2014003698A1 (en) | An aircraft vision system | |
CN203722342U (zh) | 一种变电站的巡视系统 | |
US20030193562A1 (en) | Natural vision-based video surveillance system | |
JP2011203159A (ja) | 赤外線撮像装置及び赤外線画像の表示方法 | |
CN111355904A (zh) | 一种矿井内部全景信息采集系统与展示方法 | |
JP3252129B2 (ja) | ヘリコプタの操縦支援装置 | |
CN209328213U (zh) | 车队监控系统 | |
CN106657886A (zh) | 一种飞行器实时监控及可视化展示系统 | |
US11212485B2 (en) | Transparency system for commonplace camera | |
Hall et al. | Improving human interfaces for commercial camera drone systems | |
JP2011017777A (ja) | 画像表示装置 | |
US20220076603A1 (en) | Visual comfort device | |
Münsterer et al. | Combining IR imagery and 3D lidar based symbology for a helicopter DVE support system |