ES2902399T3 - Control de diversos tipos de interfaz de tripulación para el control de vuelo - Google Patents

Control de diversos tipos de interfaz de tripulación para el control de vuelo Download PDF

Info

Publication number
ES2902399T3
ES2902399T3 ES18792987T ES18792987T ES2902399T3 ES 2902399 T3 ES2902399 T3 ES 2902399T3 ES 18792987 T ES18792987 T ES 18792987T ES 18792987 T ES18792987 T ES 18792987T ES 2902399 T3 ES2902399 T3 ES 2902399T3
Authority
ES
Spain
Prior art keywords
phase
flight
audio
tactile
displays
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES18792987T
Other languages
English (en)
Inventor
Charlie Hewitt
Philip Lamb
James Austen Harrison
Anthony Kershaw
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
BAE Systems PLC
Original Assignee
BAE Systems PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GBGB1717544.9A external-priority patent/GB201717544D0/en
Priority claimed from EP17275172.9A external-priority patent/EP3476743A1/en
Application filed by BAE Systems PLC filed Critical BAE Systems PLC
Application granted granted Critical
Publication of ES2902399T3 publication Critical patent/ES2902399T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C23/00Combined instruments indicating more than one navigational value, e.g. for aircraft; Combined measuring devices for measuring two or more variables of movement, e.g. distance, speed or acceleration
    • G01C23/005Flight directors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64DEQUIPMENT FOR FITTING IN OR TO AIRCRAFT; FLIGHT SUITS; PARACHUTES; ARRANGEMENT OR MOUNTING OF POWER PLANTS OR PROPULSION TRANSMISSIONS IN AIRCRAFT
    • B64D45/00Aircraft indicators or protectors not otherwise provided for

Landscapes

  • Engineering & Computer Science (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Un procedimiento de control de las salidas respectivas de diversos tipos de interfaces de tripulación (70, 400-450) para emitir información visible, de audio y táctil a un piloto humano para el control de vuelo de una aeronave, que tiene las etapas de: recibir información de estado de vuelo de múltiples fuentes diferentes, determinar estimaciones unificadas de un estado de la aeronave actual y de una fase actual del vuelo, en base al menos a la información de estado de vuelo de las múltiples fuentes diferentes, generar presentaciones visibles, de audio y táctiles coordinadas respectivas para los diversos tipos de interfaces de tripulación (70, 400-450), coordinadas de modo que proporcionen indicaciones mutuamente consecuentes de la estimación unificada del estado de la aeronave actual, de acuerdo con la estimación unificada de la fase actual del vuelo, y hacer que las presentaciones coordinadas respectivas se emitan por los diversos tipos de interfaces de tripulación (70, 0-450) al piloto humano; en el que los diversos tipos de interfaces de tripulación (70, 400-450) que comprenden un tipo visual, un tipo de audio y un tipo táctil, comprendiendo el tipo visual al menos uno de: una pantalla de cabeza hacia abajo, una pantalla de cabeza hacia arriba y una pantalla montada en la cabeza, comprendiendo el tipo de audio auriculares o altavoces de cabina, de los que cada uno proporciona opcionalmente audio 3D, y el tipo táctil comprende al menos uno de: una salida táctil de la palanca de empuje, una salida táctil del pedal del timón y una salida táctil de la palanca de mando, y la etapa de hacer que las presentaciones coordinadas respectivas se emitan comprende controlar estos tipos de interfaz de tripulación; y la etapa de determinación de la estimación unificada de la fase actual del vuelo comprende determinar que la fase es una de: una fase de despegue, una fase de crucero, una fase de aproximación, una fase de toma, una fase de frenado y una fase de carreteo.

Description

DESCRIPCIÓN
Control de diversos tipos de interfaz de tripulación para el control de vuelo
La presente divulgación se refiere a diversos tipos de interfaces de tripulación para el control de vuelo, tales como las de las cabinas de mando de aeronaves, o para el control en tierra de aeronaves no tripuladas y así sucesivamente.
El documento US20160093223A1 se refiere a un procedimiento implementado por ordenador para la gestión del vuelo de una aeronave. El procedimiento comprende las etapas de recibir directrices de vuelo e información de vuelo asociada con estas directrices; determinar un contexto de vuelo de la aeronave; en función del contexto determinado, seleccionar información de entre la asociada con la formulación de una directriz y/o con una directriz de vuelo actual y/o con un cambio de una directriz de vuelo; restaurar sensorialmente la información seleccionada.
Es conocido proporcionar a un piloto interfaces multisensoriales para interactuar con los sentidos tales como la vista, el sonido, el sonido 3D y el tacto. Para el sentido de la vista, existen pantallas tales como pantallas de cabeza hacia arriba, HUD, pantallas montadas en la cabeza, HMD, y pantallas de cabeza hacia abajo, HDD, o instrumentos. Para el sentido del sonido, existen avisos audibles que pueden ser 3D en el sentido de tener una dirección detectable o cambios de dirección. Para el sentido del tacto, puede haber realimentación táctil en el sentido de la cantidad de resistencia o la cantidad de vibración que se siente en la palanca de control o en las palancas de empuje o los pedales del timón, por ejemplo.
En los sistemas actuales, existen muchos sensores de aeronaves que suministran entrada a sistemas de control separados, de los que algunos pueden suministrar información al piloto sobre el estado de la aeronave o la fase actual del vuelo usando más de uno de los sentidos humanos. Sin embargo, los diferentes sistemas no siempre están sincronizados o son consecuentes. Por ejemplo, para cada fase del vuelo, tal como carreteo, despegue, crucero, aproximación, toma y frenado, las interfaces de tripulación suministradas por diferentes fuentes, tales como diferentes sensores, pueden no ser completamente consecuentes entre sí, o consecuentes con la fase particular del vuelo. Además, durante las transiciones entre estas fases, los diferentes sistemas pueden decidir independientemente que la fase ha cambiado y, por tanto, pueden indicar las transiciones de fase en momentos ligeramente diferentes o no indicar los cambios de fase. Dichas inconsistencias pueden proporcionar una impresión incoherente del estado de la aeronave que, normalmente, se puede superar y comprender por el piloto si conoce las diferentes características y tiempos de los diferentes sistemas y, así con ese conocimiento, el piloto todavía puede deducir si alguna inconsistencia representa una situación normal o un mal funcionamiento del equipo o un estado peligroso, por ejemplo. Pero esto requiere que el piloto aplique conocimientos detallados e integre diversas entradas para valorar la situación y comprender de inmediato el estado de la aeronave y lo que se debe hacer. En algunos casos, esto aumenta el riesgo de que el piloto se sobrecargue o se confunda.
Ha habido muchos intentos de ayudar a los pilotos a reducir la sobrecarga del piloto, tales como proporcionar listas de verificación, proporcionar avisos adicionales cuando se superan los umbrales y proporcionar información de estado más altamente procesada, tal como predicciones de trayectorias y diferencias en relación con los planes de vuelo, y proporcionar más representaciones gráficas de datos. Los modos de realización descritos a continuación no se limitan a implementaciones que resuelven cualquiera o todas las desventajas de los sistemas conocidos.
SUMARIO
Se proporciona el presente sumario para introducir una selección de conceptos de forma simplificada que se describen además a continuación en la descripción detallada. En un primer aspecto, se proporciona un procedimiento de control de salidas respectivas de diversos tipos de interfaces de tripulación para emitir información visible, de audio y táctil a un piloto humano para el control de vuelo de una aeronave de acuerdo con la reivindicación 1.
Se pueden añadir otros rasgos característicos en modos de realización particulares, tales como, las indicaciones mutuamente consecuentes del estado de la aeronave que comprenden indicaciones mutuamente consecuentes de al menos uno de: proximidad a un parámetro de control de vuelo deseado, proximidad a un parámetro de control de vuelo no deseado y guía de corrección de control de vuelo. Otro rasgo característico adicional es la etapa de generación de las presentaciones respectivas que se coordinan sincronizando los cambios en las indicaciones en respuesta a los cambios en la estimación unificada del estado actual de la aeronave.
La generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas se puede coordinar sincronizando los cambios en las indicaciones mutuamente consecuentes del estado de la aeronave en respuesta a los cambios en la estimación unificada de la fase actual del vuelo. La etapa de determinación de una estimación unificada de la fase de vuelo puede implicar determinar una estimación unificada en base a la información de estado de vuelo que comprende al menos un plan de vuelo, una ubicación actual e información de estado de la aeronave.
Otro aspecto proporciona un controlador correspondiente para controlar las salidas respectivas de diversos tipos de interfaces de tripulación para emitir información visible, de audio y táctil a un piloto humano para el control de vuelo de acuerdo con la reivindicación 15. Otro aspecto proporciona un programa informático correspondiente de acuerdo con la reivindicación 14.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
Los modos de realización de la invención se describirán, a modo de ejemplo, con referencia a los siguientes dibujos, en los que:
la figura 1 muestra una vista esquemática de un primer modo de realización,
la figura 2 muestra las etapas de procedimiento de acuerdo con un modo de realización,
la figura 3 muestra las etapas de procedimiento para un ejemplo que tiene al menos tipos táctiles y visuales, la figura 4 muestra las etapas de procedimiento para un ejemplo que tiene opciones de estado de vuelo particular, fases particulares y/o cambios sincronizados,
la figura 5 muestra una vista esquemática del modo de realización que muestra procesos para diferentes fases, la figura 6 muestra una vista esquemática de un ejemplo para una fase de aproximación,
la figura 7 muestra una vista esquemática de un ejemplo para una fase de toma,
la figura 8 muestra una vista esquemática de un ejemplo para una fase de frenado,
la figura 9 muestra una vista esquemática de un ejemplo para una fase de carreteo, y
la figura 10 muestra una vista esquemática de un ejemplo para una fase de despegue, y
la figura 11 muestra una vista esquemática de un ejemplo para una fase de crucero.
la figura 12 muestra una ilustración de una salida táctil de acuerdo con algunos ejemplos.
la figura 13 muestra otra ilustración de una salida táctil de acuerdo con algunos ejemplos.
DESCRIPCIÓN DETALLADA
Se describirán ahora otros detalles, aspectos y modos de realización de la invención se describirán, solo a modo de ejemplo, con referencia a los dibujos. Los elementos de las figuras se ilustran por simplicidad y claridad y no se han dibujado a escala necesariamente. Se han incluido números de referencia similares en los dibujos respectivos para facilitar su comprensión.
A modo de introducción, se expondrán en resumen algunos problemas de las tecnologías actuales. Para un piloto que controla una aeronave, existen muchos sistemas que les dan información, por ejemplo, en la aproximación final donde el objetivo es proporcionar una guía para adquirir y mantener una senda de planeo, puede haber diferentes sistemas que controlan las pantallas, los avisos de audio y las salidas táctiles en la palanca de mando y la palanca de empuje. El piloto recibe indicaciones o percibe cambios en las indicaciones que no están sincronizadas o coordinadas y así, el piloto debe interpretar el estado actual de la aeronave y lo que podría suceder a continuación a partir de las múltiples fuentes posiblemente diferentes. Un sistema actual es un sistema instrumental de aterrizaje, ILS, que principalmente da una indicación visual. También hay una salida de audio para dar una indicación de cuándo se acaba de sobrevolar una baliza en lugar de dar una guía. También es conocido como un reemplazo potencial de ILS el sistema de aumentación basado en tierra, GBAS, que es una solución basada en satélites, pero solo da una indicación visual. Para abordar estos problemas, se disponen ejemplos de la presente divulgación para coordinar la información presentada al piloto por diversos tipos de interfaz de tripulación usando los sentidos de la vista, el sonido y el tacto, por medio de dispositivos tales como HUD/HMD/HDD, audio tal como audio 3D, y dispositivos de palanca de mando activa y palanca de empuje activa. Esto puede proporcionar una presentación más integrada y holística al piloto para dar una presentación mejor y más fácil de comprender de lo que está haciendo la aeronave y cómo está volando con respecto a la senda de planeo y la pista, por ejemplo, o con respecto a la misión o plan de vuelo. La coordinación se extiende a los cambios en la fase del vuelo, tal como desde la aproximación hasta la toma, el frenado, el carreteo y el despegue, a continuación crucero, por ejemplo. Así, por ejemplo, si existe un ILS (sistema instrumental de aterrizaje), a continuación se podría controlar la pantalla para mostrar la simbología de ILS que muestra la desviación de la senda de planeo y posiblemente las órdenes de corrección, para adquirir y mantener la senda de planeo. Al mismo tiempo, la realimentación táctil en la palanca de mando y quizás en los pedales del timón podría representar de manera diferente la misma información sobre el mantenimiento de la senda de planeo, y si la aeronave debe estar más alta o más baja, y más a la derecha o a la izquierda, por ejemplo. Por ejemplo, se podría hacer que la palanca de mando se mueva más fácilmente en la dirección deseada y más difícil de mover en la dirección incorrecta, o hacer que vibre más. La salida de audio correspondiente también se podría usar para reforzar la guía, en forma de tonos o voces variables.
Coordinando los múltiples diversos tipos de interfaz de tripulación, se puede proporcionar al piloto una vista más coherente del estado actual del vuelo con menor riesgo de sobrecarga de información incoherente. Las salidas visuales, de audio y táctiles coordinadas se pueden generar a partir de una fuente unificada que se puede implementar como procesador o procesadores centralizados, o como una función o agente distribuido, que se ejecuta en múltiples ubicaciones interconectadas, tales como los diversos dispositivos de salida, con comunicaciones para garantizar la coherencia y uniformidad mutuas de las presentaciones por los diversos tipos de interfaces. Los dispositivos de interfaz de tripulación pueden incluir pero no se limitan a, pantallas tales como HUD/HMD/HDD y dispositivos táctiles en forma de receptores activos tales como una palanca de mando, palanca de empuje y pedales del timón, y altavoces o auriculares de audio 3-D. Los ejemplos del sistema pueden proporcionar una interfaz de tripulación multisensorial homogeneizada recopilando información de múltiples entradas para derivar una estimación unificada de una fase actual del vuelo. Usando esta información y la del estado de vuelo, tal como la posición, inclinación, velocidad, altura, trayectoria prevista y así sucesivamente, se puede presentar al piloto una guía o avisos u otra información, apropiada para la fase de vuelo, y coordinada a través de los diferentes sentidos del tacto, vista y sonido. Estas presentaciones visibles, táctiles y de audio coordinadas pueden ayudar a simplificar la tarea del piloto reduciendo el esfuerzo necesario para resolver cualquier inconsistencia o incoherencia a través de los diferentes tipos de interfaz de tripulación. Por tanto, se puede reducir el riesgo de que el piloto se sobrecargue o se confunda y, por tanto, comprometa la misión o la seguridad del vuelo, o se disponga de más esfuerzo del piloto para otras tareas.
La figura 1 muestra una vista esquemática que muestra un sistema de acuerdo con un primer modo de realización que tiene un controlador para controlar salidas de diversos tipos de interfaces de tripulación 70, 400-450, e implementado por los circuitos del procesador 80, acoplado a los circuitos de memoria 60. El procesador también está acoplado a los diversos tipos de equipo físico de interfaz de tripulación 70, 400-450. Algunas de las diversas funciones del sistema se muestran como procesos mantenidos en la memoria como programas para su ejecución por los circuitos del procesador, aunque, por supuesto, las funciones se pueden implementar de otras maneras, tales como lógica programable o dedicada de cualquier tipo. Además, los procesos mostrados se pueden integrar o subdividir de otras maneras. Los procesos mostrados incluyen un proceso 30 para gestionar las entradas de los sistemas de la aeronave. Esto puede incluir entradas tales como velocidad, posición, altura, posición de las superficies de control de vuelo, posición del tren de aterrizaje, inclinación y así sucesivamente, siguiendo la práctica establecida y dependiendo del tipo de aeronave.
Este proceso puede emitir información de estado de vuelo que puede incluir datos brutos de los sistemas de la aeronave y datos procesados tales como predicciones de trayectoria, distancias de frenado, puntos de despegue, plan de vuelo o información del plan de misión y así sucesivamente. Se proporciona un proceso en forma de un motor de razonamiento 10 para determinar una estimación unificada del estado de la aeronave actual y la fase de vuelo a partir de al menos parte de la información de estado de vuelo. Opcionalmente, el motor de razonamiento puede tener entrada desde un proceso 40 de gestión de entradas del piloto humano, tal como un cambio en el plan de vuelo, o el piloto que inicia un cambio de fase tal como comenzar a rodar o comenzar a despegar, por ejemplo.
La determinación de la fase de vuelo puede ser a partir de diversas entradas que incluyen, pero sin limitarse a: velocidad, altura sobre el suelo, posición con respecto a un aeródromo/pista, peso sobre las ruedas, posición de los flaps. Por ejemplo, para determinar que la aeronave está en la fase de carreteo, entonces debe estar presente el peso sobre las ruedas, una velocidad menor que una velocidad de referencia acordada, la altura sobre el suelo es cero o, si es la posición del sistema de navegación inercial, INS, la altura del INS coincide con la altura del INS instalado. Un segundo ejemplo, para la fase de aproximación se puede basar en que la posición del flap está configurada para el aterrizaje, la velocidad coincide con la velocidad de referencia para el aterrizaje, la posición de la aeronave con respecto al aeródromo/pista y la altura sobre el suelo que es menor que la esperada para el comienzo del descenso.
El proceso 40 para gestionar las entradas del piloto humano también está dispuesto para suministrar salidas de control a un proceso 50 para controlar los sistemas de aeronaves tales como motores, superficies de control de vuelo, FCS, radios, sistemas de combustible, sistemas hidráulicos, sistemas generadores eléctricos, sistemas de presurización y muchos otros sistemas.
La estimación unificada del estado de la aeronave actual y la fase actual del vuelo se usa por los procesos 20 para la generación de las presentaciones visuales, de audio y táctiles coordinadas para los diversos tipos de interfaces de tripulación 70 de acuerdo con la estimación unificada de la información del estado de la aeronave actual y la fase actual del vuelo. Las presentaciones se coordinan al menos en el sentido de que las presentaciones visibles, de audio y táctiles proporcionan indicaciones mutuamente consecuentes del estado de la aeronave. Las indicaciones presentadas pueden depender de la fase del vuelo y, en algunos casos, existe un beneficio en mantener estas indicaciones sincronizadas con los cambios en la estimación unificada de la fase actual del vuelo. Como se explicará con más detalle a continuación con respecto a cada una de las fases del vuelo, la información particular que presentan depende de las estimaciones unificadas del estado de la aeronave actual y de la fase actual del vuelo.
Como se muestra, en este ejemplo las interfaces de tripulación de tipo visual incluyen una HUD 400, una HMD 410 y una HDD 420. Las interfaces de tripulación de tipo táctil incluyen una palanca de mando 430 y una palanca de empuje 440, y podrían incluir pedales de timón (no mostrados en aras de la claridad/concisión) que podrían tener una salida táctil similar correspondiente a la de la palanca de mando, o tener su propia salida, por ejemplo, para la parte final de la aproximación con viento cruzado, donde los pedales del timón se usan típicamente para enderezar el avión justo antes de la toma. Por ende, a lo largo de la presente divulgación, las referencias a la generación de una salida táctil de la palanca de mando pretenden englobar también una salida táctil del pedal de timón. El tipo de audio incluye altavoces de audio 450, tales como auriculares o altavoces de cabina, de los que cualquiera se puede configurar para proporcionar audio direccional conocido como audio 3D.
Una ventaja de dicha coordinación de las salidas de interfaz de tripulación a través de los sentidos de la vista, el sonido y el tacto es que puede aliviar al piloto de la carga de trabajo al interpretar salidas no sincronizadas o incoherentes de diferentes tipos de interfaces que podrían confundir a los pilotos en la comprensión del estado o fase de la aeronave actual. Por tanto, hay menos carga de trabajo para el piloto si ya no tiene que aplicar conocimientos detallados e integrar diversas salidas de interfaz posiblemente incoherentes para valorar la situación y comprender de inmediato el estado de la aeronave y lo que se debe hacer. Esto puede dar lugar a un menor riesgo de que el piloto se sobrecargue o se confunda y, por tanto, comprometa la misión o la seguridad del vuelo, por ejemplo.
Téngase en cuenta que las referencias a aeronaves pueden englobar cualquier tipo de aeronave propulsada o no propulsada, tripulada o no tripulada pilotada a distancia, incluyendo naves espaciales o naves propulsadas por cohetes y así sucesivamente. Las referencias al piloto pueden englobar seres humanos que tienen el control del vuelo pero desde una ubicación remota, tales como los pilotos de aeronaves no tripuladas. Las referencias a la salida táctil pueden incluir cualquier tipo de salida táctil (también llamada interfaz háptica), incluyendo vibración, resistencia al movimiento, resistencia direccionalmente variable al movimiento, resistencia a la rotación y así sucesivamente.
La figura 2 muestra las etapas de procedimiento de acuerdo con un modo de realización, para su uso en el modo de realización de la figura 1 o en otros modos de realización. El procedimiento es para controlar salidas respectivas de diversos tipos de interfaces de tripulación para emitir información visible, de audio y táctil a un piloto humano para el control de vuelo de una aeronave. Hay una etapa 100 de recepción de información de estado de vuelo de múltiples fuentes diferentes. Esto puede incluir cualquier información de estado sobre la aeronave o sobre la situación de la aeronave, tal como el plan de vuelo o la posición en relación con el plan de vuelo, por ejemplo. En la etapa 110 hay una etapa de determinación de estimaciones unificadas del estado de la aeronave actual y la fase actual del vuelo, en base al menos a la información de estado de vuelo. Esto se puede llevar a cabo por el motor de razonamiento de la figura 1, o por algún otro proceso en un modo de realización diferente. Como se muestra por la etapa 120, hay una etapa de generación de presentaciones visibles, de audio y táctiles coordinadas respectivas para los diversos tipos de interfaces de tripulación, coordinadas de modo que proporcionen indicaciones mutuamente consecuentes de la estimación unificada del estado de la aeronave actual, de acuerdo con la estimación unificada de la fase actual del vuelo. Existen diversas maneras en que se puede implementar dicha coordinación de presentaciones y algunos ejemplos y variaciones se describirán con más detalle a continuación. En la etapa 130, hay una etapa de hacer que las presentaciones coordinadas respectivas se emitan por los diversos tipos de interfaces de tripulación al piloto humano. Como se expone anteriormente, una ventaja destacada de dicha coordinación de las salidas de interfaz de tripulación a través de los sentidos de la vista, el sonido y el tacto es que puede aliviar al piloto de la carga de trabajo en cuanto a la interpretación de salidas no sincronizadas o incoherentes de diferentes tipos de interfaces.
La figura 3 muestra un ejemplo similar a la figura 2, y se han usado números de referencia correspondientes como sea apropiado. En este caso, dentro del recuadro 120 que muestra la etapa de generación de las presentaciones coordinadas que proporcionan las indicaciones mutuamente consecuentes, están los recuadros 121 y 122 que muestran ejemplos para implementar dicha generación de las presentaciones. En el recuadro 121, las presentaciones generadas proporcionan indicaciones mutuamente consecuentes de la proximidad a un parámetro de control de vuelo deseado o no deseado, y/o una guía de corrección de control de vuelo. Estos son tipos de indicaciones que son en particular útiles para posibilitar que el piloto comprenda el estado de la aeronave y que tienen el potencial de provocar cierta confusión si no se mantienen consecuentes. Los parámetros de vuelo deseados pueden englobar la velocidad, la altura, la ubicación y el seguimiento según un plan de vuelo o una senda de planeo en la aproximación a una pista, por ejemplo. Los parámetros de vuelo no deseados pueden englobar umbrales tales como la velocidad de pérdida, los límites de la pista, los límites de la ruta de vuelo tales como la altura y la posición y así sucesivamente. La información de guía de corrección de control de vuelo puede incluir, por ejemplo, qué dirección tomar para alcanzar el centro de una senda de planeo, o el centro de una pista de carreteo, por ejemplo, o si un ajuste de la palanca de empuje se debe incrementar o disminuir, por ejemplo. Las indicaciones particulares presentadas dependerán típicamente de la fase actual del vuelo y más detalles de ejemplos de indicaciones específicas para cada fase del vuelo se muestran en las figuras 6 a 11 y se describen a continuación.
El recuadro 122 muestra un ejemplo en el que las presentaciones generadas se pueden mantener mutuamente consecuentes sincronizando los cambios en las indicaciones en respuesta a los cambios en la estimación unificada del estado de la aeronave actual. De esta manera, se pueden minimizar las inconsistencias temporales entre las presentaciones de audio, visuales y táctiles respectivas a medida que cambia el estado de la aeronave y, por tanto, también se puede minimizar cualquier confusión resultante en la mente del piloto. Hay un beneficio similar en la sincronización en respuesta a los cambios en la fase del vuelo, como se muestra en la figura 4 descritos a continuación. Los ejemplos de los recuadros 121 y 122 no son mutuamente excluyentes y, así, pueden ser alternativas o se pueden combinar.
También se muestran en la figura 3 ejemplos de etapas de control para controlar cada tipo de interfaz de tripulación, para implementar la etapa 130 de hacer que se emitan las presentaciones por las interfaces de tripulación. Así, se muestra una etapa 140 de control de una interfaz de tipo táctil tal como una salida táctil de la palanca de empuje o una salida táctil de la palanca de mando o el pedal del timón, por ejemplo, para vibrar o mostrar una fuerza de resistencia variable al movimiento por el usuario. También hay una etapa 150 resultante de control de una interfaz de tipo visual tal como una HUD, HMD o HDD, y una etapa 160 de control de cualquier otra interfaz tal como audio o audio 3D. Una ventaja de coordinar estos dispositivos es que son algunos de los tipos de interfaz más establecidos y, así, el beneficio de su coordinación es en particular sólido.
La figura 4 muestra un ejemplo similar a la figura 2, y se han usado números de referencia correspondientes como sea apropiado. En este caso, la etapa 120 de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas comprende la adición opcional mostrada en la etapa 124 de realizar cambios sincronizados en las indicaciones mutuamente consecuentes en respuesta a los cambios en la estimación unificada de la fase actual del vuelo. Una ventaja es que esto puede ayudar a destacar los cambios de fase y reducir el riesgo de incoherencia y, por tanto, de confusión durante un cambio de fase, que a menudo es un momento de gran carga de trabajo del piloto.
Otro rasgo característico adicional opcional mostrado aquí es que la etapa de recepción del estado de vuelo actual 102 implica múltiples fuentes, tales como al menos un plan de vuelo, una ubicación actual e información de estado de la aeronave. Una ventaja de esto es que puede ayudar a posibilitar una estimación exacta de la fase y, por tanto, también ayudar a reducir el riesgo de incoherencia y, por tanto, la confusión durante un cambio de fase, que a menudo es un momento de gran carga de trabajo del piloto.
Otro rasgo característico adicional opcional mostrado aquí en la etapa 112 es la etapa de determinación de una estimación unificada de la fase actual del vuelo que implica determinar que la fase es una de: una fase de despegue, una fase de crucero, una fase de aproximación, una fase de toma, una fase de frenado y una fase de carreteo. Existen algunas de las fases principales, aunque se pueden concebir otras maneras de dividirlas en fases.
La figura 5 muestra una vista esquemática de un modo de realización que muestra rasgos característicos similares a los de la figura 1 y se han usado números de referencia correspondientes como sea apropiado, aunque se han omitido algunos rasgos característicos opcionales por claridad. En este caso, se muestra que los procesos 20 para la generación de las presentaciones visuales, de audio y táctiles coordinadas comprenden una serie de procesos alternativos, correspondiendo cada uno a una fase diferente. Hay un proceso 21 para su uso en la fase de crucero, descrito con más detalle a continuación con referencia a la figura 11, y un proceso 22 para su uso en la fase de aproximación, que se describe con más detalle a continuación con referencia a la figura 6. Hay un proceso 24 para su uso en la fase de toma, descrito con más detalle a continuación con referencia a la figura 7. Hay un proceso 26 para su uso en la fase de frenado, que se describe con más detalle a continuación con referencia a la figura 8. Hay un proceso 28 para su uso en la fase de carreteo, descrito con más detalle a continuación con referencia a la figura 9, y un proceso 29 para su uso en la fase de despegue, descrito con más detalle a continuación con referencia a la figura 10.
La figura 6 muestra las etapas para el control coordinado de salidas de acuerdo con un ejemplo para una fase de aproximación. En la etapa 300 hay una etapa de determinación de la desviación de una senda de planeo, en base a las entradas de estado de vuelo tales como la información de navegación (NAV), la entrada del sistema instrumental de aterrizaje, ILS, y la entrada del del sistema de aumentación basado en tierra, GBAS. En la etapa 310 hay una etapa de determinación de un estado de senda de planeo común, tal como una trayectoria deseada o correcciones deseadas de velocidad, dirección, altura, inclinación y así sucesivamente. Este es un ejemplo de parte de una estimación unificada del estado de la aeronave actual. En la etapa 320 hay una etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas para la fase de aproximación, para proporcionar indicaciones consecuentes del estado de la aeronave, en forma del estado de senda de planeo común. Esto implica, en la etapa 330, generar una salida de guía visual para visualización, en base al estado de senda de planeo común. Esto puede implicar, por ejemplo, indicaciones tales como señales para mostrar velocidad y/o posición y/o dirección y/o inclinación en forma de valor real o relativo al deseado, o la corrección deseada, por ejemplo. La salida se indica por flechas a la HUD 400, HMD 410 y HDD 420, y puede representar la salida a cualquier combinación de algunas o todas estas interfaces. También puede haber un aviso visual adicional o un énfasis de una señal existente si se alcanza un límite o umbral de proximidad aceptable a la senda de planeo.
En la etapa 340 se muestra una etapa de generación de una salida táctil de la palanca de mando de acuerdo con el estado de senda de planeo común, tal como una corrección de inclinación deseada. Esta indicación se puede coordinar con las presentaciones visuales y otras presentaciones en términos de que se basa en la misma información y es consecuente con cualquier presentación visual con respecto a la inclinación, y presentando avisos al mismo tiempo, por ejemplo. La salida se muestra como una flecha hacia la palanca de mando 430. En la etapa 350 hay una etapa de generación de la salida táctil de la palanca de empuje de acuerdo con la guía de senda de planeo común, tal como una corrección de velocidad deseada. Esto se puede coordinar con las otras salidas de interfaz de tripulación, por ejemplo, siendo coherente con cualquier indicación visual con respecto a la velocidad, y presentando avisos al mismo tiempo. La salida se muestra como una flecha hacia la palanca de empuje 440. En la etapa 360 hay una etapa de generación de avisos de audio de acuerdo con el estado de senda de planeo común. La salida se muestra como una flecha hacia los altavoces de audio 450. Una ventaja de proporcionar dichas indicaciones de guía de senda de planeo coordinadas a través de múltiples tipos de interfaz es que puede ayudar al piloto a comprender la situación con menos riesgo de confundir información incoherente de diferentes sistemas. Un aspecto de la coordinación es que todas las indicaciones pueden cambiar de fase al mismo tiempo, para entrar o salir de la fase de aproximación, por ejemplo, de modo que se presente una impresión coherente.
La figura 7 muestra las etapas para el control coordinado de salidas de acuerdo con un ejemplo para una fase de toma. En la etapa 370 hay una etapa de determinación de un punto de toma requerido, RTDP. En la etapa 375 hay una etapa de determinación de un punto de toma previsto, PTDP, y cualquier desajuste con el RTDP, y emisión de un estado de toma común. Este es un ejemplo de parte de la estimación unificada del estado de la aeronave actual. En la etapa 380 hay una etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas para la fase de toma, para indicar el estado de la aeronave actual, en forma de dicho estado de toma común. Esto implica, en la etapa 385, generar una visualización de la pista y del punto de toma visual, y cualquier aviso, en base al estado de toma común, tal como el desajuste de la velocidad y del PTDP/RTDP, por ejemplo. La salida se indica por flechas a la HUD 400, HMD 410 y HDD 420, y puede representar la salida a cualquier combinación de algunas o todas estas interfaces. También puede haber un aviso visual adicional o un énfasis de una señal existente si se alcanza un límite o umbral de trayectoria aceptable.
En la etapa 390 se muestra una etapa de generación de una salida táctil de la palanca de mando de acuerdo con el estado de toma común, tal como una corrección de inclinación deseada, un desajuste de la velocidad y del PTDP/RTDP, por ejemplo. Esto se puede coordinar con las presentaciones visuales y otras presentaciones en términos de que se basa en la misma información y es consecuente con cualquier presentación visual con respecto a la inclinación, y presentando avisos al mismo tiempo, por ejemplo. La salida se muestra como una flecha hacia la palanca de mando 430. En la etapa 395 hay una etapa de generación de una salida táctil de la palanca de empuje de acuerdo con el estado de toma común, tal como una corrección de velocidad deseada y un desajuste del PTDP/RTDP, por ejemplo. Esto se puede coordinar con las otras salidas de interfaz de tripulación, por ejemplo, siendo coherente con cualquier presentación visual con respecto a la velocidad, y presentando avisos al mismo tiempo. La salida se muestra como una flecha hacia la palanca de empuje 440. En la etapa 460 hay una etapa de generación de avisos de audio de acuerdo con el estado de toma común, tal como de acuerdo con un desajuste de la velocidad o del PTDP/RTDP y así sucesivamente. La salida se muestra como una flecha hacia los altavoces de audio 450. Como antes, proporcionar dichos avisos de toma coordinados a través de múltiples tipos de interfaz es en particular útil para ayudar al piloto a comprender la situación con menos riesgo de confundir información incoherente de diferentes sistemas.
La figura 8 muestra las etapas para el control coordinado de las salidas de acuerdo con un ejemplo para una fase de frenado. En la etapa 500 hay una etapa de determinación de un punto de parada requerido, RSP. En la etapa 510 hay una etapa de determinación de un punto de parada previsto, PSP, y cualquier desajuste con el RSP, en base al estado de vuelo, tal como la velocidad, y de su emisión como un estado de frenado común. Este es un ejemplo de parte de la estimación unificada del estado de la aeronave actual. En la etapa 520 hay una etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas para la fase de frenado, para indicar el estado de la aeronave actual, en forma de dicho estado de frenado común. Esto implica, en la etapa 530, generar una representación visual de los avisos de pista, rendimiento de frenado y PSP, por ejemplo, en base al estado de frenado común. La salida se indica por flechas a la HUD 400, HMD 410 y h Dd 420, y puede representar la salida a cualquier combinación de algunas o todas estas interfaces. También puede haber un aviso visual adicional o un énfasis de una señal existente si se alcanza un límite o umbral de frenado aceptable, o si se dirige demasiado cerca del borde de la pista, por ejemplo.
En la etapa 540 se muestra una etapa de generación de una salida táctil de la palanca de mando de acuerdo con el estado de frenado común tal como proporcionando avisos de vibración de la palanca de mando u otros avisos táctiles. Esto se puede coordinar con las indicaciones visuales y otras indicaciones en términos de que se basa en la misma información y es consecuente con cualquier indicación visual, y presentando avisos, todos al mismo tiempo, por ejemplo. La salida se muestra como una flecha hacia la palanca de mando 430. En la etapa 550 hay una etapa de generación de la salida táctil de la palanca de empuje de acuerdo con el estado de frenado común, tal como una corrección de velocidad deseada. Esto se puede coordinar con las otras salidas de interfaz de tripulación, por ejemplo, siendo coherente con cualquier indicación visual con respecto a la velocidad, y presentando avisos al mismo tiempo. La salida se muestra como una flecha hacia la palanca de empuje 440. En la etapa 560 hay una etapa de generación de avisos de audio de acuerdo con las indicaciones de frenado común tales como de acuerdo con un desajuste de la velocidad o del PSP/RSP y así sucesivamente. La salida se muestra como una flecha hacia los altavoces de audio 450. Una ventaja de proporcionar dichas presentaciones de fase de frenado coordinadas a través de múltiples tipos de interfaz es ayudar a un piloto a comprender la situación con menos riesgo de confundir información incoherente de diferentes sistemas.
La figura 9 muestra las etapas para el control coordinado de salidas de acuerdo con un ejemplo para una fase de carreteo. En la etapa 600 hay una etapa de recuperación de una información de vía de carreteo y pista de carreteo. En la etapa 610 hay una etapa de determinación de si está demasiado cerca del borde de la pista, o si va demasiado rápido en base al estado de vuelo, tal como la velocidad y la posición, y generación de dicha información como estado de carreteo común para su uso por todos los tipos de interfaz. Este es un ejemplo de parte de la determinación de la estimación unificada del estado de la aeronave actual. En la etapa 620 hay una etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas para la fase de carreteo, para indicar el estado de la aeronave actual en forma de dicho estado de carreteo común. Esto implica, en la etapa 630, generar una representación visual de los avisos de ruta, posición y velocidad, por ejemplo, para indicar el estado de la aeronave actual, en forma de estado de carreteo común. La salida se indica por flechas a la HUD 400, HMD 410 y HDD 420, y puede representar la salida a cualquier combinación de algunas o todas estas interfaces. También puede haber un aviso visual adicional o un énfasis de una señal existente si se alcanza un límite o umbral a lo largo de la vía de carreteo. En la etapa 640 se muestra una etapa de generación de una salida táctil de la palanca de mando de acuerdo con el estado de carreteo común tal como proporcionando una banda rugosa sintética si la aeronave se desvía demasiado de la línea central de la pista, por ejemplo. Esto se puede coordinar con las presentaciones visuales y otras presentaciones en términos de que se basa en la misma información y es consecuente con cualquier presentación visual, y presentando avisos, todos al mismo tiempo, por ejemplo. La salida se muestra como una flecha hacia la palanca de mando 430. En la etapa 650 hay una etapa de generación de la salida táctil de la palanca de empuje de acuerdo con el estado de carreteo común tal como cuando la velocidad es demasiado alta o proporcionando un frenado en un ajuste de la palanca de empuje deseado. Esto se puede coordinar con las otras salidas de interfaz de tripulación, por ejemplo, siendo coherente con cualquier presentación visual con respecto a la velocidad, y presentando avisos al mismo tiempo. La salida se muestra como una flecha hacia la palanca de empuje 440. En la etapa 660 hay una etapa de generación de avisos de audio de acuerdo con el estado de carreteo común tal como mensajes de frenado verbales o avisos de umbrales y así sucesivamente. La salida se muestra como una flecha hacia los altavoces de audio 450. Como antes, una ventaja de proporcionar dichas indicaciones de fase de carreteo coordinadas a través de múltiples tipos de interfaz es en particular útil para ayudar al piloto a comprender la situación con menos riesgo de confundir información incoherente de diferentes sistemas. En algunos ejemplos, la salida táctil puede proporcionar una indicación al piloto de un peligro que se aproxima. Por ejemplo, la salida táctil puede comprender un empujón al dispositivo de control para identificar un giro inminente, una parada suave para disuadir giros incorrectos o una combinación de empujones y paradas suaves. En algunos ejemplos, se puede alertar a un piloto de una barra de parada por al menos una parada suave. En algunos ejemplos, se puede visualizar un aviso audible o visual sustancialmente al mismo tiempo que la salida táctil, tal como una flecha de aviso intermitente que apunta en o lejos de la dirección del peligro o desviación, la intermitencia sincronizada con la salida táctil de la palanca de mando. Esto puede ayudar al piloto a comprender el significado del aviso, y a reducir la posibilidad de que se ignore el aviso o no se actúe en consecuencia. La sensación precisa de la salida táctil se puede programar para transmitir la urgencia o la gravedad del peligro, en una gama de contextos. Aunque el peligro que se aproxima se analiza en relación con la fase de carreteo, es evidente que se puede proporcionar la salida táctil al piloto durante cualquier estado de la aeronave, por ejemplo, se puede proporcionar un empujón para garantizar que una aeronave permanece en una ruta de vuelo.
En algunos ejemplos, el dispositivo de control se puede configurar para tener una sensación variable dependiendo de la velocidad de la aeronave. En algunos ejemplos, se puede proporcionar una realimentación táctil en forma de una banda rugosa simulada si la velocidad de la aeronave está por encima de un límite especificado, tal como el límite de velocidad establecido por los operarios de la aeronave para reducir potencialmente los costes de mantenimiento, o un límite de velocidad establecido por el control de tráfico aéreo. La realimentación táctil se puede incrementar con la magnitud de la velocidad de la aeronave.
En algunos ejemplos, la palanca de mando puede funcionar para controlar la dirección de la rueda delantera de la aeronave. En estos ejemplos, la salida táctil de la palanca de mando puede comprender una parada suave. La parada suave se puede proporcionar al piloto por medio de la palanca de mando en una posición apropiada de la palanca de mando para evitar daños o reducir el desgaste de una aeronave si el piloto empujara más allá de la parada. Por ejemplo, cuando se puede provocar un sobreviraje que podría rayar o desgastar el neumático, se podría añadir una parada, de modo que se requiera que el piloto empuje activamente más allá de la parada si desea continuar moviendo la palanca de mando. Al mismo tiempo que la parada, se puede proporcionar un aviso al piloto, tal como un aviso visual o audible. Esto ayudaría al piloto a evitar acciones que pueden provocar niveles de desgaste inaceptables, pero todavía permitiría al piloto adoptar cualquier acción que considere necesaria, por ejemplo, evitar un peligro en una emergencia.
En la figura 12 se ilustra una parada suave. En algunos ejemplos, cuando se proporciona una parada suave, la palanca de mando está configurada para proporcionar una fuerza resistiva que varía con la posición de la palanca de mando. La palanca de mando puede proporcionar una fuerza resistiva que tiene un primer gradiente 1205 sustancialmente lineal con la posición de la palanca de mando en un eje. En una posición de parada suave 1210 predefinida, el gradiente se incrementa a un segundo gradiente y, por lo tanto, el usuario sentirá una resistencia incrementada al mover la palanca de mando. A continuación, el gradiente se reduce después de la posición de parada suave 1210 a un tercer gradiente 1215. El segundo gradiente es mayor que los primer 1205 y tercer gradientes 1215. El primer gradiente 1205 puede ser igual a o mayor que el tercer gradiente, aunque el primer gradiente 1205 también puede ser menor que el tercer gradiente 1215. En algunos ejemplos, el tercer gradiente 1215 puede ser menor que el primer gradiente 1205 de modo que la fuerza requerida para alcanzar la parada dura sea igual a la fuerza proyectada del primer gradiente 1205.
Aunque los primer 1205, segundo y tercer gradientes 1215 se muestran como lineales, pueden tener cualquier conformación.
En la figura 13 se ilustra un empujón. En algunos ejemplos, cuando se proporciona un empujón, la palanca de mando está configurada para proporcionar una fuerza resistiva. De forma similar a la parada suave, la palanca de mando está configurada para proporcionar una parada suave en la primera posición de parada suave 1310 cuando la palanca de mando está en una primera posición 1330 antes de la primera posición de parada suave 1310. Para proporcionar un empujón, la posición de la primera posición de parada suave 1310 se puede mover momentáneamente durante un tiempo T de modo que se produzca en una segunda posición 1320 antes de la primera posición 1330. El usuario sentirá una fuerza que intenta mover la palanca de mando de acuerdo con el nuevo perfil de fuerza. Una vez que la posición de la parada suave se mueve de regreso a la primera posición de parada suave 1310, el usuario ya no sentirá la fuerza incrementada y, de esta manera, el usuario de la palanca de mando sentirá un empujón. La intensidad del empujón se puede incrementar incrementando el tiempo T en que se cambia la posición de la palanca de mando y también incrementando la diferencia entre la primera posición de parada suave y la posición de empujón.
La figura 10 muestra las etapas para el control coordinado de salidas de acuerdo con un ejemplo para una fase de despegue. En la etapa 700 hay una etapa de recuperación de límites de despegue tales como distancias o puntos en la pista relacionados con V1 (límite de decisión de cancelación de despegue) y VR (velocidad de rotación). En la etapa 710 hay una etapa de determinación de cuándo se logran V1 y VR y cualquier desajuste con los límites de despegue, en base al estado de vuelo tal como la velocidad y la ubicación, y emisión de un estado de despegue común para su uso por todos los tipos de interfaz. Este es un ejemplo de parte de la determinación de la estimación unificada del estado de la aeronave actual. En la etapa 720 hay una etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas para la fase de despegue, para indicar el estado de la aeronave actual en forma de dicho estado de despegue común. Esto implica, en la etapa 730, generar una representación visual de, por ejemplo, la velocidad real y la velocidad objetivo y cualquier aviso, por ejemplo, en base al estado de despegue común. La salida se indica por flechas a la HUD 400, HMD 410 y HDD 420, y puede representar la salida a cualquier combinación de algunas o todas estas interfaces. También puede haber un aviso visual adicional o un énfasis de una señal existente si se alcanza un límite o umbral de frenado aceptable, o si se dirige demasiado cerca del borde de la pista, por ejemplo.
En la etapa 740 se muestra una etapa de generación de una salida táctil de la palanca de mando de acuerdo con el estado de despegue común tal como proporcionando avisos de vibración de palanca de mando u otros avisos táctiles cuando se alcanzan V1 y/o VR, por ejemplo. Esto se puede coordinar con las indicaciones visuales y otras indicaciones en términos de que se basa en la misma información y es consecuente con cualquier indicación visual, y presentando avisos, todos al mismo tiempo, por ejemplo. La salida se muestra como una flecha hacia la palanca de mando 430. En la etapa 750 hay una etapa de generación de la salida táctil de la palanca de empuje de acuerdo con el estado de despegue común tal como proporcionando un frenado en los ajustes de la palanca de empuje deseados. Esto se puede coordinar con las otras salidas de interfaz de tripulación, por ejemplo, siendo coherente con cualquier presentación visual con respecto a la velocidad, y presentando avisos al mismo tiempo. La salida se muestra como una flecha hacia la palanca de empuje 440. En la etapa 760 hay una etapa de generación de avisos de audio de acuerdo con el estado de despegue común tal como mensajes verbales que indican que se ha alcanzado V1 o VR, por ejemplo. La salida se muestra como una flecha hacia los altavoces de audio 450. Una ventaja de proporcionar dichas presentaciones de fase de despegue coordinadas a través de múltiples tipos de interfaz es que pueden ayudar al piloto reduciendo el riesgo de confundir información incoherente de diferentes sistemas.
La figura 11 muestra las etapas para el control coordinado de salidas de acuerdo con un ejemplo para una fase de crucero. En la etapa 800 hay una etapa de recuperación de información de crucero de un plan de vuelo. En la etapa 810 hay una etapa de determinación de cualquier desajuste con límites tales como velocidad, altura y ubicación, y generación de un estado de crucero común que incluye dichos avisos de desajuste para su uso por todos los tipos de interfaz. Este es un ejemplo de parte de la determinación de la estimación unificada del estado de la aeronave actual. En la etapa 820 hay una etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas para la fase de crucero, para indicar el estado de la aeronave actual en forma de dicho estado de crucero común. Esto implica, en la etapa 730, generar una representación visual de, por ejemplo, la velocidad y trayectoria reales y la velocidad y trayectoria objetivo y cualquier aviso, por ejemplo, para indicar el estado de crucero común. La salida se indica por flechas a la HUD 400, HMD 410 y HDD 420, y puede representar la salida a cualquier combinación de algunas o todas estas interfaces. También puede haber un aviso visual adicional o un énfasis de una señal existente si se alcanza o se aproxima a un límite o umbral de desviación aceptable del plan de vuelo.
En la etapa 840 se muestra una etapa de generación de una salida táctil de la palanca de mando de acuerdo con el estado de crucero común tal como proporcionando avisos de vibración de la palanca de mando u otros avisos táctiles a medida que se alcanzan los umbrales, por ejemplo. Esto se puede coordinar con las indicaciones visuales y otras indicaciones en términos de que se basa en la misma información y es consecuente con cualquier indicación visual, y presentando avisos, todos al mismo tiempo, por ejemplo. La salida se muestra como una flecha hacia la palanca de mando 430. En la etapa 850 hay una etapa de generación de la salida táctil de la palanca de empuje de acuerdo con el estado de crucero común tal como proporcionando un frenado en los ajustes de la palanca de empuje deseados. Esto se puede coordinar con las otras salidas de interfaz de tripulación, por ejemplo, siendo coherente con cualquier presentación visual con respecto a la velocidad, y presentando avisos al mismo tiempo. La salida se muestra como una flecha hacia la palanca de empuje 440. En la etapa 860 hay una etapa de generación de avisos de audio de acuerdo con el estado de crucero común tales como mensajes verbales que indican que se está aproximando o alcanzando un umbral, por ejemplo. La salida se muestra como una flecha hacia los altavoces de audio 450. Una ventaja de proporcionar dichas presentaciones de fase de crucero coordinadas a través de múltiples tipos de interfaz es que pueden ayudar al piloto reduciendo el riesgo de confundir información incoherente de diferentes sistemas.
Aunque el aparato se ha descrito en relación con las figuras 1 y 5 implementado por procesos ejecutados por un procesador y una memoria, se pueden concebir otras implementaciones, por lo que los rasgos característicos se pueden describir como un aparato para controlar las salidas respectivas de diversos tipos de interfaces de tripulación para emitir información visible, de audio y táctil a un piloto humano para el control de vuelo, teniendo el aparato un receptor para recibir información de estado de vuelo, medios para determinar estimaciones unificadas del estado de la aeronave actual y de la fase actual del vuelo, en base al menos a la información de estado de vuelo, medios para generar presentaciones visibles, de audio y táctiles coordinadas respectivas de la información al piloto humano por los diversos tipos de interfaces de tripulación, coordinadas de modo que proporcionen indicaciones mutuamente consecuentes de la estimación unificada del estado de la aeronave actual, de acuerdo con la estimación unificada de la fase de vuelo actual, y medios para hacer que las presentaciones coordinadas respectivas se emitan por los diversos tipos de interfaces de tripulación al piloto humano. Aunque la presente invención se ha descrito en conexión con algunos modos de realización, no se pretende que se limite a la forma específica expuesta en el presente documento. Más bien, el alcance de la presente invención solo está limitado por las reivindicaciones adjuntas. Adicionalmente, aunque puede parecer que se describe un rasgo característico en conexión con modos de realización particulares, un experto en la técnica reconocería que se pueden combinar diversos rasgos característicos de los modos de realización descritos de acuerdo con la invención. En las reivindicaciones, el término "que comprende" no excluye la presencia de otros elementos o etapas.
Además, el orden de los rasgos característicos en las reivindicaciones no implica ningún orden específico en el que se deban realizar los rasgos característicos y, en particular, el orden de las etapas individuales en una reivindicación de procedimiento no implica que las etapas se deban realizar en este orden. Más bien, las etapas se pueden realizar en cualquier orden adecuado. Además, las referencias en singular no excluyen una pluralidad. Por tanto, las referencias a "un", "una", "primero/a", "segundo/a", etc. no excluyen una pluralidad. En las reivindicaciones, el término "que comprende" o "que incluye" no excluye la presencia de otros elementos.

Claims (15)

REIVINDICACIONES
1. Un procedimiento de control de las salidas respectivas de diversos tipos de interfaces de tripulación (70, 400-450) para emitir información visible, de audio y táctil a un piloto humano para el control de vuelo de una aeronave, que tiene las etapas de:
recibir información de estado de vuelo de múltiples fuentes diferentes,
determinar estimaciones unificadas de un estado de la aeronave actual y de una fase actual del vuelo, en base al menos a la información de estado de vuelo de las múltiples fuentes diferentes,
generar presentaciones visibles, de audio y táctiles coordinadas respectivas para los diversos tipos de interfaces de tripulación (70, 400-450), coordinadas de modo que proporcionen indicaciones mutuamente consecuentes de la estimación unificada del estado de la aeronave actual, de acuerdo con la estimación unificada de la fase actual del vuelo, y
hacer que las presentaciones coordinadas respectivas se emitan por los diversos tipos de interfaces de tripulación (70, 400-450) al piloto humano; en el que
los diversos tipos de interfaces de tripulación (70, 400-450) que comprenden un tipo visual, un tipo de audio y un tipo táctil, comprendiendo el tipo visual al menos uno de: una pantalla de cabeza hacia abajo, una pantalla de cabeza hacia arriba y una pantalla montada en la cabeza, comprendiendo el tipo de audio auriculares o altavoces de cabina, de los que cada uno proporciona opcionalmente audio 3d , y el tipo táctil comprende al menos uno de: una salida táctil de la palanca de empuje, una salida táctil del pedal del timón y una salida táctil de la palanca de mando, y la etapa de hacer que las presentaciones coordinadas respectivas se emitan comprende controlar estos tipos de interfaz de tripulación; y
la etapa de determinación de la estimación unificada de la fase actual del vuelo comprende determinar que la fase es una de: una fase de despegue, una fase de crucero, una fase de aproximación, una fase de toma, una fase de frenado y una fase de carreteo.
2. El procedimiento de la reivindicación 1, en el que las indicaciones mutuamente consecuentes del estado de la aeronave actual comprenden indicaciones mutuamente consecuentes de al menos una de: proximidad a un parámetro de control de vuelo deseado, proximidad a un parámetro de control de vuelo no deseado y guía de corrección de control de vuelo.
3. El procedimiento de la reivindicación 1 o la reivindicación 2, comprendiendo la etapa de generación de las presentaciones respectivas para proporcionar las indicaciones mutuamente consecuentes del estado de la aeronave una etapa de sincronización de los cambios en las indicaciones en respuesta a los cambios en la estimación unificada del estado de la aeronave actual.
4. El procedimiento de cualquier reivindicación precedente, en el que el tipo táctil es al menos uno de: al menos una parada suave; una banda rugosa simulada; y al menos un empujón.
5. El procedimiento de cualquier reivindicación precedente, en el que una palanca de mando se puede hacer funcionar para controlar la dirección de la rueda delantera y el tipo táctil comprende una salida táctil de la palanca de mando que comprende al menos uno de: al menos una parada suave, una banda rugosa simulada; y al menos un empujón.
6. El procedimiento de cualquier reivindicación precedente, la etapa de generación de las presentaciones respectivas comprende una etapa de sincronización de los cambios en las indicaciones mutuamente consecuentes del estado de la aeronave, en respuesta a los cambios en la estimación unificada de la fase actual del vuelo.
7. El procedimiento de cualquier reivindicación precedente, comprendiendo la etapa de determinación de las estimaciones unificadas determinar las estimaciones unificadas en base a información de estado de vuelo que comprende al menos un plan de vuelo, una ubicación actual e información de estado de la aeronave.
8. El procedimiento de cualquier reivindicación precedente, en el que la etapa de determinación del estado de la aeronave comprende, cuando la fase actual es una fase de aproximación del vuelo, determinar un estado de senda de planeo común, y la etapa de generación de las presentaciones respectivas comprende, cuando la estimación unificada de la fase actual del vuelo es una fase de aproximación, generar indicaciones de guía de senda de planeo en cada una de las presentaciones táctiles, de audio y visuales coordinadas, para indicar el estado de senda de planeo común.
9. El procedimiento de cualquier reivindicación precedente, en el que la etapa de determinación del estado de la aeronave comprende, cuando la fase actual es una fase de toma del vuelo, determinar un estado de toma común, y la etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas comprende, cuando la estimación unificada de la fase actual es una fase de toma, generar avisos de toma en cada una de las presentaciones táctiles, de audio y visuales coordinadas, para indicar el estado de toma común.
10. El procedimiento de cualquier reivindicación precedente, en el que la etapa de determinación del estado de la aeronave comprende, cuando la fase actual es una fase de frenado del vuelo, determinar un estado de frenado común, y la etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas comprende, cuando la estimación unificada de la fase actual de vuelo es una fase de frenado, derivar salidas de aviso de frenado en cada una de las presentaciones táctiles, de audio y visuales, para indicar el estado de frenado común.
11. El procedimiento de cualquier reivindicación precedente, en el que la etapa de determinación del estado de la aeronave comprende, cuando la fase actual es una fase de carreteo del vuelo, determinar un estado de carreteo común, y la etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas comprende, cuando la estimación unificada de la fase actual del vuelo es una fase de carreteo, derivar salidas de guía de carreteo para cada una de las presentaciones táctiles, de audio y visuales, para indicar el estado de carreteo común.
12. El procedimiento de cualquier reivindicación precedente, en el que la etapa de determinación del estado de la aeronave comprende, cuando la fase actual es una fase de despegue del vuelo, determinar un estado de despegue común, y la etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas comprende, cuando la estimación unificada de la fase actual del vuelo es una fase de despegue, derivar salidas de aviso de despegue para cada una de las presentaciones táctiles, de audio y visuales, para indicar el estado de despegue común.
13. El procedimiento de cualquier reivindicación precedente, en el que la etapa de determinación del estado de la aeronave comprende, cuando la fase actual es una fase de crucero del vuelo, determinar un estado de crucero común, y la etapa de generación de las presentaciones visibles, de audio y táctiles coordinadas respectivas comprende, cuando la estimación unificada de la fase actual del vuelo es una fase de crucero, derivar salidas de aviso de despegue para cada una de las presentaciones táctiles, de audio y visuales, para indicar el estado de crucero común.
14. Un programa informático que tiene instrucciones que, cuando se ejecutan por un circuito de procesamiento, hacen que los circuitos de procesamiento lleven a cabo el procedimiento de cualquiera de las reivindicaciones 1 a 13.
15. Un controlador para controlar las salidas respectivas de diversos tipos de interfaces de tripulación (70, 400-450) para emitir información visible, de audio y táctil a un piloto humano para el control de vuelo, teniendo el controlador un circuito de procesamiento y un circuito de memoria, teniendo los circuitos de memoria instrucciones ejecutables por el circuito de procesamiento, en el que dicho circuito de procesamiento cuando ejecuta las instrucciones está configurado para llevar a cabo el procedimiento de cualquiera de las reivindicaciones 1 a 13.
ES18792987T 2017-10-25 2018-10-24 Control de diversos tipos de interfaz de tripulación para el control de vuelo Active ES2902399T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB1717544.9A GB201717544D0 (en) 2017-10-25 2017-10-25 Control of diverse types of crew interface for flight control
EP17275172.9A EP3476743A1 (en) 2017-10-25 2017-10-25 Control of diverse types of crew interface for flight control
PCT/GB2018/053074 WO2019081924A1 (en) 2017-10-25 2018-10-24 CONTROL OF VARIOUS TYPES OF CREW INTERFACE FOR FLIGHT CONTROL

Publications (1)

Publication Number Publication Date
ES2902399T3 true ES2902399T3 (es) 2022-03-28

Family

ID=63965701

Family Applications (1)

Application Number Title Priority Date Filing Date
ES18792987T Active ES2902399T3 (es) 2017-10-25 2018-10-24 Control de diversos tipos de interfaz de tripulación para el control de vuelo

Country Status (4)

Country Link
US (1) US11927460B2 (es)
EP (1) EP3700815B1 (es)
ES (1) ES2902399T3 (es)
WO (1) WO2019081924A1 (es)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3700815B1 (en) 2017-10-25 2021-12-01 BAE Systems PLC Control of diverse types of crew interface for flight control
US11509154B1 (en) 2022-01-13 2022-11-22 Beta Air, Llc System for establishing a primary function display in an electrical vertical takeoff and landing aircraft

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2713791B1 (fr) * 1993-12-14 1996-02-02 Aerospatiale Procédé et dispositif pour détecter des incohérences d'opérations dans un système à phases de fonctionnement multiples.
US7113202B2 (en) 2002-09-20 2006-09-26 The Boeing Company Autotiller control system for aircraft utilizing camera sensing
US6937165B2 (en) 2002-09-23 2005-08-30 Honeywell International, Inc. Virtual rumble strip
AU2005326186A1 (en) 2004-08-17 2006-07-27 Borealis Technical Limited Aircraft drive
US7751976B2 (en) 2005-08-26 2010-07-06 Sikorsky Aircraft Corporation Rotary wing aircraft flight control system with a proximity cueing and avoidance system
US20070142980A1 (en) * 2005-12-19 2007-06-21 Marc Ausman Avionics method and apparatus
FR2917852B1 (fr) 2007-06-25 2014-06-20 Airbus France Procede et dispositif pour determiner une position fiable d'un aeronef
US7714744B1 (en) * 2008-02-08 2010-05-11 Rockwell Collins, Inc. Systems and methods for generating alert signals in an airspace awareness and warning system
US9245450B1 (en) * 2008-07-03 2016-01-26 Rockwell Collins, Inc. System, apparatus, and method for generating runway visual aids on an aircraft display unit
US8386092B1 (en) 2008-09-02 2013-02-26 Rockwell Collins, Inc. Hold line awareness using tactile devices
US10002538B2 (en) 2009-05-14 2018-06-19 Honeywell International Inc. Aircraft clearance enforcement
US8193948B1 (en) 2009-09-30 2012-06-05 Rockwell Collins, Inc. System, module, and method for presenting runway advisory information to a pilot
FR2960680B1 (fr) 2010-05-28 2013-05-17 Airbus Operations Sas Systeme embarque a bord d'un aeronef
GB2500390A (en) * 2012-03-19 2013-09-25 Ge Aviat Systems Ltd Audio-visual briefing for flight-crew with data relevant to particular flight phases
FR2988851B1 (fr) * 2012-03-28 2014-04-25 Dassault Aviat Procede de determination d'un etat de credibilite de mesures d'un capteur d'incidence d'un aeronef et systeme correspondant
FR2988833B1 (fr) * 2012-03-28 2014-04-25 Dassault Aviat Dispositif d'affichage de caracteristiques de vol d'un aeronef, instrumentation pour aeronef et procede associe
FR2989181B1 (fr) * 2012-04-04 2015-03-27 Eurocopter France Procede et dispositif d'adaptation de l'interface homme-machine d'un aeronef selon le niveau de l'etat fonctionnel du pilote
FR3001066B1 (fr) * 2013-01-11 2015-02-27 Airbus Operations Sas Systeme d'assistance au guidage d'actions a realiser par un operateur sur un aeronef.
US9296488B2 (en) * 2013-03-06 2016-03-29 3Rd Millennium Solutions, Inc. Aircraft braking early warning system
FR3006050B1 (fr) 2013-05-27 2016-05-06 Airbus Operations Sas Procede et systeme d'aide a la navigation d'un aeronef.
FR3018912B1 (fr) * 2014-03-18 2017-11-24 Airbus Operations Sas Procede et dispositif d'estimation automatique de parametres lies a un vol d'un aeronef.
US10514707B1 (en) * 2014-06-26 2019-12-24 Rockwell Collins, Inc. Flight phase stability indicator system and method
FR3026508B1 (fr) * 2014-09-26 2017-11-03 Thales Sa Aide contextuelle a la gestion du vol
US20170310749A1 (en) * 2016-04-25 2017-10-26 Honeywell International Inc. Methods and apparatus for flight briefing data synchronization
US10891867B2 (en) * 2016-09-15 2021-01-12 The Mitre Corporation Digital copilot
US10302450B1 (en) * 2017-06-19 2019-05-28 Rockwell Collins, Inc. Methods and systems for high accuracy and integrity estimation of flight critical aircraft states
EP3700815B1 (en) 2017-10-25 2021-12-01 BAE Systems PLC Control of diverse types of crew interface for flight control

Also Published As

Publication number Publication date
EP3700815B1 (en) 2021-12-01
US20200264010A1 (en) 2020-08-20
WO2019081924A1 (en) 2019-05-02
EP3700815A1 (en) 2020-09-02
US11927460B2 (en) 2024-03-12

Similar Documents

Publication Publication Date Title
US8781654B2 (en) Method and device for aiding the approach of an aircraft during an approach phase for the purpose of landing
CN105818991B (zh) 用于显示快速预览给飞行员的通知的系统和方法
US8155806B2 (en) Aircraft display systems and methods for enhanced display of landing information
US9139307B2 (en) Aircraft systems and methods for displaying runway lighting information
US20100030405A1 (en) Aircraft display systems and methods for enhanced display of flight path information
CN104376744B (zh) 用于提供指示所需到达时间的显示的显示系统和方法
US9008873B1 (en) Methods and systems for landing decision point
US8797191B2 (en) Systems and methods for displaying runway information
US9824598B2 (en) Flight hindrance display apparatus, flight hindrance display method, and computer-readable medium
US20170096237A1 (en) Tactile and peripheral vision combined modality hover drift cueing
US8010245B2 (en) Aircraft systems and methods for displaying a touchdown point
US20150019047A1 (en) Display systems and methods for providing displays having an integrated autopilot functionality
JP2013193731A (ja) 状況認識用の操縦士ブリーフィングツール
CN105730704B (zh) 用于显示预测共形配置提示以执行着陆的系统和方法
US20160123763A1 (en) Methods and systems for displaying flight information
ES2902399T3 (es) Control de diversos tipos de interfaz de tripulación para el control de vuelo
CN104908959A (zh) 用于在交叉起飞期间标识跑道定位的系统和方法
US20210350716A1 (en) Detecting and avoiding conflicts between aircraft
CN103699132A (zh) 一种用于辅助目视盘旋进近的装置及方法
US20210183256A1 (en) Landing assistance system and method for an aircraft upon total failure of the engines of the aircraft
GB2569851A (en) Control of diverse types of crew interface for flight control
EP3476743A1 (en) Control of diverse types of crew interface for flight control
Foyle et al. Flight deck surface trajectory-based operations (STBO): Simulation results and ConOps implications
Zammit et al. An enhanced automatic taxi control algorithm for fixed wing aircraft
Etherington et al. Increasing Pilot's Understanding of Future Automation State–An Evaluation of an Automation State and Trajectory Prediction System