ES2902451T3 - Control de parpadeo en imágenes de visualización usando matrices de elementos emisores de luz como se ven por un observador en movimiento - Google Patents

Control de parpadeo en imágenes de visualización usando matrices de elementos emisores de luz como se ven por un observador en movimiento Download PDF

Info

Publication number
ES2902451T3
ES2902451T3 ES13838557T ES13838557T ES2902451T3 ES 2902451 T3 ES2902451 T3 ES 2902451T3 ES 13838557 T ES13838557 T ES 13838557T ES 13838557 T ES13838557 T ES 13838557T ES 2902451 T3 ES2902451 T3 ES 2902451T3
Authority
ES
Spain
Prior art keywords
display
image
column
speed
controller
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13838557T
Other languages
English (en)
Inventor
Jong Hwi Han
Yeong Keun Lee
Oswald Kenneth Bicknell
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Adtrackmedia Inc
Original Assignee
Adtrackmedia Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Adtrackmedia Inc filed Critical Adtrackmedia Inc
Application granted granted Critical
Publication of ES2902451T3 publication Critical patent/ES2902451T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/34Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters by control of light from an independent source
    • G09G3/3406Control of illumination source
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/005Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes forming an image using a quickly moving array of imaging elements, causing the human eye to perceive an image which has a larger resolution than the array, e.g. an image on a cylinder formed by a rotating line of LEDs parallel to the axis of rotation
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/1423Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display
    • G06F3/1446Digital output to display device ; Cooperation and interconnection of the display device with other functional units controlling a plurality of local displays, e.g. CRT and flat panel display display composed of modules, e.g. video walls
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/22Advertising or display means on roads, walls or similar surfaces, e.g. illuminated
    • G09F2019/221Advertising or display means on roads, walls or similar surfaces, e.g. illuminated on tunnel walls for underground trains
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0247Flicker reduction other than flicker reduction circuits used for single beam cathode-ray tubes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2320/00Control of display operating conditions
    • G09G2320/02Improving the quality of display appearance
    • G09G2320/0261Improving the quality of display appearance in the context of movement of objects on the screen or movement of the observer relative to the screen
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Control Of Indicators Other Than Cathode Ray Tubes (AREA)
  • Control Of El Displays (AREA)
  • Liquid Crystal Display Device Control (AREA)
  • Transforming Electric Information Into Light Information (AREA)
  • Alarm Systems (AREA)
  • Illuminated Signs And Luminous Advertising (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Instrument Panels (AREA)

Abstract

Un sistema para generar una imagen de visualización que tiene múltiples columnas de visualización de imágenes que comprende una primera columna de visualización de imágenes y una segunda columna de imágenes para que se vean por un observador en movimiento en un entorno de velocidad de vehículo variable, el sistema que comprende: una unidad de visualización que tiene una columna vertical de elementos de luz excitables, cada fila de la columna que tiene al menos un elemento de luz excitable, la unidad de visualización que se configura para ser colocada adyacente a un camino usado por un vehículo en movimiento; y un controlador configurado para: · recibir una velocidad del vehículo variable, incluyendo una primera velocidad y una segunda velocidad; · generar unos primeros parámetros de visualización en base a la primera de la velocidad del vehículo para al menos un elemento de fila en la primera columna de visualización de imágenes de las múltiples columnas de visualización de imágenes; · recibir una segunda velocidad del vehículo diferente de la primera velocidad del vehículo; · generar unos segundos parámetros de visualización en base a la segunda velocidad del vehículo para al menos un elemento de fila en la segunda columna de visualización de imágenes de las múltiples columnas de visualización de imágenes; y · transmitir los primeros y segundos parámetros de visualización a la unidad de visualización; en donde la unidad de visualización está configurada para generar la imagen de visualización en base a los primeros y segundos parámetros de visualización de manera que la primera columna de visualización de imágenes y la segunda columna de visualización de imágenes de la imagen de visualización se generen ambas secuencialmente a partir de la misma columna de elementos de luz excitables, en donde la primera columna de visualización de imágenes y la segunda columna de visualización de imágenes están configuradas para ser agregadas por el sistema visual humano para construir una única imagen de visualización; donde los parámetros de visualización incluyen cualquiera de en qué tiempo comenzar a excitar/activar los elementos de excitación, qué duración excitar/activar los elementos de excitación, variabilidad de color y brillo para mostrar la imagen, frecuencia de activación y/o tasa de cuadros.

Description

DESCRIPCIÓN
Control de parpadeo en imágenes de visualización usando matrices de elementos emisores de luz como se ven por un observador en movimiento
Campo
La presente invención se refiere a la visualización de imágenes usando una matriz de elementos emisores de luz como se ven por un observador en movimiento.
Antecedentes
Existen métodos de visualización convencionales que colocan un anuncio u otro visualizador informativo en la fachada de una tienda o en un escaparate o para un anuncio en exteriores. Ejemplos de visualizadores incluyen un letrero pintado o impreso, así como el uso de un letrero digital que comprende un letrero de neón o LED. También se usan sistemas de visualización de tipo televisor grande mejorado, televisor de cristal líquido o LED tal como un Jumbotron.
No obstante, según cada uno de estos métodos de visualización convencionales, el visualizador se dirige principalmente hacia una persona de pie, una persona que se mueve muy lentamente junto al letrero y, por lo tanto, los métodos convencionales implican el problema de que una persona que se mueve a alta velocidad en las inmediaciones de un aparato de visualización no puede ver el contenido de visualización con ningún detalle requerido con el fin de comprender y reconocer completamente la información de visualización contenida en el letrero. Con el reciente aumento de la velocidad de los vehículos y la reciente reducción del espacio para la construcción de una torre publicitaria o similar, está aumentando la necesidad de un aparato de visualización en el que el contenido de visualización se pueda ver correctamente incluso desde un vehículo en movimiento.
Un avance en la visualización de contenido en las inmediaciones de un vehículo que se mueve rápidamente se ha propuesto por Tokimoto en la patente de EE.UU. 5.202.675 y por Margetson en la patente de e E.UU. 6.169.368. Estos sistemas descritos usan un concepto de imagen secundaria con el fin de ayudar a coordinar la visualización de una imagen digitalmente adyacente con un vehículo que se mueve rápido.
El documento US6169368 describe un visualizador visual que tiene una matriz de fuentes de luz accionadas por un controlador en una secuencia dada según un programa almacenado para mostrar publicidad a un observador que pasa por ella a una velocidad predeterminada, por ejemplo, en tren.
No obstante, la experiencia ha demostrado que estos sistemas descritos sufren de parpadeo de imagen y/o deriva de imagen de la imagen mostrada, una consecuencia de la variabilidad en la velocidad del vehículo. También se observa que las investigaciones actuales sobre la percepción de imágenes por el sistema visual humano han demostrado que la persistencia de los fenómenos de imagen puede no considerar nuestra capacidad para percibir una secuencia de cuadros como una imagen en movimiento continua y puede no considerar nuestra capacidad de agregar una serie de imágenes destelladas en una imagen compuesta. Más bien, la creencia actual es que el efecto de movimiento aparente de corto alcance y el efecto beta consideran y explican la capacidad del sistema visual humano de reconocer una secuencia de cuadros como una imagen en movimiento continua, así como de agregar una serie de imágenes destelladas en una imagen compuesta.
Una desventaja adicional de los sistemas de Tokimoto o Margetson es que los protocolos de comunicación (por ejemplo, TCP/IP) usados entre una fuente de datos de visualización y la unidad de visualización requieren componentes de hardware costosos para proporcionar velocidades de comunicación rápidas, pero pueden ser difíciles de sincronizar las señales de control para los diversos elementos de visualización para una pluralidad de dispositivos de visualización adyacentes. Una desventaja adicional en los sistemas existentes es el uso de protocolos de comunicación (por ejemplo, RS485) que proporciona una simplicidad de componentes de hardware pero con un coste de tiempos de tránsito indeseables para transferir grandes cantidades de datos entre la fuente de datos y las unidades de visualización. Esta desventaja se llega a acentuar a velocidades de vehículo más altas. También, actualmente la generación de imágenes panorámicas como una amalgama de diferentes imágenes mostradas a diferentes velocidades de vehículo es problemática, en vista de la continuidad panorámica y los problemas de parpadeo de la imagen.
Compendio
Es un objeto de la presente invención obviar o mitigar al menos una de las desventajas presentadas anteriormente. Los sistemas de formación de imágenes actuales para mostrar imágenes a observadores en movimiento sufren de parpadeo de imagen y/o deriva de imagen de la imagen mostrada que es una consecuencia de la variabilidad en la velocidad del vehículo, así como problemas en la generación de imágenes panorámicas como una amalgama de diferentes imágenes mostradas a diferentes velocidades del vehículo en vista de la continuidad panorámica y los problemas de parpadeo de la imagen. Estos sistemas también sufren de problemas de comunicación de datos inadecuada, en la medida que los protocolos de comunicación usados entre una fuente de datos de visualización y la unidad de visualización requieren componentes de hardware costosos para proporcionar velocidades de comunicación rápidas, pero puede ser difícil sincronizar las señales de control para los diversos elementos de visualización para una pluralidad de dispositivos de visualización adyacentes. La presente invención se define en las reivindicaciones independientes y diversos aspectos en las reivindicaciones dependientes.
Breve descripción de los dibujos
Se describirán ahora realizaciones ejemplares de la invención junto con los siguientes dibujos, solamente a modo de ejemplo, en los que:
la Figura 1 es una vista en perspectiva de un sistema de visualización que tiene una pluralidad de unidades de visualización;
la Figura 2a es una realización alternativa del sistema de la Figura 1;
la Figura 2b es una vista superior del sistema de la Figura 2a;
la Figura 2c muestra una combinación de elementos de imagen como una imagen de visualización de una unidad de visualización de la Figura 2a;
la Figura 2d muestra una imagen de visualización que tiene una serie de elementos de imagen mostrados por la unidad de visualización de la Figura 1 y la Figura 2a;
la Figura 2e es un elemento de imagen de ejemplo de la imagen de visualización de la Figura 2d;
la Figura 3 es una realización de red del sistema de visualización de la Figura 1;
la Figura 4 es una operación de ejemplo de un controlador de sistema del sistema de la Figura 3;
la Figura 5 es una operación de ejemplo de un controlador de visualización del sistema de la Figura 3;
la Figura 6a muestra una realización alternativa adicional del sistema de la Figura 1 que tiene múltiples unidades de visualización;
la Figura 6b muestra múltiples imágenes de visualización generadas por el sistema de la Figura 6a;
la Figura 6c muestra una realización alternativa de las múltiples imágenes de visualización generadas por el sistema de la Figura 6a;
la Figura 7 muestra una realización de red alternativa del sistema de la Figura 1;
la Figura 8 es una realización alternativa de detección de velocidad del sistema de la Figura 1;
la Figura 9 muestra una realización adicional del sistema de la Figura 1;
la Figura 10 muestra una secuenciación de temporización y de ubicación espacial de imágenes de visualización adyacentes para consideraciones de imagen panorámica y/o parpadeo de imagen para el sistema de la Figura 1; la Figura 11 es una realización alternativa de la Figura 10; y
la Figura 12 es una configuración de ejemplo de dispositivos del sistema de la Figura 1;
la Figura 13 es una realización adicional de una configuración de dispositivos del sistema de la Figura 1; y la Figura 14 es una realización adicional de una configuración de dispositivos del sistema de la Figura 1.
Sistema de información de visualización 10
Haciendo referencia a la Figura 1, se muestra un sistema de información de visualización 10 que incluye una serie 9 de unidades de visualización 12 situadas al lado de un camino de vehículo 14 (por ejemplo, calzada, vía de tren, etc.). Cada unidad de visualización 12 incluye una serie de elementos emisores de luz 16, de manera que los elementos 16 se exciten individualmente por un controlador de visualización 18 respectivo en respuesta a un programa de visualización almacenado predeterminado y representativo de una imagen de visualización I predeterminada. Por ejemplo, cada unidad de visualización 12 de la serie 9 consta de al menos una columna de altura L que contiene una pluralidad de filas R dispuestas verticalmente en la columna L de elementos de luz 16 excitables individual y selectivamente (por ejemplo, diodos emisores de luz (LED)). Se reconoce que cada fila R puede contener uno o más elementos 16 para representar un píxel P de una imagen de visualización I (véase la Figura 2d), de manera que un píxel se defina como el elemento controlable más pequeño de una imagen representada por la imagen de visualización I (por ejemplo, el término “píxel” se puede usar en lo abstracto, o como una unidad de medida, en particular cuando se usan píxeles como medida de resolución). Por ejemplo, cada fila R puede contener uno o más elementos emisores de luz 16 que se excitan juntos para proporcionar cada píxel P, con el fin de considerar la intensidad variable deseada de cada píxel P para las excitaciones secuenciales de cada uno de los elementos de fila 16 en la columna L de la unidad de visualización 12, con el fin de producir los píxeles P de los componentes de columna de imagen LN1 ... LNm individuales de la imagen de visualización I. Se reconoce que la colección de píxeles P en cada uno de los componentes de columna LN1... L1m componen los elementos de imagen de visualización compuesta (por ejemplo, componentes de imagen única) de la imagen de visualización I. Por consiguiente, se reconoce que cada unidad de visualización 12 individual se puede referir de manera única por el sistema 10 como LN (por ejemplo, L1, L2, L3, etc.), de manera que N se refiera al número de unidades de visualización en la serie 9. Por ejemplo, L1-i_m se refiere a la colección de componentes de columna de imagen para la unidad de visualización de imagen específica L1, L2-i_m se refiere a la colección de componentes de columna de imagen para la unidad de visualización de imagen específica L2, etc. La referencia “m” se refiere al número total de columnas de imagen que se agregan (por ejemplo, construyen) por el sistema visual humano para construir una única imagen de visualización IN, en comparación con una serie de imágenes de visualización IN (por ejemplo, I1, I2, I3 ... como imágenes de plano estático) mostradas en secuencia que se perciben por el sistema visual humano como un filme o película animada. Se reconoce que una explicación del funcionamiento antes señalado del sistema visual humano es “el efecto de movimiento aparente de corto alcance” y “el efecto beta”.
El uno o más elementos de fila 16 en cada fila R se pueden usar para controlar la intensidad de cada píxel P como variable, de manera que para las imágenes en color I un color de cada píxel P se pueda representar mediante una pluralidad (por ejemplo, dos, tres o cuatro) de intensidades de componentes tales como rojo, verde o rojo, verde, y azul o cian, magenta, amarillo y negro. Se reconoce que el color de cada píxel P se puede proporcionar por un elemento de fila 16 único capaz de emitir colores diferentes (por ejemplo, LED multicolores) y/o por una colección de elementos 16 de diferentes colores (por ejemplo, un grupo de LED dedicados de color - uno rojo, uno verde y uno azul - excitados en diferentes combinaciones para producir el color deseado del píxel P). También se reconoce que la intensidad de brillo de cada píxel P se puede variar por un elemento 16 capaz de emitir diferentes intensidades de brillo (por ejemplo, según diferentes voltajes de excitación según los parámetros 22) y/o mediante una colección de diferentes elementos 16 (por ejemplo, una agrupación de LED excitados en diferentes combinaciones numéricas -una en comparación con dos o más simultáneamente - para producir la intensidad de brillo deseada del píxel P). En cualquier caso, se reconoce que cada fila R puede contener uno o más elementos de fila 16 usados para formar cada píxel P de la imagen de visualización I.
En la operación general, el controlador 18 hace que los elementos 16 seleccionados en las filas R de la columna L de la unidad de visualización 12 se enciendan y apaguen, en una secuencia predeterminada según lo dictado por un paquete de datos 20 recibido, con un intervalo de tiempo de microsegundos (por ejemplo, que representan 455 píxeles a lo largo de una columna que se ilumina durante 0,042 segundos de duración). Como se describe además a continuación, el paquete de datos 20 contiene instrucciones de datos para cada uno de los elementos de fila 16 en la columna L, incluyendo los parámetros 22 tales como, pero no limitados a: en qué tiempo comenzar a excitar/activar, qué duración excitar/activar, variabilidad de color y brillo para la imagen de visualización I, frecuencia de activación y/o tasa de cuadros (por ejemplo, 1/24 segundos), etc.
Se reconoce que una serie de los parámetros 22 son dependientes de la velocidad V variable del vehículo 24 (por ejemplo, automóvil, tren, etc.) que viaja por el camino 14, que detecta en tiempo real por unos sensores de velocidad 26 situados adyacentes al camino 14 o montados de otro modo en el vehículo 24 en sí mismo. Se reconoce que la operación de los sensores de velocidad 26 en tiempo real se puede definir a medida que se realizan múltiples lecturas de velocidad V del vehículo o se identifican de otro modo por los sensores de velocidad 26 dentro del período de tiempo para la visualización de todos los píxeles P de la imagen de visualización l. Por ejemplo, se informa de una pluralidad de velocidades V en el período de tiempo (o períodos de tiempo) medido entre el inicio de la activación del primer elemento 16 de la imagen de visualización I en el primer componente de imagen de columna LN1 individual y el inicio de la activación del último elemento 16 de la imagen de visualización I en el último componente de imagen de columna LNm individual, o cualquier otro intervalo de tiempo entre los mismos. Se reconoce que el informe de las velocidades V puede ser sobre una base periódica (regular o irregular), según se desee, de manera que cada imagen de visualización I se visualice en base a los parámetros 22 determinados usando una pluralidad de diferentes velocidades V del vehículo, como se describe además a continuación.
En una realización, mostrada en la Figura 8, el sensor de velocidad 26 proporciona detección de velocidad de la velocidad V del vehículo 24 cronometrando el paso de estructuras 70 predefinidas de dimensión D conocida del vehículo 24 (por ejemplo, para automóviles, esta podría ser la longitud entre los ejes delantero y trasero del coche; para trenes, esta podría ser la longitud de los huecos entre los vagones individuales del tren - como se muestra). En términos del tren, la estructura 70 predefinida del hueco es una estructura repetida, de manera que cada vehículo 24 (por ejemplo, tren) tenga una pluralidad de estas estructuras 70 predefinidas, facilitando por ello múltiples mediciones de velocidad V para cada tren. La estructura 70 predefinida (por ejemplo, el hueco) es una dimensión D conocida obtenida utilizando mediciones representativas del vehículo 24 (por ejemplo, el material rodante prescrito del tren). En esta realización, el sensor de velocidad 26 envía un rayo detector (por ejemplo, luz tal como, pero no limitado a, infrarrojos, en la medida que los estándares actuales pueden no permitir un rayo láser en el túnel)) a través del camino 14 (por ejemplo, pista) desde una fuente de luz 72 a un reflector de luz 74 (o detector de luz), con el fin de detectar el tiempo de paso de la estructura 70 por el sensor de velocidad 26.
Usando el ejemplo del hueco entre los vagones de tren, la fuente de luz 72 y el reflector/detector de luz 74 se colocarían en lados opuestos del camino 14, de manera que los bordes del hueco se detectarían por la presencia del haz de luz en (o reflejado desde) el reflector 74. Usando el tiempo detectado entre los bordes del hueco y la dimensión D conocida del hueco, la velocidad del vehículo 24 se puede calcular usando ecuaciones de velocidad apropiadas tales como, pero sin limitarse a, velocidad igual a distancia dividida por tiempo. Por lo tanto, cuando no está presente ningún vehículo 24, como durante el hueco entre los vagones del tren, el haz de luz se puede reflejar de vuelta al sensor causando una respuesta positiva, de manera que la duración de esta respuesta positiva se convierta entonces en una tasa de velocidad en base a la distancia conocida entre los vagones de tren. Se reconoce que se pueden usar otras disposiciones de fuente de luz 72 y reflector/detector 74 para informar al sensor de velocidad 26 de la duración del paso de la dimensión D conocida de la estructura 70 predefinida del vehículo 24, según se desee. Se prevé que las múltiples mediciones de velocidad V del vehículo 24 se podrían lograr para el ejemplo del tren midiendo la velocidad V del tren cuando el hueco posterior (u otra estructura 70 predefinida) pasa por el sensor de velocidad 26 (o matriz de sensores de velocidad 26 en el caso de que el sistema 10 tenga más de un sensor de velocidad 26). Se reconoce que se pueden determinar múltiples mediciones de velocidad V detectando la velocidad para el paso de cada estructura 70 predefinida (por ejemplo, cada vez que se identifica el hueco) o para un subconjunto especificado de la pluralidad de estas estructuras 70 predefinidas (por ejemplo, cada segundo hueco, el primer y medio hueco del tren, etc.), según se usa por el controlador de visualización 18 y/o el controlador de sistema 30 para coordinar la visualización de la imagen IN para cualquier unidad de visualización 12 o las respectivas unidades de visualización 12 de la serie 9.
En términos del número de sensores de velocidad 26 para el sistema 10, este se podría proporcionar como al menos un sensor de velocidad 26 (por ejemplo, incluyendo la fuente de luz 72 y el reflector/detector 74) por serie 9 de las unidades de visualización 12. Como ejemplo del sensor de velocidad 26, esta disposición se podría realizar como que se coloca en una carcasa de la unidad de visualización 12 en sí misma para una o más de las unidades de visualización 12 de la serie 9. También se reconoce que los sensores de velocidad 26 se podrían colocar junto a una o más de las unidades de visualización 12, según se desee.
En una realización adicional, como se muestra en la Figura 13, el sistema tiene una pluralidad de unidades de detección de ubicación 301a y 301b para detectar la ubicación del vehículo (tren) 24 que viaja por el camino 14, y el sensor de velocidad 26 puede detectar la velocidad del vehículo 24 en movimiento cuando la ubicación del vehículo 24 en movimiento se detecta por las unidades de detección de ubicación 301a y 301b. En este caso, el sensor de velocidad 26 se coloca entre las unidades de detección de ubicación 301a y 301b para operar en conexión con las unidades de detección de ubicación 301a y 301b.
Específicamente, cuando cualquiera de las unidades de detección de ubicación 301a y 301b colocadas en los lados del extremo delantero y trasero a lo largo del camino 14 detecta la ubicación del vehículo 24 en movimiento, el sensor de velocidad 26 colocado entre la unidad de detección de ubicación delantera 301a y la unidad de detección de ubicación trasera 301b realiza una operación para detectar la velocidad del vehículo 24 en movimiento del cual se detecta la ubicación, que está destinada a evitar que ocurran errores de detección de velocidad cuando cualquier unidad de detección de ubicación 301a o 301b detecta la ubicación del vehículo 24 en movimiento. Por consiguiente, las imágenes se pueden mostrar secuencialmente en las unidades de visualización 12 en respuesta a la velocidad del vehículo 24 en movimiento, mientras que las imágenes mostradas en las unidades de visualización 12 se pueden mostrar claramente a los pasajeros del vehículo 24 detectando con precisión la velocidad del vehículo 24 en movimiento.
En una realización adicional, como se muestra en la Figura 14, se proporciona una pluralidad de sensores de rayo láser 311a y 311b para detectar la ubicación y la velocidad del vehículo (tren) 24 que viaja por el camino 14 en las partes delantera y trasera del vehículo 24 en movimiento. Por consiguiente, la ubicación y la velocidad del vehículo en movimiento se pueden medir con precisión mientras que las imágenes se pueden mostrar en las unidades de visualización 12 de una forma suave y natural.
Específicamente, como se muestra en la Figura 14, en un estado en el que la pluralidad de sensores de rayo láser 311a y 311b están dispuestos en el camino 14 del vehículo 24 en movimiento, los sensores de rayo láser 311a y 311b están hechos para medir simultáneamente tanto la ubicación como la velocidad del vehículo 24 en movimiento mientras que el vehículo 24 está viajando por el camino 14. Por consiguiente, las imágenes se pueden mostrar secuencialmente en las unidades de visualización 12 en respuesta a la ubicación y velocidad del vehículo 24 en movimiento mientras que las imágenes mostradas en las unidades de visualización 12 se pueden mostrar claramente a los pasajeros del vehículo 24 detectando con precisión la ubicación y la velocidad del vehículo 24 en movimiento.
Como tal, el par de unidades de detección de ubicación (o presencia) 301a, b con el sensor de velocidad 26 colocado entre ellas se puede usar para detectar la colocación del vehículo 24 en el camino 14 así como para facilitar la medición de la velocidad y dirección del vehículo 24 y de ahí la velocidad. Los sensores de ubicación 301a, b pueden estar separar hacia el principio y el final del vehículo 24, no obstante, también se podría configurar para tener la separación de los sensores de ubicación 301a, b hacia cualquier extremo de uno o más coches/partes individuales del vehículo. 24 (por ejemplo, vagón de tren). Como tal, se reconoce que la distancia entre las unidades de detección 301a, b está predefinida/es conocida y se puede usar en la determinación de la velocidad, dirección y/o detección de presencia del vehículo 24.
Por ejemplo, cuando cualquiera de las unidades de detección de ubicación 301a y 301b detecta la ubicación o presencia del vehículo 24, se puede suponer que el vehículo 24 está presente y entonces el detector de velocidad 26 se puede usar para identificar la velocidad del vehículo 24. Si la otra de las unidades de detección 301a o 301b también detecta la presencia del vehículo 24, entonces se puede determinar/confirmar tanto la presencia como la dirección de viaje del vehículo 24, lo que se puede usar para inhibir que ocurran errores de detección de velocidad cuando solamente cualquier unidad de detección de ubicación 301a o 301b detecta la ubicación. Como tal, se determine que ambas de las unidades de detección 301a, b pueden detectar antes la velocidad (tanto la velocidad como la dirección). Alternativamente, la detección de ubicación puede ser lo primero y luego la determinación de la velocidad puede ir en segundo lugar, en la medida que tanto la presencia como la dirección se pueden identificar y confirmar mediante la operación y la detección de las unidades de detección de ubicación 301a, b.
Un ejemplo de operación del detector de velocidad 26 y las unidades de detección de ubicación 301a, b es de la siguiente manera.
Hay múltiples de estos dispositivos 301a, b y/o detector de velocidad 26 configurados a lo largo del camino del sistema 14, tanto a lo largo de las ubicaciones de visualización del camino 14 como/o en ubicaciones no de visualización del camino 14. La forma en que los componentes 301a, 301b, 26, y el software residente en la unidad de detección de velocidad 26, junto con el procesador principal, determinan la velocidad y la dirección de un vehículo 24 de tren que pasa de la siguiente manera:
• la unidad de detección 301a o 301b detecta la presencia del vehículo 24;
• Que también inicia un reloj/temporizador del procesador;
• La distancia desde la unidad de detección 301a a 301b se conoce y almacena en un almacenamiento para su recuperación por el procesador;
• cuando la otra unidad detectora 301a o 301b detecta entonces la presencia del vehículo 24, el cálculo de tiempo y distancia realizado por el procesador determina la velocidad del vehículo 24;
• dependiendo de cuál de la unidad 301a o 301b detectó primero la presencia del vehículo 24, la segunda activación de la otra unidad 301b o 301a se usa posteriormente para determinar la dirección del vehículo 24.
Como tal, si la unidad 301a y no la unidad 301b detecta la presencia del vehículo 24, o la unidad 301b y no la unidad 301a, detecta la presencia del vehículo 24, entonces no se determina la velocidad en la medida que no se completa el cálculo del tiempo y la distancia. Para que quede claro si solamente una unidad 301a, b detecta y no la otra unidad 301a, b, entonces la lectura de detección de ubicación se descarta como una lectura errónea.
Desde la perspectiva de la detección, la detección de la ubicación por ambas unidades de detección 301a, b facilita 1) la medición de la velocidad, 2) la presencia de detección del vehículo 24 y 3) la dirección de desplazamiento del vehículo 24.
En vista de las realizaciones del sensor de velocidad 26 de ejemplo anterior, el parámetro 22 de tiempo para comenzar a excitar/activar se puede ver afectado por la velocidad variable del vehículo 24, de manera que los cambios en la velocidad del vehículo 24 causarían un retardo en el tiempo para comenzar a excitar y/o un avance en el tiempo para comenzar a excitar un elemento de fila 16 en comparación con un elemento de fila 16 diferente en el mismo componente de columna de imagen LN-i-m individual (es decir, diferentes velocidades V del vehículo usadas para diferentes elementos 16 en diferentes posiciones verticales en la columna L) y/o el mismo elemento de fila 16 en componentes de columna de imagen L1 ... L-im individuales adyacentes (es decir, diferentes velocidades V del vehículo usadas para diferentes elementos 16 en la misma posición horizontal en diferentes componentes de imagen de columna LNm). Como otro ejemplo, el parámetro 22 de duración para excitar/activar se puede ver afectado por velocidad variable del vehículo 24, de manera que los cambios en la velocidad del vehículo 24 causarían una disminución en la duración para excitar/activar y/o un aumento en la duración para excitar/activar un elemento de fila 16 en comparación con un elemento de fila 16 diferente en el mismo componente de columna de imagen Ln individual y/o el mismo elemento de fila 16 en componentes de columna de imagen L11 ... L1m individuales adyacentes. Por lo tanto, se reconoce que los parámetros 22 se usan por el controlador de visualización 18 para activar cada elemento 16 de la columna LNm con el fin de producir cada uno de los píxeles P de la imagen de visualización I según se percibe por el pasajero del vehículo 24, teniendo en cuenta la velocidad V variable del vehículo que afecta a los parámetros de visualización para dos o más píxeles de la imagen de visualización l. En otras palabras, se reconoce que diferentes píxeles P de la misma imagen de visualización I pueden tener parámetros 22 basados en diferentes velocidades V del vehículo, según se miden por uno o más sensores de velocidad 26.
En general, el efecto de activación de los elementos de fila 16 de la columna LNm, según los parámetros 22 recibidos, prevé un pasajero (del vehículo 24) que mira la serie 9 de unidades de visualización 12 a medida que pasa el vehículo 24, que percibirá una visualización de una secuencia de imagen I (véase la Figura 2c) que aparentemente se extiende sobre un área sustancialmente mayor que el área de visualización limitada real de la columna L de elementos 16. El efecto se logra porque con destellos de luz de duración relativamente corta de los elementos 16, que se controlan por los parámetros 22, combinados con el movimiento del vehículo 24, dan como resultado el sistema visual humano que procesa la visualización de la imagen I y las imágenes I sucesivas como movimiento aparente de corto alcance. De esta manera, el observador en movimiento percibe cada columna de luz aparente L11 ... L1m combinada como un cuadro de imagen I con dimensiones de L x M. Las imágenes I sucesivas que consisten en columnas de luz L1 ... LN dan como resultado el movimiento aparente de corto alcance de las imágenes I1 a IN. De este modo, cuando una serie (es decir, activaciones múltiples sucesivas de cada uno de los elementos 16 en serie para producir los componentes de columna de imagen L11 ... L1m percibida de manera adyacente de la imagen de visualización I1), todos los destellos parecen al ojo haber ocurrido en el mismo momento, de manera que mientras que el observador se ha movido con relación a la matriz, el ojo percibe un patrón de luz compuesto como imagen de visualización I1, que comprende la serie de componentes de columna de imagen L11 ... L1m individuales emitidos por la columna L respectiva de la unidad de visualización 12. El efecto de usar la columna L de los elementos de fila 16 para producir la imagen de visualización IN de ancho M se puede atribuir al efecto de movimiento aparente de corto alcance, de manera que la imagen IN de la unidad de visualización 12 (de la serie 9) se perciba como la colección/composición de los componentes de columna de imagen L11 ... L1m individuales que permanecen visibles al mismo tiempo que se perciben por el pasajero del vehículo 24 cuando se mira a la unidad de visualización 12 a medida que el vehículo 24 pasa por la unidad de visualización 12 a la velocidad V variable medida en tiempo real.
En vista de los avances en el conocimiento científico concernientes al funcionamiento del sistema visual humano con respecto a las imágenes mostradas I de corta duración, (es decir, menos de 0,06 segundos, menos de 0,055 segundos, menos de 0,05 segundos, menos de 0,045 segundos, menos de 0,043 segundos, menos de 0,042 segundos) el concepto de imagen residual ha sido reprendido en la comunidad científica durante los últimos 30 años. Ahora se reconoce que la comprensión anterior del concepto de persistencia de la visión se sabe ahora que es falsa. En realidad, no hay persistencia de los componentes de imagen producidos por múltiples activaciones secuenciales del aparato de visualización, sino que la imagen compuesta I1 ...IN se construye por el cerebro humano a medida que interpreta (por ejemplo, construye o agrega de otro modo) las columnas de imagen vertical LN1 ...LNm en un plano de imagen IN, y la secuencia de planos de imagen I1 ...IN en una imagen en movimiento también se conoce como el efecto de movimiento aparente de corto alcance. En otras palabras, el efecto de movimiento aparente de corto alcance permite al observador percibir el movimiento suave como opuesto a los cuadros de imagen discretos que se muestran realmente. El efecto Beta se basa en cambios entre píxeles en los planos de imagen I1 a IN, así como cambios entre filas R en los componentes de imagen de columna LN1 ... LNm adyacentes de cada imagen IN individual. En ausencia de cualquier otro punto de referencia, los objetos visuales que cambian de ubicación dentro de cada plano de imagen sucesivo se perciben por la mente como que se mueven con relación al plano de imagen en base a la información proporcionada por ciertas neuronas en la retina del sistema visual humano que se especializan en detectar movimiento.
De esta manera, la imagen visualizada I contiene el contenido de visualización de píxeles P utilizando el movimiento real del pasajero que viaja a una velocidad V en tiempo real variable, de manera que la unidad de visualización 12 pueda mostrar una imagen de visualización IN que contiene un mayor número de píxeles P aparentes que el número de elementos emisores de luz 16 contenidos en las filas R de la columna LN. Por ejemplo, haciendo referencia a la Figura 2a, un aparato de visualización unidimensional que consiste en (Lx1) elementos de imagen (es decir, píxeles P) se dispone verticalmente, y el vehículo 24 en movimiento se mueve a una velocidad de V m/s en un punto separado del aparato de visualización 12 por una distancia vertical de hm. El valor h se determina por el ángulo del campo visual del observador y el área de visualización. La FIG. 2b es una vista en planta de la FIG. 2a. Suponiendo que el tiempo de visualización de un plano de imagen se t ms, el observador se mueve xm durante t ms, como se muestra por la ecuación de x = (x0 x t)/1000. En este punto, para el observador, parece que el aparato de visualización se mueve relativamente en xm FIG. 2c. Si se muestran nuevos datos (activación de los elementos de fila 16 según los parámetros 22 recibidos) cada t/M ms en el aparato de visualización unidimensional, es decir, se alimenta un nuevo conjunto de parámetros 22 a cada elemento 16 de la columna L para cada fracción t/M ms de t ms, se puede obtener una imagen de visualización IN de (LxM) elementos de imagen (por ejemplo, píxeles P) FIG.
2d. Suponiendo que el tamaño del elemento de imagen es de delta y por delta x como se muestra en la FIG. 2e, delta y se determina por el intervalo de tiempo de activación entre los elementos de visualización 16 del aparato de visualización 12 unidimensional para cada uno de los componentes de columna de imagen LN, y delta x se determina por la velocidad de movimiento V del observador y una velocidad de cambio de cada elemento de fila 16, de manera que delta x represente uno de los componentes de columna de imagen LN (por ejemplo, que representa la activación sucesiva del mismo elemento de fila 16 según un nuevo conjunto de parámetros 22). Se reconoce que las sucesivas activaciones del mismo elemento de fila 16 se pueden implementar por el controlador de visualización (a través de los parámetros 22) usando la misma velocidad para cada una de las activaciones de las sucesivas activaciones o diferentes velocidades para cada una de las activaciones de las sucesivas activaciones, como se trata además a continuación.
Haciendo referencia a la Figura 9, se muestra una realización adicional del sistema 10 que tiene el vehículo 24 viajando a lo largo del camino 14 con una o más zonas de visualización inhibidas IZ, tales como aquellas partes del vehículo 24 (por ejemplo, un tren) en las que se sitúa el personal del tren 76 (por ejemplo, el conductor). El sistema 10 está configurado para identificar las zonas de inhibición IZ de manera que la unidad o unidades de visualización 12 no se activen (es decir, sus respectivos elementos de fila 16 se excitan para producir la imagen IN) cuando la zona o zonas de inhibición IZ están dentro de la línea de visión LS de la unidad o unidades de visualización 12. Un sensor de ubicación 27 se usa por el sistema 10 para informar al controlador 18 (y/o controlador 30) que haga que los elementos 16 seleccionados en las filas R de la columna L (véase la Figura 1) de la unidad de visualización 12 se APAGUEN y/o permanezcan APAGADOS mientras que la zona inhibida IZ permanece dentro de la línea de visión LS de cualquier imagen IN que se podría producir por la operación de la unidad o unidades de visualización 12. La función de temporización retardada (por ejemplo, operación inhibida) de la unidad de visualización 12 permite mantener cualquier visualizador activado para que no permanezca visible para los operadores de tren 76 (es decir, aquellos individuos situados en la zona inhibida IZ), y se implementa como una mejora de seguridad. La temporización de la operación inhibida de la unidad o unidades de visualización 12 dentro de la línea de visión LS de la zona inhibida IZ se puede facilitar retardando (o restringiendo de otro modo) el disparo de las unidades de visualización 12 durante un período de tiempo suficiente para permitir que el compartimento de los conductores del vagón de tren (por ejemplo, el primero) pase las unidades de visualización 12 pero antes de que la primera ventana del pasajero pase las unidades de visualización 12, como ejemplo de la zona inhibida IZ. Esto se puede hacer usando la velocidad V del vehículo 24 por el controlador 18 (y/o controlador 30) como se identifica por el sensor de velocidad 26, detectando una ubicación de referencia R del vehículo 24 por el sensor de ubicación 27 (por ejemplo, la parte delantera del tren), y estableciendo un reloj para retardar/restringir el disparo de las unidades de visualización 12 durante un período de tiempo suficiente para que el vehículo 24 viaje una distancia de la zona prescrita (que representa una longitud de línea de visión eficaz de la zona inhibida IZ con respecto a la ubicación de la unidad o unidades de visualización 12) pasada cada una de las unidades de visualización 12 dentro de la línea de visión de la zona inhibida IZ. La distancia de la zona prescrita se puede basar en mediciones y ubicaciones conocidas de cualquier zona o zonas inhibidas IZ identificadas del material rodante prescrito de los trenes que usan el camino 14.
En términos de la serie 9 de las unidades de visualización 12, se reconoce que algunas de las unidades de visualización 12 tendrían su operación de visualización restringida (o retardada), para aquellas actualmente en la línea de visión LS de la zona inhibida IZ, mientras que otras unidades de visualización 12 de la serie 9 tendrían permitida su operación de visualización para aquellas que actualmente están fuera de la línea de visión LS de la zona inhibida IZ. Se reconoce que podría haber una o más zonas inhibidas IZ para cualquier vehículo 24 (por ejemplo, un tren que tiene más de una ubicación de conductor 76), en las ubicaciones 76 al principio, al final y/o en el medio del vehículo 24.
Mientras tanto, el control de parpadeo de las imágenes de visualización según las realizaciones de la presente invención es de la siguiente manera. Cuando la información de imagen de un mensaje urgente se ha de actualizar en el controlador de sistema 30 en un estado en el que se están mostrando imágenes de promoción o publicidad en las unidades de visualización 12 usando el efecto de imagen secundaria, el controlador de sistema 30 transmite la información de imagen correspondiente al mensaje urgente al controlador de visualización 18, y el controlador de visualización 18 hace que se detenga la promoción de imágenes publicitarias que se muestran en las unidades de visualización 12 y luego muestra preferentemente la información de imagen correspondiente al mensaje urgente actualizado en las unidades de visualización 12. De este modo, se puede esperar un efecto de dotar a los pasajeros del vehículo en movimiento con información pública (por ejemplo, alarma de incendio, alarma de peligro, retraso del tren, advertencia de polvo amarillo, etc.).
Visualización de imagen de visualización I en base a la velocidad V variable
Como se ha tratado anteriormente, se reconoce que una ventaja del sistema de información de visualización 10 es inhibir el parpadeo y/o desvío de la imagen de visualización I debido a la variabilidad en la velocidad V del vehículo 24, variando los parámetros 22 (en base a cambios en la velocidad V en tiempo real) para cada elemento de fila 16 individual en la columna L (por ejemplo, los elementos 16 en diferentes filas R de la columna L para un componente de columna de imagen LNm individual particular tendrían cada uno parámetros 22 en base a diferentes velocidades V) y/o variando los parámetros 22 para un elemento de fila 16 particular en la columna L en excitaciones sucesivas (por ejemplo, elementos 16 en la misma fila R de la columna L para componentes de columna de imagen LN1... LNm sucesivos tendrían diferentes parámetros 22 en base a diferentes velocidades V). De esta manera, se reconoce que la velocidad V en tiempo real del vehículo 24, que se detecta por el sensor de velocidad 26, se usaría por un controlador de sistema 30 para calcular los parámetros 22 para los elementos 16, de manera que la velocidad V usada para calcular los parámetros 22 sería diferente para cada uno de dos o más elementos de fila 16 en el mismo componente de columna de imagen LN-i-m de la imagen de visualización IN y/o sería diferente para al menos un mismo elemento de fila 16 en componentes de columna de imagen LN1 ... LNm adyacentes de la imagen de visualización IN. De esta manera, se reconoce que al menos dos de los píxeles P de la imagen de visualización IN tendrían parámetros 22 en base a diferentes velocidades V, que se miden e informan en tiempo real por el sensor de velocidad 26.
Haciendo referencia a la Figura 3, el sistema de visualización de información 10 puede incluir un controlador de sistema 30 situado remoto de las unidades de visualización 12 y conectado a las unidades de visualización 12 a través de una red de comunicación 11 y conectado además a una red centralizada 78 más grande que permite carga en tiempo real del contenido de imagen (es decir, datos de color y/o brillo para cada uno de los elementos de fila 16 que cooperan para hacer que la imagen compuesta IN durante activaciones sucesivas, según se dicta por los parámetros 22 que son dependientes de la velocidad V del vehículo) que se podría controlar además por los datos de realimentación 80 con respecto a la demografía de otra información tal con respecto al contenido de población (por ejemplo, personas en edad escolar, personas de negocios, etc.) del vehículo 24. Un ejemplo de configuración es para túneles de tren donde el controlador de red centralizada 78 más grande se situaría remotamente del sistema de túneles del tren en cualquier lugar globalmente y se conecta a través de Internet 11 al controlador de sistema 30, que se situaría en el andén o estación del tren y las unidades de visualización 12 se montarían de manera remota de la estación en las paredes de los túneles del tren. Además, la conexión del sistema 10 a través de Internet/vpn/nube, o bien cableado o bien de manera inalámbrica al controlador de red 78 en el sitio remoto, podría proporcionar la carga, descarga y programación centralizadas de las imágenes almacenadas (representadas por los parámetros 22) en el sistema 10. En una realización preferida, la capacidad de difundir de manera continua contenido de imagen de visualización en tiempo real o casi real desde el controlador de red 78 al sistema 10 podría haber transmitido contenido 80 en base a los datos demográficos del próximo tren/vehículo 24 que se aproxima.
Se reconoce que la red de comunicación 11 se puede referir a una colección del controlador de sistema 30 y las unidades de visualización 12 interconectadas por canales de comunicación que permiten la compartición de recursos e información, por ejemplo, los paquetes de datos 20, como intercambio de información (por ejemplo, comunicación unidireccional, comunicación bidireccional, etc.). Por ejemplo, un proceso de coordinación de visualización que se ejecuta en el controlador de sistema 30 puede enviar/recibir datos hacia/desde al menos uno o más procesos de visualización que residen en los controladores de visualización 18 de las unidades de visualización 12 remotas, proporcionando por ello la colección de controladores en la red 11. También se considera que la red 11 se puede implementar como un sistema de red cableado, inalámbrico o una combinación de cableado e inalámbrico. Un ejemplo de implementación cableada de la red 11 puede incluir cable de par trenzado (por ejemplo, par trenzado no apantallado (UTP), par trenzado apantallado (STP), etc.). Ejemplos de protocolos de comunicación de los paquetes de datos 20 a través de la red 11 pueden incluir protocolos tales como, pero no limitados a: Ethernet, TCP/IP, interfaz periférica en serie (SPI), etc. Otros protocolos de comunicación pueden incluir RS485. También se reconoce que la comunicación de los paquetes de datos 20 puede ser como comunicaciones síncronas y/o asíncronas.
Haciendo referencia de nuevo a la Figura 3, el controlador del sistema 30 puede tener una memoria física 32 para almacenar los parámetros 22 que se usan por el controlador de visualización 18 para generar los píxeles P individuales de la imagen de visualización I. En el caso de velocidad V variable, un módulo de generación de parámetros 34 se puede usar por el controlador de sistema 30 para tener en cuenta las modificaciones de los parámetros 22 para considerar los cambios/variabilidad en la velocidad V del vehículo 24, según se informa en tiempo real por el sensor de velocidad 26. Se reconoce que el módulo de generación de parámetros 34 se puede implementar en diferentes modos con el fin de generar los parámetros 22 en base a la velocidad en tiempo real. Un modo de ejemplo es en el que el parámetro o parámetros 22 dependientes de la velocidad se almacenan en la memoria 32 en base a una velocidad representativa y el módulo de generación de parámetros 34 modifica el valor o valores del parámetro o parámetros 22 dependientes de la velocidad para considerar cualquier diferencia entre la velocidad V en tiempo real y la velocidad representativa. Otro modo de ejemplo es en el que la variable o variables independientes de la velocidad, tales como los datos de contenido de imagen, el estado del sistema para el parámetro o parámetros 22 se almacenan en la memoria 32 y el módulo de generación de parámetros 34 combina la variable o variables almacenadas con la velocidad V en tiempo real informada con el fin de generar el parámetro o parámetros 22 dependientes de la velocidad. Se reconoce que el parámetro o parámetros 22 independientes de la velocidad se pueden generar y almacenar en la memoria 32, proporcionando por ello eficiencia computacional al proporcionar los parámetros 22 (tanto dependientes de la velocidad como independientes de la velocidad) para efectuar la visualización de los elementos 16 de la unidad de visualización 12. En una realización alternativa, el módulo de generación de parámetros 34 se puede implementar por el controlador de visualización 18, de manera que se pueda acceder a la variable o variables y/o el parámetro o parámetros 22 en la memoria física local 36. En este caso, el controlador de visualización 18 recibiría la velocidad V en tiempo real desde el controlador de sistema 30 y/o directamente desde el sensor de velocidad 26, para su uso por el módulo de generación de parámetros 34 en la generación de los parámetros 22 dependientes de la velocidad.
Haciendo referencia de nuevo a la Figura 3, el controlador de sistema 30 puede tener un módulo de comunicación 38 para comunicar el paquete de datos 20 a través de la red 11 para su recepción por un módulo de comunicación 40 del controlador de visualización 18. Se reconoce que los módulos de comunicación 38, 40 pueden usar un protocolo de comunicación compartido (por ejemplo, SPI) para comunicar los paquetes de datos 20 entre ellos (por ejemplo, de manera síncrona o asíncrona) a través de la red 11. Además, como se ha tratado anteriormente, los paquetes de datos 20 pueden contener los parámetros 22 generados y/o la velocidad V en tiempo real según se desee.
Haciendo referencia a la Figura 4, la operación del módulo de generación de parámetros 34 para los parámetros 22 puede ser de la siguiente manera. En el paso 50, el módulo de generación de parámetros 34 determina la velocidad V en tiempo real (por ejemplo, según se informa por el sensor de velocidad 26) y en el paso 52 genera uno o más parámetros 22 para considerar la velocidad V en tiempo real para un número especificado de elementos 16 (por ejemplo, uno o más). Por ejemplo, el número especificado de elementos 16 puede ser para todos los elementos de fila 16 en un componente de imagen de columna Ln particular (por ejemplo, el mismo) o puede ser para un subconjunto (uno o más) de los elementos de fila 16 en un componente de imagen de columna LNm particular (por ejemplo, el mismo). En un ejemplo extremo, cada uno de los elementos de fila 16 en la columna L tendría los parámetros 22 calculados en base a una velocidad V en tiempo real diferente. En otras palabras, el módulo de generación de parámetros 34 comprobaría la velocidad V en tiempo real antes de generar el respectivo parámetro o parámetros 22 dependientes de la velocidad para cada uno de los elementos de fila 16 (en este caso, el número especificado de elementos de fila 16 es uno) en el mismo componente de imagen de columna LNm.
También se reconoce que la velocidad V en tiempo real se puede determinar (por ejemplo, según se informa por el sensor de velocidad 26) mediante el módulo de generación de parámetros 34 entre componentes de imagen de columna LNm individuales. En otras palabras, se puede usar la misma velocidad V en tiempo real para determinar los parámetros 22 para el número especificado de elementos 16 como todos los elementos de fila 16 en un componente de imagen de columna L11 particular (por ejemplo, el mismo) y luego se comprueba la velocidad en tiempo real y se usa una velocidad en tiempo real diferente (diferente de la usada en el cálculo de los parámetros 22 para el componente de imagen de columna L11) para determinar los parámetros 22 para el número especificado de elementos 16 como todos los elementos de fila 16 en un componente de imagen de columna L12 adyacente (por ejemplo, el mismo). En otras palabras, la velocidad V en tiempo real usada para determinar los parámetros 22 para un componente de imagen de columna L11 individual es diferente de la velocidad V en tiempo real usada para determinar los parámetros 22 para un componente de imagen de columna L12 individual, de manera que el componente de imagen de columna L11 individual y el componente de imagen de columna L12 individual comprendan partes del número total de píxeles P de la imagen de visualización I1. Por ejemplo, el componente de imagen de columna L11 individual podría ser adyacente al componente de imagen de columna L12 individual. En un ejemplo extremo, los elementos de fila 16 en un componente de imagen de columna LNm particular tendrían los parámetros 22 calculados en base a la misma velocidad V en tiempo real, que sería diferente de la velocidad V en tiempo real usada para determinar los parámetros 22 de los elementos de fila 16 en otro de los componentes de imagen de columna LNm. En otras palabras, el módulo de generación de parámetros 34 comprobaría la velocidad V en tiempo real antes de generar el parámetro o parámetros 22 dependientes de la velocidad respectivos para los elementos de fila 16 en diferentes componentes de imagen de columna LNm.
Además de lo anterior, se reconoce que cada uno de los diferentes componentes de imagen de columna LNm podría tener los elementos de fila 16 mostrados en base a diferentes velocidades V en tiempo real, es decir, V1, V2 ... Vn correspondientes a los componentes de imagen de columna L1m, L12 ... LNm, de manera que también podría haber variaciones en la velocidad V en tiempo real usada para algunos o todos los elementos de fila en los mismos componentes de imagen de columna LNm. En el ejemplo extremo, el módulo de generación de parámetros 34 podría comprobar la velocidad V en tiempo real antes de generar los parámetros 22 para cada uno de los elementos de fila 16 para cada uno de los píxeles P de la imagen de visualización P, por ejemplo, 256 filas R de la columna L y 128 componentes de imagen de columna LNm individuales podrían proporcionar 32768 (o R x Ln número de) comprobaciones y velocidades V en tiempo real potencialmente diferentes usadas en la generación de los parámetros 22 para todos los elementos 16 usados en la visualización de la imagen de visualización I de 32768 píxeles (suponiendo un elemento activado por fila R).
Se reconoce que el parámetro o parámetros 22 para diferentes números especificados de elementos de fila 16 se pueden realizar secuencialmente, es decir, los parámetros 22 para uno o más elementos de fila 16 se generan en base a una velocidad V del vehículo identificada y luego en el parámetro o parámetros 22 posteriores para el siguiente grupo de (es decir, uno o más) elementos de fila 16 se generan en base a una velocidad V del vehículo diferente.
En el paso 54 se transmiten los parámetros 22 generados para el número especificado de elementos 16 (por ejemplo, entre los controladores 18, 30 o entre el controlador 18 y la unidad de visualización 12) para su uso en la activación del elemento o elementos 16 correspondientes en la columna L de la unidad de visualización 12 para su uso en la generación de al menos una parte de un componente de imagen de columna LNm individual. En vista de lo anterior, en el caso extremo, la velocidad V en tiempo real se comprobaría en el paso 50 y el parámetro o parámetros 22 correspondientes se generarían en el paso 52 antes de la transmisión de los parámetros 22 a la unidad de visualización 12 para su uso en la activación del elemento o elementos 16 en cada fila R de la columna L para cada uno de los componentes de imagen de columna LNm. Según lo anterior, una ventaja es que el parámetro o parámetros 22 (una vez generados para una velocidad V del vehículo identificada) se pueden transmitir para su consumo por la unidad de visualización 12 mientras que el siguiente conjunto de parámetros 22 se está generando en base a la siguiente velocidad V del vehículo identificada, proporcionando de este modo la transmisión secuencial del parámetro o parámetros 22 para el consumo de la unidad de visualización 12 en la coordinación de la activación de los respectivos elementos de fila 16. Un protocolo de comunicación de ejemplo es SPI (como se describe a continuación) para la generación, transmisión y uso secuencial de un parámetro o parámetros para diferentes números especificados de elementos de fila 16 (en los mismos y/o en diferentes componentes de imagen de columna LNm).
Opcionalmente, en el paso 56, el módulo de comunicación 38 recibe datos de confirmación que son representativos del paquete de datos 20 que se recibe y procesa (dando como resultado la visualización de los elementos 16 afectados por el contenido del paquete de datos 20). En el paso 58, si la imagen de visualización I para la unidad de visualización 12 respectiva está completa (es decir, todos los píxeles P de la imagen de visualización IN se han activado para el paso de la vehículo 24), entonces se reinicia la operación de la unidad de visualización 12 hasta que se identifica el paso del siguiente vehículo y se repiten los pasos 50-58 del proceso. De otro modo, si quedan píxeles por ser activados para la imagen de visualización IN debido al paso continuo del vehículo 24 pasada la unidad de visualización 12, entonces el proceso se repite para los restantes elementos de fila 16 y/o componentes de imagen de columna LNm hasta que se completa el paso del vehículo 24. Un ejemplo de que el paso del vehículo 24 está completo es cuando el sensor 26 ya no detecta el paso del vehículo 24 y por ello informa al controlador o controladores 18, 30 de la ausencia del vehículo 24. También, se reconoce que la operación de las unidades de visualización 12 se puede coordinar por los controladores 18, 30 para tener en cuenta la operación retardada/restringida de la unidad o unidades de visualización 12 cuando se determina que están en la línea de visión LS de las ubicaciones predefinidas 76 (es decir, las zonas inhibidas IZ) .
Haciendo referencia a la Figura 5, se muestra una operación de ejemplo del controlador de visualización 18 en comunicación con la unidad de visualización 12. En el paso 60, el módulo de comunicación 40 recibe el paquete de datos 20 (por ejemplo, que contiene los parámetros 22 generados y/o la velocidad V en tiempo real). Opcionalmente, en el paso 62, el módulo de generación de parámetros 34 usa la velocidad V en tiempo real recibida para determinar los parámetros 22 dependientes de la velocidad. En el paso 64, los comandos de visualización en base a los parámetros 22 generados para el número especificado de elementos 16 se transmiten a la unidad de visualización 12 para su uso en la activación del elemento o elementos 16 correspondientes en la columna L de la unidad de visualización 12 para su uso en la generación de al menos una parte de un componente de imagen de columna LNm individual. En el paso 66, el controlador de visualización 18 activa los elementos 16 respectivos según los parámetros 22 recibidos y, opcionalmente, el módulo de comunicación 40 envía datos de confirmación representativos del paquete de datos 20 que se reciben y procesan (dando como resultado la visualización de los elementos 16 afectados por el contenido del paquete de datos 20). En el paso 68, si la imagen de visualización IN para la unidad de visualización 12 respectiva está completa (es decir, todos los píxeles P de la imagen de visualización IN se han activado para el paso del vehículo 24), entonces la operación de la unidad de visualización 12 se reinicia hasta que se identifica el paso del siguiente vehículo y se repiten los pasos 50-58 del proceso. De otro modo, si quedan píxeles por ser activados para la imagen de visualización IN debido al paso continuo del vehículo 24 pasada la unidad de visualización 12, entonces el proceso se repite para los restantes elementos de fila 16 y/o los componentes de imagen de columna LNm hasta que se completa el paso del vehículo 24.
Haciendo referencia a las Figuras 6a, b, c, se muestra un ejemplo de múltiples unidades de visualización 12 que se usan para mostrar la imagen de visualización IN cuando el vehículo 24 pasa por cada una de las unidades de visualización 12 en sucesión a una velocidad V variable, de manera que se obtenga una visualización de imagen IN continua durante un período de tiempo prolongado usando una pluralidad de aparatos de visualización unidimensionales. Las unidades de visualización 12 unidimensionales se disponen en la dirección del avance del vehículo 24. En el caso en el que el vehículo 24 se mueva de derecha a izquierda en los dibujos como se muestra, si el espacio entre dos unidades de visualización 12 unidimensionales adyacentes se establece apropiadamente, se puede obtener una visualización larga continua de planos de imagen (o cuadros) 1, 2, 3, N como se muestra en 6b o una visualización discontinua de cuadro a cuadro como se muestra en la FIG. 6c. Se reconoce que los planos de imagen 1, 2, 3, N pueden ser las mismas o diferentes imágenes de visualización. Por ejemplo, cuando la velocidad del miembro en movimiento es de 22 m/s y el tiempo de visualización es de 42 ms, se puede obtener una imagen de visualización I continua (tal como se percibe por el pasajero) si las unidades de visualización 12 están dispuestas a intervalos de alrededor de 920 mm. Por supuesto, cuando se obtiene una visualización cuadro a cuadro discontinua como se muestra en la FIG. 6c, no es necesario disponer las unidades de visualización 12 como adyacentes entre sí como se ha mencionado anteriormente. En vista de la discusión anterior sobre la consideración de la velocidad V variable del vehículo, se puede realizar el proceso descrito anteriormente para determinar y usar la velocidad V variable, de manera que la velocidad V usada para calcular los parámetros 22 para los elementos 16 de los píxeles para una de los las imágenes planas pueda ser diferente de la velocidad V usada para calcular los parámetros 22 para los elementos 16 de los píxeles para otra de las imágenes planas inhibiendo de este modo el parpadeo que se percibe por el observador en movimiento.
En vista de lo anterior, se reconoce que una ventaja del presente sistema de información de visualización 10 es inhibir la deriva y/o el parpadeo percibido por el pasajero para píxeles dentro del mismo componente de columna de imagen LNm de la misma imagen de visualización I, entre píxeles dentro de diferentes componentes de columna de imagen LN-i-m de la misma imagen de visualización I, y/o entre píxeles dentro de diferentes imágenes de visualización I y/o entre diferentes cuadros de la secuencia de imágenes IN. Esta reducción en la deriva y/o parpadeo de la imagen se proporciona en base al uso de una cantidad de velocidad V variable para calcular los parámetros 22 para diferentes elementos 16 como se ha proporcionado anteriormente en realizaciones de ejemplo, tal velocidad V que se mide e informa en tiempo real por el sensor de velocidad 26.
Los parámetros 22 también se pueden usar para controlar el grado de separación 82, o la falta del mismo, según se percibe por el pasajero del vehículo - véase la Figura 6c, entre los cuadros de imagen de visualización IN. Se reconoce que la presencia de la separación 82 impactaría en la capacidad del sistema 10 para crear una experiencia de imagen panorámica PI (véase la Figura 6b) del pasajero del vehículo, la experiencia de imagen panorámica PI que es la percepción de una imagen PI continua sobre múltiples planos de imagen IN cuando se ve desde el vehículo 24. Esta experiencia de imagen panorámica PI se puede lograr cronometrando el inicio de cada imagen de visualización IN (por ejemplo, 12) como sincronizada por el controlador de sistema 30 en comunicación con el controlador o controladores de visualización 18 respectivos con el final de la visualización de la imagen de visualización IN anterior (por ejemplo, 11) de la serie 9, es decir, el tiempo de inicio de activación (por ejemplo, parámetro 22 de tiempo de inicio) de los elementos de fila 16 en la primera columna de imagen LN1 de la imagen de visualización IN posterior se sincroniza para comenzar un período de tiempo de inicio predefinido correlacionado con el tiempo de inicio de activación (por ejemplo, parámetro 22 de tiempo de inicio) de los elementos de la fila 16 en la última columna de imagen LNm de la imagen de visualización I(N-1) anterior - véase la Figura 10. En una realización alternativa, el tiempo de inicio de activación de los elementos de fila 16 en la primera columna de imagen LN1 de la imagen de visualización IN posterior se configura para comenzar un período de tiempo de retardo predefinido (que se mide desde el tiempo de inicio de activación de la última columna de imagen LNm de la imagen de visualización I(N-1) anterior) correlacionado con el final de la duración de activación (por ejemplo, parámetro 22 de duración) de los elementos de fila 16 en la última columna de imagen LNm de la imagen de visualización I(N-1) anterior. Se reconoce que los tiempos de inicio/retardo se pueden ajustar en base a los cambios en velocidad V del vehículo entre la visualización de columnas de imágenes adyacentes en diferentes imágenes de visualización IN. Este control de separación 82 se puede usar en la generación de imágenes panorámicas PI como se ha tratado.
Un ejemplo de este período de tiempo de inicio predefinido es igual a (o ligeramente mayor que) la duración de activación de los elementos de fila 16 en la última columna de imagen LNm de la imagen de visualización I(N-1) anterior. Un ejemplo de este período de tiempo de retardo predefinido es igual a (o ligeramente mayor que) el tiempo de inicio de activación más la duración de activación de los elementos de fila 16 en la última columna de imagen LNm de la imagen de visualización I(N-1) anterior. En términos de visualización panorámica continua (véase la Figura 6b) que comprende una imagen compuesta de una pluralidad de imágenes de visualización IN adyacentes (por ejemplo, cada una de la pluralidad de imágenes de visualización IN procedentes de una unidad de visualización 12 diferente de la serie 9), cada una de las imágenes de visualización IN sería una parte de una imagen compuesta presentada como la visualización de la imagen panorámica PI. En otras palabras, el controlador de sistema 30 coordina a través de los parámetros 22 los tiempos de inicio y finalización de las imágenes de visualización IN individuales para crear una imagen panorámica PI segmentada, también denominada panoramas cosidos, que se hace uniendo múltiples imágenes de visualización IN adyacentes sin superponer las campos de visión (según se presentan por las imágenes de visualización IN individuales) para crear la imagen de visualización panorámica PI.
Se reconoce que el brillo de los píxeles se podría coordinar entre píxeles adyacentes en diferentes imágenes de visualización IN, con el fin de reforzar la percepción de las imágenes panorámicas PI por el sistema visual humano del pasajero del vehículo. Un ejemplo de esto es cuando el brillo de píxel relativo de píxeles adyacentes en diferentes imágenes de visualización IN es el mismo o, de otro modo, está dentro de una tolerancia de diferencia de brillo que no es perceptible como diferente por el pasajero del vehículo. Un ejemplo adicional de esto es cuando el brillo de píxel de píxeles adyacentes en diferentes imágenes de visualización IN se reduce a un nivel de brillo que no es perceptible como luz por el pasajero del vehículo, siendo un ejemplo la no activación de los elementos de fila 16 correspondientes para dar como resultado las columnas de imagen LNm en blanco u oscuras percibidas para una o más de las columnas de imagen LNm finales de la imagen de visualización I(N-1) anterior y una o más de las columnas de imagen LNm del principio de la imagen de visualización IN posterior.
Alternativamente, el controlador de sistema 30 puede coordinar a través de los parámetros 22 los tiempos de inicio y finalización de las imágenes de visualización IN individuales para crear una imagen panorámica PI segmentada, por ejemplo, la experiencia de la imagen panorámica, usando software de unión de imágenes de visualización para combinar múltiples imágenes IN que tienen los campos de visión superpuestos. Esto se puede facilitar teniendo una o más de las columnas de imagen LNm del principio (por ejemplo, LN1, LN1-3, etc.) de la imagen de visualización IN posterior que tienen el mismo o similar contenido de visualización (por ejemplo, los mismos colores de visualización y duración para cada píxel de la columna o columnas de imagen LNm del principio) como una o más columnas de imagen LNm del final correspondientes (por ejemplo, LNm, LNm-1 a m-3, etc.) de la imagen de visualización I(N-1) anterior. En otras palabras, la ubicación espacial percibida en la imagen de visualización compuesta de las columnas de imagen LNm del final de la imagen de visualización I(N-1) anterior y la ubicación espacial percibida en la imagen de visualización compuesta (por ejemplo, imagen panorámica PI) de las columnas de imagen LNm del principio de la imagen de visualización IN posterior son concurrentes o las mismas (por ejemplo, se perciben como superpuestas), como se muestra en la Figura 11 con una columna de imagen superpuesta como ejemplo.
Se reconoce que en el caso de campos de visión superpuestos, los niveles de brillo de píxel se podrían coordinar entre píxeles adyacentes en diferentes imágenes de visualización IN, con el fin de reforzar la percepción de imágenes panorámicas PI por el sistema visual humano del pasajero del vehículo. Un ejemplo de esto es cuando el brillo de píxel de los elementos 16 en las columnas de imagen LNm del final superpuestas de la imagen de visualización I(N-1) anterior es menor que en los elementos de fila en las columnas de imagen no superpuestas de la imagen de visualización I(N-1) anterior, combinado con el brillo de píxel de los elementos de fila 16 en las columnas de imagen LNm del principio superpuestas de la imagen de visualización IN posterior es menor que en los elementos de fila en las columnas de imagen no superpuestas de la imagen de visualización IN posterior. Este nivel relativo más bajo de brillo de los elementos de fila 16 afectados en columnas de imagen superpuestas se puede configurar a través de los parámetros 22 para que sea de manera que el brillo de píxel combinado de dos píxeles P superpuestos (como se percibe por el pasajero del vehículo) pueda ser el mismo o similar al brillo de píxel P de los píxeles P que no se superponen en cada una de las imágenes de visualización IN e I(N-1). Por ejemplo, el nivel de brillo de los elementos de fila 16 en la columna de imagen LNm de la imagen de visualización I(N-1) se correlacionaría con el nivel de brillo de los elementos de fila 16 de la columna de imagen LN1 de la imagen de visualización IN, de manera que cuando el nivel de brillo combinado de la columna de imagen superpuesta se añada/combine por el sistema visual humano del pasajero, el nivel de brillo percibido de los píxeles superpuestos sea el mismo o similar que el nivel de brillo de los píxeles no superpuestos adyacentes.
La imagen panorámica PI se puede coordinar a través del controlador o controladores 18, 30 alineando los planos de imagen IN adyacentes entre sí, de manera que no se pueda percibir por el pasajero del vehículo ninguna separación 82 entre los planos de imagen IN cuando se ven las imágenes de visualización IN. De esta manera, el sistema 10 a través de las unidades de visualización 12 coordinadas puede mostrar el paisaje a los pasajeros del tren como si estuvieran al aire libre en lugar de en un túnel de tren. Esto es diferente de lo que se muestra típicamente por los sistemas de visualización de la técnica anterior, en la medida que actualmente la imagen almacenada es el siguiente cuadro en una película finita animada y está separada por una barra oscura creada por un hueco en la alineación de la imagen o un borde sin imagen en las líneas verticales iniciales y finales o múltiples líneas verticales iniciales y múltiples finales de los elementos de imagen. Se reconoce que la configuración descrita anteriormente del controlador o controladores 18, 30 para abordar la visualización de imagen panorámica PI (usando los parámetros 22 de temporización de inicio y duración sincronizados tratados) también se podría usar para inhibir los problemas de parpadeo de imagen.
Otra realización para ayudar a controlar el parpadeo de la imagen, que se percibe por el pasajero del vehículo, es la utilización de los espacios 82 en blanco/negro creados al no ser transmitida ninguna imagen para una o más filas verticales iniciales y finales (es decir, columnas de imagen LNm) en cada plano de imagen adyacente (por ejemplo, imágenes de visualización IN e I(N-1)), lo suficientemente estrechos como para que no se perciban por el pasajero del vehículo, pero lo suficientemente grandes como para separar los planos de imagen de modo que el sistema visual humano no esté procesando una superposición de la última columna o columnas de imagen LNm de la imagen de visualización I(N-1) de una o más líneas verticales iniciales (es decir, columnas de imagen LNm) de la imagen de visualización IN posterior. Esto ayuda a inhibir una duplicación (o adición de otro modo) del estímulo al ojo humano, que se puede percibir por el sistema visual humano como un destello brillante e interpretar como parpadeo. Este uso de proporcionar columnas de imagen LNm en blanco ayuda a reducir el parpadeo sin ajustes de micro velocidad, en la medida que los espacios en blanco/negro se pueden establecer para que sean lo suficientemente anchos que a la V máxima dentro del perfil de velocidad del vehículo 24, las imágenes no se superpongan, pero no sean tan anchas que a la velocidad V más baja dentro del perfil de velocidad del vehículo 24 las columnas de imagen LNm en blanco/negro sean percibidas realmente por el observador.
Realización de SPI alternativa para el sistema de información de visualización 10
Haciendo referencia a la Figura 7, se muestra una configuración alternativa del controlador de sistema y los controladores de visualización, tal que el controlador de sistema se configure como un controlador 130 maestro y los controladores de visualización como controladores 118 esclavos en una configuración maestro esclavo de interfaz de periféricos en serie (SPI) adaptada de los protocolos de comunicación del procesador informático “en la caja” tradicionales. La adaptación de configuración del controlador de sistema como el controlador 130 maestro y los controladores de visualización como controladores 118 esclavos, usando un protocolo de comunicación de SPI a través de la red 111, proporciona la sincronización deseada de la operación de múltiples unidades de visualización 112 con un tiempo de tránsito deseable de los paquetes de datos 120 como un flujo de datos entre dispositivos remotos conectados a través de una red de comunicaciones 111 con una simplicidad de componentes de hardware.
Se reconoce que la red de comunicación 111 se puede referir a una colección del controlador de sistema 130 y las unidades de visualización 112 interconectadas por canales de comunicación que permiten la compartición de recursos e información, por ejemplo, los paquetes de datos 120, como intercambio de información (por ejemplo, comunicación bidireccional). Por ejemplo, un proceso de coordinación de visualización que se ejecuta en el controlador de sistema 130 es capaz de enviar/recibir datos a/desde al menos uno o más procesos de visualización que residen en los controladores de visualización 118 de las unidades de visualización 112 remotas, proporcionando por ello la colección de controladores en la red 111. También se considera que la red 111 se puede implementar como un sistema de red cableado, inalámbrico o combinado cableado e inalámbrico. Un ejemplo de implementación cableada de la red 111 puede incluir cable de par trenzado (por ejemplo, par trenzado no apantallado (UTP), par trenzado apantallado (STP), etc.).
Como tal, el ejemplo de SPI proporciona una implementación de ejemplo de la transmisión de los paquetes de datos 120 secuencialmente a medida que los parámetros 122 se generan y transmiten para diferentes velocidades V del vehículo, que se miden en tiempo real por el sensor de velocidad 126. Además, una vez que el controlador de visualización 118 recibe y procesa los parámetros 122 (es decir, activa los elementos 116 respectivos en la unidad de visualización 112 que pertenecen a los parámetros 122 recibidos), el controlador de visualización 118 escucha los paquetes de datos 120 adicionales necesarios para completar la imagen de visualización I.
Por consiguiente, la adaptación de SPI para el sistema de visualización 10 proporciona un protocolo de comunicación síncrona de los parámetros 122 a través de la red 111. Las señales de reloj SCLK se proporcionan por el controlador 130 maestro a cada uno de los controladores 118 esclavos para proporcionar sincronización de visualización entre la pluralidad de unidades de visualización 112. La señal de reloj SCLK controla cuándo pueden cambiar los datos de los paquetes de datos 120 y cuándo los datos son válidos para su lectura. Por lo tanto, dado que la implementación de la comunicación de s Pi entre los controladores 118, 130 remotos es síncrona, tiene el pulso de reloj SCLK transmitido junto con los datos (es decir, el paquete de datos 120). Se reconoce que otros protocolos, tales como RS-232 y otros protocolos asíncronos, no usan un pulso de base y, por lo tanto, la transmisión de datos se debe temporizar con mucha precisión, lo que hace el uso de estos otros protocolos problemáticos en el sistema de visualización 10. Por lo tanto, una ventaja es que dado que la SPI tiene la señal de reloj SCLK, el reloj puede variar sin interrumpir la transmisión de datos de los parámetros 122, de manera que la tasa de transmisión de datos simplemente cambiará junto con cualquier cambio en la tasa de reloj respectiva enviada a las unidades de visualización 112 diferentes a través de los controladores de visualización 118.
Una consecuencia deseada de usar el protocolo de comunicación de SPI para el sistema 10 es que en SPI, la iniciación de datos típicamente cambia durante el borde ascendente o descendente de la señal de reloj SCLK, en la medida que esta es cómo la activación de los paquetes de datos 120 inicia la activación de la unidad de visualización 112 respectiva para la visualización de la imagen de visualización I respectiva posterior en la secuencia de imágenes de visualización I de las unidades de visualización 112 adyacentes respectivas, se sincroniza mediante las señales de reloj SCLK respectivas para cada una de las unidades de visualización 112. Por ejemplo, lógicamente, el punto en el que los datos se leen por el controlador respectivo es opuesto a cuando cambia, de manera que los datos son válidos en el punto de lectura.
Se reconoce que SPI gana eficiencia para la comunicación del controlador 118, 130 remoto que se aprovecha de la capacidad dúplex de SPI, que consiste en enviar simultáneamente paquetes de datos dentro y fuera de los registros R asociados con cada uno de los elementos 16 de la columna L de la unidad de visualización 112. SPI es un protocolo de comunicación de datos en serie, que representa la comunicación secuencial en serie de parámetros 122, en secuencia, para elementos 116 adyacentes sucesivos (por ejemplo, para elementos 116 sucesivos a lo largo de la columna L verticalmente, así como para elementos entre el final de una serie de elementos 116 que representan uno de los componentes de columna de imagen L11 individuales al principio de una serie de elementos 116 que representan el siguiente de los componentes de columna de imagen L21 individuales de la pluralidad de componentes de columna de imagen LNm de la imagen de visualización I1 (véase la Figura 2d).
Los controladores 130, 118 tienen cada uno una interfaz de comunicación de SPI 138, 140, respectiva, que se configuran para comunicarse a través de la red 111 como un enlace de datos en serie síncrono para los paquetes de datos 120 que opera en dúplex completo (por ejemplo, las señales en la red 111 que transportan los paquetes de datos 120 van en ambas direcciones simultáneamente). Los controladores 118, 130 de red remota se comunican usando la relación maestro/esclavo, en la que el controlador 130 maestro inicia la transmisión de la trama de datos del paquete de datos 120. Cuando el controlador 130 maestro genera una señal de reloj SCLK y selecciona a través de una señal de selección esclava SS1, SS2, SS3, etc. a un dispositivo esclavo, los datos se pueden transferir en cualquiera de o en ambas direcciones simultáneamente. En el caso de los datos en los paquetes de datos 120, 121 que representan los parámetros 122, los parámetros 122 enviados previamente que se usaron para activar los elementos 116 respectivos se devuelven como un paquete de datos 121 “usado” desde el controlador de visualización 118 al controlador de sistema 130, mientras que el siguiente paquete de datos 120 que contiene los parámetros 122 para su uso en la activación del siguiente número de (uno o más) elementos 116 se transmite al controlador de visualización 118 desde el controlador de sistema 130. De hecho, en lo que respecta a la SPI, los paquetes de datos 120, 121 se transfieren en ambas direcciones en la red 111 y depende de los dispositivos maestro y esclavo saber si un byte recibido es significativo o no. Así, un dispositivo respectivo debe descartar el byte recibido en una trama de “transmisión solamente” o generar un byte ficticio para una trama de “recepción solamente”.
La señal de selección esclava SS se usa por el controlador 130 maestro para indicar a un controlador 118 esclavo seleccionado que el controlador 130 maestro desea iniciar un intercambio de datos de SPI entre ese dispositivo esclavo remoto y él mismo. La señal de selección SS se puede establecer como activa baja, por lo que una baja en esta línea puede indicar que la SPI está activa, mientras que una alta puede señalar inactividad. Además, la señal de selección SS se puede usar para mejorar la inmunidad al ruido del sistema 10, para ayudar a reducir la diafonía y la activación cruzada indeseable de las unidades de visualización 112 fuera de secuencia. La señal de selección SS en el presente sistema 10 puede funcionar como un reinicio para el controlador 118 esclavo de SPI de modo que esté listo para recibir el siguiente byte asociado con la siguiente imagen de visualización IN.
Por lo tanto, en vista de lo anterior, se reconoce que el protocolo de comunicación de SPI implementado por los controladores 130, 118 es un protocolo de Intercambio de Datos, por el cual cada dispositivo tiene dos líneas de datos, una para entrada y otra para salida, de manera que a medida que se sincronizan los datos 120, también se sincronizan nuevos datos en 121 (en el caso del controlador 130 maestro). Además, a medida que se sincronizan los datos 121, también se sincronizan nuevos datos en 120 (en el caso del controlador 130 esclavo). Por lo tanto, cuando un controlador “transmite” datos, los datos entrantes se leen antes de intentar transmitir de nuevo. Si no se leen los datos entrantes, entonces los datos se perderán y el controlador de SPI puede llegar a ser deshabilitado como resultado. Por lo tanto, en el presente sistema 10, los controladores 118, 130 se configuran para leer los datos después de que haya tenido lugar una transferencia, incluso si los datos no tienen uso por el controlador respectivo. Se reconoce que estos intercambios de datos entre los controladores 130, 118 se controlan por la línea de reloj, SCLK, que se establece por el dispositivo maestro en base a la velocidad V del vehículo informada. Por consiguiente, el controlador 130 maestro se configura (por ejemplo como parte de un módulo de generación de parámetros 134 o bien para aumentar o bien para disminuir la frecuencia de la señal de reloj en base a cambios en la velocidad V informada, según se determine por el sensor de velocidad en tiempo real.
Se reconoce que la operación del sensor de velocidad 26 en tiempo real se puede definir a medida que múltiples lecturas de la velocidad V del vehículo se realizan o identifican de otro modo por el sensor de velocidad 26 dentro del período de tiempo para la visualización de todos los píxeles P para todas las imágenes de visualización I de la pluralidad de unidades de visualización 112. Por ejemplo, se informa una pluralidad de velocidades V en el período de tiempo (o períodos de tiempo) medido entre el inicio de la activación del primer elemento 16 de la imagen de visualización I para la primera unidad de visualización 112 (de la pluralidad de unidades de visualización 112) en el primer componente de imagen de columna LN1 individual y el inicio de activación del último elemento 16 de la imagen de visualización I en el último componente de imagen de columna LNm individual de la última unidad de visualización 112 (de la pluralidad de unidades de visualización 112), o cualquier otro intervalo de tiempo entre los mismos. Se reconoce que el informe de las velocidades V puede ser sobre una base periódica (regular o irregular), según se desee, de manera que cada imagen de visualización IN para cada una de la pluralidad de unidades de visualización 112 se inicie en base a una señal de reloj SCLK respectiva determinada usando una pluralidad de diferentes velocidades V del vehículo, como se describe además a continuación.
En la implementación de esta comunicación dúplex para que se transmita un número indeterminado de parámetros 122 en los paquetes de datos 120, 121, el número de bytes transmitidos en el paquete 120 se puede especificar como una constante o número especificado/predefinido. Por ejemplo, este número de bytes en los paquetes de datos 120, 121 se puede especificar como el número de bytes necesarios para representar los parámetros 122 para todos los elementos 116 en un componente de imagen de columna LNm particular, o un subconjunto especificado del mismo. Por ejemplo, en el caso en el que se detecte un cambio de velocidad V antes de la generación de todos los parámetros 122 para los elementos 116 de uno del componente de imagen de columna LNm, se pueden insertar bytes nulos o ficticios en el paquete 120 representando aquellos parámetros 122 aún no generados y de este modo serían dependientes de la diferente velocidad V. De manera similar, para aquellos parámetros 122 no usados por el controlador 118 esclavo en la activación de los elementos 116, se pueden insertar bytes nulos o ficticios en el paquete de datos 121 representando aquellos parámetros 122 no usados en la activación previa de los elementos 116.
Como tal, el uso de diferentes señales de reloj de SPI SCLK para las diferentes unidades de visualización 112, de manera que cada una de las señales de reloj SCLK para dos o más unidades de visualización 112 se base en una velocidad V del vehículo diferente, proporciona la sincronización de la pluralidad de unidades de visualización 112, de manera que los paquetes de datos 120 se puedan transmitir y las señales de control de reloj SCLK en las líneas de control de reloj respectivas se puedan usar para sincronizar el tiempo de inicio/activación de la acción de visualización de los elementos 116 para cada una de la pluralidad de unidades de visualización 112. De esta manera, los tiempos de inicio respectivos para la visualización de la imagen de visualización IN en cada una de la pluralidad de unidades de visualización 112 se sincronizan en vista de la velocidad V variable del vehículo. En el presente sistema 10, las interfaces de comunicación de SPI de los módulos de comunicación 138, 140 pueden especificar cuatro señales: reloj (SCLK); salida de datos maestros, entrada de datos esclavos (MOSI); entrada de datos maestros, salida de datos esclavos (MISO); y selección esclava (SS), de manera que la SCLK se genere por el maestro y se introduce en todos los esclavos. MOSI transporta datos desde el controlador 130 maestro al controlador 118 esclavo. MISO transporta datos desde el controlador 118 esclavo de vuelta al controlador 130 maestro. Se selecciona un dispositivo esclavo cuando el controlador 130 maestro afirma su señal SS respectiva, de manera que el controlador 130 maestro genere una señal de selección esclava SS separada para cada controlador 118 esclavo. Se debería observar que el controlador 130 maestro inicia las tramas de los datos paquetes 120, 121 tanto para el comando del controlador 130 maestro como para la respuesta del controlador 118 esclavo. Por lo tanto, la sincronización se puede realizar entre las diferentes unidades de visualización en un entorno de velocidad V del vehículo cambiante, en la medida que no se transferirán datos a través de la red 111 entre los controladores 118, 130 a menos que se manipule el reloj. Como tal, todos los controladores 118 esclavos se controlan por el reloj que se manipula por el controlador 130 maestro en base a las lecturas informadas de la velocidad V del vehículo por el sensor de velocidad 126. Además, se reconoce que los controladores 118 esclavos no pueden manipular el reloj y los registros de configuración de SSP pueden controlar cómo responderá un dispositivo a la entrada de reloj.
Un par de parámetros denominados polaridad de reloj (CPOL) y fase de reloj (CPHA) determinan los bordes de la señal de reloj SCLK en los que se accionan y muestrean los datos de los paquetes de datos 120, 121. Cada uno de los dos parámetros CPOL y CPHA tiene dos estados posibles, lo que permite cuatro combinaciones posibles, todas las cuales son incompatibles unas con otras. Así, un par maestro/esclavo usa los mismos valores de par de parámetros para comunicarse. Si se usan múltiples esclavos que están fijos en diferentes configuraciones, el controlador 130 maestro se reconfigura a sí mismo cada vez que necesita comunicarse con un controlador 118 esclavo diferente. Como tal, es ventajoso el uso de la configuración maestro/esclavo de SPI para la SPI de los controladores 130, 118 remotos en la que los dispositivos transfieren los paquetes de datos 120, 121 como flujos de datos a través de la red 111.
Configuración de controlador de ejemplo
Haciendo referencia a las Figuras 1 y 12, cada uno de los dispositivos 12, 18, 26, 27, 30, 78 descritos anteriormente se puede implementar en uno o más dispositivos informáticos 101 respectivos. Los dispositivos 101 en general pueden incluir una interfaz de conexión de red 200, tal como una tarjeta de interfaz de red o un módem, acoplada a través de la conexión 218 a una infraestructura de dispositivo 204. La interfaz de conexión 200 se puede conectar durante la operación de los dispositivos 101 a la red 11 (por ejemplo, una intranet cableada y/o inalámbrica y/o una extranet tal como Internet), lo que habilita que los dispositivos 101 se comuniquen unos con otros según sea apropiado. La red 11 soporta la comunicación 14 de los parámetros de datos 22 y los datos 80 entre los controladores 18, 30, entre los controladores 18 y las unidades de visualización 12 respectivas y entre el controlador de red 78 y uno o más controladores de sistema 30 que supervisan una o más series. 9 de las unidades de visualización 12. También se contempla la comunicación de la ubicación del vehículo y los datos de velocidad a través de la red 11.
Haciendo referencia de nuevo a la Figura 12, los dispositivos 101 también pueden tener una interfaz de usuario 202, acoplada a la infraestructura de dispositivo 204 mediante la conexión 222, para interactuar con un usuario (por ejemplo, técnico). La interfaz de usuario 202 puede incluir uno o más dispositivos de entrada de usuario tales como, pero no limitados a, un teclado QWERTY, un teclado numérico, una rueda de seguimiento, un lápiz óptico, un ratón, un micrófono y el dispositivo de salida de usuario tal como un visualizador de pantalla de LCD y/o un altavoz. Si la pantalla es sensible al tacto, entonces el visualizador también se puede usar como el dispositivo de entrada de usuario que se controla por la infraestructura de dispositivo 204.
Haciendo referencia de nuevo a la Figura 12, la operación del dispositivo 101 se facilita por la infraestructura de dispositivo 204. La infraestructura de dispositivo 204 incluye uno o más procesadores informáticos 208 y puede incluir una memoria física 213 asociada (por ejemplo, 32, 36) (por ejemplo, una memoria de acceso aleatorio) para el almacenamiento de los parámetros de datos 22 (factores tanto dependientes de la velocidad como independientes de la velocidad), datos de velocidad y ubicación, datos demográficos y para procesar comunicaciones comunicadas entre los dispositivos 101. El procesador informático 208 facilita el desempeño del dispositivo 101 configurado para la funcionalidad prevista (por ejemplo, de los controladores 18, 30, 78, las unidades de visualización 12 y los sensores 26, 27) a través de la operación de la interfaz de red 200, la interfaz de usuario 202 y otros programas/hardware de aplicaciones 206 del dispositivo 101 ejecutando las instrucciones relacionadas. Estas instrucciones relacionadas se pueden proporcionar por un sistema operativo y/o aplicaciones de software 206 situadas en la memoria, y/o por la operatividad que está configurada en la circuitería electrónica/digital del procesador o procesadores 208 diseñada para realizar la tarea o tareas específicas de los controladores 18, 30, 78, las unidades de visualización 12 y los sensores 26, 27. Además, se reconoce que la infraestructura de dispositivo 204 puede incluir un medio de almacenamiento legible por ordenador 212 acoplado al procesador 208 para proporcionar instrucciones al procesador 208 y/o para cargar/actualizar aplicaciones de cliente 206. El medio legible por ordenador 212 puede incluir hardware y/o software tal como, solamente a modo de ejemplo, discos magnéticos, cinta magnética, medio legible ópticamente tal como CD/DVD ROM y tarjetas de memoria. En cada caso, el medio legible por ordenador 212 puede tomar la forma de un disco pequeño, disquete, casete, unidad de disco duro, tarjeta de memoria de estado sólido o RAM proporcionado en la memoria. Se debería observar que los medios legibles por ordenador 212 de ejemplo enumerados anteriormente se pueden usar o bien solos o bien en combinación.
Además, se reconoce que los dispositivos informáticos 101 pueden incluir las aplicaciones ejecutables 206 que comprenden código o instrucciones legibles por máquina para implementar funciones/operaciones predeterminadas incluyendo aquellas de un sistema operativo, por ejemplo, en respuesta a un comando o entrada de usuario. El procesador 208, como se usa en la presente memoria, es un dispositivo configurado y/o un conjunto de instrucciones legibles por máquina para realizar operaciones como se describe mediante el ejemplo anterior. Como se usa en la presente memoria, el procesador 208 puede comprender uno cualquiera o una combinación de hardware, microprogramas y/o software. El procesador 208 actúa sobre la información manipulando, analizando, modificando, convirtiendo o transmitiendo información para su uso por un procedimiento ejecutable o un dispositivo de información, y/o encaminando la información con respecto a un dispositivo de salida. El procesador 208 puede usar o comprender las capacidades de un controlador o microprocesador, por ejemplo. Por consiguiente, cualquiera de la funcionalidad (por ejemplo, cualquiera de los controladores 18, 30, 78, las unidades de visualización 12 y los sensores 26, 27) proporcionada por los sistemas y el proceso de las FIGURAS se puede implementar en hardware, software o una combinación de ambos. Por consiguiente, se refiere en lo sucesivo al uso de un procesador 208 como dispositivo y/o como conjunto de instrucciones legibles por máquina genéricamente como procesador/módulo por el bien de la simplicidad.
Se entenderá que los dispositivos informáticos 101 pueden ser, por ejemplo, controladores lógicos programables u otros dispositivos configurados en red (por ejemplo, que tengan una configuración de SPI). Los dispositivos informáticos de servidor 101 (por ejemplo, para el controlador de red 78) pueden incluir adicionalmente un elemento de almacenamiento secundario tal como la memoria (por ejemplo, base de datos). Cada servidor, aunque se representa como un único sistema informático, se puede implementar como una red de procesadores informáticos, según se desee.

Claims (15)

REIVINDICACIONES
1. Un sistema para generar una imagen de visualización que tiene múltiples columnas de visualización de imágenes que comprende una primera columna de visualización de imágenes y una segunda columna de imágenes para que se vean por un observador en movimiento en un entorno de velocidad de vehículo variable, el sistema que comprende:
una unidad de visualización que tiene una columna vertical de elementos de luz excitables, cada fila de la columna que tiene al menos un elemento de luz excitable, la unidad de visualización que se configura para ser colocada adyacente a un camino usado por un vehículo en movimiento; y
un controlador configurado para:
• recibir una velocidad del vehículo variable, incluyendo una primera velocidad y una segunda velocidad; • generar unos primeros parámetros de visualización en base a la primera de la velocidad del vehículo para al menos un elemento de fila en la primera columna de visualización de imágenes de las múltiples columnas de visualización de imágenes;
• recibir una segunda velocidad del vehículo diferente de la primera velocidad del vehículo;
• generar unos segundos parámetros de visualización en base a la segunda velocidad del vehículo para al menos un elemento de fila en la segunda columna de visualización de imágenes de las múltiples columnas de visualización de imágenes; y
• transmitir los primeros y segundos parámetros de visualización a la unidad de visualización;
en donde la unidad de visualización está configurada para generar la imagen de visualización en base a los primeros y segundos parámetros de visualización de manera que la primera columna de visualización de imágenes y la segunda columna de visualización de imágenes de la imagen de visualización se generen ambas secuencialmente a partir de la misma columna de elementos de luz excitables,
en donde la primera columna de visualización de imágenes y la segunda columna de visualización de imágenes están configuradas para ser agregadas por el sistema visual humano para construir una única imagen de visualización;
donde los parámetros de visualización incluyen cualquiera de en qué tiempo comenzar a excitar/activar los elementos de excitación, qué duración excitar/activar los elementos de excitación, variabilidad de color y brillo para mostrar la imagen, frecuencia de activación y/o tasa de cuadros.
2. El sistema de la reivindicación 1, en donde la unidad de visualización es una de una pluralidad de unidades de visualización en una serie de unidades de visualización.
3. El sistema de la reivindicación 2, en donde cada una de las unidades de visualización muestra una imagen de visualización que es parte de una imagen de visualización panorámica compuesta.
4. El sistema de la reivindicación 3, que comprende además el controlador configurado para controlar separaciones entre las imágenes de visualización adyacentes en la imagen de visualización panorámica.
5. El sistema de la reivindicación 3, en donde el controlador está configurado para modificar un nivel de brillo de columnas de visualización de imágenes adyacentes o superpuestas en imágenes de visualización adyacentes de la imagen de visualización panorámica.
6. El sistema de la reivindicación 1, en donde el controlador está configurado para modificar un nivel de brillo de columnas de visualización de imágenes adyacentes en la imagen de visualización con el fin de correlacionar un nivel de brillo de los elementos de fila respectivos en cada una de las columnas de visualización de imágenes adyacentes.
7. El sistema de la reivindicación 6, en donde el nivel de brillo se modifica con el fin de generar espacios en blanco no teniendo ninguna imagen que se crea para una o más columnas de visualización de imágenes iniciales y finales adyacentes.
8. El sistema de la reivindicación 1, en donde el controlador está configurado para usar la aparición periódica de estructuras predefinidas del vehículo para determinar cambios en la velocidad del vehículo.
9. El sistema de la reivindicación 8, en donde la estructura predefinida es un hueco entre vagones adyacentes de un tren.
10. El sistema de la reivindicación 1, que comprende además el controlador configurado para identificar una o más zonas de visualización inhibidas para la imagen de visualización, de manera que los elementos de la fila de la unidad de visualización no se inhiban de la activación retrasando o restringiendo de otro modo la operación de la unidad de visualización cuando una o más zonas de visualización inhibidas están dentro de la línea de visión de la unidad de visualización.
11. El sistema de la reivindicación 1, que comprende además un controlador de red en un sitio remoto del controlador, el controlador de red configurado para proporcionar carga, descarga y programación centralizadas de datos de imagen al controlador comunicado a través de una red de comunicaciones.
12. El sistema de la reivindicación 10, en donde los datos de imagen se difunden de manera continua como contenido de imagen de visualización en tiempo real o casi real desde el controlador de red al controlador.
13. El sistema de la reivindicación 2, que comprende además:
una pluralidad de unidades de detección de ubicación para detectar una ubicación del vehículo en movimiento en el camino,
en donde cada una de las unidades de visualización tiene un controlador de visualización respectivo asociado con la misma y dicho controlador es un controlador de sistema en comunicación con los controladores de visualización,
en donde cada uno de los controladores de visualización tiene un sensor de velocidad configurado para detectar la velocidad del vehículo con relación a la unidad de visualización;
en donde el sensor de velocidad se coloca entre las unidades de detección de ubicación de modo que se detecte la velocidad del vehículo en movimiento cuando la ubicación del vehículo en movimiento se detecta por la unidad de detección de ubicación.
14. El sistema de la reivindicación 2, que comprende además:
una pluralidad de sensores de rayo láser configurados para ser dispuestos a intervalos regulares a lo largo del camino del vehículo en movimiento de modo que tanto la ubicación como la velocidad del vehículo en movimiento en el camino se detecten al mismo tiempo,
en donde cada una de las unidades de visualización tiene un controlador de visualización respectivo asociado con la misma y dicho controlador es un controlador de sistema en comunicación con los controladores de visualización,
en donde cada uno de los controladores de visualización tiene un sensor de velocidad configurado para detectar la velocidad del vehículo con relación a la unidad de visualización.
15. Un sistema para generar una pluralidad de imágenes de visualización, cada una que tiene múltiples columnas de visualización de imágenes, cada una de ellas que tiene múltiples columnas de visualización de imágenes para que se vean por un observador en movimiento en un entorno de velocidad del vehículo variable, el sistema que comprende: una pluralidad de unidades de visualización según la reivindicación 1 en una serie de unidades de visualización,
cada una de dichas unidades de visualización que tiene un controlador de visualización respectivo asociado con la misma; y
un controlador de sistema en comunicación con los controladores de visualización y configurado para: generar parámetros de visualización como en la reivindicación 1 para los elementos de fila en las múltiples columnas de visualización de imágenes de cada una de la pluralidad de imágenes de visualización y transmitir los parámetros de visualización a cada uno de los controladores de visualización configurados para generar las imágenes de visualización como en la unidad de visualización de la reivindicación 1, de manera que la comunicación entre los controladores de visualización y los controladores de sistema sea a través de una red de comunicaciones y las comunicaciones se sincronicen usando una Interfaz Periférica en Serie, SPI, los controladores de visualización que están en una ubicación física remota de la ubicación física del controlador de sistema;
en donde las múltiples columnas de visualización de imágenes están configuradas para ser agregadas por el sistema visual humano para construir las imágenes de visualización únicas respectivas de la pluralidad de imágenes de visualización.
ES13838557T 2012-09-24 2013-09-23 Control de parpadeo en imágenes de visualización usando matrices de elementos emisores de luz como se ven por un observador en movimiento Active ES2902451T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201261704750P 2012-09-24 2012-09-24
US201361859906P 2013-07-30 2013-07-30
PCT/CA2013/000796 WO2014043791A1 (en) 2012-09-24 2013-09-23 Control of flicker in display images using light emitting element arrays as viewed by a viewer in motion

Publications (1)

Publication Number Publication Date
ES2902451T3 true ES2902451T3 (es) 2022-03-28

Family

ID=50340481

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13838557T Active ES2902451T3 (es) 2012-09-24 2013-09-23 Control de parpadeo en imágenes de visualización usando matrices de elementos emisores de luz como se ven por un observador en movimiento

Country Status (17)

Country Link
US (1) US20150228228A1 (es)
EP (1) EP2898500B1 (es)
JP (1) JP2015535948A (es)
BR (1) BR112015006508B1 (es)
CA (1) CA2885777C (es)
DK (1) DK2898500T3 (es)
ES (1) ES2902451T3 (es)
HK (1) HK1213077A1 (es)
HU (1) HUE056927T2 (es)
IN (1) IN2015DN03007A (es)
LT (1) LT2898500T (es)
MX (1) MX347017B (es)
PL (1) PL2898500T3 (es)
PT (1) PT2898500T (es)
RS (1) RS62750B1 (es)
SG (1) SG11201502263UA (es)
WO (1) WO2014043791A1 (es)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9161411B1 (en) * 2014-05-09 2015-10-13 Continental Automotive Systems, Inc. LED driver for vehicle display illumination
DE102014216208A1 (de) * 2014-08-14 2016-02-18 Robert Bosch Gmbh Verfahren und eine Vorrichtung zum Bestimmen einer Reaktionszeit eines Fahrzeugführers
CN204993576U (zh) * 2015-07-21 2016-01-20 杭州海康威视数字技术股份有限公司 摄像机及集成电路板
RU175245U1 (ru) * 2017-01-13 2017-11-28 Сергей Викторович Минаев Сепарационное устройство для определения биохимических показателей и маркеров заболеваний в плазме крови
FR3068797B1 (fr) * 2017-07-04 2019-07-19 STMicroelectronics (Grand Ouest) SAS Procede de communication entre un dispositif maitre et n dispositifs esclaves connectes sur un bus de donnees synchrone du type spi et dispositif correspondant
US10803833B1 (en) * 2019-11-25 2020-10-13 Himax Technologies Limited Display systems and integrated source driver circuits

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS53122194U (es) * 1977-03-07 1978-09-28
JP2865205B2 (ja) * 1988-09-02 1999-03-08 アビックス株式会社 n次元スキャン型広告塔装置
JPH0412277A (ja) * 1990-05-01 1992-01-16 Abitsukusu Kk センサー内蔵スキャン型表示装置
GB2309112B (en) * 1996-01-11 1999-12-08 Guy Edward John Margetson Visual information system arrangements
CN2313265Y (zh) * 1996-01-24 1999-04-07 陈实午 专门针对快速行进车辆乘客的广告屏
GB9725820D0 (en) * 1997-12-08 1998-02-04 Johns Anthony Tunnel vision display
US20020003510A1 (en) * 1998-01-16 2002-01-10 Tetsu Shigetomi Image display apparatus and method for vehicle
JP4085344B2 (ja) * 1998-01-16 2008-05-14 ソニー株式会社 移動体用画像表示装置および方法
JP2000010536A (ja) * 1998-06-22 2000-01-14 Sony Corp 画像表示装置及び方法
JP3061780B2 (ja) * 1998-10-13 2000-07-10 アビックス株式会社 n次元スキャン型広告塔装置
JP2000232202A (ja) * 1998-12-11 2000-08-22 Matsushita Electric Ind Co Ltd 高周波用高qインダクタ
US6930794B2 (en) * 2003-02-25 2005-08-16 Optek S.A. Method and device for the generation of printed graphic patterns for exhibiting movie pictures to moving observers by means of a static optical apparatus
US7156519B2 (en) * 2003-11-24 2007-01-02 Xiaogang Mao System for visualizing images to viewers in motion
KR20060020074A (ko) * 2004-08-31 2006-03-06 삼성전자주식회사 표시장치
KR100909080B1 (ko) * 2008-04-17 2009-07-23 (주)엘이디웍스 열차 속도 변화에 적응하는 터널 동영상 시스템
US8332095B2 (en) * 2008-12-08 2012-12-11 Hembury Christine M Computer controlled system and method for ensuring all vehicles entering and/or in an area are GPS location registered
JP5090329B2 (ja) * 2008-12-19 2012-12-05 日本電信電話株式会社 コンテンツ選択装置及び方法及びプログラム
GB2473495A (en) * 2009-09-14 2011-03-16 Guy Edward John Margetson Display using data pulled or requested from remote computer and feedback, e.g. of viewer figures to remote computer.
US20120054028A1 (en) * 2010-08-31 2012-03-01 General Motors Llc Method of advertising to a targeted vehicle
CN102186000A (zh) * 2011-04-18 2011-09-14 北京金日恒升科技有限公司 隧道同步视频显示系统
CN102213836B (zh) * 2011-05-09 2014-04-23 湖南创图视维科技有限公司 一种用于地铁隧道的自由立体显示系统
KR101326259B1 (ko) * 2012-03-02 2013-11-11 주식회사 이엑스크리에이티브 동작 감지 조명을 이용한 광고 시스템
WO2013151552A1 (en) * 2012-04-05 2013-10-10 Intel Corporation Method and apparatus for selecting an advertisement for display on a digital sign according to an approaching object

Also Published As

Publication number Publication date
MX2015003749A (es) 2016-05-16
JP2015535948A (ja) 2015-12-17
HK1213077A1 (zh) 2016-06-24
IN2015DN03007A (es) 2015-10-02
CA2885777C (en) 2022-02-22
US20150228228A1 (en) 2015-08-13
PT2898500T (pt) 2021-12-31
SG11201502263UA (en) 2015-06-29
PL2898500T3 (pl) 2022-08-29
CA2885777A1 (en) 2014-03-27
EP2898500A1 (en) 2015-07-29
LT2898500T (lt) 2022-01-10
HUE056927T2 (hu) 2022-03-28
BR112015006508A2 (pt) 2017-07-04
WO2014043791A1 (en) 2014-03-27
RS62750B1 (sr) 2022-01-31
EP2898500B1 (en) 2021-11-03
BR112015006508B1 (pt) 2022-02-08
MX347017B (es) 2017-04-07
DK2898500T3 (da) 2022-01-10
EP2898500A4 (en) 2016-05-25

Similar Documents

Publication Publication Date Title
ES2902451T3 (es) Control de parpadeo en imágenes de visualización usando matrices de elementos emisores de luz como se ven por un observador en movimiento
US10976546B2 (en) Head-up display apparatus having a functional film with a controllable transmittance
ES2873927T3 (es) Sistema y método para visualizar un contenido dependiente de la ubicación
ES2895097T3 (es) Sistema de iluminación arquitectónica de vistas múltiples
US9485498B2 (en) Display apparatus, projection apparatus, display assist apparatus, and system
BR112012016067B1 (pt) método de exibição de imagem, e aparelho de exibição de imagem
ES2945653T3 (es) Sistema de realidad aumentada para una atracción recreativa
KR102600906B1 (ko) 디스플레이에 있어서 그리고 디스플레이에 관한 개선
WO2010134217A1 (ja) 広告表示システム
ES2326869T3 (es) Dispositivo para visualizar una informacion sobre una superficie visible rotativa.
US20200211283A1 (en) Augmented reality system for an amusement ride
KR101962158B1 (ko) 차량 시뮬레이션 장치
CA2790250C (en) System for creating a visual animation of objects
EP2513704B1 (en) Imaging device and method
JP5391730B2 (ja) 表示装置およびヘッドアップディスプレイシステム
KR20190066969A (ko) 블라인드를 이용한 전광판 시스템
JP2009237649A (ja) 画像表示システム及び方法
JP2008096691A (ja) 投影装置
KR20200060802A (ko) 3d 디스플레이 큐브
EP3654308B1 (en) Signaling device and method for signaling identification data from a first vehicle to a following second vehicle and corresponding platooning control system
WO2020209762A1 (ru) Система отображения видеоинформации для движущегося объекта
US20040046708A1 (en) System and method for presenting still images or motion sequences to passengers onboard a train moving in a tunnel
KR20150128740A (ko) 라인 스크린에 따른 잔상을 기초로 하는 디스플레이 시스템
AU2022255607A1 (en) Lighting system for road crossing, mainly for pedestrian crosswalks, method of lighting control
JP2010117689A (ja) 画像表示システム、画像表示装置および環境光制御装置