MXPA02005140A - Convergencia automatica en un aparato de presentacion de proyeccion. - Google Patents

Convergencia automatica en un aparato de presentacion de proyeccion.

Info

Publication number
MXPA02005140A
MXPA02005140A MXPA02005140A MXPA02005140A MXPA02005140A MX PA02005140 A MXPA02005140 A MX PA02005140A MX PA02005140 A MXPA02005140 A MX PA02005140A MX PA02005140 A MXPA02005140 A MX PA02005140A MX PA02005140 A MXPA02005140 A MX PA02005140A
Authority
MX
Mexico
Prior art keywords
photosensor
marker
movement
illuminated
photosensors
Prior art date
Application number
MXPA02005140A
Other languages
English (en)
Inventor
Renee Burnett Angela
Original Assignee
Thomson Licensing Sa
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing Sa filed Critical Thomson Licensing Sa
Publication of MXPA02005140A publication Critical patent/MXPA02005140A/es

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/74Projection arrangements for image reproduction, e.g. using eidophor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/12Picture reproducers
    • H04N9/16Picture reproducers using cathode ray tubes
    • H04N9/28Arrangements for convergence or focusing

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Video Image Reproduction Devices For Color Tv Systems (AREA)

Abstract

Se describe un metodo para determinar automaticamente un error de convergencia en el centro de una pantalla de proyeccion (700) que tiene una pluralidad de fotosensores (S1-S8) que pueden ser iluminados por un marcador (M). El metodo comprende los pasos de mover el marcador (M) hacia un primer fotosensor (S1) de una pluralidad (S1-S8) hasta que el primer fotosensor (S1) queda iluminado por el marcador (M). Al mover el marcador (M) hacia un segundo fotosensor (S2) de la pluralidad (S1-S8) hasta que el segundo fotosensor (S2) queda iluminado por el marcador (M). Definir una variable para cada movimiento de marcador que ilumina los primero y segundo fotosensores (S1, S2). Calcular una variable promedio a partir de cada variable relacionada con el movimiento del marcador que ilumina los primero y segundo fotosensores (S1, S2).

Description

CONVERGENCIA AUTOMÁTICA EN UN APARATO DE PRESENTACIÓN DE PROYECCIÓN CAMPO DE LA INVENCIÓN Esta invención se refiere al campo de presentación de proyección de video, y en particular, a la determinación de errores de convergencia en un centro de imagen proyectada.
ANTECEDENTES DE LA INVENCIÓN En una presentación de video de proyección, las distorsiones de trama geométrica resultan de la colocación física de tubos de presentación de rayos catódicos. Dichas distorsiones de trama son exacerbadas a través del uso de rayos catódicos con superficies de presentación cóncavas, curvas y la amplificación inherente en la trayectoria de proyección óptica. La imagen proyectada está compuesta de tres tramas exploradoras, las cuales son requeridas para estar en registro con la otra en una pantalla de visión. El traslape preciso de las tres imágenes proyectadas requiere del ajuste de múltiples formas de onda para compensar la distorsión geométrica y facilitar la superimposición de las tres imágenes proyectadas. Sin embargo, la alineación manual de múltiples formas de onda es laboriosa durante la fabricación, y sin ei uso de equipo de prueba sofisticado puede evitar la fijación en un campo o ubicación de usuario. La solicitud de patente Europea EP 0 852,447 A2 enseña un método para ajustar la convergencia en un receptor de televisión de proyección. La pantalla de presentación de proyección incluye fotosensores, los cuales son iluminados a través de marcadores monocromáticos proyectados. Por varias razones, no se ha logrado la exacta colocación del marcador proyectado a la mitad del sensor. Se describe un método en donde el marcador es manipulado para acercar la posición del fotosensor desde direcciones opuestas tanto en direcciones horizontales como verticales. Los valores del movimiento del marcador son determinados para la iluminación del sensor a partir de cada dirección. Estos valores de iluminación de sensor después son promediados para proporcionar un valor calculado que coloca al marcador exactamente en el centro del fotosensor. Los solicitantes se dirigen al ajuste de campo que frecuentemente es requerido como una consecuencia de la reubicación de la presentación que cambia la dirección e intensidad del campo magnético de la Tierra incidente sobre la presentación. Dichos campos geomagnéticos introducen algo de rotación de imagen de presentación pero principalmente ocasionan un movimiento rectilíneo de toda la imagen. De esta manera, se describe un sistema de convergencia automático que simplifica la alineación de fabricación y facilita el ajuste de ubicación de campo. Un sistema de alineación automático puede emplear medición de borde de trama en sitios de pantalla periféricos con el fin de determinar el tamaño de la trama y la convergencia. Sin embargo no se miden los errores en la región de pantalla central, ya que un sensor de pantalla central, por razones obvias es indebido. De esta manera, un sistema de convergencia automático puede emplear un arreglo de corrección (3 x 3) de valores de error de convergencia, determinados en las ubicaciones de pantalla periféricas, con un valor de error de convergencia de pantalla central de cero.
COMPENDIO DE LA INVENCIÓN Aunque un campo geomagnético introduce algo de rotación de imagen de presentación, el campo principalmente da como resultado un movimiento rectilíneo de toda la imagen. De esta manera, ya que este desplazamiento de imagen es consistente sobre toda la imagen, se puede calcular un valor de corrección promedio para utilizarse en el centro de la pantalla. De acuerdo con una disposición de la invención, un método automático determina un error de convergencia en un centro de una pantalla de proyección teniendo una pluralidad de fotosensores que pueden ser iluminados por un marcador. El método comprende los pasos de mover el marcador hacia un primer fotosensor de la pluralidad hasta que el fotosensor se ilumina por el marcador. El marcador se mueve hacia un segundo fotosensor de la pluralidad hasta que el segundo fotosensor es iluminado por el marcador. Una variable define el movimiento de cada marcador para iluminar los primero y segundo fotosensores. Una variable promedio se calcula a partir de cada variable con relación al movimiento de los marcadores para ¡luminar los primero y segundo fotosensores.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La Figura 1A es una vista frontal simplificada de una presentación de video de proyección. La Figura 1B es una vista de una presentación de video de proyección mostrando un patrón de convergencia. La Figura 2 es un diagrama de bloque simplificado de un aparato de presentación de proyección de imagen de video incluyendo características ventajosas. Las Figuras 3, 4 y 5 son diagramas de flujo mostrando secuencias de borde y de detección de error automáticas.
DESCRIPCIÓN DETALLADA La Figura 1 ilustra una vista frontal de un aparato de presentación de proyección de video. La presentación de proyección comprende una pluralidad de tubos de rayos catódicos con imágenes exploradas de trama, las cuales son proyectadas sobre la pantalla 700. Un gabinete soporta y rodea la pantalla 700 y proporciona un área de presentación de imagen 800, la cual es ligeramente más pequeña que la pantalla. La pantalla 700 está ilustrada con una línea punteada para indicar un área de borde que está oculta dentro del gabinete C y que puede ser iluminada con imágenes exploradas de trama cuando se opera en un modo de sobre exploración como se indica por el área OS. Los fotosensores están localizados adyacentes a la periferia de la pantalla 700 dentro del área de borde oculta y fuera del área vista 800. En la Figura 1A se muestran ocho sensores, teniendo posiciones sobre una rejilla de medición, no mostrada, que proporciona la medición en la esquinas y en los centros de bordes de pantalla. De esta manera, con estas posiciones de sensor localizadas en la rejilla es posible medir un patrón de prueba electrónicamente generado correspondientemente formateado, por ejemplo, el bloque de valor de video pico M para determinar la anchura y altura de la imagen y ciertos errores geométricos, por ejemplo, rotación, curva, distorsión trapezoidal, punteamiento, etc., y de esta manera alinean las imágenes presentadas que serán superimpuestas una con la otra sobre toda el área de la pantalla. Se realizan mediciones tanto en direcciones horizontal como vertical en cada de las 3 imágenes de color proyectadas, produciendo así por lo menos 48 valores medidos. Cualquier recolocación y orientación física de la presentación producirá un error de posición de imagen de traslación o rotacional. En la Figura 1B, se muestra un patrón de prueba MCR ilustrativo, presentado por las líneas punteadas desplazadas desde una posición alineada como se ilustra por las líneas unidas CR. La forma de imagen presentada puede ser corregida utilizando un cálculo de matriz de 3 por 3. En la Figura 1B, un sensor de pantalla central S9 se ilustra para presentar una condición impráctica en donde los datos posicionales son obtenidos a partir de esta ubicación de pantalla. Sin embargo, una posición de pantalla central podría bloquear la proyección de imagen normal y entonces el sensor teórico S9 no puede se empleado como se ilustra. De esta manera, sin un sensor de pantalla central, no existen información de error y el valor de error de matriz central se asume como cero. Esta falta de información de error central da como resultado que los bordes de presentación que sean corregidos pero con algún error inicial quedando en el centro de la pantalla debido al valor de matriz de cero. Esta falta de un sensor central introduce un requerimiento para un ajuste de toque manual de la convergencia de pantalla central de imágenes de color rojo y azul a la imagen verde. Además, la falta de una medición central da como resultado algo de distorsión geométrica de la imagen de presentación verde ya que los errores en el centro no son corregidos y pueden ser exacerbados a través de la corrección en los bordes. Como se describió previamente, después de la reubicación de un aparato de presentación magnéticamente desviado, la imagen presentada es sometida a un movimiento o desplazamiento no deseado. Dicha reubicación del aparato cambia la dirección e intensidad de campo magnético de la Tierra, que puede introducir algo de rotación de imagen de presentación pero principalmente ocasiona el movimiento rectilíneo de toda la imagen. El desplazamiento de la imagen es consistente sobre toda el área de imagen de presentación, de esta manera los valores de corrección promedio serán calculados para utilizarse como un valor de pantalla central en la matriz de corrección. En sensor de pantalla central teórico S9 mostrado en la Figura 1B es claramente impráctico y no puede ser empleado, sin embargo, los datos posicionales para esta ubicación son ventajosamente derivados por la interpolación. Un valor horizontal de pantalla de central es calculado a partir de un promedio de los valores de corrección horizontales determinados por los sensores S2 y S6, los cuales se localizan respectivamente en el centro del borde superior de la pantalla, y el centro del borde inferior de la pantalla. Se calcula un valor vertical central en una forma similar a partir de un promedio de los valores de corrección vertical determinados por el sensor S8, ubicado en el borde de pantalla izquierdo central, y el sensor S4 ubicado en el borde de pantalla derecho central. Cuando se realiza el cálculo de la matriz de 3 x 3 con el error central definido de esta manera, substancialmente todo el error de movimiento rectilíneo y el error rotacional en los tres colores es substancialmente eliminado, y además los errores geométricos en ia imagen verde son significativamente reducidos. Además, los errores de convergencia de rojo y azul con relación ai verde son eliminados o reducidos a un nivel pequeño que no se requiere de ningún ajuste manual importante. La Determinación de Desplazamiento de Centro para un sistema de alineación automático de ocho sensores se realiza como sigue. Se realizan mediciones de los desplazamientos horizontales y verticales a partir de las posiciones de sensor nominales, con un algoritmo de interpolación aplicado a los valores de convergencia para compensar desplazamientos de trama y rotación debido a la influencia de campos magnéticos geomagnéticos. El uso de sensores en la periferia de la pantalla permite la medición de la imagen de presentación en el borde de pantalla. De esta manera, los desplazamientos horizontales y verticales, o errores de colocación de ubicaciones de sensor nominales se miden en los sensores S1-S8 para cada color (verde, rojo y azul). Sin embargo, ya que no existe ningún sensor S9 para la posición central, una aproximación para el desplazamiento central faltante ventajosamente se deriva promediando los desplazamientos co-lineales horizontales y verticales medidos. Un desplazamiento de centro horizontal promedio (Have) se deriva de valores de desplazamiento medidos en las posiciones de sensor S2 y S6, en donde S9(Have) = (S2val + S6val)/2. Como una consecuencia de las posiciones de CRT dentro del aparato, el desplazamiento relacionado geomagnético es substancialmente rectilíneo, de esta manera este valor central promedio proporciona una aproximación razonable para un desplazamiento central horizontal. De esta manera, un valor de desplazamiento vertical promedio (Vave) se deriva de los sensores S4 y S8, en donde S9(Vave) 0"*(S4var+ S8val)/2, que proporciona una aproximación razonable del desplazamiento central vertical. El uso de valores centrales promedio asegura que en casos de desplazamientos de trama, la distorsión geométrica notoria es substancialmente eliminada y el ajuste de toque manual después de una autoconvergencia es enormemente eliminado. En las Figuras 4, 5 y 6 se muestran un diagrama de flujo de alto nivel del procedimiento de detección de desplazamiento (borde). La operación del sistema de medición y alineación será explicada con referencia a la Figura 2, la cual ilustra, en una forma de diagrama de bloque, parte de una presentación de proyección de video explorada de trama. En la Figura 2, 3 tubos de rayos catódico R, G, y B forman imágenes de color monocromáticas de color exploradas, las cuales son dirigidas a través de los sistemas de lentes individuales para convergir y formar una sola imagen de presentación 800 en la pantalla 700. Cada tubo de rayo catódico se ilustra con cuatro grupos de bobinas que proporcionan deflexión horizontal y vertical y convergencia horizontal y vertical. Los grupos de bobina de deflexión horizontal son dirigidos a través de un amplificador de deflexión horizontal 600 y los grupos de bobina de deflexión vertical son dirigidos a través de un amplificador de deflexión vertical 650. Tanto los amplificadores de deflexión horizontal como vertical son accionados con señales de forma de deflexión que son controladas y amplitud y forma de onda a través de la barra de colectora de datos 951 y sincronizadas con la fuente de señal seleccionada para la presentación. Las bobinas de convergencia horizontal y vertical 615 y 665, respectivamente, de canal verde ilustrativas, son accionadas por los amplificadores 610 y 660 respectivamente, que son suministrados son señales de forma de onda de corrección de convergencia. Las señales de forma de onda de corrección GHC y GVC pueden ser consideradas como representativas de señales de convergencia DC y AC, por ejemplo, convergencia estática y dinámica. Sin embargo, estos atributos funcionales pueden ser facilitados, por ejemplo, modificando todas las direcciones de ubicación de medición a través del mismo valor o desplazamiento para mover la trama completa y lograr un efecto de convergencia o de centrado estático aparente. Similarmente, se puede producir un efecto de convergencia dinámica a través de la modificación de la dirección de ubicación de una ubicación de medición específica. Las señales de forma de onda de corrección GHC y GVC para el canal verde son generadas a través de convertidores digitales a analógicos 311 y 312, ilustrativos, los cuales convierten valores digitales leídos de la memoria 550. Un selector de señal de presentación de entradas selecciona, a través de la barra colectora 951, entre dos fuentes de señal IP1 e IP2, por ejemplo, una señal de video de difusión y una señal de presentación generada por computadora SVGA. Las señales de presentación de video RGB son derivadas del selector de video de presentación y electrónicamente generan información de mensaje, por ejemplo, información de control de usuario, establecimiento de presentación y señales dé alineación y mensajes generados que responden a los comandos de los controladores 301, 900, y 950 acoplados a través de barras colectoras 302 y 951, que pueden ser combinados a través del generador de presentación en pantalla 500. Durante la calibración de sensibilidad automática o alineación de convergencia, el controlador 900 envía comandos a través de la barra colectora de datos 302 hacia el controlador 301 que instruye al generador de video 310 a generar una señal de prueba de video de calibración de canal verde AV ilustrativa que comprende una señal de nivel negro ilustrativa con un bloque rectangular M teniendo un valor de amplitud de video predeterminado. Los controladores 900 y 301 también colocan el bloque M para iluminar el sensor ilustrativo S1 determinando el control de tiempos horizontal y vertical para colocar el bloque M dentro de la trama de presentación explorada o moviendo la trama explorada, o una parte de la trama explorada conteniendo el bloque marcador M. La señal de prueba de canal verde AV sale de IC 300 y se combina en el amplificador 510, con la señal de salida de canal verde a partir del generador de presentación de pantalla 500. De esta manera, la señal de salida del amplificador 510 es acoplada al tubo de rayos catódicos verde ilustrativo GCRT y puede incluir un video fuente de presentación y/o señales generadas OSD y/o señales de video de prueba de calibración generadas IC 300, AV. El controlador 301 también ejecuta un programa almacenado en memoria de programa 308, que comprende varios algoritmos.
Para facilitar un controladór de ajuste de establecimiento inicial 301 sale de una palabra digital D en la barra colectora de datos 303, la cual está acoplada a una fuente de corriente controlable 250. La palabra digital D representa una corriente específica que será generada por la fuente de corriente 250 y suministrada a los sensores S1-S8 y al detector de sensor 275. Para facilitar el ajuste y alineación de las tres imágenes de color, se genera el bloque de establecimiento M como se describió previamente, y se acopla al CRT verde ilustrativo. En la Figura 1, se muestra un bloque de patrón de prueba M acercándose al sensor S1, y como se mencionó previamente, cada sensor puede ser iluminado por la generación en tiempo del bloque marcador dentro de una señal de video proyectada con una trama sobre explorada, o colocando la trama explorada de manera que el bloque M del marcador ilumina el sensor S1. Con ciertas entradas de señal de presentación, por ejemplo, las señales de formato de presentación de computadora, substancialmente toda el área explorada puede ser utilizada para la presentación de señal y de esta manera la operación con una trama sobre explorada es enormemente evitada. De esta manera, bajo este sensor ilustrativo S1 de condición de sobre exploración substancialmente de cero puede ser iluminado colocando la trama del bloque M o a través de la expansión temporal del tamaño de imagen. Claramente, la iluminación de sensor individual puede ser facilitada con una combinación tanto de control de tiempo de señal de video, colocación de trama, como cambio de tamaño de trama. Con referencia a la Figura 2, el generador de video 310 es instruido por la lógica de control 301 para generar un bloque de video M ilustrativo, teniendo un valor de video no pico inicial y colocado sobre un fondo de nivel substancialmente negro o negro. Los bloques de video similares con valores de video no pico pueden ser generados en cada canal de color, cuando se generan simultáneamente y se superimponen en la pantalla producen un bloque de imagen de color blanco sobre un fondo substancialmente negro. De esta manera, un bloque verde M ilustrativos es generador por el generador de video 310 y acoplado a través del amplificador 510 al CRT verde. El generador de video 310 es controlado por el microcontrolador 301 para general el bloque verde M en una posición de pantalla horizontal y vertical, de manera que un sensor específico, por ejemplo, el sensor S1 es iluminado por la luz verde del bloque M. La iluminación del sensor da como resultado una corriente fotogenerada Isen, como se muestra en la Figura 2. Ventajosamente se compensan las corrientes de sensor fotogeneradas ampliamente diferentes, se calibran y se miden a través del ciclo de control 100 ilustrado en la Figura 2. El detector de sensor 275 es ilustrado en el bloque de circuito 200 en la Figura 2. En términos simples, se genera una corriente de referencia Iref a través de una fuente de corriente 250 digitalmente controlada. La corriente de referencia es suministrada tanto al optosensor ilustrativo S1 como al sensor-detector 275. En ausencia de * iluminación de sensor, el sensor S1 representa una alta impedancia y consecuentemente divierte una corriente insignificante, Isen, de la corriente de referencia Iref. De esta manera, la mayor parte de la corriente de referencia Isen, es acoplada al sensor-detector 275 como la corriente Isw. La corriente Isw desvía al detector 275, de manera que el estado de salida es bajo, el cual es seleccionado para representar un sensor apagado o no iluminado. Cuando el sensor S es iluminado, la carga fotogenerada hace que el fotosensor presente una impedancia más baja y derive una corriente mayor Isen, de la corriente de referencia Iref, divirtiendo así la corriente Isw del sensor-detector 275. A un nivel de iluminación particular, el sensor S1 divierte suficiente corriente del sensor-detector 275 para hacer que se apague y asuma un potencial de voltaje alto nominalmente de suministro, que se selecciona para ser indicativo de un sensor con luz o iluminado. La salida del sensor-detector 275 es positiva yendo a la señal de pulso 202, la cual está acoplada a una entrada de la convergencia digital IC STV2050. El borde de aumento de señal de pulso 202 es muestreado y ocasiona que los contadores horizontales y verticales se detengan proporcionando así cuentas que determinan en donde ocurre la matriz de medición del sensor iluminado. La Figura 3 es un diagrama de flujo que muestra una secuencia ilustrativa para determinar una posición de trama horizontal con relación a un fotosensor fijo. La secuencia es iniciada en el paso 10, en donde el sensor 1 es seleccionado como el sensor de corriente y el canal verde como el canal de corriente. El paso 20 pide la determinación de un borde horizontal de marcador a través del sensor de corriente en el canal de corriente. Se genera un marcador o rectángulo vertical y se proyecta en el paso 30 para iluminar un área para la izquierda del sensor de corriente. En el paso 40, la posición estática, por ejemplo, desplazamiento H, para el color de corriente, verde, se fija en la posición izquierda máxima, y en el paso 50, en fotosensor es probado para determinar la presencia o ausencia de iluminación por el rectángulo marcador. Un NO en e paso 50 se inicia, en el paso 60, un movimiento o cambio en la posición estática hacia la derecha que es otra vez probada en el paso 50. Esta secuencia de ciclización de movimiento hacia la derecha progresivo continúa hasta que el paso 50 se encuentra en SI por lo que el valor o colocación de movimiento que da como resultado la iluminación del sensor se registra o se almacena en el paso 70. La secuencia precedente es repetida para un rectángulo marcador que se acerca al sensor desde el lado derecho. El paso 80 presenta la iluminación el marcador hacia el lado derecho del sensor y el sensor es probado en el paso 90 para determinar la iluminación por el marcador. Un NO en el paso 90 se inicia, en el paso 100, un movimiento o cambio en la posición estática en la dirección izquierda que otra vez es probada en el paso 80. El ciclo formado por los pasos 90 y 100 continúa hasta que el sensor es iluminado y el paso 90 se encuentra en SI que a su vez da como resultado el paso 110 de grabación del valor de movimiento que causó la detección del sensor. Los valores de movimiento izquierdo y derecho almacenados o registrados que ocasionan la detección del sensor, son procesados para formar un valor horizontal promedio en el paso 120, que se utiliza en la matriz de corrección. Después de esta secuencia de mediciones, de posición horizontal, se realiza una secuencia similar en la dirección de trama vertical y se inicia en el paso 130. El rectángulo marcador es generado y marcado por arriba del sensor de corriente en el paso 140. La posición vertical estática para el color de corriente se fija a un valor máximo en el paso 150 y el sensor es probado en el paso 160 para iluminación por el marcador. En el paso 160 se presenta un NO que da como un resultado la posición estática de marcador que se mueve hacia abajo por el paso 170, vuelve a probarse en el paso 160 y continúa el movimiento descendente hasta que en el paso 160 se presenta el SI. Un SI en el paso 160 ocasiona que el valor de movimiento que dio como resultado la detección del sensor, sea registrado o almacenado en el paso 180. El marcador después se vuelve a colorar por debajo del sensor de corriente en el paso 190 y en la posición de marcador después se prueba en el paso 200 para iluminación del sensor del marcador. Un NO en el paso 200 da como resultado que el marcador se mueva en una dirección ascendente en el paso 210 y se vuelva a probar en el paso 200. Este ciclo de movimiento continúa hasta que el sensor es iluminado por el marcador y el paso 200 indica SI ocasionando el valor de movimiento que va a ser almacenado o registrado en ei paso 220. Los dos valores de movimiento vertical almacenados que ocasionan la detección del sensor son promediados para formar un valor vertical en el paso 230 y almacenados para utilizarse en la matriz de corrección de convergencia de 3 x 3. En el paso 240, se realiza una prueba para determinar si todas las 8 posiciones del sensor han sido medidas, cuando existe un NO se incrementa ei número de sensor de corriente por una cuenta en el paso 250, y se inicia la determinación de un borde horizontal regresando al paso 20. De esta manera la secuencia formada por los pasos 10-250 miden errores de colocación de trama tanto en direcciones de exploración de trama horizontales como verticales para cada posición de sensor con un valor de error promedio calculado y almacenado. El SI en el paso 240 produce que se realice una prueba adicional en el paso 260 que determina en que color se realizó la secuencia de medición completa. Ya que el paso 10 inició la secuencia de medición en el canal verde, la prueba 260 indicará SI VERDE que a su vez, en el paso 270 cambia el canal de corriente a AZUL y fija el sensor de corriente en 1. Después del paso 270, la secuencia regresa al paso 20 para determinar un borde horizontal en el canal AZUL. Como se describió previamente, la secuencia de pasos 10-250 hace que cada posición de sensor sea medida con un valor promedio establecido y almacenado, para errores de corrección de trama tanto en direcciones de exploración de trama horizontales como verticales. Cuando en el paso 240 se presenta SI, todas las posiciones de sensor han sido medidas, promediadas y almacenadas, y el paso 260 determina qué color ha sido medido. Ya que en el paso 260 cambio el color de CORRIENTE a AZUL, el paso 260 indicará SI AZUL que a su vez en el paso 280 cambia el canal de corriente a ROJO y fija el sensor de corriente en 1. La secuencia después regresa al paso 20 para la determinación del borde horizontal en el canal rojo. Como se describió previamente, los pasos 10-250 son realizados 16 veces para medir y almacenar errores posicionales para todas las posiciones de sensor tanto en las direcciones horizontal como vertical. Finalmente, cuando el paso 260 se establece SI ROJO, lo 8 sensores han sido medidos tanto en las direcciones horizontal como vertical para los 3 colores produciendo 48 valores de error de colocación de trama promedio almacenados. Estos valores de error almacenados son aplicados a la matriz de recálculo de convergencia 3 x 3 previamente descrita e ilustrada en la secuencia mostrada en la FIGURA 5. El paso 320 inicia el recálculo de convergencia con el paso 330 ventajosamente formando un error de desplazamiento horizontal promedio para el sensor de pantalla central ausente S9. Este desplazamiento central horizontal promedio (Have) se deriva, como se describió anteriormente, promediando los valores de desviación promedio almacenados medidos en los pasos 120 y 230 para las posiciones de sensor S2 y S6 en cada color, en donde S9(Have) = (S2vaf + S6val)/2. Estos valores de desplazamiento centrales horizontales promedio después son almacenados para uso subsecuente. Este proceso ventajoso se repita en el paso 340 para establecer un valor de error de desplazamiento vertical promedio central (Vave) a partir de los valores de error de posición promediados para los sensores S4 y S8, en donde S9(Vave) = (S4val + S8val)/2. Estos valores de pantalla central promedio calculado son almacenados para uso subsecuente en un cálculo de ajuste de curva para determinar valores de forma de onda de convergencia horizontal y vertical en los pasos 350 y 360, respectivamente. En el paso 370, se agregan nuevas señales de convergencia, necesarias para restaurar una imagen convergida, a los valores de corriente y se aplican a bobinas de convergencia horizontal y vertical, por ejemplo las bobinas verdes ilustrativas 615 y 665. El objetivo del cálculo de ajuste de curva realizado en los pasos 350 y 360 es generar formas de onda que pasen a través de los valores de desplazamiento horizontal y vertical colineales medidos y calculados. La adición de las curvas a los valores de convergencia existentes después restaurará la imagen a un conversión convergida. Dichos cálculos de fijación de curva son conocidos pero ahora se describirán en términos simplificados. Como se mencionó con respecto a la Figura 1B, los sensores S1-S8 son localizados en una rejilla ilustrativa con coordenadas como se muestra en el Cuadro I ilustrativo.
CUADRO I Por ejemplo, la fila horizontal superior colineal de los sensores S1, S2, S3, cada uno tiene la misma ordenada vertical (0.25). Sin embargo, la medición de las posiciones de trama reales proporciona desplazamientos a partir de la ubicación de sensor físico. De esta manera, se requiere de una onda de forma de corrección que pasará a través de cada ubicación de medición y cuando se aplique a los valores de convergencia de corriente ocasionarán una línea de trama horizontal substancialmente cubriendo los sensores de borde superiores colineales S1, S2, S3. Se utiliza un algoritmo de fijación de curva polinominal para generar valores de corrección para cada punto de cruce de la rejilla ilustrativa. Se emplean una función de segundo orden o parabólica para formar una curva que pase a través de los 3 puntos colineales medidos. Los datos variables de entrada este cálculo son los valores delta o de desplazamiento medidos en las 8 posiciones de sensor y la pantalla central ventajosamente promediada o el noveno valor de sensor. El cálculo se realiza en las direcciones horizontal y vertical para cada uno de los tres colores. En la parte superior, inferior y lados de la imagen, se han determinado valores de desplazamiento para cada grupo de tres ubicaciones de sensor colineales. De esta manera, se puede generar una forma de onda parabólica que pasará a través de la delta o desplazamientos medidos en estas ubicaciones. Sin embargo, como se describió, los valores de desplazamiento derivados representativos de errores de pantalla central son utilizados en lugar del sensor ausente S9. Por ejemplo: Una ecuación general para una función parabólica tiene la forma: y = a0x2 + 3t, + a2« en donde y corresponde al valor ?, X corresponde al valor H, y ax es desconocido. A continuación se muestra una ecuación de matriz y puede ser resuelta para determinar los coeficientes a0, al7 a2» Estos coeficientes después pueden ser aplicados para generar una forma de onda parabólica que pasará a través de las desviaciones medidas y cuando se aplique al circuito de convergencia proporciona una imagen de presentación convergida.

Claims (15)

REIVINDICACIONES
1. Un método para determinar automáticamente un error de convergencia en el centro de una pantalla de proyección que tiene una pluralidad de fotosensores que pueden ser iluminados por un marcador, el método comprende los pasos: mover dicho marcador hacia un fotosensor de la pluralidad hasta que el primer fotosensor quede iluminado por el marcador; mover el marcador hacia un segundo fotosensor de la pluralidad localizada adyacente a un borde de trama opuesto al primer fotosensor hasta que el segundo fotosensor quede iluminado por el marcador; definir una variable para cada movimiento del marcador para iluminar los primero y segundo fotosensores; y calcular una variable promedio a partir de cada variable relacionada con el movimiento de los marcadores para iluminar los primero y segundo fotosensores.
2. El método de acuerdo con la reivindicación 1, en donde los pasos de movimiento comprenden: mover el marcador en una primera dirección hacia el primer fotosensor hasta que el primer fotosensor quede iluminado y mover el marcador en una segunda dirección opuesta a la primer dirección hasta que el fotosensor quede iluminado; y mover el marcador en una primera dirección hacia el segundo fotosensor hasta que el segundo fotosensor quede iluminado y mover el marcador en una segunda dirección opuesta a la primera dirección hasta que el segundo fotosensor quede Iluminado.
3. El método de acuerdo con la reivindicación 2, en donde los pasos de movimiento comprenden: calcular una variable promedio para mover el marcador para iluminar el primer fotosensor en las primera y segunda direcciones; y calcular una variable promedio relacionada con el movimiento del marcador para iluminar el segundo fotosensor en las primera y segunda direcciones.
4. El método de acuerdo con la reivindicación 1, que comprende el paso de mover el marcador hacia el primer fotosensor en una dirección horizontal.
5. El método de acuerdo con la reivindicación 1, que comprende el paso de mover el marcador hacia ei primer fotosensor en una dirección vertical.
6. El método de acuerdo con la reivindicación 1, que comprende el paso de mover el marcador hacia el segundo fotosensor en una dirección de exploración vertical.
7. El método de acuerdo con la reivindicación 1, que comprende el paso de mover el marcador hacia el segundo fotosensor en una dirección de exploración horizontal.
8. El método de acuerdo con la reivindicación 1, en donde el paso de calcular comprende el paso adicional de: utilizar una variable promedio calculada para representar un error de colocación de trama de pantalla central.
9. El método de acuerdo con la reivindicación 1, en donde el paso de utilizar comprende el paso adicional de: generar un valor de corrección de convergencia para la pantalla central utilizando la variable promedio calculada.
10. Un método automático para determinar un error de colocación de trama en el centro de una pantalla de proyección teniendo una pluralidad de fotosensores de borde de pantalla que pueden ser iluminados por un marcador, el método comprende los pasos de: mover el marcador hacia cada fotosensor de la pluralidad de fotosensores hasta que el fotosensor quede iluminado por el marcador; almacenar una variable de movimiento para cada fotosensor de la pluralidad de fotosensores que ocasiona la iluminación de cada fotosensor de la pluralidad de fotosensores; y seleccionar un par de las variables de movimiento almacenado y calcular una variable de movimiento promedio representativa de una variable de movimiento definiendo una posición substancialmente equidistante entre fotosensores a partir de los cuales el par seleccionado de variables de movimiento almacenadas se derivan.
11. El método automático de acuerdo con la reivindicación 10, en donde el paso de seleccionar comprende los pasos de: seleccionar un par de variables de movimiento almacenadas derivadas de fotosensores colinealmente ubicados con ubicaciones de borde opuestas.
12. El método automático de acuerdo con la reivindicación 10, en donde el paso de seleccionar comprende el paso de: seleccionar un par de variables de movimiento almacenadas derivadas de fotosensores colinealmente localizados con ubicaciones de borde centrales opuestas.
13. El método de acuerdo con la reivindicación 10, en donde el paso de movimiento comprende: mover el marcador en una primera dirección hacia cada fotosensor hasta que cada fotosensor quede iluminado y mover el marcador en una segunda dirección opuesta a la primera dirección hasta que cada fotosensor quede iluminado.
14. El método de acuerdo con la reivindicación 10, en donde el paso de almacenar comprende: almacenar para cada fotosensor de la pluralidad de fotosensores, variables de movimiento que ocasionan la iluminación de cada fotosensor en las primera y segunda direcciones opuestas.
15. El método de acuerdo con la reivindicación 14, en donde el paso de almacenar comprende: promediar y almacenar variables de movimiento que ocasionan la iluminación de cada fotosensor en las primera y segunda direcciones opuestas.
MXPA02005140A 1999-11-22 2000-11-02 Convergencia automatica en un aparato de presentacion de proyeccion. MXPA02005140A (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16681699P 1999-11-22 1999-11-22
PCT/US2000/030216 WO2001039510A1 (en) 1999-11-22 2000-11-02 Automated convergence in a projection display apparatus

Publications (1)

Publication Number Publication Date
MXPA02005140A true MXPA02005140A (es) 2002-11-07

Family

ID=22604804

Family Applications (1)

Application Number Title Priority Date Filing Date
MXPA02005140A MXPA02005140A (es) 1999-11-22 2000-11-02 Convergencia automatica en un aparato de presentacion de proyeccion.

Country Status (8)

Country Link
EP (1) EP1245120B1 (es)
JP (1) JP2003515990A (es)
KR (1) KR20020072279A (es)
CN (1) CN1268139C (es)
AU (1) AU1454801A (es)
DE (1) DE60012577T2 (es)
MX (1) MXPA02005140A (es)
WO (1) WO2001039510A1 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007030119A1 (en) * 2005-09-08 2007-03-15 Thomson Licensing Method for adjusting video display apparatus
DE102008029046B4 (de) * 2008-06-18 2015-03-05 Eizo Gmbh Verfahren zur automatischen Messfeldsuche für einen ortsunterschiedlich platzierbaren Frontluminanzsensor
TWI405676B (zh) 2010-12-21 2013-08-21 Hiti Digital Inc 提高定位精準度的立體影像列印裝置及其列印方法
TWI451978B (zh) * 2010-12-28 2014-09-11 Hiti Digital Inc 提高列印效率的立體影像列印裝置及其列印方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4137131C2 (de) * 1991-11-12 2003-06-26 Thomson Brandt Gmbh Verfahren und Vorrichtung zur Rasterkorrektur
DE19700204A1 (de) * 1997-01-04 1998-07-09 Thomson Brandt Gmbh Verfahren zur Einstellung der Konvergenz bei einem Projektions-Fernsehgerät
DE19702452A1 (de) * 1997-01-24 1998-07-30 Thomson Brandt Gmbh Schaltung zur Einstellung der Konvergenz bei einem Projektionsfernsehgerät

Also Published As

Publication number Publication date
CN1425253A (zh) 2003-06-18
WO2001039510A1 (en) 2001-05-31
EP1245120A1 (en) 2002-10-02
KR20020072279A (ko) 2002-09-14
JP2003515990A (ja) 2003-05-07
DE60012577D1 (de) 2004-09-02
CN1268139C (zh) 2006-08-02
AU1454801A (en) 2001-06-04
DE60012577T2 (de) 2005-09-15
EP1245120B1 (en) 2004-07-28

Similar Documents

Publication Publication Date Title
US4999703A (en) Automatic image correction method and apparatus for projectors utilizing cathode ray tubes
EP0420568B1 (en) Digital convergence apparatus
US5434595A (en) System and method for automatically correcting x-y image distortion in a display
US7379124B2 (en) Center convergence optimization in a projection display apparatus
US5497054A (en) Automatic digital convergence correcting method and apparatus therefor
EP0556839B1 (en) Cathode ray tube control apparatus
EP1245120B1 (en) Automated convergence in a projection display apparatus
GB2102258A (en) Closed-loop correction system for CRT-type display
JPH0225594B2 (es)
US6583814B1 (en) System for correction of convergence in a television device related application
JPS5947513B2 (ja) ブラウン管補正装置
KR20010007101A (ko) 화상 제어 장치 및 방법 및 화상 표시 장치
US6281951B1 (en) Device for convergence correction in a television receiver
US6404462B1 (en) Digital convergence image
KR20010014996A (ko) 음극선관 및 휘도 조절 장치 및 그 방법
KR100196401B1 (ko) 멀티싱크용 디지털 컨버전스 보정장치 및 그 방법
JPH0576017A (ja) 画像補正装置
JPH04326693A (ja) 画像補正装置
JPH0583749A (ja) ユニフオミテイ補正装置
JPS63224574A (ja) コンバ−ゼンス装置
JPH04172095A (ja) 画像補正装置
JPH0767119A (ja) ディジタルコンバーゼンス装置
JPH05145935A (ja) 画像補正装置
JPH04282993A (ja) コンバーゼンス自動補正装置
JPS63238789A (ja) コンバ−ゼンス装置

Legal Events

Date Code Title Description
FG Grant or registration