ES2686728T3 - Método y dispositivo para procesar imágenes de vídeo - Google Patents

Método y dispositivo para procesar imágenes de vídeo Download PDF

Info

Publication number
ES2686728T3
ES2686728T3 ES13847903.5T ES13847903T ES2686728T3 ES 2686728 T3 ES2686728 T3 ES 2686728T3 ES 13847903 T ES13847903 T ES 13847903T ES 2686728 T3 ES2686728 T3 ES 2686728T3
Authority
ES
Spain
Prior art keywords
video image
signal
original
suppression
preset size
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13847903.5T
Other languages
English (en)
Inventor
Weilin Lei
Changjun Lu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Leyard Optoelectronic Co Ltd
Original Assignee
Leyard Optoelectronic Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Leyard Optoelectronic Co Ltd filed Critical Leyard Optoelectronic Co Ltd
Application granted granted Critical
Publication of ES2686728T3 publication Critical patent/ES2686728T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/005Adapting incoming signals to the display format of the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/2092Details of a display terminals using a flat panel, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G3/2096Details of the interface to the display terminal specific for a flat panel
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/20Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters
    • G09G3/22Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources
    • G09G3/30Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels
    • G09G3/32Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes for presentation of an assembly of a number of characters, e.g. a page, by composing the assembly by combination of individual elements arranged in a matrix no fixed position being assigned to or needed to be assigned to the individual characters or partial characters using controlled light sources using electroluminescent panels semiconductive, e.g. using light-emitting diodes [LED]
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • G09G5/008Clock recovery
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/14Display of multiple viewports
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234309Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by transcoding between formats or standards, e.g. from MPEG-2 to MPEG-4 or from Quicktime to Realvideo
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/4302Content synchronisation processes, e.g. decoder synchronisation
    • H04N21/4305Synchronising client clock from received content stream, e.g. locking decoder clock with encoder clock, extraction of the PCR packets
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display
    • H04N21/440263Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream or rendering scenes according to encoded video stream scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display by altering the spatial resolution, e.g. for displaying on a connected PDA
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/0122Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal the input and the output signals having different aspect ratios
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0435Change or adaptation of the frame rate of the video stream
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0442Handling or displaying different aspect ratios, or changing the aspect ratio

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Transforming Electric Information Into Light Information (AREA)

Abstract

Un método para procesar una imagen de vídeo, que comprende: recibir una imagen de vídeo original; ajustar una frecuencia de reloj de señal de la imagen de vídeo original para obtener una imagen de vídeo procesado; después de que se recibe una señal de comando introducida por un usuario, capturar la imagen de vídeo procesado de acuerdo con un tamaño prestablecido para obtener una imagen de vídeo que corresponde a una ventana de visualización del tamaño prestablecido; y codificar la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener una imagen de vídeo codificado, caracterizado por que la señal de comando comprende una abscisa preestablecida y una ordenada preestablecida, en donde después de que se recibe la señal de comando introducida por el usuario, la etapa de capturar la imagen de vídeo procesado de acuerdo con el tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido comprende: realizar un cálculo de punto de píxel de acuerdo con una primera fórmula para obtener el número máximo Ho de puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, en donde la primera fórmula es: en la que Po es una frecuencia de reloj de píxel fija, Pi es una frecuencia de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original y Hos es un espaciado de píxeles efectivos entre dos líneas de un vídeo de salida; capturar los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido; adoptar puntos longitudinales verticales de una resolución de la imagen de vídeo original como puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido; y capturar la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y el punto de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido.

Description

5
10
15
20
25
30
35
40
45
50
55
60
DESCRIPCION
Método y dispositivo para procesar imágenes de vídeo Campo técnico
La presente invención se refiere al campo de procesamiento de imágenes y en particular a un método y un dispositivo para procesar una imagen de vídeo.
Antecedentes
En la actualidad, una pantalla de LED a color completo es utilizada ampliamente para una pantalla de vídeo de tipo empalme, es decir, se forma una pantalla de LED a color completo de una pieza empalmando una serie de módulos de visualización con una resolución física fijada. Si la resolución de una única pantalla de módulo de visualización es n*m (es decir, un área efectiva de visualización tiene n columnas de píxeles y m líneas de píxeles), la resolución de visualización de la pantalla de LED a color completo de una pieza es de K*n columnas de píxeles y P*m líneas de píxeles, en el caso de que la pantalla de visualización de LED a color completo de una pieza se forme empalmando K pantallas de módulo de visualización en una dirección horizontal y P pantallas de módulo de visualización en una dirección longitudinal. Además, diferentes clientes requieren diferente área de pantalla, y el número de módulos de visualización empalmados de una pantalla de LED a color completo también no está especificado. Por lo tanto, puede formarse cualquier área de visualización de la cual la resolución no es menor de n*m. Sin embargo, la resolución efectiva de la señal de vídeo convencional está especificada, tal como 800*600, 1024*768, 1280*1024 y 1920*1080 o similares. Si después de que se decodifica una señal 1080P y se desencripta mediante una señal de HDMI, los puntos de píxel efectivos de la misma tienen 1920 puntos en la dirección horizontal y 1080 puntos en la dirección longitudinal, la imagen de vídeo requiere la resolución física de 1920*1080 puntos del dispositivo de visualización de un terminal para la mejor visualización. Sin embargo, para el dispositivo de visualización en el que el píxel físico no alcanza 1920*1080, el área efectiva visualizada del mismo es una parte de la imagen, pero los puntos de píxel físicos en la pantalla de visualización de LED a color completo no están fijados para su aplicación en el sitio de la misma. Específicamente, de conformidad con los requisitos de visualización para puntos físicos menores que 1080P, hay diferentes requisitos para el área donde se visualiza la imagen, se provoca fácilmente una diferencia entre la imagen de vídeo y la imagen de visualización de LED a color completo puesto que la imagen de vídeo no puede visualizarse punto de píxel por punto de píxel cuando se usa la pantalla de lEd a color completo para visualizar la imagen de vídeo. Adicionalmente, para una señal de flujo de vídeo de alta resolución, puesto que la frecuencia de reloj de píxel de la imagen es demasiado alta, el circuito de accionamiento de pantalla de LED adecuado para Señalización Diferencial de Baja Tensión (LVDS) sufrirá de recibir problemas. Por ejemplo, excesiva frecuencia de reloj de píxel provoca excesiva tasa de bits de transmisión de la LVDS. Cuando se eleva la temperatura del circuito y el circuito se ve interferido por ruido, el extremo de recepción de la LVDS es inestable, es decir, la capacidad anti-interferencia se vuelve mala. Incluso en un caso de una gran resolución, tal como resolución de 1600*1200, la frecuencia de reloj alcanza 162,0 MHz, no puede realizarse la transmisión de datos de vídeo a través de un protocolo de LVDS.
Para resolver los problemas anteriores, en un caso donde la pantalla de LED a color completo visualiza cualquier resolución, la imagen se escala o expande de acuerdo con el tamaño de la pantalla para ajsutarse a la visualización de la pantalla de LED. Por ejemplo, el número de puntos de píxel físicos de la pantalla es P*K, y la resolución de la imagen es M*N, de modo que la imagen con la resolución de M*N se escala por P*K. De esta manera, aunque puede visualizarse una pantalla de vídeo completa, el método de procesamiento aumenta la complejidad de un sistema de procesamiento de extremo frontal y aumenta el coste, y la misma imagen sufrirá de pérdida después de procesarse, lo que reduce la calidad de la imagen. Adicionalmente, en la actualidad, el método técnico de transmisión de red adoptado por el LED limita la tasa de transmisión de datos de la pantalla, por ejemplo, la tasa de transmisión de un único puerto de transmisión de Ethernet Gbit es mucho menor que la de transmisión diferencial de baja tensión, que es perjudicial para la transmisión de imágenes de alta definición. Por lo tanto, para transmitir la imagen de alta definición, pueden añadirse múltiples puertos de transmisión de Ethernet para transmisión simultánea, que también aumenta el coste.
A partir de lo anterior, en la técnica anterior, la imagen de vídeo se escala para visualizar la imagen de vídeo con diferentes resoluciones en la pantalla empalmada, lo que reduce la calidad de la imagen visualizada y hace el procesamiento complicado.
Actualmente, no se ha propuesto solución eficaz para el problema de que la distorsión de la imagen visualizada se provoca escalando las imágenes de vídeo al visualizar las imágenes de vídeo con diferentes resoluciones en la pantalla empalmada en la técnica anterior.
El documento US 2006/262223 A1 desvela un escalador de vídeo.
5
10
15
20
25
30
35
40
45
50
55
60
Sumario
Para el problema de que la distorsión de la imagen visualizada se provoca escalando las imágenes de vídeo al visualizar las imágenes de vídeo con diferentes resoluciones en la pantalla empalmada en la técnica relacionada, se proporciona un método y dispositivo para procesar una imagen de vídeo, mediante los cuales se resuelve el problema anterior.
Para este fin, de acuerdo con un aspecto de la invención, se proporciona un método para procesar una imagen de vídeo, que incluye: recibir una imagen de vídeo original; ajustar una frecuencia de reloj de señal de la imagen de vídeo original para obtener una imagen de vídeo procesado; después de que se recibe una señal de comando introducida por un usuario, capturar la imagen de vídeo procesado de acuerdo con un tamaño prestablecido para obtener una imagen de vídeo que corresponde a una ventana de visualización del tamaño prestablecido; y codificar la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener una imagen de vídeo codificado. La señal de comando incluye una abscisa preestablecida y una ordenada preestablecida, en las que, después de que se recibe la señal de comando introducida por el usuario, la etapa de capturar la imagen de vídeo procesado de acuerdo con el tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido incluye: realizar un cálculo de punto de píxel de acuerdo con una primera fórmula para obtener el número máximo Ho de puntos de píxel horizontal de la
_ Po .
ventana de visualización del tamaño prestablecido, en el que la primera fórmula es: Ho —----xHit-Hos, en la
Pi
que Po es una frecuencia de reloj de píxel fija, Pi es una frecuencia de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original, y Hos es un espaciado de píxeles efectivo entre dos líneas de un vídeo de salida; capturar los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido; adoptar puntos longitudinales verticales de una resolución de la imagen de vídeo original como puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido; y capturar la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y el punto de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido.
Como alternativa, la etapa de ajustar la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado incluye: extraer una señal de línea original, una señal de campo original, una señal de supresión original y una señal de enmascaramiento de supresión original desde una señal de control de la imagen de vídeo original; realizar restablecimiento de conteo para la señal de campo original en puntos de salto de la señal de campo original tomando la señal de línea original como un reloj para obtener una señal de sincronización de campo; realizar restablecimiento de conteo para la señal de línea original en puntos de salto de la señal de línea original adoptando la frecuencia de reloj de píxel fija como un reloj para obtener una señal de sincronización de línea; realizar restablecimiento de conteo para la señal de supresión original en puntos de salto que son momentos mayores que una cabecera de sincronización de la señal de sincronización de línea tomando la señal de sincronización de línea como un reloj para obtener una señal de sincronización de supresión; realizar restablecimiento de conteo para la señal de enmascaramiento de supresión original en puntos de salto de la señal de sincronización de supresión tomando la señal de sincronización de supresión como un reloj para obtener una señal de enmascaramiento de supresión; y generar la señal de control de vídeo procesado de acuerdo con la señal de sincronización de campo, la señal de sincronización de línea, la señal de sincronización de supresión y la señal de enmascaramiento de supresión, y obtener la imagen de vídeo procesado.
Como alternativa, después de recibir la imagen de vídeo original, el método incluye adicionalmente: recibir la señal de comando introducida por el usuario y analizar la señal de comando para obtener la abscisa preestablecida y la ordenada preestablecida.
Como alternativa, antes de ajustar la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el método incluye adicionalmente: detectar si una señal de datos de la imagen de vídeo original es una señal de DDR; y en un caso donde la señal de datos de la imagen de vídeo original sea la señal de DDR, ajustar una anchura de bits de la señal de datos de la imagen de vídeo original para obtener una imagen de vídeo original de un modo de transmisión de único borde de reloj.
Como alternativa, después de ajustar la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el método incluye adicionalmente: realizar una operación de acceso de ping-pong en la imagen de vídeo procesado tomando la frecuencia de reloj de señal de la imagen de vídeo original como un reloj de almacenamiento y tomando una señal de supresión de la imagen de vídeo procesado como una señal de activación de almacenamiento.
Para este fin, de acuerdo con un aspecto de la invención, se proporciona un dispositivo para procesar una imagen de vídeo, que incluye: un módulo de recepción, configurado para recibir una imagen de vídeo original; un primer módulo de procesamiento, configurado para ajustar una frecuencia de reloj de señal de la imagen de vídeo original
5
10
15
20
25
30
35
40
45
50
55
60
para obtener una imagen de vídeo procesado; un segundo módulo de procesamiento, configurado para, después de que se recibe una señal de comando introducida por un usuario, capturar la imagen de vídeo procesado de acuerdo con un tamaño prestablecido para obtener una imagen de vídeo que corresponde a una ventana de visualización del tamaño prestablecido; y un módulo de codificación, configurado para codificar la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener una imagen de vídeo codificado. La señal de comando incluye una abscisa preestablecida y una ordenada preestablecida, en el que el segundo módulo de procesamiento incluye: un primer módulo de cálculo, configurado para realizar cálculo de punto de píxel de acuerdo con una primera fórmula para obtener el número máximo Ho de puntos de píxel horizontal de la ventana de
visualización del tamaño prestablecido, en el que la primera fórmula es: ^° ~~p^-*Hit — Hos , en |a qUe p0 es
una frecuencia de reloj de píxel fija, Pi es una frecuencia de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original, y Hos es un espaciado de píxeles efectivo entre dos líneas de un vídeo de salida; un primer módulo de subprocesamiento, configurado para capturar los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, y adoptar puntos longitudinales verticales de una resolución de la imagen de vídeo original como puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido; y un segundo módulo de subprocesamiento, configurado para capturar la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y los puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido.
Como alternativa, el primer módulo de procesamiento incluye: un módulo de extracción, configurado para extraer una señal de línea original, una señal de campo original, una señal de supresión original y una señal de enmascaramiento de supresión original desde una señal de control de la imagen de vídeo original; un primer módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de campo original en puntos de salto de la señal de campo original tomando la señal de línea original como un reloj para obtener una señal de sincronización de campo; un segundo módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de línea original en puntos de salto de la señal de línea original tomando la frecuencia de reloj de píxel fija como un reloj para obtener una señal de sincronización de línea; un tercer módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de supresión original en puntos de salto que son momentos mayores que una cabecera de sincronización de la señal de sincronización de línea, tomando la señal de sincronización de línea como un reloj para obtener una señal de sincronización de supresión; un cuarto módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de enmascaramiento de supresión original en puntos de salto de la señal de sincronización de supresión tomando la señal de sincronización de supresión como un reloj para obtener una señal de enmascaramiento de supresión; y un cuarto módulo de subprocesamiento, configurado para generar una señal de control de la imagen de vídeo procesado de acuerdo con la señal de sincronización de campo, la señal de sincronización de línea, la señal de sincronización de supresión y la señal de enmascaramiento de supresión, y obtener la imagen de vídeo procesado.
Como alternativa, después de que el módulo de recepción recibe la imagen de vídeo original, el dispositivo incluye adicionalmente: un tercer módulo de procesamiento, configurado para recibir la señal de comando introducida por el usuario y analizar la señal de comando para obtener la abscisa preestablecida y la ordenada preestablecida.
Como alternativa, antes de que el primer módulo de procesamiento ajuste la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el dispositivo incluye adicionalmente: un módulo de detección, configurado para detectar si una señal de datos de la imagen de vídeo original es una señal de DDR; y un cuarto módulo de procesamiento, configurado para, en un caso donde la señal de datos de la imagen de vídeo original sea la señal de DDR, ajustar una anchura de bits de la señal de datos de la imagen de vídeo original para obtener una señal de imagen de vídeo original de un modo de transmisión de único borde de reloj.
Como alternativa, después de que el primer módulo de procesamiento ajusta la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el dispositivo incluye adicionalmente: un módulo de lectura, configurado para realizar una operación de ping-pong para la imagen de vídeo procesado tomando la frecuencia de reloj de señal de la imagen de vídeo original como un reloj de almacenamiento y tomando la señal de supresión de la imagen de vídeo procesado como una señal de activación de almacenamiento.
De acuerdo con el método y dispositivo para procesar la imagen de vídeo de la realización de la invención, se obtienen señales de nueva línea, campo y sincronización de supresión a través de ajustar la frecuencia de reloj de una imagen de entrada, y se obtiene una nueva imagen de vídeo, y a continuación, se realiza la correspondiente operación de captura y operación de emisión de acuerdo con los requisitos de visualización de imagen del usuario, de modo que se resuelve el problema de que la distorsión de la imagen visualizada se provoca escalando las imágenes de vídeo al visualizar las imágenes de vídeo con diferentes resoluciones en la pantalla empalmada en la técnica anterior, y se realiza el efecto de que las imágenes de vídeo con cualquier resolución se visualizan de manera fiable y estable en el mejor intervalo de área de visualización.
5
10
15
20
25
30
35
40
45
50
55
60
65
Breve descripción de los dibujos
Los dibujos adjuntos descritos en el presente documento sirven para proporcionar un entendimiento de la invención, y constituyen una parte de esta solicitud. Las realizaciones esquemáticas y la descripción de las realizaciones esquemáticas de la misma invención sirven para explicar la invención en lugar de para limitar la invención de manera inapropiada. En los dibujos:
La Figura 1 es un diagrama estructural de un dispositivo para procesar una imagen de vídeo de acuerdo con una realización de la invención;
La Figura 2 es un diagrama estructural detallado de un dispositivo para procesar una imagen de vídeo de acuerdo con una realización de la invención;
La Figura 3 es un diagrama esquemático de una primera instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención;
La Figura 4 es un diagrama esquemático de una segunda instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención;
La Figura 5 es un diagrama esquemático de una tercera instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención;
La Figura 6 es un diagrama esquemático de una instantánea longitudinal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención;
La Figura 7 es un diagrama esquemático de una instantánea empalmada donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención;
La Figura 8 es un diagrama esquemático de una forma de onda de proceso de recuento de un tercer módulo de recuento de un usuario de acuerdo con una realización de la invención;
La Figura 9 es un diagrama de flujo de un método para procesar una imagen de vídeo de acuerdo con una realización de la invención; y
La Figura 10 es un diagrama de flujo de un método para procesar una imagen de vídeo de acuerdo con una realización mostrada en la Figura 9.
Descripción detallada de las realizaciones
Debería observarse que las realizaciones de la aplicación y las características de las realizaciones pueden combinarse entre sí y sin ningún conflicto. En lo sucesivo, la invención se describirá en detalle con referencia a los dibujos adjuntos y en conjunto con las realizaciones.
La Figura 1 es un diagrama estructural de un dispositivo para procesar una imagen de vídeo de acuerdo con una realización de la invención. La Figura 2 es un diagrama estructural detallado de un dispositivo para procesar una imagen de vídeo de acuerdo con una realización de la invención.
Como se muestra en la Figura 1 y en la Figura 2, el dispositivo incluye: un módulo de recepción 10, configurado para recibir una imagen de vídeo original; un primer módulo de procesamiento 30, configurado para ajustar una frecuencia de reloj de señal de la imagen de vídeo original para obtener una imagen de vídeo procesado; un segundo módulo de procesamiento 50, configurado para, después de que se recibe una señal de comando introducida por un usuario, capturar la imagen de vídeo procesado de acuerdo con un tamaño prestablecido para obtener una imagen de vídeo que corresponde a una ventana de visualización del tamaño prestablecido; y un módulo de codificación 70, configurado para codificar la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener una imagen de vídeo codificado.
De acuerdo con el dispositivo para procesar la imagen de vídeo de la realización de la presente solicitud, el módulo de recepción recibe la imagen de vídeo original de entrada, a continuación el primer módulo de procesamiento ajusta la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el segundo módulo de procesamiento, después de que se recibe la señal de comando introducida por el usuario, captura la imagen de vídeo procesado de acuerdo con el tamaño prestablecido para obtener la imagen de vídeo que corresponde a una ventana de visualización del tamaño prestablecido, y finalmente el módulo de codificación codifica la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo codificado. De acuerdo con el dispositivo para procesar la imagen de vídeo de la realización de la presente solicitud, se obtiene una nueva imagen de vídeo a través de ajustar la frecuencia de reloj de la imagen de entrada, y a continuación, se realiza la correspondiente operación de captura y operación de emisión de acuerdo con los requisitos de visualización de imagen del usuario, para resolver el problema de que la distorsión de la imagen visualizada se provoca escalando las imágenes de vídeo al visualizar las imágenes de vídeo de diferentes resoluciones en la pantalla empalmada en la técnica anterior, y se realiza el efecto de que las imágenes de vídeo de cualquier resolución se visualizan de manera fiable y estable en el mejor intervalo de área de visualización.
En la realización anterior, el segundo módulo de procesamiento 50 abre la ventana de visualización, y a continuación define y emite la imagen de vídeo a través de ajustar coordenadas de píxel (por ejemplo, la abscisa es X, y la ordenada es Y) en la esquina superior izquierda del área de visualización de imagen, para realizar la captura y la salida de la imagen de vídeo procesado, y los tamaños de área de la ventana de visualización de imagen efectiva
5
10
15
20
25
30
35
40
45
50
55
60
abiertos son diferentes dependiendo de diferentes resoluciones de las imágenes de entrada (es decir, la imagen de vídeo original en la realización anterior). La ventana de visualización del tamaño prestablecido puede ser del tamaño de la pantalla de visualización de la pantalla de LED a color completo empalmada.
En la realización anterior, como se muestra en la Figura 2, el módulo de codificación 70 puede implementarse a través de un codificador de LVDS, es decir, el codificador emite un vídeo de salida de la correspondiente ventana de visualización a la ventana de visualización de una manera de tasa de bits en serie, se realiza procesamiento tal como de paralelo a serie en una manera de 10:1. De esta manera, la tasa de bits de la LVDS es 10 veces la de la frecuencia de reloj de salida de la ventana de visualización. Si Po es el reloj de píxel de la ventana de visualización de 75 MHz, la tasa de bits de la LVDS alcanza 750 Mbps. Puesto que la LVDS es una transmisión diferencial de baja tensión, pueden realizarse las características de una alta tasa de bits de transmisión, pequeño consumo de potencia, alta fiabilidad y menos patillas de transmisión.
De acuerdo con la realización de la aplicación, la señal de comando incluye una abscisa preestablecida y una ordenada preestablecida, en la que el segundo módulo de procesamiento incluye: un primer módulo de cálculo, configurado para realizar cálculo de punto de píxel de acuerdo con una primera fórmula para obtener el número máximo Ho de los puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, en el que la
Po
Ho = —xHit - Hos ,
Pi
primera fórmula es:
donde Po es una frecuencia de reloj de píxel fija, Pi es una
frecuencia de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original, y Hos es un espaciado de píxeles efectivo entre dos líneas de un vídeo de salida; un primer módulo de subprocesamiento, configurado para capturar los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, y adoptar puntos longitudinales verticales de una resolución de la imagen de vídeo original como puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido; y un segundo módulo de subprocesamiento, configurado para capturar la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y los puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido. La función del segundo módulo de procesamiento anterior puede realizarse a través de un procesador de señal de control de vídeo mostrado en la Figura 2. Específicamente, la señal de control de vídeo procesado se genera de acuerdo con una señal de sincronización de campo, una señal de sincronización de línea, una señal de sincronización de supresión y una señal de enmascaramiento de supresión, y una señal digital de la imagen de vídeo original se corrige de acuerdo con la señal de control de vídeo procesado para obtener la imagen de vídeo procesado.
Específicamente, el primer módulo de cálculo realiza el cálculo de punto de píxel de acuerdo con la primera fórmula para obtener el número máximo Ho de los puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, a continuación el primer módulo de subprocesamiento captura los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, y adopta los puntos longitudinales verticales de la resolución de la imagen de vídeo original como los puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido, y finalmente un tercer módulo de subprocesamiento captura la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y los puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido obtenido por el segundo módulo de subprocesamiento para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido.
La primera fórmula es: ~ p. *Hit Hos , en \a qUe p0 qUe es una constante, es la frecuencia de reloj de
píxel fija, Pi es la frecuencia de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original, y Hos es el espaciado de píxeles efectivo entre dos líneas del vídeo de salida, y Ho también es el número máximo de los puntos de píxel leídos por una memoria.
La Figura 3 es un diagrama esquemático de una primera instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. La Figura 4 es un diagrama esquemático de una segunda instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. La Figura 5 es un diagrama esquemático de una tercera instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. La Figura 6 es un diagrama esquemático de una instantánea longitudinal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. La Figura 7 es un diagrama esquemático de una pantalla empalmada donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. En lo anterior, todas las ventanas de visualización de la Figura 3 a la Figura 3 anteriores pueden ser las ventanas de visualización del tamaño prestablecido, todos los vídeos de entrada pueden ser las imágenes de vídeo procesado por el primer módulo de procesamiento 30.
5
10
15
20
25
30
35
40
45
50
55
60
Por ejemplo, tomando la resolución M*N de la imagen de vídeo de entrada (es decir, la imagen de vídeo original) como un ejemplo, si se establecen los datos de vídeo de la ventana de visualización de imagen abierta para emitirse con Po fijo, el número máximo Ho de los puntos de píxeles efectivos horizontales de la ventana de visualización
abierta puede ser
En la fórmula anterior, Ho es el número máximo de los puntos de píxel emitidos por la ventana de visualización del tamaño prestablecido, Po es la frecuencia de reloj de píxel fija, Pi es la frecuencia de reloj de píxel del vídeo de entrada (es decir, la imagen de vídeo original en la realización anterior), Hit es el número total de relojes de ciclo de línea de la imagen de entrada, y Hos es el espaciado de píxeles efectivo entre dos líneas del vídeo de salida, es decir, el intervalo de tiempo entre el último píxel efectivo de la línea anterior y el primer píxel efectivo de la siguiente línea de dos líneas adyacentes (calculado por el número de los ciclos de reloj de píxel). Cuanto más grande es la frecuencia fijada Po, más grande es el tamaño de la ventana abierta, pero la estabilidad del sistema se verá influenciada. En la realización, la frecuencia de reloj fijada Po puede ser 75 MHz.
En la realización anterior, como se muestra en la Figura 3, si Po > Pi, la ventana abierta del tamaño prestablecido puede emitir los puntos de píxel horizontal de la resolución del vídeo de entrada de manera completa, es decir, la anchura horizontal de la ventana de visualización abierta del tamaño prestablecido es mayor que la anchura horizontal de la imagen de vídeo original. Específicamente, si la abscisa X de una posición inicial en la esquina superior izquierda de la ventana de visualización se establece para que sea 0 por un usuario, el primer píxel visualizado por la ventana abierta es el primer punto de píxel de la imagen de vídeo de entrada (es decir, la imagen de vídeo original), y si el número de los puntos de píxel horizontal de la ventana abierta es mayor que el número de los puntos de píxel horizontal de la imagen de entrada, la instantánea horizontal de la imagen de entrada puede visualizarse completamente.
Como se muestra en la Figura 4 y en la Figura 5, si el número de los puntos horizontales de la imagen de entrada es mayor que el número de los puntos horizontales de la ventana abierta, la imagen visualizada en la ventana abierta es un área de la imagen de entrada, y el área se desplaza a través de una coordenada X establecida. Si la coordenada preestablecida introducida por el usuario es (n1, 0), la imagen de vídeo procesado se desplaza n1 coordenadas a la derecha. Si la coordenada preestablecida introducida por el usuario es (n2, 0), la imagen de vídeo procesado se desplaza n2 coordenadas a la derecha.
En la realización anterior de la aplicación, el número máximo que puede visualizarse de los puntos longitudinales verticales de la ventana de visualización del tamaño prestablecido es el mismo que el número de los puntos verticales del píxel efectivo de la imagen de entrada en realidad. Por ejemplo, para la resolución de imagen de 1280*1024@60hz, el número máximo de los puntos verticales de la ventana de visualización es 1024. Como se muestra en la Figura 6, cuando la coordenada Y establecida por el usuario es 0, el número de los puntos verticales de la ventana de visualización es justo el mismo que el número de los puntos verticales de la imagen de entrada. Sin embargo, puesto que el número aplicado real de los puntos de la pantalla de LED a color completo puede no estar especificado, el usuario puede elegir también la visualización de la imagen a través de ajustar la coordenada Y de acuerdo con la realización mostrada en la Figura 6, es decir, la coordenada del primer punto de píxel de la primera línea y la primera columna de la imagen de vídeo de salida de la ventana de visualización se establece de acuerdo con la coordenada preestablecida (n, m) introducida por el usuario.
Puede observarse a partir de la descripción anterior que en la realización anterior de la aplicación, el usuario puede ajustar el área de visualización de la pantalla de LED a color completo de manera arbitraria, y capturar la imagen desde la imagen de vídeo procesado para obtener la mejor imagen de visualización. Adicionalmente, como se muestra en la Figura 7, el usuario puede también empalmar la imagen de resolución superior a través de aumentar la salida de la ventana de visualización. Si el número de los puntos de píxel horizontal de la imagen de vídeo procesado es dos veces del número máximo de los puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, pueden empalmarse dos pantallas de visualización para su visualización. Si las coordenadas preestablecidas de las dos pantallas de visualización del usuario son respectivamente (0, 0) y (n, 0), los puntos de coordenadas (x1, y1) y (x2, y2) del primer punto de píxel de la primera línea de las dos pantallas de visualización son respectivamente (0, 0) y (n, 0), donde n=x1+1, y m en la Figura 7 puede ser 0.
Para la coordenada Y establecida, las señales de campo, línea y supresión nuevamente generadas en la etapa anterior necesitan ajustarse. Si la coordenada Y establecida es 15, la operación de recuento es necesario que se realice tomando una nueva señal de sincronización de supresión como el reloj, y se realiza la operación resultante de acuerdo con el nuevo salto de sincronización de campo y se genera una correspondiente señal de enmascaramiento de supresión. Por ejemplo, la señal de enmascaramiento es inválida, es decir, 0 para el valor de recuento de 0-14, mientras que las señales de enmascaramiento son válidas para el resto. Los datos desde las líneas 0-14 se protegen de que se enmascaren, al mismo tiempo, una señal de sincronización de campo se desplaza hacia atrás por un valor de tiempo de 15 ciclos de supresión para mantener la misma fase con los primeros datos de línea de supresión.
imagen1
5
10
15
20
25
30
35
40
45
50
55
60
65
Adicionalmente, la generación y operación de la nueva señal de control de vídeo y el reloj leído por la memoria puede realizarse en el caso de que el generador de reloj mostrado en la Figura 2 esté a la frecuencia de reloj de píxel fija establecida.
A través de la realización anterior de la aplicación, cualquier área de la imagen puede visualizarse y empalmarse, y el requisito para la aplicación real del LED puede cumplirse de manera flexible, la transmisión de señal con la pantalla de LED se realiza a una tasa de bits de baja transmisión fijada para asegurar la fiabilidad del sistema.
En la realización anterior de la invención, el primer módulo de procesamiento 30 puede incluir: un módulo de extracción, configurado para extraer una señal de línea original, una señal de campo original, una señal de supresión original y una señal de enmascaramiento de supresión original desde una señal de control de la imagen de vídeo original; un primer módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de campo original en puntos de salto de la señal de campo original tomando la señal de línea original como el reloj para obtener una señal de sincronización de campo; un segundo módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de línea original en puntos de salto de la señal de línea original tomando la frecuencia de reloj de píxel fija como el reloj para obtener una señal de sincronización de línea; un tercer módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de supresión original en puntos de salto que son momentos mayores que una cabecera de sincronización de la señal de sincronización de línea, tomando la señal de sincronización de línea como el reloj para obtener una señal de sincronización de supresión; un cuarto módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de enmascaramiento de supresión original en los puntos de salto de la señal de sincronización de supresión tomando la señal de sincronización de supresión como el reloj para obtener una señal de enmascaramiento de supresión; y un cuarto módulo de subprocesamiento, configurado para generar la señal de control de la imagen de vídeo procesado de acuerdo con la señal de sincronización de campo, la señal de sincronización de línea, la señal de sincronización de supresión y la señal de enmascaramiento de supresión, y obtener la imagen de vídeo procesado.
Específicamente, el módulo de extracción extrae la señal de línea original, la señal de campo original, la señal de supresión original y la señal de enmascaramiento de supresión original desde la señal de control de la imagen de vídeo original, y aplica las señales anteriores a la operación de recuento de los siguientes módulos. En lo anterior, el primer módulo de recuento realiza restablecimiento de conteo para la señal de campo original en los puntos de salto de la señal de campo original tomando la señal de línea original como el reloj para obtener la señal de sincronización de campo. El segundo módulo de recuento realiza restablecimiento de conteo para la señal de línea original en los puntos de salto de la señal de línea original tomando la frecuencia de reloj de píxel fija como el reloj para obtener la señal de sincronización de línea. El tercer módulo de recuento realiza restablecimiento de conteo para la señal de supresión original en puntos de salto que son momentos mayores que una cabecera de sincronización de la señal de sincronización de línea, tomando la señal de sincronización de línea como el reloj para obtener la señal de sincronización de supresión. El cuarto módulo de recuento realiza restablecimiento de conteo para la señal de enmascaramiento de supresión original en los puntos de salto de la señal de sincronización de supresión tomando la señal de sincronización de supresión como el reloj para obtener la señal de enmascaramiento de supresión. Después de que los módulos anteriores realizan la operación anterior, el cuarto módulo de subprocesamiento genera la señal de control de la imagen de vídeo procesado de acuerdo con la señal de sincronización de campo, la señal de sincronización de línea, la señal de sincronización de supresión y la señal de enmascaramiento de supresión obtenidas por módulos anteriores, y obtiene la imagen de vídeo procesado.
La Figura 8 es un diagrama esquemático de una forma de onda del proceso de recuento del tercer módulo de recuento de un usuario de acuerdo con una realización de la invención.
Por ejemplo, el primer módulo de recuento realiza el proceso de frecuencia de reloj para la señal de control del vídeo original para generar la señal de sincronización de campo. La señal de campo emitida por el vídeo toma el salto de la señal de campo original (es decir, la señal de campo en la señal de control de la imagen de vídeo original) como un límite, y se realiza el restablecimiento de conteo para la señal de campo original tomando la señal de línea como un reloj. Durante este recuento, se establece 0-n1 (0 a n1) para que sea la cabecera de sincronización de la señal de campo, y el nivel eléctrico de la señal de campo es bajo, y otros valores de recuento son altos, y se genera una nueva señal de sincronización de campo (es decir, la señal de sincronización de campo en la realización anterior). El segundo módulo de recuento realiza el proceso de frecuencia de reloj para la señal de control del vídeo original para generar la señal de sincronización de campo. La nueva señal de sincronización de línea toma el salto de la señal de línea original (es decir, la señal de línea en la señal de control de la imagen de vídeo original) como un límite, y se realiza el restablecimiento de conteo para la nueva señal de sincronización de línea tomando el reloj de salida (es decir, la frecuencia de reloj fijada Po) como un reloj, en el que se establece 0-m1 para que sea la sincronización de señal de línea (es decir, el nivel eléctrico de la señal de línea es bajo), otros valores de recuento son altos, y se genera una nueva señal de sincronización de línea (es decir, la señal de sincronización de línea en la realización anterior). El tercer módulo de recuento realiza el proceso de frecuencia de reloj para la señal de control del vídeo original para generar la señal de sincronización de campo. Como se muestra en la Figura 8, se genera una nueva señal de sincronización de supresión tomando la nueva señal de sincronización de línea como el reloj, y la cabecera de sincronización de la nueva señal de sincronización de supresión es mayor que la cabecera de sincronización de la nueva señal de sincronización de línea. Adicionalmente, la nueva señal de sincronización de supresión está
5
10
15
20
25
30
35
40
45
50
55
60
65
estrechamente vinculada a la lectura de la memoria. Una vez que la señal de supresión es alta, la memoria lee y emite los primeros datos de la correspondiente línea de la ventana de visualización del tamaño prestablecido. Por ejemplo, si se establece 0-m2 (m2>m1) para que sea señal de supresión baja, los datos de píxel de la memoria se leen desde m2+1. Durante (m2+1)-m3, la señal de supresión es alta, es decir, es el momento de emitir los datos de píxel, y además de esto, la señal de supresión se vuelve baja.
De acuerdo con la realización anterior de la aplicación, después de que el módulo de recepción 10 recibe la imagen de vídeo original, el dispositivo puede incluir adicionalmente: un tercer módulo de procesamiento, configurado para recibir una señal de comando introducida por un usuario y analizar la señal de comando para obtener la abscisa preestablecida y la ordenada preestablecida.
Específicamente, después de que el módulo de recepción recibe la imagen de vídeo original, el dispositivo puede incluir adicionalmente el tercer módulo de procesamiento, es decir, un procesador de análisis de una coordenada de la ventana de visualización mostrada en la Figura 2 analiza la señal de comando introducida por el usuario, y una palabra o palabras de comando se transmiten en general de una manera de un protocolo de SPI, en el que la palabra de comando incluye una palabra clave de comando, una dirección de comando, y datos de comando. A través de la operación de análisis del protocolo de SPI, el comando se analiza para que sea la señal de dirección, de datos y de control en paralelo que se transmiten a un correspondiente módulo de procesamiento.
En la realización anterior de la aplicación, antes de que el primer módulo de procesamiento 30 ajuste la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el dispositivo puede incluir adicionalmente: un módulo de detección, configurado para detectar si una señal de datos de la imagen de vídeo original es una señal de DDR; y un cuarto módulo de procesamiento, configurado para, en un caso donde la señal de datos de la imagen de vídeo original es la señal de DDR, ajustar una anchura de bits de la señal de datos de la imagen de vídeo original para obtener una imagen de vídeo original de un modo de transmisión de único borde de reloj.
Específicamente, la imagen de vídeo de entrada (es decir, la imagen de vídeo original en la realización anterior) se recibe por el módulo de recepción 10 (la función del módulo de recepción puede realizarse a través de un receptor de datos mostrado en la Figura 2). En la realización anterior, después de que el módulo de recepción 10 recibe la imagen de vídeo original, la señal de datos de vídeo puede extraerse desde la imagen de vídeo original a través del receptor de datos, y se realiza la operación de sincronización de datos para la señal de datos de vídeo, es decir, se ajusta la anchura de bits. Si la señal de datos de vídeo es la señal de DDR, se ajusta el modo de entrada de doble borde DDR al modo de salida de único borde de reloj. Además, después de que el primer módulo de procesamiento 30 ajusta la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, la señal de datos de vídeo obtenida por el módulo anterior puede ajustarse para obtener los datos de vídeo procesado.
Adicionalmente, después de que el primer módulo de procesamiento 30 ajusta la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el dispositivo puede incluir adicionalmente: un módulo de lectura, configurado para realizar operación de acceso de ping-pong para la imagen de vídeo procesado tomando la frecuencia de reloj de señal de la imagen de vídeo original como un reloj de almacenamiento y tomando la señal de supresión de la imagen de vídeo procesado como una señal de activación de almacenamiento.
Específicamente, después de que el primer módulo de procesamiento 30 ajusta la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el módulo de lectura realiza la operación de acceso de ping-pong para la imagen de vídeo procesado, en el que el módulo de lectura puede realizarse usando dos memorias el tamaño de cada una de las cuales es de 2048 bits (o 4096 bits). Específicamente, en un ciclo de línea, una memoria 1 almacena una imagen de vídeo, y la otra memoria 2 lee la imagen de vídeo, y en un siguiente ciclo de línea, una memoria 2 almacena una imagen de vídeo, y la otra memoria 1 lee la imagen de vídeo. Es decir, se realiza la operación de acceso anterior a turnos. Cuando se almacenan los datos, tomando el reloj de entrada original como el reloj de almacenamiento y tomando la señal de supresión como la señal de activación de almacenamiento, se accede a los datos de línea de manera incrementalmente ordenada desde el lado más a la derecha empezando desde la dirección 0 en el caso de que la dirección se aumente progresivamente empezando desde la dirección 0 de acuerdo con el tictac del reloj, en el que un dato de punto de píxel se accede a través de cada dirección.
Adicionalmente, antes de que el módulo de codificación 70 codifique la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo codificado, el dispositivo puede incluir adicionalmente un selector, en el que el selector puede conmutar la memoria leída para la que se realiza la operación de ping-pong, es decir, siempre conmuta a la memoria leída para emitir datos de la memoria leída.
La Figura 9 es un diagrama de flujo de un método para procesar una imagen de vídeo de acuerdo con una realización de la invención. La Figura 10 es un diagrama de flujo de un método para procesar una imagen de vídeo de acuerdo con una realización mostrada en la Figura 9.
5
10
15
20
25
30
35
40
45
50
55
60
Como se muestra en la Figura 9 y en la Figura 10, el método incluye las siguientes etapas:
Etapa 102: se recibe una imagen de vídeo original.
Etapa 104: se ajusta una frecuencia de reloj de señal de la imagen de vídeo original para obtener una imagen de
vídeo procesado.
Etapa 106: después de que se recibe una señal de comando introducida por un usuario, se captura la imagen de
vídeo procesado de acuerdo con un tamaño prestablecido para obtener una imagen de vídeo que corresponde a
una ventana de visualización del tamaño prestablecido.
Etapa 108: se codifica la imagen de vídeo que corresponde a la ventana de visualización del tamaño
prestablecido para obtener una imagen de vídeo codificado.
De acuerdo con el método para procesar la imagen de vídeo de la realización de la aplicación, se recibe la imagen de vídeo original de entrada; a continuación se ajusta la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado; después de que se recibe la señal de comando introducida por el usuario, se captura la imagen de vídeo procesado de acuerdo con el tamaño prestablecido para obtener la imagen de vídeo que corresponde a una ventana de visualización del tamaño prestablecido; y finalmente se codifica la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo codificado. De acuerdo con el método para procesar la imagen de vídeo de la realización de la aplicación, se obtiene una nueva imagen de vídeo a través de ajustar la frecuencia de reloj de la imagen de entrada, y a continuación se realiza la correspondiente operación de captura y operación de emisión de acuerdo con los requisitos de visualización de imagen del usuario, de modo que se resuelve el problema de que la distorsión de la imagen visualizada se provoca escalando las imágenes al visualizar las imágenes en la pantalla empalmadas en el caso donde la resolución o frecuencia de campo de los vídeos de entrada son diferentes en la técnica anterior, y se realiza el efecto de que las imágenes de vídeo con cualquier resolución se visualizan de manera fiable y estable en el mejor intervalo de área de visualización.
La etapa 102 en la realización anterior puede realizarse recibiendo la imagen de vídeo en la etapa 202 mostrada en la Figura 10. En la etapa 204, se procesa la imagen de vídeo original y la imagen de vídeo procesado se almacena en caché. De la etapa 104 a la etapa 106 en la realización anterior pueden realizarse en la etapa 204 en la Figura 10. La etapa 108 en la Figura 9 puede realizarse a través de la etapa 208 en la Figura 10, en la que la imagen de vídeo se codifica en la etapa 208. Específicamente, la etapa 106 puede realizarse mediante lo siguiente: se abre la ventana de visualización, y a continuación se define la imagen de vídeo y se emite a través de establecer coordenadas de píxel (por ejemplo, la abscisa es X, y la ordenada es Y) en la esquina superior izquierda del área de visualización de imagen para realizar la captura y la salida de la imagen de vídeo procesado, y los tamaños de área de la ventana de visualización de imagen efectiva abierta son diferentes dependiendo de diferentes resoluciones de las imágenes de entrada (es decir, la imagen de vídeo original en la realización anterior). La ventana de visualización del tamaño prestablecido puede ser del tamaño de la pantalla de visualización de la pantalla de LED a color completo empalmada. Adicionalmente, la etapa 204 puede realizarse también después de la etapa 206 en la que se recibe y analiza la señal de comando del usuario.
En la realización anterior, la etapa 108 puede realizarse a través de un codificador de LVDS. Es decir, el codificador emite un vídeo de salida de la correspondiente ventana de visualización a la ventana de visualización de una manera de tasa de bits en serie, tal como se realiza el procesamiento de paralelo a serie de una manera de 10:1. De esta manera, la tasa de bits de la LVDS es 10 veces la de la frecuencia de reloj de salida de la ventana de visualización. Si Po es el reloj de píxel de la ventana de visualización de 75 MHz, la tasa de bits de la LVDS alcanza 750 Mbps. Puesto que la LVDs es una transmisión diferencial de baja tensión, pueden realizarse las características de una alta tasa de bits de transmisión, pequeño consumo de potencia, alta fiabilidad y menos patillas de transmisión.
En la realización anterior de la aplicación, la señal de comando incluye una abscisa preestablecida y una ordenada preestablecida, en las que después de que se recibe la señal de comando introducida por el usuario, la etapa de capturar la imagen de vídeo procesado de acuerdo con el tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido incluye: realizar un cálculo de punto de píxel de acuerdo con una primera fórmula para obtener el número máximo Ho de los puntos de píxel horizontal de la
ventana de visualización del tamaño prestablecido, en el que la primera fórmula es:
donde Po es una frecuencia de reloj de píxel fija, Pi es una frecuencia de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original, y Hos es un espaciado de píxeles efectivo entre dos líneas de un vídeo de salida; capturar los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido; adoptar puntos longitudinales verticales de una resolución de la imagen de vídeo original como puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido; y capturar la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y los puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido. En lo
imagen2
5
10
15
20
25
30
35
40
45
50
55
60
anterior, la señal de control de vídeo procesado se genera de acuerdo con una señal de sincronización de campo, una señal de sincronización de línea, una señal de sincronización de supresión y una señal de enmascaramiento de supresión, y una señal digital de la imagen de vídeo original se corrige de acuerdo con la señal de control de vídeo procesado para obtener la imagen de vídeo procesado.
Específicamente, la señal de comando incluye la abscisa preestablecida y la ordenada preestablecida, en las que después de que se recibe la señal de comando introducida por el usuario, la etapa de capturar la imagen de vídeo procesado de acuerdo con el tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido se realiza de la siguiente manera: realizar el cálculo de punto de píxel de acuerdo con la primera fórmula para obtener el número máximo Ho de los puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, capturar los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener los puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido; adoptar los puntos longitudinales verticales de la resolución de la imagen de vídeo original como los puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido; y capturar la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y los puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido. La
_ Po ■
primera fórmula es: Ho — ——xHit — Hos , en la que Po es la frecuencia de reloj de píxel fija, Pi es la frecuencia
Pl
de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original, y Hos es el espaciado de píxeles efectivo entre dos líneas del vídeo de salida.
La Figura 3 es un diagrama esquemático de una primera instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. La Figura 4 es un diagrama esquemático de una segunda instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. La Figura 5 es un diagrama esquemático de una tercera instantánea horizontal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. La Figura 6 es un diagrama esquemático de una instantánea de pantalla longitudinal donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. La Figura 7 es un diagrama esquemático de una pantalla empalmada donde una ventana de visualización emite una imagen de vídeo de acuerdo con una realización de la invención. En lo anterior, todas las ventanas de visualización en la Figura 3 a Figura 7 anteriores pueden ser las ventanas de visualización del tamaño prestablecido, todos los vídeos de entrada pueden ser las imágenes de vídeo procesado por el primer módulo de procesamiento 30.
Por ejemplo, tomando la resolución M*N de la imagen de vídeo de entrada (es decir, la imagen de vídeo original) como un ejemplo, si los datos de vídeo de la ventana de visualización de imagen abierta se establecen para que se emitan con Po fijada, el número máximo Ho de los puntos de píxeles efectivos horizontales de la ventana de
_ Po .
visualización abierta puede ser Ho ———xHit — Hos ■
Pi
En la fórmula anterior, Ho es el número máximo de los puntos de píxel emitidos por la ventana de visualización del tamaño prestablecido, Po es la frecuencia de reloj de píxel fija, Pi es la frecuencia de reloj de píxel del vídeo de entrada (es decir, la imagen de vídeo original en la realización anterior), Hit es el número total de relojes de ciclo de línea de la imagen de entrada, y Hos es el espaciado de píxeles efectivo entre dos líneas del vídeo de salida, es decir, el intervalo de tiempo entre el último píxel efectivo de la línea anterior y el primer píxel efectivo de la siguiente línea de dos líneas adyacentes (calculados por el número del reloj de ciclos de píxel). En lo anterior, cuanto más grande es la frecuencia fijada Po, más grande es el tamaño de la ventana abierta, pero la estabilidad del sistema se verá influenciada. En la realización, la frecuencia de reloj de píxel fija Po puede ser 75 MHz.
En la realización anterior, como se muestra en la Figura 3, si Po > Pi, la ventana abierta del tamaño prestablecido puede emitir los puntos de píxel horizontal de la resolución del vídeo de entrada completamente, es decir, la anchura horizontal de la ventana de visualización abierta del tamaño prestablecido es mayor que la anchura horizontal de la imagen de vídeo original. Específicamente, si la abscisa X de una posición inicial en la esquina superior izquierda de la ventana de visualización se establece para que sea 0 por un usuario, el primer píxel visualizado por la ventana abierta es el primer punto de píxel de la imagen de vídeo de entrada (es decir, la imagen de vídeo original), y si el número de los puntos de píxel horizontal de la ventana abierta es mayor que el número de los puntos de píxel horizontal de la imagen de entrada, la instantánea horizontal de la imagen de entrada puede visualizarse completamente.
Como se muestra en la Figura 4 y en la Figura 5, si el número de los puntos horizontales de la imagen de entrada es mayor que el número de los puntos horizontales de la ventana abierta, la imagen visualizada en la ventana abierta es un área de la imagen de entrada, y el área se desplaza a través de una coordenada X establecida. Si la coordenada preestablecida introducida por el usuario es (n1, 0), la imagen de vídeo procesado se desplaza n1 coordenadas a la derecha. Si la coordenada preestablecida introducida por el usuario es (n2, 0), la imagen de vídeo
5
10
15
20
25
30
35
40
45
50
55
60
65
procesado se desplaza n2 coordenadas a la derecha.
En la realización anterior de la aplicación, el número máximo que puede visualizarse de los puntos longitudinales verticales de la ventana de visualización del tamaño prestablecido es el mismo que el número de los puntos verticales del píxel efectivo de la imagen de entrada en realidad. Por ejemplo, para la resolución de imagen de 1280*1024@60hz, el número máximo de los puntos verticales de la ventana de visualización es 1024. Como se muestra en la Figura 6, cuando la coordenada Y establecida por el usuario es 0, el número de los puntos verticales de la ventana de visualización es justo el mismo que el número de los puntos verticales de la imagen de entrada. Sin embargo, puesto que el número aplicado real de los puntos de la pantalla de LED a color completo puede no estar especificado, el usuario puede elegir también la visualización de la imagen a través de ajustar la coordenada Y de acuerdo con la realización mostrada en la Figura 6, es decir, la coordenada del primer punto de píxel de la primera línea y la primera columna de la imagen de vídeo de salida de la ventana de visualización se establece de acuerdo con la coordenada preestablecida (n, m) introducida por el usuario.
Puede observarse a partir de la descripción anterior que en la realización anterior de la aplicación, el usuario puede ajustar el área de visualización de la pantalla de LED a color completa de manera arbitraria, y capturar la imagen desde la imagen de vídeo procesado para obtener la mejor imagen de visualización. Adicionalmente, como se muestra en la Figura 7, el usuario puede también empalmar la imagen de resolución superior a través de aumentar la salida de la ventana de visualización. Si el número de los puntos de píxel horizontal de la imagen de vídeo procesado es dos veces el número máximo de los puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, pueden empalmarse dos pantallas de visualización para visualizar. Si las coordenadas preestablecidas de las dos pantallas de visualización del usuario son respectivamente (0, 0) y (n, 0), los puntos de coordenadas (x1, y1) y (x2, y2) del primer punto de píxel de la primera línea de las dos pantallas de visualización son respectivamente (0, 0) y (n, 0), donde n=x1 + 1, y m en la Figura 7 puede ser 0.
Para la coordenada Y establecida, las señales de campo, línea y supresión nuevamente generadas en la etapa anterior necesitan ajustarse. Si la coordenada Y establecida es 15, la operación de recuento es necesario que se realice tomando una nueva señal de sincronización de supresión como el reloj, y se realiza la operación resultante de acuerdo con el nuevo salto de sincronización de campo y se genera una correspondiente señal de enmascaramiento de supresión. Por ejemplo, la señal de enmascaramiento es inválida, es decir, 0 para el valor de recuento de 0-14, mientras que las señales de enmascaramiento son válidas para el resto. Los datos desde la línea 0-14 se protegen de que se enmascaren, al mismo tiempo, una señal de sincronización de campo se desplaza hacia atrás por un valor de tiempo de 15 ciclos de supresión para mantener la misma fase con los primeros datos de línea de supresión.
Adicionalmente, la generación y operación de la nueva señal de control de vídeo y el reloj leído por la memoria pueden realizarse a la frecuencia de reloj de píxel fija establecida.
A través de la realización anterior de la aplicación, cualquier área de la imagen puede visualizarse y empalmarse, y el requisito para la aplicación real del LED puede cumplirse de manera flexible, la transmisión de señal con la pantalla de LED se realiza a una tasa de bits de baja transmisión fijada para asegurar la fiabilidad del sistema.
En la realización anterior de la invención, la etapa de ajustar la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado puede incluir: extraer una señal de línea original, una señal de campo original, una señal de supresión original y una señal de enmascaramiento de supresión original desde una señal de control de la imagen de vídeo original; realizar el restablecimiento de conteo para la señal de campo original en puntos de salto de la señal de campo original tomando la señal de línea original como un reloj para obtener una señal de sincronización de campo; realizar el restablecimiento de conteo para la señal de línea original en los puntos de salto de la señal de línea original tomando la frecuencia de reloj de píxel fija como el reloj para obtener una señal de sincronización de línea; realizar el restablecimiento de conteo para la señal de supresión original en puntos de salto que son momentos mayores que una cabecera de sincronización de la señal de sincronización de línea, tomando la señal de sincronización de línea como el reloj para obtener una señal de sincronización de supresión; realizar el restablecimiento de conteo para la señal de enmascaramiento de supresión original en los puntos de salto de la señal de sincronización de supresión tomando la señal de sincronización de supresión como el reloj para obtener una señal de enmascaramiento de supresión; y generar la señal de control de vídeo procesado de acuerdo con la señal de sincronización de campo, la señal de sincronización de línea, la señal de sincronización de supresión y la señal de enmascaramiento de supresión, y obtener la imagen de vídeo procesado.
Específicamente, la señal de línea original, la señal de campo original, la señal de supresión original y la señal de enmascaramiento de supresión original se extraen desde la señal de control de la imagen de vídeo original, y a continuación se realiza el cálculo de la frecuencia de reloj para una señal en la señal de vídeo original para generar una nueva señal de control, y la imagen de vídeo procesado se obtiene de acuerdo con la nueva señal de control generada. En lo anterior, la etapa de realizar el cálculo de la frecuencia de reloj para la señal del vídeo original puede realizarse a través de las siguientes etapas: y se realiza el restablecimiento de conteo para la señal de campo original en los puntos de salto de la señal de campo original tomando la señal de línea original como el reloj para
5
10
15
20
25
30
35
40
45
50
55
60
65
obtener la señal de sincronización de campo; y se realiza el restablecimiento de conteo para la señal de línea original en los puntos de salto de la señal de línea original tomando la frecuencia de reloj de píxel fija como el reloj para obtener la señal de sincronización de línea; y se realiza el restablecimiento de conteo para la señal de supresión original en puntos de salto que son momentos mayores que una cabecera de sincronización de la señal de sincronización de línea, tomando la señal de sincronización de línea como el reloj para obtener la señal de sincronización de supresión; y se realiza el restablecimiento de conteo para la señal de enmascaramiento de supresión original en los puntos de salto de la señal de sincronización de supresión tomando la señal de sincronización de supresión como el reloj para obtener la señal de enmascaramiento de supresión.
Por ejemplo, la señal de campo emitida por el vídeo toma el salto de la señal de campo original (es decir, la señal de campo en la señal de control de la imagen de vídeo original) como un límite, y se realiza el restablecimiento de conteo para la señal de campo original tomando la señal de línea como un reloj. Durante este recuento, se establece 0-n1 (0 a n1) para que sea la cabecera de sincronización de la señal de campo, y el nivel eléctrico de la señal de campo es bajo, y otros valores de recuento son altos, y se genera una nueva señal de sincronización de campo (es decir, la señal de sincronización de campo en la realización anterior). La nueva señal de sincronización de línea toma el salto de la señal de línea original (es decir, la señal de línea en la señal de control de la imagen de vídeo original) como un límite, y se realiza el restablecimiento de conteo para la nueva señal de sincronización de línea tomando el reloj de salida (es decir, la frecuencia de reloj fijada Po) como un reloj, en el que se establece 0-m1 para que sea la sincronización de señal de línea (es decir, el nivel eléctrico de la señal de línea es bajo), otros valores de recuento son altos, y se genera una nueva señal de sincronización de línea (es decir, la señal de sincronización de línea en la realización anterior). Y para la nueva señal de sincronización de supresión, como se muestra en la Figura 8, la nueva señal de sincronización de supresión se genera tomando la nueva señal de sincronización de línea como el reloj, y la cabecera de sincronización de la nueva señal de sincronización de supresión es mayor que la cabecera de sincronización de la nueva señal de sincronización de línea. Adicionalmente, la nueva señal de sincronización de supresión está estrechamente vinculada a la lectura de la memoria. Una vez que la señal de supresión es alta, la memoria lee y emite los primeros datos de la correspondiente línea de la ventana de visualización del tamaño prestablecido. Si se establece 0-m2 (m2>m1) para que sea señal de supresión baja, los datos de píxel de la memoria se leen desde m2+1. Durante (m2+1)-m3, la señal de supresión es alta, es decir, es el momento de emitir los datos de píxel, y a parte de esto, la señal de supresión se vuelve baja.
De acuerdo con la realización anterior de la aplicación, después de que se recibe la imagen de vídeo original, el método puede incluir adicionalmente: recibir la señal de comando introducida por el usuario y analizar la señal de comando para obtener la abscisa preestablecida y la ordenada preestablecida.
Específicamente, como se muestra en la Figura 10, la etapa puede realizarse a través de la etapa 206 en la Figura 10: se recibe y analiza la señal de comando del usuario, generalmente se transmite una palabra de comando de una manera de un protocolo de SPI, que incluye una palabra clave de comando, una dirección de comando, y unos datos de comando. A través del análisis por el protocolo de SPI, se analiza el comando para que sea la señal de dirección, de datos y de control en paralelo que se transmiten a un correspondiente módulo de procesamiento.
En la realización anterior de la aplicación, antes de que la frecuencia de reloj de señal de la imagen de vídeo original se ajuste para obtener la imagen de vídeo procesado, el método puede incluir adicionalmente: detectar si una señal de datos de la imagen de vídeo original es una señal de DDR; y en un caso donde la señal de datos de la imagen de vídeo original sea la señal de DDR, ajustar una anchura de bits de la señal de datos de la imagen de vídeo original para obtener una señal de imagen de vídeo original de un modo de transmisión de único borde de reloj.
Específicamente, antes de que se finalicen las etapas en las etapas de almacenamiento en caché y procesamiento en la Figura 10, y después de que se recibe la imagen de vídeo de entrada (es decir, la imagen de vídeo original), la señal de datos de vídeo puede extraerse desde la imagen de vídeo original, y se realiza la sincronización de datos para la señal de datos de vídeo, es decir, se ajusta la anchura de bits. Si la señal de datos de vídeo es la señal de DDR, el modo de entrada de doble borde de dDr se ajusta al modo de salida de borde único de reloj.
De acuerdo con la realización anterior de la aplicación, después de que se ajusta la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el método puede incluir adicionalmente: realizar la operación de acceso de ping-pong para la imagen de vídeo procesado tomando la frecuencia de reloj de señal de la imagen de vídeo original como un reloj de almacenamiento y tomando la señal de supresión de la imagen de vídeo procesado como una señal de activación de almacenamiento.
Específicamente, después de que se recibe la imagen de vídeo original, se realiza la operación de acceso de ping- pong para la imagen de vídeo procesado. Específicamente, la etapa puede realizarse usando dos memorias el tamaño de cada una de las cuales es de 2048 bits (o 4096 bits) a través del siguiente método: en un ciclo de línea, una memoria 1 almacena una imagen de vídeo, y la otra memoria 2 lee la imagen de vídeo, y en un siguiente ciclo de línea, una memoria 2 almacena una imagen de vídeo, y la otra memoria 1 lee la imagen de vídeo. Es decir, se realiza la operación de acceso anterior a turnos. Cuando se almacenan los datos, tomando el reloj de entrada original como el reloj de almacenamiento y tomando la señal de supresión como la señal de activación de almacenamiento, los datos de línea se acceden de manera incrementalmente ordenada desde el lado más a la
5
10
15
20
25
30
izquierda al lado más a la derecha empezando desde la dirección 0 en el caso de que la dirección se aumente progresivamente empezando desde la dirección 0 de acuerdo con el tictac del reloj, en el que un dato de punto de píxel se accede a través de cada dirección.
Adicionalmente, en el método, puede usarse un selector para conmutar la memoria leída para la que se realiza la operación de ping-pong, es decir, siempre conmutar a la memoria leída para emitir datos de la memoria leída.
Debería observarse que las etapas mostradas en los diagramas de flujo de los dibujos pueden ejecutarse en un sistema informático que tiene un grupo de instrucciones ejecutables por ordenador, y aunque se muestra una secuencia lógica en los diagramas de flujo, en algunos casos, las etapas mostradas o descritas pueden ejecutarse en un orden diferente desde este punto.
Puede observarse a partir de la descripción anterior que la invención realiza los efectos técnicos como sigue: de acuerdo con el método y dispositivo para procesar la imagen de vídeo desvelados por la realización de la invención, se obtienen señales de nueva línea, campo y sincronización de supresión a través de ajustar la frecuencia de reloj de una imagen de entrada, y se obtiene una nueva imagen de vídeo, y a continuación, se realiza la correspondiente operación de captura y operación de emisión de acuerdo con los requisitos de visualización de imagen del usuario, de modo que se resuelve el problema de que la distorsión de la imagen visualizada se provoca escalando las imágenes de vídeo al visualizar las imágenes de vídeo con diferentes resoluciones en la pantalla empalmada en la técnica anterior, y se realiza el efecto de que las imágenes de vídeo con cualquier resolución se visualizan de manera fiable y estable en el mejor intervalo de área de visualización.
De manera evidente, los expertos en la materia deberían entender que cada uno de los módulos o etapas mencionados de la invención pueden conseguirse por un dispositivo informático universal; los módulos o etapas pueden centrarse en un único dispositivo informático, o distribuirse en la red formada por múltiples dispositivos informáticos. Opcionalmente, pueden implementarse por un código de programa que puede ejecutarse por el dispositivo informático. De esta manera, los módulos o etapas pueden almacenarse en un dispositivo de almacenamiento y ejecutarse por el dispositivo informático, o pueden fabricarse respectivamente como cada módulo de circuito integrado, o múltiples módulos o etapas del mismo pueden fabricarse como un único módulo de circuito integrado, para implementarse así. De esta manera, la invención no está limitada a ninguna combinación particular de hardware y software.

Claims (10)

  1. 5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    REIVINDICACIONES
    1. Un método para procesar una imagen de vídeo, que comprende: recibir una imagen de vídeo original;
    ajustar una frecuencia de reloj de señal de la imagen de vídeo original para obtener una imagen de vídeo procesado;
    después de que se recibe una señal de comando introducida por un usuario, capturar la imagen de vídeo procesado de acuerdo con un tamaño prestablecido para obtener una imagen de vídeo que corresponde a una ventana de visualización del tamaño prestablecido; y
    codificar la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener una imagen de vídeo codificado,
    caracterizado por que la señal de comando comprende una abscisa preestablecida y una ordenada preestablecida, en donde después de que se recibe la señal de comando introducida por el usuario, la etapa de capturar la imagen de vídeo procesado de acuerdo con el tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido comprende:
    realizar un cálculo de punto de píxel de acuerdo con una primera fórmula para obtener el número máximo Ho de puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, en donde la primera fórmula es:
    Ho = —xHit - Hos,
    Pi
    en la que Po es una frecuencia de reloj de píxel fija, Pi es una frecuencia de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original y Hos es un espaciado de píxeles efectivos entre dos líneas de un vídeo de salida;
    capturar los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido;
    adoptar puntos longitudinales verticales de una resolución de la imagen de vídeo original como puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido; y
    capturar la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y el punto de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido.
  2. 2. El método de acuerdo con la reivindicación 1, caracterizado por que la etapa de ajustar la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado comprende:
    extraer una señal de línea original, una señal de campo original, una señal de supresión original y una señal de enmascaramiento de supresión original desde una señal de control de la imagen de vídeo original; realizar restablecimiento de conteo para la señal de campo original en puntos de salto de la señal de campo original tomando la señal de línea original como un reloj para obtener una señal de sincronización de campo; realizar restablecimiento de conteo para la señal de línea original en puntos de salto de la señal de línea original tomando una frecuencia de reloj de píxel fija como un reloj para obtener una señal de sincronización de línea; realizar restablecimiento de conteo para la señal de supresión original en puntos de salto que son momentos mayores que una cabecera de sincronización de la señal de sincronización de línea tomando la señal de sincronización de línea como un reloj para obtener una señal de sincronización de supresión; realizar restablecimiento de conteo para la señal de enmascaramiento de supresión original en puntos de salto de la señal de sincronización de supresión tomando la señal de sincronización de supresión como un reloj para obtener una señal de enmascaramiento de supresión; y
    generar una señal de control de vídeo procesado de acuerdo con la señal de sincronización de campo, la señal de sincronización de línea, la señal de sincronización de supresión y la señal de enmascaramiento de supresión, y obtener la imagen de vídeo procesado.
  3. 3. El método de acuerdo con la reivindicación 1, caracterizado por que, después de recibir la imagen de vídeo original, el método comprende adicionalmente:
    recibir la señal de comando introducida por el usuario y analizar la señal de comando para obtener la abscisa preestablecida y la ordenada preestablecida.
  4. 4. El método de acuerdo con la reivindicación 1, caracterizado por que, antes de ajustar la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el método comprende adicionalmente:
    5
    10
    15
    20
    25
    30
    35
    40
    45
    50
    55
    60
    detectar si una señal de datos de la imagen de vídeo original es una señal de DDR; y
    en un caso donde la señal de datos de la imagen de vídeo original es la señal de DDR, ajustar una anchura de bits de la señal de datos de la imagen de vídeo original para obtener una imagen de vídeo original de un modo de transmisión de único borde de reloj.
  5. 5. El método de acuerdo con la reivindicación 1, caracterizado por que, después de ajustar la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el método comprende adicionalmente:
    realizar una operación de acceso de ping-pong para la imagen de vídeo procesado tomando la frecuencia de reloj de señal de la imagen de vídeo original como un reloj de almacenamiento y tomando una señal de supresión de la imagen de vídeo procesado como una señal de activación de almacenamiento.
  6. 6. Un dispositivo para procesar una imagen de vídeo, que comprende:
    un módulo de recepción, conectado a un primer módulo de procesamiento y configurado para recibir una imagen de vídeo original;
    el primer módulo de procesamiento, conectado al módulo de recepción y configurado para ajustar una frecuencia de reloj de señal de la imagen de vídeo original para obtener una imagen de vídeo procesado; un segundo módulo de procesamiento, conectado al primer módulo de procesamiento y configurado para, después de que se recibe una señal de comando introducida por un usuario, capturar la imagen de vídeo procesado de acuerdo con un tamaño prestablecido para obtener una imagen de vídeo que corresponde a una ventana de visualización del tamaño prestablecido; y
    un módulo de codificación, conectado al segundo módulo de procesamiento y configurado para codificar la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido para obtener una imagen de vídeo codificado;
    caracterizado por que la señal de comando comprende una abscisa preestablecida y una ordenada preestablecida, en donde el segundo módulo de procesamiento comprende:
    un primer módulo de cálculo, configurado para realizar cálculo de punto de píxel de acuerdo con una primera fórmula para obtener el número máximo Ho de puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, en donde la primera fórmula es:
    Po
    Ho =---xHit - Hos ,
    Pi
    donde Po es una frecuencia de reloj de píxel fija, Pi es una frecuencia de reloj de píxel de la imagen de vídeo original, Hit es el número total de relojes de ciclo de línea de la imagen de vídeo original y Hos es un espaciado de píxeles efectivos entre dos líneas de un vídeo de salida;
    un primer módulo de subprocesamiento, configurado para capturar los puntos de píxel horizontal con el número máximo de la ventana de visualización del tamaño prestablecido de acuerdo con la abscisa preestablecida para obtener puntos de píxel horizontal de la ventana de visualización del tamaño prestablecido, y adoptar puntos longitudinales verticales de una resolución de la imagen de vídeo original como puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido; y un segundo módulo de subprocesamiento, configurado para capturar la imagen de vídeo procesado de acuerdo con los puntos de píxel horizontal y los puntos de píxel longitudinal vertical de la ventana de visualización del tamaño prestablecido para obtener la imagen de vídeo que corresponde a la ventana de visualización del tamaño prestablecido.
  7. 7. El dispositivo de acuerdo con la reivindicación 6, caracterizado por que el primer módulo de procesamiento comprende:
    un módulo de extracción, configurado para extraer una señal de línea original, una señal de campo original, una señal de supresión original y una señal de enmascaramiento de supresión original desde una señal de control de la imagen de vídeo original;
    un primer módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de campo original en puntos de salto de la señal de campo original tomando la señal de línea original como un reloj para obtener una señal de sincronización de campo;
    un segundo módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de línea original en puntos de salto de la señal de línea original tomando una frecuencia de reloj de píxel fija como un reloj para obtener una señal de sincronización de línea;
    un tercer módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de supresión original en puntos de salto que son momentos mayores que una cabecera de sincronización de la señal de sincronización de línea, tomando la señal de sincronización de línea como un reloj para obtener una señal de sincronización de supresión;
    un cuarto módulo de recuento, configurado para realizar restablecimiento de conteo para la señal de
    5
    10
    15
    20
    25
    30
    enmascaramiento de supresión original en puntos de salto de la señal de sincronización de supresión tomando la señal de sincronización de supresión como un reloj para obtener una señal de enmascaramiento de supresión; y un cuarto módulo de subprocesamiento, configurado para generar una señal de control de la imagen de vídeo procesado de acuerdo con la señal de sincronización de campo, la señal de sincronización de línea, la señal de sincronización de supresión y la señal de enmascaramiento de supresión, y obtener la imagen de vídeo procesado.
  8. 8. El dispositivo de acuerdo con la reivindicación 6, caracterizado por que, después de que el módulo de recepción recibe la imagen de vídeo original, el dispositivo comprende adicionalmente:
    un tercer módulo de procesamiento, configurado para recibir la señal de comando introducida por el usuario y analizar la señal de comando para obtener la abscisa preestablecida y la ordenada preestablecida.
  9. 9. El dispositivo de acuerdo con la reivindicación 6, caracterizado por que, antes de que el primer módulo de procesamiento ajuste la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el dispositivo comprende adicionalmente:
    un módulo de detección, configurado para detectar si una señal de datos de la imagen de vídeo original es una señal de DDR; y
    un cuarto módulo de procesamiento, configurado para, en un caso donde la señal de datos de la imagen de vídeo original es la señal de DDR, ajustar una anchura de bits de la señal de datos de la imagen de vídeo original para obtener una señal de imagen de vídeo original de un modo de transmisión de único borde de reloj.
  10. 10. El dispositivo de acuerdo con la reivindicación 6, caracterizado por que, después de que el primer módulo de procesamiento ajusta la frecuencia de reloj de señal de la imagen de vídeo original para obtener la imagen de vídeo procesado, el dispositivo comprende adicionalmente:
    un módulo de lectura, configurado para realizar una operación de acceso de ping-pong para la imagen de vídeo procesado tomando la frecuencia de reloj de señal de la imagen de vídeo original como un reloj de almacenamiento y tomando la señal de supresión de la imagen de vídeo procesado como una señal de activación de almacenamiento.
ES13847903.5T 2012-10-18 2013-05-22 Método y dispositivo para procesar imágenes de vídeo Active ES2686728T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201210397678.9A CN102905056B (zh) 2012-10-18 2012-10-18 视频图像处理方法及装置
CN201210397678 2012-10-18
PCT/CN2013/076051 WO2014059791A1 (zh) 2012-10-18 2013-05-22 视频图像处理方法及装置

Publications (1)

Publication Number Publication Date
ES2686728T3 true ES2686728T3 (es) 2018-10-19

Family

ID=47577080

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13847903.5T Active ES2686728T3 (es) 2012-10-18 2013-05-22 Método y dispositivo para procesar imágenes de vídeo

Country Status (9)

Country Link
US (1) US9570036B2 (es)
EP (1) EP2911381B1 (es)
JP (1) JP2016502126A (es)
KR (1) KR101659346B1 (es)
CN (1) CN102905056B (es)
CA (1) CA2888926C (es)
DK (1) DK2911381T3 (es)
ES (1) ES2686728T3 (es)
WO (1) WO2014059791A1 (es)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102905056B (zh) * 2012-10-18 2015-09-02 利亚德光电股份有限公司 视频图像处理方法及装置
CN103871349B (zh) * 2014-03-31 2017-06-23 信利半导体有限公司 一种应用于显示器的数据处理方法及装置
CN103929610B (zh) 2014-04-23 2017-08-08 利亚德光电股份有限公司 用于led电视的数据处理方法、装置及led电视
WO2017016339A1 (zh) 2015-07-27 2017-02-02 腾讯科技(深圳)有限公司 视频分享方法和装置、视频播放方法和装置
CN106470147B (zh) * 2015-08-18 2020-09-08 腾讯科技(深圳)有限公司 视频分享方法和装置、视频播放方法和装置
KR102568911B1 (ko) 2016-11-25 2023-08-22 삼성디스플레이 주식회사 표시 장치 및 이의 구동 방법
CN106534972A (zh) * 2016-12-12 2017-03-22 广东威创视讯科技股份有限公司 一种无损缩放显示局部视频的方法及装置
JP6541916B2 (ja) * 2017-03-09 2019-07-10 三菱電機株式会社 誤り訂正装置および誤り訂正方法
CN107396023B (zh) * 2017-09-05 2019-11-15 成都德芯数字科技股份有限公司 数据行消隐区的处理方法以及装置
CN109062531B (zh) * 2018-08-15 2021-08-27 京东方科技集团股份有限公司 拼接屏以及拼接屏的显示方法和显示控制装置
CN109348276B (zh) * 2018-11-08 2019-12-17 北京微播视界科技有限公司 视频画面调整方法、装置、计算机设备和存储介质
CN111277823A (zh) * 2020-03-05 2020-06-12 公安部第三研究所 一种音视频同步测试的系统及方法
CN111698556B (zh) * 2020-06-30 2021-12-07 康佳集团股份有限公司 一种Micro LED的8K视频处理系统及方法
CN112109549B (zh) * 2020-08-25 2021-11-30 惠州华阳通用电子有限公司 一种仪表显示方法和系统
CN112492121B (zh) * 2020-12-09 2023-02-28 华东计算技术研究所(中国电子科技集团公司第三十二研究所) 图像捕获/网络传输及显式的验证平台实现方法及系统
CN112863700A (zh) * 2021-01-28 2021-05-28 青岛海信医疗设备股份有限公司 医疗影像协同方法、装置、设备及计算机存储介质
CN114286162B (zh) * 2021-11-26 2024-07-30 利亚德光电股份有限公司 显示处理方法、装置、存储介质、处理器及显示设备
CN114245029B (zh) * 2021-12-20 2023-08-01 北京镁伽科技有限公司 基于fpga的数据流处理方法、装置及pg设备
CN114387430B (zh) * 2022-01-11 2024-05-28 平安科技(深圳)有限公司 基于人工智能的图像描述生成方法、装置、设备及介质
CN114449178A (zh) * 2022-02-17 2022-05-06 苏州华兴源创科技股份有限公司 视频信号传输控制方法及视频信号传输系统

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2673386B2 (ja) * 1990-09-29 1997-11-05 シャープ株式会社 映像表示装置
KR100207315B1 (ko) * 1996-06-28 1999-07-15 윤종용 평판 디스플레이 장치
US7148909B2 (en) * 1998-05-27 2006-12-12 Canon Kabushiki Kaisha Image display system capable of displaying and scaling images on plurality of image sources and display control method therefor
JP2000056729A (ja) * 1998-08-05 2000-02-25 Matsushita Electric Ind Co Ltd 自動表示幅調整回路
US6356134B1 (en) * 2000-03-21 2002-03-12 International Business Machines Corporation Universal clock generator circuit and adjustment method for providing a plurality of clock frequencies
JP4040826B2 (ja) * 2000-06-23 2008-01-30 株式会社東芝 画像処理方法および画像表示システム
JP3781959B2 (ja) * 2000-09-29 2006-06-07 Necディスプレイソリューションズ株式会社 画像表示装置
US6864894B1 (en) * 2000-11-17 2005-03-08 Hewlett-Packard Development Company, L.P. Single logical screen system and method for rendering graphical data
KR100469422B1 (ko) * 2002-04-08 2005-02-02 엘지전자 주식회사 이동통신 단말기의 섬 네일 이미지 브라우징 방법
US7087473B2 (en) * 2003-06-13 2006-08-08 Matsushita Electric Industrial Co., Ltd. Method of forming conventional complementary MOS transistors and complementary heterojunction MOS transistors on common substrate
US7307669B2 (en) * 2003-06-24 2007-12-11 Broadcom Corporation System, method, and apparatus for displaying streams with dynamically changing formats
US7483058B1 (en) * 2003-08-04 2009-01-27 Pixim, Inc. Video imaging system including a digital image sensor and a digital signal processor
US7940877B1 (en) * 2003-11-26 2011-05-10 Altera Corporation Signal edge detection circuitry and methods
US7239355B2 (en) * 2004-05-17 2007-07-03 Mstar Semiconductor, Inc. Method of frame synchronization when scaling video and video scaling apparatus thereof
JP4545510B2 (ja) * 2004-07-30 2010-09-15 パナソニック株式会社 同期追従装置
US7359007B2 (en) * 2004-10-12 2008-04-15 Mediatek Inc. System for format conversion using clock adjuster and method of the same
KR100609056B1 (ko) * 2004-12-01 2006-08-09 삼성전자주식회사 디스플레이장치 및 그 제어방법
KR100719364B1 (ko) * 2005-05-23 2007-05-17 삼성전자주식회사 최소 크기의 출력 메모리를 구비한 비디오 스케일러 및출력 메모리 크기 선택 방법
US7342838B1 (en) * 2005-06-24 2008-03-11 Lattice Semiconductor Corporation Programmable logic device with a double data rate SDRAM interface
JP4617239B2 (ja) * 2005-10-27 2011-01-19 Okiセミコンダクタ株式会社 画像変換回路
US7956856B2 (en) * 2007-02-15 2011-06-07 Parade Technologies, Ltd. Method and apparatus of generating or reconstructing display streams in video interface systems
KR100953143B1 (ko) * 2007-05-21 2010-04-16 닛뽕빅터 가부시키가이샤 영상 신호 표시 장치 및 영상 신호 표시 방법
JP4363464B2 (ja) * 2007-06-22 2009-11-11 ソニー株式会社 映像信号処理装置および映像信号処理方法
CN101378483A (zh) * 2007-08-30 2009-03-04 深圳市九洲光电子有限公司 数字高清显示控制装置及方法
US20090086089A1 (en) * 2007-09-27 2009-04-02 Takayuki Matsui Video/audio output apparatus
US9438844B2 (en) * 2008-04-08 2016-09-06 Imagine Communications Corp. Video multiviewer system using direct memory access (DMA) registers and block RAM
US8830339B2 (en) * 2009-04-15 2014-09-09 Qualcomm Incorporated Auto-triggered fast frame rate digital video recording
CN101547378B (zh) * 2009-05-08 2011-01-19 四川长虹电器股份有限公司 提升液晶电视画质的方法
US8218940B2 (en) * 2009-08-28 2012-07-10 Dell Products, Lp System and method for managing multiple independent graphics sources in an information handling system
JP2011158804A (ja) * 2010-02-03 2011-08-18 Canon Inc 画像表示装置、および、画像表示装置の制御方法
CN101814269A (zh) * 2010-04-16 2010-08-25 深圳市创凯电子有限公司 全彩led点阵上同时显示实时多画面的方法及装置
KR101320075B1 (ko) * 2010-06-18 2013-10-18 엘지디스플레이 주식회사 iDP 인터페이스 기반의 픽셀 클럭 복원 방법과 이를 이용한 표시장치
US8619932B2 (en) * 2010-09-15 2013-12-31 Mediatek Inc. Signal transmission system with clock signal generator configured for generating clock signal having stepwise/smooth frequency transition and related signal transmission method thereof
JPWO2012111120A1 (ja) * 2011-02-17 2014-07-03 Necディスプレイソリューションズ株式会社 画像表示装置及びそのクロック周波数調整方法
CN102075721B (zh) * 2011-03-01 2012-10-03 利亚德光电股份有限公司 数据流转换方法、装置及平板显示器
CN202018807U (zh) * 2011-03-01 2011-10-26 利亚德光电股份有限公司 数据流转换装置及平板显示器
US20120256962A1 (en) * 2011-04-07 2012-10-11 Himax Media Solutions, Inc. Video Processing Apparatus and Method for Extending the Vertical Blanking Interval
US20120307141A1 (en) * 2011-06-06 2012-12-06 Apple Inc. Frame retiming for mirror mode
AU2012275251A1 (en) * 2011-06-30 2014-01-23 Echo 360, Inc. Methods and apparatus for an embedded appliance
US9165537B2 (en) * 2011-07-18 2015-10-20 Nvidia Corporation Method and apparatus for performing burst refresh of a self-refreshing display device
US10319333B2 (en) * 2012-09-26 2019-06-11 Apple Inc. Refresh rate matching for displays
US9203671B2 (en) * 2012-10-10 2015-12-01 Altera Corporation 3D memory based address generator for computationally efficient architectures
CN102905056B (zh) * 2012-10-18 2015-09-02 利亚德光电股份有限公司 视频图像处理方法及装置

Also Published As

Publication number Publication date
EP2911381A1 (en) 2015-08-26
DK2911381T3 (en) 2018-11-12
US9570036B2 (en) 2017-02-14
CN102905056A (zh) 2013-01-30
KR20150079701A (ko) 2015-07-08
JP2016502126A (ja) 2016-01-21
WO2014059791A1 (zh) 2014-04-24
CA2888926A1 (en) 2014-04-24
US20150294640A1 (en) 2015-10-15
KR101659346B1 (ko) 2016-09-23
CA2888926C (en) 2018-05-01
EP2911381A4 (en) 2016-01-13
EP2911381B1 (en) 2018-08-01
CN102905056B (zh) 2015-09-02

Similar Documents

Publication Publication Date Title
ES2686728T3 (es) Método y dispositivo para procesar imágenes de vídeo
US10554882B2 (en) Panoramic camera and photographing method thereof
US10078211B2 (en) Apparatus for transferring image data and endoscopy system including the same
US8514331B2 (en) De-rotation adaptor and method for enabling interface of handheld multi-media device with external display
CA2936373C (en) Data processing method and device for led television, and led television
KR102666666B1 (ko) 이미지 부호화 장치 및 이미지 복호화 장치
TWI433090B (zh) 顯示驅動器的處理影像資料傳輸的方法及顯示系統
CN103248797A (zh) 一种基于fpga的视频分辨率增强方法及模块
JP2013078378A5 (es)
US9270443B2 (en) Serial data transmission circuit and reception circuit, transmission system using the same, electronic device, and serial data transmission method
US9569160B2 (en) Display processing device and imaging apparatus
US20160037186A1 (en) Method and video system for freeze-frame detection
WO2023024421A1 (zh) 多路图像拼接方法、系统、可读存储介质、及无人车
WO2012116373A1 (en) Systems, methods, and media for reconstructing a space-time volume from a coded image
JP5998579B2 (ja) マルチディスプレイシステムの映像表示装置、方法及びプログラム
US20150332432A1 (en) Display processing device and imaging apparatus
US20170033920A1 (en) Transmission device, reception device, and transmission/reception system
US20200357330A1 (en) Semiconductor apparatus
WO2016196138A1 (en) Communication of sideband data for videos
JP2019114988A (ja) 画像処理装置
CN107507147A (zh) 一种用于医疗显示设备的图像智能还原方法及装置
JP5551998B2 (ja) 画像信号生成装置
WO2021064859A1 (ja) 撮像システムおよび内視鏡装置
JP2013038706A (ja) 映像処理装置、映像処理方法、及びコンピュータプログラム
CN116152222A (zh) 图像边沿误差校准的方法和装置、电子设备和存储介质