ES2942138T3 - Un sistema y método para manejar datos de vídeo - Google Patents

Un sistema y método para manejar datos de vídeo Download PDF

Info

Publication number
ES2942138T3
ES2942138T3 ES16717692T ES16717692T ES2942138T3 ES 2942138 T3 ES2942138 T3 ES 2942138T3 ES 16717692 T ES16717692 T ES 16717692T ES 16717692 T ES16717692 T ES 16717692T ES 2942138 T3 ES2942138 T3 ES 2942138T3
Authority
ES
Spain
Prior art keywords
video
video data
resolution
data streams
streams
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES16717692T
Other languages
English (en)
Inventor
Ashraf Nehru
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Disguise Technologies Ltd
Original Assignee
Disguise Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Disguise Technologies Ltd filed Critical Disguise Technologies Ltd
Application granted granted Critical
Publication of ES2942138T3 publication Critical patent/ES2942138T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/003Details of a display terminal, the details relating to the control arrangement of the display terminal and to the interfaces thereto
    • G09G5/006Details of the interface to the display terminal
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/363Graphics controllers
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/391Resolution modifying circuits, e.g. variable screen formats
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/36Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the display of a graphic pattern, e.g. using an all-points-addressable [APA] memory
    • G09G5/39Control of the bit-mapped memory
    • G09G5/395Arrangements specially adapted for transferring the contents of the bit-mapped memory to the screen
    • G09G5/397Arrangements specially adapted for transferring the contents of two or more bit-mapped memories to the screen simultaneously, e.g. for mixing or overlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/234363Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements by altering the spatial resolution, e.g. for clients with a lower screen resolution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • H04N21/2343Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements
    • H04N21/23439Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs involving reformatting operations of video signals for distribution or compliance with end-user requests or end-user device requirements for generating different versions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/236Assembling of a multiplex stream, e.g. transport stream, by combining a video stream with other content or additional data, e.g. inserting a URL [Uniform Resource Locator] into a video stream, multiplexing software data into a video stream; Remultiplexing of multiplex streams; Insertion of stuffing bits into the multiplex stream, e.g. to obtain a constant bit-rate; Assembling of a packetised elementary stream
    • H04N21/2365Multiplexing of several video streams
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/238Interfacing the downstream path of the transmission network, e.g. adapting the transmission rate of a video stream to network bandwidth; Processing of multiplex streams
    • H04N21/2389Multiplex stream processing, e.g. multiplex stream encrypting
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/25Management operations performed by the server for facilitating the content distribution or administrating data related to end-users or client devices, e.g. end-user or client device authentication, learning user preferences for recommending movies
    • H04N21/266Channel or content management, e.g. generation and management of keys and entitlement messages in a conditional access system, merging a VOD unicast channel into a multicast channel
    • H04N21/2662Controlling the complexity of the video stream, e.g. by scaling the resolution or bitrate of the video stream based on the client capabilities
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/015High-definition television systems
    • H04N7/0152High-definition television systems using spatial or temporal subsampling
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/08Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division
    • H04N7/0806Systems for the simultaneous or sequential transmission of more than one television signal, e.g. additional information signals, the signals occupying wholly or partially the same frequency band, e.g. by time division the signals being two or more video signals
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/02Graphics controller able to handle multiple formats, e.g. input or output formats
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2360/00Aspects of the architecture of display systems
    • G09G2360/08Power processing, i.e. workload management for processors involved in display operations, such as CPUs or GPUs
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/02Networking aspects
    • G09G2370/022Centralised management of display operation, e.g. in a server instead of locally
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2370/00Aspects of data communication
    • G09G2370/12Use of DVI or HDMI protocol in interfaces along the display data pipeline

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Hardware Design (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Databases & Information Systems (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Studio Circuits (AREA)
  • Television Systems (AREA)

Abstract

Una tarjeta procesadora de video para dar salida a datos de video, estando dispuesta la tarjeta procesadora de video para insertarse en un servidor de medios de video y comunicarse con una salida del servidor de medios de video, comprendiendo la tarjeta: una entrada para recibir un primer flujo de datos de video en un primer resolución de video de la salida del servidor de medios de video; un procesador dispuesto para desmultiplexar el primer flujo de datos de video recibido en la primera resolución en una pluralidad de segundos flujos de datos de video, estando cada segundo flujo de datos de video en una segunda resolución de video; y una pluralidad de salidas de video, cada salida de video dispuesta para emitir uno de la pluralidad de segundos flujos de datos de video, donde la primera resolución de video tiene una resolución de video más alta que la segunda resolución de video. (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Un sistema y método para manejar datos de vídeo
Campo técnico
La presente invención se refiere a un sistema y método para manejar datos de vídeo. En particular, la invención se refiere a la transmisión de múltiples señales de vídeo de menor resolución a través de una infraestructura capaz de soportar la transmisión de una señal de vídeo de resolución relativamente mayor.
Antecedentes de la invención
Aunque el estándar de vídeo HD actual (1920 x 1080 píxeles) sigue prevaleciendo, en los últimos años, el estándar de vídeo 4K (hasta 4096 x 2160 píxeles) ha ganado popularidad. La última generación de servidores de medios contiene modernas unidades de procesador de gráficos (GPU) que son capaces de generar múltiples flujos de vídeo 4K. Si bien la nueva generación de monitores y proyectores es cada vez más capaz de mostrar vídeo 4K, y la captación de vídeo 4K en sitios de transmisión de vídeo convencionales (por ejemplo, YouTubeRTM, VimeoRTM y NetflixRTM) también ha aumentado en los últimos años, el estándar dominante en la industria de vídeo y medios sigue siendo el estándar de vídeo HD actual. En particular, muchos usuarios profesionales de la industria no han incurrido en el gasto de sustituir sus sistemas de salida HD (por ejemplo, pantallas y proyectores) con aquellos capaces de admitir el estándar de vídeo 4K.
Cabe señalar que aunque la industria conserva una gran cantidad de equipos de conmutación/transmisión de señal y proyección HD, esto no se debe a que 4K sea intrínsecamente difícil de transmitir, sino a las grandes inversiones que se han realizado hasta la fecha.
En los próximos años, es probable que el estándar de vídeo 4K experimente un gran aumento en popularidad y será necesario que los consumidores y la industria del vídeo en general actualicen sus sistemas para que sean compatibles con el vídeo 4K. En el cambio de HD a 4K, tendrían que reinvertir en servidores/reproductores de medios.
Sin embargo, mientras tanto, existen problemas asociados con la implementación de estándares 4K en la industria del vídeo, particularmente en relación con las dificultades asociadas con la transmisión de señales de vídeo 4K a largas distancias (más de 2-3 m) utilizando medios convencionales. Por lo tanto, a pesar de la promesa de una resolución más alta en comparación con el vídeo HD convencional, el vídeo 4K no se ha aceptado fácilmente en la industria del vídeo.
Por lo tanto, muchos usuarios han conservado sus sistemas compatibles con HD y aún no han invertido en tecnologías compatibles con 4K; Los sistemas 4K no son necesariamente compatibles con versiones anteriores y no admiten fácilmente la transmisión y visualización de señales HD de menor resolución a través del hardware convencional que ya poseen muchos usuarios.
Sin embargo, a largo plazo, la retención de sistemas compatibles con HD puede no ser particularmente rentable. Además, algunos usuarios pueden terminar pagando dos veces: primero para invertir en los sistemas compatibles con HD más actualizados y luego, dentro de unos años, cuando los estándares 4K se utilicen más ampliamente, los usuarios deberán actualizar sus sistemas HD a sistemas compatibles con 4K.
Como resultado, existe una discrepancia entre las capacidades de las GPU integradas en los servidores de medios (capaces de 4K) y los sistemas de proyección y distribución de vídeo descendentes (capaces de HD). Esto da como resultado una infrautilización de las capacidades de la GPU, con cada una de sus salidas compatibles con 4K sirviendo solo resolución HD, una cuarta parte de su capacidad real.
Dado que tanto la industria de GPU como la industria de vídeo en vivo evolucionan en diferentes horarios, se espera que este desajuste continúe, ya que la industria de GPU se gradúa a resoluciones de 8K mientras que la industria de vídeo se gradúa a 4K.
Por esta razón, la industria ha generado tecnologías diseñadas para interactuar entre las capacidades de salida 4K de las GPU y los equipos de visualización y distribución de señal HD que conserva la industria.
Estas tecnologías generalmente se implementan como dispositivos de procesamiento independientes que reciben un flujo de vídeo de alta resolución de la GPU y lo dividen en múltiples flujos de resolución más baja para transmitirlos a dispositivos de vídeo.
Sin embargo, esto crea una carga significativa para los operadores de este equipo, en términos de costo, complejidad, volumen de equipo, confiabilidad, tiempo de configuración y gastos generales de administración.
Se sabe de "Nota de prensa d34x4 Pro", 11 de marzo de 2015, páginas 1 a 5, para proporcionar tarjetas de salida de vídeo reemplazables insertables en un servidor de medios.
Es en este contexto que se ha ideado la presente invención.
Breve descripción de la invención
La invención se define por la combinación de características de las reivindicaciones independientes. Las realizaciones preferentes se definen en las reivindicaciones dependientes.
El presente documento proporciona una tarjeta procesadora de vídeo para la salida de datos de vídeo, la tarjeta procesadora de vídeo se dispone para insertarse en un servidor de medios de vídeo y comunicarse con una salida del servidor de medios de vídeo, la tarjeta que comprende: una entrada para recibir un primer flujo de datos de vídeo a una primera resolución de vídeo desde la salida del servidor de medios de vídeo; un procesador dispuesto para desmultiplexar el primer flujo de datos de vídeo recibido a la primera resolución en una pluralidad de segundos flujos de datos de vídeo, cada segundo flujo de datos de vídeo está a una segunda resolución de vídeo; y una pluralidad de salidas de vídeo, cada salida de vídeo dispuesta para generar uno de la pluralidad de segundos flujos de datos de vídeo, en donde la primera resolución de vídeo tiene una resolución de vídeo más alta que la segunda resolución de vídeo.
Cabe señalar que la pluralidad de segundos flujos de datos de vídeo puede corresponder a una pluralidad m, y la pluralidad de salidas de vídeo puede corresponder a una pluralidad adicional n, donde n es mayor o igual que m. En otras palabras, no existe necesariamente una correspondencia uno a uno entre los segundos flujos de datos de vídeo y las salidas de vídeo, y puede haber más salidas de vídeo que segundos flujos de datos de vídeo.
Ventajosamente, la configuración de la tarjeta procesadora de vídeo como se describió anteriormente proporciona la capacidad de demultiplexar un solo flujo de datos de vídeo de entrada de alta resolución en múltiples flujos de datos de vídeo de salida de baja resolución, que posteriormente pueden enviarse a proyectores para visualización pública. Cuando se usa en un servidor de medios, la tarjeta procesadora de vídeo asegura que la salida del servidor de medios sea compatible con las capacidades del equipo de proyección o transmisión de señales. Por ejemplo, esto es útil en situaciones en las que el servidor de medios es capaz de procesar datos de vídeo con resolución 4K, pero el equipo de transmisión de señal solo puede transmitir datos de vídeo con resolución HD.
Además, la tarjeta procesadora de vídeo elimina la necesidad de que el propio servidor de medios desmultiplexe un flujo de datos de vídeo inicial en la forma requerida para la salida. Cuando se cambian las propiedades de los flujos de datos de vídeo de entrada o salida, es más barato y más fácil adaptar un sistema que incorpore la tarjeta procesadora de vídeo anterior, ya que solo será necesario reemplazar o actualizar la tarjeta procesadora de vídeo, en lugar de necesitar reemplazo o actualización de todo el servidor de medios.
Opcionalmente, la tarjeta procesadora de vídeo es una tarjeta de conversión de formato de vídeo. Esto asegura que la tarjeta procesadora de vídeo pueda convertir el formato de vídeo del flujo de datos de vídeo de entrada en un formato de salida según lo desee el usuario.
Opcionalmente, el primer flujo de datos de vídeo a la primera resolución de vídeo comprende la pluralidad de segundos flujos de datos de vídeo intercalados entre sí.
Ventajosamente, en el escenario anterior, el primer flujo de datos de vídeo que se introduce en la tarjeta procesadora de vídeo ya comprende los segundos flujos de datos de vídeo que se requiere que salgan. Esto significa que la tarjeta procesadora de vídeo no necesita estar equipada con la capacidad de realizar un procesamiento complejo en el flujo de datos de vídeo de entrada, ya que todos los datos necesarios para la salida ya están presentes. La tarjeta procesadora de vídeo es, por lo tanto, sencilla y barata de fabricar.
Opcionalmente, el primer y segundo flujos de datos de vídeo comprenden datos de píxeles. Los píxeles consecutivos en el primer flujo de datos de vídeo pueden comprender datos de píxeles de diferentes de la pluralidad de segundos flujos de datos de vídeo. El procesador puede estar dispuesto para desmultiplexar el primer flujo de datos de vídeo recibido de manera que todos los datos de píxeles relacionados con uno de la pluralidad de segundos flujos de datos de vídeo se envíen a una de la pluralidad de salidas de vídeo.
La configuración anterior tiene la ventaja de ordenar de forma óptima los píxeles en el flujo de datos de vídeo de entrada para facilitar la demultiplexación en múltiples flujos de datos de salida. En particular, cuando los píxeles consecutivos del flujo de entrada comprenden datos de píxeles destinados a diferentes flujos de datos de salida, los píxeles recibidos pueden generarse inmediatamente a través de una de la pluralidad de salidas de vídeo. Tales configuraciones eliminan la necesidad de procesar o almacenar cualquiera de los datos entrantes y, por lo tanto, permiten la salida de múltiples flujos de datos simultáneamente sin requerir un período de latencia para leer y almacenar en búfer una trama completa. Esto es particularmente ventajoso en situaciones donde se requiere actualización o salida en tiempo real.
Opcionalmente, la primera resolución de vídeo es una resolución 4K y la segunda resolución de vídeo es una resolución HD. Alternativamente, la primera resolución de vídeo puede ser una resolución de 8K y la segunda resolución de vídeo puede ser una resolución de 4K.
Ventajosamente, la configuración anterior de la tarjeta procesadora de vídeo proporciona la flexibilidad para manejar la incompatibilidad entre las capacidades del servidor de medios y otros equipos de generación de señales, y las capacidades del equipo de proyección y transmisión única. Las incompatibilidades actuales, entre los datos de entrada de resolución 4K del servidor de medios y la salida al equipo de transmisión de señal HD, se abordan mediante una tarjeta procesadora de vídeo que convierte los datos de vídeo de resolución 4K a HD. En el futuro, cuando el servidor de medios genere datos de vídeo de mayor resolución (por ejemplo, resolución de 8K), mientras que el equipo de transmisión de señales siga siendo capaz de manejar datos de menor resolución (por ejemplo, resolución de 4K), simplemente actualizando las capacidades de la tarjeta procesadora de vídeo para convertir datos de resolución de 8K a los datos de resolución 4K solucionarán las incompatibilidades, sin necesidad de actualizar todo el servidor de medios o todo el equipo de transmisión de señales.
Opcionalmente, la tarjeta procesadora de vídeo comprende un codificador para codificar los segundos flujos de datos de vídeo en un formato de vídeo específico. El formato de vídeo específico puede ser DVI o 3G-SDI. La configuración anterior de una tarjeta procesadora de vídeo que incorpora un codificador de formato de vídeo es útil en situaciones en las que se puede requerir que la tarjeta procesadora de vídeo genere datos de vídeo en muchos formatos diferentes, cada uno con requisitos diferentes.
El documento también proporciona un servidor de medios para generar un primer flujo de datos de vídeo a una primera resolución de vídeo y enviar datos de vídeo a dispositivos de visualización de vídeo, comprendiendo el servidor de medios: una entrada para recibir una pluralidad de flujos de datos de vídeo de origen en una resolución de vídeo de origen; una ranura para tarjeta procesadora de vídeo para recibir tarjetas procesadoras de vídeo extraíbles; un procesador dispuesto para intercalar píxeles de los segundos flujos de datos de vídeo recibidos en la entrada para generar el primer flujo de datos de vídeo; una salida dispuesta para enviar el primer flujo de datos de vídeo a la ranura de la tarjeta procesadora de vídeo.
Ventajosamente, en la configuración anterior, el servidor de medios intercala datos de píxeles de múltiples flujos de datos de vídeo (cada uno de los cuales está destinado a salir por separado de la tarjeta procesadora de vídeo) y pasa el flujo de datos de vídeo resultante a la tarjeta procesadora de vídeo. Esto significa que los datos de píxeles para los múltiples flujos de datos de vídeo de salida se presentan en un orden óptimo a la tarjeta procesadora de vídeo, específicamente, en el orden en que cada píxel deberá leerse y enviarse al equipo de transmisión de señal. Por lo tanto, la potencia de procesamiento y la capacidad de almacenamiento de la tarjeta procesadora de vídeo pueden reducirse ya que no es necesario almacenar en memoria intermedia ni procesar ninguno de los datos entrantes antes de que los datos sean desmultiplexados y generados para la transmisión de la señal. Esto hace que las tarjetas procesadoras de vídeo sean más baratas y fáciles de producir y reemplazar.
Opcionalmente, el servidor de medios comprende un segundo flujo de datos de vídeo con una segunda resolución de vídeo.
Ventajosamente, un servidor de medios con la configuración anterior sería capaz de manejar el procesamiento de un flujo de datos de vídeo adicional. En particular, el segundo flujo de datos de vídeo podría comprender una fuente de vídeo (a una resolución de fuente de vídeo específica) que se proporciona (o genera) al servidor de medios para su procesamiento posterior antes de que se genere a través de la tarjeta procesadora de vídeo. Por ejemplo, esto sería útil en escenarios en los que el servidor de medios puede recibir un flujo de datos de vídeo de origen en particular a una resolución muy alta (resolución superior a 4K), con la intención de que las diferentes regiones de los tramas de vídeo de origen se conviertan en flujos de datos de vídeo de resolución 4K o HD separados.
La ranura para tarjeta procesadora de vídeo del servidor de medios puede comprender una tarjeta procesadora de vídeo de manera que el servidor de medios genere una pluralidad de segundos flujos de datos de vídeo a una segunda resolución de vídeo.
La configuración anterior combina ventajosamente las funcionalidades de la tarjeta procesadora de vídeo y el servidor de medios, lo que permite demultiplexar los datos procesados por el servidor de medios en múltiples flujos de datos de vídeo de salida de una resolución diferente a los flujos de datos iniciales, para compatibilidad con la transmisión de señales y/o equipo de proyección.
Opcionalmente, la ranura para tarjeta procesadora de vídeo del servidor de medios comprende una tarjeta procesadora de vídeo de transferencia, la tarjeta procesadora de vídeo se dispone de transferencia para recibir el primer flujo de datos de vídeo en una entrada de la tarjeta procesadora de vídeo, y para pasar la primera flujo de datos de vídeo a través de una salida de tarjeta procesadora de vídeo.
La incorporación de una tarjeta procesadora de vídeo con funcionalidad de transferencia permite que la tarjeta procesadora de vídeo simplemente pase el flujo de datos de vídeo de entrada (recibido del servidor de medios) directamente a la salida, sin necesidad de realizar ninguna demultiplexación. Esto es ventajoso en situaciones en las que no hay discrepancia entre las capacidades del servidor de medios y el equipo de proyección y/o transmisión de señales. Por ejemplo, cuando el equipo de transmisión de señales se actualizó para manejar datos de vídeo de resolución 4K y ya no es necesario dividir los datos de vídeo 4K en múltiples flujos de vídeo HD para fines de transmisión y proyección. En este caso, no es necesario actualizar el servidor de medios en sí, todo lo que se requiere es cambiar una tarjeta procesadora de vídeo demultiplexor por una tarjeta de vídeo de transferencia: esta es una solución mucho más económica y fácil.
Opcionalmente, el servidor de medios comprende al menos dos ranuras para tarjetas procesadoras de vídeo. El procesador puede estar dispuesto para generar al menos dos primeros flujos de datos de vídeo, cada primer flujo de datos de vídeo se envía a una ranura de tarjeta procesadora de vídeo diferente.
Ventajosamente, el servidor de medios en la configuración anterior puede manejar múltiples flujos de datos de vídeo de entrada (por ejemplo, al menos dos flujos de datos de vídeo de resolución 4K) y puede pasar cada flujo de entrada a una tarjeta procesadora de vídeo diferente para una salida simultánea. Esto aumenta efectivamente la cantidad de flujos de datos de vídeo que puede salir de un solo servidor de medios sin requerir ningún cambio sustancial en la funcionalidad o configuración del propio servidor de medios.
Un método de salida de datos de vídeo, el método que comprende: recibir, en una entrada, un primer flujo de datos de vídeo a una primera resolución de vídeo desde la salida de un servidor de medios de vídeo; demultiplexar el primer flujo de datos de vídeo en una pluralidad de segundos flujos de datos de vídeo, cada segundo flujo de datos de vídeo está a una segunda resolución de vídeo; y generar datos de vídeo desde una pluralidad de salidas de vídeo, cada salida de vídeo se dispone para generar uno de la pluralidad de segundos flujos de datos de vídeo, en donde la primera resolución de vídeo tiene una resolución de vídeo más alta que la segunda resolución de vídeo. Un medio portador para transportar un código legible por ordenador para controlar un dispositivo informático para llevar a cabo el método descrito anteriormente.
Un método para generar un primer flujo de datos de vídeo a una primera resolución de vídeo y enviar vídeo a dispositivos de visualización de vídeo, el método que comprende: recibir, en una entrada, una pluralidad de flujos de datos de vídeo fuente en una resolución de vídeo fuente; intercalar píxeles de los flujos de datos de vídeo fuente para generar el primer flujo de datos de vídeo; y enviar el primer flujo de datos de vídeo a una ranura de tarjeta procesadora de vídeo para recibir tarjetas procesadoras de vídeo extraíbles.
Un medio portador para transportar un código legible por ordenador para controlar un dispositivo informático para llevar a cabo el método descrito anteriormente.
Breve descripción de los dibujos
Las realizaciones preferidas de la presente invención se describen a continuación con referencia a las figuras adjuntas, en las que:
La Figura 1 es un diagrama de bloques esquemático de un entorno de un sistema de manejo de datos de vídeo que lleva a cabo el procesamiento y la transmisión de datos de vídeo de acuerdo con una realización de la presente invención;
La Figura 2 es un diagrama de bloques esquemático que muestra detalles de los componentes del servidor de medios de la Figura 1;
La Figura 3 es un diagrama de bloques esquemático que muestra detalles de los componentes de la tarjeta VFC incorporada en el servidor de medios de la Figura 2;
La Figura 4 es un diagrama de flujo de un proceso de alto nivel que comprende el procesamiento y la transmisión de datos de vídeo en la forma de realización del sistema de la Figura 2;
La Figura 5 es un diagrama de flujo del proceso de procesamiento y transmisión de datos de vídeo dentro del ordenador comprendido dentro del servidor de medios de la Figura 2;
La Figura 6 es un diagrama de bloques que ilustra el método por el cual múltiples flujos de datos de vídeo de baja resolución se multiplexan en un solo flujo de datos de vídeo de salida de mayor resolución, según el proceso llevado a cabo en la realización del sistema de la Figura 2;
La Figura 7 es un diagrama de flujo del proceso de procesamiento y transmisión de datos de vídeo dentro de la tarjeta VFC de la Figura 3; y
La Figura 8 es un diagrama de bloques que ilustra el método mediante el cual el único flujo de datos de vídeo de alta resolución generado en la Figura 6 se desmultiplexa para formar múltiples flujos de datos de vídeo de baja resolución, de acuerdo con el proceso llevado a cabo en la realización del sistema de la Figura 2
Las figuras expuestas en este documento ilustran realizaciones de la presente invención, pero no deben interpretarse como limitantes del alcance de la invención. Cuando sea apropiado, se utilizarán números de referencia similares en diferentes figuras para referirse a las mismas características estructurales de las realizaciones ilustradas.
Descripción detallada
La Figura 1 ilustra un sistema de manejo de datos de vídeo que se usa para procesar y transmitir flujos de datos de vídeo de acuerdo con una primera realización de la presente invención.
El sistema de manejo de datos de vídeo 1 comprende un servidor de medios 4 para el procesamiento y suministro de flujos de datos de vídeo a usuarios remotos de proyectores de vídeo 6 para mostrarlos en una o más pantallas de visualización remotas 8 o a un dispositivo de visualización 7 (como una pantalla de plasma). Las interacciones entre el servidor de medios 4 y uno o más proyectores de vídeo 6 se llevan a cabo utilizando una red 10. En realizaciones particulares, las señales de vídeo del servidor de medios 4 se transmiten mediante enlaces de vídeo (ya sea DVI o SDI) a uno o más proyectores de vídeo 6. La red 10 puede comprender medios de conexión inalámbricos o por cable, redes de transferencia de datos, redes de transferencia de vídeo, sistemas de distribución de vídeo o cualquier combinación de los mismos.
En algunas realizaciones, los flujos de datos de vídeo pueden proporcionarse inicialmente al servidor de medios 4 mediante una grabadora de imagen/video 12. Por ejemplo, en aquellos casos en los que se graba un evento en directo y se transmite al servidor de medios 4 a través de la red 10 para el posprocesamiento y posterior revisualización. También se contemplan otras realizaciones en las que los flujos de datos de vídeo son creados por una fuente de imagen/video separada 14 y se proporcionan al servidor de medios 4 a través de la red 10. Por ejemplo, los flujos de datos de vídeo pueden ser creados por ordenadores que ejecutan herramientas de creación y posproducción y proporcionados al servidor de medios 4 a través de la red 10. Alternativamente, dichas realizaciones también podrían aplicarse en situaciones en las que un evento pregrabado se proyecta en las pantallas de visualización remotas 8, como acompañamiento de un evento en vivo. En aún otras realizaciones, el servidor de medios 4 puede generar los datos de vídeo por sí mismo usando sus capacidades internas de procesamiento gráfico (no mostradas).
Se apreciará que también se puede implementar una combinación de las realizaciones anteriores de producción de flujos de vídeo utilizando algunos o todos los componentes del sistema anterior, según los requisitos del usuario final, y se considera que dichas realizaciones se encuentran dentro de los alcance de las realizaciones de la presente invención.
La Figura 2 ilustra los componentes principales comprendidos dentro del servidor de medios 4 según una realización de la presente invención, y el mecanismo por el cual los flujos de datos de vídeo se transmiten desde el servidor de medios a la red.
En la realización específica que se muestra en esta figura, dieciséis (es decir, cuatro conjuntos de cuatro) flujos de datos de vídeo iniciales de baja resolución (HD) se procesan en el servidor de medios 4 y se multiplexan (combinan) para producir cuatro flujos de datos de vídeo de mayor resolución (4K) que posteriormente se desmultiplexan (dividen) para generar los dieciséis flujos de datos de vídeo de baja resolución originales en un formato que es compatible con su transmisión a través de la red 10 y su visualización en pantallas de visualización remotas 8, 8a. Cabe señalar que la disposición descrita aquí (tomar 16 flujos de datos de vídeo de entrada HD para generar 4 flujos de datos de vídeo de salida 4K) es un ejemplo de una disposición que puede adoptarse usando la realización del sistema de la Figura 2, y que otras configuraciones del sistema de servidor de medios que tenga diferentes números y tipos de flujos de datos de vídeo de entrada y salida.
El servidor de medios 4 comprende un ordenador 20 en comunicación operativa con cuatro tarjetas procesadoras de vídeo/tarjetas VFC (Conversión de Formato de Vídeo) 22a, 22b, 22c, 22d. Más adelante se proporcionará un desglose detallado de los componentes que componen las tarjetas VFC con referencia a la Figura 3. Se observa que en realizaciones alternativas el ordenador 20 puede estar en comunicación operativa con una o más tarjetas procesadoras de vídeo/tarjetas VFC.
El ordenador 20 comprende una placa base 24, que a su vez comprende los componentes de un ordenador estándar que incluye un procesador 26, una SSD (unidad de estado sólido) 28 y un componente RAM (memoria de acceso aleatorio) 30. Estos componentes pueden usarse en la producción y el almacenamiento de flujos de datos de vídeo, en aquellas realizaciones donde el servidor de medios 4 genera los flujos de datos de vídeo por sí mismo y los almacena dentro del SSD 28. En otras realizaciones en las que el servidor de medios 4 recibe los flujos de datos de vídeo de una grabadora de imagen/video 12 o una fuente de imagen/video 14, el servidor de medios comprende además un receptor de señal 31 que recibe los datos y los transmite a la placa base 24 para el procesamiento y/o almacenamiento inicial utilizando el SSD 28 o la RAM 30.
El ordenador 20 comprende además una GPU (Unidad de procesamiento gráfico) 32 y un componente de placa posterior 34. La función principal de la GPU 32 es manipular los flujos de datos de vídeo de entrada recibidos desde la placa base 24 y crear flujos de datos de vídeo que sean adecuados para la salida a varias pantallas de visualización 8, 8a. Un componente importante de la GPU 32 es el sombreador de intercalado 36 que, para cada conjunto de flujos de datos de vídeo 4xHd , intercala los píxeles de los flujos de vídeo HD para producir un solo flujo de datos de vídeo 4K que posteriormente se envía al componente de placa posterior 34. Como hay 16 flujos de vídeo HD de entrada (cuatro conjuntos de flujos 4xHD) en la realización que se muestra en la Figura 2, la salida del sombreador 36 intercalado al componente de la placa posterior 34 es, por lo tanto, 4 flujos de datos de vídeo 4K separados. El componente de la placa posterior 34 realiza la reorientación de línea en estos flujos de vídeo de 4K para evitar la degradación de la señal y, posteriormente, transmite cada flujo de vídeo de 4K a una tarjeta VFC separada 22a-d. Cada tarjeta VFC 22a-d divide el flujo de vídeo 4K de entrada en cuatro flujos de vídeo HD de menor resolución y, posteriormente, los convierte a un formato deseado (por ejemplo, DVI o 3G-SDI) para la salida a la red 10.
Finalmente, el servidor de medios 4 comprende un módulo de entrada de fuente de alimentación 38 para obtener energía de una fuente de alimentación 40 para permitir que funcione el servidor de medios.
En ciertas realizaciones, se prevé que las tarjetas VFC 22a-d adopten la forma de tarjetas físicas que se insertan en porciones de recepción diseñadas específicamente del servidor de medios. En particular, las tarjetas se pueden insertar en la placa posterior que está específicamente diseñada para recibirlas. Las tarjetas están diseñadas para que se puedan quitar fácilmente del servidor de medios, de modo que se puedan quitar e intercambiar con otras tarjetas VFC que tengan diferentes capacidades de conversión de formato de vídeo si es necesario.
Por lo tanto, es posible variar el formato del vídeo de salida muy fácilmente intercambiando tarjetas VFC, lo cual es una ventaja de las realizaciones de la presente invención.
Cabe señalar que el número de tarjetas VFC que se muestra en la Figura 2 no pretende ser limitativo. Según los requisitos del usuario final y, en consecuencia, la cantidad de datos de vídeo que deben procesarse y transmitirse a través del sistema del servidor de medios, puede haber un mínimo de una tarjeta VFC, o tantas como puedan estar ubicadas físicamente dentro del servidor de medios sin perjudicar indebidamente su funcionalidad.
Se han previsto realizaciones alternativas para uso futuro cuando los estándares de la industria se hayan puesto al día con las capacidades del hardware, y los flujos de 4K se puedan transmitir directamente a través de la red 10. En tales realizaciones, las tarjetas VFC 22a-22d que dividen el flujo 4K entrante en múltiples flujos HD se reemplazarían con tarjetas VFC que actúan como un "paso" para el flujo 4K. Por lo tanto, el servidor de medios 4 no dividiría los flujos de vídeo 4K entrantes en múltiples flujos de vídeo HD, sino que simplemente proporcionaría un medio por el cual el flujo de vídeo 4K podría codificarse en el formato requerido para el usuario final y luego generar flujos de vídeo 4K a la red 10.
Por lo tanto, las realizaciones de la presente invención tienen la ventaja de la flexibilidad, ya que tienen la capacidad de adaptarse a los requisitos de la industria en constante cambio con solo modificaciones menores. Otros sistemas actuales necesitarían cambiar todo el servidor de medios para adaptarse a las necesidades cambiantes de la industria.
Ahora se proporciona un desglose detallado de los componentes de una de las tarjetas VFC 22a (que se muestra en la Figura 2) con referencia a la Figura 3.
La tarjeta VFC 22a comprende un receptor de señal 50, FPGA (Field Programmable Gate Array) 52, una pluralidad de salidas de vídeo 54a, 54b, 54c, 54d y (opcionalmente) uno o más indicadores de estado 56. Estos indicadores de estado pueden adoptar la forma de indicadores de tipo LED y pueden proporcionar información que indica el estado del sistema de la tarjeta VFC, por ejemplo, cambiando de color dependiendo de si la tarjeta VFC está actualmente enviando datos a la red 10.
La FPGA 52 comprende además un divisor (reformateador) 58, en comunicación operativa con una pluralidad de bloques codificadores 60a, 60b, 60c, 60d, que están conectados operativamente a la pluralidad de salidas de vídeo 54a, 54b, 54c, 54d. El FPGA 52 también comprende un procesador 62 que se conecta y controla todos los demás componentes de la FGPA 52 (por ejemplo, la memoria 64), realizando tareas de configuración, sincronización y retroalimentación para la tarjeta VFC 22a.
El receptor de señal 50 recibe el flujo de datos de vídeo 4K entrante transmitido desde el componente de la placa posterior 34, analiza el flujo de datos y luego lo transmite al FPGA 52. Este flujo de vídeo 4K es recibido por el divisor 58 y se desmultiplexa para producir 4 flujos de vídeo HD de menor resolución. Cada flujo de vídeo Hd se pasa posteriormente a uno de la pluralidad de bloques codificadores 60a, 60b, 60c, 60d, que codifican el flujo de vídeo en el formato de salida requerido (por ejemplo, DVI o 3G-SDI). Los flujos de vídeo resultantes luego se envían a la red 10 a través de una de la pluralidad de salidas de vídeo 54a-d.
El diagrama de flujo de la Figura 4 ilustra el proceso general mediante el cual los flujos de vídeo HD de entrada se procesan y transmiten a través de los componentes constituyentes de la realización del sistema de servidor de medios que se muestra en la Figura 2. Este proceso se describirá con mayor detalle con referencia a las Figuras 5-8.
Para fines de claridad, los procesos posteriores se describirán con referencia a una única tarjeta VFC 22a, en donde la entrada inicial de la placa base 24 comprende 4 flujos de vídeo HD, que se combinan en un solo flujo de vídeo 4K y, posteriormente, se dividen en cuatro flujos de vídeo HD que salen de la tarjeta VFC 22a. Sin embargo, cabe señalar que este proceso puede reflejarse en las otras tres tarjetas VFC 22b, 22c, 22d que se muestran en la realización del sistema de la Figura 2, de modo que las salidas finales del sistema de servidor de medios en su conjunto son 16 flujos de vídeo HD.
El proceso 200 comienza en el paso 205, donde el ordenador 20 recupera de la placa principal 24 múltiples flujos de vídeo HD, que han sido generados por el ordenador misma o se han obtenido de una grabadora de imagen/video 12 u otra fuente 14 a través de la red 10.
Los flujos de vídeo HD se transfieren luego al sombreador intercalado 36 de la GPU 32, que divide cada flujo HD en sus píxeles componentes en el paso 210 e intercala estos píxeles para generar un solo flujo de vídeo 4K en el paso 215. A continuación, esto se transmite en el paso 220 desde el sombreador 36 intercalado de GPU, a través del componente de la placa posterior 34, hasta la tarjeta 22a de VFC.
En la tarjeta VFC 22a, el flujo de vídeo 4K se desmultiplexa en el paso 225 por el divisor 58, de modo que los píxeles consecutivos en el flujo 4K se leen y asignan a las salidas de vídeo alternativas 54a-d a su vez. En otras palabras, el primer píxel del flujo se asigna a la primera salida de vídeo 54a, el segundo píxel se asigna a la segunda salida de vídeo 54b y así sucesivamente, hasta que se haya procesado todo el flujo. En el paso 230, cada una de las salidas de vídeo 54a-d transmite su salida HD correspondiente a través de la red 10 al(los) proyector(es) 6, 6a para su visualización en la(s) pantalla(s) de visualización remota(s) 8, 8a.
El diagrama de flujo de la Figura 5 ilustra más claramente los pasos del proceso que se utiliza para manipular y transmitir los flujos de datos de vídeo dentro del ordenador 20, en aquellas realizaciones de la presente invención donde 4 flujos de datos de vídeo HD de entrada se intercalan para formar un solo Salida de flujo de datos de vídeo 4K.
El proceso 300 comienza con el paso 305, donde la placa base del ordenador 24 transmite los flujos de datos de vídeo HD iniciales a la GPU 32. Como se describió con referencia a la Figura 2, estos flujos de vídeo HD iniciales pueden ser generados por la propia placa base 24 del ordenador; pueden recibirse alternativa o adicionalmente de otras fuentes, a través de la red 10, usando el receptor de señal 31 en el ordenador 20 y almacenarse de forma recuperable en los componentes de memoria 28, 32 de la placa base 24. Independientemente de cómo la placa base 24 obtiene los flujos de datos de vídeo de entrada, todos ellos se transmiten en el paso 305 a la GPU 32 y, por lo tanto, al sombreador de intercalación de GPU 36.
En el paso 310, el sombreador 36 intercalado de GPU analiza los flujos de datos de vídeo HD de entrada para determinar ciertas propiedades importantes de cada flujo de vídeo. Por ejemplo, estas propiedades pueden comprender el tamaño y la resolución de la transmisión de vídeo.
Una vez que se han determinado las propiedades relevantes de los flujos de datos de vídeo de entrada, antes de continuar con el proceso, el sombreador 36 intercalado de GPU puede asignar cada uno de los flujos de datos de vídeo HD a al menos uno de una pluralidad de sombreadores secundarios (no mostrados) que son compatibles con la configuración de salida deseada de los flujos de datos de vídeo. Por ejemplo, ciertos subsombreadores pueden admitir arreglos de salida de doble división, quad-split o espejo, y los flujos de datos de vídeo serán procesados por los subsombreadores correspondientes que admiten el arreglo de salida deseado. Posteriormente, debe entenderse que todas las referencias al sombreador 36 intercalado de GPU que realiza tareas específicas en este proceso también pueden tomarse como los subsombreadores asignados que realizan las mismas tareas.
Posteriormente, en el paso 315, los subsombreadores relevantes del sombreador 36 de intercalado de GPU leen un píxel de cada flujo de datos de vídeo HD de entrada, e intercalan estos píxeles de acuerdo con reglas de intercalado predeterminadas. Los detalles del proceso de intercalado se ilustran en la Figura 6.
El proceso 350 comienza cuando 4 flujos de datos de vídeo HD de entrada 360, 362, 364, 366 (etiquetados A, B, C y D respectivamente en la figura, cada uno de los cuales comprende una pluralidad de píxeles individuales), se proporcionan al sombreador intercalado de GPU 36. Los píxeles de cada uno de los cuatro flujos de entrada son leídos a su vez por el sombreador 36 de intercalación de GPU, y se intercalan para formar un único flujo de salida 370. Con este método, el primer píxel del flujo A (denotado A00) corresponde al primer píxel del flujo de salida 370; el primer píxel del flujo B (denotado B00) corresponde al segundo píxel del flujo de salida 370, el primer píxel del flujo C (indicado como C00) corresponde al tercer píxel del flujo de salida 370; el primer píxel del flujo D (denotado D00) corresponde al cuarto píxel de una primera secuencia 372 del flujo de salida 370. El segundo píxel en cada uno de los flujos de entrada 360, 362, 364, 366 luego se intercalan de manera correspondiente, y la secuencia resultante 374 se concatena con la primera secuencia de cuatro píxeles 372. Este proceso continúa hasta que todos los píxeles de los flujos de entrada 360, 362, 364, 366 se hayan intercalado para producir un solo flujo de salida 370.
Cabe señalar que el método de intercalado y el orden resultante de los píxeles de esta realización optimizan la configuración de píxeles para producir flujos de vídeo en formato DVI para enviarlos a la red 10. Se pueden utilizar otros métodos de intercalado y ordenamiento de píxeles de entrada para otros formatos de vídeo (por ejemplo, 3G-SDI).
Volviendo a la Figura 6, una vez que se ha generado el flujo de salida intercalado 370, el sombreador de intercalado de GPU 36 determina para cada píxel de salida en el paso 320 de qué flujo de entrada se obtuvo el píxel. Una vez que se ha determinado esto, el sombreador 36 intercalado de GPU accede al búfer del flujo de datos de vídeo de entrada para obtener el color correspondiente para ese píxel, y lo escribe en un búfer para el flujo de salida para que la información en los flujos de datos de vídeo de entrada no se pierda en la conversión a un único flujo de salida. El sombreador intercalado de GPU 36 determina entonces en el paso 325 si la resolución de cada uno de los flujos de datos de vídeo de entrada es mucho menor que una resolución de umbral predeterminada (por ejemplo, en ciertas realizaciones esta resolución de umbral puede ser de 1080 píxeles). Si se determina en el paso 325 que la resolución de todos los flujos de datos de vídeo de entrada es mayor que el valor de umbral predeterminado, el sombreador 36 de intercalado de GPU procede inmediatamente a determinar en el paso 330 si todos los píxeles de los flujos de datos de vídeo de entrada han sido intercalados.
Alternativamente, si se determina que la resolución de cualquiera de los flujos de datos de vídeo de entrada es menor que este valor de umbral, antes de continuar con el paso 330, el sombreador 36 intercalado de GPU inserta en el paso 335 espacios en blanco o líneas en el flujo de vídeo de salida para que los datos lleguen a las tarjetas VFC 22a-d en el momento exacto.
Si posteriormente se determina en el paso 330 que no todos los píxeles de entrada se han intercalado, el sombreador de intercalado de GPU procede a repetir los pasos 315 a 330, hasta que se determina que todos los píxeles de cada uno de los flujos de datos de vídeo de entrada se han intercalado con éxito. Una vez que esto ha ocurrido, el sombreador de intercalación 36 de la GPU envía al componente de la placa posterior 34 en el paso 340 un flujo de datos de vídeo 4K de salida única, que se ha producido intercalando los píxeles de los cuatro flujos de datos de vídeo de entrada HD.
En la realización con 16 flujos de datos de vídeo HD de entrada, el sombreador 36 intercalado de GPU genera cuatro flujos de datos de vídeo 4K usando el proceso descrito anteriormente de las Figuras 4 y 5. Estos cuatro flujos de datos de vídeo 4K se transmiten al componente de la placa posterior 34, que realiza la redirección de línea para garantizar que las señales no se degraden y, posteriormente, envía cada uno de los flujos de datos de vídeo 4K a una tarjeta VFC separada 22a-d.
El diagrama de flujo de la Figura 7 ilustra con mayor detalle el análisis y la manipulación del flujo de datos de vídeo 4K de entrada llevado a cabo por cada una de las tarjetas VFC 22a-d, para producir 4 flujos de datos de vídeo HD de salida.
El proceso 400 comienza en el paso 405, donde el receptor de la tarjeta VFC 50 analiza el flujo de datos de vídeo 4K de entrada, que se recibió del componente de la placa posterior 34. El flujo de datos de vídeo de entrada se transmite luego al divisor 58, que recibe en el paso 410 una parte del flujo de datos de vídeo de entrada en un búfer (por ejemplo, 10 líneas de datos de vídeo, con 4096 píxeles en cada línea), desde el cual los datos se recuperan para ser procesados y enviados a la red 10.
Al recibir el flujo de datos de vídeo de entrada en un búfer inicialmente, el divisor genera una pequeña latencia para que pueda garantizar que se puedan manejar las diferencias de tiempo entre las señales recibidas y de salida (hasta el límite de datos que se pueden contener dentro) el búfer en cualquier momento). Esto ayuda a minimizar los problemas de latencia asociados con la salida de los flujos de datos de vídeo HD finales.
En el paso 415, el divisor 58 lee los datos del flujo de vídeo del búfer y desmultiplexa el flujo de datos único para producir cuatro flujos de datos de vídeo de salida HD que se envían a los bloques codificadores 60a-d en el paso 420.
Esto se ilustra con mayor detalle en la Figura 8. Específicamente, los píxeles consecutivos del flujo de datos de vídeo 4K de entrada 370 son leídos por el divisor 58 y enviados a bloques codificadores separados 60a-d a su vez. En otras palabras, el píxel A00 se lee y se pasa al bloque codificador 60a; píxel B00 se lee y se pasa al bloque codificador 60b; píxel C00 se lee y se pasa al bloque codificador 60c; y píxel D00 se lee y se pasa al bloque codificador 60d. De esta manera, los cuatro flujos de datos de vídeo h D separados 360, 362, 364, 366 que se proporcionaron al sombreador intercalado de GPU 36 en el Proceso 350 se vuelven a generar y se pasan a los bloques codificadores 60a-d para procesamiento adicional. Para completar, debe notarse que todos los píxeles subsiguientes del bloque A (es decir, del flujo de datos de vídeo 360) se pasarán al mismo bloque codificador 60a; todos los píxeles subsiguientes del bloque B (es decir, del flujo de datos de vídeo 362) se pasarán al bloque codificador 60b; todos los píxeles subsiguientes del bloque C (es decir, del flujo de datos de vídeo 364) se pasarán al bloque codificador 60c; y todos los píxeles subsiguientes del bloque D (es decir, del flujo de datos de vídeo 366) se pasarán al bloque codificador 60d.
Volviendo a la Figura 7, una vez que los bloques codificadores 60a-d han recibido los flujos de datos de vídeo HD, se procesan y codifican en el paso 420 en el formato apropiado para enviarlos a la red 10. Luego, cada flujo de datos de vídeo HD se genere a través de una salida de vídeo separada 54a-d a la red 10, y luego se transmite a un proyector 6 para mostrarlo en una pantalla de visualización remota 8.
Cuando los datos han sido enviados a la red 10, el procesador 62 del sistema de tarjeta VFC verifica en el paso 430 si hay algún dato restante en el flujo de datos de vídeo 4K de entrada que necesita ser enviado. Si se determina en el paso 430 que aún quedan datos en el flujo de datos de vídeo de entrada, se repiten los pasos 410-430 del proceso hasta que se devuelve un resultado negativo en el paso 430. Una vez que se devuelve un resultado negativo (es decir, la totalidad del flujo de datos de vídeo de entrada se ha enviado a la red 10), las tarjetas VFC 22a-d pueden recibir en el paso 435 más flujos de datos del componente de la placa posterior 34.
Se apreciará que la realización descrita anteriormente de la presente invención tiene la ventaja de reducir el período de latencia asociado con la salida de flujos de datos de vídeo HD demultiplexados.
Los sistemas de servidores de medios actuales que intentan transmitir 4 flujos de datos de vídeo HD (A, B, C, D) a través de una sola tubería de transmisión 4K organizarían los flujos en un solo trama 4K de entrada, que comprende cuatro subtramas que corresponden a los cuatro flujos de datos de vídeo HD dispuestos en el sentido de las agujas del reloj como A, B, D, C. Con el fin de demultiplexar la trama 4K único para producir los cuatro flujos HD originales, dichos sistemas llevarían a cabo una lectura de tipo ráster sencilla de los píxeles proporcionados en la entrada de trama de vídeo de alta definición. Por lo tanto, para generar los cuatro flujos de datos de vídeo HD A, B, C, D y generar estos flujos simultáneamente, el sistema necesitaría recibir y procesar primero todos los píxeles de los subtramas A y B antes de recibir cualquier píxel de subtramas C y D.
Para generar 4 flujos de datos de vídeo HD simultáneamente, los sistemas actuales introducirían un período de latencia para generar flujos de datos de vídeo equivalente al tiempo requerido para almacenar en búfer una trama completa. Esto no es deseable en muchos casos, particularmente en aquellos casos en los que los flujos de datos de vídeo de salida se transmiten a proyectores para su visualización en pantallas de visualización remotas en eventos en directo, donde las actualizaciones en tiempo real son importantes.
Por el contrario, en la realización de la presente invención, debido al proceso de intercalado llevado a cabo en el componente de la placa posterior 34, las tarjetas VFC 22a-d se presentan con píxeles preestablecidos en el orden óptimo requerido, de modo que tan pronto como los píxeles se recibidos, se pueden usar para generar los cuatro flujos de datos de vídeo de salida inmediatamente, sin tener que esperar a que se almacene en búfer una trama completa. Por lo tanto, los tiempos de latencia se minimizan y se pueden eliminar por completo si así se desea. Además, como no hay necesidad de almacenar una trama completa antes de la salida, el método empleado en la realización de la presente invención descrita anteriormente reduce los requisitos de memoria del sistema en el que se implementa.
También debe señalarse que el sistema de las realizaciones descritas anteriormente tiene la ventaja de ser flexible. Los flujos de datos de vídeo HD iniciales se intercalan en el ordenador 20, y las tarjetas VFC 22a-d simplemente demultiplexan el flujo de datos de vídeo 4K resultante para producir flujos de datos de vídeo HD de salida, ya que las capacidades de la industria son insuficientes para transmitir señales 4k dentro de la red 10 . Sin embargo, cuando las capacidades de la industria mejoren y los datos de vídeo 4K puedan enviarse desde el ordenador directamente a la red 10, todo lo que se requerirá será que las tarjetas VFC 22a-d de la presente realización se intercambien por tarjetas VFC que generan datos de vídeo 4K, simplemente proporcionando una capacidad de 'paso' y las conexiones correctas para permitir la salida de una señal 4K.
En realizaciones donde las tarjetas VFC toman la forma de tarjetas físicas que se pueden insertar en una ranura en el sistema de servidor de medios, un simple intercambio de tarjetas es todo lo que se requiere para cambiar la funcionalidad del sistema de servidor de medios de salida HD a Salida 4K, e incluso a otras resoluciones y formatos de vídeo. Por ejemplo, se ha previsto que en el futuro, el sistema también podría usarse con flujos de datos de vídeo de 8K (o flujos de datos de resolución aún mayor) cuando se vuelvan más frecuentes.
Se pueden hacer muchas modificaciones a los ejemplos anteriores sin apartarse del alcance de la presente invención como se define en las reivindicaciones adjuntas.

Claims (12)

REIVINDICACIONES
1. Una tarjeta procesadora de vídeo para generar una pluralidad de flujos de datos de vídeo, la tarjeta procesadora de vídeo se dispone para inserción removible en un servidor de medios de vídeo y en comunicación con una salida del servidor de medios de vídeo, la tarjeta que comprende:
una entrada (50) para recibir un primer flujo de datos de vídeo a una primera resolución de vídeo desde la salida del servidor de medios de vídeo;
un procesador (62) dispuesto para demultiplexar el primer flujo de datos de vídeo recibido a la primera resolución en una pluralidad de segundos flujos de datos de vídeo, cada segundo flujo de datos de vídeo está a una segunda resolución de vídeo; y
una pluralidad de salidas de vídeo (54a, 54b, 54c, 54d), cada salida de vídeo dispuesta para generar una de la pluralidad de segundos flujos de datos de vídeo,
en donde la primera resolución de vídeo tiene una resolución de vídeo más alta que la segunda resolución de vídeo, y el primer y segundo flujo de datos de vídeo comprenden datos de píxeles, y en donde el primer flujo de datos de vídeo (370) a la primera resolución de vídeo comprende la pluralidad de segundos flujos de datos de vídeo (360, 362, 364, 366) intercalados entre sí de manera que los píxeles consecutivos en el primer flujo de datos de vídeo comprenden datos de píxeles, tomados a su vez de cada flujo de la pluralidad de segundos flujos de datos de vídeo, y en donde cada uno de los segundos flujos de datos de vídeo representa una región diferente de un vídeo de origen dividido en subtramas que se generan por separado para renderizar, el intercalado es tal que tan pronto como se reciben los píxeles en la entrada, los flujos de datos de vídeo de salida se generan inmediatamente, sin tener que esperar una trama completa para ser almacenada en búfer.
2. La tarjeta procesadora de vídeo de acuerdo con la reivindicación 1, en donde la tarjeta procesadora de vídeo es una tarjeta de conversión de formato de vídeo.
3. La tarjeta procesadora de vídeo de acuerdo con la reivindicación 1, en donde el procesador está dispuesto para demultiplexar el primer flujo de datos de vídeo recibido de tal manera que todos los datos de píxeles relacionados con uno de la pluralidad de segundos flujos de datos de vídeo se envían a una de la pluralidad de salidas de vídeo.
4. La tarjeta procesadora de vídeo de acuerdo con cualquier reivindicación anterior, en donde la primera resolución de vídeo es una resolución de 4K y la segunda resolución de vídeo es una resolución de HD, o la primera resolución de vídeo es una resolución de 8K y la segunda resolución de vídeo es una resolución de 4K.
5. La tarjeta procesadora de vídeo de acuerdo con cualquier reivindicación anterior, que comprende además un codificador (60a, 60b, 60c, 60d) para codificar los segundos flujos de datos de vídeo en un formato de vídeo específico y, opcionalmente, en donde el formato de vídeo específico es DVI o 3G-SDI.
6. Un servidor de medios para generar un primer flujo de datos de vídeo con una primera resolución de vídeo y enviar flujos de datos de vídeo a dispositivos de visualización de vídeo, el servidor de medios que comprende: una entrada para recibir una pluralidad de segundos flujos de datos de vídeo (360, 362, 364, 366) a una segunda resolución de vídeo, en donde el primer y segundo flujos de datos de vídeo comprenden datos de píxeles, y la primera resolución de vídeo tiene una resolución de vídeo más alta que la segunda resolución de vídeo;
una ranura para tarjeta procesadora de vídeo para recibir tarjetas procesadoras de vídeo extraíbles;
un procesador dispuesto para intercalar píxeles de los segundos flujos de datos de vídeo recibidos en la entrada para generar el primer flujo de datos de vídeo;
una salida dispuesta para enviar el primer flujo de datos de vídeo a la ranura de la tarjeta procesadora de vídeo, en donde el servidor de medios comprende además una tarjeta procesadora de vídeo para enviar flujos de datos de vídeo, la tarjeta procesadora de vídeo se dispone para insertarse en el servidor de medios y comunicarse con la salida del servidor de medios, la tarjeta que comprende:
una entrada (50) para recibir el primer flujo de datos de vídeo a la primera resolución de vídeo desde la salida del servidor de medios;
un procesador (62) dispuesto para demultiplexar el primer flujo de datos de vídeo recibido a la primera resolución en la pluralidad de segundos flujos de datos de vídeo, cada segundo flujo de datos de vídeo está a una segunda resolución de vídeo; y
una pluralidad de salidas de vídeo (54a, 54b, 54c, 54d), cada salida de vídeo dispuesta para generar una de la pluralidad de segundos flujos de datos de vídeo,
en donde el primer flujo de datos de vídeo (370) a la primera resolución de vídeo comprende la pluralidad de segundos flujos de datos de vídeo (360, 362, 364, 366) intercalados de tal manera que los píxeles consecutivos en el primer flujo de datos de vídeo comprenden datos de píxeles tomados a su vez de cada flujo de la pluralidad de segundos flujos de datos de vídeo, y en donde cada uno de los segundos flujos de datos de vídeo representa cada uno una región diferente de un vídeo de origen dividido en subtramas generadas por separado para renderizar, el intercalado es por el servidor de medios tal que tan pronto a medida que los píxeles se reciben en la entrada de la tarjeta procesadora de vídeo, los flujos de datos de vídeo de salida se generan de inmediato, sin tener que esperar a que se almacene en búfer una trama completa.
7. El servidor de medios de acuerdo con la reivindicación 6, en donde el servidor de medios comprende al menos dos ranuras para tarjetas procesadoras de vídeo.
8. El servidor de medios de acuerdo con la reivindicación 7, en donde el procesador está dispuesto para generar al menos dos primeros flujos de datos de vídeo, cada primer flujo de datos de vídeo se envía a una ranura de tarjeta procesadora de vídeo diferente.
9. Un método para generar flujos de datos de vídeo, el método que comprende:
recibir, en una entrada, un primer flujo de datos de vídeo (370) a una primera resolución de vídeo desde la salida de un servidor de medios de vídeo;
demultiplexar el primer flujo de datos de vídeo en una pluralidad de segundos flujos de datos de vídeo (360, 362, 364, 366), cada segundo flujo de datos de vídeo está a una segunda resolución de vídeo (415); y generar datos de vídeo desde una pluralidad de salidas de vídeo, cada salida de vídeo se dispone para generar una de la pluralidad de segundos flujos de datos de vídeo (420),
en donde la primera resolución de vídeo tiene una resolución de vídeo más alta que la segunda resolución de vídeo, y el primer y segundo flujo de datos de vídeo comprenden datos de píxeles, y en donde el primer flujo de datos de vídeo (370) a la primera resolución de vídeo comprende la pluralidad de segundos flujos de datos de vídeo (360, 362, 364, 366) intercalados entre sí de manera que los píxeles consecutivos en el primer flujo de datos de vídeo comprenden datos de píxeles tomados a su vez de cada flujo de la pluralidad de segundos flujos de datos de vídeo, y en donde cada uno de los segundos flujos de datos de vídeo cada uno representa una región diferente de un vídeo de origen dividido en subtramas separadas para renderizar, los flujos de datos de vídeo de salida se generan de inmediato, sin tener que esperar a que se almacene en búfer un trama completa.
10. Un método para generar un primer flujo de datos de vídeo a una primera resolución de vídeo y enviar vídeo a dispositivos de visualización de vídeo, el método que comprende:
recibir, en una entrada de un servidor de medios, una pluralidad de segundos flujos de datos de vídeo a una segunda resolución de vídeo (205), en donde el primer y el segundo flujo de datos de vídeo comprenden datos de píxeles y la primera resolución de vídeo tiene una resolución de vídeo más alta que la segunda resolución de vídeo;
intercalar píxeles de los segundos flujos de datos de vídeo (360, 362, 364, 366) para generar el primer flujo de datos de vídeo, en donde el segundo flujo de datos de vídeo se intercala de tal manera que los píxeles consecutivos en el primer flujo de datos de vídeo comprenden datos de píxeles tomados a su vez de cada flujo de la pluralidad de segundos flujos de datos de vídeo; y
enviar el primer flujo de datos de vídeo (370) a una ranura de tarjeta procesadora de vídeo para recibir una tarjeta procesadora de vídeo extraíble (220), el método que comprende además:
recibir, en una entrada de una tarjeta procesadora de vídeo insertada en la ranura de la tarjeta procesadora de vídeo, el primer flujo de datos de vídeo a la primera resolución de vídeo;
demultiplexar el primer flujo de datos de vídeo recibido a la primera resolución en la pluralidad de segundos flujos de datos de vídeo, cada segundo flujo de datos de vídeo está a una segunda resolución de vídeo; y generar datos de vídeo desde una pluralidad de salidas de vídeo, cada salida de vídeo se dispone para generar una de la pluralidad de segundos flujos de datos de vídeo,
y en donde cada uno de los segundos flujos de datos de vídeo representa una región diferente de una fuente de vídeo dividida en subtramas que se generan por separado para renderizar, el intercalado es tal que tan pronto como se reciben los píxeles en la entrada de la tarjeta procesadora de vídeo, los flujos de datos de vídeo de salida se generan inmediatamente, sin tener que esperar una trama completa para ser almacenada en búfer.
11. Un medio portador para transportar un código legible por ordenador para controlar un dispositivo informático para llevar a cabo el método de acuerdo con la reivindicación 9.
12. Un medio portador para transportar un código legible por ordenador para controlar un dispositivo informático para llevar a cabo el método de acuerdo con la reivindicación 10.
ES16717692T 2015-04-14 2016-04-14 Un sistema y método para manejar datos de vídeo Active ES2942138T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
GBGB1506328.2A GB201506328D0 (en) 2015-04-14 2015-04-14 A system and method for handling video data
GB1517475.8A GB2537438B (en) 2015-04-14 2015-10-02 A system and method for handling video data
PCT/GB2016/051048 WO2016166542A1 (en) 2015-04-14 2016-04-14 A system and method for handling video data

Publications (1)

Publication Number Publication Date
ES2942138T3 true ES2942138T3 (es) 2023-05-30

Family

ID=53333768

Family Applications (1)

Application Number Title Priority Date Filing Date
ES16717692T Active ES2942138T3 (es) 2015-04-14 2016-04-14 Un sistema y método para manejar datos de vídeo

Country Status (16)

Country Link
US (2) US10764612B2 (es)
EP (1) EP3284251B1 (es)
JP (1) JP6815330B2 (es)
CN (1) CN107567710B (es)
AU (2) AU2016250209B2 (es)
CA (2) CA3188031A1 (es)
DK (1) DK3284251T3 (es)
ES (1) ES2942138T3 (es)
FI (1) FI3284251T3 (es)
GB (2) GB201506328D0 (es)
HK (1) HK1243573A1 (es)
HU (1) HUE061674T2 (es)
LT (1) LT3284251T (es)
PL (1) PL3284251T3 (es)
PT (1) PT3284251T (es)
WO (1) WO2016166542A1 (es)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10321109B1 (en) * 2017-06-13 2019-06-11 Vulcan Inc. Large volume video data transfer over limited capacity bus
US10419716B1 (en) 2017-06-28 2019-09-17 Vulcan Technologies Llc Ad-hoc dynamic capture of an immersive virtual reality experience
TWI677245B (zh) * 2018-03-23 2019-11-11 台達電子工業股份有限公司 投影顯示設備及顯示方法
CN111428560B (zh) * 2020-02-20 2023-09-12 重庆创通联达智能技术有限公司 视频图像处理方法、装置、电子设备及存储介质
WO2022220890A1 (en) * 2021-04-16 2022-10-20 Darmodihardjo Denny P Snipitz video cdi (content delivery interface)

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2818313B2 (ja) 1990-09-28 1998-10-30 東芝ライテック株式会社 照明制御システム
US5455910A (en) 1993-01-06 1995-10-03 International Business Machines Corporation Method and system for creating a synchronized presentation from different types of media presentations
US5920842A (en) * 1994-10-12 1999-07-06 Pixel Instruments Signal synchronization
US6243706B1 (en) 1998-07-24 2001-06-05 Avid Technology, Inc. System and method for managing the creation and production of computer generated works
KR20010037033A (ko) * 1999-10-13 2001-05-07 구자홍 Lcd 모니터의 신호처리장치 및 방법
US7161998B2 (en) * 2001-01-24 2007-01-09 Broadcom Corporation Digital phase locked loop for regenerating the clock of an embedded signal
US20080211816A1 (en) * 2003-07-15 2008-09-04 Alienware Labs. Corp. Multiple parallel processor computer graphics system
JP2006092334A (ja) 2004-09-24 2006-04-06 Fuji Xerox Co Ltd サービス連携装置、サービス連携方法およびプログラム
US20060114246A1 (en) * 2004-11-12 2006-06-01 Bruce Young Maintaining a default window aspect ratio for each input of a display device
JP4645638B2 (ja) * 2007-11-22 2011-03-09 ソニー株式会社 信号送信装置、信号送信方法、信号受信装置及び信号受信方法
US20090240862A1 (en) * 2008-03-19 2009-09-24 Wincomm Corporation System Design for a Digital Electronic Sign Board
US8164655B2 (en) * 2008-05-19 2012-04-24 Spatial Cam Llc Systems and methods for concurrently playing multiple images from a storage medium
JP5302742B2 (ja) 2009-04-13 2013-10-02 日本放送協会 コンテンツ制作管理装置、コンテンツ制作装置、コンテンツ制作管理プログラム、及びコンテンツ制作プログラム
US9621930B2 (en) * 2010-05-07 2017-04-11 Deutsche Telekom Ag Distributed transcoding of video frames for transmission in a communication network
CN102170571A (zh) * 2010-06-22 2011-08-31 上海盈方微电子有限公司 一种支持双通道cmos传感器的数码相机架构
JP6039915B2 (ja) 2011-07-08 2016-12-07 株式会社ドワンゴ ステージ演出システム、演出制御サブシステム、ステージ演出システムの動作方法、演出制御サブシステムの動作方法、およびプログラム
EP2739052A4 (en) * 2011-07-26 2015-01-21 Lg Electronics Inc VIDEO STREAM TRANSMITTING APPARATUS, VIDEO STREAM RECEIVING APPARATUS, VIDEO STREAM TRANSMITTING METHOD, AND VIDEO STREAM RECEIVING METHOD
CN202385224U (zh) * 2011-10-25 2012-08-15 北京彩讯科技股份有限公司 插卡式高清网络视频解码设备
CN103124337B (zh) * 2011-11-18 2016-09-28 康佳集团股份有限公司 一种电视装置
JP2014003491A (ja) * 2012-06-19 2014-01-09 Nippon Hoso Kyokai <Nhk> 広帯域映像信号の送信装置、受信装置及びプログラム
CN103686314B (zh) * 2012-09-04 2017-05-24 深圳中兴力维技术有限公司 采用高清视频通道传输多路标清视频的解复用装置及方法
KR20140054518A (ko) * 2012-10-29 2014-05-09 삼성전자주식회사 영상처리장치 및 그 제어방법
KR20140085749A (ko) 2012-12-27 2014-07-08 조성환 쇼 운영 방법
JP2014146924A (ja) * 2013-01-28 2014-08-14 Sony Corp ソース機器、シンク機器、通信システムおよび画像送信方法
US10284908B2 (en) * 2013-02-26 2019-05-07 Comcast Cable Communications, Llc Providing multiple data transmissions
CN203279033U (zh) * 2013-06-07 2013-11-06 绍兴奥顿电子有限公司 高清数字串行接口信号转高清晰度多媒体接口信号转换器
CN103561227A (zh) * 2013-11-15 2014-02-05 京东方科技集团股份有限公司 一种高分辨率视频播放系统
CN103957374A (zh) * 2014-04-30 2014-07-30 南京欧帝科技股份有限公司 一种基于dp接口的8k超高清显示系统

Also Published As

Publication number Publication date
LT3284251T (lt) 2023-04-25
CA3188031A1 (en) 2016-10-20
US10764612B2 (en) 2020-09-01
GB2537438A (en) 2016-10-19
AU2016250209B2 (en) 2020-11-05
EP3284251A1 (en) 2018-02-21
PT3284251T (pt) 2023-04-13
GB2537438B (en) 2017-04-05
HK1243573A1 (zh) 2018-07-13
JP6815330B2 (ja) 2021-01-20
AU2020257100B2 (en) 2022-09-15
US20180084293A1 (en) 2018-03-22
GB201517475D0 (en) 2015-11-18
FI3284251T3 (fi) 2023-04-04
WO2016166542A1 (en) 2016-10-20
JP2018516502A (ja) 2018-06-21
CA2982045A1 (en) 2016-10-20
US20200359069A1 (en) 2020-11-12
CN107567710B (zh) 2021-04-06
CN107567710A (zh) 2018-01-09
AU2016250209A1 (en) 2017-10-26
GB201506328D0 (en) 2015-05-27
CA2982045C (en) 2024-04-09
HUE061674T2 (hu) 2023-08-28
DK3284251T3 (da) 2023-04-03
AU2020257100A1 (en) 2020-11-19
EP3284251B1 (en) 2022-12-28
PL3284251T3 (pl) 2023-04-24
US11303942B2 (en) 2022-04-12

Similar Documents

Publication Publication Date Title
ES2942138T3 (es) Un sistema y método para manejar datos de vídeo
ES2899651T3 (es) Método y sistema para transmitir contenido de imagen alternativo de una pantalla física a diferentes espectadores
KR101994599B1 (ko) 전송 동기화 이벤트에 따라 압축된 픽처의 전송을 제어하는 방법 및 장치
KR101668858B1 (ko) 다채널 비디오 스트림 전송 방법, 그리고 이를 이용한 관제 시스템
US10181296B2 (en) Display device and display method
CN105245759A (zh) 一种实现图像同步显示的方法及装置
US20140355664A1 (en) Optimizing video transfer
CN114365501A (zh) 单流中心凹显示传输
KR20120019751A (ko) 초고화질 영상을 위한 실시간 3d 포맷팅 모듈 및 이를 이용한 실시간 3d 포맷팅 시스템
US20190251999A1 (en) Real-time editing system
KR101600865B1 (ko) 스튜디오용 hd/uhd급 멀티채널 영상 데이터 라우팅 스위치 시스템 및 그 방법
JP2022517274A (ja) 仮想、拡張、および複合現実システムおよび方法
CN110996092A (zh) 一种dlp拼接屏的3d效果显示系统与方法
CN105304001A (zh) 一种基于serdes的信号扩展盒
US20220103792A1 (en) Image slicing to generate in put frames for a digital micromirror device
JP2017016041A (ja) 静止画送受信同期再生装置
KR20200121636A (ko) 복수의 영상 표시 장치들로 영상을 출력하기 위한 방법 및 시스템
KR102213423B1 (ko) 스케일러를 이용한 uhd 영상 분배 장치 및 그 방법
KR101468995B1 (ko) 경관 조명 표출 시스템에서의 선형 배치된 복수의 발광 다이오드 기기의 영상 표시 방법 및 경관 조명 표출 시스템
CN112351267A (zh) 视频显示方法、显示控制器、显示控制卡和显示控制系统
JPWO2019111815A1 (ja) 映像処理装置および表示装置
JP2016118660A (ja) 画像処理装置
JP6469636B2 (ja) 遊技機
El Hafi Mapping SDI with a Light-Weight Compression for High Frame Rates and Ultra-HD 4K Transport over SMPTE 2022-5/6
KR20060127553A (ko) 프레임송출장치 및 프레임수신장치