ES2945657T3 - Analizador de rango de PQ con consciencia de contenido, y mapeo de tono en alimentaciones en vivo - Google Patents
Analizador de rango de PQ con consciencia de contenido, y mapeo de tono en alimentaciones en vivo Download PDFInfo
- Publication number
- ES2945657T3 ES2945657T3 ES20723760T ES20723760T ES2945657T3 ES 2945657 T3 ES2945657 T3 ES 2945657T3 ES 20723760 T ES20723760 T ES 20723760T ES 20723760 T ES20723760 T ES 20723760T ES 2945657 T3 ES2945657 T3 ES 2945657T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- regions
- image processing
- dynamic range
- luminance
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013507 mapping Methods 0.000 title claims abstract description 38
- 238000012545 processing Methods 0.000 claims abstract description 49
- 230000011218 segmentation Effects 0.000 claims abstract description 18
- 238000000605 extraction Methods 0.000 claims abstract description 13
- 238000000034 method Methods 0.000 claims description 16
- 238000006243 chemical reaction Methods 0.000 claims description 14
- 238000003672 processing method Methods 0.000 claims description 9
- 238000001514 detection method Methods 0.000 claims description 3
- 230000001052 transient effect Effects 0.000 claims description 2
- 238000009826 distribution Methods 0.000 description 12
- 244000025254 Cannabis sativa Species 0.000 description 11
- 238000004519 manufacturing process Methods 0.000 description 9
- 230000005540 biological transmission Effects 0.000 description 6
- 238000004458 analytical method Methods 0.000 description 5
- 238000013459 approach Methods 0.000 description 5
- 238000004891 communication Methods 0.000 description 5
- 238000003908 quality control method Methods 0.000 description 5
- 241000023320 Luma <angiosperm> Species 0.000 description 4
- 238000013135 deep learning Methods 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- OSWPMRLSEDHDFF-UHFFFAOYSA-N methyl salicylate Chemical compound COC(=O)C1=CC=CC=C1O OSWPMRLSEDHDFF-UHFFFAOYSA-N 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000003860 storage Methods 0.000 description 3
- 239000013598 vector Substances 0.000 description 3
- 238000003491 array Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 238000010801 machine learning Methods 0.000 description 2
- 239000004576 sand Substances 0.000 description 2
- 230000009466 transformation Effects 0.000 description 2
- 235000009854 Cucurbita moschata Nutrition 0.000 description 1
- 240000001980 Cucurbita pepo Species 0.000 description 1
- 235000009852 Cucurbita pepo Nutrition 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000004590 computer program Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 239000000835 fiber Substances 0.000 description 1
- 238000002372 labelling Methods 0.000 description 1
- 239000013307 optical fiber Substances 0.000 description 1
- 238000005457 optimization Methods 0.000 description 1
- 230000008520 organization Effects 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000011664 signaling Effects 0.000 description 1
- 235000020354 squash Nutrition 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/14—Digital output to display device ; Cooperation and interconnection of the display device with other functional units
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/90—Dynamic range modification of images or parts thereof
- G06T5/92—Dynamic range modification of images or parts thereof based on global image properties
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/46—Extracting features or characteristics from the video content, e.g. video fingerprints, representative shots or key frames
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/70—Labelling scene content, e.g. deriving syntactic or semantic representations
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/02—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators characterised by the way in which colour is displayed
- G09G5/026—Control of mixing and/or overlay of colours in general
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0125—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20172—Image enhancement details
- G06T2207/20208—High dynamic range [HDR] image processing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/20—Image preprocessing
- G06V10/26—Segmentation of patterns in the image field; Cutting or merging of image elements to establish the pattern region, e.g. clustering-based techniques; Detection of occlusion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/41—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items
- G06V20/42—Higher-level, semantic clustering, classification or understanding of video scenes, e.g. detection, labelling or Markovian modelling of sport events or news items of sport video content
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/10—Recognition assisted with metadata
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/02—Improving the quality of display appearance
- G09G2320/0238—Improving the black level
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2320/00—Control of display operating conditions
- G09G2320/06—Adjustment of display parameters
- G09G2320/066—Adjustment of display parameters for control of contrast
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/06—Colour space transformation
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2370/00—Aspects of data communication
- G09G2370/02—Networking aspects
- G09G2370/022—Centralised management of display operation, e.g. in a server instead of locally
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N19/00—Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
- H04N19/46—Embedding additional information in the video signal during the compression process
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Hardware Design (AREA)
- Image Processing (AREA)
- Measurement And Recording Of Electrical Phenomena And Electrical Characteristics Of The Living Body (AREA)
- Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
- Compression Or Coding Systems Of Tv Signals (AREA)
- Image Analysis (AREA)
- Computing Systems (AREA)
Abstract
En el sistema de procesamiento de imágenes, comprende una entrada configurada para recibir una señal de imagen, incluyendo la señal de imagen una pluralidad de cuadros de datos de imagen; y un procesador configurado para determinar automáticamente una clasificación de imágenes basada en al menos un cuadro de la pluralidad de cuadros, y generar dinámicamente metadatos de mapeo basados en la clasificación de imágenes. El procesador incluye un circuito de determinación configurado para determinar un tipo de contenido para la señal de imagen; circuitos de segmentación configurados para segmentar los datos de imagen en una pluralidad de regiones de elementos característicos, en función del tipo de contenido; circuitos de extracción configurados para extraer al menos un valor de aspecto de imagen para regiones respectivas de la pluralidad de regiones de elementos característicos. (Traducción automática con Google Translate, sin valor legal)
Description
DESCRIPCIÓN
Analizador de rango de PQ con consciencia de contenido, y mapeo de tono en alimentaciones en vivo
Referencia cruzada a solicitudes relacionadas
Esta solicitud reivindica la prioridad de la solicitud de patente provisional de EE. UU. con número de serie 62/838,518, presentada el 25 de abril de 2019 y la solicitud de patente EP con número de serie 19171057.3, presentada el 25 de abril de 2019.
Campo técnico
Esta solicitud se relaciona generalmente con imágenes. Más específicamente, esta solicitud se relaciona con el conocimiento del contenido en el análisis de rango de cuantificador perceptual (PQ) de video HDR y mapeo de tonos para alimentaciones en vivo.
Antecedentes
Como se usa en el presente documento, el término "rango dinámico" puede relacionarse con la capacidad del sistema visual humano para percibir un rango de intensidad (por ejemplo, luminancia, luma y similares) en una imagen; por ejemplo, el rango de los negros más oscuros ("oscuros") a los blancos más brillantes ("claros"). En este sentido, el rango dinámico se relaciona con una intensidad "referida a la escena". El rango dinámico también puede relacionarse con la capacidad de un dispositivo de visualización para renderizar adecuada o apropiadamente un rango de intensidad de una amplitud particular. En este sentido, el rango dinámico se refiere a una intensidad "referida al visualizador". A menos que se especifique explícitamente que un sentido particular tiene un significado particular en cualquier punto de la descripción del presente documento, se debe inferir que el término puede usarse en cualquier sentido, por ejemplo, indistintamente.
Como se usa en el presente documento, el término "alto rango dinámico" (HDR) se refiere a una amplitud de rango dinámico que abarca los aproximadamente 14-15 órdenes de magnitud del sistema visual humano. En la práctica, el rango dinámico sobre el cual un ser humano puede percibir simultáneamente una gran amplitud en el rango de intensidad puede verse comparativamente truncado, en relación con HDR. Como se usa en el presente documento, los términos "rango dinámico extendido" (EDR) o "rango dinámico visual" (VDR) pueden relacionarse individualmente o de manera intercambiable con el rango dinámico que es perceptible simultáneamente por un sistema visual humano. Como se usa en el presente documento, EDR puede relacionarse con un rango dinámico que abarca de cinco a seis órdenes de magnitud. Por lo tanto, mientras que el EDR puede ser algo más estrecho en relación con el HDR referido a la escena real, el EDR, no obstante, representa una amplia amplitud de rango dinámico y también puede denominarse HDR.
En la práctica, las imágenes comprenden uno o más componentes de color (por ejemplo, luma Y y croma Cb y Cr) en donde cada componente de color está representado por una precisión de n bits por píxel (por ejemplo, n = 8). Usando la codificación de luminancia lineal, las imágenes en las que n < 8 (por ejemplo, imágenes JPEG en color de 24 bits) se consideran imágenes de rango dinámico estándar, mientras que las imágenes en las que n > 8 pueden considerarse imágenes de rango dinámico mejorado. Las imágenes EDR y HDR también se pueden almacenar y distribuir usando formatos de punto flotante de alta precisión (por ejemplo, 16 bits), como el formato de archivo OpenEXR desarrollado por Industrial Light and Magic.
La mayoría de los visualizadores de escritorio para consumidores admiten una luminancia de 200 a 300 cd/m2 ("nits"). La mayoría de los televisores de alta definición ("HDTV") de consumo varían de 300 a 1000 nits. Tales visualizadores tipifican así un rango dinámico bajo (LDR), también denominado rango dinámico estándar (SDR), en relación con HDR o EDR. A medida que aumenta la disponibilidad de contenido EDR debido a los avances tanto en los equipos de captura (p. ej., cámaras) como en los visualizadores EDR (p. ej., el monitor de referencia profesional PRM-4200 de Dolby Laboratories), el contenido EDR puede clasificarse por colores y visualizarse en visualizadores EDR que admitan rangos dinámicos mayores (por ejemplo, de 1000 nits a 5000 nits o más).
Como se usa en el presente documento, el término "gestión de visualización" incluye, entre otros, el procesamiento (p. ej., mapeo de tonos y gama) necesario para mapear una señal de vídeo de entrada de un primer rango dinámico (p. ej., 1000 nits) a una visualización de un segundo rango dinámico (por ejemplo, 500 nits).
Los enfoques descritos en esta sección son enfoques que podrían aplicarse, pero no necesariamente enfoques que hayan sido previamente concebidos o perseguidos. Por lo tanto, a menos que se indique lo contrario, no se debe suponer que cualquiera de los enfoques descritos en esta sección se califica como técnica anterior simplemente en virtud de su inclusión en esta sección. Del mismo modo, no se debe suponer que los problemas identificados con respecto a uno o más enfoques han sido reconocidos en ningún técnica anterior sobre la base de esta sección, a menos que se indique lo contrario.
El documento US 2017/161881 A1 se refiere a un equipo de usuario (UE) que incluye un receptor, al menos un sensor y un procesador. El receptor está configurado para recibir un flujo de bits que incluye al menos una imagen codificada y metadatos. El sensor está configurado para determinar la información del punto de vista de un usuario. El procesador está configurado para renderizar al menos dicha imagen codificada basándose en los metadatos y el punto de vista.
El documento US 2014/321746 A9 se relaciona con sistemas y métodos para clasificar videos basándose en el contenido del video. Para un archivo de vídeo dado que incluye una pluralidad de fotogramas, se extrae un subconjunto de fotogramas para su procesamiento. Los fotogramas que son demasiado oscuros, borrosos o candidatos de clasificación deficientes se descartan del subconjunto. Generalmente, los puntuaciones de clasificación de materiales que describen el tipo de contenido de material probablemente incluido en cada fotograma se calculan para los fotogramas restantes del subconjunto. Las puntuaciones de clasificación de materiales se usan para generar vectores de disposición de materiales que representan la disposición espacial del contenido del material en cada fotograma. Los vectores de disposición de materiales se clasifican posteriormente para generar un vector de puntuación de clasificación de escenas para cada fotograma. Los resultados de la clasificación de escenas se promedian (o se procesan de otro modo) en todos los fotogramas del subconjunto para asociar el archivo de video con una o más categorías de escena predefinidas relacionadas con los tipos generales de contenido de escena del archivo de video.
El documento PRATIKAKIS IOANNIS ET AL, "Extracción semántica de imágenes", CONFERENCIA INTERNACIONAL SOBRE CRIPTOGRAFÍA FINANCIERA Y SEGURIDAD DE DATOS; [NOTAS DE CONFERENCIA EN INFORMÁTICA; LECT.NOTES COMPUTER], SPRINGER, BERLÍN, HEIDELBERG, PÁGINA(S) 50 - 88, (20111231), vol. 6050 presenta una descripción general del estado de la técnica en la extracción semántica de imágenes.
El documento Ultra Hd Forum, "Directrices Foro Ultra HD Fase B", https://ultrahdforum.org/resources/phasebguidelines-description/, (20180406) y documento Etsi, "Señalización HDR y transporte de metadatos dinámicos para transformación de volumen de color; Aplicación n.° 1 para ESPECIFICACIÓN TÉCNICA de sistemas compatibles con DVB ", (20180301), páginas 2018 - 3 analiza temas de la próxima generación de tecnologías UHD.
Breve sumario de la divulgación
Varios aspectos de la presente divulgación se relacionan con circuitos, sistemas y métodos para el procesamiento de imágenes, incluida la conciencia de contenido en análisis de rango de PQ y mapeo de tono para alimentaciones en vivo. Las realizaciones de la presente invención están definidas por las reivindicaciones independientes. Las características adicionales de las realizaciones de la invención se presentan en las reivindicaciones dependientes. A continuación, las partes de la descripción y los dibujos que se refieren a realizaciones anteriores que no necesariamente comprenden todas las características para implementar realizaciones de la invención reivindicada no se representan como realizaciones de la invención sino como ejemplos útiles para comprender las realizaciones de la invención. Las realizaciones de la presente solicitud (o la presente divulgación) proporcionan un sistema de procesamiento de imágenes, un método de procesamiento de imágenes y un medio legible por ordenador no transitorio.
De esta manera, varios aspectos de la presente divulgación proporcionan mejoras en al menos los campos técnicos del procesamiento de imágenes, así como los campos técnicos relacionados de captura, codificación y transmisión de imágenes.
Descripción de los dibujos
Estas y otras características más detalladas y específicas de varios aspectos de la presente divulgación se divulgan más completamente en la siguiente descripción, con referencia a los dibujos adjuntos, en los que:
la figura 1 ilustra una escena de origen y varias escenas renderizadas de acuerdo con varios aspectos de la presente divulgación;
la figura 2 ilustra un diagrama de bloques de un flujo de trabajo de transmisión de ejemplo de acuerdo con varios aspectos de la presente divulgación;
la figura 3 ilustra un diagrama de bloques de una unidad de procesamiento de ejemplo de acuerdo con varios aspectos de la presente divulgación;
la figura 4 ilustra un flujo de proceso para un método de procesamiento de ejemplo de acuerdo con varios aspectos de la presente divulgación;
la figura 5 ilustra un flujo de proceso para un método de clasificación de ejemplo de acuerdo con varios aspectos de la presente divulgación;
la figura 6 ilustra una escena de ejemplo de acuerdo con varios aspectos de la presente divulgación;
la figura 7 ilustra otra escena de ejemplo de acuerdo con varios aspectos de la presente divulgación; y
la figura 8 ilustra otra escena de ejemplo de acuerdo con varios aspectos de la presente divulgación.
Descripción detallada
En la siguiente descripción, se exponen numerosos detalles, como configuraciones de circuitos, temporizaciones de formas de onda, operaciones de circuitos y similares, para proporcionar una comprensión de uno o más aspectos de la presente divulgación. Será evidente para un experto en la técnica que estos detalles específicos son meramente de ejemplo y no pretenden limitar el alcance de esta solicitud.
Esta divulgación puede materializarse en varias formas, incluidos hardware o circuitos controlados por métodos implementados por ordenador, productos de programas de ordenador, sistemas y redes de ordenador, interfaces de usuario e interfaces de programación de aplicaciones; así como métodos implementados en hardware, circuitos de procesamiento de señales, matrices de memoria, circuitos integrados de aplicación específica, matrices de puertas programables en campo y similares. El resumen anterior pretende únicamente dar una idea general de varios aspectos de la presente divulgación, y no limita el alcance de la divulgación de ninguna manera.
En el presente documento se describen la captura, el análisis y la codificación de vídeo. En la siguiente descripción, se exponen numerosos detalles, como configuraciones de circuitos, temporizaciones, operaciones de circuitos y similares, para proporcionar una comprensión de uno o más aspectos de la presente divulgación. Será evidente para un experto en la técnica que estos detalles específicos son meramente de ejemplo y no pretenden limitar el alcance de esta solicitud. Por ejemplo, en algunos casos, varios aspectos de la presente divulgación pueden practicarse sin estos detalles. En otros casos, es posible que las estructuras y los dispositivos bien conocidos no se describan con un detalle exhaustivo, para evitar ocluir, oscurecer u ofuscar innecesariamente la presente invención.
Descripción general
Los ejemplos descritos en el presente documento se relacionan con el procesamiento de imágenes, incluida la generación de metadatos durante una transmisión en vivo de una transmisión de video. Algunos ejemplos descritos en el presente documento se pueden utilizar con la arquitectura "Dolby Vision". Dolby Vision para aplicaciones de consumo es un conjunto de tecnología integral que permite la creación y distribución de contenido masterizado con un alto rango dinámico y una amplia gama de colores. La gestión del visualizador de Dolby Vision coincide con la capacidad de un televisor determinado (que puede que solo sea capaz de visualizar imágenes SDR) mediante el uso de una serie de algoritmos para mapear la señal a cualquier televisor de consumo Dolby Vision. Al visualizar contenido HDR en un visualizador SDR, las imágenes HDR se mapean al rango dinámico comparativamente reducido del visualizador.
La figura 1 ilustra un ejemplo de mapeo de una escena de origen a varias escenas renderizadas. Como se ilustra en la figura 1, una imagen HDR 101 representa la escena de origen con oscuros (por ejemplo, áreas en la parte inferior izquierda y superior izquierda de la imagen HDR 101) y claros (por ejemplo, áreas en la parte superior media y superior derecha de la imagen HDR 101). Cuando se mapea la imagen HDR 101 para visualizar fielmente los claros en un visualizador SDR, se puede crear una imagen subexpuesta 102 como la escena renderizada. En la imagen subexpuesta 102, los claros se reproducen con precisión pero el detalle se reduce o se pierde en las áreas correspondientes a los oscuros. Por el contrario, cuando se mapea la imagen HDR 101 para visualizar fielmente los oscuros en el visualizador SDR, se puede crear una imagen sobreexpuesta 103 como la escena renderizada. En la imagen sobreexpuesta 103, los oscuros ahora se reproducen con precisión, pero las áreas correspondientes a los claros pueden aparecer borradas. Para presentar una imagen convertida que no esté subexpuesta ni sobreexpuesta, se pueden utilizar metadatos (es decir, datos relacionados con los datos de la imagen) para determinar qué características de la imagen HDR 101 deben considerarse áreas de enfoque de la imagen.
La figura 2 ilustra un ejemplo de un sistema 200 de flujo de trabajo de difusión, que incluye captura, producción y posproducción de vídeo, y distribución en directo. La captura de video puede lograrse mediante uno o más bancos 210 de cámaras, cada uno de los cuales incluye una o más cámaras 211. Los bancos 210 de cámaras individuales pueden ubicarse en diferentes ubicaciones físicas para capturar diferentes contenidos de video. Por ejemplo, si el sistema 200 de flujo de trabajo de transmisión se usa para una transmisión deportiva en vivo, un primer banco 210 de cámaras puede colocarse para capturar video del evento deportivo en sí, un segundo 210 banco de cámaras puede colocarse para capturar video de una cabina de transmisión, se puede colocar un tercer banco 210 de cámaras para capturar video de analistas en un estudio y similares. Cada banco 210 de cámaras puede incluir cualquier número de cámaras 211. Las cámaras individuales 211 pueden ser capaces de capturar datos de video HDR o datos de video SDR. Los datos de video capturados por una cámara dada 211 pasan a través de un enlace
212 de contribución correspondiente para su posterior procesamiento.
Como se ilustra en la figura 2, los datos de video que pasan a través de un enlace 212 de contribución se reciben en un convertidor 220 de entrada correspondiente. Cuando los datos de video son datos de video HDR, el convertidor 220 de entrada puede realizar una conversión de HDR a HDR; por ejemplo, la conversión de gamma log híbrida (HLG) o HDR SLog-3 a cuantificador perceptual (PQ) HDR, por ejemplo, como se describe en Rec. UIT-R BT. 2100-1 (06/2017), "Valores de parámetros de imagen para televisión de alto rango dinámico para uso en producción e intercambio internacional de programas".
Cuando los datos de video son datos de video SDR, el convertidor 220 de entrada puede realizar una conversión de SDR a HDR. Mientras que la figura 2 ilustra un convertidor 220 de entrada para cada enlace 212 de contribución, en la práctica pueden estar presentes menos convertidores 220 de entrada. Por ejemplo, cuando los datos de video son datos de video HDR que usan PQ, no puede ocurrir ninguna conversión y, por lo tanto, no puede proporcionarse ningún convertidor 220 de entrada. En cualquier caso, los datos de video se proporcionan a un conmutador 221 de producción.
El conmutador 221 de producción recibe datos de video de cada una de las cámaras 211 y proporciona varias salidas, que incluyen: un flujo 222 de transmisión, que puede corresponder a datos de video recibidos de una de las cámaras 211 seleccionada; una salida a una unidad 223 de control de calidad (QC); una salida a una unidad 224 de mapeo, que a su vez puede proporcionar una salida a una unidad 223 de control de calidad con capacidad SDR; una salida a un servidor 225 de reproducción; y una ingesta 226 de archivos para almacenamiento. Los datos de la ingesta 226 de archivos pueden estar sujetos a procesamiento adicional en una unidad 227 de postproducción y posteriormente proporcionados al servidor 225 de reproducción. Los datos de video almacenados en el servidor 225 de reproducción se pueden utilizar para la reproducción en un momento posterior, como para la reproducción instantánea o el análisis de medio tiempo/intermedio. La salida del servidor 225 de reproducción puede incluir datos de video SDR (en cuyo caso la conversión se puede realizar a través de otro convertidor 220 de entrada), datos de video HDR o ambos.
Para la distribución en vivo, el flujo 222 de transmisión y/o los datos del servidor 225 de reproducción se reciben en un enrutador 230. El enrutador 230 proporciona varias salidas, que incluyen: una o más salidas (HDR y/o SDR) a las unidades 223 de control de calidad; uno o más flujos 231 de distribución HDR, cada uno a un codificador 232 de transmisión respectivo; uno o más flujos 237 de distribución SDR (por ejemplo, una transmisión simultánea SDR); y salida HDR y/o SDR a una unidad 238 de mapeo. El codificador 232 de transmisión respectivo incluye una unidad 233 de procesamiento HDR (HPU) que recibe el flujo 231 de distribución HDR, realiza varios análisis como se describirá con más detalle a continuación y emite una alimentación 234 de video HDR y una alimentación 235 de metadatos. La alimentación 234 de video HDR y la alimentación 235 de metadatos se proporcionan a una unidad 236 de codificación para codificar y transmitir. El flujo 237 de distribución SDR, si está presente, puede enviarse directamente a una unidad 236 de codificación sin la generación de una alimentación 235 de metadatos.
Procesamiento HDR
La figura 3 ilustra un sistema de procesamiento de imágenes de ejemplo de acuerdo con varios aspectos de la presente divulgación. Específicamente, la figura 3 ilustra una HPU 300, que puede ser un ejemplo de la HPU 233 ilustrada en la figura 2. La HPU 300 incluye una unidad 310 de entrada/salida (E/S), una memoria 320, una unidad 330 de comunicación, una interfaz 340 de usuario (IU) y un procesador 350. Varios elementos de la HPU 300 se comunican entre sí a través de un bus 360. La unidad de E/S recibe datos 311 de entrada, que pueden ser un ejemplo del flujo 231 de distribución HDR ilustrado en la figura 2, y emite una alimentación 312 de video y una alimentación 313 de metadatos, que pueden ser ejemplos de la alimentación 234 de video HDR y la alimentación 235 de metadatos ilustrados respectivamente en la figura 2. El procesador 350 incluye una unidad 351 de determinación, una unidad 352 de segmentación y una unidad 353 de extracción, cada una de las cuales se describirá con más detalle a continuación.
Los componentes individuales de la HPU 300 pueden implementarse como hardware, software, firmware o combinaciones de los mismos. Por ejemplo, varias unidades pueden implementarse como circuitos o circuitería, pueden implementarse como módulos de software en la memoria o algoritmos en un procesador, etc., incluidas combinaciones de circuitería y módulos de software.
La unidad 310 de E/S puede incluir uno o más puertos para la entrada o salida de datos a través de un cable, una fibra óptica, un protocolo de comunicación inalámbrica o combinaciones de los mismos. La memoria 320 puede ser una unidad de memoria volátil o una unidad de memoria no volátil, que incluye, entre otros, memoria de solo lectura (ROM) o memoria de acceso aleatorio (RAM), como un disco duro, un almacenamiento flash y similares. La unidad 330 de comunicación puede incluir circuitería para recibir señales de control u otra comunicación desde el exterior a la HPU 300 a través de un cable, una fibra óptica, un protocolo de comunicación inalámbrica o combinaciones de los mismos. La IU 340 puede incluir dispositivos o puertos para recibir instrucciones y/o comunicarse con un usuario local, como un ratón, un teclado, una interfaz de pantalla táctil, un visualizador, una IU gráfica (IUG) y similares.
Varios componentes de la HPU 300, incluidos, entre otros, el procesador 350, pueden implementarse con un sistema de ordenador, sistemas configurados en circuitería y componentes electrónicos, y un dispositivo de circuito integrado (IC) como un microcontrolador, una unidad central de procesamiento (CPU), una unidad de procesamiento de gráficos (GPU), una matriz de puertas programables en campo (FPGA), otro dispositivo lógico programable o configurable (PLD), un procesador de señales digitales o de tiempo discreto (DSP), un IC específico de la aplicación (ASIC) y similares. En un ejemplo, la unidad 351 de determinación, la unidad 352 de segmentación y la unidad 353 de extracción pueden implementarse como circuitería dentro del procesador 350. En otro ejemplo, la unidad 351 de determinación, la unidad 352 de segmentación y la unidad 353 de extracción pueden implementarse como módulos de software dentro del procesador 350. Varios de la unidad 351 de determinación, la unidad 352 de segmentación y la unidad 353 de extracción pueden compartir componentes de circuito, algoritmos y/o subrutinas entre sí.
En las figuras 4-5 se ilustra un ejemplo de un método de procesamiento de imágenes implementado por la HPU 300. En el paso S401, la HPU 300 recibe una señal de imagen; por ejemplo, a través de la unidad 310 de E/S. La señal de imagen incluye una pluralidad de fotogramas de datos de imagen y puede corresponder a una alimentación de vídeo en directo. En el paso S401, la HPU 300 determina automáticamente una clasificación de imagen basada en al menos un fotograma de la pluralidad de fotogramas de datos de imagen incluidos en la señal de imagen. La determinación puede incluir una serie de subprocesos, como se ilustra en la figura 5. Por ejemplo, en el paso S501, la HPU 300 determina un tipo de contenido para la señal de imagen, en el paso S502, la HPU 300 segmenta los datos de la imagen en una pluralidad de regiones de elementos característicos basándose en el tipo de contenido determinado, y en el paso S503, la HPU 300 extrae al menos un valor de aspecto de imagen para las respectivas de la pluralidad de regiones de elementos característicos. La clasificación de imágenes puede ser realizada por el procesador 350, de modo que la determinación del tipo de contenido del paso S501 puede ser realizada por la unidad 351 de determinación, la segmentación de datos de imagen del paso S502 puede ser realizada por la unidad 352 de segmentación, y la extracción del valor del aspecto de la imagen del paso S503 puede ser realizado por la unidad 353 de extracción. Como puede ser claramente entendido y apreciado por el experto en la materia, una clasificación de imágenes generalmente puede implicar, entre otras, la asignación (por ejemplo, mediante el etiquetado o la segmentación) de imágenes en varias categorías (por ejemplo, predefinidas) y/o una única imagen en varias regiones (p. ej., basándose en el contenido de la imagen). En particular, dicha asignación o categorización se puede realizar basándose en cualquier criterio y/o condición adecuada usando cualquier manera adecuada, dependiendo de varias implementaciones y/o requisitos. Por ejemplo, la asignación o categorización puede lograrse basándose en tipos de contenido determinados a partir de imágenes respectivas. Por lo tanto, en la presente divulgación, la serie de subprocesos/subrutinas S501-S503 puede verse colectivamente y denominarse proceso/algoritmo de clasificación de imágenes o, en resumen, una clasificación de imágenes. Basándose en la clasificación de imágenes, en el paso S403 (véase la figura 4), la HPU 300 genera metadatos de mapeo para la salida; por ejemplo, a través de la unidad 310 de E/S.
Generación y uso de metadatos de mapeo
Estos métodos se describirán con más detalle con referencia a las figuras 6 a 8, que ilustran escenas de ejemplo. Específicamente, las figuras 6 a 8 ilustran ejemplos de fotogramas individuales de datos de imagen, que pueden ser fotogramas del flujo 232 de distribución HDR y/o los datos 311 de entrada. La figura 6 ilustra un fotograma 600, en el que el tipo de contenido es vóley playa. La figura 7 ilustra un fotograma 700, en el que el tipo de contenido es cricket. La figura 8 ilustra un fotograma 800, en el que el tipo de contenido es fútbol (fútbol asociación). Mientras que los tipos de contenido de las figuras 6 a 8 están relacionados con deportes en vivo, la presente divulgación no está tan limitada. Por ejemplo, el tipo de contenido puede ser deportes en vivo, películas, programas de noticias, escenas de la naturaleza y similares.
Al recibir un fotograma (o varios fotogramas) de datos de imagen, como los fotogramas 600, 700 u 800, un sistema de procesamiento de imágenes determina una clasificación de imágenes. Este puede ser un ejemplo del paso S402 ilustrado en la figura 4, y puede ser realizado por la HPU 300 ilustrada en la figura 3. Al determinar la clasificación de imágenes, el sistema de procesamiento de imágenes determina el tipo de contenido, que puede ser un ejemplo del paso S501 ilustrado en la figura 5.
El tipo de contenido puede determinarse analizando varias regiones del fotograma de imagen y determinando una o más regiones de confianza. Por ejemplo, el sistema de procesamiento de imágenes puede analizar el fotograma 600 de imagen y determinar que la gran parte que tiene un color comparativamente beige es una región 601 de confianza, y que la región 601 de confianza probablemente corresponde a arena. El sistema de procesamiento de imágenes puede determinar además que la parte superior del fotograma 600 de imagen incluye una región 602 de confianza, y que la región 602 de confianza probablemente corresponde a una cara. De manera similar, el sistema de procesamiento de imágenes puede analizar el fotograma 700 de imagen y determinar que la parte verde grande es una región 701 de confianza, y que la región 701 de confianza probablemente corresponde a césped. El sistema de procesamiento de imágenes también puede diferenciar entre diferentes tonos del mismo color. Por ejemplo, como se ilustra en la figura 8, el sistema de procesamiento de imágenes puede analizar el fotograma 800 de imagen y determinar que la parte izquierda incluye una región 801 de confianza y la parte derecha incluye otra
región 802 de confianza. Si bien el sistema de procesamiento de imágenes puede determinar que las regiones 801 y 802 de confianza probablemente correspondan a césped, el sistema de procesamiento de imágenes puede diferenciar entre el césped sombreado de la región 801 de confianza y el césped iluminado por el sol de la región 802 de confianza. Mientras que las figuras 6 a 8 ilustran las regiones de confianza respectivas como circulares, en la práctica una región de confianza puede ser elíptica, rectangular o de cualquier otra forma.
Basándose en las regiones de confianza, el sistema de procesamiento de imágenes puede generar una lista clasificada o no clasificada de tipos de contenido potencial. Por ejemplo, en la figura 6 el sistema de procesamiento de imágenes puede determinar que existe un 85 % de probabilidad de que el fotograma 600 de imagen muestre vóley playa, un 12 % de probabilidad de que el fotograma 600 de imagen muestre fútbol playa, un 4 % de probabilidad de que el fotograma de imagen muestre tenis de playa y similares. Esta determinación puede basarse en un solo fotograma de datos de imagen, una serie de fotogramas consecutivos de datos de imagen o una serie de fotogramas no consecutivos de datos de imagen (por ejemplo, cada cuarto fotograma). La determinación se puede realizar repetidamente a lo largo de la emisión, tal como cada diez fotogramas, cada treinta segundos y similares.
Una vez que se ha determinado el tipo de contenido, el sistema de procesamiento de imágenes segmenta los datos de la imagen en una o más regiones de elementos característicos. Este puede ser un ejemplo del paso S502 ilustrado en la figura 5. La segmentación puede basarse en el tipo de contenido en sí; por ejemplo, el sistema de procesamiento de imágenes puede determinar un conjunto ordenado de elementos prioritarios en los datos de imagen para buscar y segmentar. En el ejemplo de vóley playa ilustrado en la figura 6, el sistema de procesamiento de imágenes puede buscar y segmentar primero una región de elementos característicos de arena, luego una región de elementos característicos de multitud basándose en la presencia de múltiples caras en estrecha proximidad, y así sucesivamente. En el ejemplo de cricket ilustrado en la figura 7, de manera similar, el sistema de procesamiento de imágenes puede buscar y segmentar primero una región de elementos característicos de césped, luego jugadores de un primer equipo basándose en el color de la camiseta, y así sucesivamente. La segmentación también puede basarse en el color o el tono; por ejemplo, en el ejemplo de fútbol ilustrado en la figura 8, el sistema de procesamiento de imágenes puede buscar y segmentar una región de elementos característicos de hierba sombreada, una región de elementos característicos de hierba iluminada por el sol, etc. La figura 8 ilustra la segmentación explícitamente, donde el fotograma 800 de imagen está segmentado en una primera región 810 de elementos característicos (césped iluminado por el sol) y una segunda región 820 de elementos característicos (césped sombreado). La segmentación puede basarse en un solo fotograma de datos de imagen, una serie de fotogramas consecutivos de datos de imagen o una serie de fotogramas no consecutivos de datos de imagen (por ejemplo, cada cuarto fotograma). La segmentación se puede realizar repetidamente a lo largo de la emisión, como cada diez fotogramas, cada treinta segundos y similares. En algunos aspectos de la presente divulgación, la segmentación ocurre con más frecuencia que la determinación del tipo de contenido. Por ejemplo, el sistema de procesamiento de imágenes puede determinar un tipo de contenido cada cinco segundos, mientras que el sistema de procesamiento de imágenes puede segmentar los datos de la imagen cada medio segundo.
A partir de las regiones de elementos característicos segmentadas, el sistema de procesamiento de imágenes puede extraer al menos un valor de aspecto de imagen para las respectivas regiones de elementos característicos. Este puede ser un ejemplo del paso S503 ilustrado en la figura 5. Los valores de aspecto de la imagen pueden relacionarse con (entre otros) información de luminancia de las respectivas regiones de elementos característicos. Por ejemplo, los valores de aspecto de la imagen pueden incluir, sin limitación, un máximo de luminancia, un mínimo de luminancia, un punto medio de luminancia, una media de luminancia, una varianza de luminancia y similares. Los valores de aspecto de la imagen pueden representarse visualmente o en la memoria como un histograma. La distribución de los valores de aspecto de la imagen puede derivarse basándose en el contenido de la imagen (p. ej., valores de píxeles, valores de luma, valores de croma, valores Y, valores Cb/Cr, valores RGB y similares), la escena, la ganancia/compensación/potencia, y similares. En algunos aspectos de la presente divulgación, la extracción se produce cada vez que se produce la segmentación.
Una o más de las rutinas y subrutinas implementadas por el sistema de procesamiento de imágenes pueden realizarse automáticamente. Por ejemplo, la HPU 300 puede utilizar un algoritmo de aprendizaje automático como el aprendizaje profundo. El aprendizaje profundo, como se usa en el presente documento, se refiere a una clase de algoritmo de aprendizaje automático que usa una cascada de múltiples capas de unidades de procesamiento no lineal para la extracción y/o transformación de características. Cada capa sucesiva puede usar la salida de la capa anterior como entrada. El aprendizaje profundo puede aprender de manera supervisada (p. ej., clasificación) y/o no supervisada (p. ej., análisis de patrones). El aprendizaje profundo se puede usar para aprender múltiples niveles de representaciones que corresponden respectivamente a diferentes niveles de abstracción, de modo que los niveles formen una jerarquía de conceptos. Los ejemplos de tales técnicas incluyen el trabajo de D. Tran et al., "Aprendizaje de características espaciotemporales con redes convolucionales 3d", la Conferencia internacional IEEE sobre visión por ordenador (ICCV), 2015, pp. 4489-4497, y el trabajo de K. Zhang et al., "Detección y alineación de caras conjuntas mediante redes convolucionales en cascada multitarea", Cartas de procesamiento de señal IEEE 23.10, 2016, págs. 1499-1503.
Los resultados de la clasificación de imágenes, incluidos uno o más del tipo de contenido determinado, las regiones de elementos característicos y/o los valores de aspecto de la imagen, pueden usarse para generar dinámicamente metadatos de mapeo, como la alimentación 235 de metadatos ilustrada en la figura 2 y/o la alimentación 313 de metadatos ilustrado en la figura 3. Como apreciará el experto en la materia, los metadatos de mapeo se pueden generar usando cualquier manera adecuada dependiendo de varias implementaciones y/o requisitos. Por ejemplo, la generación de metadatos de mapeo se puede realizar basándose en algunos o todos los tipos de contenido determinados, las regiones de elementos característicos y/o los valores de aspecto de la imagen, como se ilustra arriba. Además, los metadatos de mapeo pueden generarse dinámicamente a lo largo del procesamiento de la señal de entrada. Es decir, al recibir la señal de imagen/video de entrada (por ejemplo, de una alimentación en vivo), los metadatos de mapeo pueden generarse dinámicamente junto con el procedimiento de clasificación de imágenes (o en otras palabras, junto con la determinación del tipo de contenido, las regiones de elementos característicos y/o los valores de aspecto de la imagen), mejorando así la calidad, la precisión y la eficiencia de la imagen/vídeo cuando se reproduce y, al mismo tiempo, reduciendo o incluso evitando retrasos innecesarios o no deseados (por ejemplo, durante una transmisión en vivo). En términos generales, los metadatos de mapeo pueden generarse de tal manera que permitan o faciliten la conversión (por ejemplo, mapeo) de una señal de entrada a una señal de salida. Por ejemplo, la señal de entrada y la señal de salida pueden tener diferentes rangos dinámicos. En este caso, la conversión puede implicar convertir datos (en la señal de entrada) de un primer rango dinámico en datos (en la señal de salida) de un segundo rango dinámico. En otras palabras, los metadatos pueden generarse para (habilitar/facilitar) la conversión de datos de imagen desde un primer rango dinámico a un segundo rango dinámico (que puede ser mayor o menor que el primer rango dinámico). Como apreciará el experto en la materia, la conversión puede incluir, entre otros, mapeo de tonos y/o gama. Los metadatos de mapeo pueden incluir varios componentes o parámetros usados en el procesamiento de imágenes aguas abajo. A modo de ejemplo, pero no de limitación, la presente divulgación (en particular, la clasificación de imágenes de la misma) puede reconocer una transmisión en vivo como un partido de fútbol. Entonces, la presente divulgación puede decidir o seleccionar una lista de prioridad de objetos como regiones de césped y rostros (humanos). Posteriormente, puede calcular, por objeto en la lista, las características del perfil HDR PQ (por ejemplo, promedio, varianza, etc.) dentro de esas regiones. Posteriormente, dichas características pueden usarse para determinar la curva de mapeo de tonos adecuada. Un caso típico para el mapeo sería uno en el que una alimentación HDR varía de 0,001 nits a 1000 nits, y existe el requisito de que podría ser posible mapear a SDR que es de 0,005 nits a 100 nits. Además, el SDR puede codificarse de acuerdo con el estándar BT.1886. Además, los requisitos también pueden establecer que los rostros (humanos) deben estar en aproximadamente el 70 % del valor máximo del código SDR, y que la hierba debe estar en el 18 % del valor máximo del código SDR. A menudo se puede decir que esto es 70% IRE y 18% IRE, donde IRE se refiere al Instituto de Ingenieros de Radio, una antigua organización profesional que estableció prácticas operativas para la televisión. Ahora, en el presente ejemplo (de un partido de fútbol), supóngase que en la señal HDR, la presente divulgación encuentra que las caras pueden estar sombreadas a 200 nits y que el césped puede estar a 40 nits. Luego, se puede impulsar un algoritmo de optimización para seleccionar parámetros para el algoritmo de mapeo de tonos, de modo que los píxeles a 200 nits en HDR se sean mapeados al 70 % de la señal SDR, y los píxeles a 40 nits en HDR se sean mapeados al 18 % de la señal SDR. Debería ser evidente para los expertos en el campo que se pueden agregar restricciones adicionales para el valor de píxel HDR máximo y el valor de píxel HDR mínimo, de modo que estos también se sean mapeados a niveles adecuados en la señal SDR. Como se ilustra en la figura 8, los metadatos de mapeo se pueden usar en el punto de visualización (por ejemplo, una televisión comercial propiedad de un usuario final) para visualizar un fotograma de imagen renderizado 830 que reproduce fielmente la imagen completa, incluidos los oscuros y los claros. En un ejemplo particular, donde la presente divulgación se implementa en la arquitectura Dolby Vision, los metadatos de mapeo pueden incluir parámetros L1, parámetros L2/L8, parámetros L3, parámetros L4, parámetros L11 y similares.
Los metadatos L1 proporcionan o describen información sobre una distribución de valores de luminancia en una imagen de origen, una escena de origen y similares. Como se indicó anteriormente, la distribución de los valores de aspecto de la imagen se puede derivar basándose en el contenido de la imagen (p. ej., valores de píxeles, valores de luma, valores de croma, valores Y, valores Cb/Cr, valores RGB y similares), la escena y similares. Los metadatos L1 pueden incluir cantidades que representan valores de luminancia mínimos ("aplastamiento"), medios tonos ("medio") y máximos ("recorte") representativos de una o más escenas en los datos de la imagen.
Los metadatos L2 proporcionan o describen información sobre los ajustes de las características del video que se originan a partir de los ajustes realizados por un director, un graduador de color, un profesional de video y similares, o se remontan a ellos. Los metadatos l2 pueden basarse, al menos en parte, en el procesamiento realizado en producción y/o posproducción, como por el convertidor 220 de entrada, el conmutador 221 de producción, la unidad 223 de control de calidad, el servidor 225 de reproducción, la ingesta 226 de archivos, y/o la postproducción 227, ilustrados en la figura 2. Los metadatos L8 son similares a los metadatos L2 y, en algunos casos, pueden ser equivalentes a los metadatos L2 (p. ej., dependiendo de las curvas de tono respectivas). Los metadatos L2 y L8 pueden denominarse parámetros de "recorte" y pueden ser indicativos o estar relacionados con la ganancia/compensación/potencia de los datos de imagen. Los metadatos L2 pueden corresponder a un primer visualizador de referencia con un rango dinámico de referencia particular.
Los metadatos L3 proporcionan o describen información sobre los ajustes de las características del video que se originan a partir de los ajustes realizados por un director, un calificador de color, un profesional de video y similares,
o se remontan a ellos. En comparación con los metadatos L2, los metadatos L3 pueden corresponder a un segundo visualizador de referencia con un rango dinámico de referencia diferente del rango dinámico de referencia del primer visualizador de referencia. Los metadatos L3 pueden incluir, por ejemplo, compensaciones o ajustes de los metadatos L1, incluidas compensaciones o ajustes a los valores de luminancia de aplastamiento, medio y/o recorte.
Los metadatos L4 proporcionan o describen información sobre las operaciones de atenuación global. Los metadatos L4 pueden ser calculados por un codificador durante el preprocesamiento y pueden calcularse usando colores primarios RGB. En un ejemplo, los metadatos L4 pueden incluir datos que dictan un nivel de brillo de retroiluminación global de un panel de visualización por fotograma. Otros metadatos generados, como los metadatos L11, pueden proporcionar o describir información que se usará para identificar el origen de los datos de video, como contenido cinematográfico, contenido de juegos de ordenador, contenido deportivo y similares. Dichos metadatos pueden proporcionar o describir además la configuración de imagen prevista, como el punto blanco deseado, la nitidez y similares.
En conjunto, los metadatos de mapeo pueden incluir datos de conversión para convertir de un primer rango dinámico a un segundo rango dinámico que es diferente del primer rango dinámico. En algunos aspectos de la presente divulgación, el primer rango dinámico puede ser mayor que el segundo rango dinámico (por ejemplo, conversión de HDR a SDR). En otros aspectos de la presente divulgación, el segundo rango dinámico puede ser mayor que el primer rango dinámico (p. ej., conversión de SDR a HDR). Con referencia a la figura 1, los metadatos de mapeo se pueden utilizar para evitar la sobreexposición o la subexposición como en las imágenes 102 y 103, respectivamente. Por ejemplo, los metadatos de mapeo pueden codificarse con los propios datos de la imagen para su uso en el mapeo de tonos por parte de una televisión comercial propiedad de un usuario final.
Equivalentes, extensiones, alternativas y varios
Con respecto a los procesos, sistemas, métodos, heurísticas, etc. descritos en el presente documento, debe entenderse que, aunque los pasos de tales procesos, etc. se han descrito como si ocurrieran de acuerdo con una cierta secuencia ordenada, podrían agregarse otros pasos, o que ciertos pasos descritos en el presente documento podrían omitirse. En otras palabras, las descripciones de los procesos en el presente documento se proporcionan con el propósito de ilustrar ciertas realizaciones, y de ninguna manera deben interpretarse como una limitación de las reivindicaciones.
Se pretende que todos los términos usados en las reivindicaciones se les den sus construcciones razonables más amplias y sus significados ordinarios tal como los entienden los expertos en las tecnologías descritas en el presente documento, a menos que se indique explícitamente lo contrario en el presente documento. En particular, el uso de los artículos singulares como "un/una", "el/la/los/las", "dijo", etc. debe leerse para enumerar uno o más de los elementos indicados, a menos que una reivindicación enumere una limitación explícita al contrario.
Así se describen aspectos de ejemplo que se relacionan con la captura, el análisis y la transmisión de video. En la memoria descriptiva anterior, se han descrito aspectos de la presente invención con referencia a numerosos detalles específicos que pueden variar de una implementación a otra. Por lo tanto, el único y exclusivo indicador de lo que es la invención, y lo que los solicitantes pretenden que sea la invención, es el conjunto de reivindicaciones.
Cualquier definición expresamente establecida en el presente documento para los términos contenidos en dichas reivindicaciones regirá el significado de dichos términos tal como se usan en las reivindicaciones.
Por consiguiente, la especificación y los dibujos deben considerarse en un sentido ilustrativo más que restrictivo.
Claims (13)
1. - Un sistema de procesamiento de imágenes, que comprende:
una entrada configurada para recibir una señal de imagen, incluyendo la señal de imagen una pluralidad de fotogramas de datos de imagen; y
un procesador (350) configurado para determinar automáticamente una clasificación de imágenes basada en al menos un fotograma de la pluralidad de fotogramas, y generar dinámicamente metadatos de mapeo basados en la clasificación de imágenes,
en donde el procesador (350) incluye:
circuitería (351) de determinación configurada para determinar un tipo de contenido para la señal de imagen, en donde la circuitería (351) de determinación está configurada para determinar el tipo de contenido analizando regiones del fotograma y determinando una o más regiones de confianza; y en donde la determinación del tipo de contenido implica generar una lista clasificada o no clasificada de tipos de contenido potenciales basándose en una o más regiones de confianza;
circuitería (352) de segmentación configurada para segmentar los datos de imagen en una pluralidad de regiones de elementos característicos, basándose en el tipo de contenido, en donde la segmentación de los datos de imagen implica, basándose en el tipo de contenido determinado, determinar un conjunto ordenado de elementos prioritarios en los datos de imagen para buscar y segmentar; y
circuitería (353) de extracción configurada para extraer al menos un valor de luminancia de imagen para las regiones respectivas de la pluralidad de regiones de elementos característicos,
en donde los metadatos de mapeo se generan dinámicamente basándose en el tipo de contenido, las regiones de elementos característicos y el valor de luminancia de la imagen; y
en donde los metadatos de mapeo incluyen datos de conversión para convertir de un primer rango dinámico a un segundo rango dinámico que es diferente al primer rango dinámico.
2. - El sistema de procesamiento de imágenes de acuerdo con la reivindicación 1, en donde al menos un valor de luminancia de imagen incluye al menos uno seleccionado de un máximo de luminancia, un mínimo de luminancia, un punto medio de luminancia, una media de luminancia o una varianza de luminancia.
3. - El sistema de procesamiento de imágenes de acuerdo con la reivindicación 1 o 2, en donde una región de elementos característicos respectiva indica al menos uno seleccionado de una región de paisaje, una región de sombra, una región de cielo, una región de detección facial o una región de multitud.
4. - El sistema de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 3, en donde la señal de imagen es una alimentación de video en vivo.
5. - El sistema de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 1 a 4, que comprende además un codificador configurado para codificar la señal de imagen y los metadatos de mapeo.
6. - El sistema de procesamiento de imágenes de acuerdo con la reivindicación 1, en donde el primer rango dinámico es mayor que el segundo rango dinámico.
7. - Un método de procesamiento de imágenes que comprende:
recibir (S401) una señal de imagen, incluyendo la señal de imagen una pluralidad de fotogramas de datos de imagen;
determinar automáticamente (S402) una clasificación de imagen basada en al menos un fotograma de la pluralidad de fotogramas, incluyendo:
determinar (S501) un tipo de contenido para la señal de imagen, en donde el tipo de contenido se determina analizando regiones del fotograma y determinando una o más regiones de confianza; y en donde la determinación del tipo de contenido implica generar una lista clasificada o no clasificada de posibles tipos de contenido basándose en una o más regiones de confianza,
segmentar (S502) los datos de imagen en una pluralidad de regiones de elementos característicos, basándose en el tipo de contenido, en donde la segmentación de los datos de imagen implica, basándose en el tipo de contenido determinado, determinar un conjunto ordenado de elementos prioritarios en los datos de imagen para buscar y
segmento, y
extraer (S503) al menos un valor de luminancia de imagen para las regiones respectivas de la pluralidad de regiones de elementos característicos; y
generar (S403) una pluralidad de fotogramas de metadatos de mapeo basándose en la clasificación de imágenes, en donde los respectivos de la pluralidad de fotogramas de metadatos de mapeo corresponden a los respectivos de la pluralidad de fotogramas de datos de imagen,
en donde los metadatos de mapeo se generan dinámicamente basándose en el tipo de contenido, las regiones de elementos característicos y el valor de luminancia de la imagen; y
en donde los metadatos de mapeo incluyen datos de conversión para convertir de un primer rango dinámico a un segundo rango dinámico que es diferente al primer rango dinámico.
8. - El método de procesamiento de imágenes de acuerdo con la reivindicación 7, en donde al menos un valor de luminancia de imagen incluye al menos uno seleccionado de un máximo de luminancia, un mínimo de luminancia, un punto medio de luminancia, una media de luminancia o una varianza de luminancia.
9. - El método de procesamiento de imágenes de acuerdo con la reivindicación 7 u 8, en donde una región de elementos característicos respectiva indica al menos una seleccionada de una región de paisaje, una región de sombra, una región de cielo, una región de detección facial o una región de multitud.
10. - El método de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 7 a 9, en donde la señal de la imagen es una alimentación de video en vivo.
11. - El método de procesamiento de imágenes de acuerdo con cualquiera de las reivindicaciones 7 a 10, que comprende además la codificación de la señal de imagen y los metadatos de mapeo en una señal de salida comprimida.
12. - El método de procesamiento de imágenes de acuerdo con la reivindicación 7, en donde el primer rango dinámico es mayor que el segundo rango dinámico.
13. - Un medio legible por ordenador no transitorio que almacena instrucciones que, cuando son ejecutadas por un procesador de un sistema de procesamiento de imágenes, hacen que el sistema de procesamiento de imágenes realice el método de acuerdo con cualquiera de las reivindicaciones 7 a 12.
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201962838518P | 2019-04-25 | 2019-04-25 | |
EP19171057 | 2019-04-25 | ||
PCT/US2020/029023 WO2020219401A1 (en) | 2019-04-25 | 2020-04-20 | Content-aware pq range analyzer and tone mapping in live feeds |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2945657T3 true ES2945657T3 (es) | 2023-07-05 |
Family
ID=70482932
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES20723760T Active ES2945657T3 (es) | 2019-04-25 | 2020-04-20 | Analizador de rango de PQ con consciencia de contenido, y mapeo de tono en alimentaciones en vivo |
Country Status (6)
Country | Link |
---|---|
US (1) | US12050830B2 (es) |
EP (1) | EP3959646B1 (es) |
JP (1) | JP7092952B2 (es) |
CN (1) | CN113748426B (es) |
ES (1) | ES2945657T3 (es) |
WO (1) | WO2020219401A1 (es) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11666823B1 (en) | 2021-06-29 | 2023-06-06 | Amazon Technologies, Inc. | Video game streaming with dynamic range conversion |
US11612812B1 (en) * | 2021-06-29 | 2023-03-28 | Amazon Technologies, Inc. | Video game streaming with dynamic range conversion |
US11617946B1 (en) | 2021-06-29 | 2023-04-04 | Amazon Technologies, Inc. | Video game streaming with dynamic range conversion |
US20240104766A1 (en) * | 2022-09-23 | 2024-03-28 | Apple Inc. | Method and Device for Generating Metadata Estimations based on Metadata Subdivisions |
Family Cites Families (26)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4556319B2 (ja) | 2000-10-27 | 2010-10-06 | ソニー株式会社 | 画像処理装置および方法、並びに記録媒体 |
US9111146B2 (en) | 2008-02-15 | 2015-08-18 | Tivo Inc. | Systems and methods for semantically classifying and normalizing shots in video |
US9020263B2 (en) * | 2008-02-15 | 2015-04-28 | Tivo Inc. | Systems and methods for semantically classifying and extracting shots in video |
US8346009B2 (en) | 2009-06-29 | 2013-01-01 | Thomson Licensing | Automatic exposure estimation for HDR images based on image statistics |
WO2011002505A1 (en) | 2009-06-29 | 2011-01-06 | Thomson Licensing | Zone-based tone mapping |
EP2537138B1 (en) | 2010-02-19 | 2014-04-02 | Thomson Licensing | Parameters interpolation for high dynamic range video tone mapping |
TWI479898B (zh) | 2010-08-25 | 2015-04-01 | Dolby Lab Licensing Corp | 擴展影像動態範圍 |
WO2012167365A1 (en) | 2011-06-07 | 2012-12-13 | In Situ Media Corporation | System and method for identifying and altering images in a digital video |
CN103024300B (zh) | 2012-12-25 | 2015-11-25 | 华为技术有限公司 | 一种高动态范围图像显示方法及装置 |
WO2014140219A1 (en) * | 2013-03-15 | 2014-09-18 | Ventana Medical Systems, Inc. | Spectral unmixing |
US9852499B2 (en) | 2013-12-13 | 2017-12-26 | Konica Minolta Laboratory U.S.A., Inc. | Automatic selection of optimum algorithms for high dynamic range image processing based on scene classification |
JP6383425B2 (ja) * | 2014-02-25 | 2018-08-29 | アップル インコーポレイテッドApple Inc. | ビデオ符号化及び復号のための適応的伝達関数 |
WO2016087589A1 (en) * | 2014-12-03 | 2016-06-09 | Ventana Medical Systems, Inc. | Methods, systems, and apparatuses for quantitative analysis of heterogeneous biomarker distribution |
AU2014277652A1 (en) | 2014-12-15 | 2016-06-30 | Canon Kabushiki Kaisha | Method of image enhancement based on perception of balance of image features |
US9436876B1 (en) | 2014-12-19 | 2016-09-06 | Amazon Technologies, Inc. | Video segmentation techniques |
MX359721B (es) * | 2015-01-19 | 2018-10-08 | Dolby Laboratories Licensing Corp | Gestión de pantalla para video de alta gama dinámica. |
US9794540B2 (en) | 2015-04-17 | 2017-10-17 | Google Inc. | Hardware-based convolutional color correction in digital images |
US10778983B2 (en) * | 2015-09-23 | 2020-09-15 | Dolby Laboratories Licensing Corporation | Preserving texture/noise consistency in video codecs |
US9681182B2 (en) * | 2015-11-02 | 2017-06-13 | Disney Enterprises, Inc. | Real-time transmission of dynamic range tags in a video broadcast |
US10593028B2 (en) * | 2015-12-03 | 2020-03-17 | Samsung Electronics Co., Ltd. | Method and apparatus for view-dependent tone mapping of virtual reality images |
US9836819B1 (en) | 2015-12-30 | 2017-12-05 | Google Llc | Systems and methods for selective retention and editing of images captured by mobile image capture device |
US10242449B2 (en) * | 2017-01-04 | 2019-03-26 | Cisco Technology, Inc. | Automated generation of pre-labeled training data |
US20180295375A1 (en) | 2017-04-05 | 2018-10-11 | Lyrical Labs Video Compression Technology, LLC | Video processing and encoding |
US10643358B2 (en) | 2017-04-24 | 2020-05-05 | Intel Corporation | HDR enhancement with temporal multiplex |
EP3616120B1 (en) * | 2017-04-27 | 2024-09-04 | Retinascan Limited | System and method for automated funduscopic image analysis |
US10685236B2 (en) * | 2018-07-05 | 2020-06-16 | Adobe Inc. | Multi-model techniques to generate video metadata |
-
2020
- 2020-04-20 ES ES20723760T patent/ES2945657T3/es active Active
- 2020-04-20 US US17/606,433 patent/US12050830B2/en active Active
- 2020-04-20 EP EP20723760.3A patent/EP3959646B1/en active Active
- 2020-04-20 JP JP2021559842A patent/JP7092952B2/ja active Active
- 2020-04-20 WO PCT/US2020/029023 patent/WO2020219401A1/en active Search and Examination
- 2020-04-20 CN CN202080031250.5A patent/CN113748426B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
US12050830B2 (en) | 2024-07-30 |
CN113748426A (zh) | 2021-12-03 |
CN113748426B (zh) | 2023-06-09 |
EP3959646A1 (en) | 2022-03-02 |
WO2020219401A1 (en) | 2020-10-29 |
JP2022524651A (ja) | 2022-05-09 |
EP3959646B1 (en) | 2023-04-19 |
JP7092952B2 (ja) | 2022-06-28 |
US20220180635A1 (en) | 2022-06-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2945657T3 (es) | Analizador de rango de PQ con consciencia de contenido, y mapeo de tono en alimentaciones en vivo | |
KR101954851B1 (ko) | 메타데이터 기반 영상 처리 방법 및 장치 | |
US10298864B2 (en) | Mismatched foreign light detection and mitigation in the image fusion of a two-camera system | |
David Stump | Digital cinematography: fundamentals, tools, techniques, and workflows | |
US9996913B2 (en) | Contrast based image fusion | |
ES2913154T3 (es) | Sistemas escalables para controlar la gestión del color que comprenden niveles variables de metadatos | |
JP6019270B1 (ja) | 拡張ダイナミックレンジのための案内されたカラー・グレーディング | |
CN105578021B (zh) | 双目相机的成像方法及其装置 | |
KR20170020288A (ko) | Hdr 대 hdr 인버스 톤 맵핑을 위한 방법들, 시스템들 및 장치들 | |
US20180130188A1 (en) | Image highlight detection and rendering | |
EP3242482A1 (en) | Method and apparatus for encoding/decoding a high dynamic range picture into a coded bitstream | |
Kuo et al. | Content-adaptive inverse tone mapping | |
KR20220043158A (ko) | 이미지 처리 방법, 장치, 전자 디바이스, 및 저장 매체 | |
EP3343913B1 (en) | Display device and method for controlling same | |
US20080292184A1 (en) | Apparatus and method for automatically adjusting white balance | |
GB2475350A (en) | Image Contrast Enhancement Using Adaptive Histogram Adjustment | |
JP2018507620A (ja) | カラー・ピクチャを復号する方法および装置 | |
WO2022067761A1 (zh) | 图像处理方法、装置、拍摄设备、可移动平台及计算机可读存储介质 | |
US10445865B1 (en) | Method and apparatus for converting low dynamic range video to high dynamic range video | |
Sazzad et al. | Establishment of an efficient color model from existing models for better gamma encoding in image processing | |
Ibrahim et al. | Automatic selection of color reference image for panoramic stitching | |
JP5084615B2 (ja) | 画像表示装置 | |
CN109218604B (zh) | 影像撷取装置、影像亮度调变方法及影像处理装置 | |
US9129406B2 (en) | Image processing method | |
JP2017143339A (ja) | 画像合成装置、画像合成装置の動作方法およびコンピュータプログラム |