ES2385324T3 - Detección de cortes de escena en un flujo de bitios de vídeo MPEG - Google Patents

Detección de cortes de escena en un flujo de bitios de vídeo MPEG Download PDF

Info

Publication number
ES2385324T3
ES2385324T3 ES02775897T ES02775897T ES2385324T3 ES 2385324 T3 ES2385324 T3 ES 2385324T3 ES 02775897 T ES02775897 T ES 02775897T ES 02775897 T ES02775897 T ES 02775897T ES 2385324 T3 ES2385324 T3 ES 2385324T3
Authority
ES
Spain
Prior art keywords
frame
field
macroblocks
image
frames
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02775897T
Other languages
English (en)
Inventor
Richard Mateer Peterson
Edmond Chalom
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Thomson Licensing SAS
Original Assignee
Thomson Licensing SAS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Thomson Licensing SAS filed Critical Thomson Licensing SAS
Application granted granted Critical
Publication of ES2385324T3 publication Critical patent/ES2385324T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/48Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using compressed domain processing techniques other than decoding, e.g. modification of transform coefficients, variable length coding [VLC] data or run-length data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/85Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression
    • H04N19/87Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using pre-processing or post-processing specially adapted for video compression involving scene cut or scene change detection in combination with video compression
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N19/00Methods or arrangements for coding, decoding, compressing or decompressing digital video signals
    • H04N19/90Methods or arrangements for coding, decoding, compressing or decompressing digital video signals using coding techniques not provided for in groups H04N19/10-H04N19/85, e.g. fractals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/44Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs
    • H04N21/4402Processing of video elementary streams, e.g. splicing a video clip retrieved from local storage with an incoming video stream, rendering scenes according to MPEG-4 scene graphs involving reformatting operations of video signals for household redistribution, storage or real-time display

Abstract

Un método para detectar cortes de escena en un flujo de bitios en un vídeo de tipo MPEG, que comprende los pasos de: (a) determinar en una pluralidad de tramas cada trama que tiene unos campos primero y segundo, un número de macrobloques codificados para cada campo en cada trama primera y segunda; (b) fijar un número de macrobloques predichos igual a un número de macrobloques predichos hacia adelante después de la determinación de un campo correspondiente que ha de ser el primer campo en una trama; y (c) fijar el número de macrobloques predichos igual a un número de macrobloques predichos hacia atrás después de la determinación del campo correspondiente que ha de ser el segundo campo en la trama; (d) determinar una relación entre el número de macrobloques predichos con el número de macrobloques codificados de cada uno; (e) seleccionar un campo que tenga una relación más baja entre los campos primero y segundo; (f) comparar la relación más baja con un valor umbral; y (g) detectar un corte de escena después de determinar que la relación más baja es menor que el valor umbral, en donde el corte de escena corresponde al campo seleccionado.

Description

Detección de cortes de escena en un flujo de bitios de vídeo MPEG.
Referencias cruzadas con aplicaciones relacionadas
Esta solicitud reivindica los beneficios de la Solicitud de Patente Provisional de EEUU Nº 60/324.890, presentada el 26 de septiembre de 2001.
Campo del invento
El presente invento se refiere a un vídeo de tipo MPEG, y más particularmente a la detección de un corte de escena en el flujo de bitios de vídeo.
Antecedentes del invento
Las secuencias de vídeo basadas en MPEG pueden estar divididas en escenas que pueden variar en longitud desde menos de un segundo hasta varios minutos o más. La detección de estas divisiones o cortes de escena hace posible una amplia variedad de características de valor añadido. Por ejemplo, una trama puede ser seleccionada de cada escena para crear un guión que resume los contenidos de una grabación de vídeo. Además, se puede utilizar un editor de vídeo para manipular la grabación de vídeo en modo de escena a escena, por ejemplo reordenando escenas o mediante la aplicación de técnicas de procesamiento de imágenes a cada trama en una escena.
Las secuencias de vídeo MPEG incluyen tres tipos de tramas, Intra-Tramas (I), Inter-Tramas (P), y Tramas Bidireccionales (B). Las tramas I codifican una imagen fija utilizando un método similar a la codificación JPEG. Las tramas P son predichas a partir de una trama I o P previa. Las tramas B son predichas a partir de una trama I o P y de una trama I o P próxima. Estos tres tipos de tramas se codifican usando una Transformación Cosenoidal Discreta (DCT), la cual organiza la redundancia en direcciones espaciales entre tramas. No obstante, para las tramas I la información DCT se obtiene directamente a partir de una muestra de imagen, en tanto que para las tramas P y B la información DCT se obtiene a partir de un error residual después de la predicción.
Cada trama se divide en una pluralidad de macrobloques. Cada uno de ellos incluye información relacionada con una pluralidad de bloques de luminancia, por ejemplo Y1, Y2, Y3 e Y4, y una pluralidad de bloques de crominancia, por ejemplo uno U y otro V en un sistema YUV. Cada uno de estos bloques incluye una pluralidad de pels, o elementos de elementos de imagen, por ejemplo un bloque 8x8.
Cuando el vídeo ha sido codificado en un flujo de bitios de tipo MPEG la detección del corte de escena puede realizarse sin la decodificación completa del flujo de bitios, lo cual aumenta la velocidad de procesamiento del vídeo. También se puede extraer información adicional tal como tipos de codificación de macrobloques, vectores de movimiento y coeficientes DCT a partir del flujo de bitios sin decodificar totalmente el flujo de bitios.
Un método para la detección de cortes de escena se realiza de la siguiente manera:
1.
para las tramas I se determinan las diferencias cuadráticas medias entre los coeficientes DCT;
2.
para las tramas P el método propuesto determina el número de macrobloques predichos hacia adelante;
3.
para las tramas B se cuenta el menor de los números de macrobloques codificados en adelante y del número de macrobloques codificados hacia atrás; y
4.
a continuación se determina un mínimo en una representación de estos números con respecto al número de tramas.
En otro método propuesto para la detección de cortes de escena: para las tramas I se utiliza una diferencia entre los histogramas de color formados a partir de los coeficientes DC usados, y se combina con la información sobre la relación entre el número de macrobloques sin compensación de movimiento con el número de ellos con compensación de movimiento. El método propuesto busca un pico en una representación con respecto al número de tramas. Para las tramas B se determina la relación de las predicciones hacia adelante con las predicciones hacia atrás. En todos los casos se aplica una técnica de umbral adaptativa a fin de identificar los picos.
Otro método adicional hace uso de histogramas para todas las tramas (I, P y B) formadas a partir de los coeficientes Cosenoidales Discretos (DC) con compensación de movimiento.
No obstante, no existe actualmente un sistema o método conocido de detección de corte de escena basado en el examen global de todas las predicciones dentro de un subgrupo de imágenes (GOP).
Resumen del invento
El invento se refiere a un método de acuerdo con la reivindicación 1. Las realizaciones preferidas se detallan en las reivindicaciones dependientes.
Breve descripción de los dibujos
A continuación se describen con detalle las realizaciones preferidas del presente invento haciendo referencia a los dibujos que se acompañan, en los que:
la Figura 1 ilustra unos cortes de escena en un subgrupo GOP de acuerdo con los principios del presente invento;
la Figura 2 es un diagrama de flujos que ilustra un primer método para la detección de un corte de escena de acuerdo con los principios del presente invento; y
la Figura 3 es un diagrama de flujos que ilustra un segundo método para la detección de un corte de escena de acuerdo con los principios del presente invento.
Descripción detallada
De acuerdo con los principios del presente invento la detección del corte de escena se realiza recogiendo datos sobre el número de macrobloques predichos hacia adelante y hacia atrás en cada Inter Trama (P) o Trama Bidireccional (B), analizándolos a un nivel de sub GOP (cada trama de anclaje junto con las tramas B precedentes) sin considerar cada trama de forma independiente. Se sobreentiende que el presente invento puede ser puesto en práctica en diversas formas de soporte físico, soporte lógico, microprogramas, procesadores con fines específicos, o una combinación de ellos. En una realización a modo de ejemplo el presente invento se ha puesto en práctica en un soporte lógico como un programa de aplicación incorporado de forma tangible en un dispositivo de almacenamiento de programas. El programa de la aplicación puede ser cargado en, y ejecutado por, una máquina que comprende cualquier disposición de elementos apropiada. Preferiblemente, la máquina está instalada en una plataforma de ordenador que tiene un soporte físico tal como una o más unidades centrales de procesamiento (CPU), una memoria de acceso aleatorio (RAM), y una interfaz o interfaces de entrada/salida (I/O). La plataforma de ordenador incluye también un sistema operativo y un código de microinstrucción. Los diversos procesos y funciones descritos aquí pueden formar parte bien del código de microinstrucción o del programa de aplicación (o de una combinación de ellos) que se ejecuta a través del sistema operativo. Además, se pueden conectar otros diversos dispositivos periféricos a la plataforma de ordenador tal como un dispositivo o dispositivos de almacenamiento de datos y un dispositivo o dispositivos de impresión.
Se ha de entender además que, debido a que algunos de los componentes del sistema y de los pasos del método descritos en las figuras que se acompañan pueden ser puestas en práctica en soporte lógico, las conexiones, interconexiones o relaciones funcionales efectivas entre los componentes del sistema (o los pasos del proceso) pueden diferir dependiendo de la forma en la que se haya programado el presente invento. Las enseñanzas del presente invento aquí proporcionadas así como éstas y otras aplicaciones o configuraciones similares del presente invento podrán ser comprendidas por cualquier persona con una formación normal en la técnica relacionada.
Para cada trama P o B se registra el número de macrobloques que utilizan la predicción hacia adelante y el número de macrobloques que utilizan la predicción hacia atrás (encontrada solamente en las tramas B). Se examinan los datos de cada trama de anclaje, intra-trama (I) o P, y todas las tramas B inmediatamente anteriores.
Si un macrobloque ha sido predicho de forma inapropiada la compensación de movimiento posterior residual puede ser amplia, y se necesitan unos coeficientes DCT amplios con el fin de realizar una compensación por la predicción. Para estas predicciones existe una alta probabilidad (aproximadamente mayor del 50%) de que la predicción sea falsa. Esto es, que un macrobloque de trama de anclaje en el que se base la predicción pueda no tener una asociación real con el macrobloque en la trama predicha, aunque la trama de anclaje pueda ser lo suficientemente similar a para que a partir de ella se pueda realizar una predicción. Debido a esto se ignora tal macrobloque en la recogida de los datos estadísticos. Más particularmente, cuando se cuentan macrobloques con predicción hacia adelante o hacia atrás se examina la energía total (entropía) de los coeficientes DCT. La energía total de los coeficientes DCT es la suma de los cuadrados de los coeficientes no-DC. Si esta energía es superior a un valor umbral no se tiene en cuenta el macrobloque, ni en cuanto al número de predicciones hacia adelante o hacia atrás (nFwd y nBwd respectivamente), ni en cuanto al número de macrobloques codificados (nCode). Para MPEG-2 se ha encontrado que como ejemplo un valor umbral es aproximadamente 500.
Para una trama de anclaje se analiza el patrón de predicciones para cada trama en el sub-GOP. Considerando la Figura 1, en la que se representa un sub-GOP que incluye dos tramas B y una trama P. Los sitios posibles de un corte de escena incluyen, antes de la trama B1 102, entre las tramas B1 102 y B2 103, y entre la trama B2 103 y la trama P3 104. Además, si las tramas están entrelazadas, se puede producir un corte de escena entre los campos de cualquiera de las tres tramas 105 a 107 respectivamente.
De acuerdo con una realización del presente invento, si se produce un corte de escena en 108 pocos macrobloques predichos hacia adelante estarían presentes en las tramas B1 102, B2 103, o P3 104 debido a que la trama I/P0 101 no está relacionada con cualquiera de estas tramas. Igualmente, si se produce un corte de escena en 109 en la trama B1 102 estarían presentes pocos macrobloques predichos hacia atrás debido a que dicha trama B1 102 no está relacionada con la trama P3 104 a partir de la cual se han realizado estas predicciones; y esperamos pocos macrobloques predichos hacia adelante en la trama B2 103 o P3 104 debido a que la trama I/P0 101 no está relacionada con estas tramas.
De este modo, una medida de la posibilidad de un corte de escena en 108 es el total del número de macrobloques predichos hacia adelante en las tramas B1 102, B2 103, o P3 104. Una medida de la posibilidad de un corte de escena en 109 es el total del número de macrobloques predichos hacia atrás en la trama B1 102 más el número de macrobloques predichos hacia adelante en las tramas B2 103 y P3 104; y similarmente en cuanto a la posibilidad de un corte de escena en 110. La posibilidad de que haya un corte de escena en el punto correspondiente aumenta a medida que disminuye el número total de macrobloques predichos hacia adelante y hacia atrás.
Con referencia a la Figura 2, después de determinar la imagen (p) actual que sea una trama P o una trama B 201 se fija el número total de macrobloques codificados de la trama (nCode[p]) en el número de macrobloques que tienen una AcEnergy menor que una energyTresh 202. El número total de macrobloques predichos hacia adelante de la trama (nFwd[p]) se fija como el número de macrobloques que tienen una AcEnergy menor que una predicción hacia adelante AND energyTresh 203. El número total de macrobloques predichos hacia atrás de la trama (nBwd[p]) se fija como el número de macrobloques que tienen una AcEnergy menor que una predicción hacia atrás AND energyTresh
204.
Con referencia ahora a la Figura 3, de acuerdo con el paso 301 se ha determinado si p es una trama I o P. Si p no es una trama I o P no existe una detección de corte de escena hasta el final del sub-GOP de acuerdo con el paso
302. De acuerdo con el paso 303, se ha determinado si p es una trama I y si la imagen anterior era una trama I o P. Si se ha determinado que p es una trama I y que la imagen anterior era una trama I o P, entonces no se ha detectado un corte de escena en este sub-GOP de acuerdo con el paso 304. Tras la determinación de que p es de tipo P o que la imagen anterior es de tipo B entonces se recogen datos con respecto al sub-GOP actual en los pasos 305-311. El recuento de las predicciones que cruzan el corte de escena potencial entre el campo f y el campo anterior (predMBs[f]) y el recuento de los macrobloques cuyas predicciones podrían cruzar este límite (codedMBs[f]) se inician en 0 para cada campo f en el sub-GOP, de acuerdo con el paso 305.
Para cada campo f del sub-GOP se determinado si dicho campo f está en una imagen I, de acuerdo con el paso 307. Si el campo f está en una imagen I, entonces continúa el proceso en el siguiente campo de acuerdo con el paso 308. Después de determinar que el campo f no está en una imagen I, entonces el proceso hace un bucle sobre los sitios potenciales de un corte de escena en el sub-GOP, esto es, cada sitio f’ entre dos campos. Se aumenta el valor de codedMBs[f’] en nCode[f] para cada corte de escena potencial f’ en el sub-GOP, de acuerdo con el paso 309. Además, se aumenta el valor de predMBs[f’] en nFwd[f] para cada corte de escena potencial f’ antes o igual a f, de acuerdo con el paso 310.
De acuerdo con el paso 311 se ha determinado si se ha alcanzado el último campo, y si no se ha alcanzado, el proceso continúa con el último campo, de acuerdo con el paso 308. Después de haber determinado que se ha alcanzado el último campo se determina un campo f para el cual la relación de predMBs[f] con codedMBs[f] (por ejemplo, predMBs[f] con codedMBs[f]) sea un mínimo, de acuerdo con el paso 312. Para el campo f determinado que tiene la relación mínima, si predMBs[f] dividido por codedMBs[f] es menor que una predRatioTresh de acuerdo con el paso 313, el proceso detecta e informa de un corte de escena entre este campo y el campo anterior, de acuerdo con el paso 314, o bien no se selecciona corte de escena alguno en el sub-GOP, de acuerdo con el paso
315.
Obsérvese que para cada campo se determinan el número de macrobloques predichos (predMBs) y de macrobloques codificados de campos (codedMBs) incluso si las imágenes son imágenes de trama, ya que se puede producir un corte de escena entre campos de una imagen de trama (si la imagen de trama está entrelazada). Los macrobloques de una imagen de trama se aplican a cada campo de la trama al calcular el cálculo de predMBs y codedMBs. Esto es, nCode[f’] es el número total de macrobloques codificados en la trama cuando f’ se refiere a cualquier campo de la trama. Igualmente, nFwd[f’] y nBwd[f’] representan el número de macrobloques de predicción hacia adelante y de macrobloques de predicción hacia atrás en el campo f’, respectivamente. Cuando f’ se encuentra en la misma imagen de trama que f, predMBs[f] se aumenta en nBwd[f], y codedMBs[f] se aumenta en nCode[f’], solamente cuando f es el primer campo en la trama. Las matrices del segundo campo no se aumentan debido a que se supone las predicciones hacia adelante que las predicciones anteriores se aplican solamente al primer campo, y las predicciones hacia atrás solamente se aplican al segundo campo. Si no se hiciera esto quedaría enmascarado un corte de escena entre campos de una misma imagen por predicciones a lo largo del límite de la escena.
Se ha encontrado mediante experimentación que un buen valor para la predicción del umbral de la relación de predicción preRatioTresh es 0,05. No obstante, otras experimentaciones y/o aplicaciones pueden determinar que algún valor distinto de este valor, o que un valor umbral puede ser más apropiado en una aplicación específica.
Además, el valor específico escogido para el umbral de energía AC, AcTresh, puede igualmente ser distinto del valor escogido aquí como ejemplo. Sería evidente para los expertos en la técnica evaluar y modificar estos y otros valores para maximizar la eficiencia y precisión del invento, incluyendo tal modificación los principios del presente invento aquí descritos.
5 El método específico antes descrito es el que ha sido puesto en práctica y comprobado. No tiene un carácter limitativo el alcance de esta exposición o de las reivindicaciones en ella contenidas. Un principio subyacente del presente invento es la detección precisa de un corte de escena súbito mediante el examen global de todas las predicciones dentro de un sub-GOP. Buscando la coherencia de toda la información disponible en las predicciones, se pueden reducir las positivas falsas (informes no exactos de los cortes de escena).
10 Los principios del presente invento pueden ser integrados con, por ejemplo, enfoques basados en histogramas, a fin de tratar los casos de trama-I solamente, y de una imagen P seguida por una imagen I, en cuyo caso este método no puede detectar un corte de escena. Se pueden también poner en práctica ampliaciones en las que intervienen histogramas para detectar transiciones graduales de escenas tales como desvanecimientos de memoria, fundidos y barridos.
15 Habiendo descrito realizaciones para la exacta detección de un corte de escena mediante el examen global de todas las predicciones dentro de un sub-GOP se ha advertido que se pueden realizar modificaciones y variaciones por personas expertas en la técnica a la luz de las anteriores enseñanzas.

Claims (5)

  1. REIVINDICACIONES
    1. Un método para detectar cortes de escena en un flujo de bitios en un vídeo de tipo MPEG, que comprende los pasos de:
    (a)
    determinar en una pluralidad de tramas cada trama que tiene unos campos primero y segundo, un número de macrobloques codificados para cada campo en cada trama primera y segunda;
    (b)
    fijar un número de macrobloques predichos igual a un número de macrobloques predichos hacia adelante después de la determinación de un campo correspondiente que ha de ser el primer campo en una trama; y
    (c)
    fijar el número de macrobloques predichos igual a un número de macrobloques predichos hacia atrás después de la determinación del campo correspondiente que ha de ser el segundo campo en la trama;
    (d)
    determinar una relación entre el número de macrobloques predichos con el número de macrobloques codificados de cada uno;
    (e)
    seleccionar un campo que tenga una relación más baja entre los campos primero y segundo;
    (f)
    comparar la relación más baja con un valor umbral; y
    (g)
    detectar un corte de escena después de determinar que la relación más baja es menor que el valor umbral, en donde el corte de escena corresponde al campo seleccionado.
  2. 2.
    El método de la reivindicación 1, en el que la pluralidad de tramas es un grupo de tramas, en el que cada una de ellas incluye dos campos, en donde el grupo de tramas comprende un subgrupo de imágenes y el flujo de bitios de vídeo incluye una pluralidad de subgrupos de imágenes.
  3. 3.
    El método de la reivindicación 2, en el que antes del paso (a) están comprendidos los pasos de: determinar si una primera imagen de un subgrupo de imágenes es una imagen I; determinar si una imagen anterior era una imagen I o P; y avanzar el procesamiento hasta un subgrupo de imágenes siguiente, en respuesta a una determinación de
    que la primera imagen que ha de ser una imagen I y que la imagen previa ha de ser una imagen I o P.
  4. 4.
    El método de la reivindicación 1, que además comprende los pasos de: iniciar el número de macrobloques predichos en cero para cada campo; e iniciar el número de macrobloques codificados en cero para cada campo.
  5. 5.
    El método de la reivindicación 1, en el que al menos uno de la pluralidad de potenciales cortes de escena existe entre campos en entrelazados de una trama.
ES02775897T 2001-09-26 2002-09-20 Detección de cortes de escena en un flujo de bitios de vídeo MPEG Expired - Lifetime ES2385324T3 (es)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US32489001P 2001-09-26 2001-09-26
US324890P 2001-09-26
US10/014,963 US6996183B2 (en) 2001-09-26 2001-12-11 Scene cut detection in a video bitstream
US14963 2001-12-11
PCT/US2002/029883 WO2003028236A1 (en) 2001-09-26 2002-09-20 Scene cut detection in a video bitstream

Publications (1)

Publication Number Publication Date
ES2385324T3 true ES2385324T3 (es) 2012-07-23

Family

ID=26686770

Family Applications (1)

Application Number Title Priority Date Filing Date
ES02775897T Expired - Lifetime ES2385324T3 (es) 2001-09-26 2002-09-20 Detección de cortes de escena en un flujo de bitios de vídeo MPEG

Country Status (10)

Country Link
US (1) US6996183B2 (es)
EP (1) EP1430613B1 (es)
JP (1) JP4173099B2 (es)
KR (1) KR100920096B1 (es)
CN (1) CN100525129C (es)
BR (1) BRPI0212828B1 (es)
ES (1) ES2385324T3 (es)
MX (1) MXPA04002923A (es)
MY (1) MY127481A (es)
WO (1) WO2003028236A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100428801C (zh) * 2005-11-18 2008-10-22 清华大学 一种视频场景切换检测方法
JP4719889B2 (ja) 2006-08-03 2011-07-06 国立大学法人電気通信大学 カット点検出システムおよび該カット点検出システムを用いたショット識別システム、カット点検出方法、並びにカット点検出プログラム
US20090313546A1 (en) * 2008-06-16 2009-12-17 Porto Technology, Llc Auto-editing process for media content shared via a media sharing service
KR101149522B1 (ko) 2008-12-15 2012-05-25 한국전자통신연구원 장면 전환 검출 시스템 및 방법
CN101534442B (zh) * 2009-04-13 2011-01-12 腾讯科技(深圳)有限公司 视频编码系统及方法
KR101043768B1 (ko) * 2009-10-13 2011-06-22 중앙대학교 산학협력단 회화적 렌더링 장치 및 방법
BR112014008734B1 (pt) 2011-10-11 2021-11-30 Telefonaktiebolaget Lm Ericsson (Publ) Método para detectar uma mudança de cena em um vídeo transmitido em fluxo contínuo, meio legível por computador não transitório e aparelho relacionados
KR20140110881A (ko) * 2011-11-25 2014-09-17 톰슨 라이센싱 장면 컷 결함들을 고려한 비디오 품질 평가
WO2014029188A1 (en) * 2012-08-23 2014-02-27 Thomson Licensing Method and apparatus for detecting gradual transition picture in video bitstream
CN105075273B (zh) * 2013-02-27 2019-03-26 苹果公司 自适应流式传输技术
US9979970B2 (en) * 2014-08-08 2018-05-22 Qualcomm Incorporated System and method for determining buffer fullness for display stream compression
CN109194955B (zh) * 2018-11-16 2021-04-30 深圳市梦网视讯有限公司 一种场景切换检测方法及系统

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2294173B (en) 1994-10-11 1998-12-09 Mitsubishi Electric Corp Disk media, and method of and device for recording and playing back information on or from a disk media
US5835149A (en) 1995-06-06 1998-11-10 Intel Corporation Bit allocation in a coded video sequence
US5774593A (en) * 1995-07-24 1998-06-30 University Of Washington Automatic scene decomposition and optimization of MPEG compressed video
US5872598A (en) 1995-12-26 1999-02-16 C-Cube Microsystems Scene change detection using quantization scale factor rate control
US5768537A (en) 1996-02-22 1998-06-16 International Business Machines Corporation Scalable MPEG2 compliant video encoder
US5724100A (en) * 1996-02-26 1998-03-03 David Sarnoff Research Center, Inc. Method and apparatus for detecting scene-cuts in a block-based video coding system
US5731835A (en) 1996-02-26 1998-03-24 David Sarnoff Research Center, Inc. Dynamic coding rate control in a block-based video coding system
JPH09261648A (ja) * 1996-03-21 1997-10-03 Fujitsu Ltd シーンチェンジ検出装置
JP3244629B2 (ja) 1996-08-20 2002-01-07 株式会社日立製作所 シーン変化点検出方法
US5751378A (en) 1996-09-27 1998-05-12 General Instrument Corporation Scene change detector for digital video
US6735253B1 (en) * 1997-05-16 2004-05-11 The Trustees Of Columbia University In The City Of New York Methods and architecture for indexing and editing compressed video over the world wide web
FR2764156B1 (fr) 1997-05-27 1999-11-05 Thomson Broadcast Systems Dispositif de pretraitement pour codage mpeg ii
DE69826823T2 (de) 1997-07-29 2005-10-20 Koninklijke Philips Electronics N.V. Verfahren zur videocodierung mit variabler bitrate und entsprechender videocodierer
US6100940A (en) 1998-01-21 2000-08-08 Sarnoff Corporation Apparatus and method for using side information to improve a coding system
JP3905969B2 (ja) 1998-01-30 2007-04-18 株式会社東芝 動画像符号化装置および動画像符号化方法
US6252905B1 (en) 1998-02-05 2001-06-26 International Business Machines Corporation Real-time evaluation of compressed picture quality within a digital video encoder
US6125147A (en) 1998-05-07 2000-09-26 Motorola, Inc. Method and apparatus for reducing breathing artifacts in compressed video
JP2001266158A (ja) 2000-01-11 2001-09-28 Canon Inc 画像処理装置、画像処理システム、画像処理方法、及び記憶媒体

Also Published As

Publication number Publication date
JP2005505165A (ja) 2005-02-17
MXPA04002923A (es) 2004-07-05
EP1430613A4 (en) 2010-05-26
BRPI0212828B1 (pt) 2016-05-10
WO2003028236A1 (en) 2003-04-03
JP4173099B2 (ja) 2008-10-29
US20030058947A1 (en) 2003-03-27
MY127481A (en) 2006-12-29
KR20040037104A (ko) 2004-05-04
EP1430613A1 (en) 2004-06-23
CN100525129C (zh) 2009-08-05
KR100920096B1 (ko) 2009-10-01
CN1602592A (zh) 2005-03-30
US6996183B2 (en) 2006-02-07
BR0212828A (pt) 2004-10-13
EP1430613B1 (en) 2012-05-02

Similar Documents

Publication Publication Date Title
ES2385324T3 (es) Detección de cortes de escena en un flujo de bitios de vídeo MPEG
ES2674163T3 (es) Procedimiento de codificación de una unidad de codificación en un límite de instantánea
ES2652132T3 (es) Método y aparato para codificar y descodificar un bloque de textura mediante el uso de partición de bloque basada en la profundidad
ES2318402T3 (es) Procedimiento y disposicion para la codificacion de video,comprendiendo la codificacion de video analisis de textura y sintesis de textura asi como distorsion de textura,como un programa informativo correspondiente y 1 medio de almacenamiento legible por ordenador correspondiente.
ES2330440T3 (es) Metodo para decodificacion y aparato para detectar marcas de agua filigranas en un tren binario de video comprimido.
ES2384683T3 (es) Método para determinar vectores de movimiento de modo directo en una imagen B
ES2688033T3 (es) Aparato para codificar vídeo usando fusión de bloques
JP3957915B2 (ja) フェード検出装置及び情報符号化装置
US20120275524A1 (en) Systems and methods for processing shadows in compressed video images
BR9801156B1 (pt) método de decodificação de predição de imagem.
US20130034160A1 (en) Apparatus and method for video processing
CN1224272C (zh) 事件的特征提取和检测以及视频序列中活动的时间变化
TW201813392A (zh) 用於虛擬現實視頻之面獨立編碼結構之方法與裝置
CN111510731B (zh) 交通图像的拼接系统及方法
CN107105255B (zh) 视频文件中添加标签的方法和装置
KR20110099047A (ko) 영상 디스크립터 생성 장치
JP4195969B2 (ja) 動きベクトル検出装置
Zhu et al. Video coding with spatio-temporal texture synthesis and edge-based inpainting
KR20200119372A (ko) 인공신경망 기반 객체영역 검출방법, 장치 및 이에 대한 컴퓨터 프로그램
KR20190021993A (ko) 압축영상에 대한 신택스 기반의 이동객체 영역 추출 방법
JP3866580B2 (ja) 画像符号化装置、画像復号装置、画像符号化プログラム、画像復号プログラム及びそれらのプログラムを記録したコンピュータ読み取り可能な記録媒体
KR101693416B1 (ko) 영상 부호화 방법 및 영상 복호화 방법과 상기 방법을 이용한 영상 부호화 장치 및 영상 복호화 장치
KR102585167B1 (ko) 압축영상에 대한 신택스 기반의 동일인 분석 방법
KR102557904B1 (ko) 동적프레임이 존재하는 구간의 검출방법
KR102343029B1 (ko) 모션벡터 기반 분기처리를 이용한 압축영상의 영상분석 처리 방법