ES2247659T3 - Metodo y aparato de conversion de señal de imagen. - Google Patents

Metodo y aparato de conversion de señal de imagen.

Info

Publication number
ES2247659T3
ES2247659T3 ES98301067T ES98301067T ES2247659T3 ES 2247659 T3 ES2247659 T3 ES 2247659T3 ES 98301067 T ES98301067 T ES 98301067T ES 98301067 T ES98301067 T ES 98301067T ES 2247659 T3 ES2247659 T3 ES 2247659T3
Authority
ES
Spain
Prior art keywords
image
signal
data
memory
image signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES98301067T
Other languages
English (en)
Inventor
Tetsujiro C/O Sony Corporation Kondo
Tsutomu c/o Sony Corporation Watanabe
Tomoyuki c/o Sony Corporation Ohtsuki
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Application granted granted Critical
Publication of ES2247659T3 publication Critical patent/ES2247659T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4023Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0125Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • H04N7/014Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/147Scene change detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Television Systems (AREA)
  • Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
  • Image Processing (AREA)

Abstract

UN APARATO DE CONVERSION DE SEÑALES DE IMAGENES PARA CONVERTIR UNA PRIMERA SEÑAL DE IMAGEN EN UNA SEGUNDA SEÑAL DE IMAGEN, DONDE LA PRIMERA Y LA SEGUNDA SEÑALES DE IMAGENES INCLUYEN UNA PLURALIDAD DE IMAGENES DE DIFERENTES TRAMAS. PUEDE OPERARSE UN DETECTOR DE MOVIMIENTO PARA DETECTAR EL MOVIMIENTO DE LA PRIMERA SEÑAL DE IMAGEN ENTRE UNA PRIMERA TRAMA Y UNA SEGUNDA TRAMA Y LOS CIRCUITOS DE PROCESAMIENTO PRODUCEN LA SEGUNDA SEÑAL DE IMAGEN BASANDOSE EN LA SUPOSICION DE UN PIXEL EN UNA POSICION CORRESPONDIENTE AL MOVIMIENTO DETECTADO. PUEDE UTILIZARSE EL APARATO PARA PRODUCIR UNA SEÑAL DE SALIDA O BIEN LA MISMA RESOLUCION QUE LA PRIMERA SEÑAL DE IMAGEN CON LA DISTORSION DE SOLAPAMIENTO REDUCIDA O ELIMINADA, O CON UNA RESOLUCION SUPERIOR EN LAS DIRECCIONES VERTICAL Y/O HORIZONTAL.

Description

Método y aparato de conversión de señal de imagen.
El presente invento se refieren en general al tratamiento de imágenes y en particular, a un dispositivo y a un método de tratamiento de imágenes.
Con técnicas digitales modernas de formación de imágenes, las señales de vídeo analógicas son muestreadas y almacenadas como datos digitales para la reproducción subsiguiente en un tubo de rayos catódicos (CRT) u otro dispositivo de presentación. Es un éxito del diseño presentar tales imágenes con una resolución tan alta y una distorsión tan pequeña como sea posible.
Las imágenes presentadas en un CRT, tales como imágenes derivadas de señales de televisión, de grabadores de cintas de vídeo (VTR) o de reproductores de discos versátiles digitales (DVD), son generadas por exploración repetitiva de haces de electrones en la dirección horizontal. Como se ha ilustrado en la fig. 25, cada exploración horizontal es realizada de izquierda a derecha, y después de cada exploración, los haces son barridos de nuevo a la extrema izquierda y posicionados de nuevo verticalmente para comenzar la siguiente exploración horizontal. La pantalla fluorescente del CRT es irradiada por tres haces de electrones para iluminar los fósforos azul, verde y rojo respectivos distribuidos en pequeñas unidades en la pantalla. Los fósforos producen puntos de luz correspondientes a la intensidad de los haces de electrones, y la congregación de todos los puntos produce una imagen. Por tanto, una imagen presentada puede ser considerada una congregación de tales puntos, es decir, elementos de imagen.
Como una imagen presentada en un CRT derivada de una señal analógica está compuesta por una congregación de elementos de imagen emisores de luz, la imagen puede ser considerada como una señal digital obtenida muestreando la imagen original en las posiciones del elemento de imagen. Así, si la imagen analógica original hubiera sido muestreada en un intervalo de muestreo suficiente tanto en las direcciones horizontal como vertical para generar el mismo número de puntos que el número de elementos de imagen en un CRT, una colección de datos de imagen podría ser almacenada digitalmente. Cuando es reproducida subsiguientemente, una imagen de casi la misma resolución es obtenida como en un intento estrictamente analógico de grabación/reproducción.
El teorema de muestreo dicta que una señal analógica puede ser reconstruida completamente a partir de un conjunto de muestras discretas uniformemente espaciadas de la misma en tiempo, siempre que la señal sea muestreada a una tasa de al menos dos veces la componente de mayor frecuencia de la señal. Cuando se muestrea una imagen original, si el teorema de muestreo no es satisfecho, se genera una distorsión de repliegue del espectro en la imagen presentada. Para corregir la distorsión de repliegue del espectro, se han usado filtros previos para compensar el submuestreo en la dirección horizontal (línea de exploración); sin embargo, tales filtros previos no están típicamente previstos en la dirección vertical. Como tal, la distorsión por repliegue del espectro en la dirección vertical es un problema corriente.
La fig. 26 ilustra la distorsión de repliegue del espectro de una imagen presentada en la dirección vertical. Cuatro elementos de imagen P_{1} - P_{4} de una columna dada están mostrados en cada uno de los cuadros N y N+1. Las señales S_{N} y S_{N+1} representan la variación de nivel de imagen de la imagen original en la dirección vertical para la columna dada, donde el nivel de amplitud está ilustrado horizontalmente en la figura. Así, por ejemplo, en el cuadro N, la luminancia de la imagen es mayor para el elemento de imagen P_{2} que para el elemento de imagen P_{1}. Ahora, si la componente de mayor frecuencia espacial de la imagen original en la dirección vertical tiene un período de menos de dos veces la separación horizontal entre elementos de imagen, a continuación el teorema de muestreo no es satisfecho y da como resultado una distorsión de repliegue del espectro. Tal es el caso tanto para la señal S_{N} como S_{N-1} en la fig. 26. Por ejemplo, la señal S_{N}', que es una aproximación para la señal muestreada de cuadro N, es muy diferente de la señal original S_{N}. Con la distorsión de repliegue del espectro, la componente de frecuencia elevada de la señal original será perdida durante la reproducción, incluso aunque se emplee un filtro para eliminar el repliegue del espectro. Tal distorsión de repliegue del espectro puede ser una causa de degradación en el tratamiento de señal tal como separación de Y/C, eliminación de ruido, mejora de la calidad, y así sucesivamente.
Ha de observarse que mientras el submuestreo de la imagen como se acaba de describir dará como resultado siempre una resolución disminuida, el efecto sobre el espectador en términos de calidad de imagen depende de cómo cambia la escena de cuadro a cuadro. Si un cuadro con distorsión de repliegue de espectro cambia significativamente de cuadro a cuadro, como sucede en la fig. 26, entonces una imagen que se mueve de manera antinatural o una borrosidad resultan desde la perspectiva del usuario. Si la escena permanece aún, el ruido de repliegue no es tan grande. En cualquier caso, como la resolución es siempre degradada por submuestreo, y como las señales de retransmisiones estándar de televisión y similares están destinadas solo a un número limitado de barridos horizontales por imagen, existe la necesidad de un modo práctico de eliminar el repliegue del espectro y la captura de nuevo de la imagen original con una calidad mejorada.
Patti A.J. y col., "Conversión de Normas de Alta Resolución de vídeo de Baja Resolución", Ponencias de la Conferencia Internacional sobre Acústica, Voz y Tratamiento de Señales (ICASSP), Detroit, 9 - 12 de Mayo de 1995, Desarrollo de Aplicaciones de Tratamiento de Señal de Imagen y Multi-Dimensional/Tratamiento de Señal, vol. 4, nº conf. 20, páginas 2197-2200, se refiere al problema de reconstrucción de alta resolución de reconstruir una imagen con buena calidad aún a partir de una secuencia de imágenes de baja resolución que padecen repliegue de espectro entre otros defectos. Las soluciones propuestas tienen componentes que incluyen compensación de movimiento e interpolación. La compensación de movimiento es usada para aplicar el elemento de imagen desde los cuadros de baja resolución disponibles a una rejilla común de alta resolución. Para hacer eso, los vectores de movimiento son calculados. La interpolación implica combinar elementos de imagen que han sido aplicados desde la rejilla de baja resolución a la rejilla de alta resolución para producir una imagen de alta resolución muestreada sobre una rejilla rectangular.
A. Murat Tekalp y col., "Reconstrucción de Imágenes de Alta Resolución a partir de Secuencias de Imágenes de Resolución Inferior y Restauración de Imágenes variables en el Espacio". Ponencias de la Conferencia Internacional sobre Acústica, Voz y Tratamiento de Señales (ICASSP), Estados Unidos de Norteamérica, New-York, IEEE, vol., Conf., 17 1992, páginas 169 - 172, describe información similar a la de Patti A.J. y col. Además, Tekalp y col., han recomendado segmentar una imagen que contiene movimiento en regiones con movimiento uniforme y aplicar reconstrucción separadamente sobre los segmentos.
Una realización del invento procura convertir una señal de imagen submuestreada en una señal de imagen de salida con distorsión de repliegue del espectro reducida o eliminada.
Otra realización del invento pretende generar una imagen de alta resolución a partir de una imagen de baja resolución.
Otra realización del invento pretende mejorar la calidad de una imagen presentable generada a partir de una señal de imagen de entrada de baja calidad.
Aspectos del invento están especificados en las reivindicaciones a las que se invita a prestar atención.
En una realización ilustrativa del invento, se ha previsto un aparato convertidor de señal de imagen para convertir una primera señal de imagen en una segunda señal de imagen, en el que la primera y segunda señales de imagen incluyen cada una una pluralidad de cuadros de imágenes diferentes, comprendiendo los cuadros elementos de imagen dispuestos en direcciones horizontal y vertical. El aparato incluye un detector de movimiento accionable para detectar el movimiento de la primera señal de imagen entre cuadros sucesivos y circuitos de tratamiento para producir la segunda señal de imagen añadiendo, a los elementos de imagen de la primera imagen, elementos de imagen asumidos en la dirección vertical correspondientes al movimiento vertical detectado, y/o elementos de imagen asumidos en la dirección horizontal correspondientes al movimiento horizontal detectado.
El aparato puede ser empleado para producir una señal de salida ya sea con la misma resolución que la primera señal de imagen con distorsión de repliegue del espectro reducida o eliminada, o ya sea con una mayor resolución en las direcciones vertical y/o horizontal. El detector de movimiento detecta preferiblemente el movimiento de la primera señal de imagen por una cantidad más fina que un tamaño de elemento de imagen de la primera señal de imagen. Los circuitos de tratamiento pueden estar compuestos de una memoria creadora de resolución para almacenar una imagen de la primera señal de imagen y que tiene una capacidad de almacenamiento mayor que una cantidad de datos dentro de una imagen de la primera señal de imagen, y un controlador accionable para controlar la escritura de la primera señal de imagen en la memoria creadora de resolución y la lectura de una nueva señal de imagen a partir de la memoria. El controlador escribe la primera señal de imagen en la memoria de acuerdo con el movimiento detectado de la primera señal de imagen.
En otra realización, el aparato convertidor de imágenes incluye un divisor de área para definir al menos una primera y segunda áreas de imagen de una imagen, en las que el movimiento es detectado en cada una de las áreas de imagen. En este caso, la primera y segunda áreas de imagen de la segunda señal de imagen son generadas basadas en una suposición de elementos de imagen en posiciones correspondientes al movimiento detectado en la primera y segunda áreas de imagen respectivas de la primera señal de imagen. Un combinador combina la primera y segunda áreas de imagen de la segunda señal para generar una imagen compuesta.
En una aplicación, la primera señal de imagen puede ser una señal de imagen de definición estándar (SD) que es convertida a una señal de imagen de alta definición (HD) como la segunda señal de imagen que tiene dos veces la resolución de la señal de SD tanto en la dirección horizontal como en la dirección vertical. Para algunos de los cuadros, los elementos de imagen de la señal de HD pueden también ser generados por una técnica de tratamiento de adaptación.
La siguiente descripción detallada, está dada a modo de ejemplo y no está destinada a limitar el presente invento únicamente a ella, será mejor apreciada en unión con los dibujos adjuntos, en los que números de referencia similares indican elementos y partes similares, en los que:
La fig. 1 es un diagrama de bloques de un receptor de televisión ilustrativo de acuerdo con el invento;
Las figs. 2A-2B y 3 son diagramas que ilustran la creación de datos de elementos de imagen de acuerdo con el invento;
La fig. 4 es un diagrama de bloques del corrector de distorsión de la fig. 1;
La fig. 5 es una gráfica que ilustra un método de determinar un vector de movimiento para una imagen;
Las figs. 6-8 ilustran el almacenamiento de datos dentro de una memoria creadora de resolución;
La fig. 9 es un diagrama de flujo que representa una rutina para crear cuadros de alta resolución;
La fig. 10 es un diagrama de bloques de un corrector de distorsión ilustrativo;
La fig. 11 es un diagrama de bloques de otra realización de un receptor de acuerdo con el invento;
La fig. 12 es un diagrama de bloques de un convertidor de resolución ilustrativo dentro del receptor de la fig. 11;
La fig. 13 representa posiciones de almacenamiento de datos de una memoria creadora de resolución del convertidor de la fig. 12;
La fig. 14 es un diagrama de flujo que representa una rutina para escribir datos de imagen dentro de una memoria del convertidor de resolución;
La fig. 15 ilustra el almacenamiento de datos de imagen en el convertidor de resolución de acuerdo con un vector de movimiento de una imagen;
La fig. 16 es un diagrama de flujo que ilustra una rutina para leer datos de imagen a partir de una memoria convertidora de resolución dentro del convertidor de resolución;
La fig. 17 es un diagrama de flujo que representa un proceso para generar datos de elementos de imagen de alta definición.
La fig. 18 es un diagrama de bloques de un circuito para generar datos de imagen de alta definición a partir de datos de imagen de definición estándar empleando coeficientes de predicción;
La fig. 19 es un diagrama que ilustra tomas de clase y tomas de predicción;
La fig. 20 es un diagrama de bloques de un dispositivo de aprendizaje para determinar coeficientes de predicción;
La fig. 21 ilustra el almacenamiento de datos dentro de una memoria creadora de resolución con un área de acceso agrandada;
La fig. 22 ilustra el movimiento cuadro a cuadro de una imagen;
Las figs. 23 y 24 ilustran el almacenamiento de datos de elementos de imagen de la imagen de la fig. 22;
La fig. 25 ilustra líneas de exploración horizontales de una pantalla de presentación de CRT;
La fig. 26 ilustra el submuestreo de una señal de imagen en la dirección vertical; y
La fig. 27 es un diagrama de bloques de otro convertidor de resolución de acuerdo con el invento.
Con referencia a la fig. 1, se ha mostrado un diagrama de bloques simplificado de un receptor de televisión ilustrativo 10 de acuerdo con el presente invento. El receptor 10 convierte una señal de televisión de entrada en una señal digital, corrige la señal digital para la distorsión de repliegue del espectro mientras mejora su resolución, y a continuación convierte la señal digital con la distorsión corregida de nuevo en una señal analógica para presentación.
El receptor 10 incluye un sintonizador 1 para desmodular una señal de transmisión de televisión de entrada de una banda seleccionada, que es recibida por medio de una antena o línea de transmisión. La señal desmodulada es aplicada a un filtro pasa bajos (LPF) 2, que funciona como un filtro previo de distorsión de repliegue del espectro para filtrar componentes de frecuencia elevada de la señal de televisión. La señal de salida filtrada del LPF 2 es aplicada a un convertidor 3 analógico a digital (A/D) en el que es muestreada y digitalizada. La señal digitalizada es a continuación proporcionada al corrector de distorsión 4 que reduce o elimina esencialmente la distorsión de repliegue del espectro en la dirección vertical de la señal de televisión digitalizada. Un circuito de tratamiento de imagen tal como un separador 5 de Y/C es empleado entre el corrector de distorsión 4 y el convertidor 6 D/A (o alternativamente entre el sintonizador 1 y el LPF 2). El separador 5 de Y/C separa la luminancia de la crominancia en la señal de salida procedente del corrector de distorsión 4. Se ha observado que en la configuración mostrada, una señal compuesta (luminancia más crominancia) es alimentada a un convertidor 3 A/D, y el muestreo es realizado de acuerdo con la frecuencia de la subportadora de luminancia. Si, en la alternativa, la separación de Y/C de la señal de televisión es realizada antes de que la señal sea aplicada al convertidor 3 A/D, a continuación podría realizarse el muestreo a una frecuencia del orden de 13,5 MHz. En cualquier caso, el convertidor 6 de D/A convierte la señal de salida con la distorsión corregida del corrector de distorsión 4 de nuevo en una señal analógica que ha de ser presentada en CRT 7.
La reproducción de una imagen original a partir de una imagen que tiene distorsión de repliegue del espectro en la dirección vertical, es decir, normal a las líneas de exploración horizontal, será descrita a continuación. Con referencia a la fig. 2A, se ha ilustrado lo principal de un método de eliminación de distorsión de repliegue de espectro realizado dentro del corrector de distorsión 4. La variación de la señal de imagen en la dirección vertical dentro de una columna dada C_{1} de cada cuadro de la imagen está designada como señales S_{N} a S_{N+4} para cuadros N a N+4, respectivamente. Los elementos de imagen P_{1} a P_{k} de columna C_{1} en cada cuadro están situados en las posiciones respectivas de líneas de exploración horizontal tradicionales SL_{1}-SL_{k}. El nivel de señal de cada elemento de imagen está ilustrado horizontalmente en la figura - por ejemplo, en el cuadro N, los niveles de señal V_{1}-V_{k} corresponden a los elementos de imagen P_{1}-P_{k}, respectivamente.
De acuerdo con una realización del presente invento, los elementos de imagen son creados en posiciones entre las líneas de exploración horizontal tradicionales para eliminar la distorsión de repliegue del espectro y, opcionalmente, para mejorar la resolución de la imagen presentada. Estos elementos de imagen entre líneas de exploración son creados de acuerdo con el movimiento de la imagen de cuadro a cuadro. Para ilustrar este concepto, se ha hecho primero referencia al cuadro N, en el que se ha mostrado la variación de señal de una imagen original S_{N} a lo largo de la columna C_{1} para ese cuadro. Debido a las frecuencias espaciales elevadas dentro de la señal S_{N}, el muestreo vertical en posiciones que corresponden a las líneas de exploración horizontales es insuficiente para reproducir toda la información de imágenes en él, por lo que la distorsión de repliegue del espectro resultaría sin el método de creación de elemento de imagen del invento. Es decir, la señal de imagen orientada verticalmente basada simplemente en muestrear simplemente un cuadro cada vez en las líneas de exploración horizontal tradicionales se parecería a una señal distorsionada S_{N}' (mostrada como una línea de trazos), que es marcadamente diferente a partir de la señal de imagen
original S_{N}.
Para generar elementos de imagen entre líneas de exploración que vuelven a capturar la imagen original, se detecta el movimiento de cuadro a cuadro de la señal de imagen. Para el cuadro N, los valores de señal V_{1}-V_{k} para los elementos de imagen respectivos son almacenados en la memoria. El movimiento de la imagen es a continuación detectado entre el cuadro N y N+1. (Métodos ilustrativos de detección del movimiento de cuadro a cuadro serán descritos posteriormente). En el ejemplo de la fig. 2A, la imagen se mueve hacia abajo en una distancia D_{1} entre los cuadros N y N+1. Para el cuadro N+1, la imagen es de nuevo muestreada en las líneas de exploración horizontal para generar valores de señal V_{1}'-V_{k}' para elementos de imagen P_{1}-P_{k} de cuadro N+1 y esos valores son almacenados en memoria. Además, los elementos de imagen entre líneas de exploración P_{1a}, P_{2a}, ... P_{ka} son creados y almacenados en memoria, en la que el elemento de imagen P_{1a} tiene el valor de señal de V_{1} determinado a partir de la muestra del cuadro N para el elemento de imagen P_{1}, elemento de imagen P_{2a} tiene el valor de señal de V_{2} determinado a partir de la muestra del cuadro N para el elemento de imagen P_{2}, y así sucesivamente. La situación del elemento de imagen P_{1a} en el cuadro N+1 es la distancia D_{1} desde la línea de exploración SL_{1}, determinada basada en el movimiento desde el cuadro N al N+1. De modo similar, el elemento de imagen P_{2a} está situado a la distancia D_{1} por debajo de la línea de exploración SL_{2}.
El proceso de generación de elementos de imagen es repetido para el cuadro N+2, en el que la señal de imagen S_{N+2} es muestreada en las líneas de exploración horizontal para determinar valores de señal V_{1}'' - V_{K}'' para elementos de imagen respectivos P_{1}-P_{K} de ese cuadro, y es detectado el movimiento desde el cuadro N+1 hasta el cuadro N+2. Suponiendo que la imagen se mueve hacia abajo en una distancia D_{2}, los elementos de imagen P_{1b}, P_{2b}, ..., P_{Kb} son generados con valores de V_{1}', V_{2}', ... V_{K}' correspondientes a los valores previamente determinados almacenados en memoria para el cuadro N+1, y cada uno situado a una distancia D_{2} por debajo de la línea de exploración horizontal respectiva SL_{1}. De modo similar, el cuadro N+2 contiene los elementos de imagen P_{1a}, P_{2a}, ..., P_{Ka} que tiene valores de V_{1}, V_{2}, ... V_{K}, respectivamente, como almacenados previamente en memoria para el cuadro N+1, y cada uno situado a una distancia (D_{1}+D_{2}) por debajo de SL_{1}.
El proceso de generación de elementos de imagen prosigue para los cuadros subsiguientes hasta que se genera un número predeterminado de elementos de imagen adicionales. En el ejemplo de la fig. 2A, el proceso continua hasta el cuadro N+4, que tiene cinco veces tantos elementos de imagen en la dirección vertical como en el cuadro N. La fig. 2B muestra los elementos de imagen entre las líneas de exploración SL_{1} y SL_{2} del cuadro N+4. Se ha supuesto que la imagen movida hacia abajo en una distancia D_{1} entre los cuadros N+2 y N+3, y en una distancia D_{4} entre los cuadros N+3 y N+4. Así, el cuadro N+4 tiene un elemento de imagen P_{1} de valor V_{1}'''' correspondiente al nivel de señal S_{N+4} en la posición SL_{1}, así como elementos de imagen P_{1d}, P_{1c}, P_{1b} y P_{1a} de valores V_{1}''', V_{1}'', V_{1}' y V_{1} respectivamente, donde P_{1d} está a una distancia D_{4} por debajo de SL_{1}, P_{1c} está a una distancia (D_{3}+D_{4}) por debajo de SL_{1}, y así sucesivamente. Desde luego, pueden generarse más o menos elementos de imagen adicionales como una función de la resolución deseada. En cualquier caso, en el presente ejemplo, todos los cuadros subsiguientes al cuadro N+4 tendrán cinco veces tantos elementos de imagen en la dirección vertical como el número de líneas de exploración horizontal.
Consiguientemente, la generación de elementos de imagen es realizada suponiendo elementos de imagen en posiciones correspondientes al movimiento. Prácticamente, sin embargo, es deseable representar una imagen con muestras espaciadas uniformemente. En el ejemplo anterior, si el movimiento entre cuadros no es uniforme de tal forma que las distancias D_{1}-D_{4} sean desiguales, los elementos de imagen que son creados serán especiados de forma no uniforme. Sin embargo, redondeando apropiadamente el movimiento entre cuadros, los elementos de imagen de separación uniforme pueden ser derivados y almacenados en memoria. Suponiendo que el cuadro N+4 está así representado por elementos de imagen espaciados uniformemente en la dirección vertical (hasta cinco veces el número de líneas de exploración en este ejemplo), cada cuadro después de ello puede ser representado por el mismo número de elementos de imagen espaciados uniformemente.
En el ejemplo de la fig. 2A, se ha supuesto que el movimiento entre cuadros de la imagen era estrictamente en la dirección vertical. Para eliminar la distorsión de repliegue del espectro y aumentar el número de elementos de imagen en la dirección vertical cuando la imagen original se está moviendo tanto en la dirección horizontal como en la vertical, el movimiento horizontal también debe ser tenido en cuenta. A este fin, un vector de movimiento es calculado de cuadro a cuadro como será descrito de forma más completamente a continuación. Además, partes diferentes de la imagen dentro del cuadro se mueven típicamente en direcciones diferentes. Ciertas realizaciones del invento tienen en cuenta tal movimiento divergente también analizando bloques diferentes de cada cuadro separadamente.
La fig. 3 es un diagrama que ilustra el concepto general de mejorar la resolución y eliminar el repliegue del espectro creando elementos de imagen basados en datos de imagen a partir de cuadros previos y movimiento de imagen de cuadro a cuadro. La parte superior del diagrama muestra cuadros N a N+3 con datos de imagen 101-104, respectivamente, a lo largo de líneas de exploración horizontal comunes. Suponiendo que la imagen se mueve hacia debajo por incrementos desde el cuadro N a N+3, son generados elementos de imagen adicionales entre las líneas de exploración basados en los datos a partir del cuadro previo y el movimiento de imagen como se ha descrito antes. Así, el cuadro N+1 es mejorado con datos 101 de elemento de imagen de cuadro N; los datos 101, 102 de elemento de imagen son añadidos al cuadro N+2 y los datos 101, 102 y 103 de elemento de imagen son añadidos al cuadro N+3 para generar una imagen de alta resolución con cuatro veces tantos elementos de imagen en la dirección vertical en comparación con el cuadro original.
Con referencia ahora a la fig. 4, se ha representado un diagrama de bloques de una configuración ilustrativa para el corrector de distorsión 4. Una memoria de cuadro 11 recibe datos de imagen de entrada aplicados al corrector de distorsión. Los datos de imagen de entrada se suponen que corresponden a una señal de imagen submuestreada tal que la distorsión de repliegue del espectro resultaría normalmente si los cuadros fueran reproducidos simplemente sin que sean añadidos elementos de imagen que mejoran la resolución. La memoria de cuadro 11 está compuesta de una memoria de cuadro actual 11A para almacenar datos de imagen de un cuadro actual y una memoria de cuadro precedente 11B que almacena datos de imagen del cuadro que precede inmediatamente al cuadro actual. Un detector de movimiento 12 detecta un vector de movimiento que expresa el movimiento del cuadro actual con relación al cuadro precedente. Tal movimiento entre cuadros es detectado por una cantidad más fina en la dirección vertical que el tamaño de un elemento de imagen (o separación de elemento de imagen a elemento de imagen) dentro de la imagen distorsionada. Para la presente descripción, se ha supuesto que la imagen de un cuadro completo se mueve simultáneamente, de tal forma que el movimiento del cuadro precedente al cuadro corriente es el mismo para todas las partes de cada cuadro. Para este caso, sólo un vector de movimiento es detectado por el detector 12 para cada cuadro. El vector de movimiento es proporcionado al controlador 14.
Un método para determinar el vector de movimiento es realizar varias comparaciones entre bloques de elementos de imagen de tamaños idénticos en cuadros adyacentes, por ejemplo, bloques de elementos de imagen de 8x8 o de 16x16. Comenzando con un bloque sujeto del cuadro actual, las características de imagen de varios bloques en el cuadro precedente (bloques de referencia) son comparadas con el bloque sujeto. Cuando un bloque de referencia en el cuadro precedente es encontrado con las características de imagen más próximas al bloque sujeto, puede concluirse que ese bloque de referencia movido a la posición del bloque sujeto, y el vector de movimiento pueden ser determi-
nados.
Un bloque sujeto es comparado con un bloque de referencia calculando la diferencia en valor absoluto entre valores de elemento de imagen de los elementos de imagen en el bloque sujeto a elementos de imagen correspondientes del bloque de referencia. Así, el valor de señal del elemento de imagen P_{11} (fila 1, columna 1) en un bloque sujeto es sustraído del valor de señal del elemento de imagen P_{11} en el bloque de referencia, y así sucesivamente. El valor de diferencia es referido como el error. Los errores de cada bloque de referencia con respecto al bloque sujeto son sumados, el bloque de referencia con el error total mínimo es determinado, y el vector de movimiento es determinado como estando aproximadamente en la dirección correspondiente a la relación posicional entre ese bloque de referencia y el bloque sujeto. Más específicamente, como se ha mostrado en la fig. 5, se ha realizado una interpolación lineal entre los bloques de referencia para determinar más exactamente el vector de movimiento. La intersección de un par de líneas interpoladas linealmente de pendiente opuesta define la posición relativa en la que tiene lugar el error mínimo entre el bloque sujeto y un bloque de referencia hipotético. La intersección define el vector de movimiento con respecto al bloque sujeto.
Continuando con referencia a la fig. 4, un detector de cambio de escena 13 es empleado para detectar un cambio de escena de la señal de televisión analizando diferencias entre imágenes de cuadro a cuadro. Generalmente, si las diferencias entre imágenes del cuadro actual y el cuadro precedente sobrepasan un umbral predeterminado, un cambio de escena es detectado. Los métodos para detectar cambios de escena son bien conocidos en la técnica. Por ejemplo, un detector de cambio de escena 13 puede ser configurado para analizar errores entre bloques sustanciales y bloques de referencia de un modo similar a la determinación de un vector de movimiento, y al encuentro de los valores de error mínimos para los bloques sujetos respectivos que forman el cuadro actual. Si la suma total de los valores de error mínimos para los bloques respectivos sobrepasa un umbral predeterminado, se detecta un cambio de escena y se proporciona una señal de cambio al controlador 14.
El controlador 14 controla la escritura de datos desde la memoria de cuadro 11 a una memoria creadora de resolución 15 de acuerdo con el vector de movimiento suministrado desde el detector de movimiento 12 y la señal desde el detector de cambio de escena 13. La memoria creadora de resolución 15 es capaz de almacenar más datos de imagen que los datos contenidos dentro de un cuadro de baja resolución en la memoria de cuadro 11 de modo que almacene cuadros de alta resolución creados de nuevo que están desplazados secuencialmente. El controlador 14 controla la escritura de datos de imagen desde la memoria 11 a la memoria 15 determinando direcciones de almacenamiento apropiadas dentro de la memoria 15 de acuerdo con el vector de movimiento. Cuadros de alta resolución son creados dentro de la memoria 15 de una manera similar a como se ha descrito antes en conexión con la fig. 2A. Brevemente, para crear elementos de imagen entre líneas de exploración (elementos de imagen que mejoran la resolución), datos de la memoria de cuadro actual 11A (o de la memoria de cuadro precedente 11B) son transferidos a un "cuadro" de alta resolución de memoria 15 en las mismas posiciones de elemento de imagen dentro del cuadro de acuerdo con las líneas de exploración. Los datos de imagen del cuadro siguiente son escritos a continuación en la memoria 15 en posiciones trasladadas de acuerdo con el vector de movimiento. El controlador 14 suministra un indicador de dirección relativa a la memoria 15 para efectuar la transferencia de datos a las posiciones trasladadas, mientras deja al menos alguno de los datos de imagen del cuadro previo almacenado en la memoria 15 intacta en las mismas posiciones de almacenamiento. Una vez que se ha creado un cuadro, es transferido fuera de la memoria 15 al filtro pasa bajos vertical 16 bajo el control del controlador 14.
Se ha observado que después de un cambio de escena, tomaría el tiempo requerido para recibir y procesar varios cuadros de baja resolución para un verdadero cuadro de alta resolución que ha de ser creado, como es evidente de la fig. 2A. Así, cuando tiene lugar un cambio de escena, la interpolación entre los datos de imagen de baja resolución puede ser realizada para crear inicialmente elementos de imagen adicionales en la memoria 15.
La fig. 6 ilustra el almacenamiento de datos de imagen dentro de la memoria creadora de resolución 15. La memoria 15 es capaz de almacenar datos de imagen de elementos de imagen P_{H}' en la dirección horizontal (línea de exploración), y de elementos de imagen P_{V}' en la dirección vertical. A modo de ejemplo, se supondrá en la descripción siguiente que P_{H}' > P_{H} y P_{V}' > 4P_{V}, donde P_{H} y P_{V} son el número de elementos de imagen en las direcciones horizontal y vertical, respectivamente, para cuadros de baja resolución almacenados dentro de la memoria de cuadro 11. Para este caso, la memoria creadora de resolución 15 es capaz de almacenar un mayor número de elementos de imagen en la dirección horizontal y más de cuatro veces el número de elementos de imagen en la dirección vertical que la imagen de baja resolución. Como se han usado aquí más adelante, los términos "imagen distorsionada" o "datos distorsionados" serán usados para referirse a la imagen o datos cuando están almacenados dentro de la memoria de cuadro 11, cuyos datos corresponden a una imagen submuestreada en la dirección vertical. Como se ha explicado previamente, sin embargo, una imagen reproducida distorsionada sólo resultaría si los datos fueran leídos directamente desde la memoria de cuadro 11 y reproducidos cuadro por cuadro. En la presente realización, los datos de imagen "distorsionados" son usados para crear una imagen generada no distorsionada.
Dentro de la memoria creadora de resolución 15, puede definirse una posición de almacenamiento de datos con una dirección absoluta y también con una dirección relativa. La fig. 6 representa el almacenamiento de datos de acuerdo con direcciones absolutas, en que las direcciones absolutas abarcan todas las posiciones de almacenamiento de la memoria 15. La primera fila y columna del área de almacenamiento de dirección absoluta están designadas como fila 0 y columna 0. Como tal, un elemento de imagen en la (i+1) ésima fila y (j+1) ésima columna es designado con una dirección absoluta de (i, j).
Como se ha mostrado en la fig. 7, dentro de la disposición o matriz de almacenamiento de dirección absoluta de la memoria 15 hay definida un área de acceso 15a que corresponde a elementos de imagen P_{H} x 4 P_{V}. La posición del punto superior izquierdo del área de acceso 15a está definida por un indicador de dirección relativa R_{P}, designado como una flecha en la fig. 7. El indicador de dirección R_{P} puede realmente ser una palabra código suministrada por el controlador 14 a los circuitos de control (no mostrados) dentro de la memoria 15. El indicador de dirección funciona para controlar dónde han de escribirse los datos de imagen entrantes. Como sucede para el mayor área de dirección absoluta, el área de acceso 15a también comienza con una fila 0 y una columna 0.
La fig. 8 ilustra cómo los datos de imagen que se originan desde la memoria de cuadro 11 son escritos en el área de acceso 15a. En la dirección horizontal del área de acceso, son almacenados datos de imagen del mismo número de elementos de imagen que en un cuadro de la memoria de cuadro 11, mientras que en la dirección vertical, son almacenados datos de cuatro veces más elementos de imagen. Así, como se ha mostrado por el área sombreada en la fig. 8, la escritura de una imagen distorsionada a partir de la memoria de cuadro 11 en el área de acceso 15a en la dirección horizontal es realizada secuencialmente desde la dirección definida por el indicador de dirección R_{P}, pero en la dirección vertical es realizada cada cuarta línea. Los datos de elemento de imagen entre las líneas de exploración, por ejemplo, en las filas 1-3, 5-7, etc., en la rejilla de la fig. 8, son creados y almacenados de acuerdo con el vector de movimiento para generar un cuadro de alta resolución en la dirección vertical. Para realizar una mayor resolución que la de la imagen distorsionada, el vector de movimiento es detectado en unidades más finas que el tamaño del elemento de imagen de los cuadros en la memoria de cuadro 11.
El almacenamiento de datos dentro de la memoria creadora de resolución 15 será explicado ahora en mayor detalle con referencia al diagrama de flujo de la fig. 9. Cuando el controlador 14 recibe una señal desde el detector 13 de cambio de escena indicativa de un cambio de escena desde el cuadro precedente al cuadro actual, repone (borra) todos los datos en la memoria 15 (operación S1). Se ha observado aquí que una señal de cambio de escena será también recibida cuando el primer cuadro de datos es recibido por la memoria de cuadro 11. (Si el primer cuadro de datos es recibido o ha ocurrido un cambio de escena, la operación del controlador 14 es la misma). En la operación S2, el controlador 14 hace que los datos distorsionados de la memoria de cuadro actual 11A sean escritos en el área de acceso 15a cada cuarta línea como se ha mostrado en la fig. 8. En este punto, hay espacios presentes en el área de acceso 15a entre las posiciones de almacenamiento correspondientes a las líneas de exploración, ya que estas posiciones fueron previamente repuestas. Estos espacios son llenados por medio de interpolación realizada por el controlador 14 en la operación S3. Es decir, el controlador 14 calcula los valores interpolados para los elementos de imagen entre líneas de exploración y hace que esos valores sean almacenados como datos dentro del área de acceso 15a. Los datos de imagen que incluyen los valores interpolados son a continuación leídos desde la memoria 15 en la operación S4 y enviados al filtro pasa bajos vertical 16.
En la operación S5, los datos en la memoria de cuadro actual 11a son desplazados a la memoria de cuadro previa 11B, el siguiente cuadro de datos es recibido y almacenado dentro de la memoria de cuadro actual 11A, y de nuevo se determina si ha ocurrido un cambio de escena. Si no, el movimiento es detectado por el detector de movimiento 12 (operación S6) y un vector de movimiento es calculado. El controlador 14 mueve a continuación el indicador de dirección relativa de acuerdo con el movimiento (operación S7) y los datos son escritos en el cuadro de alta resolución dentro de la memoria 15 de acuerdo con el vector de movimiento. Esta operación puede ser ejecutada de diferentes formas. Una forma sería transferir los datos previos almacenados dentro del área de acceso 15a a una memoria tampón temporal dentro del controlador 14, y a continuación volver a escribir los datos de nuevo en el área de acceso 15a, pero desplazados de acuerdo con el vector de movimiento. Después del desplazamiento, los datos de la memoria de cuadro actual 11A (que no han sido aún escritos en la memoria 15) se escribirían en el mismo área de acceso 15a establecida previamente, es decir, en las mismas posiciones de línea de exploración, en cada cuarta línea. Como tal, algunos de los datos previos se sobrescribirían. Con esta acción, los datos de cuadro de alta resolución previos serían desplazados cada cuadro de acuerdo con el movimiento, como se ha ilustrado previamente en la figs. 2A y 3 donde los datos procedentes de cada cuadro precedente fueron cambiados secuencialmente en correspondencia directa con el movimiento. (Una diferencia, sin embargo, es que no se han supuesto datos interpolados en los métodos de las figs. 2A o 3 - se supusieron espacios en el cuadro de alta resolución hasta el quinto cuadro en la fig. 2A y hasta el cuarto cuadro de la fig. 3).
Mientras la acción anterior de desplazar las posiciones de almacenamiento de los datos de alta resolución en relación directa al vector de movimiento bastarán para crear un cuadro de alta resolución apropiado, una acción preferida es mantener los datos previos en el área de acceso 15a en las mismas posiciones de almacenamiento, mientras se escriben los nuevos datos de baja resolución de la memoria de cuadro actual 11A a posiciones desplazadas con relación a los datos previos dentro del área de acceso. En otras palabras, los datos del cuadro N+1 serán escritos en posiciones de almacenamiento con direcciones absolutas diferentes que los datos del cuadro N siempre que el vector de movimiento para el cuadro N+1 no sea cero. Al mismo tiempo, las direcciones absolutas de los datos previos en la memoria 15 permanecen las mismas, así el efecto neto es un desplazamiento de los datos previos con respecto a los nuevos datos. Esta acción es realizada simplemente desplazando el indicador de dirección relativa en correspondencia con el vector de movimiento, pero en la dirección opuesta. Así, las direcciones relativas de los datos (distorsionados) de baja resolución permanecerán iguales (por ejemplo, filas 0, 4, etc., como se ha mostrado en la fig. 8), pero las direcciones relativas de los datos de cuadro de alta resolución precedentes cambiarán en relación directa al vector de movimiento. En esencia, el área de acceso física 15a de la memoria 15 se desplazará con cada nuevo indicador de dirección relativa.
Con cada nuevo vector de movimiento, el indicador de dirección relativa se mueve el mismo número de elementos de imagen que el número de elementos de imagen en el componente horizontal del vector de movimiento. En la dirección vertical, sin embargo, el indicador de dirección relativa se mueve cuatro veces tantos elementos de imagen de alta resolución como el número de elementos de imagen de baja resolución en la componente vertical del vector de movimiento (ya que hay cuatro veces tantos elementos de imagen en la dirección vertical del cuadro de alta resolución como en el cuadro de baja resolución). Naturalmente, el indicador de dirección relativa está redondeado al elemento de imagen más próximo correspondiente al vector de movimiento (o el vector de movimiento está redondeado). Así, por ejemplo, si la componente vertical del vector de movimiento está entre 1/8 y 3/8 del tamaño de un elemento de imagen de baja resolución original, entonces el indicador de dirección relativa será cambiado por una unidad vertical. (Alternativas para el redondeado simple del vector de movimiento serán descritas posteriormente).
Continuando con referencia a la fig. 9, la escritura de los nuevos datos de imagen (distorsionada) de baja resolución en la memoria 15 de acuerdo con el indicador de dirección relativa (operación S8) crea un nuevo cuadro de alta resolución, que es a continuación leído a la LPF 16 vertical en la operación S9. Si, en la operación S10 se ha determinado que los datos de baja resolución no han sido ya aplicados en a la memoria de cuadro 11, la rutina termina; de otro modo, la rutina vuelve a S5 donde el proceso es repetido para cada cuadro subsiguiente de datos de imagen de entrada.
Consiguientemente, repitiendo las operaciones S5 a S9 varias veces sin un cambio de escena, los datos interpolados que llenaban los espacios entre las muestras de línea de exploración son sustituidos secuencialmente por muestras de imagen. Varios cuadros después de un cambio de escena, los cuadros de imagen resultan verdaderas imágenes de alta resolución, y cuando la mayor frecuencia en la dirección vertical contenida dentro de la imagen original es inferior a ½ la frecuencia correspondiente a ¼ del período de exploración horizontal de la imagen distorsionada, la imagen reproducida no tendrá distorsión de repliegue del espectro en la dirección vertical.
Volviendo a la fig. 4, la LPF 16 vertical funciona para limitar componentes de alta frecuencia en los datos de imagen a partir de la memoria creadora de resolución 15 filtrando en la dirección vertical con un filtro pasa bajos. El propósito de tal filtrado es impedir la distorsión de repliegue del espectro incluso cuando la imagen que ha de ser reproducida subsiguientemente es una imagen de baja resolución. Por ejemplo, si sólo hay disponible una presentación de baja resolución, se presentará una imagen de baja resolución, pero nunca con la distorsión de repliegue del espectro eliminada. Consiguientemente, cuando la imagen es reproducida subsiguientemente, el espectador no percibirá una imagen que se mueve de forma antinatural o borrosa. La señal de salida de la LPF 16 vertical es aplicada a una memoria de cuadro 17 que puede tener la misma capacidad de almacenamiento de área de acceso 15a de la memoria 15. La memoria de cuadro 17 almacena temporalmente los datos de imagen, que son a continuación leídos, por ejemplo, cada cuarta línea para producir una imagen de baja resolución del mismo número de líneas que la imagen distorsionada original pero con la distorsión de repliegue del espectro eliminada.
Consiguientemente, el método antes descrito mejora la calidad de la imagen y hace posible impedir los inconvenientes que acompañan a ciertas operaciones de tratamiento de señal tales como la separación de Y/C, la reducción de ruido, y así sucesivamente.
Será fácilmente apreciado por los expertos en la técnica que la técnica antes descrita de crear una imagen de alta resolución a partir de una imagen submuestreada de acuerdo con el vector de movimiento de cuadro a cuadro, luego filtrar la misma con una LPF vertical y leer sólo una imagen de baja resolución, producirá una imagen de salida con la distorsión de repliegue del espectro eliminada. Por otro lado, si los datos de imagen de baja resolución introducidos fueron simplemente aplicados a la LPF vertical, tal eliminación de la distorsión de repliegue del espectro no sería realizada.
Si el CRT 6 es capaz de presentar una imagen de alta resolución usando más líneas de exploración horizontal que las de los cuadros submuestreados (por ejemplo, cuatro veces las líneas de exploración), entonces los datos de imagen podrían ser emitidos directamente para su presentación. Así, para este caso, la LPF 16 vertical no se utilizaría, los datos serían directamente alimentados a la memoria de cuadro 17, y los datos serían leídos desde la misma para presentar línea por línea en vez de cada cuatro líneas.
Cuando la frecuencia más elevada en la dirección vertical contenida en la imagen original es mayor que la mitad de la frecuencia que corresponde a una cuarta parte del período de exploración horizontal, el teorema de muestreo no sería satisfecho con la aproximación anterior de generar cuatro veces tantos elementos de imagen, y la distorsión de repliegue del espectro en la dirección vertical no sería completamente eliminada. Sin embargo, el método sería útil aún porque la distorsión de repliegue del espectro sería reducida sustancialmente.
Mientras en la realización anterior el número de elementos de imagen en la dirección vertical es aumentado por un factor de cuatro, en la alternativa, pueden crearse más o menos elementos de imagen entre líneas de exploración, para el propósito de presentar imágenes de baja resolución o de alta resolución con distorsión de repliegue del espectro reducida.
Para el corrector 4a de distorsión descrito antes, se ha supuesto que la imagen completa de cualquier cuadro dado movida simultáneamente, es decir, en la misma dirección y por la misma distancia de cuadro a cuadro. En otras palabras, se ha supuesto que el vector de movimiento para todas las partes de cada cuadro era el mismo. Esa suposición es generalmente válida para ciertas aplicaciones tales como operaciones de panoramización e inclinación. Sin embargo, en la mayoría de las aplicaciones de vídeo, partes diferentes de cada cuadro se mueven a diferentes tasas y/o en diferentes direcciones. Las realizaciones del presente invento que han de ser descritas más adelante son capaces de reducir la distorsión de repliegue del espectro al tiempo que tienen en cuenta tal movimiento independiente.
Con referencia ahora a la fig. 10, se ha mostrado un diagrama de bloques de otra realización ilustrativa de un corrector de distorsión de acuerdo con el invento. El corrector de distorsión 4b tiene la capacidad de discernir el movimiento cuadro a cuadro para múltiples partes de cada cuadro, y generar cuadros de alta resolución basados en el movimiento. Los cuadros de alta resolución pueden ser empleados para generar imágenes de baja o alta resolución, con la distorsión de repliegue del espectro eliminada en cualquier caso.
El corrector de distorsión 4b incluye esencialmente la misma memoria de cuadro 11, el detector de movimiento 12, el detector 13 de cambio de escena, el filtro pasa bajos vertical 16 y la memoria de cuadro 17 como se ha descrito antes para el corrector de distorsión 4a. El detector de movimiento 12 se ha descrito antes como operativo para determinar un vector de movimiento de un bloque sujeto de cuadro actual, por ejemplo, de elementos de imagen de 8x8 o 16x16, a partir del cuadro precedente analizando diferencias entre el bloque sujeto y una pluralidad de bloques de referencia del cuadro previo. En el corrector de distorsión 4a, el vector de movimiento de un bloque sujeto fue suficiente para determinar el movimiento de la imagen de cuadro completa. Por otro lado, con el corrector de distorsión 4b, se han determinado varios vectores de movimiento para cada cuadro, correspondiendo cada uno a un bloque sujeto diferente. Los vectores de movimiento de los distintos bloques sujeto son proporcionados para un divisor de área 21 que divide el área de cuadro en múltiples áreas para operaciones de tratamiento independientes. Las áreas son definidas basadas en los vectores de movimiento, diferencias entre elementos de imagen adyacentes, y por medio de otras operaciones necesarias tales como alisado, etc. A modo de ejemplo, si una escena incluye un objeto fijo o que se mueve lentamente tal como un fondo y un objeto que se mueve rápidamente como un aeroplano, el divisor de área 21 definiría un primer área del cuadro como correspondiente al fondo y un segundo área correspondiente al aeroplano. En la fig. 10, el divisor de área 21 está destinado a definir dos áreas por cuadro; sin embargo, se ha comprendido que puede alternativamente ser configurado para dividir cada cuadro en tres o más áreas en lugar de sólo en dos áreas.
Una vez que el divisor de área 21 define las áreas de imágenes para el cuadro actual, controla la lectura de datos de imagen procedentes de la memoria de cuadro actual 11A controlando los conmutadores 22A y 22B de manera que sólo los datos de imagen procedentes del primer área sean dirigidos a través del conmutador 22A para su almacenamiento temporal en una memoria 23A, y sólo datos procedentes del segundo área sean dirigidos a través del conmutador 22B para su almacenamiento dentro de la memoria 23B. El divisor de área 21 también proporciona un vector de movimiento para una región dentro del primer área al controlador 14A y un vector de movimiento para una región dentro del segundo área al controlador 14B. El detector 13 de cambio de escena suministra señales de cambio de escena a controladores 14A y 14B. El controlador 14A controla la escritura de datos desde la memoria 23A a la memoria creadora de resolución 15a cambiando dinámicamente un indicador de dirección relativa basado en el vector de movimiento en el primer área de cada cuadro. Consiguientemente, se han creado elementos de imagen entre líneas de exploración en posiciones de acuerdo con el vector de movimiento esencialmente del mismo modo que como se ha descrito previamente. Un cuadro o parte de cuadro de alta resolución con, por ejemplo, cuatro veces tanta resolución en la dirección vertical como en la memoria de cuadro 11A es por ello creada en la memoria 15A. De modo similar, los datos de imagen del segundo área de cuadro son transferidos desde la memoria 23B a la memoria 15B bajo el control del controlador 14B de acuerdo con el segundo vector de movimiento para producir un cuadro de alta resolución o
p = parte de cuadro en la memoria 15B. Es decir, cada uno de los controladores 14A y 14B funciona en unión con las memorias 15A y 15B, respectivamente, determinando dinámicamente indicadores de dirección respectivos del mismo modo que se ha descrito anteriormente para el controlador 14 y la memoria 15 de la fig. 4, excepto en que sólo una parte de la imagen total es aumentada y almacenada dentro de cada memoria 15A y 15B.
Los datos de cada cuadro de alta resolución creados dentro de las memorias 15A y 15B son transferidos a un combinador 24 bajo el control de los controladores 14A y 14B, respectivamente. El combinador 24 combina los datos de las dos partes de cuadro para producir datos de imagen de un cuadro compuesto y proporciona el mismo al LPF 16 vertical. Así, los datos de imagen de salida del combinador 24 son similares a los de la memoria 15 en el corrector de distorsión 4a. El LPF 16 vertical y la memoria de cuadro 17 realizan los mismos procesos como se ha descrito previamente para producir una imagen de baja resolución con la distorsión de repliegue del espectro eliminada. Por el contrario, si se desea una imagen de alta resolución, el LPF vertical puede ser puenteado o designado con una respuesta de frecuencia diferente como se ha discutido anteriormente.
Mientras los correctores de distorsión 4a y 4b han sido descritos como operativos para crear elementos de imagen entre líneas de exploración en la dirección vertical basado en el vector de movimiento (es decir, el vector de movimiento que corresponde tanto al movimientos vertical como horizontal de la imagen), pueden crearse también datos de imagen para elementos de imagen adicionales en la dirección horizontal. Es decir, los elementos de imagen de alta resolución pueden también ser creados en la memoria 15 (o memorias 15A, 15B) en posiciones entre las posiciones de elemento de imagen de baja resolución en la dirección horizontal de forma análoga a como se ha descrito para la dirección vertical. Como resultado, la distorsión de repliegue del espectro puede además ser eliminada en la dirección horizontal y puede obtenerse mayor resolución horizontalmente también.
Existe un caso especial en el que un área de acceso queda fuera del área de almacenamiento de la memoria creadora de resolución 15 (o 15A, 15B) de acuerdo con la posición del indicador de posición relativa. Para este caso, los datos de la región que ha quedado fuera pueden ser retenidos expandiendo el área de almacenamiento de la memoria creadora de resolución en un área contigua. Suponiendo que X \geq P_{H}' e Y \geq P_{V}', cuando una posición expresada por una dirección absoluta (X, Y) está incluida en el área de acceso, la posición es retenida en una dirección absoluta de (mod(X, P_{H}'), mod (Y, P_{V}') en el área de almacenamiento de la memoria 15 (donde mod (a, b) expresa el residuo cuando "a" es dividida por "b"). Otra forma de retener los datos swollen out es volver a colocar el área de acceso que incluye los datos más recientes retenidos en ella, por el controlador 14 transfiriendo todos los datos a una memoria tampón y a continuación volviendo a escribirlos en un nuevo área de acceso usando un nuevo indicador de dirección.
En las realizaciones descritas con anterioridad, se han creado cuadros de alta resolución por medio de la suposición de elementos de imagen entre líneas de exploración en posiciones que corresponden a los vectores de movimiento. Los cuadro de alta resolución son a continuación empleados para generar imágenes de baja o alta resolución con la distorsión de repliegue del espectro reducida (o eliminada).
Aparte de eliminar la distorsión repliegue de espectro, el presente invento tiene otras aplicaciones tales como para producir imágenes agrandadas con resolución mejorada, o para convertir una imagen de resolución baja o estándar (a continuación denominada como una imagen de SD) en una imagen de alta resolución (en lo que sigue denominada como una imagen de HD).
Con referencia ahora a la fig. 11, se ha mostrado un diagrama de bloques de una realización ilustrativa de un receptor de televisión 100 que convierte una señal de televisión que contiene una imagen de SD en una imagen de HD para presentar. El receptor 100 difiere del receptor 10 de la fig. 1 porque emplea un convertidor de resolución 34 en lugar de un corrector de distorsión 4 y un CRT 36 de alta resolución en lugar del CRT 7. Los otros componentes son los mismos que los del receptor 10, con un convertidor de Y/C (no mostrado) típicamente empleado, bien entre el convertidor de resolución 34 y el convertidor 6 de D/A o bien entre el LPF 2 y el convertidor 3 de A/D.
La fig. 12 es un diagrama de bloques de una realización del convertidor de resolución 34. El convertidor de resolución 34 es similar en muchos aspectos al corrector de distorsión 4b de la fig. 10, porque funciona para dividir el área de un cuadro de baja resolución de acuerdo con el movimiento diferente en áreas respectivas, crea una imagen de alta resolución para cada área y combina las imágenes de alta resolución para cada área para producir una imagen compuesta. El convertidor de resolución 34 está configurado para aumentar la resolución tanto en la dirección horizontal como en la vertical creando elementos de imagen en posiciones entre elementos de imagen horizontales adyacentes y también entre elementos de imagen verticales adyacentes de la imagen de SD basada en los vectores de movimiento de cada imagen. El convertidor 34 puede generar alguno de los elementos de imagen de alta resolución por una técnica de clasificación y tratamiento de adaptación que ha de ser descrita en detalle posteriormente.
El convertidor de resolución 34 incluye la memoria de imagen 11, el detector de movimiento 12 y el detector de cambio de escena 13 como se ha descrito previamente, así como el divisor de área 21' que es el mismo que el divisor de área 21 de la fig. 10 excepto que el divisor 21' divide cada cuadro en M áreas de cuadro en vez de solo dos áreas. Cada uno de los M generadores de objetos de alta resolución funciona para generar un objeto de alta resolución para una respectiva de las áreas de imagen definidas por el divisor de área 21'. Cada generador de objeto 41i
(i = 1, 2,..., M) incluye el conmutador 22i, la memoria tampón 23i, el controlador 14i, la memoria creadora de resolución 15i, la memoria de bandera de escritura 42i y el generador de elemento de imagen 43i.
Cada memoria de bandera de escritura 42i almacena el mismo número de banderas de escritura que el número de elementos de imagen almacenados en la memoria creadora de resolución asociada 15i. La bandera de escritura es una bandera de un bit que designa si los datos de elemento de imagen de una imagen SD son almacenados en una dirección correspondiente de la memoria 15i (por ejemplo, la bandera es un 1 si los datos de elemento de imagen están almacenados en la dirección y 0 si no lo están). La bandera de escritura es controlada por el controlador 14i para ser ajustada/repuesta.
Con referencia a la fig. 13, cada memoria creadora de resolución 15i está diseñada con un área de almacenamiento capaz de almacenar datos de elemento de imagen de almacenamiento de PH' elementos de imagen en la dirección horizontal y PV' elementos de imagen en la dirección vertical, con PH' \geq 2Pk y Pv' \geq 2Pv', donde Pk y Pv son el número de elementos de imagen en las direcciones horizontal y vertical respectivamente, de una imagen SD almacenada dentro de la memoria de imagen 11. En este ejemplo, la memoria 15i es capaz de almacenar datos de elemento de imagen de más de dos veces tantos elementos de imagen en la dirección vertical y más de dos veces tantos elementos de imagen en la dirección horizontal como la imagen de SD. El área de acceso de memoria 15ai está comprendida de posiciones de almacenamiento para almacenar datos de elemento de imagen de 2PH X 2PV elementos de imagen.
Un procedimiento para escribir un cuadro de datos de SD en la memoria creadora de resolución 15i será ahora descrito con referencia al diagrama de flujo de la fig. 14. En la operación S11, si el detector 13 de cambio de escena detecta o bien un cambio de escena o bien la recepción del primer cuadro de datos, una señal de cambio de escena es proporcionada a cada uno de los controladores 141-14M. Cada controlador 14i limpia entonces la memoria asociada 15i en la operación S12 (borrando los datos de elemento de imagen del cuadro previo) y repone todas las banderas de escritura en la memoria de bandera de escritura 41i a un valor inicial (operación S13). Los datos de imagen de SD distorsionados del área de cuadro asociada de la presente memoria de cuadro 11A son a continuación escritos en la memoria 15i (operación S14) cerrando el conmutador 22i en instantes apropiados en una operación de lectura de datos de cuadro desde la memoria de cuadro 11A. Así, solo los datos de imagen dentro del área asociada como es definido por el divisor de área 21' son transferidos a través del conmutador 22i y la memoria 23i. En particular, los datos de SD son escritos en el área de acceso de la memoria 15i en cada otra posición de elemento de imagen tanto en la dirección horizontal como en la dirección vertical. Así, por ejemplo, se ha supuesto que los cuadros de SD están dispuestos con M filas de elemento de imagen (filas 1 a M) por N columnas de elemento de imagen (columnas 1 a N), y el área de acceso de la memoria 15i es una matriz de almacenamiento correspondiente a 2M filas (filas 1 a 2M) por 2N columnas (columnas 1 a 2N). A continuación, si los datos de elemento de imagen 1,1 correspondientes a la fila 1, columna 1 del cuadro de SD son transferidos al generador de objetos 41i, serán inicialmente almacenados en la posición de almacenamiento del área de acceso correspondiente al elemento de imagen de HD de fila 2, columna 2 del área de acceso. Preferiblemente, esa posición de almacenamiento será también la fila 2, columna 2 en la matriz de almacenamiento, para facilitar la creación del elemento de imagen. De manera similar, los datos de SD del elemento de imagen 2,2 del cuadro de SD serán almacenados inicialmente en la fila 4, columna 4 del área de acceso, y así sucesivamente. Las banderas de escritura son concurrentemente ajustadas o configuradas para cada una de las posiciones de almacenamiento de HD en las que los datos de SD son así almacenados. Los datos de imagen son leídos desde la memoria 15i por el generador 43i de elementos de imagen en este punto, pero no son borrados de la memoria 15i ya que serán usados para formar parte del siguiente cuadro de alta resolución (en ausencia de un cambio de escena).
Si, en la operación S11, no es recibida señal de cambio de escena, entonces en la operación S16, cada controlador 14i recibe el vector de movimiento desde el divisor de área 21' correspondiente al movimiento en el área de imagen asociado del cuadro actual. El controlador 14i calcula un nuevo indicador o puntero de dirección relativa Rp correspondiente al vector de movimiento y suministra el mismo a la memoria de conversión de resolución 15i. La rutina prosigue entonces a la operación S14 en que los datos de imagen distorsionados del cuadro actual son escritos en la memoria 15i de acuerdo con el indicador de dirección relativa determinado, por lo que los datos previamente almacenados en el cuadro precedente de la memoria 15i son desplazados con respecto a los nuevos datos (ya que los datos del cuadro previo han permanecido almacenados en las mismas posiciones de acuerdo con los indicadores de dirección previos mientras los datos del cuadro actual imagen son almacenados de acuerdo con el nuevo indicador de dirección). Como se ha explicado previamente, alguno de los datos almacenados previamente es típicamente sobrescrito en esta operación. Las banderas de escritura son a continuación ajustadas para las posiciones de almacenamiento en que los nuevos datos son almacenados en la operación S15 (a menos que estuviesen ya ajustados previamente).
Consiguientemente, como el proceso de escritura prosigue cuadro a cuadro en cada memoria creadora de resolución 15i, una imagen de HD que tiene dos veces tanta resolución como la imagen de SD correspondiente tanto en la dirección horizontal como vertical se aproxima gradualmente a la terminación.
Para ilustrar además la creación de una imagen de HD, se ha hecho referencia a la fig. 15 que ilustra el movimiento entre cuadros de un objeto 47 pequeño, triangular sólido y el almacenamiento asociado de datos de elemento de imagen que representan el mismo. El lado izquierdo de la figura muestra una disposición o matriz de elementos de imagen de SD P_{SD} superpuesta con el objeto 47 mientras el lado derecho representa las posiciones de almacenamiento MC dentro de las áreas de acceso 15a_{N} a 15a_{(N+3)} para cuadros N a (N+3), respectivamente. En la imagen de baja resolución, los elementos de imagen de SD P_{SD} dentro de la región limitada del objeto 47 representa el objeto, por ejemplo, teniendo más o menos luminancia y/o siendo de un color diferente que los elementos de imagen vecinos. En cualquier caso, el objeto 47 se ha supuesto que está representado por elementos de imagen a, b, c, d y en el cuadro N, por elementos de imagen f, g en el cuadro (N+1), elementos de imagen h, i, j, k en el cuadro (N+2) y por elementos de imagen l, m en el cuadro (N+3), donde los elementos de imagen cambian de cuadro a cuadro debido al movimiento entre
cuadros.
De acuerdo con el método antes descrito, los datos de elemento de imagen de SD son escritos en áreas de acceso 15a_{N} a 15a_{(N+3)} en las regiones sombreadas en posiciones de almacenamiento alternativas. En el cuadro N, las posiciones de almacenamiento (a' a e') están llenas con datos de elemento de imagen correspondientes a elementos de imagen de SD (a a e). Entre los cuadros N y N+1, el objeto se ha movido hacia arriba en la mitad de la separación de elemento de imagen SD (separación entre puntos medios de los elementos de imagen de SD adyacentes) de manera que el indicador de dirección relativa R_{P} del cuadro N+1 se mueve hacia abajo por una posición de almacenamiento de elemento de imagen de HD como se ha mostrado, y los datos de elemento de imagen para elementos de imagen f y g son escritos. Mientras tanto, las posiciones de almacenamiento absolutas que almacenan datos de elemento de imagen (a' - e') permanecen igual en el cuadro N+1. Así, se ha visto que mientras elementos de imagen b y g están en la misma posición en la imagen de SD, los "elementos de imagen" correspondientes b' y g' están desplazados uno con respecto al otro en el área de acceso 15a_{N+1} que representa la imagen de HD. El proceso continúa con el indicador de dirección R_{P} que se mueve desde su posición previa en la dirección opuesta como el movimiento del objeto, hasta que una imagen de HD completa es formada en el cuadro (N+3). Obsérvese que tomaría más cuadros para generar una imagen de HD completa basada únicamente en generar datos de elementos de imagen de HD de acuerdo con el vector de movimiento si el objeto fuera a permanecer aún o si el movimiento es ligero de cuadro a cuadro.
La fig. 16 es un diagrama de flujo que ilustra una rutina para leer datos de imagen desde el generador 41i de objetos de alta resolución. La rutina de lectura sigue a la rutina de la fig. 14 cada vez que nuevos datos de imagen son escritos en la memoria 15i, es decir cada vez que se completa la escritura de datos para un cuadro particular. En la operación S21, el controlador 14i lee datos de imagen procedentes de posiciones de almacenamiento del área de acceso 15i y suministra los datos al generador 23 de elementos de imagen. En la operación S22, el generador de 23 de elementos de imagen determina, basado en las banderas de escritura en la memoria de bandera de escritura 42i, si los datos de imagen están o no almacenados para un elemento de imagen de alta resolución particular que corresponde a una dirección particular. Por ejemplo, considerando la fig. 15, suponiendo que el cuadro N corresponde al primer cuadro después de un cambio de escena, las posiciones de almacenamiento c' y d' contienen datos de imagen almacenados pero la posición de almacenamiento 48 entre c' y d' está vacía. De tal manera, la bandera de escritura para c' y d' sería ajustada a 1 mientras que para la posición de almacenamiento 48 está a 0. Así, antes de presentar los datos de imagen para un cuadro corriente tal como el cuadro N, los datos de elemento de imagen necesitan ser creados para elementos de imagen de HD correspondientes a las posiciones de almacenamiento vacías como 48.
Por ello, en la operación S23, los datos de imagen son generados por el generador 43i de elementos de imagen si la posición de almacenamiento en consideración está vacía como se ha indicado por la bandera de escritura asociada. Los datos de imagen pueden ser generados de varias maneras, tal como interpolando entre elementos de imagen vecinos o por una técnica de predicción más compleja tal como un método de clasificación y tratamiento de adaptación que ha de ser descrito después. En cualquier caso, una vez que los datos de imagen son creados para el elemento de imagen en consideración (o leídos directamente desde la memoria 15i si están ya almacenados en ella), los datos de elemento de imagen para los que el elemento de imagen es emitido desde el generador de objetos 41i en la operación S24 y suministrado al combinador 24. Si todos los datos de imagen del cuadro de alta resolución en consideración son determinados para haber sido leídos en la operación S25, el proceso de lectura para ese cuadro está completo. De otro modo, la rutina vuelve a la operación S21 para leer datos desde la siguiente posición de almacenamiento y para crear una vez más datos de elemento de imagen si fuese necesario.
La fig. 17 ilustra un diagrama de flujo simplificado para el proceso de la operación 23 de generar datos de imagen para elementos de imagen correspondientes a posiciones de almacenamiento vacías, bien por interpolación o bien por una técnica de predicción. En la operación S31, es determinado basado en las banderas de escritura, que los elementos de imagen vecinos del elemento de imagen en consideración contienen datos de elemento de imagen almacenados dentro de la memoria 15i. A continuación, en la operación S32, los datos son leídos desde las posiciones de almacenamiento en el área de acceso 15ai correspondiente a los elementos de imagen vecinos. Los datos de elemento de imagen para el elemento de imagen en consideración son a continuación generados en la operación S33 basados en los datos de elemento de imagen vecinos.
Generación de datos de elemento de imagen por un proceso de adaptación
Si una imagen de alta resolución en la memoria creadora de resolución 15i tiene posiciones de almacenamiento vacías como se ha descrito antes, una técnica de interpolación simple para generar datos de elemento de imagen para las posiciones de almacenamiento vacías puede ser insuficiente para volver a capturar componentes de alta frecuencia de la imagen original. La presente solicitante ha propuesto previamente un dispositivo convertidor de imagen que convierte una imagen de SD en una imagen de HD que contiene una componente de alta frecuencia que no estaba contenida en la imagen de SD. Véase la patente norteamericana Nº 5.517.588 titulada "Equipamiento de conversión de datos digitales y un método para el mismo" que fue concedida el 14 de mayo de 1996. Consiguientemente, el mismo o similar proceso de adaptación puede ser usado por el generador 43i de elementos de imagen para generar datos de elemento de imagen para las posiciones de almacenamiento vacías. Es decir, el proceso de adaptación puede ser empleado para crear elementos de imagen "de relleno" además de los creados por medio de suponer elementos de imagen en posiciones correspondientes al movimiento de imagen detectado. A continuación se describirá un proceso de adaptación ilustrativo para poner en práctica tal creación de elemento de imagen.
El proceso de adaptación determina un valor predicho de un elemento de imagen de una imagen de HD basada en el acoplamiento lineal entre una imagen de SD y un coeficiente de estimación predeterminado. Por ejemplo, un valor predicho E[y] de un valor y de elemento de imagen de un elemento de imagen de HD para formar una imagen de HD puede ser determinado utilizando un modelo de combinación lineal. Este modelo es definido por una combinación lineal de valores de elemento de imagen de elementos de imagen de SD (denominado a continuación como datos de aprendizaje), X_{1}, X_{2}, ..., y coeficientes de predicción predeterminados, W_{1}, W_{2}, ... para este caso, el valor predicho E[y] es expresado como sigue:
(3)E[y] = W1X1 + W2X2 + .....
Para generalizar lo anterior, una matriz Y' se ha supuesto que está compuesta por un conjunto de los valores predichos E[y]; para y = y_{1} a y_{n}. Es decir, la matriz Y' está definida como el producto de una matriz W, que es un conjunto de coeficientes de predicción w, y una matriz X que es un conjunto de datos de aprendizaje. Una ecuación de observación es así obtenida como sigue:
(4)XW = Y'
donde
\vskip1.000000\baselineskip
1
Un método para encontrar un valor predicho E[y] que está próximo a un valor y de elemento de imagen de HD supone aplicar el método de mínimo cuadrado a la ecuación de observación (4). para este caso, la matriz Y' es considerada como la suma de una matriz Y y una matriz E, donde la matriz Y está compuesta por un conjunto de valores de elemento de imagen de HD reales (que ha de ser usado como datos del maestro) y la matriz E está compuesta por un conjunto de "e" residuales de los valores predichos E[y]. Así, la siguiente ecuación residual es derivada de la ecuación (4):
XW = Y + E
\newpage
donde,
2
El error de la raíz cuadrada es definido como la suma de los cuadrados de los residuales, es decir,
(6)\sum\limits_{i=1}^{m} e^{z}_{i}
Así, el coeficiente de predicción w_{1} para obtener un valor predicho E[y] próximo a un valor de elemento de imagen de HD puede ser encontrado minimizando el error de la raíz cuadrada de la ecuación (6).
Cuando el error de la raíz cuadrada es diferenciado por el coeficiente de predicción w_{1}, si el resultado es 0, el valor para w_{1}, que satisface la ecuación siguiente (7) es el valor óptimo para encontrar un valor predicho E[y] próximo al valor de elemento de imagen de HD:
(7)e_{1} \frac{\partial e_{1}}{\partial w_{i}} + e_{2} \frac{\partial e_{2}}{\partial w_{i}} + ... + e_{m}\frac{\partial e_{m}}{\partial w_{i}} = 0 \ (i = 1,2,...n)
Cuando la ecuación (6) es diferenciada por el coeficiente de predicción w_{1}, se obtiene la siguiente ecuación (8):
(8)\frac{\partial e_{i}}{\partial w_{1}} = X_{i1}, \frac{\partial e_{i}}{\partial w_{2}} = X_{i2}, ..., \frac{\partial e_{i}}{\partial w_{n}} = X_{in}, (i = 1,2,...m)
A partir de las ecuaciones (7) y (8), es derivada la ecuación siguiente (9):
(9)\sum\limits_{i=1}^{m} e_{i}x_{i1} = 0, \hskip0,3cm \sum\limits_{i=j}^{m}e_{i}x_{i2} = 0, ... \sum\limits_{i=j}^{m} e_{i}x_{in} = 0,
Cuando las relaciones entre los datos de aprendizaje x, coeficientes de predicción w, datos de maestro y y residuales e son considerados, un conjunto de ecuaciones de predicción (10) puede ser obtenido como sigue:
3
El número de ecuaciones en el conjunto de la ecuación (10) corresponde al número de coeficientes de predicción w. Los coeficientes de predicción óptima w pueden ser obtenidos resolviendo la ecuación (10), que puede ser resuelta por una técnica tradicional, por ejemplo, utilizando el método de borrado de Gauss-Jordan. Se ha observado que para que la ecuación (10) sea resoluble, una matriz compuesta de los coeficientes de predicción w debe ser una matriz regular.
Consiguientemente, con el proceso de adaptación antes descrito, los coeficientes de predicción óptima w son obtenidos para el propósito de derivar un valor predicho óptimo E[y] que está próximo a un valor de elemento de imagen de HD (es decir, próximo a un valor de elemento de imagen de HD que existiría si una señal de HD fuera recibida originalmente por el receptor de televisión en vez de una señal de SD). El proceso de adaptación es diferente de un proceso de interpolación porque una componente de frecuencia elevada de una imagen original, ausente de una imagen de SD pero contenida en una imagen de HD, puede ser restaurada. El proceso de adaptación, en cuanto a lo que concierne solo a la ecuación (1), es similar a un proceso de interpolación que usa un filtro de interpolación. Para el proceso de adaptación, sin embargo, el coeficiente de predicción correspondiente a un coeficiente de toma del filtro de interpolación puede ser obtenido aprendiendo a usar los datos de maestro. Consecuentemente, la componente de alta frecuencia contenida en la imagen de HD puede ser restaurada para obtener fácilmente una imagen de alta resolución.
Volviendo ahora a la fig. 18, se ha mostrado un diagrama de bloques de un dispositivo convertidor de imagen 200 para convertir una imagen de SD a una imagen de HD. El dispositivo 200 puede ser usado como parte del generador 43i de elementos de imagen para generar los datos de elemento de imagen de HD cuando sea necesario, es decir, siempre que una posición de almacenamiento de elemento de imagen de HD en la memoria creadora de resolución esté vacía. Una señal de imagen de SD de entrada es aplicada tanto a un procesador de adaptación 204 como a un circuito de clasificación 201, estando comprendido el último de un generador de toma de clase 202 y un circuito de determinación de clase 203. En el circuito de clasificación 201, un elemento de imagen de HD del que se ha de encontrar un valor predicho en el proceso de adaptación (denominado en lo que sigue como un elemento de imagen marcado) es clasificado en una clase predeterminada basado en características de un conjunto de elementos de imagen de SD en una relación posicional predeterminada al elemento de imagen marcado. Los valores de elemento de imagen para este conjunto de elementos de imagen de SD asociados con el elemento de imagen de HD marcado son referidos como las tomas de clase del elemento de imagen marcado.
Las tomas de clase basadas en la imagen de SD de entrada son extraídas dentro del generador de tomas de clase 202 y proporcionadas al circuito de determinación de clases 203, que detecta un diseño del conjunto de elementos de imagen SD que forman tomas de clase para cada elemento de imagen marcado. El diseño está basado en las características de cada uno de los elementos de imagen en el conjunto, que son una función de los valores de elemento de imagen. Por ejemplo, un diseño puede corresponder a uniformidad de los elementos de imagen, un segundo puede corresponder a valores de elementos de imagen que aumentan en una dirección hacia la derecha superior, un tercero puede corresponder a valores de elementos de imagen que aumentan en una dirección hacia la izquierda inferior, y así sucesivamente. Un valor previamente asignado al diseño detectado es a continuación suministrado al procesador de adaptación 204 como indicador de la clase de elemento de imagen marcado.
La fig. 19 ilustra la relación posicional de las tomas de clase a elementos de imagen de HD asociados. Se ha supuesto que una imagen de HD está compuesta de los elementos de imagen mostrados marcados como de x' y que una imagen de SD correspondiente está compuesta de elementos de imagen marcados como de O. La imagen de SD mostrada contiene así una cuarta parte del número de elementos de imagen que la imagen de HD. Las separaciones entre los puntos medios de las columnas de HD y entre las filas de HD son la mitad que para las columnas y filas de SD. En la fig. 19, un elemento de imagen de SD en una posición (i+1) desde la izquierda (columna SD i+1) y (j+1) desde la parte superior (fila SD (j+1)) es expresado como X_{ij}. De manera similar, un elemento de imagen de HD posicionado en la columna de HD (i'+1) y la fila de HD (j'+1) es expresado como Y_{ij}. Así, por ejemplo, la posición del elemento de imagen de SD X_{ij} y el elemento de imagen de HD Y_{(2i)(2j)} coinciden entre sí. (Se ha observado aquí que las "tomas de clase" y "tomas de predicción" son realmente valores de datos de imagen para elementos de imagen particulares. Sin embargo, por simplicidad en la descripción, las "tomas" serás descritas como los propios elementos de imagen, y viceversa.
Para ilustrar cómo son definidas las tomas de clase, un elemento de imagen marcado se ha supuesto que es el elemento de imagen de HD Y_{44}, que tienen la posición idéntica al elemento de imagen de SD X_{22}. Las tomas de clase para este elemento de imagen marcado son los nueve elementos de imagen de SD más próximos dentro de un cuadrado de elementos de imagen de SD de 3x3 centrado alrededor del elemento de imagen de HD marcado Y_{44}. Así, en la fig. 19, las tomas de clase son los elementos de imagen de SD dentro de la región definida por el límite T_{C} que son, los elementos de imagen de SD X_{11}, X_{21}, X_{31}, X_{12}, X_{22}, X_{32}, X_{13}, X_{23}, X_{33}. El generador de tomas de clase 202 extrae los valores de elemento de imagen para estos elementos de imagen de SD como las tomas de clase para el elemento de imagen marcado. Para el caso en que el elemento de imagen marcado es adyacente a un elemento de imagen de HD que coincide con un elemento de imagen de SD, las mismas tomas de clase para el elemento de imagen de HD pueden ser definidas. Así, por ejemplo, si el elemento de imagen marcado es cualquiera de Y_{54}, Y_{55}, Y_{45}, etc., entonces las tomas de clase para cualquiera de estos elementos de imagen de HD pueden ser las mismas que las del elemento de imagen de HD de "coincidencia" Y_{44}. Es también posible formar diferentes tomas de clases para elementos de imagen no coincidentes tales como Y_{54}, Y_{55}, Y_{45}.
En el circuito de clasificación 203, el diseño de las tomas de clase de un elemento de imagen marcado es detectado (cuyas tomas de clase son proporcionadas por el generador de tomas de clase 202). En otras palabras, el diseño tal como uniformidad, etc., de los nueve elementos de imagen de SD en relación posicional próxima al elemento de imagen marcado son detectados para averiguar qué clase debe ser asignada al elemento de imagen marcado. Un valor de diseño correspondiente al diseño detectado es a continuación emitido como la clase de elemento de imagen marcado, y suministrado a la terminal de dirección (AD) de una memoria sólo de lectura de coeficientes (ROM) 207 en el procesador de adaptación 204.
Ordinariamente, 8 bits o similar son asignados a un elemento de imagen que forma una imagen. Suponiendo que 8 bits son asignados a un elemento de imagen de SD, por ejemplo, si nueve elementos de imagen de SD son empleados para las tomas de clase como en el ejemplo de la fig. 19, el número de valores de elemento de imagen posibles por toma de clase es tan alto como (2^{8})^{9}. Consiguientemente, la capacidad para realizar las operaciones de tratamiento de detección de diseño a altas velocidades es inhibida.
Por ello, antes de que la clasificación sea realizada, es deseable disminuir el número de bits asignados a un elemento de imagen de SD de una toma de clase. Por ejemplo, la codificación de rango de adaptación dinámica (ADRC) puede ser ejecutada para poner en práctica tal reducción de bits. Como una primera operación en el proceso de ADRC, un elemento de imagen que tiene el valor máximo de elemento de imagen fuera de los nueve elementos de imagen de SD que forman un bloque de proceso (de aquí en adelante denominado como un elemento de imagen máximo) y un elemento de imagen que tiene el valor mínimo de elemento de imagen en el bloque de proceso (de aquí en adelante denominado como un elemento de imagen mínimo) son detectados. La diferencia DR entre el valor MAX de elemento de imagen del elemento de imagen máximo y el valor MIN de elemento de imagen del elemento de imagen mínimo es a continuación calculada. El valor DR es designado como un valor de referencia local dinámico del bloque del proceso, y los valores de elemento de imagen respectivos que forman el bloque de proceso son cuantificados de nuevo con un número menor K de bits para cada elemento de imagen que el número de bits originalmente asignado. En otras palabras, el valor MIN de elemento de imagen del elemento de imagen mínimo es sustraído de los valores de elemento de imagen respectivos que forman el bloque de proceso, y los resultados de la sustracción respectiva son divididos por DR/2K. Como resultado, los valores de elemento de imagen respectivos que componen el bloque de proceso pueden ser expresados por K bits. Así, por ejemplo, cuando K = 1, el número máximo de diseños de nueve elementos de imagen de SD es (2^{1})^{9}. Consiguientemente, el número máximo de diseños es disminuido dramáticamente comparado con la circunstancia de que el tratamiento ADRC no es puesto en práctica.
Continuando con referencia a la fig. 18, el proceso de adaptación es realizado dentro del procesador de adaptación 204, que incluye el generador 205 de tomas de predicción, el calculador 206 de valor de predicción y la memoria ROM 207 de coeficientes de predicción. En el generador de tomas de predicción 205, son extraídos datos de varios elementos de imagen de SD que están en una relación posicional predeterminada al elemento de imagen marcado. Estos elementos de imagen extraídos son proporcionados como tomas de predicción x1, x2, ... al calculador 206 del valor predicho, que determina un valor predicho para un elemento de imagen de HD basado en coeficientes de predicción y en las tomas de predicción.
La tomas de predicción corresponden a elementos de imagen que tienen una elevada correlación posicional con el elemento de imagen de HD marcado. A modo de ejemplo, si el elemento de imagen marcado es el elemento de imagen Y_{44} como se ha mostrado en la fig. 19, y tomas de clase dentro del límite T_{C} son formadas como se ha explicado previamente, entonces el generador 205 de tomas de predicción puede determinar las tomas de predicción como el bloque de elementos de imagen de SD de 5x5 que cae dentro del área encerrada por el límite T_{Z}, es decir elementos de imagen de SD X_{00} a X_{44}. Si el elemento de imagen marcado es un elemento de imagen adyacente al Y_{44}, tal como el elemento de imagen Y_{54}, Y_{45} o Y_{55}, entonces se forman las mismas tomas de predicción que las correspondientes al elemento de imagen Y_{44}, es decir, correspondientes a los elementos de imagen X_{00} a X_{44}. Es posible, sin embargo, definir diferentes tomas de predicción cuando un elemento de imagen no coincidente tal como el Y_{45}, Y_{54} o Y_{55} es el elemento de imagen marcado.
La memoria ROM 207 de coeficientes de predicción almacena coeficientes de predicción que son encontrados aprendiendo lo realizados de antemano por clases. Cuando la ROM 207 recibe una clase suministrada desde el circuito de clasificación 203, la ROM 207 lee los coeficientes de predicción almacenados en una dirección en ella correspondiente a la clase suministrada, y suministra el o los coeficientes de predicción a predecir al calculador 206 de valor predicho.
Consiguientemente, las tomas de predicción correspondientes a un elemento de imagen marcado y el o los coeficientes de predicción que se refieren a la clase del elemento de imagen marcado son ambos suministrados al calculador 206. Dentro del calculador 206, la operación de acuerdo con la ecuación (3) anterior es realizada usando coeficientes de predicción w1, w2, ... recibidos desde la ROM 207 y datos de elementos de imagen de SD x1, x2, ... que forman las tomas de predicción desde el generador 205 de tomas de predicción. Como resultado, el valor predicho E[y] del elemento de imagen marcado y es determinado, y es emitido como un valor de elemento de imagen para un elemento de imagen de HD. El proceso es repetido designando cada elemento de imagen de HD como un elemento de imagen marcado, y cuando todos los elementos de imagen de HD han sido así designados y los valores predichos derivados por ello, una imagen de SD completa es convertida en una imagen de HD.
Con referencia ahora a la fig. 20, se ha mostrado un diagrama de bloques de un dispositivo de aprendizaje 210 que realiza un proceso de aprendizaje para calcular coeficientes de predicción que han de ser almacenados en la ROM 207 de la fig. 18. Los datos de imagen de HD que han de ser datos de maestro en el proceso de aprendizaje son suministrados tanto a un circuito de adelgazamiento 211 como a un circuito de muestreo de datos de enseñanza 146. En el circuito de adelgazamiento 211, el número de elementos de imagen de la imagen de HD es disminuido adelgazando de tal manera que la imagen de HD es convertida en una imagen de SD. El número de elementos de imagen de la imagen de HD es dividido por dos tanto en la dirección horizontal como vertical para formar por ello la imagen de SD. La imagen de SD es suministrada al circuito de clasificación 212 y al generador 145 de toma de predicción. Se ha observado, que en vez de formar la imagen de SD a partir de la imagen de HD, una imagen de SD puede ser aplicada directamente a circuito de clasificación 212 desde una cámara de SD correspondiente a una imagen de HD procedente de una cámara de HD.
En el circuito de clasificación 212 o generador 145 de tomas de predicción, son realizados los mismos procesos que los realizados en el circuito de clasificación 201 o en el generador 205 de tomas de predicción de la fig. 18, por lo que la clase de un elemento de imagen marcado o las tomas de predicción son emitidas, respectivamente. Las clases emitidas por el circuito de clasificación 212 son aplicadas a los terminales de dirección (AD) tanto de la memoria 147 de tomas de predicción como de la memoria 148 de datos de maestro. Las tomas de predicción emitidas desde el generador 145 de tomas de predicción son aplicadas a la memoria 147 de tomas de predicción donde las tomas son almacenadas en direcciones correspondientes a las clases suministradas desde el circuito de clasificación 212.
En el circuito de muestreo de datos de enseñanza 146, los elementos de imagen de HD que han de ser elementos de imagen marcados en el circuito de clasificación 212 y en el circuito de generación de toma de predicción 145 son extraídos fuera de la imagen de HD suministrada a ellos. Las tomas extraídas son almacenadas en la memoria de datos de maestro 148 como los datos de maestro junto con la clase calculada en una posición de dirección común. El proceso es repetido para todos los elementos de imagen de HD de las imágenes de HD introducidas al dispositivo 210 para el propósito de aprendizaje. Como la memoria de toma de predicción 147 y la memoria de datos de maestro 148 son configuradas cada una para almacenar una pluralidad de tipos de información en la misma posición de dirección, una pluralidad de datos de aprendizaje x y datos de maestro y que han de ser clasificados en la clase idéntica pueden ser almacenados esencialmente en la misma posición de dirección.
El calculador 149 lee a continuación las tomas de predicción como datos de aprendizaje o datos de elemento de imagen de HD como datos de maestro almacenados en las mismas posiciones de dirección desde la memoria de toma de predicción 147 o memoria de datos de maestro 148, respectivamente. Basado en estos datos, el calculador 149 calcula los coeficientes de predicción, por ejemplo, por el método de mínimo cuadrado que minimiza el error entre los valores predichos y los datos de maestro. En otras palabras, en el calculador 149, las ecuaciones de predicción (10) antes descritas están formadas por clases, y los coeficientes de predicción son obtenidos resolviendo estas ecuaciones. Los coeficientes de predicción son a continuación almacenados en las posiciones de dirección correspondientes a las clases en la ROM 207 de coeficientes de la fig. 18. Se ha observado que las ecuaciones independientes (10) son resueltas para cada elemento de imagen de HD "no coincidente" tal como el elemento de imagen Y_{45}, Y_{54} o Y_{55} en la fig. 19 y para cada elemento de imagen "coincidente" Y_{44} incluso aunque las tomas de predicción sean las
mismas.
En el ejemplo de la fig. 19, nueve tomas de clase y 25 tomas de predicción fueron formadas para cada elemento de imagen de HD marcado, y los procesos de clasificación y de adaptación (de aquí en adelante denominado como el proceso de adaptación de clasificación) fueron realizados consiguientemente. Sin embargo, para elementos de imagen de HD marcados próximos al borde de un área de imagen, la suposición de nueve tomas de clase y 25 tomas de predicción no es ya válida. Así, es deseable formar tomas de clase y de predicción de diferentes disposiciones para esos elementos de imagen de HD, y calcular coeficientes de predicción de una manera similar a como se ha descrito antes para cubrir estos casos especiales.
Consiguientemente, el proceso de clasificación-adaptación antes descrito es empleado para suplementar la creación de elemento de imagen en la memoria creadora de resolución 15i cuando los elementos de imagen de HD no son creados de otro modo de acuerdo con el vector de movimiento asociado. Por ejemplo, después de un cambio de escena, tomara varios cuadros de movimiento para generar una imagen de HD desde una imagen de SD basada sólo en el movimiento. Por lo tanto, en los cuadros iniciales que siguen a un cambio de escena, el procedimiento de clasificación de adaptación puede ser empleado a menudo.
Datos de escritura de acuerdo con el vector de movimiento
Como se ha mencionado previamente en conexión con la realización de la fig. 4, con el fin de crear prácticamente elementos de imagen en posiciones correspondientes al movimiento de imagen, cada vector de movimiento puede ser redondead a una distancia correspondiente a la separación entre puntos medios de elementos de imagen de alta resolución adyacentes. Así, por ejemplo, para la realización en la que Los datos de elemento de imagen de HD son generados a partir de los datos de elemento de imagen de SD, si el vector de movimiento de cualquier cuadro dado corresponde al movimiento de entre 0,5 y 1,5 separaciones de elemento de imagen de HD en la dirección vertical (u horizontal), el vector de movimiento puede ser redondeado a una separación de elemento de imagen de HD en la dirección vertical (u horizontal) y el indicador de dirección movido consiguientemente para escribir los nuevos datos de SD en la memoria. Como una alternativa, el indicador de dirección puede ser hecho que se mueva sólo si el vector de movimiento es igual aproximadamente a un múltiplo integral de un intervalo de elemento de imagen de HD o está dentro de un intervalo predeterminado del mismo, (es decir, un múltiplo entero de la mitad del intervalo de elemento de imagen de SD). En este caso, habrá muchos casos en los que no haya cambio en el indicador de dirección, conduciendo a más direcciones frecuentes vacías para datos de elemento de imagen de HD en la memoria creadora de resolución 15i. Así, las direcciones vacías puede ser llenadas por interpolación o mediante el proceso de adaptación de clasificación.
Como otra alternativa para redondear el vector de movimiento para crear datos de elemento de imagen de alta resolución de acuerdo con ello, una aproximación diferente es crear incluso una matriz de almacenamiento de mayor resolución (área de acceso agrandada) dentro de la memoria creadora de resolución 15 o 15i para reducir el error de redondeo de los vectores de movimiento. A continuación, cuando la imagen de mayor resolución aún es generada, los datos de elemento de imagen pueden ser leídos borrando algunos de los datos, por ejemplo, borrando filas alternativas y columnas alternativas, para generar una imagen de alta resolución, pero sin ser una resolución tan alta como podría ser realizada.
Para ilustrar la última aproximación, el convertidor de resolución 34 antes descrito, que está diseñado para convertir una imagen de SD en una imagen de HD, puede ser modificado empleando una memoria convertidora de resolución 15_{i}' con cuatro veces tantas posiciones de almacenamiento de elemento de imagen como la imagen de SD tanto en la dirección horizontal como vertical, es decir, con 16 veces tanta densidad de elementos de imagen en comparación con la imagen de SD. Esta aproximación está ilustrada en la fig. 21, en la que la memoria 15_{i}' está diseñada con
P_{H}' >= 4P_{H} columnas y P_{V}' >= 4P_{V} filas, donde P_{H} y P_{V} son el número de elementos de imagen en las direcciones horizontal y vertical, respectivamente, de un cuadro de SD. El área de acceso 15a_{i} está diseñada con 4P_{H} x 4P_{V} elementos de imagen. El indicador de dirección relativa R_{P} controla la posición precisa del área de acceso 15a_{i} dentro del área de memoria mayor de la memoria 15_{i} esencialmente de la misma manera que se ha explicado previamente.
Los elementos de imagen de SD son escritos cada cuarta posición en el área de acceso 15a_{i}' tanto en las direcciones horizontal como vertical después de mover el indicador de dirección relativa de acuerdo con el vector de movimiento. El vector de movimiento es redondeado a unidades correspondientes a 1/4 de la separación de elementos de imagen de SD antes de determinar el indicador de dirección relativa. Sin embargo, incluso en este caso, si los componentes x e y del vector de movimiento de la imagen de SD se desvían significativamente de un múltiplo entero de 1/4 de la separación de elementos de imagen de SD, los datos de elemento de imagen de SD adicionales pueden no ser escritos en la memoria. Por ejemplo, si el vector de movimiento es determinado para ser menor de 1/8 de la separación de elementos de imagen de SD, el nuevo cuadro de alta resolución puede ser formado como idéntico al cuadro de alta resolución previo, y no son escritos nuevos datos de elemento de imagen de SD.
Las figs. 22-24 ilustran además la aproximación del área de acceso agrandada. La fig. 22 ilustra una parte de una implantación de elemento de imagen de SD de elementos de imagen P_{SD}. Un objeto OB_{N-4} se ha supuesto que está formado por los elementos de imagen en el cuadro (N-4). La posición del objeto se mueve de cuadro a cuadro hasta que alcanza la posición del objeto OB_{N} en el cuadro N. Los elementos de imagen que forman la imagen son escritos en el área de acceso agrandada al área de 4P_{H} x 4P_{V} como se ha descrito inmediatamente antes. Los estados de almacenamiento están mostrados en el área de acceso 15a_{i}' de la fig. 23, donde los elementos de imagen de cuadros diferentes son mostrados con sombreados diferentes. Los vectores de movimiento correspondientes al movimiento cuadro a cuadro están también tabulados en la fig. 23. La fig. 24 es una vista agrandada de las posiciones de almacenamiento de memoria o células MC de la fig. 23. Después de cuatro cuadros de movimiento de cuadro (N-4) a cuadro N, muchas de las posiciones de almacenamiento permanecen vacías. Estas pueden ser llenadas por interpolación, por el proceso de adaptación de clasificación, y así sucesivamente. Como otra opción, una posición vacía puede ser llenada insertando de manera simple el mismo valor de elemento de imagen de la posición de almacenamiento más próxima a la posición vacía.
Las líneas de trazos mostradas en las figs. 23 y 24 designan filas y columnas alternativas de datos de elemento de imagen. Para leer los datos de elemento de imagen de HD desde el área de acceso 15ai', es suficiente leer datos de cada otra fila y cada otra columna, es decir, los datos de posiciones de almacenamiento a lo largo de las líneas de trazos. Este método producirá mayor resolución que la realizable empleando una área de acceso con sólo una matriz 2P_{H} x 2P_{V} de posiciones de almacenamiento.
Con referencia a la fig. 27, se ha mostrado otra realización 34' del convertidor de resolución 34. Esta realización es similar a la de la fig. 12, excepto que está diseñada para el caso en que la imagen completa de cada cuadro se mueven juntas en la misma cantidad de cuadro a cuadro. Es decir, el convertidor de resolución es funcionalmente similar al corrector de distorsión 4a de la fig. 4. Así, un solo generador de imagen de alta resolución 41 sin un conmutador 22 o memoria tampón 23 es usado en lugar de generadores de objetos de alta resolución 41l-41M, y el divisor de área 21 y combinador 24 son eliminados. Todos los demás aspectos son los mismos que los descritos antes para la realización de la fig. 12.
En cada una de las realizaciones antes descritas del invento que emplea una memoria creadora de resolución 15 o 15_{i}, cuando los datos de cuadro de alta resolución previos fueron creados ya en la memoria creadora de resolución, el almacenamiento de datos desde el siguiente cuadro, es decir, desde la memoria de imagen 11A actual, fueron descritos para ser cumplidos moviendo el indicador de dirección de acuerdo con el vector de movimiento, y sobrescribiendo alguno de los datos anteriores. Como una alternativa a esa aproximación, el vector de movimiento del cuadro previo puede ser almacenado y comparado con el vector de movimiento del presente cuadro para determinar qué vector de movimiento tiene componentes x e y más próximos a la distancia correspondiente a un intervalo de elemento de imagen de alta resolución, y datos almacenados consiguientemente. En otras palabras, los datos asociados con el vector de movimiento que tienen un error de redondeado menor serían seleccionados para almacenamiento. Para la memoria de la fig. 23, esto significaría seleccionar datos asociados con el vector de movimiento más próximo a un múltiplo entero de 1/4 de un intervalo de elemento de imagen de SD.
Aunque el presente invento ha sido particularmente mostrado y descrito en unión con realizaciones preferidas del mismo, será fácilmente apreciado por los expertos en la técnica ordinarios que pueden hacerse varios cambios y modificaciones en las realizaciones descritas sin salir del marco del invento. Por ejemplo, mientras las realizaciones descritas fueron descritas para reducir la distorsión de repliegue de espectro y opcionalmente generar imágenes de alta resolución, el invento puede ser también empleado para agrandar imágenes. Además, mientras los procesos anteriores son descritos como tratamiento de datos en una base de cuadro a cuadro, los procesos pueden ser empleados para procesar partes de cuadros, tales como en unidades de campos. También, las imágenes pueden ser presentadas en otros dispositivos de presentación al lado de un CRT tal como una pantalla de presentación de cristal líquido. Además, la señal de imagen recibida puede ser una señal de imagen digital. En este caso, el convertidor A/D (por ejemplo, de las figs. 1 u 11) puede ser eliminado. Además, el presente invento de puede ser empleado para convertir una imagen de exploración entrelazada a una imagen de exploración progresiva. Consiguientemente, estos y otros cambios y modificaciones están destinados a ser incluidos dentro del marco del invento.

Claims (41)

1. Un aparato convertidor de señal de imagen para convertir una primera señal de imagen en una segunda señal de imagen, comprendiendo dichas primera y segunda señales de imagen una pluralidad de imágenes de diferentes cuadros, comprendiendo dicho aparato: un detector de movimiento accionable para detectar el movimiento de la primera señal de imagen entre un primer cuadro y un segundo cuadro; y circuitos de tratamiento para producir la segunda señal de imagen añadiendo, a los elementos de imagen de la primera imagen, elementos de imagen supuestos en la dirección vertical correspondientes al movimiento vertical detectado y/o elementos de imagen supuestos en la dirección horizontal correspondientes al movimiento horizontal detectado; en el que dicho detector de movimiento (12) detecta el movimiento de dicha primera señal de imagen por una cantidad más fina que una separación de elemento de imagen a elemento de imagen de dicha primera señal de imagen, y dichos circuitos de tratamiento incluyen: una memoria (15) creadora de resolución para almacenar una imagen de la primera señal de imagen y con una mayor capacidad de almacenamiento que una cantidad de datos contenidos dentro de una imagen de la primera señal de imagen; y un controlador (14) accionable para controlar la escritura de los datos de la primera señal de imagen en dicha memoria (15) creadora de resolución y para controlar la lectura de datos de una nueva señal de imagen desde dicha memoria (15) que tiene mayor resolución que dicha primera señal de imagen, escribiendo dicho controlador (14) los datos de la primera señal de imagen en dicha memoria (15) de acuerdo con el movimiento detectado de la primera señal de imagen.
2. El aparato según la reivindicación 1ª, que comprende además un filtro pasa bajos (16) para filtrar componente de alta frecuencia de dicha segunda señal de imagen.
3. El aparato según la reivindicación 1ª o 2ª, en el que dicho controlador (14) controla la lectura de dicha nueva señal de imagen desde dicha memoria (15) como dicha segunda señal de imagen.
4. El aparato según la reivindicación 1ª, que comprende además un filtro pasa bajos (16) para filtrar dicha nueva señal de imagen; y una unidad de salida (17) para convertir dicha nueva señal de imagen filtrada en dicha segunda señal de imagen formada con el mismo número de elementos de imagen que el número de elementos de imagen contenido dentro de una imagen de la primera señal de imagen, y para emitir dicha segunda señal de imagen, teniendo dicha segunda señal de imagen menos distorsión de repliegue de espectro que dicha primera señal de ima-
gen.
5. El aparato según la reivindicación 1ª, 2ª, 3ª o 4ª, que comprende además un detector (13) de cambio de escena para detectar un cambio de escena de dicha primera señal de imagen y generar una señal de cambio de escena de acuerdo con ello, respondiendo dicho controlador (14) a dicha señal de cambio de escena para reponer valores dentro de posiciones de almacenamiento de dicha memoria (15) a valores predeterminados.
6. El aparato según la reivindicación 1ª, en el que datos de dicho primer cuadro de dicha primera señal de imagen son obligados a ser almacenados en primeras posiciones de almacenamiento de dicha memoria creadora de imagen (15); y datos de dicho segundo cuadro de dicha primera señal de imagen son obligados a ser almacenados en segundas posiciones de almacenamiento de dicha memoria (15) que están cada uno desplazados con respecto a dichas primeras posiciones de almacenamiento en una magnitud correspondiente al movimiento de dicha primera señal de imagen entre dicho primer y segundo cuadros, para producir por ello datos de un cuadro de mayor resolución que contiene tanto dichos primeros datos de cuadro como dichos segundos datos de cuadro.
7. El aparato según la reivindicación 6ª, en el que dichos primeros datos de cuadro son almacenados en dicha memoria de resolución (15) en un primer área de acceso en ella; dichos segundos datos de cuadro son obligados a ser almacenados en un segundo área de acceso del mismo tamaño que dicho primer área de acceso sin que hayan sido borrados la totalidad de dichos primeros datos de cuadro, estando desplazada dicha segunda área de acceso con respecto a dicha primera área de acceso en correspondencia con dicho movimiento detectado; y siendo dicho controlador (14) operativo para proporcionar un indicador de dirección relativa a dicha memoria que determina las posiciones de dichas primera y segunda áreas de acceso.
8. El aparato según la reivindicación 1ª, en el que dichos circuitos de tratamiento incluyen: un detector (42i-42m) para detectar posiciones vacías en dicha memoria en cuyas posiciones no hay almacenados datos de la primera señal de imagen; y un generador (43i-43m) de elementos de imagen para generar datos de elemento de imagen en las posiciones vacías.
9. El aparato según la reivindicación 8ª, en el que dicho detector (42i-42m) incluye una memoria de bandera para almacenar banderas que indican qué posiciones de almacenamiento de dicha memoria creadora de resolución contienen datos de imagen almacenados de dicha primera señal de imagen.
10. El aparato según la reivindicación 8ª, en el que dicho generador (43i-43m) de elementos de imagen es operativo para determinar valores de imagen para elementos de imagen en posiciones correspondientes a dichas posiciones vacías por interpolación entre datos de elementos de imagen ya almacenados en posiciones de almacenamiento contiguas de dichas posiciones vacías.
11. El aparato según la reivindicación 8ª en el que dicho generador de elementos de imagen incluye: un determinador ( 201, 202, 203) para detectar características de la primera señal de imagen y determinar una clase correspondiente a las características detectadas; una memoria (207) de datos de predicción para almacenar datos de predicción para cada clase; y circuitos (205, 206) para generar dichos datos de elemento de imagen para una posición de almacenamiento vacía de acuerdo con datos de predicción leídos desde la memoria de datos de predicción correspondiente a la clase determinada.
12. El aparato según la reivindicación 11ª, en el que los datos de predicción para cada clase son producidos por aprendizaje usando al menos una señal de imagen de aprendizaje que tiene una mayor resolución que la primera
señal.
13. Un aparato convertidor de señal de imagen para convertir una primera señal de imagen en una segunda señal de imagen de mayor resolución que la primera señal de imagen, comprendiendo dichas primera y segunda señales de imagen cada una una pluralidad de cuadros, comprendiendo dicho aparato: un detector de movimiento (12) accionable para detectar el movimiento de la primera señal de imagen entre cuadros sucesivos en al menos una primera y segunda regiones de cada cuadro; un divisor de área (21) para definir al menos una primera y segunda áreas de imagen de una imagen de la primera señal de imagen basada en al menos el movimiento detectado; circuitos de tratamiento (224, 228, 234, 238, 15A, 15B, 13, 14A, 14B; 41i-41m) para producir una primera y segunda áreas de imagen de la segunda señal de imagen añadiendo, a los elementos de imagen de la primera y segunda áreas de imagen de la primera imagen, elementos de imagen supuestos en la dirección vertical correspondientes al movimiento vertical detectado en las respectivas primera y segunda áreas de imagen y/o elementos de imagen supuestos en la dirección horizontal correspondientes al movimiento detectado en la dirección horizontal en las respectivas primera y segunda áreas de imagen; y un combinador (24) para combinar la primera y segunda áreas de imagen de la segunda señal de imagen para formar una señal de imagen compuesta; en el que dicho detector de movimiento (13) detectar movimiento de dicha primera señal de imagen por una cantidad más fina que una separación de elemento de imagen a elemento de imagen de dicha primera señal de imagen, y dichos circuitos de tratamiento comprenden una primera (14, 23 A, 15 A, 22 A) y segunda (14 B, 23 B, 15 B, 22 B) partes de circuito para realizar operaciones de tratamiento separadas en dichas primera y segunda áreas de imagen de dicha primera señal, incluyendo cada parte de circuito: una memoria creadora de resolución (15A, 15B) para almacenar datos dentro del área de imagen respectiva de la primera señal de imagen y con una mayor capacidad de almacenamiento que una cantidad de datos contenidos dentro de una imagen de la primera señal de imagen; y un controlador (14A, 14B) accionable para controlar la escritura de los primeros datos de señal de imagen en dicha memoria creadora de resolución y leer datos de una nueva señal de imagen desde dicha memoria que tienen mayor calidad que dicha primera señal de imagen, escribiendo dicho controlador los primeros datos de señal de imagen en dicha memoria de acuerdo con el movimiento detectado de la primera señal de imagen en el área de imagen asociada.
14. El aparato según la reivindicación 13ª, que comprende además un detector (13) de cambio de escena para detectar un cambio de escena de dicha primera señal de imagen y generar una señal de cambio de escena de acuerdo con ello, respondiendo cada uno de dichos controladores (14A, 14B) a dicha señal de cambio de escena para reponer valores dentro de las posiciones de almacenamiento de la memoria creadora de resolución asociada a valores predeterminados.
15. El aparato según la reivindicación 13ª o 14ª, que comprende además: un filtro (16) para filtrar la segunda señal de imagen.
16. El aparato según la reivindicación 15ª, en el que dicho filtro (16) es un filtro pasa bajos.
17. El aparato según la reivindicación 16ª, que comprende además: una unidad de salida (17) para convertir dicha segunda señal filtrada en una señal de imagen de salida formada con el mismo número de elementos de imagen que el número de elementos de imagen contenidos dentro de una imagen de la primera señal de imagen, y para emitir dicha segunda señal de imagen, teniendo dicha segunda señal de imagen emitida menos distorsión de repliegue de espectro que dicha primera señal de imagen.
18. El aparato según la reivindicación 15ª, en el que dicha unidad de salida comprende una memoria de cuadro (17) para almacenar dicha segunda señal filtrada, siendo leídos los datos desde dicha memoria de cuadro borrando periódicamente líneas de datos para producir dicha señal de salida con menos calidad que dicha segunda señal de imagen.
19. El aparato según la reivindicación 13ª, en el que cada una de dichas partes de circuito de dichos circuitos de tratamiento incluye: un detector (41i-41m) para detectar posiciones vacías en la memoria creadora de resolución asociada (15i-15m) en cuyas posiciones no hay almacenados datos de la primera señal de imagen; y un generador de elementos de imagen (43i-43m) para generar datos de elemento de imagen en las posiciones vacías.
20. El aparato según la reivindicación 19ª, en el que dicho detector incluye una memoria de bandera (42i-42m) para almacenar banderas que indican qué posiciones de almacenamiento de dicha memoria creadora de resolución contienen datos de imagen almacenados de dicha primera señal de imagen.
\newpage
21. El aparato según la reivindicación 19ª o 20ª, en el que dicho generador de elementos de imagen (43i-43m) es operativo para determinar valores de imagen para elementos de imagen en posiciones correspondientes a dichas posiciones vacías interpolando entre datos de elementos de imagen ya almacenados en posiciones de almacenamiento contiguas de dichas posiciones vacías.
22. El aparato según la reivindicación 19ª en el que dicho generador de elementos de imagen (43i-43m) incluye: un determinador (201, 202, 203) para detectar características de la primera señal de imagen y determinar una clase correspondiente a las características detectadas; una memoria de datos de predicción (207) para almacenar datos de predicción para cada clase; y circuitos (205, 206) para generar dichos datos de elemento de imagen para una posición de almacenamiento vacía de acuerdo con los datos de predicción leídos desde la memoria de datos de predicción (207) correspondiente a la clase determinada.
23. El aparato según la reivindicación 22ª, en el que los datos de predicción para cada clase son producidos por aprendizaje usando al menos una señal de imagen de aprendizaje que tiene una mayor resolución que la primera señal.
24. El aparato según la reivindicación 1ª o 2ª, en el que dicha primera señal de imagen comprende una señal de definición estándar (SD) y dicha segunda señal de imagen comprende una señal de alta definición (HD) con mayor resolución que dicha señal de SD tanto en direcciones horizontal como vertical.
25. El aparato según la reivindicación 1ª, en el que: dicha primera señal de imagen representa una imagen de definición estándar (SD) y dicha segunda señal de imagen representa una imagen de alta definición (HD) con mayor resolución que dicha imagen de SD tanto en direcciones horizontal como vertical; y, un área de acceso está definida dentro de dicha memoria creadora de resolución para cada imagen de alta resolución creada, con posiciones de almacenamiento correspondientes a dos veces tantos elementos de imagen en la dirección horizontal y dos veces tantos elementos de imagen en la edición vertical como dicha imagen de SD.
26. El aparato según la reivindicación 1ª, en el que: dicha primera señal de imagen representa una imagen de definición estándar (SD) y dicha segunda señal de imagen representa una imagen de alta definición (HD) con mayor resolución que dicha imagen de SD tanto en direcciones horizontal como vertical; un área de acceso está definida dentro de dicha memoria creadora de resolución para cada imagen de alta resolución creada, con posiciones de almacenamiento correspondientes a cuatro veces tantos elementos de imagen en la dirección horizontal y cuatro veces tantos elementos de imagen en la dirección vertical como dicha imagen de SD; y datos de elemento de imagen son obligados a ser leídos desde dicha memoria creadora de resolución borrando posiciones de almacenamiento alternativas para formar por ello una imagen de HD con dos veces tantos elementos de imagen en cada una de las direcciones horizontal y vertical como dicha imagen de SD.
27. Un método para convertir una primera señal de imagen en una segunda señal de imagen, comprendiendo cada una de dichas primera y segunda señales de imagen una pluralidad de imágenes de diferentes cuadros, comprendiendo dicho método las operaciones de: detectar movimiento de dicha primera señal de imagen entre un primer cuadro y un segundo cuadro; generar elementos de imagen supuestos en la dirección vertical correspondientes al movimiento vertical detectado y/o generar elementos de imagen supuestos en la dirección horizontal correspondientes al movimiento horizontal detectado; y producir dicha segunda señal de imagen basada en dichos datos de elemento de imagen generados añadiendo los elementos de imagen supuestos generados, a los elementos de imagen de dicha primera imagen, en que dicha operación de detectar movimiento comprende la detección del movimiento de dicha primera señal de imagen por una cantidad más fina que una separación de elemento de imagen a elemento de imagen de dicha primera señal de imagen, y además incluyendo las operaciones de: almacenar una imagen de la primera señal de imagen en una memoria creadora de resolución que tiene una capacidad de almacenamiento mayor que una cantidad de datos dentro de una imagen de la primera señal de imagen; controlar la escritura de datos de la primera señal de imagen en dicha memoria creadora de resolución de acuerdo con el movimiento detectado de la primera señal de imagen; y controlar la lectura de datos de una nueva señal de imagen desde dicha memoria, siendo dicha nueva señal de imagen de una mayor resolución que dicha primera señal de imagen.
28. El método según la reivindicación 27ª, que comprende además la operación de filtrado pasa bajos de dicha segunda señal de imagen para reducir cualquier distorsión de repliegue de espectro que pueda estar presente en ella.
29. El método según la reivindicación 27ª o 28ª, en el que dicha operación de controlar la lectura comprende controlar la lectura de datos de dicha nueva señal de imagen como dicha segunda señal de imagen.
30. El método según la reivindicación 27ª, que comprende además las operaciones de: filtrar con un filtro pasa bajos de dicha nueva señal de imagen para producir una señal filtrada; convertir dicha señal de imagen filtrada en dicha segunda señal de imagen formada con el mismo número de elementos de imagen que el número de elementos de imagen contenido dentro de una imagen de la primera señal de imagen; y emitir dicha segunda señal de imagen que tiene menos distorsión de repliegue de espectro que dicha primera señal de imagen.
31. El método según la reivindicación 27ª, que comprende además las operaciones de: detectar un cambio de escena de dicha primera señal de imagen; y reponer datos dentro de posiciones de almacenamiento de dicha memoria creadora de resolución a valores predeterminados cuando se ha detectado un cambio de escena.
32. El método según la reivindicación 27ª, que comprende además generar un indicador o puntero de dirección relativa de acuerdo con el movimiento detectado y escribir datos de imagen de dicho segundo cuadro en dicha memoria en posiciones de acuerdo con el indicador de dirección relativa sin borrar todos los datos de imagen contenidos dentro de dicha memoria de dicho primer cuadro, para producir por ello datos de un cuadro de mayor calidad que contiene tanto dichos primeros datos de cuadro como dichos segundos datos de cuadro en el que dichos segundos dato de cuadro son almacenados en posiciones que están desplazadas con respecto a las posiciones de almacenamiento que almacenan dichos primeros datos de cuadro.
33. El método según la reivindicación 27ª, que comprende además las operaciones de: detectar posiciones vacías en dicha memoria en las que no hay almacenados datos de la primera señal de imagen; y generar datos de elementos de imagen para elementos de imagen correspondientes a las posiciones vacías.
34. El método según la reivindicación 33ª, en el que dicha operación de detección incluye almacenar banderas que indican qué posiciones de almacenamiento de dicha memoria creadora de resolución contienen datos de imagen almacenados de la primera señal de imagen.
35. El método según la reivindicación 33ª, en el que dicha operación de generar datos de elementos de imagen comprende interpolar entre valores de imagen de elementos de imagen contiguos de los que los datos de elementos de imagen están ya almacenados.
36. El método según la reivindicación 33ª, en el que dicha operación de generar datos de elemento de imagen incluye: detectar características de la primera señal de imagen y determinar una clase correspondiente a las características detectadas; almacenar datos de predicción en una memoria de datos de predicción para cada clase; y generar dichos datos de elemento de imagen para una posición de almacenamiento vacía de acuerdo con los datos de predicción leídos desde la memoria de datos de predicción correspondiente a la clase determinada.
37. El método según la reivindicación 33ª, que comprende además producir los datos de predicción para cada clase por aprendizaje usando al menos una señal de imagen de aprendizaje que tiene una mayor resolución que la primera señal.
38. El método según la reivindicación 27ª, en el que dicha primera señal de imagen comprende una señal de definición estándar (SD) y dicha segunda señal de imagen comprende una señal de alta definición (HD) con mayor resolución que dicha señal de SD tanto en direcciones horizontal como vertical.
39. El método según la reivindicación 27ª, en el que dicha primera señal de imagen representa una señal de definición estándar (SD) y dicha segunda señal de imagen representa una imagen de alta definición (HD) con mayor resolución que dicha imagen de SD tanto en direcciones horizontal como vertical; y comprendiendo dicho método además la operación de: almacenar datos de imagen de SD dentro de una área de acceso de dicha memoria creadora de resolución para cada imagen de alta resolución creada, teniendo cada área de acceso posiciones de almacenamiento correspondientes a dos veces tantos elementos de imagen en la dirección horizontal y dos veces tantos elementos de imagen en la dirección vertical como dicha imagen de SD.
40. El método según la reivindicación 27ª, en el que dicha primera señal de imagen representa una imagen de definición estándar (SD) y dicha segunda señal de imagen representa una imagen de alta definición (HD) con mayor resolución que dicha imagen de SD tanto en direcciones a horizontal como vertical; y comprendiendo dicho método además la operación de: almacenar datos de imagen de SD dentro de una área de acceso de dicha memoria creadora de resolución para cada imagen de alta resolución creada, teniendo cada área de acceso posiciones de almacenamiento correspondientes a cuatro veces tantos elementos de imagen en la dirección horizontal y cuatro veces tantos elementos de imagen en la dirección vertical como dicha imagen de SD; y leer datos de elemento de imagen desde dicha memoria creadora de resolución borrando las posiciones de almacenamiento alternativas para formar por ello una imagen de HD con dos veces tantos elementos de imagen en cada una de la direcciones horizontal como vertical como dicha imagen de SD.
41. El método según la reivindicación 27ª, en el que dicha operación de detección de movimiento comprende la detección del movimiento de dicha primera señal de imagen por una cantidad más fina que una separación de elemento de imagen a elemento de imagen de dicha primera señal de imagen en una pluralidad de áreas de imagen de una imagen de la misma, y que incluye además las operaciones de: definir al menos una primera y segunda áreas de imagen de dicha imagen de la primera señal de imagen basadas en al menos el movimiento detectado; producir una primera y segunda áreas de imagen de la segunda señal de imagen basadas en una suposición de elemento de imagen en posiciones correspondientes al movimiento detectado en la primera y segunda áreas de imagen respectivas; y combinar la primera y segunda áreas de imagen de la segunda señal de imagen para formar una señal de imagen compuesta.
ES98301067T 1997-02-14 1998-02-13 Metodo y aparato de conversion de señal de imagen. Expired - Lifetime ES2247659T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP3018197 1997-02-14
JP3018197 1997-02-14
JP26193497 1997-09-26
JP26193497 1997-09-26

Publications (1)

Publication Number Publication Date
ES2247659T3 true ES2247659T3 (es) 2006-03-01

Family

ID=26368487

Family Applications (1)

Application Number Title Priority Date Filing Date
ES98301067T Expired - Lifetime ES2247659T3 (es) 1997-02-14 1998-02-13 Metodo y aparato de conversion de señal de imagen.

Country Status (7)

Country Link
US (1) US6330344B1 (es)
EP (1) EP0859513B1 (es)
CN (1) CN1118194C (es)
CA (1) CA2229511C (es)
DE (1) DE69831886T2 (es)
ES (1) ES2247659T3 (es)
MX (1) MX9801198A (es)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2684690A1 (es) * 2017-03-30 2018-10-04 Felipe SEGURA GUTIERREZ Método para la captura de imágenes desde un dispositivo portable

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3560217B2 (ja) * 1998-04-30 2004-09-02 ソニー株式会社 データ符号化装置、データ符号化方法及びデータ伝送方法
JP4123567B2 (ja) * 1998-04-30 2008-07-23 ソニー株式会社 画像信号処理装置及び方法
JP4147632B2 (ja) * 1998-08-24 2008-09-10 ソニー株式会社 画像情報変換装置、画像情報変換方法、およびテレビジョン受像機
US6188357B1 (en) 1998-09-17 2001-02-13 Novatel Inc. System and method for mitigating static carrier-phase multipath effects
US6718073B1 (en) 1998-09-30 2004-04-06 Sony Corporation Arithmetic device, and converter, and their methods
WO2000021301A1 (en) * 1998-10-05 2000-04-13 Sony Corporation Image transform device and method, learning device and method, and recording medium
WO2000024194A1 (fr) 1998-10-20 2000-04-27 Sony Corporation Dispositif et procede de traitement d'images
US6625322B1 (en) * 1999-06-08 2003-09-23 Matsushita Electric Industrial Co., Ltd. Image coding apparatus
US6912014B2 (en) * 2000-02-10 2005-06-28 Sony Corporation Image processing device and method, and recording medium
JP2002077723A (ja) * 2000-09-01 2002-03-15 Minolta Co Ltd 動画像処理装置、動画像処理方法および記録媒体
KR100412503B1 (ko) * 2001-12-13 2003-12-31 삼성전자주식회사 디지털방송신호의 해상도 설정이 용이한 디지털방송신호수신용 셋톱박스
US7046863B2 (en) * 2002-03-25 2006-05-16 Sharp Laboratories Of America, Inc. Optimizing the advantages of multi-level rendering
EP1357514B1 (en) * 2002-04-23 2008-07-16 STMicroelectronics S.r.l. Method for obtaining a high-resolution digital image
DE60203166T2 (de) * 2002-06-12 2006-03-23 Stmicroelectronics S.R.L., Agrate Brianza Verfahren zur Herstellung von Digital-Bildern mit hoher Auflösung
US7729563B2 (en) * 2002-08-28 2010-06-01 Fujifilm Corporation Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
TW583603B (en) * 2003-02-21 2004-04-11 Inventec Appliances Corp Method for producing enhanced-resolution image by use of a plurality of low-resolution images
CN100375120C (zh) * 2003-06-16 2008-03-12 英华达股份有限公司 藉由多张低解析度影像产生高解析度影像的方法
JP4635629B2 (ja) * 2004-03-30 2011-02-23 日本ビクター株式会社 サンプリングレート変換装置及び画像信号処理方法
JP4184319B2 (ja) * 2004-06-10 2008-11-19 オリンパス株式会社 撮像装置
JP5062968B2 (ja) * 2004-08-11 2012-10-31 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
JP4420811B2 (ja) * 2004-12-21 2010-02-24 富士通マイクロエレクトロニクス株式会社 画像処理装置および方法
US20070188506A1 (en) * 2005-02-14 2007-08-16 Lieven Hollevoet Methods and systems for power optimized display
US7466959B2 (en) * 2005-06-30 2008-12-16 Texas Instruments Incorporated Apparatus and method for IF switching in a dual-tuner, dual-IF, HD radio and FM/AM radio receiver
US7440730B2 (en) * 2005-06-30 2008-10-21 Intel Corporation Device, system and method of multiple transceivers control
JP4818031B2 (ja) * 2005-10-27 2011-11-16 キヤノン株式会社 画像処理装置及び画像処理方法
JP2007221538A (ja) * 2006-02-17 2007-08-30 Fujitsu Ltd シーンチェンジ判定装置、データ転送装置、シーンチェンジ判定方法、および、データ転送方法
KR100761846B1 (ko) * 2006-05-18 2007-09-28 삼성전자주식회사 연속되는 영상에 모션이 있는가를 검출하는 모션 검출 장치및 모션 검출 방법
GB2443858A (en) * 2006-11-14 2008-05-21 Sony Uk Ltd Alias avoiding image processing using directional pixel block correlation and predetermined pixel value criteria
KR100843093B1 (ko) * 2006-11-28 2008-07-02 삼성전자주식회사 움직임에 따라 컨텐츠를 디스플레이하는 장치 및 방법
US7809212B2 (en) * 2006-12-20 2010-10-05 Hantro Products Oy Digital mosaic image construction
JP5057839B2 (ja) * 2007-04-27 2012-10-24 株式会社東芝 構造物の目視検査装置およびその検査方法
JP5111088B2 (ja) * 2007-12-14 2012-12-26 三洋電機株式会社 撮像装置及び画像再生装置
EP2081150A1 (en) * 2008-01-18 2009-07-22 Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO Method of improving the resolution of a moving object in a digital image sequence
FI20095273A0 (fi) * 2009-03-17 2009-03-17 On2 Technologies Finland Oy Digitaalinen videokoodaus
CN102204255B (zh) * 2009-07-07 2014-09-17 松下电器产业株式会社 运动图像解码装置、方法和系统以及集成电路
JP5423235B2 (ja) * 2009-08-20 2014-02-19 ソニー株式会社 撮像装置
EP2405661B1 (en) 2010-07-06 2017-03-22 Google, Inc. Loss-robust video transmission using two decoders
JP2012244395A (ja) 2011-05-19 2012-12-10 Sony Corp 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体
US9014265B1 (en) 2011-12-29 2015-04-21 Google Inc. Video coding using edge detection and block partitioning for intra prediction
US9210424B1 (en) 2013-02-28 2015-12-08 Google Inc. Adaptive prediction block size in video coding
US9313493B1 (en) 2013-06-27 2016-04-12 Google Inc. Advanced motion estimation
US8917354B2 (en) * 2013-09-30 2014-12-23 Amlogic Co., Ltd. Motion detection in video fields
US9774881B2 (en) * 2014-01-08 2017-09-26 Microsoft Technology Licensing, Llc Representing motion vectors in an encoded bitstream
US9749642B2 (en) 2014-01-08 2017-08-29 Microsoft Technology Licensing, Llc Selection of motion vector precision
US9807416B2 (en) 2015-09-21 2017-10-31 Google Inc. Low-latency two-pass video coding
US10147167B2 (en) 2015-11-25 2018-12-04 Heptagon Micro Optics Pte. Ltd. Super-resolution image reconstruction using high-frequency band extraction
CN115460463A (zh) 2018-01-04 2022-12-09 三星电子株式会社 视频播放装置及其控制方法
CN108712620B (zh) * 2018-05-16 2020-12-25 上海集成电路研发中心有限公司 一种运动检测电路及运动检测方法

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0294957B1 (en) 1987-06-09 1995-04-12 Sony Corporation Motion vector processing in digital television images
US5111511A (en) * 1988-06-24 1992-05-05 Matsushita Electric Industrial Co., Ltd. Image motion vector detecting apparatus
GB9022743D0 (en) * 1990-10-19 1991-04-03 Marconi Gec Ltd Noise reduction of video signal
US6104439A (en) * 1992-02-08 2000-08-15 Samsung Electronics Co., Ltd. Method and apparatus for motion estimation
JP3438233B2 (ja) 1992-05-22 2003-08-18 ソニー株式会社 画像変換装置および方法
US5381183A (en) * 1992-07-03 1995-01-10 Mitsubishi Denki Kabushiki Kaisha Motion-adaptive scanning-line conversion circuit
US5588067A (en) * 1993-02-19 1996-12-24 Peterson; Fred M. Motion detection and image acquisition apparatus and method of detecting the motion of and acquiring an image of an object
US5614945A (en) 1993-10-19 1997-03-25 Canon Kabushiki Kaisha Image processing system modifying image shake correction based on superimposed images
JP3111442B2 (ja) * 1993-12-14 2000-11-20 ブラザー工業株式会社 文書処理装置
US5557298A (en) * 1994-05-26 1996-09-17 Hughes Aircraft Company Method for specifying a video window's boundary coordinates to partition a video signal and compress its components
US5485611A (en) * 1994-12-30 1996-01-16 Intel Corporation Video database indexing and method of presenting video database index to a user

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ES2684690A1 (es) * 2017-03-30 2018-10-04 Felipe SEGURA GUTIERREZ Método para la captura de imágenes desde un dispositivo portable

Also Published As

Publication number Publication date
CN1118194C (zh) 2003-08-13
EP0859513A2 (en) 1998-08-19
MX9801198A (es) 1998-11-30
EP0859513A3 (en) 2000-03-22
DE69831886T2 (de) 2006-07-27
EP0859513B1 (en) 2005-10-19
CA2229511A1 (en) 1998-08-14
DE69831886D1 (de) 2005-11-24
US6330344B1 (en) 2001-12-11
CN1199987A (zh) 1998-11-25
CA2229511C (en) 2004-06-08

Similar Documents

Publication Publication Date Title
ES2247659T3 (es) Metodo y aparato de conversion de señal de imagen.
KR100195361B1 (ko) 와이드 스크린 텔레비젼
ES2334507T3 (es) Proceso para la descompresion de videos con base en el objeto empleando caracteristicas conformadas arbitrariamente.
KR100254958B1 (ko) 디지탈 비디오 신호 변환 장치
US7466451B2 (en) Method and apparatus for converting motion image data, and method and apparatus for reproducing motion image data
EP0711487B1 (en) A method for specifying a video window's boundary coordinates to partition a video signal and compress its components
JP2002517176A (ja) デジタル動きビデオ信号のコード化と復号の方法および装置
JPH0239789A (ja) 高品位テレビジョン伝送装置及び方法
KR100209850B1 (ko) 비비월 주사 비디오 신호와 비월 주사 비디오 신호를 동시에 디스플레이하는 장치
US5926611A (en) High resolution digital recorder and method using lossy and lossless compression technique
EP0923052B1 (en) Image encoding/decoding technique
US5841480A (en) Film to video format converter using least significant look-up table
EP0698330A1 (en) Film to video format converter using least significant look-up table
KR980013427A (ko) 영상 코딩 장치, 영상 코딩 방법, 영상 디코딩 방법,영상 디코딩 장치, 영상 데이터 전송 방법 및 기록 매체(Image Coding Apparatus, Image Coding Method, Image Decoding Method, Image Decofing Apparatus, Image Data Transmitting Method and Recording Medium)
AU636084B2 (en) Datv encoding and decoding method and apparatus
JP4120898B2 (ja) 画像処理装置および画像処理方法
KR100505516B1 (ko) 영상신호변환장치및방법
JP4300446B2 (ja) 画像処理装置及び画像処理方法
JP4470324B2 (ja) 画像信号変換装置および方法
US20060176530A1 (en) Gradation interpolating circuit and gradation interpolating method
JP4120095B2 (ja) 画像情報変換装置および変換方法
KR100229292B1 (ko) 비디오 디스플레이 제어 시스템_
JPH06268909A (ja) 映像再生装置
JPH1093886A (ja) アスペクト変換装置
JPH0856329A (ja) ワイドアスペクト映像信号記録方法及びこれを用いた磁気記録再生装置