ES2247659T3 - Metodo y aparato de conversion de señal de imagen. - Google Patents
Metodo y aparato de conversion de señal de imagen.Info
- Publication number
- ES2247659T3 ES2247659T3 ES98301067T ES98301067T ES2247659T3 ES 2247659 T3 ES2247659 T3 ES 2247659T3 ES 98301067 T ES98301067 T ES 98301067T ES 98301067 T ES98301067 T ES 98301067T ES 2247659 T3 ES2247659 T3 ES 2247659T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- signal
- data
- memory
- image signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 94
- 238000006243 chemical reaction Methods 0.000 title abstract description 5
- 230000033001 locomotion Effects 0.000 claims abstract description 154
- 238000012545 processing Methods 0.000 claims abstract description 5
- 230000015654 memory Effects 0.000 claims description 189
- 238000001228 spectrum Methods 0.000 claims description 42
- 230000008859 change Effects 0.000 claims description 41
- 238000000926 separation method Methods 0.000 claims description 17
- 238000001514 detection method Methods 0.000 claims description 6
- 239000002131 composite material Substances 0.000 claims description 5
- 238000001914 filtration Methods 0.000 claims description 5
- 239000013598 vector Substances 0.000 description 69
- 230000008569 process Effects 0.000 description 44
- 230000006978 adaptation Effects 0.000 description 23
- 238000010586 diagram Methods 0.000 description 19
- 238000013461 design Methods 0.000 description 12
- 238000005070 sampling Methods 0.000 description 12
- 239000011159 matrix material Substances 0.000 description 11
- 238000013500 data storage Methods 0.000 description 9
- 238000013459 approach Methods 0.000 description 7
- 230000009471 action Effects 0.000 description 4
- 230000006870 function Effects 0.000 description 4
- 230000008030 elimination Effects 0.000 description 3
- 238000003379 elimination reaction Methods 0.000 description 3
- 230000005055 memory storage Effects 0.000 description 3
- 230000000717 retained effect Effects 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 230000003292 diminished effect Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 238000010894 electron beam technology Methods 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000012546 transfer Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000015556 catabolic process Effects 0.000 description 1
- 150000001875 compounds Chemical class 0.000 description 1
- 230000008878 coupling Effects 0.000 description 1
- 238000010168 coupling process Methods 0.000 description 1
- 238000005859 coupling reaction Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000006731 degradation reaction Methods 0.000 description 1
- 239000000284 extract Substances 0.000 description 1
- 238000009499 grossing Methods 0.000 description 1
- 238000002513 implantation Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004091 panning Methods 0.000 description 1
- 239000000047 product Substances 0.000 description 1
- 230000000750 progressive effect Effects 0.000 description 1
- 230000003252 repetitive effect Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 239000013589 supplement Substances 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/4023—Scaling of whole images or parts thereof, e.g. expanding or contracting based on decimating pixels or lines of pixels; based on inserting pixels or lines of pixels
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0125—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level one of the standards being a high definition standard
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
- H04N7/014—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes involving the use of motion vectors
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/147—Scene change detection
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/44—Receiver circuitry for the reception of television signals according to analogue transmission standards
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Television Systems (AREA)
- Investigating Or Analyzing Materials By The Use Of Ultrasonic Waves (AREA)
- Image Processing (AREA)
Abstract
UN APARATO DE CONVERSION DE SEÑALES DE IMAGENES PARA CONVERTIR UNA PRIMERA SEÑAL DE IMAGEN EN UNA SEGUNDA SEÑAL DE IMAGEN, DONDE LA PRIMERA Y LA SEGUNDA SEÑALES DE IMAGENES INCLUYEN UNA PLURALIDAD DE IMAGENES DE DIFERENTES TRAMAS. PUEDE OPERARSE UN DETECTOR DE MOVIMIENTO PARA DETECTAR EL MOVIMIENTO DE LA PRIMERA SEÑAL DE IMAGEN ENTRE UNA PRIMERA TRAMA Y UNA SEGUNDA TRAMA Y LOS CIRCUITOS DE PROCESAMIENTO PRODUCEN LA SEGUNDA SEÑAL DE IMAGEN BASANDOSE EN LA SUPOSICION DE UN PIXEL EN UNA POSICION CORRESPONDIENTE AL MOVIMIENTO DETECTADO. PUEDE UTILIZARSE EL APARATO PARA PRODUCIR UNA SEÑAL DE SALIDA O BIEN LA MISMA RESOLUCION QUE LA PRIMERA SEÑAL DE IMAGEN CON LA DISTORSION DE SOLAPAMIENTO REDUCIDA O ELIMINADA, O CON UNA RESOLUCION SUPERIOR EN LAS DIRECCIONES VERTICAL Y/O HORIZONTAL.
Description
Método y aparato de conversión de señal de
imagen.
El presente invento se refieren en general al
tratamiento de imágenes y en particular, a un dispositivo y a un
método de tratamiento de imágenes.
Con técnicas digitales modernas de formación de
imágenes, las señales de vídeo analógicas son muestreadas y
almacenadas como datos digitales para la reproducción subsiguiente
en un tubo de rayos catódicos (CRT) u otro dispositivo de
presentación. Es un éxito del diseño presentar tales imágenes con
una resolución tan alta y una distorsión tan pequeña como sea
posible.
Las imágenes presentadas en un CRT, tales como
imágenes derivadas de señales de televisión, de grabadores de cintas
de vídeo (VTR) o de reproductores de discos versátiles digitales
(DVD), son generadas por exploración repetitiva de haces de
electrones en la dirección horizontal. Como se ha ilustrado en la
fig. 25, cada exploración horizontal es realizada de izquierda a
derecha, y después de cada exploración, los haces son barridos de
nuevo a la extrema izquierda y posicionados de nuevo verticalmente
para comenzar la siguiente exploración horizontal. La pantalla
fluorescente del CRT es irradiada por tres haces de electrones para
iluminar los fósforos azul, verde y rojo respectivos distribuidos en
pequeñas unidades en la pantalla. Los fósforos producen puntos de
luz correspondientes a la intensidad de los haces de electrones, y
la congregación de todos los puntos produce una imagen. Por tanto,
una imagen presentada puede ser considerada una congregación de
tales puntos, es decir, elementos de imagen.
Como una imagen presentada en un CRT derivada de
una señal analógica está compuesta por una congregación de elementos
de imagen emisores de luz, la imagen puede ser considerada como una
señal digital obtenida muestreando la imagen original en las
posiciones del elemento de imagen. Así, si la imagen analógica
original hubiera sido muestreada en un intervalo de muestreo
suficiente tanto en las direcciones horizontal como vertical para
generar el mismo número de puntos que el número de elementos de
imagen en un CRT, una colección de datos de imagen podría ser
almacenada digitalmente. Cuando es reproducida subsiguientemente,
una imagen de casi la misma resolución es obtenida como en un
intento estrictamente analógico de grabación/reproducción.
El teorema de muestreo dicta que una señal
analógica puede ser reconstruida completamente a partir de un
conjunto de muestras discretas uniformemente espaciadas de la misma
en tiempo, siempre que la señal sea muestreada a una tasa de al
menos dos veces la componente de mayor frecuencia de la señal.
Cuando se muestrea una imagen original, si el teorema de muestreo no
es satisfecho, se genera una distorsión de repliegue del espectro en
la imagen presentada. Para corregir la distorsión de repliegue del
espectro, se han usado filtros previos para compensar el submuestreo
en la dirección horizontal (línea de exploración); sin embargo,
tales filtros previos no están típicamente previstos en la dirección
vertical. Como tal, la distorsión por repliegue del espectro en la
dirección vertical es un problema corriente.
La fig. 26 ilustra la distorsión de repliegue del
espectro de una imagen presentada en la dirección vertical. Cuatro
elementos de imagen P_{1} - P_{4} de una columna dada están
mostrados en cada uno de los cuadros N y N+1. Las señales S_{N} y
S_{N+1} representan la variación de nivel de imagen de la imagen
original en la dirección vertical para la columna dada, donde el
nivel de amplitud está ilustrado horizontalmente en la figura. Así,
por ejemplo, en el cuadro N, la luminancia de la imagen es mayor
para el elemento de imagen P_{2} que para el elemento de imagen
P_{1}. Ahora, si la componente de mayor frecuencia espacial de la
imagen original en la dirección vertical tiene un período de menos
de dos veces la separación horizontal entre elementos de imagen, a
continuación el teorema de muestreo no es satisfecho y da como
resultado una distorsión de repliegue del espectro. Tal es el caso
tanto para la señal S_{N} como S_{N-1} en la
fig. 26. Por ejemplo, la señal S_{N}', que es una aproximación
para la señal muestreada de cuadro N, es muy diferente de la señal
original S_{N}. Con la distorsión de repliegue del espectro, la
componente de frecuencia elevada de la señal original será perdida
durante la reproducción, incluso aunque se emplee un filtro para
eliminar el repliegue del espectro. Tal distorsión de repliegue del
espectro puede ser una causa de degradación en el tratamiento de
señal tal como separación de Y/C, eliminación de ruido, mejora de la
calidad, y así sucesivamente.
Ha de observarse que mientras el submuestreo de
la imagen como se acaba de describir dará como resultado siempre una
resolución disminuida, el efecto sobre el espectador en términos de
calidad de imagen depende de cómo cambia la escena de cuadro a
cuadro. Si un cuadro con distorsión de repliegue de espectro cambia
significativamente de cuadro a cuadro, como sucede en la fig. 26,
entonces una imagen que se mueve de manera antinatural o una
borrosidad resultan desde la perspectiva del usuario. Si la escena
permanece aún, el ruido de repliegue no es tan grande. En cualquier
caso, como la resolución es siempre degradada por submuestreo, y
como las señales de retransmisiones estándar de televisión y
similares están destinadas solo a un número limitado de barridos
horizontales por imagen, existe la necesidad de un modo práctico de
eliminar el repliegue del espectro y la captura de nuevo de la
imagen original con una calidad mejorada.
Patti A.J. y col., "Conversión de Normas de
Alta Resolución de vídeo de Baja Resolución", Ponencias de la
Conferencia Internacional sobre Acústica, Voz y Tratamiento de
Señales (ICASSP), Detroit, 9 - 12 de Mayo de 1995, Desarrollo de
Aplicaciones de Tratamiento de Señal de Imagen y
Multi-Dimensional/Tratamiento de Señal, vol. 4, nº
conf. 20, páginas 2197-2200, se refiere al problema
de reconstrucción de alta resolución de reconstruir una imagen con
buena calidad aún a partir de una secuencia de imágenes de baja
resolución que padecen repliegue de espectro entre otros defectos.
Las soluciones propuestas tienen componentes que incluyen
compensación de movimiento e interpolación. La compensación de
movimiento es usada para aplicar el elemento de imagen desde los
cuadros de baja resolución disponibles a una rejilla común de alta
resolución. Para hacer eso, los vectores de movimiento son
calculados. La interpolación implica combinar elementos de imagen
que han sido aplicados desde la rejilla de baja resolución a la
rejilla de alta resolución para producir una imagen de alta
resolución muestreada sobre una rejilla rectangular.
A. Murat Tekalp y col., "Reconstrucción de
Imágenes de Alta Resolución a partir de Secuencias de Imágenes de
Resolución Inferior y Restauración de Imágenes variables en el
Espacio". Ponencias de la Conferencia Internacional sobre
Acústica, Voz y Tratamiento de Señales (ICASSP), Estados Unidos de
Norteamérica, New-York, IEEE, vol., Conf., 17 1992,
páginas 169 - 172, describe información similar a la de Patti A.J. y
col. Además, Tekalp y col., han recomendado segmentar una imagen que
contiene movimiento en regiones con movimiento uniforme y aplicar
reconstrucción separadamente sobre los segmentos.
Una realización del invento procura convertir una
señal de imagen submuestreada en una señal de imagen de salida con
distorsión de repliegue del espectro reducida o eliminada.
Otra realización del invento pretende generar una
imagen de alta resolución a partir de una imagen de baja
resolución.
Otra realización del invento pretende mejorar la
calidad de una imagen presentable generada a partir de una señal de
imagen de entrada de baja calidad.
Aspectos del invento están especificados en las
reivindicaciones a las que se invita a prestar atención.
En una realización ilustrativa del invento, se ha
previsto un aparato convertidor de señal de imagen para convertir
una primera señal de imagen en una segunda señal de imagen, en el
que la primera y segunda señales de imagen incluyen cada una una
pluralidad de cuadros de imágenes diferentes, comprendiendo los
cuadros elementos de imagen dispuestos en direcciones horizontal y
vertical. El aparato incluye un detector de movimiento accionable
para detectar el movimiento de la primera señal de imagen entre
cuadros sucesivos y circuitos de tratamiento para producir la
segunda señal de imagen añadiendo, a los elementos de imagen de la
primera imagen, elementos de imagen asumidos en la dirección
vertical correspondientes al movimiento vertical detectado, y/o
elementos de imagen asumidos en la dirección horizontal
correspondientes al movimiento horizontal detectado.
El aparato puede ser empleado para producir una
señal de salida ya sea con la misma resolución que la primera señal
de imagen con distorsión de repliegue del espectro reducida o
eliminada, o ya sea con una mayor resolución en las direcciones
vertical y/o horizontal. El detector de movimiento detecta
preferiblemente el movimiento de la primera señal de imagen por una
cantidad más fina que un tamaño de elemento de imagen de la primera
señal de imagen. Los circuitos de tratamiento pueden estar
compuestos de una memoria creadora de resolución para almacenar una
imagen de la primera señal de imagen y que tiene una capacidad de
almacenamiento mayor que una cantidad de datos dentro de una imagen
de la primera señal de imagen, y un controlador accionable para
controlar la escritura de la primera señal de imagen en la memoria
creadora de resolución y la lectura de una nueva señal de imagen a
partir de la memoria. El controlador escribe la primera señal de
imagen en la memoria de acuerdo con el movimiento detectado de la
primera señal de imagen.
En otra realización, el aparato convertidor de
imágenes incluye un divisor de área para definir al menos una
primera y segunda áreas de imagen de una imagen, en las que el
movimiento es detectado en cada una de las áreas de imagen. En este
caso, la primera y segunda áreas de imagen de la segunda señal de
imagen son generadas basadas en una suposición de elementos de
imagen en posiciones correspondientes al movimiento detectado en la
primera y segunda áreas de imagen respectivas de la primera señal de
imagen. Un combinador combina la primera y segunda áreas de imagen
de la segunda señal para generar una imagen compuesta.
En una aplicación, la primera señal de imagen
puede ser una señal de imagen de definición estándar (SD) que es
convertida a una señal de imagen de alta definición (HD) como la
segunda señal de imagen que tiene dos veces la resolución de la
señal de SD tanto en la dirección horizontal como en la dirección
vertical. Para algunos de los cuadros, los elementos de imagen de la
señal de HD pueden también ser generados por una técnica de
tratamiento de adaptación.
La siguiente descripción detallada, está dada a
modo de ejemplo y no está destinada a limitar el presente invento
únicamente a ella, será mejor apreciada en unión con los dibujos
adjuntos, en los que números de referencia similares indican
elementos y partes similares, en los que:
La fig. 1 es un diagrama de bloques de un
receptor de televisión ilustrativo de acuerdo con el invento;
Las figs. 2A-2B y 3 son diagramas
que ilustran la creación de datos de elementos de imagen de acuerdo
con el invento;
La fig. 4 es un diagrama de bloques del corrector
de distorsión de la fig. 1;
La fig. 5 es una gráfica que ilustra un método de
determinar un vector de movimiento para una imagen;
Las figs. 6-8 ilustran el
almacenamiento de datos dentro de una memoria creadora de
resolución;
La fig. 9 es un diagrama de flujo que representa
una rutina para crear cuadros de alta resolución;
La fig. 10 es un diagrama de bloques de un
corrector de distorsión ilustrativo;
La fig. 11 es un diagrama de bloques de otra
realización de un receptor de acuerdo con el invento;
La fig. 12 es un diagrama de bloques de un
convertidor de resolución ilustrativo dentro del receptor de la fig.
11;
La fig. 13 representa posiciones de
almacenamiento de datos de una memoria creadora de resolución del
convertidor de la fig. 12;
La fig. 14 es un diagrama de flujo que representa
una rutina para escribir datos de imagen dentro de una memoria del
convertidor de resolución;
La fig. 15 ilustra el almacenamiento de datos de
imagen en el convertidor de resolución de acuerdo con un vector de
movimiento de una imagen;
La fig. 16 es un diagrama de flujo que ilustra
una rutina para leer datos de imagen a partir de una memoria
convertidora de resolución dentro del convertidor de resolución;
La fig. 17 es un diagrama de flujo que representa
un proceso para generar datos de elementos de imagen de alta
definición.
La fig. 18 es un diagrama de bloques de un
circuito para generar datos de imagen de alta definición a partir de
datos de imagen de definición estándar empleando coeficientes de
predicción;
La fig. 19 es un diagrama que ilustra tomas de
clase y tomas de predicción;
La fig. 20 es un diagrama de bloques de un
dispositivo de aprendizaje para determinar coeficientes de
predicción;
La fig. 21 ilustra el almacenamiento de datos
dentro de una memoria creadora de resolución con un área de acceso
agrandada;
La fig. 22 ilustra el movimiento cuadro a cuadro
de una imagen;
Las figs. 23 y 24 ilustran el almacenamiento de
datos de elementos de imagen de la imagen de la fig. 22;
La fig. 25 ilustra líneas de exploración
horizontales de una pantalla de presentación de CRT;
La fig. 26 ilustra el submuestreo de una señal de
imagen en la dirección vertical; y
La fig. 27 es un diagrama de bloques de otro
convertidor de resolución de acuerdo con el invento.
Con referencia a la fig. 1, se ha mostrado un
diagrama de bloques simplificado de un receptor de televisión
ilustrativo 10 de acuerdo con el presente invento. El receptor 10
convierte una señal de televisión de entrada en una señal digital,
corrige la señal digital para la distorsión de repliegue del
espectro mientras mejora su resolución, y a continuación convierte
la señal digital con la distorsión corregida de nuevo en una señal
analógica para presentación.
El receptor 10 incluye un sintonizador 1 para
desmodular una señal de transmisión de televisión de entrada de una
banda seleccionada, que es recibida por medio de una antena o línea
de transmisión. La señal desmodulada es aplicada a un filtro pasa
bajos (LPF) 2, que funciona como un filtro previo de distorsión de
repliegue del espectro para filtrar componentes de frecuencia
elevada de la señal de televisión. La señal de salida filtrada del
LPF 2 es aplicada a un convertidor 3 analógico a digital (A/D) en el
que es muestreada y digitalizada. La señal digitalizada es a
continuación proporcionada al corrector de distorsión 4 que reduce o
elimina esencialmente la distorsión de repliegue del espectro en la
dirección vertical de la señal de televisión digitalizada. Un
circuito de tratamiento de imagen tal como un separador 5 de Y/C es
empleado entre el corrector de distorsión 4 y el convertidor 6 D/A
(o alternativamente entre el sintonizador 1 y el LPF 2). El
separador 5 de Y/C separa la luminancia de la crominancia en la
señal de salida procedente del corrector de distorsión 4. Se ha
observado que en la configuración mostrada, una señal compuesta
(luminancia más crominancia) es alimentada a un convertidor 3 A/D, y
el muestreo es realizado de acuerdo con la frecuencia de la
subportadora de luminancia. Si, en la alternativa, la separación de
Y/C de la señal de televisión es realizada antes de que la señal sea
aplicada al convertidor 3 A/D, a continuación podría realizarse el
muestreo a una frecuencia del orden de 13,5 MHz. En cualquier caso,
el convertidor 6 de D/A convierte la señal de salida con la
distorsión corregida del corrector de distorsión 4 de nuevo en una
señal analógica que ha de ser presentada en CRT 7.
La reproducción de una imagen original a partir
de una imagen que tiene distorsión de repliegue del espectro en la
dirección vertical, es decir, normal a las líneas de exploración
horizontal, será descrita a continuación. Con referencia a la fig.
2A, se ha ilustrado lo principal de un método de eliminación de
distorsión de repliegue de espectro realizado dentro del corrector
de distorsión 4. La variación de la señal de imagen en la dirección
vertical dentro de una columna dada C_{1} de cada cuadro de la
imagen está designada como señales S_{N} a S_{N+4} para cuadros
N a N+4, respectivamente. Los elementos de imagen P_{1} a P_{k}
de columna C_{1} en cada cuadro están situados en las posiciones
respectivas de líneas de exploración horizontal tradicionales
SL_{1}-SL_{k}. El nivel de señal de cada
elemento de imagen está ilustrado horizontalmente en la figura - por
ejemplo, en el cuadro N, los niveles de señal
V_{1}-V_{k} corresponden a los elementos de
imagen P_{1}-P_{k}, respectivamente.
De acuerdo con una realización del presente
invento, los elementos de imagen son creados en posiciones entre las
líneas de exploración horizontal tradicionales para eliminar la
distorsión de repliegue del espectro y, opcionalmente, para mejorar
la resolución de la imagen presentada. Estos elementos de imagen
entre líneas de exploración son creados de acuerdo con el movimiento
de la imagen de cuadro a cuadro. Para ilustrar este concepto, se ha
hecho primero referencia al cuadro N, en el que se ha mostrado la
variación de señal de una imagen original S_{N} a lo largo de la
columna C_{1} para ese cuadro. Debido a las frecuencias espaciales
elevadas dentro de la señal S_{N}, el muestreo vertical en
posiciones que corresponden a las líneas de exploración horizontales
es insuficiente para reproducir toda la información de imágenes en
él, por lo que la distorsión de repliegue del espectro resultaría
sin el método de creación de elemento de imagen del invento. Es
decir, la señal de imagen orientada verticalmente basada simplemente
en muestrear simplemente un cuadro cada vez en las líneas de
exploración horizontal tradicionales se parecería a una señal
distorsionada S_{N}' (mostrada como una línea de trazos), que es
marcadamente diferente a partir de la señal de imagen
original S_{N}.
original S_{N}.
Para generar elementos de imagen entre líneas de
exploración que vuelven a capturar la imagen original, se detecta el
movimiento de cuadro a cuadro de la señal de imagen. Para el cuadro
N, los valores de señal V_{1}-V_{k} para los
elementos de imagen respectivos son almacenados en la memoria. El
movimiento de la imagen es a continuación detectado entre el cuadro
N y N+1. (Métodos ilustrativos de detección del movimiento de cuadro
a cuadro serán descritos posteriormente). En el ejemplo de la fig.
2A, la imagen se mueve hacia abajo en una distancia D_{1} entre
los cuadros N y N+1. Para el cuadro N+1, la imagen es de nuevo
muestreada en las líneas de exploración horizontal para generar
valores de señal V_{1}'-V_{k}' para elementos de
imagen P_{1}-P_{k} de cuadro N+1 y esos valores
son almacenados en memoria. Además, los elementos de imagen entre
líneas de exploración P_{1a}, P_{2a}, ... P_{ka} son creados y
almacenados en memoria, en la que el elemento de imagen P_{1a}
tiene el valor de señal de V_{1} determinado a partir de la
muestra del cuadro N para el elemento de imagen P_{1}, elemento de
imagen P_{2a} tiene el valor de señal de V_{2} determinado a
partir de la muestra del cuadro N para el elemento de imagen
P_{2}, y así sucesivamente. La situación del elemento de imagen
P_{1a} en el cuadro N+1 es la distancia D_{1} desde la línea de
exploración SL_{1}, determinada basada en el movimiento desde el
cuadro N al N+1. De modo similar, el elemento de imagen P_{2a}
está situado a la distancia D_{1} por debajo de la línea de
exploración SL_{2}.
El proceso de generación de elementos de imagen
es repetido para el cuadro N+2, en el que la señal de imagen
S_{N+2} es muestreada en las líneas de exploración horizontal para
determinar valores de señal V_{1}'' - V_{K}'' para elementos de
imagen respectivos P_{1}-P_{K} de ese cuadro, y
es detectado el movimiento desde el cuadro N+1 hasta el cuadro N+2.
Suponiendo que la imagen se mueve hacia abajo en una distancia
D_{2}, los elementos de imagen P_{1b}, P_{2b}, ..., P_{Kb}
son generados con valores de V_{1}', V_{2}', ... V_{K}'
correspondientes a los valores previamente determinados almacenados
en memoria para el cuadro N+1, y cada uno situado a una distancia
D_{2} por debajo de la línea de exploración horizontal respectiva
SL_{1}. De modo similar, el cuadro N+2 contiene los elementos de
imagen P_{1a}, P_{2a}, ..., P_{Ka} que tiene valores de
V_{1}, V_{2}, ... V_{K}, respectivamente, como almacenados
previamente en memoria para el cuadro N+1, y cada uno situado a una
distancia (D_{1}+D_{2}) por debajo de SL_{1}.
El proceso de generación de elementos de imagen
prosigue para los cuadros subsiguientes hasta que se genera un
número predeterminado de elementos de imagen adicionales. En el
ejemplo de la fig. 2A, el proceso continua hasta el cuadro N+4, que
tiene cinco veces tantos elementos de imagen en la dirección
vertical como en el cuadro N. La fig. 2B muestra los elementos de
imagen entre las líneas de exploración SL_{1} y SL_{2} del
cuadro N+4. Se ha supuesto que la imagen movida hacia abajo en una
distancia D_{1} entre los cuadros N+2 y N+3, y en una distancia
D_{4} entre los cuadros N+3 y N+4. Así, el cuadro N+4 tiene un
elemento de imagen P_{1} de valor V_{1}'''' correspondiente al
nivel de señal S_{N+4} en la posición SL_{1}, así como elementos
de imagen P_{1d}, P_{1c}, P_{1b} y P_{1a} de valores
V_{1}''', V_{1}'', V_{1}' y V_{1} respectivamente, donde
P_{1d} está a una distancia D_{4} por debajo de SL_{1},
P_{1c} está a una distancia (D_{3}+D_{4}) por debajo de
SL_{1}, y así sucesivamente. Desde luego, pueden generarse más o
menos elementos de imagen adicionales como una función de la
resolución deseada. En cualquier caso, en el presente ejemplo, todos
los cuadros subsiguientes al cuadro N+4 tendrán cinco veces tantos
elementos de imagen en la dirección vertical como el número de
líneas de exploración horizontal.
Consiguientemente, la generación de elementos de
imagen es realizada suponiendo elementos de imagen en posiciones
correspondientes al movimiento. Prácticamente, sin embargo, es
deseable representar una imagen con muestras espaciadas
uniformemente. En el ejemplo anterior, si el movimiento entre
cuadros no es uniforme de tal forma que las distancias
D_{1}-D_{4} sean desiguales, los elementos de
imagen que son creados serán especiados de forma no uniforme. Sin
embargo, redondeando apropiadamente el movimiento entre cuadros, los
elementos de imagen de separación uniforme pueden ser derivados y
almacenados en memoria. Suponiendo que el cuadro N+4 está así
representado por elementos de imagen espaciados uniformemente en la
dirección vertical (hasta cinco veces el número de líneas de
exploración en este ejemplo), cada cuadro después de ello puede ser
representado por el mismo número de elementos de imagen espaciados
uniformemente.
En el ejemplo de la fig. 2A, se ha supuesto que
el movimiento entre cuadros de la imagen era estrictamente en la
dirección vertical. Para eliminar la distorsión de repliegue del
espectro y aumentar el número de elementos de imagen en la dirección
vertical cuando la imagen original se está moviendo tanto en la
dirección horizontal como en la vertical, el movimiento horizontal
también debe ser tenido en cuenta. A este fin, un vector de
movimiento es calculado de cuadro a cuadro como será descrito de
forma más completamente a continuación. Además, partes diferentes de
la imagen dentro del cuadro se mueven típicamente en direcciones
diferentes. Ciertas realizaciones del invento tienen en cuenta tal
movimiento divergente también analizando bloques diferentes de cada
cuadro separadamente.
La fig. 3 es un diagrama que ilustra el concepto
general de mejorar la resolución y eliminar el repliegue del
espectro creando elementos de imagen basados en datos de imagen a
partir de cuadros previos y movimiento de imagen de cuadro a cuadro.
La parte superior del diagrama muestra cuadros N a N+3 con datos de
imagen 101-104, respectivamente, a lo largo de
líneas de exploración horizontal comunes. Suponiendo que la imagen
se mueve hacia debajo por incrementos desde el cuadro N a N+3, son
generados elementos de imagen adicionales entre las líneas de
exploración basados en los datos a partir del cuadro previo y el
movimiento de imagen como se ha descrito antes. Así, el cuadro N+1
es mejorado con datos 101 de elemento de imagen de cuadro N; los
datos 101, 102 de elemento de imagen son añadidos al cuadro N+2 y
los datos 101, 102 y 103 de elemento de imagen son añadidos al
cuadro N+3 para generar una imagen de alta resolución con cuatro
veces tantos elementos de imagen en la dirección vertical en
comparación con el cuadro original.
Con referencia ahora a la fig. 4, se ha
representado un diagrama de bloques de una configuración ilustrativa
para el corrector de distorsión 4. Una memoria de cuadro 11 recibe
datos de imagen de entrada aplicados al corrector de distorsión. Los
datos de imagen de entrada se suponen que corresponden a una señal
de imagen submuestreada tal que la distorsión de repliegue del
espectro resultaría normalmente si los cuadros fueran reproducidos
simplemente sin que sean añadidos elementos de imagen que mejoran la
resolución. La memoria de cuadro 11 está compuesta de una memoria de
cuadro actual 11A para almacenar datos de imagen de un cuadro actual
y una memoria de cuadro precedente 11B que almacena datos de imagen
del cuadro que precede inmediatamente al cuadro actual. Un detector
de movimiento 12 detecta un vector de movimiento que expresa el
movimiento del cuadro actual con relación al cuadro precedente. Tal
movimiento entre cuadros es detectado por una cantidad más fina en
la dirección vertical que el tamaño de un elemento de imagen (o
separación de elemento de imagen a elemento de imagen) dentro de la
imagen distorsionada. Para la presente descripción, se ha supuesto
que la imagen de un cuadro completo se mueve simultáneamente, de tal
forma que el movimiento del cuadro precedente al cuadro corriente es
el mismo para todas las partes de cada cuadro. Para este caso, sólo
un vector de movimiento es detectado por el detector 12 para cada
cuadro. El vector de movimiento es proporcionado al controlador
14.
Un método para determinar el vector de movimiento
es realizar varias comparaciones entre bloques de elementos de
imagen de tamaños idénticos en cuadros adyacentes, por ejemplo,
bloques de elementos de imagen de 8x8 o de 16x16. Comenzando con un
bloque sujeto del cuadro actual, las características de imagen de
varios bloques en el cuadro precedente (bloques de referencia) son
comparadas con el bloque sujeto. Cuando un bloque de referencia en
el cuadro precedente es encontrado con las características de imagen
más próximas al bloque sujeto, puede concluirse que ese bloque de
referencia movido a la posición del bloque sujeto, y el vector de
movimiento pueden ser determi-
nados.
nados.
Un bloque sujeto es comparado con un bloque de
referencia calculando la diferencia en valor absoluto entre valores
de elemento de imagen de los elementos de imagen en el bloque sujeto
a elementos de imagen correspondientes del bloque de referencia.
Así, el valor de señal del elemento de imagen P_{11} (fila 1,
columna 1) en un bloque sujeto es sustraído del valor de señal del
elemento de imagen P_{11} en el bloque de referencia, y así
sucesivamente. El valor de diferencia es referido como el error. Los
errores de cada bloque de referencia con respecto al bloque sujeto
son sumados, el bloque de referencia con el error total mínimo es
determinado, y el vector de movimiento es determinado como estando
aproximadamente en la dirección correspondiente a la relación
posicional entre ese bloque de referencia y el bloque sujeto. Más
específicamente, como se ha mostrado en la fig. 5, se ha realizado
una interpolación lineal entre los bloques de referencia para
determinar más exactamente el vector de movimiento. La intersección
de un par de líneas interpoladas linealmente de pendiente opuesta
define la posición relativa en la que tiene lugar el error mínimo
entre el bloque sujeto y un bloque de referencia hipotético. La
intersección define el vector de movimiento con respecto al bloque
sujeto.
Continuando con referencia a la fig. 4, un
detector de cambio de escena 13 es empleado para detectar un cambio
de escena de la señal de televisión analizando diferencias entre
imágenes de cuadro a cuadro. Generalmente, si las diferencias entre
imágenes del cuadro actual y el cuadro precedente sobrepasan un
umbral predeterminado, un cambio de escena es detectado. Los métodos
para detectar cambios de escena son bien conocidos en la técnica.
Por ejemplo, un detector de cambio de escena 13 puede ser
configurado para analizar errores entre bloques sustanciales y
bloques de referencia de un modo similar a la determinación de un
vector de movimiento, y al encuentro de los valores de error mínimos
para los bloques sujetos respectivos que forman el cuadro actual. Si
la suma total de los valores de error mínimos para los bloques
respectivos sobrepasa un umbral predeterminado, se detecta un cambio
de escena y se proporciona una señal de cambio al controlador
14.
El controlador 14 controla la escritura de datos
desde la memoria de cuadro 11 a una memoria creadora de resolución
15 de acuerdo con el vector de movimiento suministrado desde el
detector de movimiento 12 y la señal desde el detector de cambio de
escena 13. La memoria creadora de resolución 15 es capaz de
almacenar más datos de imagen que los datos contenidos dentro de un
cuadro de baja resolución en la memoria de cuadro 11 de modo que
almacene cuadros de alta resolución creados de nuevo que están
desplazados secuencialmente. El controlador 14 controla la escritura
de datos de imagen desde la memoria 11 a la memoria 15 determinando
direcciones de almacenamiento apropiadas dentro de la memoria 15 de
acuerdo con el vector de movimiento. Cuadros de alta resolución son
creados dentro de la memoria 15 de una manera similar a como se ha
descrito antes en conexión con la fig. 2A. Brevemente, para crear
elementos de imagen entre líneas de exploración (elementos de imagen
que mejoran la resolución), datos de la memoria de cuadro actual 11A
(o de la memoria de cuadro precedente 11B) son transferidos a un
"cuadro" de alta resolución de memoria 15 en las mismas
posiciones de elemento de imagen dentro del cuadro de acuerdo con
las líneas de exploración. Los datos de imagen del cuadro siguiente
son escritos a continuación en la memoria 15 en posiciones
trasladadas de acuerdo con el vector de movimiento. El controlador
14 suministra un indicador de dirección relativa a la memoria 15
para efectuar la transferencia de datos a las posiciones
trasladadas, mientras deja al menos alguno de los datos de imagen
del cuadro previo almacenado en la memoria 15 intacta en las mismas
posiciones de almacenamiento. Una vez que se ha creado un cuadro, es
transferido fuera de la memoria 15 al filtro pasa bajos vertical 16
bajo el control del controlador 14.
Se ha observado que después de un cambio de
escena, tomaría el tiempo requerido para recibir y procesar varios
cuadros de baja resolución para un verdadero cuadro de alta
resolución que ha de ser creado, como es evidente de la fig. 2A.
Así, cuando tiene lugar un cambio de escena, la interpolación entre
los datos de imagen de baja resolución puede ser realizada para
crear inicialmente elementos de imagen adicionales en la memoria
15.
La fig. 6 ilustra el almacenamiento de datos de
imagen dentro de la memoria creadora de resolución 15. La memoria 15
es capaz de almacenar datos de imagen de elementos de imagen
P_{H}' en la dirección horizontal (línea de exploración), y de
elementos de imagen P_{V}' en la dirección vertical. A modo de
ejemplo, se supondrá en la descripción siguiente que P_{H}' >
P_{H} y P_{V}' > 4P_{V}, donde P_{H} y P_{V} son el
número de elementos de imagen en las direcciones horizontal y
vertical, respectivamente, para cuadros de baja resolución
almacenados dentro de la memoria de cuadro 11. Para este caso, la
memoria creadora de resolución 15 es capaz de almacenar un mayor
número de elementos de imagen en la dirección horizontal y más de
cuatro veces el número de elementos de imagen en la dirección
vertical que la imagen de baja resolución. Como se han usado aquí
más adelante, los términos "imagen distorsionada" o "datos
distorsionados" serán usados para referirse a la imagen o datos
cuando están almacenados dentro de la memoria de cuadro 11, cuyos
datos corresponden a una imagen submuestreada en la dirección
vertical. Como se ha explicado previamente, sin embargo, una imagen
reproducida distorsionada sólo resultaría si los datos fueran leídos
directamente desde la memoria de cuadro 11 y reproducidos cuadro por
cuadro. En la presente realización, los datos de imagen
"distorsionados" son usados para crear una imagen generada no
distorsionada.
Dentro de la memoria creadora de resolución 15,
puede definirse una posición de almacenamiento de datos con una
dirección absoluta y también con una dirección relativa. La fig. 6
representa el almacenamiento de datos de acuerdo con direcciones
absolutas, en que las direcciones absolutas abarcan todas las
posiciones de almacenamiento de la memoria 15. La primera fila y
columna del área de almacenamiento de dirección absoluta están
designadas como fila 0 y columna 0. Como tal, un elemento de imagen
en la (i+1) ésima fila y (j+1) ésima columna es designado con una
dirección absoluta de (i, j).
Como se ha mostrado en la fig. 7, dentro de la
disposición o matriz de almacenamiento de dirección absoluta de la
memoria 15 hay definida un área de acceso 15a que corresponde a
elementos de imagen P_{H} x 4 P_{V}. La posición del punto
superior izquierdo del área de acceso 15a está definida por un
indicador de dirección relativa R_{P}, designado como una flecha
en la fig. 7. El indicador de dirección R_{P} puede realmente ser
una palabra código suministrada por el controlador 14 a los
circuitos de control (no mostrados) dentro de la memoria 15. El
indicador de dirección funciona para controlar dónde han de
escribirse los datos de imagen entrantes. Como sucede para el mayor
área de dirección absoluta, el área de acceso 15a también comienza
con una fila 0 y una columna 0.
La fig. 8 ilustra cómo los datos de imagen que se
originan desde la memoria de cuadro 11 son escritos en el área de
acceso 15a. En la dirección horizontal del área de acceso, son
almacenados datos de imagen del mismo número de elementos de imagen
que en un cuadro de la memoria de cuadro 11, mientras que en la
dirección vertical, son almacenados datos de cuatro veces más
elementos de imagen. Así, como se ha mostrado por el área sombreada
en la fig. 8, la escritura de una imagen distorsionada a partir de
la memoria de cuadro 11 en el área de acceso 15a en la dirección
horizontal es realizada secuencialmente desde la dirección definida
por el indicador de dirección R_{P}, pero en la dirección vertical
es realizada cada cuarta línea. Los datos de elemento de imagen
entre las líneas de exploración, por ejemplo, en las filas
1-3, 5-7, etc., en la rejilla de la
fig. 8, son creados y almacenados de acuerdo con el vector de
movimiento para generar un cuadro de alta resolución en la dirección
vertical. Para realizar una mayor resolución que la de la imagen
distorsionada, el vector de movimiento es detectado en unidades más
finas que el tamaño del elemento de imagen de los cuadros en la
memoria de cuadro 11.
El almacenamiento de datos dentro de la memoria
creadora de resolución 15 será explicado ahora en mayor detalle con
referencia al diagrama de flujo de la fig. 9. Cuando el controlador
14 recibe una señal desde el detector 13 de cambio de escena
indicativa de un cambio de escena desde el cuadro precedente al
cuadro actual, repone (borra) todos los datos en la memoria 15
(operación S1). Se ha observado aquí que una señal de cambio de
escena será también recibida cuando el primer cuadro de datos es
recibido por la memoria de cuadro 11. (Si el primer cuadro de datos
es recibido o ha ocurrido un cambio de escena, la operación del
controlador 14 es la misma). En la operación S2, el controlador 14
hace que los datos distorsionados de la memoria de cuadro actual 11A
sean escritos en el área de acceso 15a cada cuarta línea como se ha
mostrado en la fig. 8. En este punto, hay espacios presentes en el
área de acceso 15a entre las posiciones de almacenamiento
correspondientes a las líneas de exploración, ya que estas
posiciones fueron previamente repuestas. Estos espacios son llenados
por medio de interpolación realizada por el controlador 14 en la
operación S3. Es decir, el controlador 14 calcula los valores
interpolados para los elementos de imagen entre líneas de
exploración y hace que esos valores sean almacenados como datos
dentro del área de acceso 15a. Los datos de imagen que incluyen los
valores interpolados son a continuación leídos desde la memoria 15
en la operación S4 y enviados al filtro pasa bajos vertical 16.
En la operación S5, los datos en la memoria de
cuadro actual 11a son desplazados a la memoria de cuadro previa 11B,
el siguiente cuadro de datos es recibido y almacenado dentro de la
memoria de cuadro actual 11A, y de nuevo se determina si ha ocurrido
un cambio de escena. Si no, el movimiento es detectado por el
detector de movimiento 12 (operación S6) y un vector de movimiento
es calculado. El controlador 14 mueve a continuación el indicador de
dirección relativa de acuerdo con el movimiento (operación S7) y los
datos son escritos en el cuadro de alta resolución dentro de la
memoria 15 de acuerdo con el vector de movimiento. Esta operación
puede ser ejecutada de diferentes formas. Una forma sería transferir
los datos previos almacenados dentro del área de acceso 15a a una
memoria tampón temporal dentro del controlador 14, y a continuación
volver a escribir los datos de nuevo en el área de acceso 15a, pero
desplazados de acuerdo con el vector de movimiento. Después del
desplazamiento, los datos de la memoria de cuadro actual 11A (que no
han sido aún escritos en la memoria 15) se escribirían en el mismo
área de acceso 15a establecida previamente, es decir, en las mismas
posiciones de línea de exploración, en cada cuarta línea. Como tal,
algunos de los datos previos se sobrescribirían. Con esta acción,
los datos de cuadro de alta resolución previos serían desplazados
cada cuadro de acuerdo con el movimiento, como se ha ilustrado
previamente en la figs. 2A y 3 donde los datos procedentes de cada
cuadro precedente fueron cambiados secuencialmente en
correspondencia directa con el movimiento. (Una diferencia, sin
embargo, es que no se han supuesto datos interpolados en los métodos
de las figs. 2A o 3 - se supusieron espacios en el cuadro de alta
resolución hasta el quinto cuadro en la fig. 2A y hasta el cuarto
cuadro de la fig. 3).
Mientras la acción anterior de desplazar las
posiciones de almacenamiento de los datos de alta resolución en
relación directa al vector de movimiento bastarán para crear un
cuadro de alta resolución apropiado, una acción preferida es
mantener los datos previos en el área de acceso 15a en las mismas
posiciones de almacenamiento, mientras se escriben los nuevos datos
de baja resolución de la memoria de cuadro actual 11A a posiciones
desplazadas con relación a los datos previos dentro del área de
acceso. En otras palabras, los datos del cuadro N+1 serán escritos
en posiciones de almacenamiento con direcciones absolutas diferentes
que los datos del cuadro N siempre que el vector de movimiento para
el cuadro N+1 no sea cero. Al mismo tiempo, las direcciones
absolutas de los datos previos en la memoria 15 permanecen las
mismas, así el efecto neto es un desplazamiento de los datos previos
con respecto a los nuevos datos. Esta acción es realizada
simplemente desplazando el indicador de dirección relativa en
correspondencia con el vector de movimiento, pero en la dirección
opuesta. Así, las direcciones relativas de los datos
(distorsionados) de baja resolución permanecerán iguales (por
ejemplo, filas 0, 4, etc., como se ha mostrado en la fig. 8), pero
las direcciones relativas de los datos de cuadro de alta resolución
precedentes cambiarán en relación directa al vector de movimiento.
En esencia, el área de acceso física 15a de la memoria 15 se
desplazará con cada nuevo indicador de dirección relativa.
Con cada nuevo vector de movimiento, el indicador
de dirección relativa se mueve el mismo número de elementos de
imagen que el número de elementos de imagen en el componente
horizontal del vector de movimiento. En la dirección vertical, sin
embargo, el indicador de dirección relativa se mueve cuatro veces
tantos elementos de imagen de alta resolución como el número de
elementos de imagen de baja resolución en la componente vertical del
vector de movimiento (ya que hay cuatro veces tantos elementos de
imagen en la dirección vertical del cuadro de alta resolución como
en el cuadro de baja resolución). Naturalmente, el indicador de
dirección relativa está redondeado al elemento de imagen más próximo
correspondiente al vector de movimiento (o el vector de movimiento
está redondeado). Así, por ejemplo, si la componente vertical del
vector de movimiento está entre 1/8 y 3/8 del tamaño de un elemento
de imagen de baja resolución original, entonces el indicador de
dirección relativa será cambiado por una unidad vertical.
(Alternativas para el redondeado simple del vector de movimiento
serán descritas posteriormente).
Continuando con referencia a la fig. 9, la
escritura de los nuevos datos de imagen (distorsionada) de baja
resolución en la memoria 15 de acuerdo con el indicador de dirección
relativa (operación S8) crea un nuevo cuadro de alta resolución, que
es a continuación leído a la LPF 16 vertical en la operación S9. Si,
en la operación S10 se ha determinado que los datos de baja
resolución no han sido ya aplicados en a la memoria de cuadro 11, la
rutina termina; de otro modo, la rutina vuelve a S5 donde el proceso
es repetido para cada cuadro subsiguiente de datos de imagen de
entrada.
Consiguientemente, repitiendo las operaciones S5
a S9 varias veces sin un cambio de escena, los datos interpolados
que llenaban los espacios entre las muestras de línea de exploración
son sustituidos secuencialmente por muestras de imagen. Varios
cuadros después de un cambio de escena, los cuadros de imagen
resultan verdaderas imágenes de alta resolución, y cuando la mayor
frecuencia en la dirección vertical contenida dentro de la imagen
original es inferior a ½ la frecuencia correspondiente a ¼ del
período de exploración horizontal de la imagen distorsionada, la
imagen reproducida no tendrá distorsión de repliegue del espectro en
la dirección vertical.
Volviendo a la fig. 4, la LPF 16 vertical
funciona para limitar componentes de alta frecuencia en los datos de
imagen a partir de la memoria creadora de resolución 15 filtrando en
la dirección vertical con un filtro pasa bajos. El propósito de tal
filtrado es impedir la distorsión de repliegue del espectro incluso
cuando la imagen que ha de ser reproducida subsiguientemente es una
imagen de baja resolución. Por ejemplo, si sólo hay disponible una
presentación de baja resolución, se presentará una imagen de baja
resolución, pero nunca con la distorsión de repliegue del espectro
eliminada. Consiguientemente, cuando la imagen es reproducida
subsiguientemente, el espectador no percibirá una imagen que se
mueve de forma antinatural o borrosa. La señal de salida de la LPF
16 vertical es aplicada a una memoria de cuadro 17 que puede tener
la misma capacidad de almacenamiento de área de acceso 15a de la
memoria 15. La memoria de cuadro 17 almacena temporalmente los datos
de imagen, que son a continuación leídos, por ejemplo, cada cuarta
línea para producir una imagen de baja resolución del mismo número
de líneas que la imagen distorsionada original pero con la
distorsión de repliegue del espectro eliminada.
Consiguientemente, el método antes descrito
mejora la calidad de la imagen y hace posible impedir los
inconvenientes que acompañan a ciertas operaciones de tratamiento de
señal tales como la separación de Y/C, la reducción de ruido, y así
sucesivamente.
Será fácilmente apreciado por los expertos en la
técnica que la técnica antes descrita de crear una imagen de alta
resolución a partir de una imagen submuestreada de acuerdo con el
vector de movimiento de cuadro a cuadro, luego filtrar la misma con
una LPF vertical y leer sólo una imagen de baja resolución,
producirá una imagen de salida con la distorsión de repliegue del
espectro eliminada. Por otro lado, si los datos de imagen de baja
resolución introducidos fueron simplemente aplicados a la LPF
vertical, tal eliminación de la distorsión de repliegue del espectro
no sería realizada.
Si el CRT 6 es capaz de presentar una imagen de
alta resolución usando más líneas de exploración horizontal que las
de los cuadros submuestreados (por ejemplo, cuatro veces las líneas
de exploración), entonces los datos de imagen podrían ser emitidos
directamente para su presentación. Así, para este caso, la LPF 16
vertical no se utilizaría, los datos serían directamente alimentados
a la memoria de cuadro 17, y los datos serían leídos desde la misma
para presentar línea por línea en vez de cada cuatro líneas.
Cuando la frecuencia más elevada en la dirección
vertical contenida en la imagen original es mayor que la mitad de la
frecuencia que corresponde a una cuarta parte del período de
exploración horizontal, el teorema de muestreo no sería satisfecho
con la aproximación anterior de generar cuatro veces tantos
elementos de imagen, y la distorsión de repliegue del espectro en la
dirección vertical no sería completamente eliminada. Sin embargo,
el método sería útil aún porque la distorsión de repliegue del
espectro sería reducida sustancialmente.
Mientras en la realización anterior el número de
elementos de imagen en la dirección vertical es aumentado por un
factor de cuatro, en la alternativa, pueden crearse más o menos
elementos de imagen entre líneas de exploración, para el propósito
de presentar imágenes de baja resolución o de alta resolución con
distorsión de repliegue del espectro reducida.
Para el corrector 4a de distorsión descrito
antes, se ha supuesto que la imagen completa de cualquier cuadro
dado movida simultáneamente, es decir, en la misma dirección y por
la misma distancia de cuadro a cuadro. En otras palabras, se ha
supuesto que el vector de movimiento para todas las partes de cada
cuadro era el mismo. Esa suposición es generalmente válida para
ciertas aplicaciones tales como operaciones de panoramización e
inclinación. Sin embargo, en la mayoría de las aplicaciones de
vídeo, partes diferentes de cada cuadro se mueven a diferentes tasas
y/o en diferentes direcciones. Las realizaciones del presente
invento que han de ser descritas más adelante son capaces de reducir
la distorsión de repliegue del espectro al tiempo que tienen en
cuenta tal movimiento independiente.
Con referencia ahora a la fig. 10, se ha mostrado
un diagrama de bloques de otra realización ilustrativa de un
corrector de distorsión de acuerdo con el invento. El corrector de
distorsión 4b tiene la capacidad de discernir el movimiento cuadro a
cuadro para múltiples partes de cada cuadro, y generar cuadros de
alta resolución basados en el movimiento. Los cuadros de alta
resolución pueden ser empleados para generar imágenes de baja o alta
resolución, con la distorsión de repliegue del espectro eliminada en
cualquier caso.
El corrector de distorsión 4b incluye
esencialmente la misma memoria de cuadro 11, el detector de
movimiento 12, el detector 13 de cambio de escena, el filtro pasa
bajos vertical 16 y la memoria de cuadro 17 como se ha descrito
antes para el corrector de distorsión 4a. El detector de movimiento
12 se ha descrito antes como operativo para determinar un vector de
movimiento de un bloque sujeto de cuadro actual, por ejemplo, de
elementos de imagen de 8x8 o 16x16, a partir del cuadro precedente
analizando diferencias entre el bloque sujeto y una pluralidad de
bloques de referencia del cuadro previo. En el corrector de
distorsión 4a, el vector de movimiento de un bloque sujeto fue
suficiente para determinar el movimiento de la imagen de cuadro
completa. Por otro lado, con el corrector de distorsión 4b, se han
determinado varios vectores de movimiento para cada cuadro,
correspondiendo cada uno a un bloque sujeto diferente. Los vectores
de movimiento de los distintos bloques sujeto son proporcionados
para un divisor de área 21 que divide el área de cuadro en múltiples
áreas para operaciones de tratamiento independientes. Las áreas son
definidas basadas en los vectores de movimiento, diferencias entre
elementos de imagen adyacentes, y por medio de otras operaciones
necesarias tales como alisado, etc. A modo de ejemplo, si una escena
incluye un objeto fijo o que se mueve lentamente tal como un fondo y
un objeto que se mueve rápidamente como un aeroplano, el divisor de
área 21 definiría un primer área del cuadro como correspondiente al
fondo y un segundo área correspondiente al aeroplano. En la fig. 10,
el divisor de área 21 está destinado a definir dos áreas por cuadro;
sin embargo, se ha comprendido que puede alternativamente ser
configurado para dividir cada cuadro en tres o más áreas en lugar de
sólo en dos áreas.
Una vez que el divisor de área 21 define las
áreas de imágenes para el cuadro actual, controla la lectura de
datos de imagen procedentes de la memoria de cuadro actual 11A
controlando los conmutadores 22A y 22B de manera que sólo los datos
de imagen procedentes del primer área sean dirigidos a través del
conmutador 22A para su almacenamiento temporal en una memoria 23A, y
sólo datos procedentes del segundo área sean dirigidos a través del
conmutador 22B para su almacenamiento dentro de la memoria 23B. El
divisor de área 21 también proporciona un vector de movimiento para
una región dentro del primer área al controlador 14A y un vector de
movimiento para una región dentro del segundo área al controlador
14B. El detector 13 de cambio de escena suministra señales de cambio
de escena a controladores 14A y 14B. El controlador 14A controla la
escritura de datos desde la memoria 23A a la memoria creadora de
resolución 15a cambiando dinámicamente un indicador de dirección
relativa basado en el vector de movimiento en el primer área de cada
cuadro. Consiguientemente, se han creado elementos de imagen entre
líneas de exploración en posiciones de acuerdo con el vector de
movimiento esencialmente del mismo modo que como se ha descrito
previamente. Un cuadro o parte de cuadro de alta resolución con, por
ejemplo, cuatro veces tanta resolución en la dirección vertical como
en la memoria de cuadro 11A es por ello creada en la memoria 15A. De
modo similar, los datos de imagen del segundo área de cuadro son
transferidos desde la memoria 23B a la memoria 15B bajo el control
del controlador 14B de acuerdo con el segundo vector de movimiento
para producir un cuadro de alta resolución o
p = parte de cuadro en la memoria 15B. Es decir, cada uno de los controladores 14A y 14B funciona en unión con las memorias 15A y 15B, respectivamente, determinando dinámicamente indicadores de dirección respectivos del mismo modo que se ha descrito anteriormente para el controlador 14 y la memoria 15 de la fig. 4, excepto en que sólo una parte de la imagen total es aumentada y almacenada dentro de cada memoria 15A y 15B.
p = parte de cuadro en la memoria 15B. Es decir, cada uno de los controladores 14A y 14B funciona en unión con las memorias 15A y 15B, respectivamente, determinando dinámicamente indicadores de dirección respectivos del mismo modo que se ha descrito anteriormente para el controlador 14 y la memoria 15 de la fig. 4, excepto en que sólo una parte de la imagen total es aumentada y almacenada dentro de cada memoria 15A y 15B.
Los datos de cada cuadro de alta resolución
creados dentro de las memorias 15A y 15B son transferidos a un
combinador 24 bajo el control de los controladores 14A y 14B,
respectivamente. El combinador 24 combina los datos de las dos
partes de cuadro para producir datos de imagen de un cuadro
compuesto y proporciona el mismo al LPF 16 vertical. Así, los datos
de imagen de salida del combinador 24 son similares a los de la
memoria 15 en el corrector de distorsión 4a. El LPF 16 vertical y la
memoria de cuadro 17 realizan los mismos procesos como se ha
descrito previamente para producir una imagen de baja resolución con
la distorsión de repliegue del espectro eliminada. Por el contrario,
si se desea una imagen de alta resolución, el LPF vertical puede ser
puenteado o designado con una respuesta de frecuencia diferente como
se ha discutido anteriormente.
Mientras los correctores de distorsión 4a y 4b
han sido descritos como operativos para crear elementos de imagen
entre líneas de exploración en la dirección vertical basado en el
vector de movimiento (es decir, el vector de movimiento que
corresponde tanto al movimientos vertical como horizontal de la
imagen), pueden crearse también datos de imagen para elementos de
imagen adicionales en la dirección horizontal. Es decir, los
elementos de imagen de alta resolución pueden también ser creados en
la memoria 15 (o memorias 15A, 15B) en posiciones entre las
posiciones de elemento de imagen de baja resolución en la dirección
horizontal de forma análoga a como se ha descrito para la dirección
vertical. Como resultado, la distorsión de repliegue del espectro
puede además ser eliminada en la dirección horizontal y puede
obtenerse mayor resolución horizontalmente también.
Existe un caso especial en el que un área de
acceso queda fuera del área de almacenamiento de la memoria creadora
de resolución 15 (o 15A, 15B) de acuerdo con la posición del
indicador de posición relativa. Para este caso, los datos de la
región que ha quedado fuera pueden ser retenidos expandiendo el área
de almacenamiento de la memoria creadora de resolución en un área
contigua. Suponiendo que X \geq P_{H}' e Y \geq P_{V}',
cuando una posición expresada por una dirección absoluta (X, Y) está
incluida en el área de acceso, la posición es retenida en una
dirección absoluta de (mod(X, P_{H}'), mod (Y, P_{V}') en
el área de almacenamiento de la memoria 15 (donde mod (a, b) expresa
el residuo cuando "a" es dividida por "b"). Otra forma de
retener los datos swollen out es volver a colocar el área de acceso
que incluye los datos más recientes retenidos en ella, por el
controlador 14 transfiriendo todos los datos a una memoria tampón y
a continuación volviendo a escribirlos en un nuevo área de acceso
usando un nuevo indicador de dirección.
En las realizaciones descritas con anterioridad,
se han creado cuadros de alta resolución por medio de la suposición
de elementos de imagen entre líneas de exploración en posiciones que
corresponden a los vectores de movimiento. Los cuadro de alta
resolución son a continuación empleados para generar imágenes de
baja o alta resolución con la distorsión de repliegue del espectro
reducida (o eliminada).
Aparte de eliminar la distorsión repliegue de
espectro, el presente invento tiene otras aplicaciones tales como
para producir imágenes agrandadas con resolución mejorada, o para
convertir una imagen de resolución baja o estándar (a continuación
denominada como una imagen de SD) en una imagen de alta resolución
(en lo que sigue denominada como una imagen de HD).
Con referencia ahora a la fig. 11, se ha mostrado
un diagrama de bloques de una realización ilustrativa de un receptor
de televisión 100 que convierte una señal de televisión que contiene
una imagen de SD en una imagen de HD para presentar. El receptor 100
difiere del receptor 10 de la fig. 1 porque emplea un convertidor de
resolución 34 en lugar de un corrector de distorsión 4 y un CRT 36
de alta resolución en lugar del CRT 7. Los otros componentes son los
mismos que los del receptor 10, con un convertidor de Y/C (no
mostrado) típicamente empleado, bien entre el convertidor de
resolución 34 y el convertidor 6 de D/A o bien entre el LPF 2 y el
convertidor 3 de A/D.
La fig. 12 es un diagrama de bloques de una
realización del convertidor de resolución 34. El convertidor de
resolución 34 es similar en muchos aspectos al corrector de
distorsión 4b de la fig. 10, porque funciona para dividir el área de
un cuadro de baja resolución de acuerdo con el movimiento diferente
en áreas respectivas, crea una imagen de alta resolución para cada
área y combina las imágenes de alta resolución para cada área para
producir una imagen compuesta. El convertidor de resolución 34 está
configurado para aumentar la resolución tanto en la dirección
horizontal como en la vertical creando elementos de imagen en
posiciones entre elementos de imagen horizontales adyacentes y
también entre elementos de imagen verticales adyacentes de la imagen
de SD basada en los vectores de movimiento de cada imagen. El
convertidor 34 puede generar alguno de los elementos de imagen de
alta resolución por una técnica de clasificación y tratamiento de
adaptación que ha de ser descrita en detalle posteriormente.
El convertidor de resolución 34 incluye la
memoria de imagen 11, el detector de movimiento 12 y el detector de
cambio de escena 13 como se ha descrito previamente, así como el
divisor de área 21' que es el mismo que el divisor de área 21 de la
fig. 10 excepto que el divisor 21' divide cada cuadro en M áreas de
cuadro en vez de solo dos áreas. Cada uno de los M generadores de
objetos de alta resolución funciona para generar un objeto de alta
resolución para una respectiva de las áreas de imagen definidas por
el divisor de área 21'. Cada generador de objeto 41i
(i = 1, 2,..., M) incluye el conmutador 22i, la memoria tampón 23i, el controlador 14i, la memoria creadora de resolución 15i, la memoria de bandera de escritura 42i y el generador de elemento de imagen 43i.
(i = 1, 2,..., M) incluye el conmutador 22i, la memoria tampón 23i, el controlador 14i, la memoria creadora de resolución 15i, la memoria de bandera de escritura 42i y el generador de elemento de imagen 43i.
Cada memoria de bandera de escritura 42i almacena
el mismo número de banderas de escritura que el número de elementos
de imagen almacenados en la memoria creadora de resolución asociada
15i. La bandera de escritura es una bandera de un bit que designa si
los datos de elemento de imagen de una imagen SD son almacenados en
una dirección correspondiente de la memoria 15i (por ejemplo, la
bandera es un 1 si los datos de elemento de imagen están almacenados
en la dirección y 0 si no lo están). La bandera de escritura es
controlada por el controlador 14i para ser ajustada/repuesta.
Con referencia a la fig. 13, cada memoria
creadora de resolución 15i está diseñada con un área de
almacenamiento capaz de almacenar datos de elemento de imagen de
almacenamiento de PH' elementos de imagen en la dirección horizontal
y PV' elementos de imagen en la dirección vertical, con PH' \geq
2Pk y Pv' \geq 2Pv', donde Pk y Pv son el número de elementos de
imagen en las direcciones horizontal y vertical respectivamente, de
una imagen SD almacenada dentro de la memoria de imagen 11. En este
ejemplo, la memoria 15i es capaz de almacenar datos de elemento de
imagen de más de dos veces tantos elementos de imagen en la
dirección vertical y más de dos veces tantos elementos de imagen en
la dirección horizontal como la imagen de SD. El área de acceso de
memoria 15ai está comprendida de posiciones de almacenamiento para
almacenar datos de elemento de imagen de 2PH X 2PV elementos de
imagen.
Un procedimiento para escribir un cuadro de datos
de SD en la memoria creadora de resolución 15i será ahora descrito
con referencia al diagrama de flujo de la fig. 14. En la operación
S11, si el detector 13 de cambio de escena detecta o bien un cambio
de escena o bien la recepción del primer cuadro de datos, una señal
de cambio de escena es proporcionada a cada uno de los controladores
141-14M. Cada controlador 14i limpia entonces la
memoria asociada 15i en la operación S12 (borrando los datos de
elemento de imagen del cuadro previo) y repone todas las banderas de
escritura en la memoria de bandera de escritura 41i a un valor
inicial (operación S13). Los datos de imagen de SD distorsionados
del área de cuadro asociada de la presente memoria de cuadro 11A son
a continuación escritos en la memoria 15i (operación S14) cerrando
el conmutador 22i en instantes apropiados en una operación de
lectura de datos de cuadro desde la memoria de cuadro 11A. Así, solo
los datos de imagen dentro del área asociada como es definido por el
divisor de área 21' son transferidos a través del conmutador 22i y
la memoria 23i. En particular, los datos de SD son escritos en el
área de acceso de la memoria 15i en cada otra posición de elemento
de imagen tanto en la dirección horizontal como en la dirección
vertical. Así, por ejemplo, se ha supuesto que los cuadros de SD
están dispuestos con M filas de elemento de imagen (filas 1 a M) por
N columnas de elemento de imagen (columnas 1 a N), y el área de
acceso de la memoria 15i es una matriz de almacenamiento
correspondiente a 2M filas (filas 1 a 2M) por 2N columnas (columnas
1 a 2N). A continuación, si los datos de elemento de imagen 1,1
correspondientes a la fila 1, columna 1 del cuadro de SD son
transferidos al generador de objetos 41i, serán inicialmente
almacenados en la posición de almacenamiento del área de acceso
correspondiente al elemento de imagen de HD de fila 2, columna 2 del
área de acceso. Preferiblemente, esa posición de almacenamiento será
también la fila 2, columna 2 en la matriz de almacenamiento, para
facilitar la creación del elemento de imagen. De manera similar, los
datos de SD del elemento de imagen 2,2 del cuadro de SD serán
almacenados inicialmente en la fila 4, columna 4 del área de acceso,
y así sucesivamente. Las banderas de escritura son concurrentemente
ajustadas o configuradas para cada una de las posiciones de
almacenamiento de HD en las que los datos de SD son así almacenados.
Los datos de imagen son leídos desde la memoria 15i por el generador
43i de elementos de imagen en este punto, pero no son borrados de la
memoria 15i ya que serán usados para formar parte del siguiente
cuadro de alta resolución (en ausencia de un cambio de escena).
Si, en la operación S11, no es recibida señal de
cambio de escena, entonces en la operación S16, cada controlador 14i
recibe el vector de movimiento desde el divisor de área 21'
correspondiente al movimiento en el área de imagen asociado del
cuadro actual. El controlador 14i calcula un nuevo indicador o
puntero de dirección relativa Rp correspondiente al vector de
movimiento y suministra el mismo a la memoria de conversión de
resolución 15i. La rutina prosigue entonces a la operación S14 en
que los datos de imagen distorsionados del cuadro actual son
escritos en la memoria 15i de acuerdo con el indicador de dirección
relativa determinado, por lo que los datos previamente almacenados
en el cuadro precedente de la memoria 15i son desplazados con
respecto a los nuevos datos (ya que los datos del cuadro previo han
permanecido almacenados en las mismas posiciones de acuerdo con los
indicadores de dirección previos mientras los datos del cuadro
actual imagen son almacenados de acuerdo con el nuevo indicador de
dirección). Como se ha explicado previamente, alguno de los datos
almacenados previamente es típicamente sobrescrito en esta
operación. Las banderas de escritura son a continuación ajustadas
para las posiciones de almacenamiento en que los nuevos datos son
almacenados en la operación S15 (a menos que estuviesen ya ajustados
previamente).
Consiguientemente, como el proceso de escritura
prosigue cuadro a cuadro en cada memoria creadora de resolución 15i,
una imagen de HD que tiene dos veces tanta resolución como la imagen
de SD correspondiente tanto en la dirección horizontal como vertical
se aproxima gradualmente a la terminación.
Para ilustrar además la creación de una imagen de
HD, se ha hecho referencia a la fig. 15 que ilustra el movimiento
entre cuadros de un objeto 47 pequeño, triangular sólido y el
almacenamiento asociado de datos de elemento de imagen que
representan el mismo. El lado izquierdo de la figura muestra una
disposición o matriz de elementos de imagen de SD P_{SD}
superpuesta con el objeto 47 mientras el lado derecho representa las
posiciones de almacenamiento MC dentro de las áreas de acceso
15a_{N} a 15a_{(N+3)} para cuadros N a (N+3), respectivamente.
En la imagen de baja resolución, los elementos de imagen de SD
P_{SD} dentro de la región limitada del objeto 47 representa el
objeto, por ejemplo, teniendo más o menos luminancia y/o siendo de
un color diferente que los elementos de imagen vecinos. En cualquier
caso, el objeto 47 se ha supuesto que está representado por
elementos de imagen a, b, c, d y en el cuadro N, por elementos de
imagen f, g en el cuadro (N+1), elementos de imagen h, i, j, k en el
cuadro (N+2) y por elementos de imagen l, m en el cuadro (N+3),
donde los elementos de imagen cambian de cuadro a cuadro debido al
movimiento entre
cuadros.
cuadros.
De acuerdo con el método antes descrito, los
datos de elemento de imagen de SD son escritos en áreas de acceso
15a_{N} a 15a_{(N+3)} en las regiones sombreadas en posiciones
de almacenamiento alternativas. En el cuadro N, las posiciones de
almacenamiento (a' a e') están llenas con datos de elemento de
imagen correspondientes a elementos de imagen de SD (a a e). Entre
los cuadros N y N+1, el objeto se ha movido hacia arriba en la mitad
de la separación de elemento de imagen SD (separación entre puntos
medios de los elementos de imagen de SD adyacentes) de manera que el
indicador de dirección relativa R_{P} del cuadro N+1 se mueve
hacia abajo por una posición de almacenamiento de elemento de imagen
de HD como se ha mostrado, y los datos de elemento de imagen para
elementos de imagen f y g son escritos. Mientras tanto, las
posiciones de almacenamiento absolutas que almacenan datos de
elemento de imagen (a' - e') permanecen igual en el cuadro N+1. Así,
se ha visto que mientras elementos de imagen b y g están en la misma
posición en la imagen de SD, los "elementos de imagen"
correspondientes b' y g' están desplazados uno con respecto al otro
en el área de acceso 15a_{N+1} que representa la imagen de HD. El
proceso continúa con el indicador de dirección R_{P} que se mueve
desde su posición previa en la dirección opuesta como el movimiento
del objeto, hasta que una imagen de HD completa es formada en el
cuadro (N+3). Obsérvese que tomaría más cuadros para generar una
imagen de HD completa basada únicamente en generar datos de
elementos de imagen de HD de acuerdo con el vector de movimiento si
el objeto fuera a permanecer aún o si el movimiento es ligero de
cuadro a cuadro.
La fig. 16 es un diagrama de flujo que ilustra
una rutina para leer datos de imagen desde el generador 41i de
objetos de alta resolución. La rutina de lectura sigue a la rutina
de la fig. 14 cada vez que nuevos datos de imagen son escritos en la
memoria 15i, es decir cada vez que se completa la escritura de datos
para un cuadro particular. En la operación S21, el controlador 14i
lee datos de imagen procedentes de posiciones de almacenamiento del
área de acceso 15i y suministra los datos al generador 23 de
elementos de imagen. En la operación S22, el generador de 23 de
elementos de imagen determina, basado en las banderas de escritura
en la memoria de bandera de escritura 42i, si los datos de imagen
están o no almacenados para un elemento de imagen de alta resolución
particular que corresponde a una dirección particular. Por ejemplo,
considerando la fig. 15, suponiendo que el cuadro N corresponde al
primer cuadro después de un cambio de escena, las posiciones de
almacenamiento c' y d' contienen datos de imagen almacenados pero la
posición de almacenamiento 48 entre c' y d' está vacía. De tal
manera, la bandera de escritura para c' y d' sería ajustada a 1
mientras que para la posición de almacenamiento 48 está a 0. Así,
antes de presentar los datos de imagen para un cuadro corriente tal
como el cuadro N, los datos de elemento de imagen necesitan ser
creados para elementos de imagen de HD correspondientes a las
posiciones de almacenamiento vacías como 48.
Por ello, en la operación S23, los datos de
imagen son generados por el generador 43i de elementos de imagen si
la posición de almacenamiento en consideración está vacía como se ha
indicado por la bandera de escritura asociada. Los datos de imagen
pueden ser generados de varias maneras, tal como interpolando entre
elementos de imagen vecinos o por una técnica de predicción más
compleja tal como un método de clasificación y tratamiento de
adaptación que ha de ser descrito después. En cualquier caso, una
vez que los datos de imagen son creados para el elemento de imagen
en consideración (o leídos directamente desde la memoria 15i si
están ya almacenados en ella), los datos de elemento de imagen para
los que el elemento de imagen es emitido desde el generador de
objetos 41i en la operación S24 y suministrado al combinador 24. Si
todos los datos de imagen del cuadro de alta resolución en
consideración son determinados para haber sido leídos en la
operación S25, el proceso de lectura para ese cuadro está completo.
De otro modo, la rutina vuelve a la operación S21 para leer datos
desde la siguiente posición de almacenamiento y para crear una vez
más datos de elemento de imagen si fuese necesario.
La fig. 17 ilustra un diagrama de flujo
simplificado para el proceso de la operación 23 de generar datos de
imagen para elementos de imagen correspondientes a posiciones de
almacenamiento vacías, bien por interpolación o bien por una técnica
de predicción. En la operación S31, es determinado basado en las
banderas de escritura, que los elementos de imagen vecinos del
elemento de imagen en consideración contienen datos de elemento de
imagen almacenados dentro de la memoria 15i. A continuación, en la
operación S32, los datos son leídos desde las posiciones de
almacenamiento en el área de acceso 15ai correspondiente a los
elementos de imagen vecinos. Los datos de elemento de imagen para el
elemento de imagen en consideración son a continuación generados en
la operación S33 basados en los datos de elemento de imagen
vecinos.
Si una imagen de alta resolución en la memoria
creadora de resolución 15i tiene posiciones de almacenamiento vacías
como se ha descrito antes, una técnica de interpolación simple para
generar datos de elemento de imagen para las posiciones de
almacenamiento vacías puede ser insuficiente para volver a capturar
componentes de alta frecuencia de la imagen original. La presente
solicitante ha propuesto previamente un dispositivo convertidor de
imagen que convierte una imagen de SD en una imagen de HD que
contiene una componente de alta frecuencia que no estaba contenida
en la imagen de SD. Véase la patente norteamericana Nº 5.517.588
titulada "Equipamiento de conversión de datos digitales y un
método para el mismo" que fue concedida el 14 de mayo de 1996.
Consiguientemente, el mismo o similar proceso de adaptación puede
ser usado por el generador 43i de elementos de imagen para generar
datos de elemento de imagen para las posiciones de almacenamiento
vacías. Es decir, el proceso de adaptación puede ser empleado para
crear elementos de imagen "de relleno" además de los creados
por medio de suponer elementos de imagen en posiciones
correspondientes al movimiento de imagen detectado. A continuación
se describirá un proceso de adaptación ilustrativo para poner en
práctica tal creación de elemento de imagen.
El proceso de adaptación determina un valor
predicho de un elemento de imagen de una imagen de HD basada en el
acoplamiento lineal entre una imagen de SD y un coeficiente de
estimación predeterminado. Por ejemplo, un valor predicho
E[y] de un valor y de elemento de imagen de un elemento de
imagen de HD para formar una imagen de HD puede ser determinado
utilizando un modelo de combinación lineal. Este modelo es definido
por una combinación lineal de valores de elemento de imagen de
elementos de imagen de SD (denominado a continuación como datos de
aprendizaje), X_{1}, X_{2}, ..., y coeficientes de predicción
predeterminados, W_{1}, W_{2}, ... para este caso, el valor
predicho E[y] es expresado como sigue:
(3)E[y]
= W1X1 + W2X2 +
.....
Para generalizar lo anterior, una matriz Y' se ha
supuesto que está compuesta por un conjunto de los valores predichos
E[y]; para y = y_{1} a y_{n}. Es decir, la matriz Y' está
definida como el producto de una matriz W, que es un conjunto de
coeficientes de predicción w, y una matriz X que es un conjunto de
datos de aprendizaje. Una ecuación de observación es así obtenida
como sigue:
(4)XW =
Y'
donde
\vskip1.000000\baselineskip
Un método para encontrar un valor predicho
E[y] que está próximo a un valor y de elemento de imagen de
HD supone aplicar el método de mínimo cuadrado a la ecuación de
observación (4). para este caso, la matriz Y' es considerada como la
suma de una matriz Y y una matriz E, donde la matriz Y está
compuesta por un conjunto de valores de elemento de imagen de HD
reales (que ha de ser usado como datos del maestro) y la matriz E
está compuesta por un conjunto de "e" residuales de los valores
predichos E[y]. Así, la siguiente ecuación residual es
derivada de la ecuación (4):
XW = Y +
E
\newpage
donde,
El error de la raíz cuadrada es definido como la
suma de los cuadrados de los residuales, es decir,
(6)\sum\limits_{i=1}^{m}
e^{z}_{i}
Así, el coeficiente de predicción w_{1} para
obtener un valor predicho E[y] próximo a un valor de elemento
de imagen de HD puede ser encontrado minimizando el error de la raíz
cuadrada de la ecuación (6).
Cuando el error de la raíz cuadrada es
diferenciado por el coeficiente de predicción w_{1}, si el
resultado es 0, el valor para w_{1}, que satisface la ecuación
siguiente (7) es el valor óptimo para encontrar un valor predicho
E[y] próximo al valor de elemento de imagen de HD:
(7)e_{1}
\frac{\partial e_{1}}{\partial w_{i}} + e_{2} \frac{\partial
e_{2}}{\partial w_{i}} + ... + e_{m}\frac{\partial e_{m}}{\partial
w_{i}} = 0 \ (i =
1,2,...n)
Cuando la ecuación (6) es diferenciada por el
coeficiente de predicción w_{1}, se obtiene la siguiente ecuación
(8):
(8)\frac{\partial e_{i}}{\partial
w_{1}} = X_{i1}, \frac{\partial e_{i}}{\partial w_{2}} = X_{i2},
..., \frac{\partial e_{i}}{\partial w_{n}} = X_{in}, (i =
1,2,...m)
A partir de las ecuaciones (7) y (8), es derivada
la ecuación siguiente (9):
(9)\sum\limits_{i=1}^{m}
e_{i}x_{i1} = 0, \hskip0,3cm \sum\limits_{i=j}^{m}e_{i}x_{i2} = 0,
... \sum\limits_{i=j}^{m} e_{i}x_{in} =
0,
Cuando las relaciones entre los datos de
aprendizaje x, coeficientes de predicción w, datos de maestro y y
residuales e son considerados, un conjunto de ecuaciones de
predicción (10) puede ser obtenido como sigue:
El número de ecuaciones en el conjunto de la
ecuación (10) corresponde al número de coeficientes de predicción w.
Los coeficientes de predicción óptima w pueden ser obtenidos
resolviendo la ecuación (10), que puede ser resuelta por una técnica
tradicional, por ejemplo, utilizando el método de borrado de
Gauss-Jordan. Se ha observado que para que la
ecuación (10) sea resoluble, una matriz compuesta de los
coeficientes de predicción w debe ser una matriz regular.
Consiguientemente, con el proceso de adaptación
antes descrito, los coeficientes de predicción óptima w son
obtenidos para el propósito de derivar un valor predicho óptimo
E[y] que está próximo a un valor de elemento de imagen de HD
(es decir, próximo a un valor de elemento de imagen de HD que
existiría si una señal de HD fuera recibida originalmente por el
receptor de televisión en vez de una señal de SD). El proceso de
adaptación es diferente de un proceso de interpolación porque una
componente de frecuencia elevada de una imagen original, ausente de
una imagen de SD pero contenida en una imagen de HD, puede ser
restaurada. El proceso de adaptación, en cuanto a lo que concierne
solo a la ecuación (1), es similar a un proceso de interpolación que
usa un filtro de interpolación. Para el proceso de adaptación, sin
embargo, el coeficiente de predicción correspondiente a un
coeficiente de toma del filtro de interpolación puede ser obtenido
aprendiendo a usar los datos de maestro. Consecuentemente, la
componente de alta frecuencia contenida en la imagen de HD puede ser
restaurada para obtener fácilmente una imagen de alta
resolución.
Volviendo ahora a la fig. 18, se ha mostrado un
diagrama de bloques de un dispositivo convertidor de imagen 200 para
convertir una imagen de SD a una imagen de HD. El dispositivo 200
puede ser usado como parte del generador 43i de elementos de imagen
para generar los datos de elemento de imagen de HD cuando sea
necesario, es decir, siempre que una posición de almacenamiento de
elemento de imagen de HD en la memoria creadora de resolución esté
vacía. Una señal de imagen de SD de entrada es aplicada tanto a un
procesador de adaptación 204 como a un circuito de clasificación
201, estando comprendido el último de un generador de toma de clase
202 y un circuito de determinación de clase 203. En el circuito de
clasificación 201, un elemento de imagen de HD del que se ha de
encontrar un valor predicho en el proceso de adaptación (denominado
en lo que sigue como un elemento de imagen marcado) es clasificado
en una clase predeterminada basado en características de un conjunto
de elementos de imagen de SD en una relación posicional
predeterminada al elemento de imagen marcado. Los valores de
elemento de imagen para este conjunto de elementos de imagen de SD
asociados con el elemento de imagen de HD marcado son referidos como
las tomas de clase del elemento de imagen marcado.
Las tomas de clase basadas en la imagen de SD de
entrada son extraídas dentro del generador de tomas de clase 202 y
proporcionadas al circuito de determinación de clases 203, que
detecta un diseño del conjunto de elementos de imagen SD que forman
tomas de clase para cada elemento de imagen marcado. El diseño está
basado en las características de cada uno de los elementos de imagen
en el conjunto, que son una función de los valores de elemento de
imagen. Por ejemplo, un diseño puede corresponder a uniformidad de
los elementos de imagen, un segundo puede corresponder a valores de
elementos de imagen que aumentan en una dirección hacia la derecha
superior, un tercero puede corresponder a valores de elementos de
imagen que aumentan en una dirección hacia la izquierda inferior, y
así sucesivamente. Un valor previamente asignado al diseño detectado
es a continuación suministrado al procesador de adaptación 204 como
indicador de la clase de elemento de imagen marcado.
La fig. 19 ilustra la relación posicional de las
tomas de clase a elementos de imagen de HD asociados. Se ha supuesto
que una imagen de HD está compuesta de los elementos de imagen
mostrados marcados como de x' y que una imagen de SD correspondiente
está compuesta de elementos de imagen marcados como de O. La imagen
de SD mostrada contiene así una cuarta parte del número de elementos
de imagen que la imagen de HD. Las separaciones entre los puntos
medios de las columnas de HD y entre las filas de HD son la mitad
que para las columnas y filas de SD. En la fig. 19, un elemento de
imagen de SD en una posición (i+1) desde la izquierda (columna SD
i+1) y (j+1) desde la parte superior (fila SD (j+1)) es expresado
como X_{ij}. De manera similar, un elemento de imagen de HD
posicionado en la columna de HD (i'+1) y la fila de HD (j'+1) es
expresado como Y_{ij}. Así, por ejemplo, la posición del elemento
de imagen de SD X_{ij} y el elemento de imagen de HD
Y_{(2i)(2j)} coinciden entre sí. (Se ha observado aquí que las
"tomas de clase" y "tomas de predicción" son realmente
valores de datos de imagen para elementos de imagen particulares.
Sin embargo, por simplicidad en la descripción, las "tomas"
serás descritas como los propios elementos de imagen, y
viceversa.
Para ilustrar cómo son definidas las tomas de
clase, un elemento de imagen marcado se ha supuesto que es el
elemento de imagen de HD Y_{44}, que tienen la posición idéntica
al elemento de imagen de SD X_{22}. Las tomas de clase para este
elemento de imagen marcado son los nueve elementos de imagen de SD
más próximos dentro de un cuadrado de elementos de imagen de SD de
3x3 centrado alrededor del elemento de imagen de HD marcado
Y_{44}. Así, en la fig. 19, las tomas de clase son los elementos
de imagen de SD dentro de la región definida por el límite T_{C}
que son, los elementos de imagen de SD X_{11}, X_{21}, X_{31},
X_{12}, X_{22}, X_{32}, X_{13}, X_{23}, X_{33}. El
generador de tomas de clase 202 extrae los valores de elemento de
imagen para estos elementos de imagen de SD como las tomas de clase
para el elemento de imagen marcado. Para el caso en que el elemento
de imagen marcado es adyacente a un elemento de imagen de HD que
coincide con un elemento de imagen de SD, las mismas tomas de clase
para el elemento de imagen de HD pueden ser definidas. Así, por
ejemplo, si el elemento de imagen marcado es cualquiera de Y_{54},
Y_{55}, Y_{45}, etc., entonces las tomas de clase para
cualquiera de estos elementos de imagen de HD pueden ser las mismas
que las del elemento de imagen de HD de "coincidencia"
Y_{44}. Es también posible formar diferentes tomas de clases para
elementos de imagen no coincidentes tales como Y_{54}, Y_{55},
Y_{45}.
En el circuito de clasificación 203, el diseño de
las tomas de clase de un elemento de imagen marcado es detectado
(cuyas tomas de clase son proporcionadas por el generador de tomas
de clase 202). En otras palabras, el diseño tal como uniformidad,
etc., de los nueve elementos de imagen de SD en relación posicional
próxima al elemento de imagen marcado son detectados para averiguar
qué clase debe ser asignada al elemento de imagen marcado. Un valor
de diseño correspondiente al diseño detectado es a continuación
emitido como la clase de elemento de imagen marcado, y suministrado
a la terminal de dirección (AD) de una memoria sólo de lectura de
coeficientes (ROM) 207 en el procesador de adaptación 204.
Ordinariamente, 8 bits o similar son asignados a
un elemento de imagen que forma una imagen. Suponiendo que 8 bits
son asignados a un elemento de imagen de SD, por ejemplo, si nueve
elementos de imagen de SD son empleados para las tomas de clase como
en el ejemplo de la fig. 19, el número de valores de elemento de
imagen posibles por toma de clase es tan alto como
(2^{8})^{9}. Consiguientemente, la capacidad para
realizar las operaciones de tratamiento de detección de diseño a
altas velocidades es inhibida.
Por ello, antes de que la clasificación sea
realizada, es deseable disminuir el número de bits asignados a un
elemento de imagen de SD de una toma de clase. Por ejemplo, la
codificación de rango de adaptación dinámica (ADRC) puede ser
ejecutada para poner en práctica tal reducción de bits. Como una
primera operación en el proceso de ADRC, un elemento de imagen que
tiene el valor máximo de elemento de imagen fuera de los nueve
elementos de imagen de SD que forman un bloque de proceso (de aquí
en adelante denominado como un elemento de imagen máximo) y un
elemento de imagen que tiene el valor mínimo de elemento de imagen
en el bloque de proceso (de aquí en adelante denominado como un
elemento de imagen mínimo) son detectados. La diferencia DR entre el
valor MAX de elemento de imagen del elemento de imagen máximo y el
valor MIN de elemento de imagen del elemento de imagen mínimo es a
continuación calculada. El valor DR es designado como un valor de
referencia local dinámico del bloque del proceso, y los valores de
elemento de imagen respectivos que forman el bloque de proceso son
cuantificados de nuevo con un número menor K de bits para cada
elemento de imagen que el número de bits originalmente asignado. En
otras palabras, el valor MIN de elemento de imagen del elemento de
imagen mínimo es sustraído de los valores de elemento de imagen
respectivos que forman el bloque de proceso, y los resultados de la
sustracción respectiva son divididos por DR/2K. Como resultado, los
valores de elemento de imagen respectivos que componen el bloque de
proceso pueden ser expresados por K bits. Así, por ejemplo, cuando
K = 1, el número máximo de diseños de nueve elementos de imagen de
SD es (2^{1})^{9}. Consiguientemente, el número máximo de
diseños es disminuido dramáticamente comparado con la circunstancia
de que el tratamiento ADRC no es puesto en práctica.
Continuando con referencia a la fig. 18, el
proceso de adaptación es realizado dentro del procesador de
adaptación 204, que incluye el generador 205 de tomas de predicción,
el calculador 206 de valor de predicción y la memoria ROM 207 de
coeficientes de predicción. En el generador de tomas de predicción
205, son extraídos datos de varios elementos de imagen de SD que
están en una relación posicional predeterminada al elemento de
imagen marcado. Estos elementos de imagen extraídos son
proporcionados como tomas de predicción x1, x2, ... al calculador
206 del valor predicho, que determina un valor predicho para un
elemento de imagen de HD basado en coeficientes de predicción y en
las tomas de predicción.
La tomas de predicción corresponden a elementos
de imagen que tienen una elevada correlación posicional con el
elemento de imagen de HD marcado. A modo de ejemplo, si el elemento
de imagen marcado es el elemento de imagen Y_{44} como se ha
mostrado en la fig. 19, y tomas de clase dentro del límite T_{C}
son formadas como se ha explicado previamente, entonces el generador
205 de tomas de predicción puede determinar las tomas de predicción
como el bloque de elementos de imagen de SD de 5x5 que cae dentro
del área encerrada por el límite T_{Z}, es decir elementos de
imagen de SD X_{00} a X_{44}. Si el elemento de imagen marcado
es un elemento de imagen adyacente al Y_{44}, tal como el elemento
de imagen Y_{54}, Y_{45} o Y_{55}, entonces se forman las
mismas tomas de predicción que las correspondientes al elemento de
imagen Y_{44}, es decir, correspondientes a los elementos de
imagen X_{00} a X_{44}. Es posible, sin embargo, definir
diferentes tomas de predicción cuando un elemento de imagen no
coincidente tal como el Y_{45}, Y_{54} o Y_{55} es el elemento
de imagen marcado.
La memoria ROM 207 de coeficientes de predicción
almacena coeficientes de predicción que son encontrados aprendiendo
lo realizados de antemano por clases. Cuando la ROM 207 recibe una
clase suministrada desde el circuito de clasificación 203, la ROM
207 lee los coeficientes de predicción almacenados en una dirección
en ella correspondiente a la clase suministrada, y suministra el o
los coeficientes de predicción a predecir al calculador 206 de valor
predicho.
Consiguientemente, las tomas de predicción
correspondientes a un elemento de imagen marcado y el o los
coeficientes de predicción que se refieren a la clase del elemento
de imagen marcado son ambos suministrados al calculador 206. Dentro
del calculador 206, la operación de acuerdo con la ecuación (3)
anterior es realizada usando coeficientes de predicción w1, w2, ...
recibidos desde la ROM 207 y datos de elementos de imagen de SD x1,
x2, ... que forman las tomas de predicción desde el generador 205 de
tomas de predicción. Como resultado, el valor predicho E[y]
del elemento de imagen marcado y es determinado, y es emitido como
un valor de elemento de imagen para un elemento de imagen de HD. El
proceso es repetido designando cada elemento de imagen de HD como un
elemento de imagen marcado, y cuando todos los elementos de imagen
de HD han sido así designados y los valores predichos derivados por
ello, una imagen de SD completa es convertida en una imagen de
HD.
Con referencia ahora a la fig. 20, se ha mostrado
un diagrama de bloques de un dispositivo de aprendizaje 210 que
realiza un proceso de aprendizaje para calcular coeficientes de
predicción que han de ser almacenados en la ROM 207 de la fig. 18.
Los datos de imagen de HD que han de ser datos de maestro en el
proceso de aprendizaje son suministrados tanto a un circuito de
adelgazamiento 211 como a un circuito de muestreo de datos de
enseñanza 146. En el circuito de adelgazamiento 211, el número de
elementos de imagen de la imagen de HD es disminuido adelgazando de
tal manera que la imagen de HD es convertida en una imagen de SD. El
número de elementos de imagen de la imagen de HD es dividido por dos
tanto en la dirección horizontal como vertical para formar por ello
la imagen de SD. La imagen de SD es suministrada al circuito de
clasificación 212 y al generador 145 de toma de predicción. Se ha
observado, que en vez de formar la imagen de SD a partir de la
imagen de HD, una imagen de SD puede ser aplicada directamente a
circuito de clasificación 212 desde una cámara de SD correspondiente
a una imagen de HD procedente de una cámara de HD.
En el circuito de clasificación 212 o generador
145 de tomas de predicción, son realizados los mismos procesos que
los realizados en el circuito de clasificación 201 o en el generador
205 de tomas de predicción de la fig. 18, por lo que la clase de un
elemento de imagen marcado o las tomas de predicción son emitidas,
respectivamente. Las clases emitidas por el circuito de
clasificación 212 son aplicadas a los terminales de dirección (AD)
tanto de la memoria 147 de tomas de predicción como de la memoria
148 de datos de maestro. Las tomas de predicción emitidas desde el
generador 145 de tomas de predicción son aplicadas a la memoria 147
de tomas de predicción donde las tomas son almacenadas en
direcciones correspondientes a las clases suministradas desde el
circuito de clasificación 212.
En el circuito de muestreo de datos de enseñanza
146, los elementos de imagen de HD que han de ser elementos de
imagen marcados en el circuito de clasificación 212 y en el circuito
de generación de toma de predicción 145 son extraídos fuera de la
imagen de HD suministrada a ellos. Las tomas extraídas son
almacenadas en la memoria de datos de maestro 148 como los datos de
maestro junto con la clase calculada en una posición de dirección
común. El proceso es repetido para todos los elementos de imagen de
HD de las imágenes de HD introducidas al dispositivo 210 para el
propósito de aprendizaje. Como la memoria de toma de predicción 147
y la memoria de datos de maestro 148 son configuradas cada una para
almacenar una pluralidad de tipos de información en la misma
posición de dirección, una pluralidad de datos de aprendizaje x y
datos de maestro y que han de ser clasificados en la clase idéntica
pueden ser almacenados esencialmente en la misma posición de
dirección.
El calculador 149 lee a continuación las tomas de
predicción como datos de aprendizaje o datos de elemento de imagen
de HD como datos de maestro almacenados en las mismas posiciones de
dirección desde la memoria de toma de predicción 147 o memoria de
datos de maestro 148, respectivamente. Basado en estos datos, el
calculador 149 calcula los coeficientes de predicción, por ejemplo,
por el método de mínimo cuadrado que minimiza el error entre los
valores predichos y los datos de maestro. En otras palabras, en el
calculador 149, las ecuaciones de predicción (10) antes descritas
están formadas por clases, y los coeficientes de predicción son
obtenidos resolviendo estas ecuaciones. Los coeficientes de
predicción son a continuación almacenados en las posiciones de
dirección correspondientes a las clases en la ROM 207 de
coeficientes de la fig. 18. Se ha observado que las ecuaciones
independientes (10) son resueltas para cada elemento de imagen de HD
"no coincidente" tal como el elemento de imagen Y_{45},
Y_{54} o Y_{55} en la fig. 19 y para cada elemento de imagen
"coincidente" Y_{44} incluso aunque las tomas de predicción
sean las
mismas.
mismas.
En el ejemplo de la fig. 19, nueve tomas de clase
y 25 tomas de predicción fueron formadas para cada elemento de
imagen de HD marcado, y los procesos de clasificación y de
adaptación (de aquí en adelante denominado como el proceso de
adaptación de clasificación) fueron realizados consiguientemente.
Sin embargo, para elementos de imagen de HD marcados próximos al
borde de un área de imagen, la suposición de nueve tomas de clase y
25 tomas de predicción no es ya válida. Así, es deseable formar
tomas de clase y de predicción de diferentes disposiciones para esos
elementos de imagen de HD, y calcular coeficientes de predicción de
una manera similar a como se ha descrito antes para cubrir estos
casos especiales.
Consiguientemente, el proceso de
clasificación-adaptación antes descrito es empleado
para suplementar la creación de elemento de imagen en la memoria
creadora de resolución 15i cuando los elementos de imagen de HD no
son creados de otro modo de acuerdo con el vector de movimiento
asociado. Por ejemplo, después de un cambio de escena, tomara varios
cuadros de movimiento para generar una imagen de HD desde una imagen
de SD basada sólo en el movimiento. Por lo tanto, en los cuadros
iniciales que siguen a un cambio de escena, el procedimiento de
clasificación de adaptación puede ser empleado a menudo.
Como se ha mencionado previamente en conexión con
la realización de la fig. 4, con el fin de crear prácticamente
elementos de imagen en posiciones correspondientes al movimiento de
imagen, cada vector de movimiento puede ser redondead a una
distancia correspondiente a la separación entre puntos medios de
elementos de imagen de alta resolución adyacentes. Así, por ejemplo,
para la realización en la que Los datos de elemento de imagen de HD
son generados a partir de los datos de elemento de imagen de SD, si
el vector de movimiento de cualquier cuadro dado corresponde al
movimiento de entre 0,5 y 1,5 separaciones de elemento de imagen de
HD en la dirección vertical (u horizontal), el vector de movimiento
puede ser redondeado a una separación de elemento de imagen de HD en
la dirección vertical (u horizontal) y el indicador de dirección
movido consiguientemente para escribir los nuevos datos de SD en la
memoria. Como una alternativa, el indicador de dirección puede ser
hecho que se mueva sólo si el vector de movimiento es igual
aproximadamente a un múltiplo integral de un intervalo de elemento
de imagen de HD o está dentro de un intervalo predeterminado del
mismo, (es decir, un múltiplo entero de la mitad del intervalo de
elemento de imagen de SD). En este caso, habrá muchos casos en los
que no haya cambio en el indicador de dirección, conduciendo a más
direcciones frecuentes vacías para datos de elemento de imagen de HD
en la memoria creadora de resolución 15i. Así, las direcciones
vacías puede ser llenadas por interpolación o mediante el proceso de
adaptación de clasificación.
Como otra alternativa para redondear el vector de
movimiento para crear datos de elemento de imagen de alta resolución
de acuerdo con ello, una aproximación diferente es crear incluso una
matriz de almacenamiento de mayor resolución (área de acceso
agrandada) dentro de la memoria creadora de resolución 15 o 15i para
reducir el error de redondeo de los vectores de movimiento. A
continuación, cuando la imagen de mayor resolución aún es generada,
los datos de elemento de imagen pueden ser leídos borrando algunos
de los datos, por ejemplo, borrando filas alternativas y columnas
alternativas, para generar una imagen de alta resolución, pero sin
ser una resolución tan alta como podría ser realizada.
Para ilustrar la última aproximación, el
convertidor de resolución 34 antes descrito, que está diseñado para
convertir una imagen de SD en una imagen de HD, puede ser modificado
empleando una memoria convertidora de resolución 15_{i}' con
cuatro veces tantas posiciones de almacenamiento de elemento de
imagen como la imagen de SD tanto en la dirección horizontal como
vertical, es decir, con 16 veces tanta densidad de elementos de
imagen en comparación con la imagen de SD. Esta aproximación está
ilustrada en la fig. 21, en la que la memoria 15_{i}' está
diseñada con
P_{H}' >= 4P_{H} columnas y P_{V}' >= 4P_{V} filas, donde P_{H} y P_{V} son el número de elementos de imagen en las direcciones horizontal y vertical, respectivamente, de un cuadro de SD. El área de acceso 15a_{i} está diseñada con 4P_{H} x 4P_{V} elementos de imagen. El indicador de dirección relativa R_{P} controla la posición precisa del área de acceso 15a_{i} dentro del área de memoria mayor de la memoria 15_{i} esencialmente de la misma manera que se ha explicado previamente.
P_{H}' >= 4P_{H} columnas y P_{V}' >= 4P_{V} filas, donde P_{H} y P_{V} son el número de elementos de imagen en las direcciones horizontal y vertical, respectivamente, de un cuadro de SD. El área de acceso 15a_{i} está diseñada con 4P_{H} x 4P_{V} elementos de imagen. El indicador de dirección relativa R_{P} controla la posición precisa del área de acceso 15a_{i} dentro del área de memoria mayor de la memoria 15_{i} esencialmente de la misma manera que se ha explicado previamente.
Los elementos de imagen de SD son escritos cada
cuarta posición en el área de acceso 15a_{i}' tanto en las
direcciones horizontal como vertical después de mover el indicador
de dirección relativa de acuerdo con el vector de movimiento. El
vector de movimiento es redondeado a unidades correspondientes a 1/4
de la separación de elementos de imagen de SD antes de determinar el
indicador de dirección relativa. Sin embargo, incluso en este caso,
si los componentes x e y del vector de movimiento de la imagen de SD
se desvían significativamente de un múltiplo entero de 1/4 de la
separación de elementos de imagen de SD, los datos de elemento de
imagen de SD adicionales pueden no ser escritos en la memoria. Por
ejemplo, si el vector de movimiento es determinado para ser menor de
1/8 de la separación de elementos de imagen de SD, el nuevo cuadro
de alta resolución puede ser formado como idéntico al cuadro de alta
resolución previo, y no son escritos nuevos datos de elemento de
imagen de SD.
Las figs. 22-24 ilustran además
la aproximación del área de acceso agrandada. La fig. 22 ilustra una
parte de una implantación de elemento de imagen de SD de elementos
de imagen P_{SD}. Un objeto OB_{N-4} se ha
supuesto que está formado por los elementos de imagen en el cuadro
(N-4). La posición del objeto se mueve de cuadro a
cuadro hasta que alcanza la posición del objeto OB_{N} en el
cuadro N. Los elementos de imagen que forman la imagen son escritos
en el área de acceso agrandada al área de 4P_{H} x 4P_{V} como
se ha descrito inmediatamente antes. Los estados de almacenamiento
están mostrados en el área de acceso 15a_{i}' de la fig. 23, donde
los elementos de imagen de cuadros diferentes son mostrados con
sombreados diferentes. Los vectores de movimiento correspondientes
al movimiento cuadro a cuadro están también tabulados en la fig. 23.
La fig. 24 es una vista agrandada de las posiciones de
almacenamiento de memoria o células MC de la fig. 23. Después de
cuatro cuadros de movimiento de cuadro (N-4) a
cuadro N, muchas de las posiciones de almacenamiento permanecen
vacías. Estas pueden ser llenadas por interpolación, por el proceso
de adaptación de clasificación, y así sucesivamente. Como otra
opción, una posición vacía puede ser llenada insertando de manera
simple el mismo valor de elemento de imagen de la posición de
almacenamiento más próxima a la posición vacía.
Las líneas de trazos mostradas en las figs. 23 y
24 designan filas y columnas alternativas de datos de elemento de
imagen. Para leer los datos de elemento de imagen de HD desde el
área de acceso 15ai', es suficiente leer datos de cada otra fila y
cada otra columna, es decir, los datos de posiciones de
almacenamiento a lo largo de las líneas de trazos. Este método
producirá mayor resolución que la realizable empleando una área de
acceso con sólo una matriz 2P_{H} x 2P_{V} de posiciones de
almacenamiento.
Con referencia a la fig. 27, se ha mostrado otra
realización 34' del convertidor de resolución 34. Esta realización
es similar a la de la fig. 12, excepto que está diseñada para el
caso en que la imagen completa de cada cuadro se mueven juntas en la
misma cantidad de cuadro a cuadro. Es decir, el convertidor de
resolución es funcionalmente similar al corrector de distorsión 4a
de la fig. 4. Así, un solo generador de imagen de alta resolución 41
sin un conmutador 22 o memoria tampón 23 es usado en lugar de
generadores de objetos de alta resolución 41l-41M, y
el divisor de área 21 y combinador 24 son eliminados. Todos los
demás aspectos son los mismos que los descritos antes para la
realización de la fig. 12.
En cada una de las realizaciones antes descritas
del invento que emplea una memoria creadora de resolución 15 o
15_{i}, cuando los datos de cuadro de alta resolución previos
fueron creados ya en la memoria creadora de resolución, el
almacenamiento de datos desde el siguiente cuadro, es decir, desde
la memoria de imagen 11A actual, fueron descritos para ser cumplidos
moviendo el indicador de dirección de acuerdo con el vector de
movimiento, y sobrescribiendo alguno de los datos anteriores. Como
una alternativa a esa aproximación, el vector de movimiento del
cuadro previo puede ser almacenado y comparado con el vector de
movimiento del presente cuadro para determinar qué vector de
movimiento tiene componentes x e y más próximos a la distancia
correspondiente a un intervalo de elemento de imagen de alta
resolución, y datos almacenados consiguientemente. En otras
palabras, los datos asociados con el vector de movimiento que tienen
un error de redondeado menor serían seleccionados para
almacenamiento. Para la memoria de la fig. 23, esto significaría
seleccionar datos asociados con el vector de movimiento más próximo
a un múltiplo entero de 1/4 de un intervalo de elemento de imagen de
SD.
Aunque el presente invento ha sido
particularmente mostrado y descrito en unión con realizaciones
preferidas del mismo, será fácilmente apreciado por los expertos en
la técnica ordinarios que pueden hacerse varios cambios y
modificaciones en las realizaciones descritas sin salir del marco
del invento. Por ejemplo, mientras las realizaciones descritas
fueron descritas para reducir la distorsión de repliegue de espectro
y opcionalmente generar imágenes de alta resolución, el invento
puede ser también empleado para agrandar imágenes. Además, mientras
los procesos anteriores son descritos como tratamiento de datos en
una base de cuadro a cuadro, los procesos pueden ser empleados para
procesar partes de cuadros, tales como en unidades de campos.
También, las imágenes pueden ser presentadas en otros dispositivos
de presentación al lado de un CRT tal como una pantalla de
presentación de cristal líquido. Además, la señal de imagen recibida
puede ser una señal de imagen digital. En este caso, el convertidor
A/D (por ejemplo, de las figs. 1 u 11) puede ser eliminado. Además,
el presente invento de puede ser empleado para convertir una imagen
de exploración entrelazada a una imagen de exploración progresiva.
Consiguientemente, estos y otros cambios y modificaciones están
destinados a ser incluidos dentro del marco del invento.
Claims (41)
1. Un aparato convertidor de señal de imagen para
convertir una primera señal de imagen en una segunda señal de
imagen, comprendiendo dichas primera y segunda señales de imagen una
pluralidad de imágenes de diferentes cuadros, comprendiendo dicho
aparato: un detector de movimiento accionable para detectar el
movimiento de la primera señal de imagen entre un primer cuadro y un
segundo cuadro; y circuitos de tratamiento para producir la segunda
señal de imagen añadiendo, a los elementos de imagen de la primera
imagen, elementos de imagen supuestos en la dirección vertical
correspondientes al movimiento vertical detectado y/o elementos de
imagen supuestos en la dirección horizontal correspondientes al
movimiento horizontal detectado; en el que dicho detector de
movimiento (12) detecta el movimiento de dicha primera señal de
imagen por una cantidad más fina que una separación de elemento de
imagen a elemento de imagen de dicha primera señal de imagen, y
dichos circuitos de tratamiento incluyen: una memoria (15) creadora
de resolución para almacenar una imagen de la primera señal de
imagen y con una mayor capacidad de almacenamiento que una cantidad
de datos contenidos dentro de una imagen de la primera señal de
imagen; y un controlador (14) accionable para controlar la escritura
de los datos de la primera señal de imagen en dicha memoria (15)
creadora de resolución y para controlar la lectura de datos de una
nueva señal de imagen desde dicha memoria (15) que tiene mayor
resolución que dicha primera señal de imagen, escribiendo dicho
controlador (14) los datos de la primera señal de imagen en dicha
memoria (15) de acuerdo con el movimiento detectado de la primera
señal de imagen.
2. El aparato según la reivindicación 1ª, que
comprende además un filtro pasa bajos (16) para filtrar componente
de alta frecuencia de dicha segunda señal de imagen.
3. El aparato según la reivindicación 1ª o 2ª, en
el que dicho controlador (14) controla la lectura de dicha nueva
señal de imagen desde dicha memoria (15) como dicha segunda señal de
imagen.
4. El aparato según la reivindicación 1ª, que
comprende además un filtro pasa bajos (16) para filtrar dicha nueva
señal de imagen; y una unidad de salida (17) para convertir dicha
nueva señal de imagen filtrada en dicha segunda señal de imagen
formada con el mismo número de elementos de imagen que el número de
elementos de imagen contenido dentro de una imagen de la primera
señal de imagen, y para emitir dicha segunda señal de imagen,
teniendo dicha segunda señal de imagen menos distorsión de repliegue
de espectro que dicha primera señal de ima-
gen.
gen.
5. El aparato según la reivindicación 1ª, 2ª, 3ª
o 4ª, que comprende además un detector (13) de cambio de escena para
detectar un cambio de escena de dicha primera señal de imagen y
generar una señal de cambio de escena de acuerdo con ello,
respondiendo dicho controlador (14) a dicha señal de cambio de
escena para reponer valores dentro de posiciones de almacenamiento
de dicha memoria (15) a valores predeterminados.
6. El aparato según la reivindicación 1ª, en el
que datos de dicho primer cuadro de dicha primera señal de imagen
son obligados a ser almacenados en primeras posiciones de
almacenamiento de dicha memoria creadora de imagen (15); y datos de
dicho segundo cuadro de dicha primera señal de imagen son obligados
a ser almacenados en segundas posiciones de almacenamiento de dicha
memoria (15) que están cada uno desplazados con respecto a dichas
primeras posiciones de almacenamiento en una magnitud
correspondiente al movimiento de dicha primera señal de imagen entre
dicho primer y segundo cuadros, para producir por ello datos de un
cuadro de mayor resolución que contiene tanto dichos primeros datos
de cuadro como dichos segundos datos de cuadro.
7. El aparato según la reivindicación 6ª, en el
que dichos primeros datos de cuadro son almacenados en dicha memoria
de resolución (15) en un primer área de acceso en ella; dichos
segundos datos de cuadro son obligados a ser almacenados en un
segundo área de acceso del mismo tamaño que dicho primer área de
acceso sin que hayan sido borrados la totalidad de dichos primeros
datos de cuadro, estando desplazada dicha segunda área de acceso con
respecto a dicha primera área de acceso en correspondencia con dicho
movimiento detectado; y siendo dicho controlador (14) operativo para
proporcionar un indicador de dirección relativa a dicha memoria que
determina las posiciones de dichas primera y segunda áreas de
acceso.
8. El aparato según la reivindicación 1ª, en el
que dichos circuitos de tratamiento incluyen: un detector
(42i-42m) para detectar posiciones vacías en dicha
memoria en cuyas posiciones no hay almacenados datos de la primera
señal de imagen; y un generador (43i-43m) de
elementos de imagen para generar datos de elemento de imagen en las
posiciones vacías.
9. El aparato según la reivindicación 8ª, en el
que dicho detector (42i-42m) incluye una memoria de
bandera para almacenar banderas que indican qué posiciones de
almacenamiento de dicha memoria creadora de resolución contienen
datos de imagen almacenados de dicha primera señal de imagen.
10. El aparato según la reivindicación 8ª, en el
que dicho generador (43i-43m) de elementos de imagen
es operativo para determinar valores de imagen para elementos de
imagen en posiciones correspondientes a dichas posiciones vacías por
interpolación entre datos de elementos de imagen ya almacenados en
posiciones de almacenamiento contiguas de dichas posiciones
vacías.
11. El aparato según la reivindicación 8ª en el
que dicho generador de elementos de imagen incluye: un determinador
( 201, 202, 203) para detectar características de la primera señal
de imagen y determinar una clase correspondiente a las
características detectadas; una memoria (207) de datos de predicción
para almacenar datos de predicción para cada clase; y circuitos
(205, 206) para generar dichos datos de elemento de imagen para una
posición de almacenamiento vacía de acuerdo con datos de predicción
leídos desde la memoria de datos de predicción correspondiente a la
clase determinada.
12. El aparato según la reivindicación 11ª, en el
que los datos de predicción para cada clase son producidos por
aprendizaje usando al menos una señal de imagen de aprendizaje que
tiene una mayor resolución que la primera
señal.
señal.
13. Un aparato convertidor de señal de imagen
para convertir una primera señal de imagen en una segunda señal de
imagen de mayor resolución que la primera señal de imagen,
comprendiendo dichas primera y segunda señales de imagen cada una
una pluralidad de cuadros, comprendiendo dicho aparato: un detector
de movimiento (12) accionable para detectar el movimiento de la
primera señal de imagen entre cuadros sucesivos en al menos una
primera y segunda regiones de cada cuadro; un divisor de área (21)
para definir al menos una primera y segunda áreas de imagen de una
imagen de la primera señal de imagen basada en al menos el
movimiento detectado; circuitos de tratamiento (224, 228, 234, 238,
15A, 15B, 13, 14A, 14B; 41i-41m) para producir una
primera y segunda áreas de imagen de la segunda señal de imagen
añadiendo, a los elementos de imagen de la primera y segunda áreas
de imagen de la primera imagen, elementos de imagen supuestos en la
dirección vertical correspondientes al movimiento vertical detectado
en las respectivas primera y segunda áreas de imagen y/o elementos
de imagen supuestos en la dirección horizontal correspondientes al
movimiento detectado en la dirección horizontal en las respectivas
primera y segunda áreas de imagen; y un combinador (24) para
combinar la primera y segunda áreas de imagen de la segunda señal de
imagen para formar una señal de imagen compuesta; en el que dicho
detector de movimiento (13) detectar movimiento de dicha primera
señal de imagen por una cantidad más fina que una separación de
elemento de imagen a elemento de imagen de dicha primera señal de
imagen, y dichos circuitos de tratamiento comprenden una primera
(14, 23 A, 15 A, 22 A) y segunda (14 B, 23 B, 15 B, 22 B) partes de
circuito para realizar operaciones de tratamiento separadas en
dichas primera y segunda áreas de imagen de dicha primera señal,
incluyendo cada parte de circuito: una memoria creadora de
resolución (15A, 15B) para almacenar datos dentro del área de imagen
respectiva de la primera señal de imagen y con una mayor capacidad
de almacenamiento que una cantidad de datos contenidos dentro de una
imagen de la primera señal de imagen; y un controlador (14A, 14B)
accionable para controlar la escritura de los primeros datos de
señal de imagen en dicha memoria creadora de resolución y leer datos
de una nueva señal de imagen desde dicha memoria que tienen mayor
calidad que dicha primera señal de imagen, escribiendo dicho
controlador los primeros datos de señal de imagen en dicha memoria
de acuerdo con el movimiento detectado de la primera señal de imagen
en el área de imagen asociada.
14. El aparato según la reivindicación 13ª, que
comprende además un detector (13) de cambio de escena para detectar
un cambio de escena de dicha primera señal de imagen y generar una
señal de cambio de escena de acuerdo con ello, respondiendo cada uno
de dichos controladores (14A, 14B) a dicha señal de cambio de escena
para reponer valores dentro de las posiciones de almacenamiento de
la memoria creadora de resolución asociada a valores
predeterminados.
15. El aparato según la reivindicación 13ª o 14ª,
que comprende además: un filtro (16) para filtrar la segunda señal
de imagen.
16. El aparato según la reivindicación 15ª, en el
que dicho filtro (16) es un filtro pasa bajos.
17. El aparato según la reivindicación 16ª, que
comprende además: una unidad de salida (17) para convertir dicha
segunda señal filtrada en una señal de imagen de salida formada con
el mismo número de elementos de imagen que el número de elementos de
imagen contenidos dentro de una imagen de la primera señal de
imagen, y para emitir dicha segunda señal de imagen, teniendo dicha
segunda señal de imagen emitida menos distorsión de repliegue de
espectro que dicha primera señal de imagen.
18. El aparato según la reivindicación 15ª, en el
que dicha unidad de salida comprende una memoria de cuadro (17) para
almacenar dicha segunda señal filtrada, siendo leídos los datos
desde dicha memoria de cuadro borrando periódicamente líneas de
datos para producir dicha señal de salida con menos calidad que
dicha segunda señal de imagen.
19. El aparato según la reivindicación 13ª, en el
que cada una de dichas partes de circuito de dichos circuitos de
tratamiento incluye: un detector (41i-41m) para
detectar posiciones vacías en la memoria creadora de resolución
asociada (15i-15m) en cuyas posiciones no hay
almacenados datos de la primera señal de imagen; y un generador de
elementos de imagen (43i-43m) para generar datos de
elemento de imagen en las posiciones vacías.
20. El aparato según la reivindicación 19ª, en el
que dicho detector incluye una memoria de bandera
(42i-42m) para almacenar banderas que indican qué
posiciones de almacenamiento de dicha memoria creadora de resolución
contienen datos de imagen almacenados de dicha primera señal de
imagen.
\newpage
21. El aparato según la reivindicación 19ª o 20ª,
en el que dicho generador de elementos de imagen
(43i-43m) es operativo para determinar valores de
imagen para elementos de imagen en posiciones correspondientes a
dichas posiciones vacías interpolando entre datos de elementos de
imagen ya almacenados en posiciones de almacenamiento contiguas de
dichas posiciones vacías.
22. El aparato según la reivindicación 19ª en el
que dicho generador de elementos de imagen (43i-43m)
incluye: un determinador (201, 202, 203) para detectar
características de la primera señal de imagen y determinar una clase
correspondiente a las características detectadas; una memoria de
datos de predicción (207) para almacenar datos de predicción para
cada clase; y circuitos (205, 206) para generar dichos datos de
elemento de imagen para una posición de almacenamiento vacía de
acuerdo con los datos de predicción leídos desde la memoria de datos
de predicción (207) correspondiente a la clase determinada.
23. El aparato según la reivindicación 22ª, en el
que los datos de predicción para cada clase son producidos por
aprendizaje usando al menos una señal de imagen de aprendizaje que
tiene una mayor resolución que la primera señal.
24. El aparato según la reivindicación 1ª o 2ª,
en el que dicha primera señal de imagen comprende una señal de
definición estándar (SD) y dicha segunda señal de imagen comprende
una señal de alta definición (HD) con mayor resolución que dicha
señal de SD tanto en direcciones horizontal como vertical.
25. El aparato según la reivindicación 1ª, en el
que: dicha primera señal de imagen representa una imagen de
definición estándar (SD) y dicha segunda señal de imagen representa
una imagen de alta definición (HD) con mayor resolución que dicha
imagen de SD tanto en direcciones horizontal como vertical; y, un
área de acceso está definida dentro de dicha memoria creadora de
resolución para cada imagen de alta resolución creada, con
posiciones de almacenamiento correspondientes a dos veces tantos
elementos de imagen en la dirección horizontal y dos veces tantos
elementos de imagen en la edición vertical como dicha imagen de
SD.
26. El aparato según la reivindicación 1ª, en el
que: dicha primera señal de imagen representa una imagen de
definición estándar (SD) y dicha segunda señal de imagen representa
una imagen de alta definición (HD) con mayor resolución que dicha
imagen de SD tanto en direcciones horizontal como vertical; un área
de acceso está definida dentro de dicha memoria creadora de
resolución para cada imagen de alta resolución creada, con
posiciones de almacenamiento correspondientes a cuatro veces tantos
elementos de imagen en la dirección horizontal y cuatro veces tantos
elementos de imagen en la dirección vertical como dicha imagen de
SD; y datos de elemento de imagen son obligados a ser leídos desde
dicha memoria creadora de resolución borrando posiciones de
almacenamiento alternativas para formar por ello una imagen de HD
con dos veces tantos elementos de imagen en cada una de las
direcciones horizontal y vertical como dicha imagen de SD.
27. Un método para convertir una primera señal de
imagen en una segunda señal de imagen, comprendiendo cada una de
dichas primera y segunda señales de imagen una pluralidad de
imágenes de diferentes cuadros, comprendiendo dicho método las
operaciones de: detectar movimiento de dicha primera señal de imagen
entre un primer cuadro y un segundo cuadro; generar elementos de
imagen supuestos en la dirección vertical correspondientes al
movimiento vertical detectado y/o generar elementos de imagen
supuestos en la dirección horizontal correspondientes al movimiento
horizontal detectado; y producir dicha segunda señal de imagen
basada en dichos datos de elemento de imagen generados añadiendo los
elementos de imagen supuestos generados, a los elementos de imagen
de dicha primera imagen, en que dicha operación de detectar
movimiento comprende la detección del movimiento de dicha primera
señal de imagen por una cantidad más fina que una separación de
elemento de imagen a elemento de imagen de dicha primera señal de
imagen, y además incluyendo las operaciones de: almacenar una imagen
de la primera señal de imagen en una memoria creadora de resolución
que tiene una capacidad de almacenamiento mayor que una cantidad de
datos dentro de una imagen de la primera señal de imagen; controlar
la escritura de datos de la primera señal de imagen en dicha memoria
creadora de resolución de acuerdo con el movimiento detectado de la
primera señal de imagen; y controlar la lectura de datos de una
nueva señal de imagen desde dicha memoria, siendo dicha nueva señal
de imagen de una mayor resolución que dicha primera señal de
imagen.
28. El método según la reivindicación 27ª, que
comprende además la operación de filtrado pasa bajos de dicha
segunda señal de imagen para reducir cualquier distorsión de
repliegue de espectro que pueda estar presente en ella.
29. El método según la reivindicación 27ª o 28ª,
en el que dicha operación de controlar la lectura comprende
controlar la lectura de datos de dicha nueva señal de imagen como
dicha segunda señal de imagen.
30. El método según la reivindicación 27ª, que
comprende además las operaciones de: filtrar con un filtro pasa
bajos de dicha nueva señal de imagen para producir una señal
filtrada; convertir dicha señal de imagen filtrada en dicha segunda
señal de imagen formada con el mismo número de elementos de imagen
que el número de elementos de imagen contenido dentro de una imagen
de la primera señal de imagen; y emitir dicha segunda señal de
imagen que tiene menos distorsión de repliegue de espectro que dicha
primera señal de imagen.
31. El método según la reivindicación 27ª, que
comprende además las operaciones de: detectar un cambio de escena de
dicha primera señal de imagen; y reponer datos dentro de posiciones
de almacenamiento de dicha memoria creadora de resolución a valores
predeterminados cuando se ha detectado un cambio de escena.
32. El método según la reivindicación 27ª, que
comprende además generar un indicador o puntero de dirección
relativa de acuerdo con el movimiento detectado y escribir datos de
imagen de dicho segundo cuadro en dicha memoria en posiciones de
acuerdo con el indicador de dirección relativa sin borrar todos los
datos de imagen contenidos dentro de dicha memoria de dicho primer
cuadro, para producir por ello datos de un cuadro de mayor calidad
que contiene tanto dichos primeros datos de cuadro como dichos
segundos datos de cuadro en el que dichos segundos dato de cuadro
son almacenados en posiciones que están desplazadas con respecto a
las posiciones de almacenamiento que almacenan dichos primeros datos
de cuadro.
33. El método según la reivindicación 27ª, que
comprende además las operaciones de: detectar posiciones vacías en
dicha memoria en las que no hay almacenados datos de la primera
señal de imagen; y generar datos de elementos de imagen para
elementos de imagen correspondientes a las posiciones vacías.
34. El método según la reivindicación 33ª, en el
que dicha operación de detección incluye almacenar banderas que
indican qué posiciones de almacenamiento de dicha memoria creadora
de resolución contienen datos de imagen almacenados de la primera
señal de imagen.
35. El método según la reivindicación 33ª, en el
que dicha operación de generar datos de elementos de imagen
comprende interpolar entre valores de imagen de elementos de imagen
contiguos de los que los datos de elementos de imagen están ya
almacenados.
36. El método según la reivindicación 33ª, en el
que dicha operación de generar datos de elemento de imagen incluye:
detectar características de la primera señal de imagen y determinar
una clase correspondiente a las características detectadas;
almacenar datos de predicción en una memoria de datos de predicción
para cada clase; y generar dichos datos de elemento de imagen para
una posición de almacenamiento vacía de acuerdo con los datos de
predicción leídos desde la memoria de datos de predicción
correspondiente a la clase determinada.
37. El método según la reivindicación 33ª, que
comprende además producir los datos de predicción para cada clase
por aprendizaje usando al menos una señal de imagen de aprendizaje
que tiene una mayor resolución que la primera señal.
38. El método según la reivindicación 27ª, en el
que dicha primera señal de imagen comprende una señal de definición
estándar (SD) y dicha segunda señal de imagen comprende una señal de
alta definición (HD) con mayor resolución que dicha señal de SD
tanto en direcciones horizontal como vertical.
39. El método según la reivindicación 27ª, en el
que dicha primera señal de imagen representa una señal de definición
estándar (SD) y dicha segunda señal de imagen representa una imagen
de alta definición (HD) con mayor resolución que dicha imagen de SD
tanto en direcciones horizontal como vertical; y comprendiendo dicho
método además la operación de: almacenar datos de imagen de SD
dentro de una área de acceso de dicha memoria creadora de resolución
para cada imagen de alta resolución creada, teniendo cada área de
acceso posiciones de almacenamiento correspondientes a dos veces
tantos elementos de imagen en la dirección horizontal y dos veces
tantos elementos de imagen en la dirección vertical como dicha
imagen de SD.
40. El método según la reivindicación 27ª, en el
que dicha primera señal de imagen representa una imagen de
definición estándar (SD) y dicha segunda señal de imagen representa
una imagen de alta definición (HD) con mayor resolución que dicha
imagen de SD tanto en direcciones a horizontal como vertical; y
comprendiendo dicho método además la operación de: almacenar datos
de imagen de SD dentro de una área de acceso de dicha memoria
creadora de resolución para cada imagen de alta resolución creada,
teniendo cada área de acceso posiciones de almacenamiento
correspondientes a cuatro veces tantos elementos de imagen en la
dirección horizontal y cuatro veces tantos elementos de imagen en la
dirección vertical como dicha imagen de SD; y leer datos de elemento
de imagen desde dicha memoria creadora de resolución borrando las
posiciones de almacenamiento alternativas para formar por ello una
imagen de HD con dos veces tantos elementos de imagen en cada una de
la direcciones horizontal como vertical como dicha imagen de SD.
41. El método según la reivindicación 27ª, en el
que dicha operación de detección de movimiento comprende la
detección del movimiento de dicha primera señal de imagen por una
cantidad más fina que una separación de elemento de imagen a
elemento de imagen de dicha primera señal de imagen en una
pluralidad de áreas de imagen de una imagen de la misma, y que
incluye además las operaciones de: definir al menos una primera y
segunda áreas de imagen de dicha imagen de la primera señal de
imagen basadas en al menos el movimiento detectado; producir una
primera y segunda áreas de imagen de la segunda señal de imagen
basadas en una suposición de elemento de imagen en posiciones
correspondientes al movimiento detectado en la primera y segunda
áreas de imagen respectivas; y combinar la primera y segunda áreas
de imagen de la segunda señal de imagen para formar una señal de
imagen compuesta.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP3018197 | 1997-02-14 | ||
JP3018197 | 1997-02-14 | ||
JP26193497 | 1997-09-26 | ||
JP26193497 | 1997-09-26 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2247659T3 true ES2247659T3 (es) | 2006-03-01 |
Family
ID=26368487
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES98301067T Expired - Lifetime ES2247659T3 (es) | 1997-02-14 | 1998-02-13 | Metodo y aparato de conversion de señal de imagen. |
Country Status (7)
Country | Link |
---|---|
US (1) | US6330344B1 (es) |
EP (1) | EP0859513B1 (es) |
CN (1) | CN1118194C (es) |
CA (1) | CA2229511C (es) |
DE (1) | DE69831886T2 (es) |
ES (1) | ES2247659T3 (es) |
MX (1) | MX9801198A (es) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2684690A1 (es) * | 2017-03-30 | 2018-10-04 | Felipe SEGURA GUTIERREZ | Método para la captura de imágenes desde un dispositivo portable |
Families Citing this family (48)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3560217B2 (ja) * | 1998-04-30 | 2004-09-02 | ソニー株式会社 | データ符号化装置、データ符号化方法及びデータ伝送方法 |
JP4123567B2 (ja) * | 1998-04-30 | 2008-07-23 | ソニー株式会社 | 画像信号処理装置及び方法 |
JP4147632B2 (ja) * | 1998-08-24 | 2008-09-10 | ソニー株式会社 | 画像情報変換装置、画像情報変換方法、およびテレビジョン受像機 |
US6188357B1 (en) | 1998-09-17 | 2001-02-13 | Novatel Inc. | System and method for mitigating static carrier-phase multipath effects |
US6718073B1 (en) | 1998-09-30 | 2004-04-06 | Sony Corporation | Arithmetic device, and converter, and their methods |
WO2000021301A1 (en) * | 1998-10-05 | 2000-04-13 | Sony Corporation | Image transform device and method, learning device and method, and recording medium |
WO2000024194A1 (fr) | 1998-10-20 | 2000-04-27 | Sony Corporation | Dispositif et procede de traitement d'images |
US6625322B1 (en) * | 1999-06-08 | 2003-09-23 | Matsushita Electric Industrial Co., Ltd. | Image coding apparatus |
US6912014B2 (en) * | 2000-02-10 | 2005-06-28 | Sony Corporation | Image processing device and method, and recording medium |
JP2002077723A (ja) * | 2000-09-01 | 2002-03-15 | Minolta Co Ltd | 動画像処理装置、動画像処理方法および記録媒体 |
KR100412503B1 (ko) * | 2001-12-13 | 2003-12-31 | 삼성전자주식회사 | 디지털방송신호의 해상도 설정이 용이한 디지털방송신호수신용 셋톱박스 |
US7046863B2 (en) * | 2002-03-25 | 2006-05-16 | Sharp Laboratories Of America, Inc. | Optimizing the advantages of multi-level rendering |
EP1357514B1 (en) * | 2002-04-23 | 2008-07-16 | STMicroelectronics S.r.l. | Method for obtaining a high-resolution digital image |
DE60203166T2 (de) * | 2002-06-12 | 2006-03-23 | Stmicroelectronics S.R.L., Agrate Brianza | Verfahren zur Herstellung von Digital-Bildern mit hoher Auflösung |
US7729563B2 (en) * | 2002-08-28 | 2010-06-01 | Fujifilm Corporation | Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames |
TW583603B (en) * | 2003-02-21 | 2004-04-11 | Inventec Appliances Corp | Method for producing enhanced-resolution image by use of a plurality of low-resolution images |
CN100375120C (zh) * | 2003-06-16 | 2008-03-12 | 英华达股份有限公司 | 藉由多张低解析度影像产生高解析度影像的方法 |
JP4635629B2 (ja) * | 2004-03-30 | 2011-02-23 | 日本ビクター株式会社 | サンプリングレート変換装置及び画像信号処理方法 |
JP4184319B2 (ja) * | 2004-06-10 | 2008-11-19 | オリンパス株式会社 | 撮像装置 |
JP5062968B2 (ja) * | 2004-08-11 | 2012-10-31 | ソニー株式会社 | 画像処理装置および方法、記録媒体、並びにプログラム |
JP4420811B2 (ja) * | 2004-12-21 | 2010-02-24 | 富士通マイクロエレクトロニクス株式会社 | 画像処理装置および方法 |
US20070188506A1 (en) * | 2005-02-14 | 2007-08-16 | Lieven Hollevoet | Methods and systems for power optimized display |
US7466959B2 (en) * | 2005-06-30 | 2008-12-16 | Texas Instruments Incorporated | Apparatus and method for IF switching in a dual-tuner, dual-IF, HD radio and FM/AM radio receiver |
US7440730B2 (en) * | 2005-06-30 | 2008-10-21 | Intel Corporation | Device, system and method of multiple transceivers control |
JP4818031B2 (ja) * | 2005-10-27 | 2011-11-16 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
JP2007221538A (ja) * | 2006-02-17 | 2007-08-30 | Fujitsu Ltd | シーンチェンジ判定装置、データ転送装置、シーンチェンジ判定方法、および、データ転送方法 |
KR100761846B1 (ko) * | 2006-05-18 | 2007-09-28 | 삼성전자주식회사 | 연속되는 영상에 모션이 있는가를 검출하는 모션 검출 장치및 모션 검출 방법 |
GB2443858A (en) * | 2006-11-14 | 2008-05-21 | Sony Uk Ltd | Alias avoiding image processing using directional pixel block correlation and predetermined pixel value criteria |
KR100843093B1 (ko) * | 2006-11-28 | 2008-07-02 | 삼성전자주식회사 | 움직임에 따라 컨텐츠를 디스플레이하는 장치 및 방법 |
US7809212B2 (en) * | 2006-12-20 | 2010-10-05 | Hantro Products Oy | Digital mosaic image construction |
JP5057839B2 (ja) * | 2007-04-27 | 2012-10-24 | 株式会社東芝 | 構造物の目視検査装置およびその検査方法 |
JP5111088B2 (ja) * | 2007-12-14 | 2012-12-26 | 三洋電機株式会社 | 撮像装置及び画像再生装置 |
EP2081150A1 (en) * | 2008-01-18 | 2009-07-22 | Nederlandse Organisatie voor toegepast-natuurwetenschappelijk Onderzoek TNO | Method of improving the resolution of a moving object in a digital image sequence |
FI20095273A0 (fi) * | 2009-03-17 | 2009-03-17 | On2 Technologies Finland Oy | Digitaalinen videokoodaus |
CN102204255B (zh) * | 2009-07-07 | 2014-09-17 | 松下电器产业株式会社 | 运动图像解码装置、方法和系统以及集成电路 |
JP5423235B2 (ja) * | 2009-08-20 | 2014-02-19 | ソニー株式会社 | 撮像装置 |
EP2405661B1 (en) | 2010-07-06 | 2017-03-22 | Google, Inc. | Loss-robust video transmission using two decoders |
JP2012244395A (ja) | 2011-05-19 | 2012-12-10 | Sony Corp | 学習装置および方法、画像処理装置および方法、プログラム、並びに記録媒体 |
US9014265B1 (en) | 2011-12-29 | 2015-04-21 | Google Inc. | Video coding using edge detection and block partitioning for intra prediction |
US9210424B1 (en) | 2013-02-28 | 2015-12-08 | Google Inc. | Adaptive prediction block size in video coding |
US9313493B1 (en) | 2013-06-27 | 2016-04-12 | Google Inc. | Advanced motion estimation |
US8917354B2 (en) * | 2013-09-30 | 2014-12-23 | Amlogic Co., Ltd. | Motion detection in video fields |
US9774881B2 (en) * | 2014-01-08 | 2017-09-26 | Microsoft Technology Licensing, Llc | Representing motion vectors in an encoded bitstream |
US9749642B2 (en) | 2014-01-08 | 2017-08-29 | Microsoft Technology Licensing, Llc | Selection of motion vector precision |
US9807416B2 (en) | 2015-09-21 | 2017-10-31 | Google Inc. | Low-latency two-pass video coding |
US10147167B2 (en) | 2015-11-25 | 2018-12-04 | Heptagon Micro Optics Pte. Ltd. | Super-resolution image reconstruction using high-frequency band extraction |
CN115460463A (zh) | 2018-01-04 | 2022-12-09 | 三星电子株式会社 | 视频播放装置及其控制方法 |
CN108712620B (zh) * | 2018-05-16 | 2020-12-25 | 上海集成电路研发中心有限公司 | 一种运动检测电路及运动检测方法 |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0294957B1 (en) | 1987-06-09 | 1995-04-12 | Sony Corporation | Motion vector processing in digital television images |
US5111511A (en) * | 1988-06-24 | 1992-05-05 | Matsushita Electric Industrial Co., Ltd. | Image motion vector detecting apparatus |
GB9022743D0 (en) * | 1990-10-19 | 1991-04-03 | Marconi Gec Ltd | Noise reduction of video signal |
US6104439A (en) * | 1992-02-08 | 2000-08-15 | Samsung Electronics Co., Ltd. | Method and apparatus for motion estimation |
JP3438233B2 (ja) | 1992-05-22 | 2003-08-18 | ソニー株式会社 | 画像変換装置および方法 |
US5381183A (en) * | 1992-07-03 | 1995-01-10 | Mitsubishi Denki Kabushiki Kaisha | Motion-adaptive scanning-line conversion circuit |
US5588067A (en) * | 1993-02-19 | 1996-12-24 | Peterson; Fred M. | Motion detection and image acquisition apparatus and method of detecting the motion of and acquiring an image of an object |
US5614945A (en) | 1993-10-19 | 1997-03-25 | Canon Kabushiki Kaisha | Image processing system modifying image shake correction based on superimposed images |
JP3111442B2 (ja) * | 1993-12-14 | 2000-11-20 | ブラザー工業株式会社 | 文書処理装置 |
US5557298A (en) * | 1994-05-26 | 1996-09-17 | Hughes Aircraft Company | Method for specifying a video window's boundary coordinates to partition a video signal and compress its components |
US5485611A (en) * | 1994-12-30 | 1996-01-16 | Intel Corporation | Video database indexing and method of presenting video database index to a user |
-
1998
- 1998-02-10 US US09/021,358 patent/US6330344B1/en not_active Expired - Fee Related
- 1998-02-12 MX MX9801198A patent/MX9801198A/es not_active IP Right Cessation
- 1998-02-13 DE DE69831886T patent/DE69831886T2/de not_active Expired - Lifetime
- 1998-02-13 CA CA002229511A patent/CA2229511C/en not_active Expired - Fee Related
- 1998-02-13 EP EP98301067A patent/EP0859513B1/en not_active Expired - Lifetime
- 1998-02-13 ES ES98301067T patent/ES2247659T3/es not_active Expired - Lifetime
- 1998-02-14 CN CN98109497.XA patent/CN1118194C/zh not_active Expired - Fee Related
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2684690A1 (es) * | 2017-03-30 | 2018-10-04 | Felipe SEGURA GUTIERREZ | Método para la captura de imágenes desde un dispositivo portable |
Also Published As
Publication number | Publication date |
---|---|
CN1118194C (zh) | 2003-08-13 |
EP0859513A2 (en) | 1998-08-19 |
MX9801198A (es) | 1998-11-30 |
EP0859513A3 (en) | 2000-03-22 |
DE69831886T2 (de) | 2006-07-27 |
EP0859513B1 (en) | 2005-10-19 |
CA2229511A1 (en) | 1998-08-14 |
DE69831886D1 (de) | 2005-11-24 |
US6330344B1 (en) | 2001-12-11 |
CN1199987A (zh) | 1998-11-25 |
CA2229511C (en) | 2004-06-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2247659T3 (es) | Metodo y aparato de conversion de señal de imagen. | |
KR100195361B1 (ko) | 와이드 스크린 텔레비젼 | |
ES2334507T3 (es) | Proceso para la descompresion de videos con base en el objeto empleando caracteristicas conformadas arbitrariamente. | |
KR100254958B1 (ko) | 디지탈 비디오 신호 변환 장치 | |
US7466451B2 (en) | Method and apparatus for converting motion image data, and method and apparatus for reproducing motion image data | |
EP0711487B1 (en) | A method for specifying a video window's boundary coordinates to partition a video signal and compress its components | |
JP2002517176A (ja) | デジタル動きビデオ信号のコード化と復号の方法および装置 | |
JPH0239789A (ja) | 高品位テレビジョン伝送装置及び方法 | |
KR100209850B1 (ko) | 비비월 주사 비디오 신호와 비월 주사 비디오 신호를 동시에 디스플레이하는 장치 | |
US5926611A (en) | High resolution digital recorder and method using lossy and lossless compression technique | |
EP0923052B1 (en) | Image encoding/decoding technique | |
US5841480A (en) | Film to video format converter using least significant look-up table | |
EP0698330A1 (en) | Film to video format converter using least significant look-up table | |
KR980013427A (ko) | 영상 코딩 장치, 영상 코딩 방법, 영상 디코딩 방법,영상 디코딩 장치, 영상 데이터 전송 방법 및 기록 매체(Image Coding Apparatus, Image Coding Method, Image Decoding Method, Image Decofing Apparatus, Image Data Transmitting Method and Recording Medium) | |
AU636084B2 (en) | Datv encoding and decoding method and apparatus | |
JP4120898B2 (ja) | 画像処理装置および画像処理方法 | |
KR100505516B1 (ko) | 영상신호변환장치및방법 | |
JP4300446B2 (ja) | 画像処理装置及び画像処理方法 | |
JP4470324B2 (ja) | 画像信号変換装置および方法 | |
US20060176530A1 (en) | Gradation interpolating circuit and gradation interpolating method | |
JP4120095B2 (ja) | 画像情報変換装置および変換方法 | |
KR100229292B1 (ko) | 비디오 디스플레이 제어 시스템_ | |
JPH06268909A (ja) | 映像再生装置 | |
JPH1093886A (ja) | アスペクト変換装置 | |
JPH0856329A (ja) | ワイドアスペクト映像信号記録方法及びこれを用いた磁気記録再生装置 |