ES2264669T3 - Sistema y metodo de interpolacion de imagenes. - Google Patents
Sistema y metodo de interpolacion de imagenes.Info
- Publication number
- ES2264669T3 ES2264669T3 ES00956793T ES00956793T ES2264669T3 ES 2264669 T3 ES2264669 T3 ES 2264669T3 ES 00956793 T ES00956793 T ES 00956793T ES 00956793 T ES00956793 T ES 00956793T ES 2264669 T3 ES2264669 T3 ES 2264669T3
- Authority
- ES
- Spain
- Prior art keywords
- interpolation
- lines
- model
- pixels
- models
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0117—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
- H04N7/012—Conversion between an interlaced and a progressive signal
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/4007—Interpolation-based scaling, e.g. bilinear interpolation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformation in the plane of the image
- G06T3/40—Scaling the whole image or part thereof
- G06T3/403—Edge-driven scaling
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G5/00—Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
- G09G5/20—Function-generator circuits, e.g. circle generators line or curve smoothing circuits
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/01—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
- H04N7/0135—Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2310/00—Command of the display device
- G09G2310/02—Addressing, scanning or driving the display screen or processing steps related thereto
- G09G2310/0229—De-interlacing
-
- G—PHYSICS
- G09—EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
- G09G—ARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
- G09G2340/00—Aspects of display data processing
- G09G2340/04—Changes in size, position or resolution of an image
- G09G2340/0407—Resolution change, inclusive of the use of different resolutions for different screen areas
- G09G2340/0414—Vertical resolution change
Abstract
Un sistema de interpolación de imágenes, para interpolar los espacios entre las líneas que forman una imagen, que comprende: un medio (100) de generación de datos de interpolación virtuales, para generar modelos de líneas de interpolación virtuales, entre las líneas de imagen de entrada, en base a datos de líneas de imagen de entrada; un medio (130) de determinación del segmento de interpolación, para determinar segmentos a ser interpolados entre las líneas de imagen de entrada, y la dirección de interpolación, en base a los modelos de líneas de interpolación virtuales generados; y un medio de interpolación (140) que genera píxels de pre-interpolación en las líneas de la imagen de entrada, en base a los datos determinados de los segmentos a ser interpolados, determinados por el medio de determinación del segmento de interpolación (130), e interpola los píxels entre las líneas de imagen de entrada, en base a los píxels de pre-interpolación generados.
Description
Sistema y método de interpolación de
imágenes.
La presente invención se refiere a un sistema de
interpolación de imágenes, y a un método de interpolación de
imágenes, y en concreto se refiere a un sistema de interpolación de
imágenes y a un proceso de interpolación de imágenes por
interpolación lineal, para la conversión ascendente de un cierto
sistema de televisión en otro sistema de televisión con un número
diferente de líneas de exploración, para crear un cuadro de imagen
a partir de un campo de imagen, cuando una señal de vídeo de
exploración entrelazada, es convertida en una señal de vídeo de
exploración secuencial.
Convencionalmente, para la interpolación por
línea de exploración, que genera una imagen de vídeo progresiva a
partir de una imagen de vídeo entrelazada, al efecto de llevar a
cabo una conversión ascendente de un sistema de televisión, en otro
sistema de televisión con un diferente número de líneas de
exploración, o para proporcionar una imagen con una definición
superior, se lleva a cabo interpolación
intra-cuadro, para imágenes fijas. Para imágenes en
movimiento, se lleva a cabo interpolación
intra-campo debido a que la correlación dentro de un
cuadro puede estar corrupta en una imagen en movimiento, y puede
producirse conversión defectuosa, como picos, cuando se interpola
líneas verticales móviles con el cuadro.
Como simples métodos de interpolación
intra-trama, las líneas a ser interpoladas pueden
ser procesadas por medio de interpolación lineal con las líneas
directamente superiores, o pueden ser procesadas mediante
interpolación lineal utilizando el promedio de líneas superiores e
inferiores. La primera interpolación ha estado acompañada de
irregularidades en los contornos de la imagen, para modelos tales
como líneas inclinadas, etc., que tienen menos correlación con
respecto a la dirección vertical. El segundo método de interpolación
ha estado acompañado por degradación de la imagen, como son
imprecisiones, etc., en la imagen.
Como técnica para solucionar estos
inconvenientes, el método de interpolación de la Aplicación de
Patente Japonesa Publicada para Examen Sho 63 Núm. 187 758, revela
una interpolación mediante la cual todo píxel en líneas a ser
interpoladas, es interpolado de acuerdo con la información de los
píxels que residen en torno al píxel, y en una dirección en la que
el píxel a ser interpolado tiene la correlación más fuerte. Primero,
para obtener información sobre la dirección radial en la cual el
píxel a ser interpolado tiene la correlación más fuerte de los
datos del píxel, se verifica los valores absolutos de la diferencia
entre los píxels vecinos, con respecto a la dirección vertical y a
las direcciones diagonales derecha e izquierda, al efecto de
determinar que la dirección a lo largo de la cual se hace mínimo el
valor diferencial absoluto, es la dirección que presenta la
correlación más fuerte, mediante lo que el valor promedio de los
píxels en tal dirección, es determinado y asignado al valor del
píxel a ser interpolado.
Sin embargo, este método necesita calcular los
valores diferenciales absolutos, por lo menos en las tres
direcciones indicadas arriba, y determinar el valor mínimo de estos
valores diferenciales absolutos, al efecto de determinar el valor
del píxel a ser interpolado, para cada uno de la totalidad de píxels
que constituyen las líneas a ser interpoladas. Por lo tanto, el
procesamiento de la interpolación consume mucho tiempo. Además,
puesto que la anterior secuencia de procesamiento se lleva a cabo
además para todas las áreas que incluyen píxels distintos de los
bordes de la imagen (donde los valores del píxel varían poco), o
para los casos en los que hay una pequeña diferencia en el grado de
dependencia de correlación en las direcciones, el tiempo para el
proceso será consumido con despilfarro, por lo que la velocidad de
interpolación es baja, de modo que también es difícil aumentar el
rango de píxels para los que se verifica la correlación.
Por lo tanto, cuando la interpolación se
implementa para una imagen que incluye una línea inclinada que tiene
una pequeña inclinación, donde los píxels localizados
considerablemente separados entre sí tienen correlación, es
imposible llevar a cabo una interpolación basada en la fuerte
correlación entre estos píxels, lo que conduce a la producción de
irregularidades a lo largo de los bordes de la parte inclinada, con
una pobre precisión de interpolación.
Al efecto de superar el inconveniente de la
anterior publicación, la Aplicación de Patente Japonesa Publicada
para Examen Hei 6 Núm. 30 487, revela un método que mejora la
velocidad de procesamiento de la interpolación y mejora la
precisión de la interpolación, por medio de aumentar el rango de
búsqueda de correlación, con una correspondiente mejora de la
velocidad de procesamiento.
A continuación se describirá el método de
interpolación de imagen revelado en esta publicación, con referencia
las figuras 14 a 17.
Para comenzar, en este método de interpolación
que se muestra en la figura 14, son comparados los píxels de líneas
vecinas, a saber las líneas n-ésima y
(n + 1)-ésima, sobre una imagen bidimensional, para detectar puntos del borde a y b, en líneas respectivas en la imagen bidimensional. Se asume que los píxels que están en la línea a ser interpolada, distintos de los puntos que hay entre los puntos de contorno a y b, pueden ser interpolados mediante los píxels en cualquiera de las líneas adyacentes, para determinar el contorno de la línea a ser interpolada.
(n + 1)-ésima, sobre una imagen bidimensional, para detectar puntos del borde a y b, en líneas respectivas en la imagen bidimensional. Se asume que los píxels que están en la línea a ser interpolada, distintos de los puntos que hay entre los puntos de contorno a y b, pueden ser interpolados mediante los píxels en cualquiera de las líneas adyacentes, para determinar el contorno de la línea a ser interpolada.
A continuación, como se muestra en la figura 15,
alrededor de los bordes a y b se crea una fila de píxel vecino (3,
0), que está centrada en un píxel observado (píxel A en este caso)
en cualquiera de las líneas vecinas (línea n-ésima), y está
definido por el "número de píxels" y la "cantidad de
desplazamiento desde la posición a ser interpolada", mientras que
se selecciona una fila del píxel asociado (3, 1) correlacionada con
la fila del píxel vecino desde la otra línea adyacente, línea (n +
1)-ésima.
Aquí, como forma general para establecer la
correlación entre la fila de píxel vecino y la fila de píxel
asociado, la fila de píxel vecino se define como (2m + 1, 0) y la
fila de píxel asociado se define como (2m + 1, \pm Y), donde m e Y
son cambiados de forma secuencial según m = Y = 1, 2, 3, 4, 5.
A continuación, como se muestra en la figura 16,
en función de las operaciones entre cada par de píxels indicados
por una flecha en los dibujos, en la fila de píxel vecino (3, 0) y
la fila de píxel asociado (3, 1), si el nivel de la diferencia
entre los píxels cae dentro del rango predeterminado, es verificado
al efecto de determinar la correlación. En este caso mostrado en el
dibujo, no existe correlación entre el par centrado de píxels. Así,
se hace m e Y iguales a 2, las operaciones entre cada par de píxels
indicado por las flechas en el dibujo, se llevan a cabo para la
fila de píxel vecino (5, 0) y la fila del píxel asociado (5, 2).
Cuando se reconoce la presencia de correlación, a partir de los
pares de píxels indicados por las flechas en el dibujo, se sabe que
la cantidad de desplazamiento desde la posición a ser interpolada,
es de dos píxels. Es decir, como se muestra en la figura 17, el
punto a y el punto b son dos píxels desplazados entre sí y, así, se
implementa la interpolación utilizando una fila de píxel que está
creada desplazando la fila del píxel seleccionado o la fila del
píxel vecino, en la mitad del número determinado de píxels, en el
sentido opuesto al sentido desplazado, específicamente la fila del
píxel centrada por el punto c, que está desplazado un píxel hacia la
derecha respecto del píxel A.
El método de interpolación revelado en la
Aplicación de Patente Japonesa Publicada para Examen Hei 5 Núm.
30487, es una invención que adopta la interpolación basada en fila
de píxel, y proporciona velocidad de procesamiento mejorado en
comparación con una típica interpolación basada en píxel. Sin
embargo, para determinar el contorno de la fila de píxel, debería
llevarse a cabo operaciones aritméticas entre líneas, para las filas
de por lo menos tres píxels hasta, más o menos, once píxels
mientras se desplaza píxels alrededor de la vecindad del contorno,
así, en este método permanece sin solucionar el aspecto de tener el
requisito de larga duración para las operaciones aritméticas.
Además, este método de interpolación está orientado a suavizar los
contornos de las imágenes, por lo que tiene el problema de una
incapacidad para restablecer un modelo, si el modelo tiene espacios
entre líneas, como en una imagen descrita con líneas delgadas casi
horizontales.
A la vista de los anteriores problemas del arte
convencional, el objetivo de la presente invención es proporcionar
un sistema de interpolación de imágenes, y un método de
interpolación de imágenes, que puedan realizar una interpolación en
tiempo real, de diversas imágenes de vídeo, incluyendo modelos con
líneas delgadas, bordes, etc., reduciendo sensiblemente la
velocidad de procesamiento.
De acuerdo con la presente invención, se
proporciona un sistema de interpolación de imágenes, para interpolar
los espacios entre las líneas que forman una imagen, que comprende:
un medio de generación de datos de interpolación virtual, para
generar modelos de línea de interpolación virtual, entre las líneas
de la imagen de entrada, en base a los datos de línea de imagen de
entrada; un medio de determinación del segmento de interpolación,
para detectar segmentos a ser interpolados entre las líneas de la
imagen de entrada, y la dirección de interpolación, en base a los
modelos de línea de interpolación virtual generados; y un medio de
interpolación que genera píxels de
pre-interpolación, en las líneas de la imagen de
entrada, en base a los datos determinados de los segmentos a ser
interpolados, determinados mediante el medio de determinación del
segmento de interpolación, e interpolar los píxels entre las líneas
de imagen de entrada, en base a los píxels de
pre-interpolación
generados.
generados.
Se prefiere que el medio de determinación del
segmento de interpolación, comprenda: un medio de configuración de
la condición de búsqueda, para configurar a un rango de búsqueda del
modelo; un medio de configuración de la condición del modelo de
coincidencia, para configurar condiciones del modelo de
coincidencia; y un primer medio de búsqueda del modelo de
coincidencia, para buscar modelos de coincidencia en base a las
condiciones diseñadas por el medio de configuración de la condición
de búsqueda, y por el medio de configuración de la condición del
modelo de coincidencia.
Preferentemente, el medio de determinación del
segmento de interpolación comprende: un medio de extracción del
vector direccional, para extraer la dirección del vector de los
modelos de coincidencia detectados; y un segundo medio de búsqueda
del modelo de coincidencia, para buscar modelos de coincidencia
existentes en la dirección extraída del vector, en base a las
condiciones diseñadas por el medio de configuración de la condición
de búsqueda, y por el medio de configuración de la condición del
modelo de coincidencia.
Preferentemente los modelos de línea de
interpolación virtual, generados por el medio de generación de datos
de interpolación virtual, están construidos por unidades de filas
de píxel, de datos.
Preferentemente, el medio de generación de datos
de interpolación virtual, comprende: un medio operativo
inter-píxel, para calcular la diferencia en los
datos del píxel, entre los píxels de las líneas vecinas de imagen de
entrada; un medio de normalización para clasificar los píxels en
múltiples clases, de acuerdo con el valor calculado de la
diferencia en los datos del píxel; un medio de extracción del
modelo, para extraer filas de píxels, normalizadas y clasificadas
en una clase idéntica, como modelos; y un medio de determinación del
umbral de detalle, para estimar los modelos extraídos en la misma
línea, a ser interpolados en base al umbral predeterminado, y
editarlos.
Se prefiere que el medio de determinación del
umbral de detalle comprenda: un medio operativo de píxel
intra-modelo, para calcular el promedio de los
valores diferenciales de píxel, para píxels individuales en cada
modelo; y un medio de edición del modelo, para estimar el valor
promedio en base al umbral calculado, y editar modelos.
De acuerdo con un segundo aspecto de la presente
invención, se proporciona un método de interpolación de imágenes,
para interpolar los espacios entre las líneas que forman una imagen,
que comprende: una etapa para generar modelos de línea de
interpolación virtual, entre las líneas de la imagen de entrada, en
base a los datos de línea de la imagen de entrada; una etapa de
determinación de segmentos a ser interpolados entre las líneas de
imagen de entrada y/o la dirección de interpolación, en base a
modelos de línea de interpolación virtual, generados; y una etapa
de generar píxels de interpolación en las líneas de imagen de
entrada, en base a los datos determinados de los segmentos a ser
interpolados, e interpolar los píxels entre las líneas de imagen de
entrada, en base a los píxels de pre-interpolación
generados.
Para que la presente invención sea comprendida
más fácilmente, se describirá ahora realizaciones específicas de
esta, con referencia a los dibujos anexos.
La figura 1 es un diagrama de bloques, que
muestra una configuración de un sistema de interpolación de
imágenes, acorde con la primera realización de la presente
invención.
La figura 2 es una vista que muestra una
pantalla, en la que se muestra un cuadro de imagen visual, que tiene
un modelo de línea fina negra sobre un fondo blanco, como un
ejemplo de una imagen de vídeo de entrada, para explicar la primera
realización.
La figura 3 es un gráfico que muestra líneas
visuales de entrada, y líneas a ser interpoladas en un punto de
ampliación mostrado en la figura 2.
La figura 4 es un gráfico que muestra modelos de
línea de interpolación virtual, generados por un generador de
modelos de línea de interpolación virtual 100, mostrado en la figura
1.
La figura 5 es un gráfico para ilustrar como la
primera parte de búsqueda de modelos coincidentes 131, y la parte de
localización de modelos coincidentes 134 mostradas en la figura 1,
buscan modelos coincidentes.
La figura 6 es un gráfico para ilustrar como la
parte de extracción del vector orientado 135, y la segunda parte de
extracción del modelo de búsqueda 136 mostrada en la figura 1,
buscan un vector.
La figura 7 es un gráfico que muestra las filas
de píxel de pre-interpolación (= filas de píxel
coincidentes) 61 a 63, y 71 a 73, establecidas por la parte de
configuración de fila de píxel de pre-interpolación
143, mostrada en la figura 1.
La figura 8 es un gráfico que muestra filas de
píxel 81 a 84, que están creadas mediante la interpolación de la
parte de implementación de la interpolación 140, mostrada en la
figura 1.
La figura 9 es un diagrama de bloques, que
muestra una configuración de un sistema de interpolación de
imágenes, de acuerdo con la segunda realización de la presente
invención.
La figura 10 es un gráfico para ilustrar la
relación de posiciones entre líneas visuales y filas de píxel, en
las líneas a ser interpolados, para explicar la segunda
realización.
La figura 11 es un gráfico para ilustrar la
relación de posiciones entre líneas visuales y filas de píxel, en
las líneas a ser interpolados, para explicar la segunda
realización.
La figura 12 es un diagrama de bloques que
muestra una configuración de un sistema de interpolación de
imágenes, de acuerdo con la tercera realización.
La figura 13 es un gráfico para ilustrar la
relación de posiciones entre líneas visuales y filas de píxel, en
las líneas a ser interpoladas, para explicar la tercera
realización.
La figura 14 es un diagrama para ilustrar la
relación de posiciones entre líneas visuales y filas de píxel, en
las líneas a ser interpoladas, en un método de interpolación de
imágenes acorde con una técnica del arte previo.
La figura 15 es un diagrama para ilustrar un
proceso, para la determinación de la correlación entre una fila de
píxel vecino y una fila de píxel asociado, en un método de
interpolación de imágenes acorde con una técnica del arte
previo.
La figura 16 es un diagrama para ilustrar otro
proceso, de determinación de la correlación entre una fila de píxel
vecino y una fila de píxel asociado, en un método de interpolación
de imágenes acorde con una técnica del arte previo.
La figura 17 es un diagrama para ilustrar la
interpolación en un borde, en un método de interpolación de imágenes
acorde con una técnica del arte previo.
La primera realización de la presente invención
se explicará con referencia las figuras 1 a 8.
La figura 1 es un diagrama de bloques que
muestra una configuración de un sistema de interpolación de imágenes
acorde con la presente realización.
En este dibujo, 100 designa un generador de
modelo lineal de interpolación virtual, que recibe una imagen de
vídeo de entrada, y genera modelos de línea de interpolación
virtual, 120 designa a una base de datos de interpolación virtual
para almacenar los modelos de línea virtual generados, 130 designa
una parte de determinación de segmentos de interpolación, para
determinar segmentos de interpolación, y la dirección de la
interpolación, y 140 designa una parte de implementación de
interpolación, para llevar a cabo la interpolación en base a datos
manipulados aritméticamente.
El generador del modelo de línea de
interpolación virtual 100, consta de una parte de operativa de
luminancia diferencial inter-píxels 101, un
procesador de normalización 102, una parte de extracción de modelo
103, un procesador de determinación del umbral de detalle 110, una
parte operativa de luminancia diferencial
intra-modelo 111, una parte de estimación de
edición del modelo 112, y una parte de implementación de edición del
modelo 113.
La parte de determinación del segmento de
interpolación 130, consta de una primera parte de búsqueda de modelo
coincidente 131, una parte de configuración de condición de modelo
coincidente 132, una parte de configuración de condición de
búsqueda 133, una parte de localización de modelo coincidente 134,
una parte de extracción del vector direccional 135, y una segunda
parte de búsqueda de modelo coincidente 136.
La parte de implementación de la interpolación
140 consta de una parte de búsqueda de coincidencia
píxel-fila 141, una parte de configuración de
condición de búsqueda 142, una parte de configuración píxel fila de
pre-interpolación 142, una parte de configuración
píxel fila de pre-interpolación 143, una parte
operativa píxel fila coincidente 144, y un medio de corrección
145.
La figura 2 es una vista que muestra una
pantalla en la que se muestra un cuadro de imagen visual, que tiene
un modelo de línea negra delegada, sobre un fondo blanco, como
ejemplo de una imagen de vídeo de entrada.
En este dibujo, 1 designa una pantalla, 2
designa un modelo de línea delgada, y 3 designa un punto de
ampliación, en la imagen de entrada mostrada en la figura 3, como
una imagen objeto a ser interpolada esta realización.
La figura 3 es un gráfico que muestra líneas
visuales de entrada, y líneas a ser interpoladas en el punto de
ampliación mostrado en la figura 2.
En este dibujo, A, B, C, D e I designan líneas
visuales de entrada, y B, D, F, H designan líneas a ser
interpoladas. Designadas como 21 (A33 a A35), 22 (C27 a C31), 23
(E21 a E25), 24 (G15 a G19) y 25 (i10 a i13), hay partes del
modelo en negro, que describen el modelo de línea delgada inclinada
2. Las otras áreas representan partes del modelo en blanco.
Como se muestra en el mismo dibujo, cuando un
campo de imagen es extraído, las separaciones del modelo se
incrementan en los bordes del modelo, y cuando la inclinación del
modelo de línea delgada se hace más próxima la horizontal. Por lo
tanto, cuando un cuadro de imagen es generado por interpolación, la
imagen resultante puede presentar modelos con espacios, o contornos
irregulares, salvo que se lleve a cabo una interpolación
apropiada.
A continuación se describirá el funcionamiento
del sistema de interpolación de imágenes acorde con la presente
realización, con referencia las figuras 1 a 8.
Primero se describirá la generación de modelos
de línea de interpolación virtual, mediante el generador de modelo
de línea de interpolación virtual 100.
La introducción de la imagen de vídeo de
entrada, a la parte operativa de luminancia diferencial
inter-píxels 101, de un generador de modelo de
línea de interpolación virtual 100, se asume que tiene valores de
luminancia diferenciales de \pm 127. En la figura 3, se calcula
el valor de luminancia diferencial para todos los pares de píxels
opuestos en dos líneas visuales de entrada, vecinas, superior e
inferior, líneas A y C, líneas D y E, líneas E y G, y líneas G e I,
para obtener datos de los píxels en las líneas a ser interpoladas.
Después, en el procesador de normalización 102 se lleva a cabo el
proceso de normalización en base a un umbral determinado, y los
datos de los píxels en las líneas a ser interpoladas son
clasificados en tres clases, +, - y 0. La parte de extracción del
modelo 103 extrae segmentos de píxels que tienen continuamente la
misma clase, bien + o -, como modelos.
Para cada uno de los modelos extraídos, se
calcula el promedio de los valores de luminancia diferencial en el
modelo, mediante la porción operativa de luminancia diferencial
intra-modelo 111 del procesador de determinación
del umbral de detalle 110. Después, en la parte de estimación de
edición del modelo 112, se verifica cada modelo comparando el valor
promedio mencionado, con valores de referencia de edición del
modelo, como un umbral establecido, el número mínimo de puntos, el
número máximo de puntos, etc. Por ejemplo, el área que tiene un
valor promedio que no alcanza el umbral, se determina como un área
desapercibida o indistinta, y es excluida y borrada de los modelos,
por la parte de implementación de edición de modelo 113.
La parte de estimación de edición de modelo 112,
puede además llevar a cabo estimación de edición, para la extensión
y conexión de modelos, entre modelos próximos entre sí, mediante
comparar sus signos.
La figura 4 es un diagrama que muestra modelos
lineales de interpolación virtual, generados a través del proceso
anterior, por el generador de modelos lineales de interpolación
virtual 100.
En este dibujo, 41 hasta 44 designan modelos
lineales de interpolación virtual clasificados como la clase (-), 51
a 54 designan modelos lineales de interpolación virtual clasificados
como la clase (+), y los demás son modelos lineales de interpolación
virtual clasificados como la clase (0).
En el generador de modelo lineal de
interpolación virtual 100, como se muestra la figura 4, para el
modelo lineal de interpolación virtual separado para cada línea a
ser interpolada, se crea el promedio re-calculado
de valores de luminancia diferencial, la posición inicial, la
longitud, el siglo (+, -), la luminancia diferencial promediada, y
otros datos de cada modelo, de forma que los datos son enviados a la
base de datos de interpolación virtual 120. En la base de datos de
interpolación virtual 120, los datos así obtenidos a partir del
procesamiento, son almacenados como datos del modelo de
interpolación virtual. La cantidad de datos que son almacenados
pueden ser la totalidad del campo, o puede ser un número múltiple
de líneas requeridas para ser procesadas por el procesador de
determinación del segmento de interpolación 130, y la parte de
implementación de la interpolación 140.
A continuación se describirá el proceso de
determinación de los segmentos a ser interpolados, y la dirección de
la interpolación, mediante el procesador de determinación del
segmento de interpolación 130.
La figura 5 es un gráfico para ilustrar como
busca modelos coincidentes, la primera porción de búsqueda del
modelo coincidente 131.
Cuando los datos de interpolación virtual son
introducidos, desde la base de datos de interpolación virtual 120,
a la primera porción de búsqueda del modelo coincidente 131, del
procesador de determinación del segmento de interpolación 130, la
primera porción de búsqueda del modelo coincidente 131 busca modelos
coincidentes para cada uno de los modelos de línea de interpolación
virtual 41 a 44, y 51 a 54. Por ejemplo, en referencia a una
búsqueda para modelos coincidentes, del modelo lineal de
interpolación virtual 42, el segmento de 21, 22, 23 y 24 en la
línea de interpolación virtual D, en base al rango de búsqueda
configurado en la parte de configuración de la condición de
búsqueda 133, y en base a las condiciones de estimación de
coincidencia como son el signo, la longitud del segmento, el valor
de luminancia diferencial promedio, etc., configurados en la parte
de configuración de la condición de modelo coincidente 132, se busca
los modelos de línea de interpolación virtual que coinciden con el
modelo de línea de interpolación virtual 42, a partir de los modelos
de línea de interpolación virtual localizados por debajo, hacia la
izquierda y derecha inferiores, en la línea F, como se indica por
las flechas mostradas en la figura 5.
A continuación, si se encontrara algún modelo
con el mismo signo, + o -, y la misma longitud de segmento, y
luminancia diferencial promediada aproximada, en el rango de
búsqueda, como resultado de la búsqueda anterior, la parte de
localización de modelo coincidente 134 extrae modelos de línea de
interpolación virtual, como modelos coincidentes con el modelo de
línea de interpolación virtual 42. Después, se busca el modelo que
tiene un centro más próximo al centro del modelo de línea de
interpolación virtual 42, a partir de los modelos coincidentes
extraídos, uno desde cada lado del eje central del modelo de línea
de interpolación virtual 42. Como resultado el modelo de línea de
interpolación virtual 43, el segmento de 15, 16, 17 y 18 en la línea
de interpolación virtual F, existente sobre un lado, es identificado
como el modelo coincidente.
Además, puesto que en las imágenes reales de
vídeo, hay casos en los que existen modelos coincidentes en
múltiples direcciones, o donde existen líneas delgadas que tienen
espacios y bordes, se lleva a cabo una búsqueda vectorial al efecto
de evitar la extracción incorrecta de modelos coincidentes.
La parte de extracción del vector orientado 135,
extrae vectores originados a partir del modelo de base, para los
modelos candidatos extraídos como modelo coincidente. En este caso,
se extrae un vector desde el modelo de base, es decir el modelo de
línea de interpolación virtual 42, como modelo candidato 43 extraído
como el modelo coincidente. A continuación, en la segunda parte de
búsqueda de modelo coincidente 136, se busca modelos análogos que
caen en la dirección del vector, y satisfacen las condiciones de
estimación coincidentes, en función de las condiciones establecidas
en la parte de configuración de condiciones de búsqueda 133 y en la
parte de configuración de la condición de modelo coincidente 132. De
este modo, si se encuentra un modelo análogo en la dirección
vectorial, en base a la búsqueda vectorial en la parte de extracción
del vector direccional 135 y en la segunda parte de búsqueda de
modelo coincidente 136, el modelo se determina como el segmento a
ser interpolado, y el modelo candidato que cae en la dirección en la
que existen muchos modelos análogos, es seleccionada como el modelo
coincidente. Aquí, si no se encuentra ningún modelo análogo en la
dirección vectorial, no se lleva a cabo interpolación para tal
segmento. Así, es posible evitar la extracción errónea de un modelo
coincidente para una línea delgada, y en la dirección de un
borde.
La figura 6 es un gráfico para ilustrar como la
parte de extracción del vector direccional 35, y la segunda parte de
búsqueda del modelo coincidente 136, buscan un vector.
En este dibujo, es extraído un vector, indicado
por la fecha, desde el modelo base, es decir el modelo lineal de
interpolación virtual 42, al modelo candidato 43, mediante la parte
de extracción del vector direccional 35. Se encuentra en las líneas
(líneas B y H), más modelos coincidentes que caen en la dirección
vectorial, mediante la segunda parte de búsqueda de modelo
coincidente 136. Como resultado, se encuentra que el modelo de
línea de interpolación virtual 41 de 27, 28, 29, 30 y 31, en la
línea de interpolación virtual B, y los parcialmente mostrados
modelos de línea de interpolación virtual 44 de (9), 10, 11, 12 y 13
en la línea H, se encuentra que son los modelos coincidentes,
mediante lo que se determina que el modelo lineal de interpolación
virtual 42 es el segmento a ser interpolado, en el modelo de entrada
direccional a lo largo del vector. A la vez, puede determinarse el
modelo 43 como el segmento a ser interpolado, así como el modelo
lineal de interpolación virtual 42. Los segmentos designados para
ser interpolados, la dirección de la interpolación, etc.,
determinados por la parte de determinación del segmento de
interpolación 130, pueden además ser registrados en la base de datos
de interpolación virtual 120.
Como método de determinación en la parte de
determinación del segmento de interpolación 130, dependiendo de la
línea en la cual existen modelos coincidentes a en la dirección del
vector, o dependiendo del número de modelos coincidentes que
existen en la misma línea dirigida a lo largo de cada vector, con
respecto al eje central del modelo de base, es decir dependiendo de
la distribución de los modelos coincidentes, busca modelos
coincidentes que puedan ser implementados asignando diferentes
pesos, o en base a modelos coincidentes dedicados, determinando
condiciones para el modo de búsqueda vectorial. En la presente
realización, si se necesita o no la interpolación, y la dirección
de los modelos a ser interpolados, se determina en función del
número de modelos coincidentes que existen en la dirección
vectorial, pero el método de determinación no debería limitarse
a
esto.
esto.
A continuación, se describirá el proceso de
implementación de la interpolación, en la parte de
implementación de la interpolación 140.
implementación de la interpolación 140.
La parte de búsqueda de coincidencia
píxel-fila 141, recibe una imagen de vídeo de
entrada, y extrae coincidencias píxel-fila
correspondientes a los segmentos a ser interpolados, a partir de
líneas visuales de entrada, por encima y por debajo del campo de
entrada de la imagen, bajo las condiciones coincidentes, busca el
rango y otras condiciones establecidas por la parte de
configuración de la condición de búsqueda 142, introducidas desde el
procesador de determinación de segmento de interpolación 130.
Después, la parte de configuración de
píxel-fila de pre-interpolación 143,
para determinar las filas de píxel a ser escritas sobre segmentos
designados para interpolación, configura las filas de píxel de
pre-interpolación, cada una de las cuales incluye
por los menos parte de su coincidencia píxel-fila,
en base a los datos de posición de las coincidencias
píxel-fila, la posición inicial del segmento y la
longitud del modelo coincidente entre líneas vecinas, obtenidos
desde la base de datos de interpolación virtual 120.
En la presente realización, puesto que la
longitud del segmento designado para interpolación, y la de la
coincidencia píxel fila en la línea visual, están representadas
idénticamente, la pre-interpolación píxel fila
corresponde a la propia coincidencia píxel-fila.
En la figura 7, 61 a 63, y 71 a 73, designan
filas de píxel de pre-interpolación (= coincidencias
píxel-fila) configuradas por la parte de
configuración de píxel fila de pre-interpolación
143.
A continuación, la parte operativa de
píxel-fila coincidente 144, calcula los valores de
datos de vídeo promedio de las coincidencias
píxel-fila 61 a 63 y las coincidencias
píxel-fila inferiores 71 a 73 y los datos de
posición, y en base al promedio y a los datos de posición de los
datos de vídeo así calculados, la parte de implementación de la
interpolación 140 implementa la interpolación sobrescribiendo los
modelos de datos de vídeo promedio, en las líneas a ser
interpoladas, en las posiciones intermedias entre las coincidencias
píxel-fila superiores 61 a 63, y las coincidencias
píxel-fila inferiores 71 a 73.
La figura 8 muestra filas de píxel 81 a 84, que
son interpoladas por la parte de implementación de la interpolación
140.
Debería notarse que los píxels distintos de los
segmentos designados para interpolación, en las líneas a ser
interpoladas, son interpolados en base a una técnica de
interpolación del arte previo. Aquí, ejemplos de la técnica de
interpolación del arte previo, incluyen el método de interpolar las
líneas a ser interpoladas, con los datos de vídeo promedio de las
líneas de entrada superior e inferior, y el método de interpolar las
líneas a ser interpoladas, con los datos de vídeo de las líneas de
entrada superiores.
A continuación se describirá la siguiente
realización de la presente invención, con referencia las figuras 9 a
11.
La figura 9 es un diagrama de bloques, que
muestra una configuración de un sistema de interpolación de
imágenes, acorde con esta realización.
La configuración del sistema de interpolación de
imágenes de esta realización, configura filas de píxel de
pre-interpolación, en función de una base de datos
de interpolación virtual, de forma que la parte de búsqueda de
coincidencia píxel-fila 141, y la parte de
configuración de la condición de búsqueda 142, necesarias en la
parte de implementación de interpolación 140 de la primera
realización, son innecesarias.
Es decir, la parte de implementación de la
interpolación 140 consta de una parte de configuración de píxel
fila de pre-interpolación 143, una parte operativa
píxel-fila coincidente 144a y un medio de corrección
145.
A continuación se describirá el funcionamiento
del sistema de interpolación de imágenes acorde con esta
realización, con referencia las figuras 9 a 11.
Para comenzar, en las figuras 10 y 11 se muestra
claramente la relación de posiciones de las filas de píxel en las
líneas visuales y en las líneas a ser interpoladas.
En la figura 10, las filas de píxel visual
(negras) están designadas por 21 a 25 (A33 a A34, C27 a C31, E21 a
E25, G15 a G19 y I10 a I13); los segmentos designados para
interpolación (-) están designados por 41 a 44 (B27 a B34, D21 a
D25, F15 a F19 y H10 a H13); los segmentos designados para
interpolación (+) están designados por 51 a 54 (B33 a B34, D27 a
D31, F21 a F25 y H15 a H19); y las filas de píxel de
pre-interpolación están designadas por 61 a 64, y
71 a 74 (A30 a A34, C24 a C28, C30 a C34, E18 a E22, E24 a E28, G12
a G16, G18 a G22 e I12 A I16).
En la figura 11, las filas de píxel visual
(negras) están designadas por 21 a 25 (A33 a A34, C27 a C31, E21 a
E25, G15 a G19 y I10 a I13); las filas de píxel de interpolación
están designadas por 81 a 84 (B27 a B34, B33 a B34, D21 a D25, D27 a
D31, F15 a F19, F21 a F15, H10 a H13 y H15 a H19).
Primero, en referencia a un ejemplo de
configuración de una fila de píxel para interpolación, en el
segmento designado para interpolación 42 (D-21 a
25), la parte de configuración de fila de píxel de
pre-interpolación 143, en base a las posiciones de
inicio del segmento y a los datos de longitud de los segmentos
designados para interpolación 42 y 43 (D-21 a D25,
F-15 a F19), obtenidos a partir de la base de datos
de interpolación visual 120, configura las filas de píxel de
pre-interpolación 62 y 63 (C24 a C28, E18 a E22), en
las líneas C y E.
Estas se determinan en base a las posiciones de
inicio, y a los datos de longitud de los segmentos designados de
interpolación 42 y 43 (D21 a D25, F15 a F19), y son los segmentos
que están contenidos por las líneas rectas que pasan por los
extremos del segmento (D21 a F15, D25 a F19) en intersección con
cada una de las líneas C y D.
A continuación, la parte operativa de
píxel-fila coincidente 144, calcula el promedio de
los píxels emparejados de las filas de píxel de
pre-interpolación 62 y 63 (C24 a C29, y E18 a E22),
y configura una fila de píxel de pre-interpolación
82 (D21 a D25), como se muestra en la figura 11.
Después, se calcula el promedio de los datos de
píxel de C24 y E18 de las filas de píxel de
pre-interpolación 62 y 63 (C24 a C26 y E18 a E22)
para producir los datos de píxel de D21, de la fila de píxel de
interpolación 82 (D21 a D25). Así, se calcula el promedio de los
datos de píxel de forma secuencial hasta C28 y E22, para producir
los datos de píxel de la fila de píxel de interpolación 82 (D21 a
D25).
Mediante el proceso anterior, para cada segmento
designado para interpolación, se produce una fila de píxel de
interpolación, y estas filas de píxel de interpolación son escritas
sobre los píxels de los modelos de interpolación virtual, por la
interpolación de fila de píxel, mientras el medio de corrección 145
añade correcciones en armonía con los píxels alrededor de las
líneas a ser interpoladas, para implementar de ese modo la
interpolación lineal.
Debería notarse que los píxels distintos de
aquellos de los segmentos designados para interpolación, en las
líneas a ser interpoladas, son interpolados en base a una técnica de
interpolación del arte previo. Aquí, los ejemplos de técnicas de
interpolación del arte previo incluyen el método de interpolar las
líneas a ser interpoladas, con datos de vídeo promedio de líneas de
entrada superior e inferior, y el método de interpolar las líneas a
ser interpoladas con datos de vídeo de las líneas inferiores.
Los datos de los píxels B32, D26, F20 y H14, en
las figuras 10 y 11, pueden ser creados por edición del modelo en la
parte de determinación del umbral de detalle 110, o por el medio de
corrección 145.
A continuación se describirá la tercera
realización de la presente invención, con referencia las figuras 12
a 13.
La figura 12 es un diagrama de bloques que
muestra una configuración de un sistema de interpolación de
imágenes, acorde con esta realización.
En este dibujo, 146 designa una parte de
confirmación de dirección de interpolación coincidente. La parte de
búsqueda de coincidencia píxel-fila 141, necesaria
en la parte de implementación de interpolación 140 en la primera
realización, es reemplazada por la parte de confirmación de
dirección de interpolación coincidente 146.
La figura 13 es un gráfico para ilustrar
relaciones de posición entre las filas de píxel en las líneas
visuales, y las líneas a ser interpoladas.
A continuación, se describirá el funcionamiento
del sistema de interpolación de imágenes acorde con esta
realización, con referencia las figuras 12 y 13.
La parte de confirmación de dirección de
interpolación coincidente 146, en base a la información obtenida
desde la base de datos de interpolación visual 120, sobre la
dirección en la que el segmento designado para la interpolación
debería ser interpolado, bajo las condiciones de coincidencia, rango
de búsqueda, y otras condiciones, configuradas por la parte de
configuración de la condición de búsqueda 142, extrae un segmento
designado para interpolación, adyacente, en la misma línea que cada
segmento designado para interpolación, para llevar a cabo detección
de errores para el segmento designado para interpolación, y la
extensión del segmento a ser interpolado. Como se muestra en la
figura 13, el resultado se proporciona como segmentos extendidos
designados para interpolación (-) 41' a 44' (B27 a B32, D21 a D26,
F15 a F20 y H10 a H14), que son creados extendiendo los segmentos
de interpolación (-) 41 a 44 (B27 a B31, D21 a D25, F15 a F19 y H10
a H13) mostrados en la figura 10.
El funcionamiento de la presente realización,
corriente abajo, es el mismo que el de la segunda realización, de
modo que se omitirá la descripción.
En la descripción de cada una de las
realizaciones anteriores, se ha utilizado los datos de luminancia
como datos de píxel, para la operación inter-píxels
en cada proceso, pero principalmente puede utilizarse en su lugar
datos de color o datos de crominancia.
Cada medio en las anteriores realizaciones,
puede estar configurado por equipo físico o bien el flujo de proceso
puede, desde luego, ser implementado por un proceso de soporte
lógico. También en este caso, puede obtenerse el mismo
resultado.
De acuerdo con las invenciones de las anteriores
realizaciones, en contraste con la típica interpolación lineal
llevada a cabo en base de píxel, la interpolación lineal se lleva a
cabo con modelos que son obtenidos realizando operaciones
aritméticas entre modelos coincidentes, que son extraídos de las
líneas visuales de entrada adyacentes a los segmentos a ser
interpolados, es posible producir bordes inclinados casi
horizontales, y líneas delegadas, de forma suave.
Puesto que las operaciones entre líneas visuales
de entrada, y diversos tipos de procesos de determinación del
umbral de detalle, se llevan a cabo para constituir modelos de
interpolación virtual en la base de datos, a la que es posible
referirse para la determinación de segmentos a ser interpolados, y
durante de la interpolación de la implementación, la interpolación
exacta puede ser implementada de forma que impida cálculos erróneos,
para hacer de ese modo eficiente toda la operación de procesamiento,
habilitando así la interpolación en tiempo real.
Tal como se ha descrito, de acuerdo con las
invenciones definidas en los anteriores aspectos primero, segundo,
vigésimo y trigésimo, se hace posible la interpolación en tiempo
real mediante conseguir una reducción sensible en la velocidad de
procesamiento. Incluso cuando aparece modelos visuales con espacios
entre líneas en el campo de imagen, la interpolación se lleva a
cabo en base a filas de píxel coincidentes en las líneas adyacentes,
para reproducir un cuadro de imagen con modelos suaves, sin
espacios.
De acuerdo con las invenciones definidas en los
anteriores aspectos trigésimo y trigésimo primero, es posible
buscar las partes finales de varios modelos de imagen, incluyendo
modelos de línea delgada, bordes del modelo, etc., en poco tiempo y
en un amplio rango, y estimar sus condiciones, haciendo así posible
llevar a cabo una interpolación precisa, y representar bordes del
modelo suaves.
De acuerdo con la invención definida en el
anterior cuarto aspecto, en base la distribución de los modelos de
coincidencia extraídos, se determina si el segmento asociado debería
ser interpolado, o no, y qué dirección de interpolación debería
llevarse a cabo. Por lo tanto, las condiciones de los modelos de
línea delgada, y los bordes del modelo, pueden ser estimadas
exactamente, liberando así a la interpolación de posibles fallos de
detección.
De acuerdo con la invención definida en el
anterior quinto aspecto, en base la distribución de los modelos
coincidentes extraídos, se determina si el segmento asociado debería
ser, o no, interpolado y qué dirección de interpolación debería
llevarse a cabo. Por lo tanto, incluso con un dibujo en el que
existan muchos modelos análogos, las condiciones y posiciones de
los modelos de línea fina y de los bordes del modelo, pueden ser
estimadas con exactitud, liberando así a la interpolación de
posibles errores de detección.
De acuerdo con las invenciones definidas en los
anteriores aspectos sexto y decimosexto, puesto que los datos de
interpolación virtual se construyen de filas de píxel como unidades
de datos, es posible suavizar los bordes del modelo, y llevar a cabo
operaciones con una eficiencia mejorada.
De acuerdo con las invenciones definidas en los
aspectos decimoséptimo a vigésimo octavo, puesto que las partes
irrelevantes e indistintas, que tienen poca influencia en la
visualización del dibujo, pueden ser borradas o conectadas por
determinación del umbral de detalle, es posible mejorar
sensiblemente la velocidad de la interpolación, mientras que se
mantiene la calidad de la imagen.
Claims (7)
1. Un sistema de interpolación de imágenes,
para interpolar los espacios entre las líneas que forman una imagen,
que comprende:
un medio (100) de generación de datos de
interpolación virtuales, para generar modelos de líneas de
interpolación virtuales, entre las líneas de imagen de entrada, en
base a datos de líneas de imagen de entrada;
un medio (130) de determinación del segmento de
interpolación, para determinar segmentos a ser interpolados entre
las líneas de imagen de entrada, y la dirección de interpolación, en
base a los modelos de líneas de interpolación virtuales generados;
y
un medio de interpolación (140) que genera
píxels de pre-interpolación en las líneas de la
imagen de entrada, en base a los datos determinados de los segmentos
a ser interpolados, determinados por el medio de determinación del
segmento de interpolación (130), e interpola los píxels entre las
líneas de imagen de entrada, en base a los píxels de
pre-interpolación generados.
2. El sistema de interpolación de imágenes
acorde con la reivindicación 1, en el que el medio de determinación
del segmento de interpolación (130) comprende:
un medio de configuración de condiciones de
búsqueda (133), para configurar un rango de búsqueda del modelo;
un medio de configuración de condición de modelo
coincidente (132), para configurar condiciones de modelo
coincidente; y
un primer medio de búsqueda de modelo
coincidente, para buscar modelos coincidentes en base a las
condiciones diseñadas por el medio de configuración de condiciones
de búsqueda (133), y por el medio de configuración de condición de
modelo coincidente (132).
3. El sistema de interpolación de imágenes
acorde con la reivindicación 2, en el que el medio de determinación
del segmento de interpolación (130), comprende además:
un medio de extracción del vector direccional
(135), para extraer la dirección del vector de los modelos
coincidentes detectados; y
un segundo medio de búsqueda de modelo
coincidente (136), para buscar modelos coincidentes existentes en la
dirección extraída del vector, en base a las condiciones diseñadas
por el medio de configuración de condiciones de búsqueda (133), y
por el medio de configuración de condición de modelo coincidente
(132).
4. El sistema de interpolación de imágenes
acorde con la reivindicación 1, la 2 o la 3, en el que los modelos
de líneas de interpolación, generados por el medio de generación de
datos de interpolación virtual (100), están construidos de unidades
de filas de píxel de datos.
5. El sistema de interpolación de imágenes
acorde con cualquiera de las reivindicaciones 1 a 4, en el que el
medio de generación de datos de interpolación virtuales (100)
comprende:
un medio operativo inter-píxels
(101), para calcular la diferencia de datos de píxels, entre los
píxels de las líneas vecinas de la imagen de entrada;
un medio de normalización (102) para clasificar
los píxels en múltiples clases, de acuerdo con el valor calculado de
la diferencia en los datos del
píxels;
píxels;
un medio de extracción de modelo (103), para
extraer filas de píxels normalizadas y clasificadas en una clase
idéntica, como modelos; y
un medio de medio de determinación del umbral de
detalle (110), para estimar los modelos extraídos en la misma línea
a ser interpolada en base al umbral predeterminado, y editarlos.
6. El sistema de interpolación de imágenes
acorde con la reivindicación 5, en el que el medio de determinación
del umbral de detalle (110) comprende:
un medio operativo de píxels
intra-modelo (111), para calcular el promedio de los
valores diferenciales de píxels, de píxels individuales en cada
modelo; y
un medio de edición del modelo (112), para
estimar el valor promedio en base al umbral predeterminado, y editar
modelos.
7. Un método de interpolación de imágenes,
para interpolar los espacios entre las líneas que forman una imagen,
que comprende:
una etapa para generar modelos de líneas de
interpolación virtuales, entre líneas de la imagen de entrada, en
base a los datos línea de la imagen de entrada;
una etapa para determinar segmentos a ser
interpolados, entre las líneas de la imagen de entrada, y la
dirección de interpolación, en base a modelos de línea de
interpolación virtual generados; y
una etapa para generar píxels de
pre-interpolación en las líneas de imagen de
entrada, en base a los datos determinados de los segmentos a ser
interpolados, e interpolar los píxels entre líneas de la imagen de
entrada, en base a los píxels de
pre-interpolación
generados.
generados.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP24526399A JP3614324B2 (ja) | 1999-08-31 | 1999-08-31 | 画像の補間システムおよび画像の補間方法 |
JP11-245263 | 1999-08-31 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2264669T3 true ES2264669T3 (es) | 2007-01-16 |
Family
ID=17131090
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES00956793T Expired - Lifetime ES2264669T3 (es) | 1999-08-31 | 2000-08-30 | Sistema y metodo de interpolacion de imagenes. |
Country Status (10)
Country | Link |
---|---|
US (1) | US6980254B1 (es) |
EP (1) | EP1213923B1 (es) |
JP (1) | JP3614324B2 (es) |
KR (1) | KR100473745B1 (es) |
CN (1) | CN1157060C (es) |
AU (1) | AU762673B2 (es) |
DE (1) | DE60028584T2 (es) |
ES (1) | ES2264669T3 (es) |
HU (1) | HUP0202822A3 (es) |
WO (1) | WO2001017243A1 (es) |
Families Citing this family (23)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4880172B2 (ja) * | 2000-04-21 | 2012-02-22 | パナソニック株式会社 | 画像処理方法及び画像処理装置 |
AU2002341315A1 (en) * | 2001-11-01 | 2003-05-12 | Koninklijke Philips Electronics N.V. | Improved spatial resolution of video images |
JP3951695B2 (ja) * | 2001-12-11 | 2007-08-01 | ソニー株式会社 | 画像配信システムおよび方法、画像配信装置および方法、画像受信装置および方法、記録媒体、並びにプログラム |
JP3915563B2 (ja) * | 2002-03-19 | 2007-05-16 | 富士ゼロックス株式会社 | 画像処理装置および画像処理プログラム |
US7212689B2 (en) * | 2002-11-06 | 2007-05-01 | D. Darian Muresan | Fast edge directed polynomial interpolation |
US7432979B2 (en) * | 2003-09-03 | 2008-10-07 | Sony Corporation | Interlaced to progressive scan image conversion |
JP2006087030A (ja) * | 2004-09-17 | 2006-03-30 | Olympus Corp | ノイズ低減装置 |
US20060072038A1 (en) * | 2004-10-05 | 2006-04-06 | Wyman Richard H | Method and system for detecting deinterlaced moving thin diagonal lines |
US7586649B2 (en) * | 2004-12-27 | 2009-09-08 | Konica Minolta Business Technologies, Inc. | Method and device for compressing image data |
US20100095236A1 (en) * | 2007-03-15 | 2010-04-15 | Ralph Andrew Silberstein | Methods and apparatus for automated aesthetic transitioning between scene graphs |
JP4846644B2 (ja) * | 2007-03-30 | 2011-12-28 | 株式会社東芝 | 映像信号補間装置および映像信号補間方法 |
TWI342714B (en) * | 2007-05-16 | 2011-05-21 | Himax Tech Ltd | Apparatus and method for frame rate up conversion |
JP4973542B2 (ja) | 2008-02-26 | 2012-07-11 | 富士通株式会社 | 画素補間装置及び画素補間方法 |
CN101960843B (zh) * | 2008-03-21 | 2012-12-26 | 日本电气株式会社 | 图像处理方法、图像处理装置和图像处理程序 |
TWI376643B (en) * | 2008-03-24 | 2012-11-11 | Novatek Microelectronics Corp | Method for detecting image edge and image interpolation using the same |
WO2010025473A1 (en) * | 2008-09-01 | 2010-03-04 | Mitsubishi Digital Electronics America, Inc. | Picture improvement system |
KR101590881B1 (ko) * | 2008-12-24 | 2016-02-02 | 삼성전자 주식회사 | 화상처리장치 및 그 제어방법 |
EP2476080A1 (en) * | 2009-09-09 | 2012-07-18 | Conocophillips Company | Dip guided full waveform inversion |
US8666180B2 (en) | 2009-12-04 | 2014-03-04 | Stc.Unm | System and methods of compressed sensing as applied to computer graphics and computer imaging |
JP5672872B2 (ja) * | 2010-09-08 | 2015-02-18 | 株式会社リコー | 画像形成装置 |
JP2013192094A (ja) * | 2012-03-14 | 2013-09-26 | Toshiba Corp | 映像拡大装置及び映像拡大方法 |
US9076230B1 (en) * | 2013-05-09 | 2015-07-07 | Altera Corporation | Circuitry and techniques for image processing |
JP2020034465A (ja) * | 2018-08-31 | 2020-03-05 | ソニー株式会社 | 情報処理装置、情報処理方法及びプログラム |
Family Cites Families (28)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2751928B2 (ja) | 1987-01-29 | 1998-05-18 | キヤノン株式会社 | 映像情報補間方法 |
JP2577416B2 (ja) * | 1987-12-24 | 1997-01-29 | エヌティエヌ株式会社 | 非粘着性潤滑被膜 |
US6331862B1 (en) * | 1988-07-06 | 2001-12-18 | Lg Philips Lcd Co., Ltd. | Image expansion display and driver |
GB2231460B (en) * | 1989-05-04 | 1993-06-30 | Sony Corp | Spatial interpolation of digital video signals |
JPH02312381A (ja) * | 1989-05-26 | 1990-12-27 | Victor Co Of Japan Ltd | 走査線補間方法 |
JPH04500419A (ja) * | 1989-06-16 | 1992-01-23 | イーストマン・コダック・カンパニー | ディジタル画像補間器 |
JPH03229583A (ja) * | 1990-02-02 | 1991-10-11 | Mitsubishi Electric Corp | 走査線補間回路 |
US5410356A (en) * | 1991-04-19 | 1995-04-25 | Matsushita Electric Industrial Co., Ltd. | Scanning-line interpolation apparatus |
JPH04364685A (ja) | 1991-06-12 | 1992-12-17 | Toshiba Corp | 走査線補間装置 |
JPH05153562A (ja) * | 1991-12-02 | 1993-06-18 | Matsushita Electric Ind Co Ltd | 相関検出補間方法および装置 |
JPH0824366B2 (ja) | 1991-07-23 | 1996-03-06 | 大日本スクリーン製造株式会社 | 画像の補間方法 |
KR950000440B1 (ko) * | 1991-12-27 | 1995-01-19 | 주식회사 금성사 | 티브이 신호의 주사선 수 2배 증가방법 및 회로 |
US5253041A (en) | 1992-05-26 | 1993-10-12 | General Electric Company | Digital television signal compression apparatus |
DE69529548T2 (de) * | 1994-04-22 | 2003-11-27 | Canon Kk | Bilderzeugungsverfahren und -gerät |
US5661525A (en) * | 1995-03-27 | 1997-08-26 | Lucent Technologies Inc. | Method and apparatus for converting an interlaced video frame sequence into a progressively-scanned sequence |
US5991463A (en) * | 1995-11-08 | 1999-11-23 | Genesis Microchip Inc. | Source data interpolation method and apparatus |
US6380979B1 (en) * | 1996-07-02 | 2002-04-30 | Matsushita Electric Industrial Co., Ltd. | Scanning line converting circuit and interpolation coefficient generating circuit |
JP3747523B2 (ja) * | 1996-07-02 | 2006-02-22 | ソニー株式会社 | 画像処理装置および処理方法 |
US5936676A (en) * | 1997-08-21 | 1999-08-10 | Miranda Technologies Inc. | Apparatus and method for line interpolating an interlaced video signal |
MY119346A (en) * | 1996-12-24 | 2005-05-31 | Sony Corp | Picture processing apparatus and method |
JP4536170B2 (ja) * | 1996-12-27 | 2010-09-01 | シャープ株式会社 | 撮像装置 |
JP4022935B2 (ja) * | 1997-01-21 | 2007-12-19 | ソニー株式会社 | 画像処理装置および処理方法 |
JP3212917B2 (ja) * | 1997-08-26 | 2001-09-25 | エヌイーシービューテクノロジー株式会社 | 走査線補間装置および走査線補間方法 |
US6295091B1 (en) * | 1997-11-07 | 2001-09-25 | Intel Corporation | Method and apparatus for de-interlacing video fields for superior edge preservation |
KR20000070273A (ko) * | 1997-11-17 | 2000-11-25 | 이데이 노부유끼 | 텔레비젼 장치 및 텔레비젼 장치의 표시 방법 및 화면 제어 장치 및 방법 |
KR100548664B1 (ko) * | 1997-11-26 | 2006-02-03 | 소니 가부시끼 가이샤 | 화상처리장치, 화상처리방법 및 텔레비전 수상기 |
JP2000059735A (ja) * | 1998-08-04 | 2000-02-25 | Sony Corp | 画像処理装置および方法、並びに提供媒体 |
US6496608B1 (en) * | 1999-01-15 | 2002-12-17 | Picsurf, Inc. | Image data interpolation system and method |
-
1999
- 1999-08-31 JP JP24526399A patent/JP3614324B2/ja not_active Expired - Fee Related
-
2000
- 2000-08-30 US US09/890,797 patent/US6980254B1/en not_active Expired - Fee Related
- 2000-08-30 CN CNB008048967A patent/CN1157060C/zh not_active Expired - Fee Related
- 2000-08-30 WO PCT/JP2000/005861 patent/WO2001017243A1/ja active IP Right Grant
- 2000-08-30 HU HU0202822A patent/HUP0202822A3/hu unknown
- 2000-08-30 AU AU68647/00A patent/AU762673B2/en not_active Ceased
- 2000-08-30 DE DE60028584T patent/DE60028584T2/de not_active Expired - Lifetime
- 2000-08-30 EP EP00956793A patent/EP1213923B1/en not_active Expired - Lifetime
- 2000-08-30 KR KR10-2002-7002743A patent/KR100473745B1/ko not_active IP Right Cessation
- 2000-08-30 ES ES00956793T patent/ES2264669T3/es not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE60028584T2 (de) | 2007-05-31 |
JP3614324B2 (ja) | 2005-01-26 |
CN1157060C (zh) | 2004-07-07 |
EP1213923A4 (en) | 2003-04-09 |
US6980254B1 (en) | 2005-12-27 |
KR100473745B1 (ko) | 2005-03-10 |
EP1213923B1 (en) | 2006-06-07 |
AU6864700A (en) | 2001-03-26 |
DE60028584D1 (de) | 2006-07-20 |
JP2001069469A (ja) | 2001-03-16 |
WO2001017243A1 (fr) | 2001-03-08 |
AU762673B2 (en) | 2003-07-03 |
EP1213923A1 (en) | 2002-06-12 |
HUP0202822A2 (hu) | 2003-01-28 |
CN1343421A (zh) | 2002-04-03 |
KR20020028229A (ko) | 2002-04-16 |
HUP0202822A3 (en) | 2003-05-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2264669T3 (es) | Sistema y metodo de interpolacion de imagenes. | |
JP4507307B2 (ja) | 映像投影装置 | |
US7019713B2 (en) | Methods and measurement engine for aligning multi-projector display systems | |
EP2321792B1 (en) | Cut-line steering methods for forming a mosaic image of a geographical area | |
US6798422B2 (en) | Method and filtering system for filtering edge directions | |
JPH0750752A (ja) | 画像密度変換方法及び装置 | |
JP2021157404A (ja) | 学習データ生成方法、学習データ生成装置、及び、プログラム | |
KR100986607B1 (ko) | 영상 보간 방법 및 그 방법이 기록된 컴퓨터로 읽을 수 있는 기록매체 | |
JP2007140593A (ja) | 内接矩形検出装置および内接矩形検出プログラム | |
CN111210384B (zh) | 一种适用于机场跑道场景的图像拼接方法 | |
JP3232064B2 (ja) | カラー画像における対象領域抽出方法 | |
CN105631802B (zh) | 一种数字图像格式转换的方法及装置 | |
JPH10320557A (ja) | テロップ文字表示フレーム検出方法及び装置 | |
CN112489115A (zh) | 发光模块定位方法、装置、电子设备、存储介质及系统 | |
JP2000030058A (ja) | カラ―画像におけるish変換装置および変換方法 | |
JP2009290277A (ja) | 信号処理装置 | |
CN114792288B (zh) | 一种曲面屏图像的灰度校正方法及相关装置 | |
KR930008177B1 (ko) | 화상 처리 장치 | |
JPH05128274A (ja) | 図形表示装置 | |
JP3530765B2 (ja) | 画像処理方法、画像処理装置及び記憶媒体 | |
JPH031281A (ja) | 面温度表示装置 | |
JPH06243258A (ja) | 奥行き検出装置 | |
JPH0227486A (ja) | 画像拡大縮小装置 | |
JP2780405B2 (ja) | デジタル画像処理装置 | |
JPH0588653A (ja) | 画面合成表示領域決定装置 |