ES2264669T3 - Sistema y metodo de interpolacion de imagenes. - Google Patents

Sistema y metodo de interpolacion de imagenes.

Info

Publication number
ES2264669T3
ES2264669T3 ES00956793T ES00956793T ES2264669T3 ES 2264669 T3 ES2264669 T3 ES 2264669T3 ES 00956793 T ES00956793 T ES 00956793T ES 00956793 T ES00956793 T ES 00956793T ES 2264669 T3 ES2264669 T3 ES 2264669T3
Authority
ES
Spain
Prior art keywords
interpolation
lines
model
pixels
models
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES00956793T
Other languages
English (en)
Inventor
Kanako Nishihashi
Masaaki Moriya
Tomoya Shimura
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Application granted granted Critical
Publication of ES2264669T3 publication Critical patent/ES2264669T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0117Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving conversion of the spatial resolution of the incoming video signal
    • H04N7/012Conversion between an interlaced and a progressive signal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/4007Interpolation-based scaling, e.g. bilinear interpolation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformation in the plane of the image
    • G06T3/40Scaling the whole image or part thereof
    • G06T3/403Edge-driven scaling
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G5/00Control arrangements or circuits for visual indicators common to cathode-ray tube indicators and other visual indicators
    • G09G5/20Function-generator circuits, e.g. circle generators line or curve smoothing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0135Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level involving interpolation processes
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2310/00Command of the display device
    • G09G2310/02Addressing, scanning or driving the display screen or processing steps related thereto
    • G09G2310/0229De-interlacing
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2340/00Aspects of display data processing
    • G09G2340/04Changes in size, position or resolution of an image
    • G09G2340/0407Resolution change, inclusive of the use of different resolutions for different screen areas
    • G09G2340/0414Vertical resolution change

Abstract

Un sistema de interpolación de imágenes, para interpolar los espacios entre las líneas que forman una imagen, que comprende: un medio (100) de generación de datos de interpolación virtuales, para generar modelos de líneas de interpolación virtuales, entre las líneas de imagen de entrada, en base a datos de líneas de imagen de entrada; un medio (130) de determinación del segmento de interpolación, para determinar segmentos a ser interpolados entre las líneas de imagen de entrada, y la dirección de interpolación, en base a los modelos de líneas de interpolación virtuales generados; y un medio de interpolación (140) que genera píxels de pre-interpolación en las líneas de la imagen de entrada, en base a los datos determinados de los segmentos a ser interpolados, determinados por el medio de determinación del segmento de interpolación (130), e interpola los píxels entre las líneas de imagen de entrada, en base a los píxels de pre-interpolación generados.

Description

Sistema y método de interpolación de imágenes.
Campo técnico
La presente invención se refiere a un sistema de interpolación de imágenes, y a un método de interpolación de imágenes, y en concreto se refiere a un sistema de interpolación de imágenes y a un proceso de interpolación de imágenes por interpolación lineal, para la conversión ascendente de un cierto sistema de televisión en otro sistema de televisión con un número diferente de líneas de exploración, para crear un cuadro de imagen a partir de un campo de imagen, cuando una señal de vídeo de exploración entrelazada, es convertida en una señal de vídeo de exploración secuencial.
Arte previo
Convencionalmente, para la interpolación por línea de exploración, que genera una imagen de vídeo progresiva a partir de una imagen de vídeo entrelazada, al efecto de llevar a cabo una conversión ascendente de un sistema de televisión, en otro sistema de televisión con un diferente número de líneas de exploración, o para proporcionar una imagen con una definición superior, se lleva a cabo interpolación intra-cuadro, para imágenes fijas. Para imágenes en movimiento, se lleva a cabo interpolación intra-campo debido a que la correlación dentro de un cuadro puede estar corrupta en una imagen en movimiento, y puede producirse conversión defectuosa, como picos, cuando se interpola líneas verticales móviles con el cuadro.
Como simples métodos de interpolación intra-trama, las líneas a ser interpoladas pueden ser procesadas por medio de interpolación lineal con las líneas directamente superiores, o pueden ser procesadas mediante interpolación lineal utilizando el promedio de líneas superiores e inferiores. La primera interpolación ha estado acompañada de irregularidades en los contornos de la imagen, para modelos tales como líneas inclinadas, etc., que tienen menos correlación con respecto a la dirección vertical. El segundo método de interpolación ha estado acompañado por degradación de la imagen, como son imprecisiones, etc., en la imagen.
Como técnica para solucionar estos inconvenientes, el método de interpolación de la Aplicación de Patente Japonesa Publicada para Examen Sho 63 Núm. 187 758, revela una interpolación mediante la cual todo píxel en líneas a ser interpoladas, es interpolado de acuerdo con la información de los píxels que residen en torno al píxel, y en una dirección en la que el píxel a ser interpolado tiene la correlación más fuerte. Primero, para obtener información sobre la dirección radial en la cual el píxel a ser interpolado tiene la correlación más fuerte de los datos del píxel, se verifica los valores absolutos de la diferencia entre los píxels vecinos, con respecto a la dirección vertical y a las direcciones diagonales derecha e izquierda, al efecto de determinar que la dirección a lo largo de la cual se hace mínimo el valor diferencial absoluto, es la dirección que presenta la correlación más fuerte, mediante lo que el valor promedio de los píxels en tal dirección, es determinado y asignado al valor del píxel a ser interpolado.
Sin embargo, este método necesita calcular los valores diferenciales absolutos, por lo menos en las tres direcciones indicadas arriba, y determinar el valor mínimo de estos valores diferenciales absolutos, al efecto de determinar el valor del píxel a ser interpolado, para cada uno de la totalidad de píxels que constituyen las líneas a ser interpoladas. Por lo tanto, el procesamiento de la interpolación consume mucho tiempo. Además, puesto que la anterior secuencia de procesamiento se lleva a cabo además para todas las áreas que incluyen píxels distintos de los bordes de la imagen (donde los valores del píxel varían poco), o para los casos en los que hay una pequeña diferencia en el grado de dependencia de correlación en las direcciones, el tiempo para el proceso será consumido con despilfarro, por lo que la velocidad de interpolación es baja, de modo que también es difícil aumentar el rango de píxels para los que se verifica la correlación.
Por lo tanto, cuando la interpolación se implementa para una imagen que incluye una línea inclinada que tiene una pequeña inclinación, donde los píxels localizados considerablemente separados entre sí tienen correlación, es imposible llevar a cabo una interpolación basada en la fuerte correlación entre estos píxels, lo que conduce a la producción de irregularidades a lo largo de los bordes de la parte inclinada, con una pobre precisión de interpolación.
Al efecto de superar el inconveniente de la anterior publicación, la Aplicación de Patente Japonesa Publicada para Examen Hei 6 Núm. 30 487, revela un método que mejora la velocidad de procesamiento de la interpolación y mejora la precisión de la interpolación, por medio de aumentar el rango de búsqueda de correlación, con una correspondiente mejora de la velocidad de procesamiento.
A continuación se describirá el método de interpolación de imagen revelado en esta publicación, con referencia las figuras 14 a 17.
Para comenzar, en este método de interpolación que se muestra en la figura 14, son comparados los píxels de líneas vecinas, a saber las líneas n-ésima y
(n + 1)-ésima, sobre una imagen bidimensional, para detectar puntos del borde a y b, en líneas respectivas en la imagen bidimensional. Se asume que los píxels que están en la línea a ser interpolada, distintos de los puntos que hay entre los puntos de contorno a y b, pueden ser interpolados mediante los píxels en cualquiera de las líneas adyacentes, para determinar el contorno de la línea a ser interpolada.
A continuación, como se muestra en la figura 15, alrededor de los bordes a y b se crea una fila de píxel vecino (3, 0), que está centrada en un píxel observado (píxel A en este caso) en cualquiera de las líneas vecinas (línea n-ésima), y está definido por el "número de píxels" y la "cantidad de desplazamiento desde la posición a ser interpolada", mientras que se selecciona una fila del píxel asociado (3, 1) correlacionada con la fila del píxel vecino desde la otra línea adyacente, línea (n + 1)-ésima.
Aquí, como forma general para establecer la correlación entre la fila de píxel vecino y la fila de píxel asociado, la fila de píxel vecino se define como (2m + 1, 0) y la fila de píxel asociado se define como (2m + 1, \pm Y), donde m e Y son cambiados de forma secuencial según m = Y = 1, 2, 3, 4, 5.
A continuación, como se muestra en la figura 16, en función de las operaciones entre cada par de píxels indicados por una flecha en los dibujos, en la fila de píxel vecino (3, 0) y la fila de píxel asociado (3, 1), si el nivel de la diferencia entre los píxels cae dentro del rango predeterminado, es verificado al efecto de determinar la correlación. En este caso mostrado en el dibujo, no existe correlación entre el par centrado de píxels. Así, se hace m e Y iguales a 2, las operaciones entre cada par de píxels indicado por las flechas en el dibujo, se llevan a cabo para la fila de píxel vecino (5, 0) y la fila del píxel asociado (5, 2). Cuando se reconoce la presencia de correlación, a partir de los pares de píxels indicados por las flechas en el dibujo, se sabe que la cantidad de desplazamiento desde la posición a ser interpolada, es de dos píxels. Es decir, como se muestra en la figura 17, el punto a y el punto b son dos píxels desplazados entre sí y, así, se implementa la interpolación utilizando una fila de píxel que está creada desplazando la fila del píxel seleccionado o la fila del píxel vecino, en la mitad del número determinado de píxels, en el sentido opuesto al sentido desplazado, específicamente la fila del píxel centrada por el punto c, que está desplazado un píxel hacia la derecha respecto del píxel A.
El método de interpolación revelado en la Aplicación de Patente Japonesa Publicada para Examen Hei 5 Núm. 30487, es una invención que adopta la interpolación basada en fila de píxel, y proporciona velocidad de procesamiento mejorado en comparación con una típica interpolación basada en píxel. Sin embargo, para determinar el contorno de la fila de píxel, debería llevarse a cabo operaciones aritméticas entre líneas, para las filas de por lo menos tres píxels hasta, más o menos, once píxels mientras se desplaza píxels alrededor de la vecindad del contorno, así, en este método permanece sin solucionar el aspecto de tener el requisito de larga duración para las operaciones aritméticas. Además, este método de interpolación está orientado a suavizar los contornos de las imágenes, por lo que tiene el problema de una incapacidad para restablecer un modelo, si el modelo tiene espacios entre líneas, como en una imagen descrita con líneas delgadas casi horizontales.
A la vista de los anteriores problemas del arte convencional, el objetivo de la presente invención es proporcionar un sistema de interpolación de imágenes, y un método de interpolación de imágenes, que puedan realizar una interpolación en tiempo real, de diversas imágenes de vídeo, incluyendo modelos con líneas delgadas, bordes, etc., reduciendo sensiblemente la velocidad de procesamiento.
Revelación de la invención
De acuerdo con la presente invención, se proporciona un sistema de interpolación de imágenes, para interpolar los espacios entre las líneas que forman una imagen, que comprende: un medio de generación de datos de interpolación virtual, para generar modelos de línea de interpolación virtual, entre las líneas de la imagen de entrada, en base a los datos de línea de imagen de entrada; un medio de determinación del segmento de interpolación, para detectar segmentos a ser interpolados entre las líneas de la imagen de entrada, y la dirección de interpolación, en base a los modelos de línea de interpolación virtual generados; y un medio de interpolación que genera píxels de pre-interpolación, en las líneas de la imagen de entrada, en base a los datos determinados de los segmentos a ser interpolados, determinados mediante el medio de determinación del segmento de interpolación, e interpolar los píxels entre las líneas de imagen de entrada, en base a los píxels de pre-interpolación
generados.
Se prefiere que el medio de determinación del segmento de interpolación, comprenda: un medio de configuración de la condición de búsqueda, para configurar a un rango de búsqueda del modelo; un medio de configuración de la condición del modelo de coincidencia, para configurar condiciones del modelo de coincidencia; y un primer medio de búsqueda del modelo de coincidencia, para buscar modelos de coincidencia en base a las condiciones diseñadas por el medio de configuración de la condición de búsqueda, y por el medio de configuración de la condición del modelo de coincidencia.
Preferentemente, el medio de determinación del segmento de interpolación comprende: un medio de extracción del vector direccional, para extraer la dirección del vector de los modelos de coincidencia detectados; y un segundo medio de búsqueda del modelo de coincidencia, para buscar modelos de coincidencia existentes en la dirección extraída del vector, en base a las condiciones diseñadas por el medio de configuración de la condición de búsqueda, y por el medio de configuración de la condición del modelo de coincidencia.
Preferentemente los modelos de línea de interpolación virtual, generados por el medio de generación de datos de interpolación virtual, están construidos por unidades de filas de píxel, de datos.
Preferentemente, el medio de generación de datos de interpolación virtual, comprende: un medio operativo inter-píxel, para calcular la diferencia en los datos del píxel, entre los píxels de las líneas vecinas de imagen de entrada; un medio de normalización para clasificar los píxels en múltiples clases, de acuerdo con el valor calculado de la diferencia en los datos del píxel; un medio de extracción del modelo, para extraer filas de píxels, normalizadas y clasificadas en una clase idéntica, como modelos; y un medio de determinación del umbral de detalle, para estimar los modelos extraídos en la misma línea, a ser interpolados en base al umbral predeterminado, y editarlos.
Se prefiere que el medio de determinación del umbral de detalle comprenda: un medio operativo de píxel intra-modelo, para calcular el promedio de los valores diferenciales de píxel, para píxels individuales en cada modelo; y un medio de edición del modelo, para estimar el valor promedio en base al umbral calculado, y editar modelos.
De acuerdo con un segundo aspecto de la presente invención, se proporciona un método de interpolación de imágenes, para interpolar los espacios entre las líneas que forman una imagen, que comprende: una etapa para generar modelos de línea de interpolación virtual, entre las líneas de la imagen de entrada, en base a los datos de línea de la imagen de entrada; una etapa de determinación de segmentos a ser interpolados entre las líneas de imagen de entrada y/o la dirección de interpolación, en base a modelos de línea de interpolación virtual, generados; y una etapa de generar píxels de interpolación en las líneas de imagen de entrada, en base a los datos determinados de los segmentos a ser interpolados, e interpolar los píxels entre las líneas de imagen de entrada, en base a los píxels de pre-interpolación generados.
Para que la presente invención sea comprendida más fácilmente, se describirá ahora realizaciones específicas de esta, con referencia a los dibujos anexos.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques, que muestra una configuración de un sistema de interpolación de imágenes, acorde con la primera realización de la presente invención.
La figura 2 es una vista que muestra una pantalla, en la que se muestra un cuadro de imagen visual, que tiene un modelo de línea fina negra sobre un fondo blanco, como un ejemplo de una imagen de vídeo de entrada, para explicar la primera realización.
La figura 3 es un gráfico que muestra líneas visuales de entrada, y líneas a ser interpoladas en un punto de ampliación mostrado en la figura 2.
La figura 4 es un gráfico que muestra modelos de línea de interpolación virtual, generados por un generador de modelos de línea de interpolación virtual 100, mostrado en la figura 1.
La figura 5 es un gráfico para ilustrar como la primera parte de búsqueda de modelos coincidentes 131, y la parte de localización de modelos coincidentes 134 mostradas en la figura 1, buscan modelos coincidentes.
La figura 6 es un gráfico para ilustrar como la parte de extracción del vector orientado 135, y la segunda parte de extracción del modelo de búsqueda 136 mostrada en la figura 1, buscan un vector.
La figura 7 es un gráfico que muestra las filas de píxel de pre-interpolación (= filas de píxel coincidentes) 61 a 63, y 71 a 73, establecidas por la parte de configuración de fila de píxel de pre-interpolación 143, mostrada en la figura 1.
La figura 8 es un gráfico que muestra filas de píxel 81 a 84, que están creadas mediante la interpolación de la parte de implementación de la interpolación 140, mostrada en la figura 1.
La figura 9 es un diagrama de bloques, que muestra una configuración de un sistema de interpolación de imágenes, de acuerdo con la segunda realización de la presente invención.
La figura 10 es un gráfico para ilustrar la relación de posiciones entre líneas visuales y filas de píxel, en las líneas a ser interpolados, para explicar la segunda realización.
La figura 11 es un gráfico para ilustrar la relación de posiciones entre líneas visuales y filas de píxel, en las líneas a ser interpolados, para explicar la segunda realización.
La figura 12 es un diagrama de bloques que muestra una configuración de un sistema de interpolación de imágenes, de acuerdo con la tercera realización.
La figura 13 es un gráfico para ilustrar la relación de posiciones entre líneas visuales y filas de píxel, en las líneas a ser interpoladas, para explicar la tercera realización.
La figura 14 es un diagrama para ilustrar la relación de posiciones entre líneas visuales y filas de píxel, en las líneas a ser interpoladas, en un método de interpolación de imágenes acorde con una técnica del arte previo.
La figura 15 es un diagrama para ilustrar un proceso, para la determinación de la correlación entre una fila de píxel vecino y una fila de píxel asociado, en un método de interpolación de imágenes acorde con una técnica del arte previo.
La figura 16 es un diagrama para ilustrar otro proceso, de determinación de la correlación entre una fila de píxel vecino y una fila de píxel asociado, en un método de interpolación de imágenes acorde con una técnica del arte previo.
La figura 17 es un diagrama para ilustrar la interpolación en un borde, en un método de interpolación de imágenes acorde con una técnica del arte previo.
Mejor modo de llevar a cabo la invención
La primera realización de la presente invención se explicará con referencia las figuras 1 a 8.
La figura 1 es un diagrama de bloques que muestra una configuración de un sistema de interpolación de imágenes acorde con la presente realización.
En este dibujo, 100 designa un generador de modelo lineal de interpolación virtual, que recibe una imagen de vídeo de entrada, y genera modelos de línea de interpolación virtual, 120 designa a una base de datos de interpolación virtual para almacenar los modelos de línea virtual generados, 130 designa una parte de determinación de segmentos de interpolación, para determinar segmentos de interpolación, y la dirección de la interpolación, y 140 designa una parte de implementación de interpolación, para llevar a cabo la interpolación en base a datos manipulados aritméticamente.
El generador del modelo de línea de interpolación virtual 100, consta de una parte de operativa de luminancia diferencial inter-píxels 101, un procesador de normalización 102, una parte de extracción de modelo 103, un procesador de determinación del umbral de detalle 110, una parte operativa de luminancia diferencial intra-modelo 111, una parte de estimación de edición del modelo 112, y una parte de implementación de edición del modelo 113.
La parte de determinación del segmento de interpolación 130, consta de una primera parte de búsqueda de modelo coincidente 131, una parte de configuración de condición de modelo coincidente 132, una parte de configuración de condición de búsqueda 133, una parte de localización de modelo coincidente 134, una parte de extracción del vector direccional 135, y una segunda parte de búsqueda de modelo coincidente 136.
La parte de implementación de la interpolación 140 consta de una parte de búsqueda de coincidencia píxel-fila 141, una parte de configuración de condición de búsqueda 142, una parte de configuración píxel fila de pre-interpolación 142, una parte de configuración píxel fila de pre-interpolación 143, una parte operativa píxel fila coincidente 144, y un medio de corrección 145.
La figura 2 es una vista que muestra una pantalla en la que se muestra un cuadro de imagen visual, que tiene un modelo de línea negra delegada, sobre un fondo blanco, como ejemplo de una imagen de vídeo de entrada.
En este dibujo, 1 designa una pantalla, 2 designa un modelo de línea delgada, y 3 designa un punto de ampliación, en la imagen de entrada mostrada en la figura 3, como una imagen objeto a ser interpolada esta realización.
La figura 3 es un gráfico que muestra líneas visuales de entrada, y líneas a ser interpoladas en el punto de ampliación mostrado en la figura 2.
En este dibujo, A, B, C, D e I designan líneas visuales de entrada, y B, D, F, H designan líneas a ser interpoladas. Designadas como 21 (A33 a A35), 22 (C27 a C31), 23 (E21 a E25), 24 (G15 a G19) y 25 (i10 a i13), hay partes del modelo en negro, que describen el modelo de línea delgada inclinada 2. Las otras áreas representan partes del modelo en blanco.
Como se muestra en el mismo dibujo, cuando un campo de imagen es extraído, las separaciones del modelo se incrementan en los bordes del modelo, y cuando la inclinación del modelo de línea delgada se hace más próxima la horizontal. Por lo tanto, cuando un cuadro de imagen es generado por interpolación, la imagen resultante puede presentar modelos con espacios, o contornos irregulares, salvo que se lleve a cabo una interpolación apropiada.
A continuación se describirá el funcionamiento del sistema de interpolación de imágenes acorde con la presente realización, con referencia las figuras 1 a 8.
Primero se describirá la generación de modelos de línea de interpolación virtual, mediante el generador de modelo de línea de interpolación virtual 100.
La introducción de la imagen de vídeo de entrada, a la parte operativa de luminancia diferencial inter-píxels 101, de un generador de modelo de línea de interpolación virtual 100, se asume que tiene valores de luminancia diferenciales de \pm 127. En la figura 3, se calcula el valor de luminancia diferencial para todos los pares de píxels opuestos en dos líneas visuales de entrada, vecinas, superior e inferior, líneas A y C, líneas D y E, líneas E y G, y líneas G e I, para obtener datos de los píxels en las líneas a ser interpoladas. Después, en el procesador de normalización 102 se lleva a cabo el proceso de normalización en base a un umbral determinado, y los datos de los píxels en las líneas a ser interpoladas son clasificados en tres clases, +, - y 0. La parte de extracción del modelo 103 extrae segmentos de píxels que tienen continuamente la misma clase, bien + o -, como modelos.
Para cada uno de los modelos extraídos, se calcula el promedio de los valores de luminancia diferencial en el modelo, mediante la porción operativa de luminancia diferencial intra-modelo 111 del procesador de determinación del umbral de detalle 110. Después, en la parte de estimación de edición del modelo 112, se verifica cada modelo comparando el valor promedio mencionado, con valores de referencia de edición del modelo, como un umbral establecido, el número mínimo de puntos, el número máximo de puntos, etc. Por ejemplo, el área que tiene un valor promedio que no alcanza el umbral, se determina como un área desapercibida o indistinta, y es excluida y borrada de los modelos, por la parte de implementación de edición de modelo 113.
La parte de estimación de edición de modelo 112, puede además llevar a cabo estimación de edición, para la extensión y conexión de modelos, entre modelos próximos entre sí, mediante comparar sus signos.
La figura 4 es un diagrama que muestra modelos lineales de interpolación virtual, generados a través del proceso anterior, por el generador de modelos lineales de interpolación virtual 100.
En este dibujo, 41 hasta 44 designan modelos lineales de interpolación virtual clasificados como la clase (-), 51 a 54 designan modelos lineales de interpolación virtual clasificados como la clase (+), y los demás son modelos lineales de interpolación virtual clasificados como la clase (0).
En el generador de modelo lineal de interpolación virtual 100, como se muestra la figura 4, para el modelo lineal de interpolación virtual separado para cada línea a ser interpolada, se crea el promedio re-calculado de valores de luminancia diferencial, la posición inicial, la longitud, el siglo (+, -), la luminancia diferencial promediada, y otros datos de cada modelo, de forma que los datos son enviados a la base de datos de interpolación virtual 120. En la base de datos de interpolación virtual 120, los datos así obtenidos a partir del procesamiento, son almacenados como datos del modelo de interpolación virtual. La cantidad de datos que son almacenados pueden ser la totalidad del campo, o puede ser un número múltiple de líneas requeridas para ser procesadas por el procesador de determinación del segmento de interpolación 130, y la parte de implementación de la interpolación 140.
A continuación se describirá el proceso de determinación de los segmentos a ser interpolados, y la dirección de la interpolación, mediante el procesador de determinación del segmento de interpolación 130.
La figura 5 es un gráfico para ilustrar como busca modelos coincidentes, la primera porción de búsqueda del modelo coincidente 131.
Cuando los datos de interpolación virtual son introducidos, desde la base de datos de interpolación virtual 120, a la primera porción de búsqueda del modelo coincidente 131, del procesador de determinación del segmento de interpolación 130, la primera porción de búsqueda del modelo coincidente 131 busca modelos coincidentes para cada uno de los modelos de línea de interpolación virtual 41 a 44, y 51 a 54. Por ejemplo, en referencia a una búsqueda para modelos coincidentes, del modelo lineal de interpolación virtual 42, el segmento de 21, 22, 23 y 24 en la línea de interpolación virtual D, en base al rango de búsqueda configurado en la parte de configuración de la condición de búsqueda 133, y en base a las condiciones de estimación de coincidencia como son el signo, la longitud del segmento, el valor de luminancia diferencial promedio, etc., configurados en la parte de configuración de la condición de modelo coincidente 132, se busca los modelos de línea de interpolación virtual que coinciden con el modelo de línea de interpolación virtual 42, a partir de los modelos de línea de interpolación virtual localizados por debajo, hacia la izquierda y derecha inferiores, en la línea F, como se indica por las flechas mostradas en la figura 5.
A continuación, si se encontrara algún modelo con el mismo signo, + o -, y la misma longitud de segmento, y luminancia diferencial promediada aproximada, en el rango de búsqueda, como resultado de la búsqueda anterior, la parte de localización de modelo coincidente 134 extrae modelos de línea de interpolación virtual, como modelos coincidentes con el modelo de línea de interpolación virtual 42. Después, se busca el modelo que tiene un centro más próximo al centro del modelo de línea de interpolación virtual 42, a partir de los modelos coincidentes extraídos, uno desde cada lado del eje central del modelo de línea de interpolación virtual 42. Como resultado el modelo de línea de interpolación virtual 43, el segmento de 15, 16, 17 y 18 en la línea de interpolación virtual F, existente sobre un lado, es identificado como el modelo coincidente.
Además, puesto que en las imágenes reales de vídeo, hay casos en los que existen modelos coincidentes en múltiples direcciones, o donde existen líneas delgadas que tienen espacios y bordes, se lleva a cabo una búsqueda vectorial al efecto de evitar la extracción incorrecta de modelos coincidentes.
La parte de extracción del vector orientado 135, extrae vectores originados a partir del modelo de base, para los modelos candidatos extraídos como modelo coincidente. En este caso, se extrae un vector desde el modelo de base, es decir el modelo de línea de interpolación virtual 42, como modelo candidato 43 extraído como el modelo coincidente. A continuación, en la segunda parte de búsqueda de modelo coincidente 136, se busca modelos análogos que caen en la dirección del vector, y satisfacen las condiciones de estimación coincidentes, en función de las condiciones establecidas en la parte de configuración de condiciones de búsqueda 133 y en la parte de configuración de la condición de modelo coincidente 132. De este modo, si se encuentra un modelo análogo en la dirección vectorial, en base a la búsqueda vectorial en la parte de extracción del vector direccional 135 y en la segunda parte de búsqueda de modelo coincidente 136, el modelo se determina como el segmento a ser interpolado, y el modelo candidato que cae en la dirección en la que existen muchos modelos análogos, es seleccionada como el modelo coincidente. Aquí, si no se encuentra ningún modelo análogo en la dirección vectorial, no se lleva a cabo interpolación para tal segmento. Así, es posible evitar la extracción errónea de un modelo coincidente para una línea delgada, y en la dirección de un borde.
La figura 6 es un gráfico para ilustrar como la parte de extracción del vector direccional 35, y la segunda parte de búsqueda del modelo coincidente 136, buscan un vector.
En este dibujo, es extraído un vector, indicado por la fecha, desde el modelo base, es decir el modelo lineal de interpolación virtual 42, al modelo candidato 43, mediante la parte de extracción del vector direccional 35. Se encuentra en las líneas (líneas B y H), más modelos coincidentes que caen en la dirección vectorial, mediante la segunda parte de búsqueda de modelo coincidente 136. Como resultado, se encuentra que el modelo de línea de interpolación virtual 41 de 27, 28, 29, 30 y 31, en la línea de interpolación virtual B, y los parcialmente mostrados modelos de línea de interpolación virtual 44 de (9), 10, 11, 12 y 13 en la línea H, se encuentra que son los modelos coincidentes, mediante lo que se determina que el modelo lineal de interpolación virtual 42 es el segmento a ser interpolado, en el modelo de entrada direccional a lo largo del vector. A la vez, puede determinarse el modelo 43 como el segmento a ser interpolado, así como el modelo lineal de interpolación virtual 42. Los segmentos designados para ser interpolados, la dirección de la interpolación, etc., determinados por la parte de determinación del segmento de interpolación 130, pueden además ser registrados en la base de datos de interpolación virtual 120.
Como método de determinación en la parte de determinación del segmento de interpolación 130, dependiendo de la línea en la cual existen modelos coincidentes a en la dirección del vector, o dependiendo del número de modelos coincidentes que existen en la misma línea dirigida a lo largo de cada vector, con respecto al eje central del modelo de base, es decir dependiendo de la distribución de los modelos coincidentes, busca modelos coincidentes que puedan ser implementados asignando diferentes pesos, o en base a modelos coincidentes dedicados, determinando condiciones para el modo de búsqueda vectorial. En la presente realización, si se necesita o no la interpolación, y la dirección de los modelos a ser interpolados, se determina en función del número de modelos coincidentes que existen en la dirección vectorial, pero el método de determinación no debería limitarse a
esto.
A continuación, se describirá el proceso de implementación de la interpolación, en la parte de
implementación de la interpolación 140.
La parte de búsqueda de coincidencia píxel-fila 141, recibe una imagen de vídeo de entrada, y extrae coincidencias píxel-fila correspondientes a los segmentos a ser interpolados, a partir de líneas visuales de entrada, por encima y por debajo del campo de entrada de la imagen, bajo las condiciones coincidentes, busca el rango y otras condiciones establecidas por la parte de configuración de la condición de búsqueda 142, introducidas desde el procesador de determinación de segmento de interpolación 130.
Después, la parte de configuración de píxel-fila de pre-interpolación 143, para determinar las filas de píxel a ser escritas sobre segmentos designados para interpolación, configura las filas de píxel de pre-interpolación, cada una de las cuales incluye por los menos parte de su coincidencia píxel-fila, en base a los datos de posición de las coincidencias píxel-fila, la posición inicial del segmento y la longitud del modelo coincidente entre líneas vecinas, obtenidos desde la base de datos de interpolación virtual 120.
En la presente realización, puesto que la longitud del segmento designado para interpolación, y la de la coincidencia píxel fila en la línea visual, están representadas idénticamente, la pre-interpolación píxel fila corresponde a la propia coincidencia píxel-fila.
En la figura 7, 61 a 63, y 71 a 73, designan filas de píxel de pre-interpolación (= coincidencias píxel-fila) configuradas por la parte de configuración de píxel fila de pre-interpolación 143.
A continuación, la parte operativa de píxel-fila coincidente 144, calcula los valores de datos de vídeo promedio de las coincidencias píxel-fila 61 a 63 y las coincidencias píxel-fila inferiores 71 a 73 y los datos de posición, y en base al promedio y a los datos de posición de los datos de vídeo así calculados, la parte de implementación de la interpolación 140 implementa la interpolación sobrescribiendo los modelos de datos de vídeo promedio, en las líneas a ser interpoladas, en las posiciones intermedias entre las coincidencias píxel-fila superiores 61 a 63, y las coincidencias píxel-fila inferiores 71 a 73.
La figura 8 muestra filas de píxel 81 a 84, que son interpoladas por la parte de implementación de la interpolación 140.
Debería notarse que los píxels distintos de los segmentos designados para interpolación, en las líneas a ser interpoladas, son interpolados en base a una técnica de interpolación del arte previo. Aquí, ejemplos de la técnica de interpolación del arte previo, incluyen el método de interpolar las líneas a ser interpoladas, con los datos de vídeo promedio de las líneas de entrada superior e inferior, y el método de interpolar las líneas a ser interpoladas, con los datos de vídeo de las líneas de entrada superiores.
A continuación se describirá la siguiente realización de la presente invención, con referencia las figuras 9 a 11.
La figura 9 es un diagrama de bloques, que muestra una configuración de un sistema de interpolación de imágenes, acorde con esta realización.
La configuración del sistema de interpolación de imágenes de esta realización, configura filas de píxel de pre-interpolación, en función de una base de datos de interpolación virtual, de forma que la parte de búsqueda de coincidencia píxel-fila 141, y la parte de configuración de la condición de búsqueda 142, necesarias en la parte de implementación de interpolación 140 de la primera realización, son innecesarias.
Es decir, la parte de implementación de la interpolación 140 consta de una parte de configuración de píxel fila de pre-interpolación 143, una parte operativa píxel-fila coincidente 144a y un medio de corrección 145.
A continuación se describirá el funcionamiento del sistema de interpolación de imágenes acorde con esta realización, con referencia las figuras 9 a 11.
Para comenzar, en las figuras 10 y 11 se muestra claramente la relación de posiciones de las filas de píxel en las líneas visuales y en las líneas a ser interpoladas.
En la figura 10, las filas de píxel visual (negras) están designadas por 21 a 25 (A33 a A34, C27 a C31, E21 a E25, G15 a G19 y I10 a I13); los segmentos designados para interpolación (-) están designados por 41 a 44 (B27 a B34, D21 a D25, F15 a F19 y H10 a H13); los segmentos designados para interpolación (+) están designados por 51 a 54 (B33 a B34, D27 a D31, F21 a F25 y H15 a H19); y las filas de píxel de pre-interpolación están designadas por 61 a 64, y 71 a 74 (A30 a A34, C24 a C28, C30 a C34, E18 a E22, E24 a E28, G12 a G16, G18 a G22 e I12 A I16).
En la figura 11, las filas de píxel visual (negras) están designadas por 21 a 25 (A33 a A34, C27 a C31, E21 a E25, G15 a G19 y I10 a I13); las filas de píxel de interpolación están designadas por 81 a 84 (B27 a B34, B33 a B34, D21 a D25, D27 a D31, F15 a F19, F21 a F15, H10 a H13 y H15 a H19).
Primero, en referencia a un ejemplo de configuración de una fila de píxel para interpolación, en el segmento designado para interpolación 42 (D-21 a 25), la parte de configuración de fila de píxel de pre-interpolación 143, en base a las posiciones de inicio del segmento y a los datos de longitud de los segmentos designados para interpolación 42 y 43 (D-21 a D25, F-15 a F19), obtenidos a partir de la base de datos de interpolación visual 120, configura las filas de píxel de pre-interpolación 62 y 63 (C24 a C28, E18 a E22), en las líneas C y E.
Estas se determinan en base a las posiciones de inicio, y a los datos de longitud de los segmentos designados de interpolación 42 y 43 (D21 a D25, F15 a F19), y son los segmentos que están contenidos por las líneas rectas que pasan por los extremos del segmento (D21 a F15, D25 a F19) en intersección con cada una de las líneas C y D.
A continuación, la parte operativa de píxel-fila coincidente 144, calcula el promedio de los píxels emparejados de las filas de píxel de pre-interpolación 62 y 63 (C24 a C29, y E18 a E22), y configura una fila de píxel de pre-interpolación 82 (D21 a D25), como se muestra en la figura 11.
Después, se calcula el promedio de los datos de píxel de C24 y E18 de las filas de píxel de pre-interpolación 62 y 63 (C24 a C26 y E18 a E22) para producir los datos de píxel de D21, de la fila de píxel de interpolación 82 (D21 a D25). Así, se calcula el promedio de los datos de píxel de forma secuencial hasta C28 y E22, para producir los datos de píxel de la fila de píxel de interpolación 82 (D21 a D25).
Mediante el proceso anterior, para cada segmento designado para interpolación, se produce una fila de píxel de interpolación, y estas filas de píxel de interpolación son escritas sobre los píxels de los modelos de interpolación virtual, por la interpolación de fila de píxel, mientras el medio de corrección 145 añade correcciones en armonía con los píxels alrededor de las líneas a ser interpoladas, para implementar de ese modo la interpolación lineal.
Debería notarse que los píxels distintos de aquellos de los segmentos designados para interpolación, en las líneas a ser interpoladas, son interpolados en base a una técnica de interpolación del arte previo. Aquí, los ejemplos de técnicas de interpolación del arte previo incluyen el método de interpolar las líneas a ser interpoladas, con datos de vídeo promedio de líneas de entrada superior e inferior, y el método de interpolar las líneas a ser interpoladas con datos de vídeo de las líneas inferiores.
Los datos de los píxels B32, D26, F20 y H14, en las figuras 10 y 11, pueden ser creados por edición del modelo en la parte de determinación del umbral de detalle 110, o por el medio de corrección 145.
A continuación se describirá la tercera realización de la presente invención, con referencia las figuras 12 a 13.
La figura 12 es un diagrama de bloques que muestra una configuración de un sistema de interpolación de imágenes, acorde con esta realización.
En este dibujo, 146 designa una parte de confirmación de dirección de interpolación coincidente. La parte de búsqueda de coincidencia píxel-fila 141, necesaria en la parte de implementación de interpolación 140 en la primera realización, es reemplazada por la parte de confirmación de dirección de interpolación coincidente 146.
La figura 13 es un gráfico para ilustrar relaciones de posición entre las filas de píxel en las líneas visuales, y las líneas a ser interpoladas.
A continuación, se describirá el funcionamiento del sistema de interpolación de imágenes acorde con esta realización, con referencia las figuras 12 y 13.
La parte de confirmación de dirección de interpolación coincidente 146, en base a la información obtenida desde la base de datos de interpolación visual 120, sobre la dirección en la que el segmento designado para la interpolación debería ser interpolado, bajo las condiciones de coincidencia, rango de búsqueda, y otras condiciones, configuradas por la parte de configuración de la condición de búsqueda 142, extrae un segmento designado para interpolación, adyacente, en la misma línea que cada segmento designado para interpolación, para llevar a cabo detección de errores para el segmento designado para interpolación, y la extensión del segmento a ser interpolado. Como se muestra en la figura 13, el resultado se proporciona como segmentos extendidos designados para interpolación (-) 41' a 44' (B27 a B32, D21 a D26, F15 a F20 y H10 a H14), que son creados extendiendo los segmentos de interpolación (-) 41 a 44 (B27 a B31, D21 a D25, F15 a F19 y H10 a H13) mostrados en la figura 10.
El funcionamiento de la presente realización, corriente abajo, es el mismo que el de la segunda realización, de modo que se omitirá la descripción.
En la descripción de cada una de las realizaciones anteriores, se ha utilizado los datos de luminancia como datos de píxel, para la operación inter-píxels en cada proceso, pero principalmente puede utilizarse en su lugar datos de color o datos de crominancia.
Cada medio en las anteriores realizaciones, puede estar configurado por equipo físico o bien el flujo de proceso puede, desde luego, ser implementado por un proceso de soporte lógico. También en este caso, puede obtenerse el mismo resultado.
De acuerdo con las invenciones de las anteriores realizaciones, en contraste con la típica interpolación lineal llevada a cabo en base de píxel, la interpolación lineal se lleva a cabo con modelos que son obtenidos realizando operaciones aritméticas entre modelos coincidentes, que son extraídos de las líneas visuales de entrada adyacentes a los segmentos a ser interpolados, es posible producir bordes inclinados casi horizontales, y líneas delegadas, de forma suave.
Puesto que las operaciones entre líneas visuales de entrada, y diversos tipos de procesos de determinación del umbral de detalle, se llevan a cabo para constituir modelos de interpolación virtual en la base de datos, a la que es posible referirse para la determinación de segmentos a ser interpolados, y durante de la interpolación de la implementación, la interpolación exacta puede ser implementada de forma que impida cálculos erróneos, para hacer de ese modo eficiente toda la operación de procesamiento, habilitando así la interpolación en tiempo real.
Aplicabilidad industrial
Tal como se ha descrito, de acuerdo con las invenciones definidas en los anteriores aspectos primero, segundo, vigésimo y trigésimo, se hace posible la interpolación en tiempo real mediante conseguir una reducción sensible en la velocidad de procesamiento. Incluso cuando aparece modelos visuales con espacios entre líneas en el campo de imagen, la interpolación se lleva a cabo en base a filas de píxel coincidentes en las líneas adyacentes, para reproducir un cuadro de imagen con modelos suaves, sin espacios.
De acuerdo con las invenciones definidas en los anteriores aspectos trigésimo y trigésimo primero, es posible buscar las partes finales de varios modelos de imagen, incluyendo modelos de línea delgada, bordes del modelo, etc., en poco tiempo y en un amplio rango, y estimar sus condiciones, haciendo así posible llevar a cabo una interpolación precisa, y representar bordes del modelo suaves.
De acuerdo con la invención definida en el anterior cuarto aspecto, en base la distribución de los modelos de coincidencia extraídos, se determina si el segmento asociado debería ser interpolado, o no, y qué dirección de interpolación debería llevarse a cabo. Por lo tanto, las condiciones de los modelos de línea delgada, y los bordes del modelo, pueden ser estimadas exactamente, liberando así a la interpolación de posibles fallos de detección.
De acuerdo con la invención definida en el anterior quinto aspecto, en base la distribución de los modelos coincidentes extraídos, se determina si el segmento asociado debería ser, o no, interpolado y qué dirección de interpolación debería llevarse a cabo. Por lo tanto, incluso con un dibujo en el que existan muchos modelos análogos, las condiciones y posiciones de los modelos de línea fina y de los bordes del modelo, pueden ser estimadas con exactitud, liberando así a la interpolación de posibles errores de detección.
De acuerdo con las invenciones definidas en los anteriores aspectos sexto y decimosexto, puesto que los datos de interpolación virtual se construyen de filas de píxel como unidades de datos, es posible suavizar los bordes del modelo, y llevar a cabo operaciones con una eficiencia mejorada.
De acuerdo con las invenciones definidas en los aspectos decimoséptimo a vigésimo octavo, puesto que las partes irrelevantes e indistintas, que tienen poca influencia en la visualización del dibujo, pueden ser borradas o conectadas por determinación del umbral de detalle, es posible mejorar sensiblemente la velocidad de la interpolación, mientras que se mantiene la calidad de la imagen.

Claims (7)

1. Un sistema de interpolación de imágenes, para interpolar los espacios entre las líneas que forman una imagen, que comprende:
un medio (100) de generación de datos de interpolación virtuales, para generar modelos de líneas de interpolación virtuales, entre las líneas de imagen de entrada, en base a datos de líneas de imagen de entrada;
un medio (130) de determinación del segmento de interpolación, para determinar segmentos a ser interpolados entre las líneas de imagen de entrada, y la dirección de interpolación, en base a los modelos de líneas de interpolación virtuales generados; y
un medio de interpolación (140) que genera píxels de pre-interpolación en las líneas de la imagen de entrada, en base a los datos determinados de los segmentos a ser interpolados, determinados por el medio de determinación del segmento de interpolación (130), e interpola los píxels entre las líneas de imagen de entrada, en base a los píxels de pre-interpolación generados.
2. El sistema de interpolación de imágenes acorde con la reivindicación 1, en el que el medio de determinación del segmento de interpolación (130) comprende:
un medio de configuración de condiciones de búsqueda (133), para configurar un rango de búsqueda del modelo;
un medio de configuración de condición de modelo coincidente (132), para configurar condiciones de modelo coincidente; y
un primer medio de búsqueda de modelo coincidente, para buscar modelos coincidentes en base a las condiciones diseñadas por el medio de configuración de condiciones de búsqueda (133), y por el medio de configuración de condición de modelo coincidente (132).
3. El sistema de interpolación de imágenes acorde con la reivindicación 2, en el que el medio de determinación del segmento de interpolación (130), comprende además:
un medio de extracción del vector direccional (135), para extraer la dirección del vector de los modelos coincidentes detectados; y
un segundo medio de búsqueda de modelo coincidente (136), para buscar modelos coincidentes existentes en la dirección extraída del vector, en base a las condiciones diseñadas por el medio de configuración de condiciones de búsqueda (133), y por el medio de configuración de condición de modelo coincidente (132).
4. El sistema de interpolación de imágenes acorde con la reivindicación 1, la 2 o la 3, en el que los modelos de líneas de interpolación, generados por el medio de generación de datos de interpolación virtual (100), están construidos de unidades de filas de píxel de datos.
5. El sistema de interpolación de imágenes acorde con cualquiera de las reivindicaciones 1 a 4, en el que el medio de generación de datos de interpolación virtuales (100) comprende:
un medio operativo inter-píxels (101), para calcular la diferencia de datos de píxels, entre los píxels de las líneas vecinas de la imagen de entrada;
un medio de normalización (102) para clasificar los píxels en múltiples clases, de acuerdo con el valor calculado de la diferencia en los datos del
píxels;
un medio de extracción de modelo (103), para extraer filas de píxels normalizadas y clasificadas en una clase idéntica, como modelos; y
un medio de medio de determinación del umbral de detalle (110), para estimar los modelos extraídos en la misma línea a ser interpolada en base al umbral predeterminado, y editarlos.
6. El sistema de interpolación de imágenes acorde con la reivindicación 5, en el que el medio de determinación del umbral de detalle (110) comprende:
un medio operativo de píxels intra-modelo (111), para calcular el promedio de los valores diferenciales de píxels, de píxels individuales en cada modelo; y
un medio de edición del modelo (112), para estimar el valor promedio en base al umbral predeterminado, y editar modelos.
7. Un método de interpolación de imágenes, para interpolar los espacios entre las líneas que forman una imagen, que comprende:
una etapa para generar modelos de líneas de interpolación virtuales, entre líneas de la imagen de entrada, en base a los datos línea de la imagen de entrada;
una etapa para determinar segmentos a ser interpolados, entre las líneas de la imagen de entrada, y la dirección de interpolación, en base a modelos de línea de interpolación virtual generados; y
una etapa para generar píxels de pre-interpolación en las líneas de imagen de entrada, en base a los datos determinados de los segmentos a ser interpolados, e interpolar los píxels entre líneas de la imagen de entrada, en base a los píxels de pre-interpolación
generados.
ES00956793T 1999-08-31 2000-08-30 Sistema y metodo de interpolacion de imagenes. Expired - Lifetime ES2264669T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP24526399A JP3614324B2 (ja) 1999-08-31 1999-08-31 画像の補間システムおよび画像の補間方法
JP11-245263 1999-08-31

Publications (1)

Publication Number Publication Date
ES2264669T3 true ES2264669T3 (es) 2007-01-16

Family

ID=17131090

Family Applications (1)

Application Number Title Priority Date Filing Date
ES00956793T Expired - Lifetime ES2264669T3 (es) 1999-08-31 2000-08-30 Sistema y metodo de interpolacion de imagenes.

Country Status (10)

Country Link
US (1) US6980254B1 (es)
EP (1) EP1213923B1 (es)
JP (1) JP3614324B2 (es)
KR (1) KR100473745B1 (es)
CN (1) CN1157060C (es)
AU (1) AU762673B2 (es)
DE (1) DE60028584T2 (es)
ES (1) ES2264669T3 (es)
HU (1) HUP0202822A3 (es)
WO (1) WO2001017243A1 (es)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4880172B2 (ja) * 2000-04-21 2012-02-22 パナソニック株式会社 画像処理方法及び画像処理装置
AU2002341315A1 (en) * 2001-11-01 2003-05-12 Koninklijke Philips Electronics N.V. Improved spatial resolution of video images
JP3951695B2 (ja) * 2001-12-11 2007-08-01 ソニー株式会社 画像配信システムおよび方法、画像配信装置および方法、画像受信装置および方法、記録媒体、並びにプログラム
JP3915563B2 (ja) * 2002-03-19 2007-05-16 富士ゼロックス株式会社 画像処理装置および画像処理プログラム
US7212689B2 (en) * 2002-11-06 2007-05-01 D. Darian Muresan Fast edge directed polynomial interpolation
US7432979B2 (en) * 2003-09-03 2008-10-07 Sony Corporation Interlaced to progressive scan image conversion
JP2006087030A (ja) * 2004-09-17 2006-03-30 Olympus Corp ノイズ低減装置
US20060072038A1 (en) * 2004-10-05 2006-04-06 Wyman Richard H Method and system for detecting deinterlaced moving thin diagonal lines
US7586649B2 (en) * 2004-12-27 2009-09-08 Konica Minolta Business Technologies, Inc. Method and device for compressing image data
US20100095236A1 (en) * 2007-03-15 2010-04-15 Ralph Andrew Silberstein Methods and apparatus for automated aesthetic transitioning between scene graphs
JP4846644B2 (ja) * 2007-03-30 2011-12-28 株式会社東芝 映像信号補間装置および映像信号補間方法
TWI342714B (en) * 2007-05-16 2011-05-21 Himax Tech Ltd Apparatus and method for frame rate up conversion
JP4973542B2 (ja) 2008-02-26 2012-07-11 富士通株式会社 画素補間装置及び画素補間方法
CN101960843B (zh) * 2008-03-21 2012-12-26 日本电气株式会社 图像处理方法、图像处理装置和图像处理程序
TWI376643B (en) * 2008-03-24 2012-11-11 Novatek Microelectronics Corp Method for detecting image edge and image interpolation using the same
WO2010025473A1 (en) * 2008-09-01 2010-03-04 Mitsubishi Digital Electronics America, Inc. Picture improvement system
KR101590881B1 (ko) * 2008-12-24 2016-02-02 삼성전자 주식회사 화상처리장치 및 그 제어방법
EP2476080A1 (en) * 2009-09-09 2012-07-18 Conocophillips Company Dip guided full waveform inversion
US8666180B2 (en) 2009-12-04 2014-03-04 Stc.Unm System and methods of compressed sensing as applied to computer graphics and computer imaging
JP5672872B2 (ja) * 2010-09-08 2015-02-18 株式会社リコー 画像形成装置
JP2013192094A (ja) * 2012-03-14 2013-09-26 Toshiba Corp 映像拡大装置及び映像拡大方法
US9076230B1 (en) * 2013-05-09 2015-07-07 Altera Corporation Circuitry and techniques for image processing
JP2020034465A (ja) * 2018-08-31 2020-03-05 ソニー株式会社 情報処理装置、情報処理方法及びプログラム

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2751928B2 (ja) 1987-01-29 1998-05-18 キヤノン株式会社 映像情報補間方法
JP2577416B2 (ja) * 1987-12-24 1997-01-29 エヌティエヌ株式会社 非粘着性潤滑被膜
US6331862B1 (en) * 1988-07-06 2001-12-18 Lg Philips Lcd Co., Ltd. Image expansion display and driver
GB2231460B (en) * 1989-05-04 1993-06-30 Sony Corp Spatial interpolation of digital video signals
JPH02312381A (ja) * 1989-05-26 1990-12-27 Victor Co Of Japan Ltd 走査線補間方法
JPH04500419A (ja) * 1989-06-16 1992-01-23 イーストマン・コダック・カンパニー ディジタル画像補間器
JPH03229583A (ja) * 1990-02-02 1991-10-11 Mitsubishi Electric Corp 走査線補間回路
US5410356A (en) * 1991-04-19 1995-04-25 Matsushita Electric Industrial Co., Ltd. Scanning-line interpolation apparatus
JPH04364685A (ja) 1991-06-12 1992-12-17 Toshiba Corp 走査線補間装置
JPH05153562A (ja) * 1991-12-02 1993-06-18 Matsushita Electric Ind Co Ltd 相関検出補間方法および装置
JPH0824366B2 (ja) 1991-07-23 1996-03-06 大日本スクリーン製造株式会社 画像の補間方法
KR950000440B1 (ko) * 1991-12-27 1995-01-19 주식회사 금성사 티브이 신호의 주사선 수 2배 증가방법 및 회로
US5253041A (en) 1992-05-26 1993-10-12 General Electric Company Digital television signal compression apparatus
DE69529548T2 (de) * 1994-04-22 2003-11-27 Canon Kk Bilderzeugungsverfahren und -gerät
US5661525A (en) * 1995-03-27 1997-08-26 Lucent Technologies Inc. Method and apparatus for converting an interlaced video frame sequence into a progressively-scanned sequence
US5991463A (en) * 1995-11-08 1999-11-23 Genesis Microchip Inc. Source data interpolation method and apparatus
US6380979B1 (en) * 1996-07-02 2002-04-30 Matsushita Electric Industrial Co., Ltd. Scanning line converting circuit and interpolation coefficient generating circuit
JP3747523B2 (ja) * 1996-07-02 2006-02-22 ソニー株式会社 画像処理装置および処理方法
US5936676A (en) * 1997-08-21 1999-08-10 Miranda Technologies Inc. Apparatus and method for line interpolating an interlaced video signal
MY119346A (en) * 1996-12-24 2005-05-31 Sony Corp Picture processing apparatus and method
JP4536170B2 (ja) * 1996-12-27 2010-09-01 シャープ株式会社 撮像装置
JP4022935B2 (ja) * 1997-01-21 2007-12-19 ソニー株式会社 画像処理装置および処理方法
JP3212917B2 (ja) * 1997-08-26 2001-09-25 エヌイーシービューテクノロジー株式会社 走査線補間装置および走査線補間方法
US6295091B1 (en) * 1997-11-07 2001-09-25 Intel Corporation Method and apparatus for de-interlacing video fields for superior edge preservation
KR20000070273A (ko) * 1997-11-17 2000-11-25 이데이 노부유끼 텔레비젼 장치 및 텔레비젼 장치의 표시 방법 및 화면 제어 장치 및 방법
KR100548664B1 (ko) * 1997-11-26 2006-02-03 소니 가부시끼 가이샤 화상처리장치, 화상처리방법 및 텔레비전 수상기
JP2000059735A (ja) * 1998-08-04 2000-02-25 Sony Corp 画像処理装置および方法、並びに提供媒体
US6496608B1 (en) * 1999-01-15 2002-12-17 Picsurf, Inc. Image data interpolation system and method

Also Published As

Publication number Publication date
DE60028584T2 (de) 2007-05-31
JP3614324B2 (ja) 2005-01-26
CN1157060C (zh) 2004-07-07
EP1213923A4 (en) 2003-04-09
US6980254B1 (en) 2005-12-27
KR100473745B1 (ko) 2005-03-10
EP1213923B1 (en) 2006-06-07
AU6864700A (en) 2001-03-26
DE60028584D1 (de) 2006-07-20
JP2001069469A (ja) 2001-03-16
WO2001017243A1 (fr) 2001-03-08
AU762673B2 (en) 2003-07-03
EP1213923A1 (en) 2002-06-12
HUP0202822A2 (hu) 2003-01-28
CN1343421A (zh) 2002-04-03
KR20020028229A (ko) 2002-04-16
HUP0202822A3 (en) 2003-05-28

Similar Documents

Publication Publication Date Title
ES2264669T3 (es) Sistema y metodo de interpolacion de imagenes.
JP4507307B2 (ja) 映像投影装置
US7019713B2 (en) Methods and measurement engine for aligning multi-projector display systems
EP2321792B1 (en) Cut-line steering methods for forming a mosaic image of a geographical area
US6798422B2 (en) Method and filtering system for filtering edge directions
JPH0750752A (ja) 画像密度変換方法及び装置
JP2021157404A (ja) 学習データ生成方法、学習データ生成装置、及び、プログラム
KR100986607B1 (ko) 영상 보간 방법 및 그 방법이 기록된 컴퓨터로 읽을 수 있는 기록매체
JP2007140593A (ja) 内接矩形検出装置および内接矩形検出プログラム
CN111210384B (zh) 一种适用于机场跑道场景的图像拼接方法
JP3232064B2 (ja) カラー画像における対象領域抽出方法
CN105631802B (zh) 一种数字图像格式转换的方法及装置
JPH10320557A (ja) テロップ文字表示フレーム検出方法及び装置
CN112489115A (zh) 发光模块定位方法、装置、电子设备、存储介质及系统
JP2000030058A (ja) カラ―画像におけるish変換装置および変換方法
JP2009290277A (ja) 信号処理装置
CN114792288B (zh) 一种曲面屏图像的灰度校正方法及相关装置
KR930008177B1 (ko) 화상 처리 장치
JPH05128274A (ja) 図形表示装置
JP3530765B2 (ja) 画像処理方法、画像処理装置及び記憶媒体
JPH031281A (ja) 面温度表示装置
JPH06243258A (ja) 奥行き検出装置
JPH0227486A (ja) 画像拡大縮小装置
JP2780405B2 (ja) デジタル画像処理装置
JPH0588653A (ja) 画面合成表示領域決定装置