ES2226064T3 - Metodo y aparato para el proceso de imagenes. - Google Patents

Metodo y aparato para el proceso de imagenes.

Info

Publication number
ES2226064T3
ES2226064T3 ES98301597T ES98301597T ES2226064T3 ES 2226064 T3 ES2226064 T3 ES 2226064T3 ES 98301597 T ES98301597 T ES 98301597T ES 98301597 T ES98301597 T ES 98301597T ES 2226064 T3 ES2226064 T3 ES 2226064T3
Authority
ES
Spain
Prior art keywords
values
window
pixel
value
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES98301597T
Other languages
English (en)
Inventor
Nobutaka Miyake
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP05019897A external-priority patent/JP3210264B2/ja
Priority claimed from JP14671997A external-priority patent/JP3703253B2/ja
Application filed by Canon Inc filed Critical Canon Inc
Application granted granted Critical
Publication of ES2226064T3 publication Critical patent/ES2226064T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/403Edge-driven scaling; Edge-based scaling

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

ESTA INVENCION PUEDE FORMAR FACILMENTE UNA IMAGEN SUAVE Y CLARA CON CONTINUIDAD, PARTICULARMENTE A PARTIR DE UNA IMAGEN NATURAL SIN PRODUCIR NINGUNA BORROSIDAD O DENTADO DE INTERPOLACION CUANDO CONVIERTE INFORMACION DE ENTRADA DE BAJA RESOLUCION A INFORMACION DE ALTA RESOLUCION. ESTA INVENCION CONSTA DE UNA PRIMERA UNIDAD DE FORMACION DE VENTANA (102) CUYO FIN ES LA FORMACION DE UNA PRIMERA VENTANA PARA REFERIR A LOS PIXELES VECINOS MAS CERCANOS DE UN PIXEL DE BAJA RESOLUCION DE INTERES, UNA UNIDAD DE DETECCION (103) PARA DETECTAR UNA VARIEDAD DE VALORES REPRESENTATIVOS DESDE LA PRIMERA VENTANA, UNA UNIDAD DE CONVERSION (105) PARA CONVERTIR EL VALOR DEL PIXEL DE INTERES MEDIANTE UN LPF ADAPTABLE, UNA SEGUNDA UNIDAD DE FORMACION DE VENTANA (106) PARA LA FORMACION DE UNA SEGUNDA VENTANA PARA INDICAR LOS VALORES CONVERTIDOS DE LOS PIXELES VECINOS MAS CERCANOS DEL PIXEL DE INTERES, Y UNA UNIDAD DE FORMACION DE INFORMACION DE ALTA RESOLUCION (107) QUE INCLUYE UNA UNIDAD DE INTERPOLACION LINEAL PARA REALIZAR UNA INTERPOLACION LINEAL EN LAS BASES DE LA INFORMACION DEL VALOR DEL PIXEL EN LA PRIMERA VENTANA O LA INFORMACION DE VALOR CONVERTIDO EN LA SEGUNDA VENTANA Y UNA UNIDAD DE INTERPOLACION NO LINEAL PARA REALIZAR INTERPOLACION NO LINEAL MEDIANTE UNA OPERACION PRODUCTO - SUMA DE LOS VALORES INTERPOLADOS LINEALMENTE EN LA UNIDAD DE INTERPOLACION LINEAL Y LOS VALORES REPRESENTATIVOS.

Description

Método y aparato para el proceso de imágenes.
Antecedentes de la invención
La presente invención se refiere a un aparato para el proceso de imágenes y un método para el proceso de imágenes para ampliar una información de imagen de entrada o convertir una información de entrada de baja resolución en una información de alta resolución.
Convencionalmente, se han propuesto diferentes métodos como método para la conversión de una información de entrada de baja resolución en una información de alta resolución. Estos métodos convencionales utilizan diferentes métodos para el proceso de la conversión de acuerdo con los tipos de imágenes que se han de procesar (por ejemplo, una imagen multivalor que tiene información de gradación en unidades de píxeles, una imagen binaria formada por un pseudo fotograbado a media tinta, una imagen binaria formada por un valor umbral fijo, y una imagen de carácter). Ejemplos de métodos de interpolación convencionales utilizados generalmente son la interpolación según el vecino más cercano, por la cual los mismos valores de píxel que están más cerca de un punto de interpolación están dispuestos como se muestra en la figura 23, y la interpolación bilineal por la cual se determina el valor de píxel E, mediante la siguiente operación aritmética de acuerdo con las distancias entre cuatro puntos (que tienen los valores de píxel A, B, C y D) rodeando a un punto de interpolación como se muestra en la figura 24.
E = (1-i) \ (1-j) \ A + i \ (1-j) \ B + j \ (1-i) \ C + ijD
(donde i y j son, respectivamente, las distancias desde A en las direcciones lateral y longitudinal cuando la distancia entre píxeles es de 1. (i \leq 1, j \leq 1))
Desafortunadamente, los métodos convencionales anteriores tienen los siguientes inconvenientes.
En primer lugar, el método mostrado en la figura 23 tiene la ventaja de que la configuración del proceso es simple. Sin embargo, cuando este método se utiliza para imágenes naturales, por ejemplo, los valores de píxel se determinan en unidades de bloque que se han de ampliar. Por lo tanto, los bloques llegan a ser visiblemente perceptibles, y esto deteriora la calidad de la imagen.
Asimismo, incluso cuando el método se utiliza para caracteres, imágenes de línea, o imágenes CG (Gráficos de ordenador), el mismo valor de píxel permanece en unidades de bloque que se han de ampliar. Especialmente cuando una imagen contiene una línea oblicua, el efecto de escalera denominado dentado se hace notable deteriorando la calidad de la imagen. Las figuras 25A y 25B muestran la forma en que se produce este dentado. La figura 25A muestra una información de entrada, y la figura 25B muestra un ejemplo de la conversión de resolución por la cual el número de píxeles se duplica tanto en la dirección de las filas como en la dirección de las columnas, mediante el método mostrado en la figura 23. Generalmente, el deterioro de la calidad de imagen aumenta a medida que aumenta la amplificación. (En referencia a las figuras 25A y 25B, "200" y "10" son los valores de píxel.)
El método mostrado en la figura 24 se utiliza a menudo generalmente para ampliar imágenes naturales. En este método, se obtienen imágenes suavizadas por promediado. Sin embargo, se obtienen imágenes desenfocadas cuando se requieren imágenes perfiladas o con bordes. Adicionalmente, cuando el método se utiliza para una imagen obtenida mediante la exploración de un mapa o similar o para una imagen natural que contiene caracteres, a veces no se transfiere al usuario la información importante debido al desenfoque causado por la interpolación.
La figura 25C muestra una información de imagen obtenida por interpolación por la cual la información de imagen de entrada mostrada en la figura 25A se duplica tanto en la dirección de las filas como en la dirección de las columnas, mediante el método mostrado en la figura 24.
Tal como resulta evidente según la figura 25C, los valores de píxel no sólo de las partes que rodean la línea oblicua sino que también la propia línea oblicua no quedan uniformes, y esto desenfoca la imagen.
De acuerdo con lo anterior, se han propuesto un número de técnicas de conversión de resolución para imágenes de alta calidad. Por ejemplo, el documento USP5280546 da a conocer un método de interpolación en el cual, para eliminar el desenfoque de la interpolación, se separan una imagen natural y una imagen de línea, se realiza una interpolación lineal sobre la imagen natural, y se realiza una interpolación lineal binaria sobre la imagen de línea, disponiendo por lo tanto los valores máximo y mínimo de los píxeles vecinos más cercanos. En esta técnica, sin embargo, se produce un desenfoque de la interpolación en imágenes naturales. Asimismo, se produce inevitablemente dentado debido a que se constituye una información de alta resolución para las imágenes de línea mientras que la resolución de la información de baja resolución permanece inalterada. Adicionalmente, incluso las imágenes de línea son cuantificadas en dos niveles de gradación. Por lo tanto, aunque no hay problema cuando la información original sólo tiene dos niveles de gradación, la calidad de una imagen de línea de gradación múltiple se deteriora inevitablemente porque se reduce el número de niveles de gradación.
El documento USP5430811 da a conocer una técnica de interpolación no lineal, utilizando una LUT. En esta técnica, sin embargo, el algoritmo en sí mismo, sólo puede manejar una ampliación de 2x en las direcciones horizontal y vertical. Para aumentar la ampliación, por lo tanto, es necesario repetir el proceso o combinar el proceso con otro proceso de ampliación, resultando en un proceso complicado. Además, incluso si se alcanza una ampliación a una potencia de 2 en el proceso repetitivo, no es fácil ejercer un control de manera que se le dé a cada píxel de información de alta resolución la no linealidad deseada en la ampliación final, cuando se tiene en cuenta el proceso repetitivo. Asimismo, en esta técnica, los valores de píxel de una imagen en observación (información original) no son alterados. Por lo tanto, la generación de dentado es inevitable del mismo modo que en el documento USP5280546.
El documento USP5054100 también da a conocer una interpolación no lineal. Esta técnica es efectiva para un único desenfoque de la interpolación, que tiene sus bordes en las direcciones de las filas y de las columnas. Sin embargo, no puede obtenerse ese efecto de la técnica para información de imagen ni siquiera ligeramente complicada. De acuerdo con lo anterior, se produce inevitablemente un dentado al igual que en las dos técnicas precedentes.
Adicionalmente, mientras la conversión de resolución de una imagen binaria sujeta a un proceso de pseudo gradación tal como el método de oscilación o el método de difusión de error, la utilización de las técnicas que realizan conversión de resolución de alta calidad mediante la conversión de un píxel de interés y a su vecindad en una imagen multivalor a través de un filtro digital, realizando una interpolación lineal, y binarizando de nuevo la imagen, se conoce desde hace tiempo (por ejemplo, el documento USP4803558 y la Publicación de Patente Japonesa número 61-56665). Se han propuesto métodos que utilizan estas técnicas para realizar una conversión de resolución de alta calidad cuando la imagen original es una imagen multivalor. Sin embargo, a medida que la tecnología de cuantificación, tal como la binarización, se utiliza para la formación de bordes, es difícil formar imágenes multivalor de alta calidad que presenten una continuidad espacial de los valores de píxel.
Resumen de la invención
La presente invención se ha realizado para eliminar los inconvenientes de las técnicas convencionales mencionadas anteriormente y tiene interés en dar a conocer un aparato para el proceso de imágenes y un método para el proceso de imágenes según se indica en las reivindicaciones adjuntas, en el cual cuando una información de entrada de baja resolución es convertida en una información de alta resolución, no se produce un desenfoque debido a la interpolación, lo que es particularmente un problema en imágenes naturales, y no se produce dentado a pesar de la baja resolución de la imagen de entrada original, realizando por tanto un proceso de conversión con una alta calidad de imagen, y, cuando se constituye la información de alta resolución, el proceso no se divide, a diferencia de los procesos con umbral convencionales, de manera que se forma una imagen natural visible continua de manera extremadamente sencilla incluso a partir de una imagen natural.
Es otro interés de la presente invención dar a conocer un aparato para el proceso de imágenes y un método para el proceso de imágenes capaz de formar de manera sencilla a partir de una imagen en color, una imagen en color de alta resolución libre de falta de encuadre del color.
La memoria de la Patente Europea número EP-A-0645736 da a conocer un aparato para el proceso de imágenes para convertir una información de baja resolución en una información de alta resolución utilizando una interpo-
lación.
En un aspecto de la presente invención, se da a conocer un aparato para el proceso de imágenes tal como se indica en la reivindicación 1.
En un segundo aspecto de la presente invención, se da a conocer un método para el proceso de imágenes tal como se define en la reivindicación 25.
Otras características y ventajas de la presente invención serán evidentes a partir de la siguiente descripción tomada en relación a los dibujos adjuntos, en los cuales caracteres de referencia similares designan las mismas o partes similares a lo largo de las figuras de los mismos.
Breve descripción de los dibujos
La figura 1 es un diagrama de bloques que muestra la disposición de la primera realización de la presente invención;
la figura 2 es una vista que muestra una ventana formada por una unidad de formación de una primera ventana;
la figura 3 es una vista que muestra un ejemplo de un filtro suavizador (LPF);
la figura 4 es una vista que muestra una ventana formada por una unidad de formación de una segunda ventana;
la figura 5 es un diagrama de flujo para explicar el proceso de una unidad de clasificación mostrada en la figura 1;
la figura 6 es un diagrama de flujo para explicar el proceso de una unidad de clasificación mostrada en la figura 1;
la figura 7 es una vista que muestra la disposición de una unidad de conversión mostrada en la figura 1;
la figura 8 es una vista que muestra la disposición de un conversor lineal mostrado en la figura 7;
las figuras 9A y 9B son vistas que muestran un ejemplo de una información de imagen y un ejemplo de una información cuantificada de imagen;
la figura 10 es una vista que muestra ejemplos de coeficientes de multiplicación de acuerdo con unos patrones de cuantificación;
la figura 11 es una vista que muestra ejemplos de conversión de valores de píxel en ventanas;
la figura 12 es una vista que muestra la disposición de una unidad de constitución de información de alta resolución mostrada en la figura 1;
la figura 13 es una vista que muestra un ejemplo de la constitución de información de alta resolución;
la figura 14 es una vista que muestra un ejemplo de la constitución de información de alta resolución;
la figura 15 es un diagrama de bloques que muestra la disposición de una segunda realización de la presente invención;
la figura 16 es un diagrama de flujo para explicar el proceso realizado por la unidad de conversión mostrada en la figura 15;
la figura 17 es una vista que explica la conversión a partir de un patrón binario dentro de un patrón de 9 bits;
la figura 18 es una vista que explica el cálculo de H(a,b);
la figura 19 es un diagrama de bloques que muestra las partes principales de una modificación de la primera realización de la presente invención ;
la figura 20 es una vista que muestra un ejemplo de una unidad de constitución de información de alta resolución mostrada en la figura 19;
la figura 21 es una vista que muestra ejemplos de la selección de procesos y del establecimiento de los coeficientes en la figura 12;
la figura 22 es una vista que muestra ejemplos de la selección de procesos y del establecimiento de los coeficientes en la figura 20;
la figura 23 es una vista para explicar la interpolación según el vecino más cercano como técnica anterior;
la figura 24 es una vista para explicar la interpolación bilineal como técnica anterior;
las figuras 25A, 25B y 25C son vistas que muestran un ejemplo de la información de entrada y ejemplos de procesos realizados por los métodos mostrados en las figuras 23 y 24;
la figura 26 es un diagrama de bloques que muestra los componentes principales de la tercera realización de la presente invención;
la figura 27 es una vista que muestra un ejemplo de una ventana;
la figura 28 es un diagrama de bloques que muestra una unidad de selección del color representativo mostrada en la figura 26;
la figura 29 es una vista que muestra una distribución de color;
la figura 30 es una vista que muestra un ejemplo de un método para seleccionar los valores máximo y mínimo de la distribución de color mostrada en la figura 29;
la figura 31 es una vista que muestra un ejemplo de la selección realizada sobre la distribución de color mostrada en la figura 29 por parte de la tercera realización;
la figura 32 es una vista para explicar la gama de colores generados por la selección mostrada en la figura 31;
la figura 33 es un diagrama de flujo que muestra un ejemplo de un proceso para realizar el proceso de la tercera realización mediante programas;
la figura 34 es un diagrama de bloques que muestra las partes principales de la cuarta realización de la presente invención;
la figura 35 es una vista que muestra un cuerpo sólido formado por los valores máximo y mínimo de un espacio de color;
la figura 36 es una vista que muestra un ejemplo de una distribución real de valores de píxel en el cuerpo sólido mostrado en la figura 35; y
la figura 37 es una vista que muestra los ocho vértices del cuerpo sólido mostrado en la figura 35.
Descripción detallada de las realizaciones preferentes
La figura 1 es un diagrama de bloques que muestra un aparato para el proceso de imágenes de la primera realización de acuerdo con la presente invención. El aparato para el proceso de imágenes de la presente invención está incorporado de manera eficiente dentro de un aparato de emisión de imágenes tal como una impresora conectada a un ordenador o una impresora de vídeo para la introducción de señales de vídeo. Sin embargo, también es posible incorporar el aparato para el proceso de imágenes de la presente invención como un aparato para el proceso de imágenes distinto de un aparato de emisión de imágenes, programas de aplicación en un ordenador servidor, o programas controladores de impresora para emitir datos a una impresora.
La secuencia de funcionamiento de esta realización se describirá a continuación con relación al diagrama de bloques de la figura 1. En esta realización, una información de imagen de entrada se convierte en información que tiene los píxeles Nx y Mx en las direcciones de las columnas y las filas.
En la figura 1, el numeral de referencia (100) indica un terminal de entrada para introducir una información de baja resolución de n bits/pixel (n > 1). Se almacenan y se mantienen varias líneas de esta información de baja resolución en la memoria intermedia de línea (101). En base a la información de imagen de estas varias líneas, se dispone una ventana que contiene un píxel de interés y sus píxeles vecinos más cercanos (una unidad (102) de formación de primera ventana). Esta ventana es generalmente un rectángulo que tiene al píxel de interés en su centro, aunque naturalmente también es posible una forma diferente de la rectangular. Se supone que el tamaño de la ventana del rectángulo es de 5x5 píxeles, tal como muestra la figura 2.
Una unidad (103) de detección del valor máximo/mínimo, detecta el valor máximo (MAX5) y el valor mínimo (MIN5) de los veinticinco píxeles del bloque de 5x5 píxeles de la primera ventana, y asimismo detecta el valor máximo (MAX3) y el valor mínimo (MIN3) de los 3x3 píxeles centrados alrededor del píxel de interés.
Una unidad (104) de clasificación evalúa la distribución de valores de píxel a partir de la información de imagen en la ventana y determina el tipo de imagen del píxel de interés. En esta realización, la unidad (104) de clasificación clasifica el píxel de interés comprobando si el píxel de interés tiene las características de una imagen natural, las características de una imagen tal como una imagen CG (Gráficos de ordenador), o las características de una imagen sujeta previamente a un proceso de pseudo gradación de uno a pocos bits, es decir, comprobando una serie de diferentes atributos de imagen, y emite el resultado de la clasificación. El método de clasificación se describirá más adelante.
Una unidad (105) de conversión es un medio para convertir el valor del píxel de interés mediante filtrado. Esta unidad (105) de conversión tiene las características de un LPF (filtro pasa bajos) y elimina las componentes de alta frecuencia que dependen de la resolución de entrada. La figura 3 muestra un filtro suavizador representativo. El filtro mostrado en la figura 3 calcula el valor promedio de nueve píxeles, es decir, el píxel de interés y sus píxeles vecinos más cercanos. Si todos los píxeles son filtrados, se eliminan asimismo todas las componentes importantes de alta frecuencia, por ejemplo, esquinas y líneas delgadas. Por lo tanto, es necesario activar y desactivar el filtro de manera adaptable. En esta realización, para reducir el número de veces de operación producto-suma y para aumentar la velocidad de proceso, la operación se simplifica para aumentar la velocidad de los cálculos de los valores convertidos. Esta unidad (105) de conversión también será descrita más adelante.
Una unidad (106) de formación de segunda ventana es un medio para establecer una ventana sobre los valores de píxel convertidos de manera independiente de la unidad (102) de formación de primera ventana. Se supone que el tamaño de ventana de la unidad (106) de formación de segunda ventana es de 3x3 píxeles centrados alrededor de la posición de píxel de M' como píxel de interés (figura 4).
En referencia a la figura 4, G', H', I', L', M', N', Q', R' y S' indican los valores convertidos de G, H, I, L, M, N, Q, R y S, respectivamente. Para calcular G', H', I', L', M', N', Q', R' y S', como píxel de interés en lugar de M', es necesaria, por lo menos, la primera ventana (figura 2) de 5x5 píxeles. Sin embargo, cuando el proceso para el píxel de interés M se ha completado y la posición se desplaza a N como siguiente píxel de interés, pueden reutilizarse los valores de H', I', M', N', R' y S' si se almacenan los valores convertidos formados cuando M es procesado. De manera análoga, se calculan los valores de J' y O' cuando I, que ya ha sido completamente procesado, pasa a ser el píxel de interés. Si se almacenan los valores convertidos calculados, por lo tanto, un valor convertido que se ha de calcular nuevamente cuando N es el píxel de interés es sólo el valor convertido T' en la posición de píxel de T, lo que resulta en un proceso muy eficiente.
Una unidad (107) de constitución de información de alta resolución constituye la información de imagen de
\hbox{N x M}
píxeles correspondiente al píxel de interés en base a la información (información de primera ventana) en la ventana de la información original, la información (información de segunda ventana) en la ventana de los valores convertidos, la información del valor máximo (MAX5 o MAX3) y del valor mínimo (MIN5 o MIN3) en la primera ventana, y el resultado de la clasificación del píxel de interés. La información de imagen constituida es emitida desde un terminal (108) de salida hacia, por ejemplo, un dispositivo de impresora.
A continuación se describirán detalles de la unidad (104) de clasificación. Las figuras 5 y 6 son diagramas de flujo para explicar el proceso de la unidad de clasificación. Se supone que sólo se utilizan 3x3 píxeles de la primera ventana formada por la unidad (102) de formación de primera ventana para determinar la clasificación. En la etapa (S502), se comprueba si MAX3 y MIN3 son iguales. Si MAX3 y MIN3 son iguales, es posible determinar que sólo existe un nivel de gradación en la ventana de 3x3 píxeles. Es decir, si se determina un SÍ en la etapa (S502), se determina en la etapa (S503) que la clasificación es INDICADOR = NIVEL_UNO. Si se determina un NO en la etapa (S502), se determina que existe una serie de niveles de gradación, y en la etapa (S504) se comprueba si la diferencia entre MAX3 y MIN3 es mayor que un valor umbral definido (th1). Si la diferencia es menor que el valor umbral, se determina en la etapa (S505) que la imagen es una parte plana y la clasificación es INDICADOR = PLANA. Si la diferencia es igual o mayor que el valor umbral, se calcula un valor promedio AVE de MAX3 y MIN3 en la etapa (S506). Después de calcular los tres valores MAX3, MIN3 y AVE, el flujo avanza hacia la etapa (S507) para explorar de nuevo la ventana de 3x3 píxeles, calculando por tanto los siguientes cinco parámetros de evaluación del estado de distribución
NÚMERO_DE_NIVEL
Diferencia_MAX_min
Diferencia_MAX_max
Diferencia_MIN_min
Diferencia_MIN_max
NÚMERO_DE_NIVEL es un parámetro que representa el número de niveles de gradación en la ventana, aunque no es necesaria información precisa del número de gradación. Si la formación de un histograma de valores de píxeles en la ventana es difícil debido a, por ejemplo, que el proceso requiere mucho tiempo, sólo es necesario ser capaz de comprobar si el número de niveles de gradación es 2 (sólo MAX3 y MIN3, NÚMERO_DE_NIVEL = 0) o 3 o más (NÚMERO_DE_NIVEL = 1).
Diferencia_MAX_min representa la diferencia entre un valor (A) igual o mayor que AVE, exceptuando MAX3 y el píxel más cercano a MAX3. De manera similar, Diferencia_MAX_max representa la diferencia entre un valor (B) igual o mayor que AVE, exceptuando MAX3 y el píxel más alejado de MAX3. Si no hay valor mayor que AVE exceptuando MAX3, sólo es necesario dar un valor a estos parámetros para ser capaz de discriminarlos en la determinación posterior, por ejemplo, hacer Diferencia_MAX_min = Diferencia_MAX_max = 0.
Diferencia_MIN_min representa la diferencia entre un valor (C) inferior a AVE, exceptuando MIN3 y el píxel más cercano a MIN3. De manera similar, Diferencia_MIN_max representa la diferencia entre un valor (D) inferior a AVE, exceptuando MIN3 y el píxel más alejado de MIN3. Si no hay ningún valor inferior a AVE exceptuando MIN3, sólo es necesario dar un valor a estos parámetros para ser capaz de discriminarlos en la determinación posterior, por ejemplo, hacer Diferencia_MIN_min = Diferencia_MIN_max = 0.
En base a los cinco diferentes valores descritos anteriormente, se comprueban las características de la imagen en la ventana y se clasifica el atributo de la imagen.
En la etapa (S508) de la figura 6 se comprueba si NÚMERO_DE_NIVEL es 0, es decir, si la ventana tiene dos niveles de gradación o tres o más niveles de gradación. Si se determina un SÍ en la etapa (S508), se determina que la imagen es una parte del borde que tiene sólo dos niveles de gradación. Por lo tanto, en la etapa (S509) se determina que la clasificación es INDICADOR = BORDE_BI. Posteriormente, en la etapa (S510) se realiza la siguiente evaluación.
Es decir, se calcula Diferencia mediante
Diferencia = CONT - (Diferencia_MAX_max + Diferencia_MIN_max),
y se comprueba si diferencia satisface cualquiera de las condiciones 1 y 2 que siguen.
Condición 1. Diferencia > th2 Y Diferencia_MAX_max < th3 Y Diferencia_MIN_max < th3
Condición 2. Diferencia > th4 Y Diferencia_MAX_min > th5 Y Diferencia_MIN_min > th5
Condición 1 O Condición 2? (th2, th3, th4 y th5 son valores umbral definidos)
\hskip2,5cm
... evaluación (1)
Si se determina un SÍ en la etapa (S510), se determina que la imagen presenta las características de un borde constituido de manera artificial. Por lo tanto, en la etapa (S511) se determina que la clasificación es INDICADOR = BORDE_ART.
Si se determina un NO en la etapa (S510), se realiza la siguiente evaluación en la etapa (S512).
Diferencia_MAX_min > th6 Y Diferencia_MIN_min > th6 (th6 es un valor umbral definido)
\hskip0,5cm
...evaluación (2)
(Nótese que se prefiere que th2 > th4 > th6)
Si se determina un SÍ en la etapa (S512), la imagen de entrada puede ser una información de imagen sujeta previamente a un proceso de pseudo gradación. Por lo tanto, en la etapa (S513) se determina que la clasificación es INDICADOR = BORDE_ÍNDICE. Si se determina un NO en la etapa (S512), las características de la imagen son cercanas a las de un borde de una imagen natural. Por lo tanto, en la etapa (S514) se determina que la clasificación es INDICADOR = BORDE_IMAGEN. En las evaluaciones (1) y (2), se evalúa la separación de los valores de píxel de la ventana.
La evaluación 1 indica una distribución denominada "de valle" (condición 1 de (1)) que no tiene valores intermedios, en la cual los valores de píxel existen de manera local cerca de MAX3 o MIN3 y no existe ningún valor intermedio, o bien una distribución discreta (condición 2 de (1)) que está cuantificada completamente de manera regular desde MAX3 hasta MIN3. Por lo tanto, se determina que la imagen es una imagen constituida de manera artificial.
La evaluación 2 indica una distribución "esparcida", en la que, aunque no se halla artificialidad tan significativa como en el caso de la evaluación 1, tanto los valores cercanos a MAX3 como a MIN3 son más bien discretos que continuos. De acuerdo con lo anterior, se determina que la imagen es una información de imagen que originalmente es una imagen natural y cuantificada previamente a pocos bits para, por ejemplo, comprimirla antes de ser introducida en el aparato para el proceso de imágenes de esta realización a través de una línea de transmisión. En la Internet, que está prevaleciendo rápidamente en los últimos años, la información de imagen que tiene pocos bits de pseudo gradación circula a menudo sin tener en cuenta si la información de imagen corresponde a una imagen artificial o a una imagen natural. El borde de una imagen natural tal como una fotografía introducida desde unos medios de captura que tienen un cierto número de niveles de gradación, por ejemplo, un escáner de imagen o una cámara digital, difícilmente constituye una distribución que tiene más o menos tendencia a ser discreta como se ha descrito anteriormente debido, por ejemplo, a la falta de filo de MTF sobre la imagen de entrada. Es decir, siempre se encuentra continuidad en una parte de la distribución.
Lo anterior es un ejemplo de la unidad de clasificación. La unidad de clasificación de esta realización clasifica una imagen según seis tipos diferentes, NIVEL_UNO, PLANA, BORDE_BI, BORDE_ART, BORDE_ÍNDICE y BORDE_IMAGEN. Naturalmente, es posible clasificar una imagen según un número de mayor o menor de tipos.
Asimismo, puede utilizarse información de 5x5 píxeles en lugar de información de 3x3 píxeles, y puede utilizarse la información de MAX5 y MIN5 en combinación con la información de MAX3 y MIN3 en las evaluaciones. Naturalmente, el número de parámetros de evaluación puede ser superior o inferior al de esta realización.
A continuación, se describirán con detalle los cálculos de los valores convertidos. La figura 7 muestra un ejemplo de la unidad (105) de conversión. Tal como se ha descrito previamente, la unidad (105) de conversión funciona como un LPF para eliminar la dependencia con respecto a la resolución de la resolución de entrada. Por lo tanto, se puede utilizar un filtrado digital adaptable, dependiendo del tipo de sistema que se ha de construir. La parte delimitada por líneas de puntos es la unidad de conversión.
En referencia a la figura 7, un cuantificador (602) es un medio para cuantificar cada píxel en la ventana en base a los valores de MAX3 y MIN3. En esta realización, cada valor de píxel es binarizado de manera sencilla estableciendo AVE como valor umbral de la forma que sigue
...(3)AVE = (MAX3 + MIN3)\ / \ 2
El cálculo de AVE puede, naturalmente, ser el mismo que el utilizado en la unidad (104) de clasificación descrita anteriormente.
El numeral de referencia (603) indica una LUT (Tabla de consultas) que recibe la información cuantificada de la ventana y emite valores almacenados en la tabla. La tabla almacena las relaciones de mezcla relativas de MAX3 y MIN3 con respecto a los patrones de cuantificación. En base a esta relación de mezcla, un conversor lineal (604) realiza una conversión lineal mediante una operación de producto-suma. El valor convertido linealmente es emitido como un valor convertido (F(p,q)).
La figura 8 es una vista que muestra la disposición interna de un conversor lineal (604). Un bloque delimitado por líneas de puntos indica el conversor lineal (604). Se supone que una señal de entrada tiene una información de profundidad de n bits. La entrada de información al conversor lineal incluye tres valores diferentes, es decir, MAX3, MIN3, y un valor de salida \alpha de la LUT. Sea la longitud de bits de \alpha de m bits. Un multiplicador (701) calcula el producto de \alpha con MAX3, y un multiplicador (702) calcula el producto de (2^m - \alpha) y MIN3 (2^m significa la potencia m-ésima de 2). Un sumador (703) suma estos productos, y un registro (704) de desplazamiento de bit realiza un proceso de desplazamiento de bit sobre la suma resultante. Este proceso de desplazamiento de bit devuelve la longitud de bit, que se ha visto incrementada a (n x m) bits debido a las multiplicaciones a la señal de n bits, es decir, desplaza la longitud de bit en m bits. Es preferible determinar experimentalmente un valor adecuado a la configuración del sistema como el valor de m.
Sin embargo, si la longitud de bit de \alpha es de m bits, los valores que \alpha puede tomar están comprendidos entre 0 y (2^m-1). Por lo tanto, en la disposición mostrada en la figura 8, el coeficiente de multiplicación de MAX3 va de 0 a (2^m-1), y el coeficiente de multiplicación de MIN3 va de 1 a (2^m). Para que los dos coeficientes de multiplicación vayan de 0 a (2^m), es posible aumentar la longitud de bit de \alpha en un bit o cambiar ligeramente la asignación de los coeficientes para seleccionar (2^m) coeficientes utilizables de entre los (2^m + 1) coeficientes que van de 0 a (2^m). En cualquier caso, el coeficiente de multiplicación se hace, de manera natural, igual a los n bits como la longitud de bit de las entradas MAX3 y MIN3 en el proceso realizado por el registro (704) de desplazamiento de bit.
Es decir, suponiendo que \alpha es un coeficiente que va de 0 a 1 después de su normalización, el conversor lineal (604) calcula el valor convertido F(p,q) como sigue.
... (4)F(p,q) = \alpha MAX3 + (1 - \alpha) \ MIN3
El cálculo de los valores convertidos se describirá a continuación tomando un proceso real como ejemplo.
La figura 9A muestra una información de entrada de baja resolución. En relación a la figura 9A, una parte delimitada por líneas discontinuas es una ventana de 3x3 píxeles para hacer referencia a los píxeles vecinos más cercanos, y un píxel dispuesto en una parte central delimitada por líneas continuas es un píxel de interés. En la figura 9A,
\hbox{MAX3 =}
215, MIN3 = 92, y cada valor de píxel se binariza de manera sencilla utilizando como valor umbral AVE = 153 en base a la ecuación (3). La figura 9B muestra el resultado de la binarización en la ventana.
La figura 10 muestra ejemplos del coeficiente \alpha (\alpha es una información de 8 bits) almacenado en la LUT. Como se ha descrito previamente, \alpha es el coeficiente de multiplicación de MAX3 del píxel de interés con respecto al patrón binario de nueve píxeles de la ventana. En base a este coeficiente de multiplicación, las operaciones de producto-suma de la conversión lineal de MAX3 y MIN3 se realizan mediante la utilización de la configuración mostrada en la figura 8. Debido a que de la figura 10 se determina que \alpha = 141 en el patrón mostrado en la figura 9B, se calcula un valor convertido 160 mediante
(215 \ \text{*} \ 141 + 92 \ \text{*} \ 114) \ / \ 255 = 160
La figura 11 muestra ejemplos obtenidos mediante la conversión de manera similar de los píxeles vecinos más cercanos. El numeral de referencia (1101) indica una información original; y (1102), un valor convertido. Resulta evidente a partir de (1102) que se alcanza el efecto de un LPF mediante un número pequeño de ejecuciones de una operación de producto-suma. Asimismo, la utilización de la LUT aumenta el grado de libertad en comparación con el filtrado digital convencional en el cual se conmutan de manera adaptable una serie de diferentes tipos de fil-
tros.
A continuación, se describirá con detalle la formación de la información de alta resolución.
La figura 12 muestra la disposición de una unidad (107) de constitución de información de alta resolución. En relación a la figura 12, una parte delimitada por las líneas de puntos es la unidad (107) de constitución de información de alta resolución. Una señal de entrada a la unidad (107) de constitución de información de alta resolución incluye la información del valor de píxel de la ventana, suministrada desde la unidad (102) de formación de primera ventana, la información del valor máximo/mínimo (MAX3 y MIN3) de la ventana, la información del valor convertido (figura 9) de la ventana suministrada por la unidad (106) de formación de segunda ventana, y la información de identificación del tipo de imagen del píxel de interés suministrada por la unidad (104) de clasificación. En la figura 12, el numeral de referencia (1201) indica una unidad de interpolación de orden cero (equivalente a la interpolación convencional según el vecino más cercano); (1202) indica una unidad de interpolación lineal (equivalente a una interpolación bilineal convencional); y (1203) y (1204), indican unidades de interpolación no lineal. Las unidades (1203) y (1204) tienen la misma disposición excepto que la información del valor de píxel de la ventana que se ha de procesar es diferente. Los numerales de referencia (1205) y (1206) indican unidades de establecimiento de coeficientes para establecer coeficientes utilizados en las unidades de interpolación no lineal de acuerdo con la información del tipo de imagen identificada por la unidad de clasificación. Las unidades de interpolación no lineal (1203) y (1204) calculan valores interpolados según las siguientes operaciones que incluyen una interpolación lineal.
\newpage
arriba[i][j] = (a*MAX3+b*datos_intermedios[i][j]) / (a+b)
abajo[i][j] = (a*MIN3+b*datos_intermedios[i][j]) / (a+b)
intermedio[i][j] = c*datos_intermedios[i][j]+d*MAX3+d*MIN3+e*MAX5+e*MIN5
i ... 0 a N-1
j ... 0 a M-1
En base a los valores arriba[i][j], abajo[i][j], y intermedio[i][j] descritos anteriormente,
(A) si intermedio[i][j] \geq arriba[i][j],
SALIDA[i][j] = arriba[i][j]
(B) si intermedio[i][j] \leq abajo[i][j],
SALIDA[i][j] = abajo[i][j]
(C) en otros casos
SALIDA[i][j] = intermedio[i][j]
a, b, c, d y e son coeficientes
datos_intermedios[i][j] es un valor interpolado de un punto[i][j] de interpolación obtenido por interpolación lineal
SALIDA[i][j] es un valor de salida del punto[i][j] de interpolación de la unidad de interpolación no lineal
\hskip15,3cm
...5)
La operación aritmética de interpolación lineal (cálculo de datos_intermedios[i][j]) utilizada en la unidad de interpolación no lineal puede utilizarse naturalmente en la unidad (1202) de interpolación lineal.
Las figuras 13 y 14 muestran los lugares geométricos de los valores "arriba", "abajo", y "intermedio" descritos anteriormente, de manera unidimensional análoga, para simplificar la explicación. La figura 13 muestra un ejemplo que utiliza la información del valor de píxel de la unidad de formación de primera ventana. En la figura 13, la coordenada espacial se dibuja según la abscisa, y la densidad se dibuja según la ordenada. Suponiendo que el píxel de interés es q, los valores de píxel que se han de observar son I[q] indicados por puntos negros (los valores de píxel que están antes y después, espacialmente hablando, del píxel de interés son I[q-1] y I[q+1]). El campo obtenido cuando el píxel de interés es ampliado se ilustra de manera análoga como un bloque del píxel de interés. A partir de la relación de tamaños entre los tres lugares geométricos de arriba, abajo y medio, un lugar geométrico indicado por la línea gruesa es una salida de SALIDA. Los coeficientes utilizados son a = 1, b = 1, c = 2, d = -1/2, y e = 0. Resulta evidente de la figura 13 que puede realizarse una interpolación no lineal que hace pronunciado el gradiente del borde.
La figura 14 muestra un ejemplo que utiliza la información del valor convertido de la unidad (106) de formación de segunda ventana. Además de los valores de píxel que se han de observar, los puntos indicados con puntos blancos representan valores de píxel después de la conversión utilizando un LPF adaptable. Sin embargo, por motivos de simplicidad, los píxeles que se han de observar en la primera ventana se muestran asimismo en la figura 14, para indicar la relación posicional respecto los valores convertidos. La constitución de información de alta resolución que utiliza la segunda ventana es ligeramente diferente en cuanto a la posición del borde comparada con la que utiliza la primera ventana. Esta diferencia entre las posiciones del borde representa un gran efecto en cuanto a la reducción del dentado.
Los coeficientes utilizados en la figura 14 son a = 3, b = 1, c = 4, d = -3/2 y e = 0.
En ambas figuras 13 y 14, se supone que I[q-1] es MIN3 y que I[q+1] es MAX3 por motivos de simplicidad. Sin embargo, en cualquier caso, esta realización puede, por supuesto, realizar una buena interpolación no lineal. Asimismo, los coeficientes individuales deben establecerse de manera tal que se mantiene la continuidad no sólo dentro de cada bloque sino también entre bloques.
En la figura 12, el numeral de referencia (1207) indica un conmutador para seleccionar un proceso óptimo desde (1201) a (1204) de acuerdo con la señal de identificación de la unidad de clasificación.
La figura 21 muestra la conmutación entre procesos y el establecimiento de los coeficientes realizado por la unidad (104) de clasificación, en forma de una tabla. Estos coeficientes son tan sólo ejemplos, y, de manera similar a los valores umbral (th0 a th6) utilizados en la unidad de clasificación, sólo es necesario obtener experimentalmente los coeficientes que mejor se adaptan a un sistema de impresión real. Asimismo, la conmutación entre procesos es tan sólo un ejemplo, y sólo es necesario obtener experimentalmente los tipos de imagen necesarios y acompañar la conmutación junto con los tipos de imágenes clasificados.
En esta realización, las operaciones de producto-suma de la unidad de interpolación lineal y los valores representativos de la ventana se describen en forma de la ecuación (5) para simplificar la explicación. Sin embargo, debido a que la interpolación lineal en sí misma es una operación de producto-suma, estos cálculos pueden describirse en forma de una única operación de producto-suma. Es decir, la interpolación lineal se realiza mediante una operación de producto-suma para los valores de píxel de cuatro puntos que se han de observar, incluyendo el punto de interpolación.
Por lo tanto, si los cuatro puntos MAX3, MIN3, MAX5 y MIN5 se utilizan como los valores representativos de la ventana tal como se ha descrito anteriormente, puede realizarse la interpolación no lineal mediante una operación de producto-suma para un total de ocho puntos.
La figura 19 muestra una modificación de la disposición mostrada en la figura 1. Los mismos numerales de referencia de la figura 1 indican las mismas partes en la figura 19, y se omitirá una descripción detallada de las mismas. En relación a la figura 19, una unidad (1900) de formación de primera ventana emite la información del valor de píxel de los 5x5 o veinticinco píxeles centrados alrededor del píxel de interés como se ha descrito previamente. La unidad (1900) de formación de primera ventana emite asimismo la información del valor de píxel de sólo el píxel de interés hacia una unidad (1902) de constitución de información de alta resolución. Una unidad (1901) de conversión realiza la conversión desempeñando el papel de un LPF adaptable como en la figura 1. La unidad (1901) de conversión de esta modificación recibe información desde la unidad (104) de clasificación y ejecuta la conversión mediante la adición de la información de atributo clasificado. Es decir, la unidad (105) de conversión mostrada en la figura 1 calcula los valores convertidos sólo según patrones de 3x3 píxeles, mientras que la unidad (1901) de conversión cambia su método de cálculo según cada clasificación. Por ejemplo, cuando el atributo de un píxel de interés clasificado es NIVEL_UNO, PLANA, BORDE_ÍNDICE o BORDE_IMAGEN, el valor de este píxel de interés puede utilizarse directamente como un valor convertido. Es decir, suponiendo que la conversión es un LPF adaptable, este filtro puede ser considerado como un filtro de paso. Debido a que la información de imagen tiene una fuerte correlación entre píxeles adyacentes, un atributo clasificado para cada píxel de interés raramente cambia. Incluso cuando se determina la clasificación de cada píxel de interés, a menudo se obtiene el mismo resultado de la determinación en una cierta área unitaria pequeña. Es decir, la unidad de formación de segunda ventana y la unidad de formación de primera ventana pueden hacerse equivalentes entre sí mediante la utilización de la unidad de conversión como un filtro de paso sin transmitir la información de los veinticinco o de los nueve píxeles de la ventana formada por la unidad de formación de primera ventana hacia la unidad de constitución de información de alta resolución.
Es decir, las ventanas pueden combinarse en una única ventana mediante la utilización de un filtro de paso de manera parcial.
La unidad (1902) de constitución de información de alta resolución recibe la información del valor de píxel de la segunda ventana, la información del valor máximo/mínimo (MAX5, MIN5, MAX5 y MIN3), y la información de atributo clasificado.
La figura 20 muestra la unidad (1902) de constitución de información de alta resolución. Una parte delimitada por las líneas de puntos indica la unidad (1902) de constitución de información de alta resolución. Los mismos numerales de referencia de la figura 12 indican las mismas partes que en la figura 20. Esta unidad (1902) de constitución de información de alta resolución comprende una unidad (1201) de interpolación de orden cero, una unidad (1202) de interpolación lineal, y una unidad (1204) de interpolación no lineal. Un conmutador (200) selecciona una de las unidades de interpolación que se han de utilizar. En esta modificación, sólo se utiliza la información del valor de píxel convertido. Por lo tanto, los elementos de selección de los procesos y el establecimiento de los coeficientes son como se muestran en la figura 22.
Tal como se ha descrito anteriormente, esta realización está dirigida a la combinación efectiva del "LPF adaptable" con la "interpolación no lineal".
Es decir, para eliminar una parte de una información de imagen de entrada que depende de la resolución de entrada, es necesario suavizar de manera adaptable para separar las componentes de alta frecuencia de la resolución de entrada. Sin embargo, cuando sólo se obtiene a la salida las componentes de baja frecuencia que pasan, el resultado es una imagen desenfocada. Por lo tanto, es esencial la interpolación no lineal que forma nuevas componentes de alta frecuencia que cumplen con la resolución de salida. Las propiedades no lineales pueden producirse mediante la extracción de los valores de píxel representativo (equivalentes a los valores máximo y mínimo en esta modificación) de entre los píxeles vecinos más cercanos, y realizando una operación de producto-suma adaptable de la interpolación lineal y los valores de píxel representativo. Además, la no linealidad puede ser controlada fácilmente mediante la conmutación u optimización de los coeficientes de la operación de producto-suma. También es posible cambiar los coeficientes de manera dinámica y continua, en base al contraste de borde, en lugar de conmutarlos paso a paso. La idea básica para imágenes CG y de línea se mantiene para el caso de imágenes naturales. En el caso de una imagen natural, sin embargo, se requiere que la calidad de una imagen de salida posea "naturalidad". Por lo tanto, la información de imagen no puede desviarse demasiado de la información de entrada. Sin embargo, si sólo se realiza una interpolación lineal, se produce un desenfoque de la interpolación debido a la reducción de componentes de alta frecuencia. Por lo tanto, para formar nuevas componentes de alta frecuencia una interpolación no lineal que realiza una operación de producto-suma adaptable de la interpolación lineal y unos valores de píxel representativo en los píxeles vecinos más cercanos son esenciales para mejorar la calidad de la imagen.
Cuando se utiliza el proceso de esta realización, una imagen que se adecua a una alta resolución de salida se puede formar sin tener en cuenta el atributo de la imagen o la amplificación del proceso. Por supuesto, es posible conmutar diferentes coeficientes mediante la utilización de la amplificación como un coeficiente de evaluación o bien mediante la evaluación de la resolución absoluta de salida real (un valor numérico representado, por ejemplo, por dpi (punto por pulgada) o ppi (pixel por pulgada)).
Segunda realización
La figura 15 es un diagrama de bloques de la segunda realización de acuerdo con la presente invención. En esta segunda realización, se describirá la conversión de resolución de imágenes en color. Cuando se introduce una imagen en color, se puede formar una buena imagen de salida mediante el proceso de la imagen de entrada para cada componente de color (por ejemplo, para el Rojo, el Verde o el Azul) utilizando la disposición del diagrama de bloques mostrado en la figura 1. Sin embargo, la medida en que se reduce el dentado difiere de un color a otro en una unidad de constitución de información de alta resolución que utiliza una interpolación no lineal. A veces esto lleva a una falta de encuadre del color en los bordes o similares e impiden que la mejora de la calidad de la imagen. Asimismo, en la Internet, que está prevaleciendo rápidamente en los últimos años, se utilizan a menudo imágenes a las que se les ha dado una pseudo gradación utilizando paletas de unos pocos bits. Cuando a una imagen se le da esta pseudo gradación, a veces tiene lugar una falta de encuadre del color en el borde de la imagen. Es difícil constituir una información de imagen de alta resolución de alta calidad a partir de información de imagen que tiene esta falta de encuadre del color antes de ser introducida en un aparato para el proceso de imágenes de la segunda realización, sólo mediante el proceso de la imagen de entrada utilizando la disposición mostrada en la figura 1 para cada color.
Los objetivos, por tanto, de esta segunda realización son
(1) evitar la falta de encuadre del color en el aparato para el proceso de imágenes, y
(2) corregir una imagen que originalmente tiene una ligera falta de encuadre del color mediante la utilización de un aparato para el proceso de imágenes, formando por lo tanto una información de alta resolución mejor que en la disposición mostrada en la figura 1.
En la figura 15, los numerales de referencia (1500), (1501), y (1502) indican terminales de entrada para la entrada de las señales R, G y B respectivamente. Las memorias intermedias de línea (1503), (1504) y (1505) almacenan unas pocas líneas de información de imagen de sus respectivas componentes de color. Las unidades de formación de primera ventana (1506), (1507) y (1508) forman las ventanas mostradas en la figura 2 para sus diferentes componentes de color.
Las unidades de detección del valor máximo/mínimo (1509), (1510), y (1511) detectan los valores máximo y mínimo en 5x5 píxeles y en 3x3 píxeles, como en la disposición mostrada en la figura 1. Las unidades de clasificación (1512), (1513) y (1514) clasifican el atributo del tipo de imagen del mismo modo que en la primera realización descrita anteriormente.
El numeral de referencia (1515) indica una unidad de conversión que es el rasgo caracterizante de la segunda realización. Esta unidad (1515) de conversión recibe la información del valor de píxel de cada componente de color de la primera ventana y la información del valor máximo/mínimo de cada componente de color, y calcula un valor convertido de cada componente de color.
Los numerales de referencia (1516), (1517), y (1518) indican unas unidades de formación de segunda ventana, cada una de las cuales es un medio para formar una ventana de los valores convertidos de un píxel de interés y de sus píxeles vecinos más cercanos de la componente de color correspondiente. Las unidades (1519), (1520) y (1521) de constitución de información de alta resolución constituyen información de alta resolución que se equipara con la resolución de salida para sus respectivas componentes de color.
La única diferencia de la segunda realización respecto la disposición mostrada en la figura 1 es la unidad (1515) de conversión, de manera que se omitirá la descripción de los otros bloques.
La figura 16 es un diagrama de flujo para explicar el proceso realizado por la unidad (1515) de conversión. La segunda realización está caracterizada por el método de cálculo del coeficiente de producto-suma \alpha de MAX3 en la primera realización descrita anteriormente. La disposición para calcular los valores convertidos mediante la operación de producto-suma de MAX3 y MIN3 en base a la ecuación (4) es la misma que en la primera realización. En la etapa (S1601), se calcula el contraste (CONT) en 3x3 píxeles para cada color según la siguiente ecuación.
CONT = MAX3 - MIN3
\newpage
Naturalmente, este cálculo de CONT puede ser el mismo que se utiliza en las unidades de clasificación.
Posteriormente, en la etapa (S1602) los valores de CONT de los colores individuales se comparan para detectar un color que tiene un CONT máximo. Es decir, se detecta cual de la R, G, B tiene el contraste máximo. Por motivos de simplicidad, se supone que un color que tiene el máximo contraste es X y que los otros colores son Y y Z. Por ejemplo, si la componente G tiene el contraste máximo en los 3x3 píxeles, X = G, Y = R y Z = B.
La relación de tamaño entre Y y Z se ignora, de manera que cualquiera de los colores que no tiene contraste máximo puede ser introducido en Y.
En la etapa (S1603), se calculan las dos siguientes conversiones
XY = H(PAT(X),PAT(Y))
...(7)XZ = H(PAT(X),PAT(Z))
PAT(X), PAT(Y), y PAT(Z) indican patrones cuantificados de 3x3 píxeles de los colores X, Y, y Z respectivamente. Es decir, como en la disposición mostrada en la figura 7, la cuantificación (binarización) se realiza sobre nueve píxeles en base al AVE calculado mediante la ecuación (4) para cada color. Debido a que cada píxel, después de la binarización, se expresa con un bit, el patrón binario de los nueve píxeles puede expresarse con una información de 9 bits. La figura 17 muestra la formación de esta información de 9 bits. En referencia a la figura 17, G'', H'', I'', L'', M'', N'', Q'', R'' y S'' indicados por (1701), indican los resultados de la binarización de los píxeles G, H, I, L, M, N, Q, R y S, respectivamente, utilizando AVE como valor umbral. Estos nueve píxeles son dispuestos nuevamente como es indicado por numeral de referencia (1702) para formar una información de 9 bits.
H(a,b) en la ecuación (7) es una función para realizar una O exclusiva de a y b, en unidades de bits y para calcular el número de "1" generados.
La figura 18 muestra un ejemplo. El numeral de referencia (1801) indica un patrón de a = "405"; (1802) indica un patrón de b = "470"; y (1803) indica un patrón de a(O-EXCLUSIVA)b. En estos patrones de 9 píxeles, los píxeles negros representan "1" y los otros píxeles representan "0".
La función H() descrita anteriormente es equivalente al número de "1" en los nueve píxeles de
\hbox{a(O-EXCLUSIVA)b,}
de manera que H(1,b)=3. Es decir, H() representa valores numéricos que van de 0 a 9.
Después de que se calculen los valores de XY y XZ mediante la ecuación (6), se calcula, en la etapa (S1604) un coeficiente de producto-suma \alpha(X) para el color X. LUT(PAT(A)) indica un valor de salida de la LUT mostrada en la figura 7, cuando el valor de PAT(A) es introducido en la tabla. A continuación, se comprueba si el valor de XY es inferior a 3 en la etapa (S1605). Si el valor es inferior a 3, es decir, 0, 1 ó 2, se calcula un coeficiente de producto-suma \alpha(Y) para el color Y en la etapa (S1606). Si este es el caso, el coeficiente de producto-suma del color Y es el mismo que el coeficiente de producto-suma del color X. Si el valor de XY es 3 o superior, se comprueba si el valor de XY es superior a 6 en la etapa (S1607). Si el valor es superior a 6, es decir, 7, 8 ó 9, se calcula el coeficiente de producto-suma \alpha(Y) del color Y en la etapa (S1608). Si este es el caso, se calcula el coeficiente de producto-suma del color Y restándole \alpha(X) a 256. Es decir, este valor es el mismo que el coeficiente de producto-suma de MIN3 del color X. Si XY es 3, 4, 5 ó 6, se calcula el coeficiente de producto-suma \alpha(Y) en la etapa (S1609). Este \alpha(Y) se calcula introduciendo el patrón PAT(Y) del color Y en la LUT.
Las etapas (S1610), (S1611), (S1612), (S1613) y (S1614) indican un método similar para calcular un producto-suma \alpha(Z). Debido a que este método es el mismo que el método para calcular \alpha(Y) descrito anteriormente, se omitirá una descripción del mismo.
En base a los coeficientes de producto-suma \alpha calculados para los colores individuales, los valores convertidos de estos colores se calculan en base a la ecuación (4) descrita anteriormente.
En el diagrama de flujo mostrado en la figura 16, la aproximación (grado de falta de encuadre) de cada color es evaluada fácilmente mediante la utilización de la operación de bit de O-EXCLUSIVA, y se corrige la falta de encuadre en base al resultado de la evaluación. Cuando la aproximación es alta, es decir, cuando la falta de encuadre de un patrón es igual o inferior a un cierto valor umbral (en el ejemplo anterior, cuando cada XY y XZ es 0, 1, 2, 7, 8 ó 9), se le da prioridad a un color que tiene el contraste máximo, y se utiliza el coeficiente de producto-suma que se equipara a este color de contraste máximo. Es decir, debido a que la magnitud del desencuadre es pequeña, se corrige la falta de encuadre antes de la entrada mediante la utilización del mismo coeficiente de producto-suma para la conversión de los diferentes colores. Asimismo, cuando se utiliza el mismo coeficiente de producto-suma para diferentes colores, la constitución de información de alta resolución realizada por una interpolación no lineal puede ser controlada de esa manera para producir un pequeño desencuadre para cada color. Es decir, los objetivos mencionados anteriormente pueden ser satisfechos. Por otro lado, cuando la aproximación es escasa, es decir, cuando la falta de encuadre de un patrón es grande, se determina que la imagen se ha desencuadrado intencionadamente, y se utiliza un coeficiente de producto-suma original para ese color. Nótese que los valores umbral utilizados en la figura 16 no se limitan a "3" y "6", y pueden utilizarse cualquiera de los valores calculados experimentalmente.
Aunque los cálculos de los valores convertidos en base a la magnitud del desencuadre de un patrón se han descrito anteriormente, los atributos de imagen en la unidad de clasificación pueden cambiarse asimismo en base a la magnitud del desencuadre. De manera recíproca, los cálculos de los valores convertidos pueden cambiarse en base al resultado de la clasificación. Por ejemplo, cuando en la unidad de clasificación se detecta el NIVEL_UNO o PLANA, descritos previamente, se puede utilizar directamente el valor de un píxel de interés como un valor convertido. Esto es efectivo para aumentar la velocidad de proceso.
Asimismo, en el ejemplo mostrado en la figura 16, un color que tiene el contraste máximo se considera como un color prioritario. Sin embargo, cuando las componentes de color son Y, Cr y CB, por ejemplo, la componente Y puede ser procesada previamente como un color prioritario.
En la disposición mostrada en la figura 16, se procesan en paralelo una serie de colores unos respecto a otros. Ya que esto es para simplificar la explicación, el proceso en serie es naturalmente posible.
Adicionalmente, aunque en el ejemplo anterior se procesan 3x3 píxeles, también pueden procesarse 5x5 píxeles de manera similar.
En esta realización de la presente invención, como se ha descrito anteriormente, cuando una información de entrada de baja resolución se convierte en información de alta resolución, no se produce un desenfoque de la interpolación, lo cual es un problema particularmente en imágenes naturales. Además, se puede llevar a cabo un proceso de conversión con alta calidad de imagen en el que no se produce nada de dentado sin tener en cuenta la baja resolución de la información original de entrada. Asimismo, cuando se constituye la información de alta resolución, el proceso no se divide según el proceso de umbral convencional. De acuerdo con lo anterior, se puede formar una imagen visible y suave, con continuidad, de manera extremadamente sencilla incluso a partir de una imagen natural. Adicionalmente, unos medios de clasificación de alta calidad pueden clasificar fácilmente diferentes tipos de imagen. En la constitución de información de alta resolución a partir de las imágenes clasificadas, se realiza una interpolación no lineal, correspondiente a cualquier tipo de imagen, sólo cambiando el establecimiento de los coeficientes. Asimismo, se puede formar de manera sencilla una imagen en color de alta resolución y de alta calidad, sin producir ningún desencuadre para ningún color.
Tal como se ha descrito anteriormente, es posible, mediante la utilización del proceso de conversión de resolución de esta realización, proporcionar diferentes productos, tales como una impresora, una vídeo impresora, y programas de aplicación, capaces de emitir imágenes de alta calidad partiendo incluso de imágenes que circulan por Internet o imágenes con una cantidad de información pequeña, por ejemplo, imágenes introducidas desde una cámara de vídeo digital.
En la primera y segunda realización, tal como se ha descrito anteriormente, cuando una información de entrada de baja resolución se convierte en información de alta resolución, no se produce un desenfoque de la interpolación, lo cual es un problema particularmente en imágenes naturales. Además, puede llevarse a cabo un proceso de conversión con alta calidad de imagen en el que no se produce ningún dentado, sin tener en cuenta la baja resolución de la información original de entrada. Asimismo, cuando se constituye la información de alta resolución, el proceso no se divide según el proceso de umbral convencional. De acuerdo con lo anterior, se puede formar una imagen visible y suave, con continuidad, de manera extremadamente sencilla incluso a partir de una imagen natural. Adicionalmente, se puede formar de manera sencilla una imagen en color de alta resolución y de alta calidad, sin producir ningún desencuadre para ningún color.
Tercera realización
La segunda realización descrita anteriormente puede presentar el siguiente problema.
Se supone que una información de imagen en color, por ejemplo, información de imagen del espacio de colores RGB, es introducida en unidades de ocho bits por píxel. En la segunda realización anterior, el proceso se realiza para cada componente de color. Es decir, se detectan los valores máximo y mínimo en una ventana de píxeles vecinos más cercanos que rodean un píxel de interés, y se realizan diferentes procesos para constituir una información de alta resolución utilizando estos dos valores.
Esto será descrito a continuación en relación a las figuras 35, 36 y 37. La figura 35 muestra un espacio de color RGB. En la figura 35, un espacio tridimensional está formado por tres ejes de R, G y B. Un cuerpo sólido (A) mostrado en la figura 35 está constituido por los valores máximo y mínimo de cada color en una ventana vecina más cercana de un cierto píxel de interés. Cada uno de los ejes R, G, y B tiene dos valores diferentes, es decir, los valores máximo y mínimo de la ventana. Por lo tanto, el cuerpo sólido (A) es un hexaedro que tiene ocho vértices.
La figura 36 muestra un ejemplo de una distribución tridimensional de valores de píxel existentes realmente en la ventana. Los círculos blancos representan puntos de coordenadas donde estos valores de píxel existen. En base a los valores de píxel existentes indicados por O, se detectan los valores máximo y mínimo de cada eje para formar el cuerpo sólido (A). Un cuerpo sólido formado por los valores de píxel existentes es, naturalmente, un cuerpo sólido pequeño contenido en el cuerpo sólido (A). En otras palabras, los valores de píxel existentes en la ventana no incluyen necesariamente los ocho vértices (indicados mediante círculos negros en la figura 37) del cuerpo sólido (A).
Sin embargo, en la segunda realización descrita anteriormente, el valor de salida de cada color es determinado en base a los valores máximo y mínimo de manera independiente de los otros colores. Por lo tanto, este valor de salida puede tomar un valor que está fuera de un cuerpo sólido pequeño contenido dentro del cuerpo sólido (A). Los puntos más extremos entre los otros puntos son los ocho vértices del cuerpo sólido (A). Si se produce un valor extremo fuera de un cuerpo sólido pequeño real, se genera un color singular no generado en una imagen de entrada, y este color permanece visiblemente. Inevitablemente, esto hace que una imagen de salida de una mala impresión a un observador.
En la tercera realización de la presente invención, por lo tanto, cuando se producen datos de imagen en color de alta resolución a partir de datos de imagen en color de entrada, se pueden producir datos de imagen en color de alta resolución y alta calidad mediante la eliminación de la falta de encuadre del color y la generación de colores singulares.
A continuación, se describirá con detalle la tercera realización de acuerdo con la presente invención en relación a los dibujos adjuntos.
La figura 26 es un diagrama de bloques que muestra los componentes principales de un aparato para el proceso de imágenes de acuerdo con la tercera realización. Nótese que el aparato para el proceso de imágenes mencionado en este caso puede ser un aparato generador de imagen tal como una impresora conectada a un ordenador o una impresora de vídeo sobre la que se aplican señales de vídeo. Sin embargo, este aparato para el proceso de imágenes puede ser asimismo un circuito de proceso interno de dicho aparato de emisión de imágenes. De manera alternativa, el aparato para el proceso de imágenes puede ser un aparato distinto de un aparato de emisión de imágenes. Por ejemplo, el aparato para el proceso de imágenes puede ser incorporado como programas de aplicación internos de un ordenador o como programas controladores de impresora para emitir datos a una impresora. Es decir, que tal como resultará evidente a partir de la siguiente descripción, la presente invención no sólo incluye equipos o hardware sino también programas.
A continuación, se describirá la secuencia de funcionamiento de la tercera realización en relación al diagrama de bloques de la figura 26. En esta realización, la información de imagen de entrada es convertida en información que tiene Nx y Mx píxeles.
En la figura 26, los numerales de referencia (1100), (1101) y (1102), indican terminales de entrada a través de los cuales se introduce una información de imagen en color de baja resolución. Más específicamente, los terminales de entrada (1100), (1101) y (1102) introducen información de imagen de componentes R, G y B respectivamente. Para simplificar la explicación, los terminales de entrada se disponen en paralelo para las componentes R, G y B. Sin embargo, estas componentes también pueden ser transmitidas en serie desde un terminal de entrada.
La secuencia de entrada de la información de imagen RGB puede ser tanto una secuencia de puntos como una secuencia de línea. Las memorias intermedias (1103) de línea almacenan y mantienen de manera independiente unas pocas líneas de esta información de imagen de baja resolución según sus respectivos colores.
A partir de esta información de imagen de unas pocas líneas, se establece una ventana de una serie de píxeles vecinos más cercanos de dos dimensiones, que incluye un píxel de interés, para cada R, G y B (unidades (1104) de establecimiento de ventana).
Como se muestra en la figura 27, esta ventana es un rectángulo que tiene el píxel de interés en su centro. Sin embargo, la ventana puede tener de manera natural una forma diferente al rectángulo. En relación a la figura 27, el asterisco en el centro indica un píxel de interés (E), y este píxel de interés (E) y los ocho píxeles vecinos más cercanos que rodean al píxel de interés (E) constituyen la ventana.
Una unidad (1105) de selección del color representativo selecciona dos colores existentes a partir de la información de imagen en tres ventanas diferentes de R, G y B. En la ventana mostrada en la figura 27, por ejemplo, existen un máximo de nueve colores si todos los nueve píxeles en la ventana tienen colores diferentes (combinaciones de componentes R, G y B). La unidad (1105) de selección del color representativo es un medio para seleccionar dos colores de entre estos nueve colores. Si los nueve píxeles en la ventana tienen el mismo color, el color existente es, por supuesto, solamente un color. Por lo tanto, sólo se emite este color. La configuración de la unidad (1105) de selección del color representativo se describirá posteriormente.
Las unidades (1106) de suavizado son medios para suavizar de manera independiente el píxel de interés y de sus píxeles vecinos más cercanos según sus colores respectivos. El proceso de suavizado puede lograrse mediante un LPF (filtro pasa bajos).
De manera alternativa, es posible convertir cantidades de características tales como patrones en valores numéricos en base al estado de distribución del valor de píxel en la ventana y calcular valores después del suavizado mediante la introducción de estos valores numéricos en una LUT (tabla de consultas). En cualquier caso, el proceso de suavizado es importante porque es esencial para eliminar la dependencia respecto a la resolución de la información de entrada de baja resolución. Sin embargo, una imagen tal como una imagen natural, que originalmente tiene una pequeña dependencia respecto la resolución cuando es introducida, puede pasar también a través del suavizado para no perder información de detalle.
Las unidades de interpolación (1107) realizan de manera independiente una interpolación lineal para sus diferentes colores. Aunque el proceso de la unidad de interpolación no se limita a interpolación lineal, la interpolación lineal es un método capaz de obtener el máximo efecto más fácilmente. Esta unidad de interpolación incrementa en un píxel de interés el número de píxeles que corresponden a la resolución de salida.
Por ejemplo, en una conversión en la que una información de imagen de 72 dpi (punto por pulgada) se emite a una impresora de 720 dpi, los niveles de aumento N y M son N = M = 10. Por lo tanto, cada unidad de interpolación convierte un píxel de interés en información interpolada de 100 (=10x10) píxeles.
Después de que las unidades (1107) de interpolación obtienen el número de píxeles correspondiente a la resolución de salida, las unidades (1108) de constitución de información de alta resolución convierten el valor de píxel de cada píxel interpolado a un valor de píxel correspondiente a la alta resolución. En este proceso de constitución de información de resolución se utiliza la información de las componentes R, G y B de los dos colores seleccionados por la unidad (1105) de selección.
Se supone que los dos colores seleccionados son P y Q (las componentes RGB de P y Q son P = (Pr,Pg,Pb) y Q = (Qr,Qg,Qb)). Es decir, se transmiten dos tipos de información Pr y Qr de la componente R, dos tipos de información Pg y Qg de la componente G, y dos tipos de información Pb y Qb de la componente B, a las unidades de constitución de información de alta resolución.
Un rasgo característico notable de esta tercera realización es que los valores utilizados en las unidades de constitución son seleccionados mediante la evaluación de las tres componentes.
Siendo Pi y Qi los valores interpolados de una componente de color i para cada punto de interpolación k de valor Ci(k), y los valores de las componentes de color P y Q, un valor de salida hi(k) de la unidad de constitución de información de alta resolución se calcula mediante las siguientes operaciones aritméticas.
[Cuando Ci(k) \geq (Pi + Qi) / 2]
hi(k) = (\alpha Ci(k) + \beta MAX(Pi,Qi)) \ / \ (\alpha + \beta)
Sin embargo, si hi(k) > MAX(Pi,Qi),
... (8)hi(k) = MAX(Pi,Qi)
[Cuando Ci(k) < (Pi + Qi) / 2]
hi(k) = (\alpha Ci(k) + \beta MAX(Pi,Qi)) \ / \ (\alpha + \beta)
Sin embargo, si hi(k) < MIN(Pi,Qi),
... (9)hi(k) = MIN(Pi,Qi)
(donde \alpha y \beta son coeficientes, MAX(Pi,Qi) es una función para seleccionar el valor más grande entre Pi y Qi, y MIN(Pi,Qi) es una función para seleccionar el valor más pequeño entre Pi y Qi.)
Las ecuaciones (8) y (9) son ejemplos de la constitución de información de alta resolución. Otro ejemplo es una operación aritmética que cambia de manera continua sin utilizar ningún proceso de umbral. El valor hi(k) de cada color calculado de esta manera es emitido desde un terminal (1109) de salida.
La figura 28 muestra la configuración de la unidad (1105) de selección. En la figura 28, el numeral de referencia (1300) indica una unidad de cálculo de la diferencia de color; (1301) indica una unidad de cálculo del valor máximo de diferencia de color; y (1302) indica una unidad de determinación de dos colores. En la ventana mostrada en la figura 27, se han seleccionado combinaciones de dos colores a partir de nueve colores. El número de combinaciones es
\hbox{9C2 = 36.}
La unidad (1300) de cálculo de la diferencia de color calcula la diferencia de color en estas treintiséis combinaciones de dos colores. Es decir, suponiendo que los dos colores de una combinación son A y B (las componentes de color de A y B son A = (Ar,Ag,Ab) y B = (Br,Bg,Bb)), una diferencia de color E es calculada como sigue.
...(10)E = ((Ar – Br)^2 + (Ag – Bg)^2 + (Ab – Bb)^2)^1/2
(donde ^ representa la potencia, por ejemplo, x^y significa la potencia y-ésima de x.)
Debido a que sólo se calcula la diferencia entre dos píxeles para comprobar sus tamaños, se puede omitir el exponente 1/2 de la ecuación (10). Esta parte es bastante innecesaria cuando la velocidad de funcionamiento es importante. Si la carga de la segunda operación de elevar a potencia es alta, puede utilizarse la suma de los valores absolutos de las diferencias de componentes de color. Esto simplifica adicionalmente el funcionamiento y aumenta la velocidad de funcionamiento.
La unidad (1301) de cálculo de valor máximo de la diferencia de color comprende un comparador y calcula el valor máximo de las diferencias de color de las treintiséis combinaciones calculadas mediante la ecuación (10). La unidad (1302) de determinación de dos colores emite los dos colores detectados que tienen la mayor diferencia de color como los colores representativos de la ventana.
La unidad de selección del color representativo descrita anteriormente es el mayor rasgo característico de esta realización. El efecto de la realización será descrito a continuación mediante la comparación con la segunda realización, en relación a las figuras 29 y 30.
La figura 29 muestra la distribución de valores de píxel en la ventana. Por motivos de simplicidad, se describirá la distribución de un espacio RGB tridimensional como la distribución de un espacio RGB bidimensional suponiendo que el valor de G es uniforme.
En relación a la figura 29, unos círculos blancos indican la distribución de los nueve píxeles de la ventana mostrada en la figura 27. Sólo se muestran siete marcas O en la figura 29 debido a que algunos píxeles tienen el mismo valor.
La figura 30 muestra el método de detección de los valores máximo y mínimo de cada componente de color como se ha descrito previamente. Cuando los valores calculados quedan limitados por los valores máximo y mínimo, como se ha descrito anteriormente, se obtiene un campo rodeado por los círculos negros de la figura 30 como campo de coordenadas de color generadas en la constitución de información de alta resolución. Debido a que este campo es amplio, se genera un color singular que no existe originalmente en los píxeles vecinos más cercanos.
La figura 31 es una vista que muestra el estado en el cual dos puntos, donde la diferencia de color es un máximo, son seleccionados por la unidad (1105) de selección del color representativo de la tercera realización. Dos puntos indicados por círculos negros son puntos representativos detectados como que tienen la mayor diferencia de color, y estos puntos están indicados como P y Q. Una parte indicada mediante las líneas continuas de la figura 32 es el campo de información de alta resolución expresado por los puntos P y Q detectados. Este campo es estrecho debido a que está limitado por los valores de Pr, Qr, Pb y Qb, no por los valores máximo y mínimo. De acuerdo con lo anterior, no se genera ningún color singular, de manera que un buen cambio de gradación de color puede expresarse de P a Q.
La figura 33 es un diagrama de flujo que muestra un ejemplo del proceso anterior cuando el proceso se consigue mediante programas.
En primer lugar, en la etapa (S1001), se introducen n x m píxeles de color (denominados una ventana en el proceso anterior). En la etapa (S1002), se seleccionan, de entre los n x m píxeles, dos píxeles P y Q que tienen la mayor diferencia de color.
El flujo avanza a continuación a la etapa (S1003) para interpolar linealmente los n x m píxeles de entrada, calculando por tanto unos datos provisionales C(k) de píxel de salida después de la ampliación (o después de que la resolución es aumentada).
Dado un valor provisional C(k) de píxel de salida, los valores originales de píxel de salida h(k), es decir, hr(k),
\hbox{hg(k)}
y hb(k) de las componentes R, G y B son calculados en las etapas (S1004) a (S1006).
Para realizar de manera repetitiva este proceso en la etapa (S1007) para todos los píxeles provisionales de salida calculados en la etapa (S1003), k se incrementa en "1" (etapa (S1008)).
Cuando los valores h(k) de píxel de salida de la ventana de interés son generados de esta manera, el flujo avanza hacia la etapa (S1009) para comprobar si el dato de imagen de entrada se ha procesado completamente. Si se determina un NO en la etapa (S1009), el flujo vuelve a la etapa (S1001) para procesar el siguiente bloque de píxeles.
Si finalmente se determina un SÍ en la etapa (S1009), esto significa que los valores h(k) de píxel de salida contienen datos de píxel de salida de colores individuales después de la ampliación o de la constitución de información de alta resolución. Por lo tanto, este dato de píxel de salida es emitido hacia procesos posteriores (por ejemplo, emitido hacia un aparato de impresora).
Nótese que la temporización de salida de datos no es necesariamente la etapa mostrada en la figura 33. Por ejemplo, los datos pueden ser emitidos inmediatamente después de las etapas (S1006) y (S1007). En algunos casos, los datos pueden ser emitidos cuando se ha completado el proceso según la dirección principal de exploración de los datos de imagen de entrada.
Cuarta realización
La figura 34 es un diagrama de bloques que muestra la cuarta realización de la presente invención. Esta cuarta realización difiere de la tercera realización anterior en la disposición de la unidad de constitución de información de alta resolución. En la tercera realización descrita anteriormente, de una serie de procesos de conversión de resolución, sólo la unidad de selección del color representativo realiza las etapas utilizando una información de colores diferente a la componente de color que se ha de procesar. Esta cuarta realización está caracterizada porque la información de las tres componentes de color se utiliza no sólo en una unidad de selección del color representativo sino también en una unidad de constitución de información de alta resolución.
En la figura 34, los mismos numerales de referencia de la figura 26 indican partes que tienen esencialmente las mismas funciones. Por lo tanto, a continuación sólo se describirán puntos diferentes.
En relación a la figura 34, una unidad (1105) de selección del color representativo selecciona una combinación de dos colores que tienen la mayor diferencia de color, como en la tercera realización. Las componentes de color P = (Pr,Pg,Pb) y Q = (Qr,Qg,Qb) de los dos colores seleccionados son suministradas a la unidad (1800) de constitución de información de alta resolución. Esta unidad (1800) de constitución de información de alta resolución constituye información de alta resolución de la siguiente manera.
1. Cuando Pr \geq Qr y Pg \geq Qg y Pb \geq Qb
((a)
Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
hi(k)=(\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o hi(k) < Pi,
hi(k) = Pi
\hskip11cm
...(11)
((b)
Si Cr(k) < (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
hi(k)=(\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o hi(k) < Qi,
hi(k) = Qi
\hskip11cm
...(12)
((c)
En casos distintos de (a) y (b) anteriores
hi(k) = Ci(k)
\hskip10,6cm
...(13)
2. Cuando Pr \geq Qr y Pb \geq Qg y Pb < Qb
((a)
Si Cr(k) \geq (Pr + Qr) y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
hi(k)=(\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o hi(k) < Pi,
hi(k) = Pi
\hskip11cm
...(14)
((b)
Si Cr(k) < (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o hi(k) < Qi,
hi(k) = Qi
\hskip11cm
...(15)
((c)
En casos distintos de (a) y (b) anteriores
hi(k) = Ci(k)
\hskip10,6cm
...(16)
3. Cuando Pr \geq Qr y Pg < Qg y Pb \geq Qb
((a)
Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o hi(k) < Pi,
hi(k) = Pi
\hskip11cm
...(17)
((b)
Si Cr(k) < (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o hi(k) < Qi,
hi(k) = Qi
\hskip11cm
...(18)
((c)
En casos distintos de (a) y (b) anteriores
hi(k) = Ci(k)
\hskip10,6cm
...(19)
4. Cuando Pr \geq Qr y Pg < Qg y Pb < Qb
((a)
Si Cr(k) \geq (Pr + Qr) y Cg(k) < (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi,
hi(k) = Pi
\hskip11cm
...(20)
((b)
Si Cr(k) < (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o hi(k) < Qi,
hi(k) = Qi
\hskip11cm
...(21)
((c)
En casos distintos de (a) y (b) anteriores
hi(k) = Ci(k)
\hskip10,6cm
...(22)
5. Cuando Pr < Qr y Pg \geq Qg y Pb \geq Qb
((a)
Si Cr(k) < (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o hi(k) < Pi,
hi(k) = Pi
\hskip11cm
...(23)
((b)
Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o hi(k) < Qi,
hi(k) = Qi
\hskip11cm
...(24)
((c)
En casos distintos de (a) y (b) anteriores
hi(k) = Ci(k)
\hskip10,6cm
...(25)
6. Cuando Pr < Qr y Pg \geq Qg y Pb < Qb
((a)
Si Cr(k) \geq (Pr + Qr) y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o hi(k) < Pi,
hi(k) = Pi
\hskip11cm
...(26)
((b)
Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o hi(k) < Qi,
hi(k) = Qi
\hskip11cm
...(27)
((c)
En casos distintos de (a) y (b) anteriores
hi(k) = Ci(k)
\hskip10,6cm
...(28)
7. Cuando Pr < Qr y Pg < Qg y Pb \geq Qb
((a)
Si Cr(k) < (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o hi(k) < Pi,
hi(k) = Pi
\hskip11cm
...(29)
((b)
Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o hi(k) < Qi,
hi(k) = Qi
\hskip11cm
...(30)
((c)
En casos distintos de (a) y (b) anteriores
hi(k) = Ci(k)
\hskip10,6cm
...(31)
8. Cuando Pr < Qr y Pg < Qg y Pb < Qb
((a)
Si Cr(k) < (Pr + Qr) y Cg(k) < (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o hi(k) < Pi,
hi(k) = Pi
\hskip11cm
...(32)
((b)
Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o hi(k) < Qi,
hi(k) = Qi
\hskip11cm
...(33)
((c)
En casos distintos de (a) y (b) anteriores
hi(k) = Ci(k)
\hskip10,6cm
...(34)
(donde \alpha y \beta son coeficientes, e i es una componente de color correspondiente a cada una de R, G y B.)
Las informaciones de alta resolución de R, G y B constituidas de esta manera son transmitidas a los terminales (1109) de salida, y se emite una información de imagen de alta calidad.
El rasgo característico de la cuarta realización es la constitución de información de alta resolución, que es controlada de manera más precisa. Es decir, si el punto de interpolación de la unidad de interpolación está de manera obvia cerca de las posiciones P y Q como colores representativos, se realiza un proceso de reducción de la distancia. Si la posición del punto de interpolación es lejana, se emite el valor de este punto de interpolación. Mediante este proceso es posible estrechar adicionalmente el campo en el cual se genera un color singular y determinar libremente el valor de salida en base a la posición tridimensional del punto de interpolación.
Anteriormente se ha descrito la constitución de información de alta resolución utilizando una serie de componentes de color. Sin embargo, el método de constitución de información de alta resolución no está limitado naturalmente al basado en las ecuaciones (8), (9) y (11) a (34). Ejemplos son los métodos que utilizan una LUT y el método de realizar operaciones aritméticas mediante el establecimiento de funciones descritas en las realizaciones primera y segunda. En esta realización, se describe el proceso de selección de dos colores representativos y de aproximación de valores de salida a estos dos colores. Sin embargo, el número de colores representativos no se limita a 2. Cuando tres o más colores son seleccionados como colores representativos, es posible realizar un control más preciso y constituir una información de alta resolución mejor. La contrapartida es un proceso complicado que requiere un tiempo de ejecución mayor.
Cuando se reúnen las ecuaciones (8), (9) y (11) a (34), el valor de salida es calculado, básicamente, mediante la utilización de la siguiente ecuación según caso por caso.
...(35)hi(k) = \alpha Ci(k) + \beta Pi + \gamma Qi
(donde \alpha, \beta y \gamma son coeficientes, e i es una componente de color correspondiente a cada una de R, G y B.)
Cuando se utilizan valores representativos (S0, S1, S2, ..., Sn) de tres o más colores, la ecuación anterior puede reescribirse de manera general como sigue.
...(36)hi(k) = \alpha\cdot Ci(k)+\Sigma\beta j\cdot Sji
(donde \Sigma es la suma total referida a la variable j, variable j = 0, 1, ..., n-1 y \alpha y \betaj son coeficientes predeterminados.)
La realización anterior se describe tomando RGB como un ejemplo de un espacio de color. Sin embargo, son posibles diferentes espacios de color tales como L*a*b como un espacio de color uniforme y CMYK como colores producidos por una impresora. Asimismo, se describe un método de minimización de la diferencia de color como un ejemplo del método de selección del color representativo, pero el método no se limita sólo a éste. Un ejemplo es un método de concesión de prioridad a una componente de color según la cual el contraste (valor máximo - mínimo) en la ventana es un máximo, y de especificación de un color representativo a partir de píxeles que tienen los valores máximo y mínimo de este color prioritario.
La presente invención se puede aplicar a un sistema constituido por una serie de dispositivos (por ejemplo, un ordenador principal, un interfaz, un lector, una impresora) o a un aparato (por ejemplo, una máquina copiadora, un fax) que comprende un único dispositivo.
Adicionalmente, el objetivo de la presente invención puede alcanzarse asimismo dotando de un soporte de almacenamiento que almacene códigos de programa para realizar las funciones citadas anteriormente de acuerdo con las realizaciones, a un sistema o a un aparato, leyendo los códigos de programa con un ordenador (por ejemplo, CPU, MPU) del sistema o aparato desde el soporte de almacenamiento, y ejecutando a continuación el programa.
En este caso, los códigos de programa leídos desde el soporte de almacenamiento realizan las funciones de acuerdo con las realizaciones, y el soporte de almacenamiento que almacena los códigos de programa constituye la invención.
Asimismo, el soporte de almacenamiento, tal como un diskette, un disco duro, un disco óptico, un disco magneto-óptico, CD-ROM, CD-R, una cinta magnética, una tarjeta de memoria de tipo no volátil, y una memoria ROM pueden utilizarse para proporcionar los códigos de programa.
Además, al lado de las funciones citadas anteriormente de acuerdo con las realizaciones anteriores, son realizadas mediante la ejecución de los códigos de programa que son leídos por un ordenador, la presente invención incluye un caso donde un OS (Sistema Operativo) o similar, ejecutándose en el ordenador, realiza una parte o todos los procesos de acuerdo con las indicaciones de los códigos de programa y realiza las funciones de acuerdo con las realizaciones anteriores.
Además, la presente invención incluye asimismo un caso en el que, después de que los códigos de programa leídos del soporte de almacenamiento son escritos en una tarjeta de extensión de funciones, que está insertada en el ordenador, o en una memoria dispuesta en una unidad de extensión de funciones que está conectada al ordenador, la CPU o similar contenida en la tarjeta de extensión de funciones o en una unidad de extensión de funciones, realiza una parte o todo el proceso de acuerdo con las indicaciones de los códigos de programa y realiza las funciones de las realizaciones anteriores.
En las realizaciones tercera y cuarta como se han descrito anteriormente, cuando se constituyen los datos de imagen en color de alta resolución a partir de los datos de imagen en color de entrada, es posible evitar la falta de encuadre del color o la generación de colores singulares. Además, se pueden realizar técnicas de interpolación que tienen un alto grado de libertad de diseño y que son capaces de mejorar la calidad de imagen. De acuerdo con lo anterior, la presente invención es aplicable fácilmente a diferentes productos, y se pueden esperar emisiones de alta calidad incluso a partir de imágenes que tienen una pequeña cantidad de información.
Pueden realizarse muchas realizaciones aparentemente muy diferentes de la presente invención, sin desviarse del ámbito de las reivindicaciones adjuntas.

Claims (27)

1. Aparato para el proceso de imágenes para la conversión de información de baja resolución en información de alta resolución mediante el aumento del número de píxeles representados por la información de imagen, que comprende:
medios (102) para la formación de primera ventana para la formación de una primera ventana (figura 2) para hacer referencia a los píxeles vecinos más cercanos de un píxel de interés de baja resolución;
medios (103) de detección para detectar una serie de valores de píxel representativo (MAX3, MIN3, MAX5, MIN5) de la primera ventana;
medios (104) de clasificación para la determinación del tipo de imagen del píxel de interés mediante la evaluación de la distribución de los valores de píxel de la primera ventana con respecto a dichos valores de píxel representativo;
medios para la conversión (105) y almacenamiento (106) de valores filtrados pasa bajos interpolados linealmente (604) de los píxeles vecinos más cercanos, incluyendo el píxel de interés, formando una segunda ventana (figura 4);
una unidad (107) de constitución de información de alta resolución para la constitución de una serie (NxM) de valores de píxel correspondientes al píxel de interés mediante la selección (1207), dependiendo de dicho tipo de imagen determinado, de un proceso óptimo de entre una serie de procesos (1201-1204), procesos que incluyen:
la interpolación lineal (1201, 1202) de valores de píxel de la primera ventana;
la interpolación no lineal (1203, figura 13) de valores de píxel de la primera ventana y de dichos valores de píxel representativo;
la interpolación no lineal (1204, figura 14) de valores de píxel de la segunda ventana y de dichos valores de píxel representativo.
2. Aparato, según la reivindicación 1, en el que el proceso de interpolación lineal que puede ser seleccionado es la interpolación lineal (1202, figura 20) de valores de píxel de la segunda ventana, y el proceso no lineal que puede ser seleccionado es la interpolación no lineal (1204, figura 20) de valores de píxel de la segunda ventana y de dichos valores representativos.
3. Aparato, según la reivindicación 1 o la reivindicación 2 y que comprende adicionalmente unos medios (108) de interpolación no lineal para la realización de una interpolación no lineal mediante una operación de producto-suma de valores interpolados linealmente desde dichos medios de interpolación lineal y de los valores representativos.
4. Aparato, según cualquier reivindicación precedente, caracterizado por comprender adicionalmente unos medios (1205, 1206) de establecimiento de coeficientes para el establecimiento de manera dinámica de un coeficiente de producto-suma de la operación de producto-suma mediante dichos medios de interpolación no lineal.
5. Aparato, según la reivindicación 4, caracterizado por comprender adicionalmente unos medios (104) de clasificación para la clasificación de un atributo del píxel de interés mediante la evaluación del estado de distribución de los valores de píxel en la primera ventana, y
en el que durante el funcionamiento, el coeficiente de producto-suma de la operación de producto-suma por parte de dichos medios de interpolación no lineal es establecido de manera dinámica en base a un resultado de una clasificación de atributo desde dichos medios de clasificación.
6. Aparato, según la reivindicación 5, caracterizado porque dichos medios (104) de clasificación están adaptados para la evaluación de la separación de los valores de píxel de la primera ventana.
7. Aparato, según la reivindicación 5, caracterizado porque dichos medios (104) de clasificación están adaptados para evaluar el número de niveles de gradación de los valores de píxel de la primera ventana.
8. Aparato, según la reivindicación 6, caracterizado porque cuando el número de niveles de gradación de la ventana no es inferior a tres, la separación es evaluada mediante la extracción de no menos de tres valores representativos que incluyen los valores máximo y mínimo de la ventana y mediante el cálculo de las diferencias entre los valores representativos.
9. Aparato, según la reivindicación 8, caracterizado porque no menos de tres valores representativos incluyen el valor máximo, el valor mínimo,
un valor A no inferior a un valor promedio de los valores máximo y mínimo y exceptuando el valor máximo y el valor más cercano al mismo,
un valor B no inferior al valor promedio de los valores máximo y mínimo y exceptuando el valor máximo y el valor más lejano al mismo,
un valor C inferior al valor promedio de los valores máximo y mínimo y exceptuando el valor mínimo y el valor más cercano al mismo, y
un valor D inferior al valor promedio de los valores máximo y mínimo y exceptuando el valor máximo y el valor más lejano al mismo.
10. Aparato, según la reivindicación 9, caracterizado porque la separación es evaluada mediante la evaluación de valores absolutos de las diferencias entre el valor máximo y A, el valor máximo y B, C y el valor mínimo, y D y el valor mínimo.
11. Aparato, según la reivindicación 9, caracterizado porque la separación es evaluada mediante la evaluación de valores relativos de las diferencias entre el valor máximo y A, el valor máximo y B, C y el valor mínimo, y D y el valor mínimo.
12. Aparato, según cualquiera de las reivindicaciones 5 a 11, caracterizado porque el aparato incluye medios adaptados para cambiar las características del filtro de dicho LPF adaptable de dichos medios de conversión, cambiadas en base a la información de atributo clasificada por dichos medios de clasificación.
13. Aparato, según cualquier reivindicación precedente, caracterizado porque dichos medios (105) de conversión están adaptados para calcular valores convertidos mediante una operación de producto-suma de los valores representativos.
14. Aparato, según la reivindicación 13, caracterizado porque dichos medios (105) de conversión están adaptados para calcular un coeficiente de producto-suma de la operación de producto-suma en base a una cantidad de características de la primera ventana.
15. Aparato, según la reivindicación 14, caracterizado porque la cantidad de características es un patrón obtenido mediante la cuantificación de la primera ventana.
16. Aparato, según cualquier reivindicación precedente, caracterizado porque los valores representativos son los valores máximo y mínimo de una ventana de n x n píxeles (n \geq 2) que incluye el píxel de interés.
17. Aparato, según la reivindicación 16, caracterizado porque los valores representativos son los valores máximo y mínimo de una ventana de n x n píxeles (n \geq 2) que incluye el píxel de interés y los valores máximo y mínimo de una ventana de m x m píxeles (m \geq n) que incluye los n x n píxeles.
18. Aparato, según la reivindicación 1, caracterizado porque comprende adicionalmente unos medios (104) de clasificación para la clasificación de un atributo del píxel de interés mediante la evaluación de un estado de distribución de los valores de píxel en la primera ventana, y
en el que la interpolación lineal es ejecutada mediante la conmutación de la información del valor de píxel de la primera ventana y la información del valor convertido de la segunda ventana en base a un resultado de clasificación de atributo desde dichos medios de clasificación.
19. Aparato, según la reivindicación 1, caracterizado porque una serie de coeficientes de producto-suma de los valores interpolados linealmente y los valores representativos son utilizados para emitir un valor óptimo de acuerdo con las magnitudes de una serie de resultados de producto-suma.
20. Aparato, según cualquier reivindicación precedente, en el que dichos medios para la formación de primera ventana, dichos medios de detección, dichos medios de conversión, dichos medios de interpolación lineal y dichos medios de interpolación no lineal están adaptados para realizar un proceso para cada componente de color de una imagen en color de entrada.
21. Aparato, según la reivindicación 20, caracterizado por comprender adicionalmente:
medios para la formación de un patrón para la formación de un patrón mediante la cuantificación de la primera ventana para cada componente de color;
medios de evaluación para la evaluación de la aproximación del patrón de cada componente de color; y
medios de cálculo para el cálculo de valores convertidos mediante una operación de producto-suma de una serie de valores representativos para cada componente de color, y en el que un coeficiente de producto-suma es establecido en base a un resultado de una evaluación desde dichos medios de evaluación.
22. Aparato, según la reivindicación 21, y que comprende adicionalmente:
medios de selección para la selección de un color prioritario en base a la información del valor de píxel de la primera ventana de cada componente de color; y
medios de evaluación para la evaluación de la aproximación de un patrón del color prioritario con un patrón de un color diferente del color prioritario, en los que
si la aproximación no es inferior a un valor umbral preestablecido, se establece un coeficiente de producto-suma del color diferente al color prioritario en base a un coeficiente de producto-suma del color prioritario.
23. Aparato, según la reivindicación 21 o la reivindicación 22, caracterizado porque la aproximación es evaluada realizando una operación O-EXCLUSIVA de bit para cada patrón.
24. Aparato, según la reivindicación 22 o la reivindicación 23, caracterizado porque el color prioritario es determinado mediante un valor de contraste de la primera ventana.
25. Método para el proceso de imágenes para la conversión de información de baja resolución en información de alta resolución mediante el aumento del número de píxeles representados por la información de imagen, que comprende:
una etapa de formación de una primera ventana (figura 2) haciendo referencia a los píxeles vecinos más cercanos de un píxel de interés de baja resolución;
una etapa de detección de una serie de valores de píxel representativo (MAX3, MIN3, MAX5, MIN5) desde la primera ventana;
una etapa de clasificación del tipo de imagen del píxel de interés mediante la evaluación de la distribución de los valores de píxel de la primera ventana con respecto a dichos valores de píxel representativo;
una etapa de conversión (105) y almacenamiento (106) de los valores filtrados pasa bajos (604) interpolados linealmente de los píxeles vecinos más cercanos que incluyen el píxel de interés que forman una segunda ventana (figura 4); y
una etapa de constitución de información de alta resolución para la constitución de una serie (NxM) de valores de píxel que corresponden al píxel de interés mediante la selección (1207), dependiente de dicho tipo de imagen determinado, de un proceso óptimo de entre una serie de procesos (1201-1204), procesos los cuales incluyen:
la interpolación lineal (1201, 1202) de valores de píxel de la primera ventana;
la interpolación no lineal (1203, figura 13) de valores de píxel de la primera ventana y de dichos valores de píxel representativos;
la interpolación no lineal (1204, figura 14) de valores de píxel de la segunda ventana y de dichos valores de píxel representativos.
26. Método, según la reivindicación 25, en el que el proceso de interpolación lineal que puede seleccionarse es la interpolación lineal (1202, figura 20) de valores de píxel de la segunda ventana, y el proceso no lineal que puede ser seleccionado es la interpolación no lineal (1204, figura 20) de valores de píxel de la segunda ventana y de dichos valores representativos.
27. Método, según la reivindicación 25 o la reivindicación 26 y que comprende adicionalmente la realización de una interpolación no lineal mediante una operación de producto-suma de valores interpolados linealmente desde dichos medios de interpolación lineal y de los valores representativos.
ES98301597T 1997-03-05 1998-03-04 Metodo y aparato para el proceso de imagenes. Expired - Lifetime ES2226064T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP05019897A JP3210264B2 (ja) 1997-03-05 1997-03-05 画像処理装置及び方法
JP5019897 1997-03-05
JP14671997A JP3703253B2 (ja) 1997-06-04 1997-06-04 画像処理装置及び方法及び記憶媒体
JP14671997 1997-06-04

Publications (1)

Publication Number Publication Date
ES2226064T3 true ES2226064T3 (es) 2005-03-16

Family

ID=26390649

Family Applications (1)

Application Number Title Priority Date Filing Date
ES98301597T Expired - Lifetime ES2226064T3 (es) 1997-03-05 1998-03-04 Metodo y aparato para el proceso de imagenes.

Country Status (4)

Country Link
US (1) US6157749A (es)
EP (1) EP0863484B1 (es)
DE (1) DE69825196T2 (es)
ES (1) ES2226064T3 (es)

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4065462B2 (ja) * 1997-12-26 2008-03-26 キヤノン株式会社 画像処理装置及び画像処理方法
DE69835802T2 (de) * 1998-03-09 2007-04-12 Sony Deutschland Gmbh Verfahren und System zur Interpolation von digitalen Signalen
EP0999522B1 (en) * 1998-11-06 2008-04-09 Canon Kabushiki Kaisha Image processing method, system and apparatus, and storage medium
JP2000184185A (ja) * 1998-12-15 2000-06-30 Canon Inc 解像度変換装置、方法及びコンピュータ読み取り可能な記憶媒体
US6810155B1 (en) * 1999-01-08 2004-10-26 Macronix International Co., Ltd. Method and apparatus for scaling an image with locally selected interpolation functions
JP3857829B2 (ja) * 1999-03-09 2006-12-13 ペンタックス株式会社 画像圧縮装置および画像伸張装置
JP3709092B2 (ja) * 1999-03-09 2005-10-19 ペンタックス株式会社 画像圧縮装置および画像伸張装置
JP3167120B2 (ja) * 1999-05-25 2001-05-21 キヤノン株式会社 画像処理装置及び方法
AUPQ056099A0 (en) * 1999-05-25 1999-06-17 Silverbrook Research Pty Ltd A method and apparatus (pprint01)
US6782143B1 (en) * 1999-12-30 2004-08-24 Stmicroelectronics, Inc. Method and apparatus for processing an image
JP4409702B2 (ja) * 2000-03-14 2010-02-03 株式会社東芝 認識装置
US6809666B1 (en) * 2000-05-09 2004-10-26 Pixim, Inc. Circuit and method for gray code to binary conversion
JP2002024815A (ja) * 2000-06-13 2002-01-25 Internatl Business Mach Corp <Ibm> 拡大画像データに変換するための画像変換方法、画像処理装置、および画像表示装置
US6587117B1 (en) * 2000-06-29 2003-07-01 Micron Technology, Inc. Apparatus and method for adaptive transformation of fractional pixel coordinates for calculating color values
TW476212B (en) * 2000-07-12 2002-02-11 Ulead Systems Inc One-button-triggered image processing unit
US6727908B1 (en) 2000-08-31 2004-04-27 Micron Technology, Inc. Non-linear interpolation scaling system for a graphics processing system and method for use thereof
JP4928676B2 (ja) * 2000-09-04 2012-05-09 株式会社リコー ビデオ信号出力装置、ビデオ信号出力方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体
JP4201302B2 (ja) * 2000-09-19 2008-12-24 富士フイルム株式会社 オンスクリーン情報画像表示方法
US8682077B1 (en) 2000-11-28 2014-03-25 Hand Held Products, Inc. Method for omnidirectional processing of 2D images including recognizable characters
US6766053B2 (en) * 2000-12-15 2004-07-20 Xerox Corporation Method and apparatus for classifying images and/or image regions based on texture information
US7171059B1 (en) * 2002-05-23 2007-01-30 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
US7324709B1 (en) * 2001-07-13 2008-01-29 Pixelworks, Inc. Method and apparatus for two-dimensional image scaling
US6879636B2 (en) * 2001-12-10 2005-04-12 Pelco Incorporated Adaptive filter for suppressing repetitive high-frequency information in a video data stream
US7224853B1 (en) * 2002-05-29 2007-05-29 Microsoft Corporation Method and apparatus for resampling data
JP4196782B2 (ja) * 2003-08-26 2008-12-17 セイコーエプソン株式会社 画像処理装置及び画像処理をコンピュータに実行させる画像処理プログラム
US7343362B1 (en) * 2003-10-07 2008-03-11 United States Of America As Represented By The Secretary Of The Army Low complexity classification from a single unattended ground sensor node
TWI225749B (en) * 2003-10-30 2004-12-21 Realtek Semiconductor Corp Method of conversion of image from low-resolution into high-resolution
JP4371026B2 (ja) * 2004-09-28 2009-11-25 コニカミノルタビジネステクノロジーズ株式会社 プリントシステムおよびプリンタ
US7574071B2 (en) * 2004-10-05 2009-08-11 Seiko Epson Corporation Method and apparatus for resizing images
US7532360B2 (en) * 2005-09-16 2009-05-12 Seiko Epson Corporation Image output apparatus
JP4240032B2 (ja) * 2005-11-02 2009-03-18 ソニー株式会社 信号処理装置および方法、記録媒体、並びにプログラム
US8594465B2 (en) * 2007-11-14 2013-11-26 Microsoft Corporation Adaptive filtering for image transform processes
JP5366855B2 (ja) * 2010-02-16 2013-12-11 富士フイルム株式会社 画像処理方法及び装置並びにプログラム
KR101729556B1 (ko) * 2010-08-09 2017-04-24 엘지전자 주식회사 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치
JP5562812B2 (ja) * 2010-11-22 2014-07-30 株式会社東芝 送受切替回路、無線装置および送受切替方法
TWI466063B (zh) * 2011-09-29 2014-12-21 Altek Corp 影像內插的處理方法
GB2514410A (en) * 2013-05-24 2014-11-26 Ibm Image scaling for images including low resolution text
US9832396B2 (en) 2013-12-18 2017-11-28 United Technologies Corporation Composite image processing for LWIR images using geometric features
US9706140B2 (en) 2013-12-18 2017-07-11 United Technologies Corporation Natural resolution processing for LWIR images

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6156665A (ja) * 1984-08-25 1986-03-22 松下電工株式会社 消火器訓練装置
US4803558A (en) * 1985-11-15 1989-02-07 Konishiroku Photo Industry Co., Ltd. Halftone image estimation methods for dither images
JPS62200976A (ja) * 1986-02-28 1987-09-04 Dainippon Screen Mfg Co Ltd 高分解能2値化画像出力装置
US5054100A (en) * 1989-11-16 1991-10-01 Eastman Kodak Company Pixel interpolator with edge sharpening
US5410615A (en) * 1990-09-25 1995-04-25 Xerox Corporation Bitmap image resolution converter compensating for write-white xerographic laser printing
US5430811A (en) * 1991-12-25 1995-07-04 Matsushita Electric Industrial Co., Ltd. Method for interpolating missing pixels and an apparatus employing the method
US5499327A (en) * 1992-01-20 1996-03-12 Canon Kabushiki Kaisha Multi-window system which can overlay-display a dynamic image in a specific window
JP3143209B2 (ja) * 1992-05-25 2001-03-07 株式会社リコー 画像変倍装置
US5363213A (en) * 1992-06-08 1994-11-08 Xerox Corporation Unquantized resolution conversion of bitmap images using error diffusion
EP0584966B1 (en) * 1992-08-26 1999-04-14 Hewlett-Packard Company Pixel image edge-smoothing method and system
US5481275A (en) * 1992-11-02 1996-01-02 The 3Do Company Resolution enhancement for video display using multi-line interpolation
EP0645736B1 (en) * 1993-09-27 2003-02-05 Canon Kabushiki Kaisha Image processing apparatus
JP3176195B2 (ja) * 1993-10-28 2001-06-11 キヤノン株式会社 画像処理装置
US5583659A (en) * 1994-11-10 1996-12-10 Eastman Kodak Company Multi-windowing technique for thresholding an image using local image properties
US5689343A (en) * 1995-05-26 1997-11-18 Xerox Corporation Area mapping employing reference clusters for high quality noninteger resolution conversion with enhancement
US5905822A (en) * 1995-07-13 1999-05-18 Fuji Photo Film Co., Ltd. Interpolating operation method and apparatus for image signals
JP3210248B2 (ja) * 1996-04-25 2001-09-17 キヤノン株式会社 画像処理装置及びその方法

Also Published As

Publication number Publication date
DE69825196T2 (de) 2005-07-28
US6157749A (en) 2000-12-05
EP0863484B1 (en) 2004-07-28
EP0863484A3 (en) 1999-09-22
DE69825196D1 (de) 2004-09-02
EP0863484A2 (en) 1998-09-09

Similar Documents

Publication Publication Date Title
ES2226064T3 (es) Metodo y aparato para el proceso de imagenes.
JP7472413B2 (ja) 点描法、ボロノイ法、及びドロネー法を使用して信号運搬アートを生成すること、並びにこれを読み取ること
RU2469403C2 (ru) Устройство, способ и программа обработки изображения
KR0173456B1 (ko) 디더 처리방법
JP2006155610A (ja) 色、テクスチャ及びエッジの特徴を用いたドキュメントの地の評価
AU2011250827B2 (en) Image processing apparatus, image processing method, and program
JPH11331609A (ja) ラスタ化された画像デ―タ内のエイリアスが除去された画素の検知方法
JPH11341286A (ja) エイリアスが除去された画素を含む画像の処理方法
CN111161181A (zh) 图像数据的增强方法、模型的训练方法、设备和存储介质
EP2782065B1 (en) Image-processing device removing encircling lines for identifying sub-regions of image
JP4764903B2 (ja) テキストマップの中からライン構造を検出する方法および画像処理装置
JP2000339449A (ja) 画像処理装置及び方法
JP4111190B2 (ja) 画像処理装置
JP4140519B2 (ja) 画像処理装置、プログラムおよび記録媒体
CN111160063B (zh) 一种物联网ipc二维码配网图像增强方法及系统
JP4340888B2 (ja) 画像処理装置および画像処理方法、画像処理プログラム、記憶媒体
JP2001052156A (ja) 彫版風ハーフトーン画像生成方法
TW202303518A (zh) 處理電路的方法、包括處理電路的系統和包括處理器件的系統
KR100587979B1 (ko) 이미지 확대를 위한 경계선 및 귀퉁이 기반 보간 방법
JP5207294B2 (ja) 二次元コード、その生成方法及びコンピュータプログラム
JP2522310B2 (ja) 光学的文字読取装置
JP5915411B2 (ja) 画像処理装置及びプログラム
JP3972546B2 (ja) 画像処理装置および画像処理方法
JP3240389B2 (ja) 2値化処理装置
JP2022133130A (ja) 画像処理装置、画像処理方法