ES2226064T3 - Metodo y aparato para el proceso de imagenes. - Google Patents
Metodo y aparato para el proceso de imagenes.Info
- Publication number
- ES2226064T3 ES2226064T3 ES98301597T ES98301597T ES2226064T3 ES 2226064 T3 ES2226064 T3 ES 2226064T3 ES 98301597 T ES98301597 T ES 98301597T ES 98301597 T ES98301597 T ES 98301597T ES 2226064 T3 ES2226064 T3 ES 2226064T3
- Authority
- ES
- Spain
- Prior art keywords
- values
- window
- pixel
- value
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims description 147
- 230000008569 process Effects 0.000 title claims description 98
- 238000006243 chemical reaction Methods 0.000 claims abstract description 48
- 230000015572 biosynthetic process Effects 0.000 claims abstract description 16
- 238000001514 detection method Methods 0.000 claims abstract description 5
- 238000011156 evaluation Methods 0.000 claims description 20
- 238000004364 calculation method Methods 0.000 claims description 16
- 238000012545 processing Methods 0.000 claims description 12
- 238000000926 separation method Methods 0.000 claims description 5
- 230000008859 change Effects 0.000 claims description 4
- 101100382854 Arabidopsis thaliana CCD7 gene Proteins 0.000 claims 2
- 102100022002 CD59 glycoprotein Human genes 0.000 claims 2
- 101000897400 Homo sapiens CD59 glycoprotein Proteins 0.000 claims 2
- 230000001419 dependent effect Effects 0.000 claims 1
- 238000010348 incorporation Methods 0.000 claims 1
- 230000007261 regionalization Effects 0.000 claims 1
- 239000003086 colorant Substances 0.000 description 39
- 230000006870 function Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 14
- 238000009432 framing Methods 0.000 description 14
- 239000007787 solid Substances 0.000 description 14
- 238000012549 training Methods 0.000 description 14
- 239000000543 intermediate Substances 0.000 description 9
- 230000000694 effects Effects 0.000 description 6
- 238000009499 grossing Methods 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000001914 filtration Methods 0.000 description 4
- 230000015654 memory Effects 0.000 description 4
- 238000011002 quantification Methods 0.000 description 4
- 230000003321 amplification Effects 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000003199 nucleic acid amplification method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 2
- 239000000872 buffer Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000003252 repetitive effect Effects 0.000 description 2
- 238000012935 Averaging Methods 0.000 description 1
- 241000950314 Figura Species 0.000 description 1
- 101710204316 Formin-3 Proteins 0.000 description 1
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 230000006866 deterioration Effects 0.000 description 1
- 230000002542 deteriorative effect Effects 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 238000005562 fading Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 239000006210 lotion Substances 0.000 description 1
- 230000009022 nonlinear effect Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000011946 reduction process Methods 0.000 description 1
- 238000010187 selection method Methods 0.000 description 1
- 238000004148 unit process Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
- G06T3/403—Edge-driven scaling; Edge-based scaling
Landscapes
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Image Processing (AREA)
- Editing Of Facsimile Originals (AREA)
Abstract
ESTA INVENCION PUEDE FORMAR FACILMENTE UNA IMAGEN SUAVE Y CLARA CON CONTINUIDAD, PARTICULARMENTE A PARTIR DE UNA IMAGEN NATURAL SIN PRODUCIR NINGUNA BORROSIDAD O DENTADO DE INTERPOLACION CUANDO CONVIERTE INFORMACION DE ENTRADA DE BAJA RESOLUCION A INFORMACION DE ALTA RESOLUCION. ESTA INVENCION CONSTA DE UNA PRIMERA UNIDAD DE FORMACION DE VENTANA (102) CUYO FIN ES LA FORMACION DE UNA PRIMERA VENTANA PARA REFERIR A LOS PIXELES VECINOS MAS CERCANOS DE UN PIXEL DE BAJA RESOLUCION DE INTERES, UNA UNIDAD DE DETECCION (103) PARA DETECTAR UNA VARIEDAD DE VALORES REPRESENTATIVOS DESDE LA PRIMERA VENTANA, UNA UNIDAD DE CONVERSION (105) PARA CONVERTIR EL VALOR DEL PIXEL DE INTERES MEDIANTE UN LPF ADAPTABLE, UNA SEGUNDA UNIDAD DE FORMACION DE VENTANA (106) PARA LA FORMACION DE UNA SEGUNDA VENTANA PARA INDICAR LOS VALORES CONVERTIDOS DE LOS PIXELES VECINOS MAS CERCANOS DEL PIXEL DE INTERES, Y UNA UNIDAD DE FORMACION DE INFORMACION DE ALTA RESOLUCION (107) QUE INCLUYE UNA UNIDAD DE INTERPOLACION LINEAL PARA REALIZAR UNA INTERPOLACION LINEAL EN LAS BASES DE LA INFORMACION DEL VALOR DEL PIXEL EN LA PRIMERA VENTANA O LA INFORMACION DE VALOR CONVERTIDO EN LA SEGUNDA VENTANA Y UNA UNIDAD DE INTERPOLACION NO LINEAL PARA REALIZAR INTERPOLACION NO LINEAL MEDIANTE UNA OPERACION PRODUCTO - SUMA DE LOS VALORES INTERPOLADOS LINEALMENTE EN LA UNIDAD DE INTERPOLACION LINEAL Y LOS VALORES REPRESENTATIVOS.
Description
Método y aparato para el proceso de imágenes.
La presente invención se refiere a un aparato
para el proceso de imágenes y un método para el proceso de imágenes
para ampliar una información de imagen de entrada o convertir una
información de entrada de baja resolución en una información de alta
resolución.
Convencionalmente, se han propuesto diferentes
métodos como método para la conversión de una información de entrada
de baja resolución en una información de alta resolución. Estos
métodos convencionales utilizan diferentes métodos para el proceso
de la conversión de acuerdo con los tipos de imágenes que se han de
procesar (por ejemplo, una imagen multivalor que tiene información
de gradación en unidades de píxeles, una imagen binaria formada por
un pseudo fotograbado a media tinta, una imagen binaria formada por
un valor umbral fijo, y una imagen de carácter). Ejemplos de métodos
de interpolación convencionales utilizados generalmente son la
interpolación según el vecino más cercano, por la cual los mismos
valores de píxel que están más cerca de un punto de interpolación
están dispuestos como se muestra en la figura 23, y la interpolación
bilineal por la cual se determina el valor de píxel E, mediante la
siguiente operación aritmética de acuerdo con las distancias entre
cuatro puntos (que tienen los valores de píxel A, B, C y D) rodeando
a un punto de interpolación como se muestra en la figura 24.
E =
(1-i) \ (1-j) \ A + i \
(1-j) \ B + j \ (1-i) \ C +
ijD
(donde i y j son, respectivamente,
las distancias desde A en las direcciones lateral y longitudinal
cuando la distancia entre píxeles es de 1. (i \leq 1, j \leq
1))
Desafortunadamente, los métodos convencionales
anteriores tienen los siguientes inconvenientes.
En primer lugar, el método mostrado en la figura
23 tiene la ventaja de que la configuración del proceso es simple.
Sin embargo, cuando este método se utiliza para imágenes naturales,
por ejemplo, los valores de píxel se determinan en unidades de
bloque que se han de ampliar. Por lo tanto, los bloques llegan a ser
visiblemente perceptibles, y esto deteriora la calidad de la
imagen.
Asimismo, incluso cuando el método se utiliza
para caracteres, imágenes de línea, o imágenes CG (Gráficos de
ordenador), el mismo valor de píxel permanece en unidades de bloque
que se han de ampliar. Especialmente cuando una imagen contiene una
línea oblicua, el efecto de escalera denominado dentado se hace
notable deteriorando la calidad de la imagen. Las figuras 25A y 25B
muestran la forma en que se produce este dentado. La figura 25A
muestra una información de entrada, y la figura 25B muestra un
ejemplo de la conversión de resolución por la cual el número de
píxeles se duplica tanto en la dirección de las filas como en la
dirección de las columnas, mediante el método mostrado en la figura
23. Generalmente, el deterioro de la calidad de imagen aumenta a
medida que aumenta la amplificación. (En referencia a las figuras
25A y 25B, "200" y "10" son los valores de píxel.)
El método mostrado en la figura 24 se utiliza a
menudo generalmente para ampliar imágenes naturales. En este método,
se obtienen imágenes suavizadas por promediado. Sin embargo, se
obtienen imágenes desenfocadas cuando se requieren imágenes
perfiladas o con bordes. Adicionalmente, cuando el método se utiliza
para una imagen obtenida mediante la exploración de un mapa o
similar o para una imagen natural que contiene caracteres, a veces
no se transfiere al usuario la información importante debido al
desenfoque causado por la interpolación.
La figura 25C muestra una información de imagen
obtenida por interpolación por la cual la información de imagen de
entrada mostrada en la figura 25A se duplica tanto en la dirección
de las filas como en la dirección de las columnas, mediante el
método mostrado en la figura 24.
Tal como resulta evidente según la figura 25C,
los valores de píxel no sólo de las partes que rodean la línea
oblicua sino que también la propia línea oblicua no quedan
uniformes, y esto desenfoca la imagen.
De acuerdo con lo anterior, se han propuesto un
número de técnicas de conversión de resolución para imágenes de alta
calidad. Por ejemplo, el documento USP5280546 da a conocer un método
de interpolación en el cual, para eliminar el desenfoque de la
interpolación, se separan una imagen natural y una imagen de línea,
se realiza una interpolación lineal sobre la imagen natural, y se
realiza una interpolación lineal binaria sobre la imagen de línea,
disponiendo por lo tanto los valores máximo y mínimo de los píxeles
vecinos más cercanos. En esta técnica, sin embargo, se produce un
desenfoque de la interpolación en imágenes naturales. Asimismo, se
produce inevitablemente dentado debido a que se constituye una
información de alta resolución para las imágenes de línea mientras
que la resolución de la información de baja resolución permanece
inalterada. Adicionalmente, incluso las imágenes de línea son
cuantificadas en dos niveles de gradación. Por lo tanto, aunque no
hay problema cuando la información original sólo tiene dos niveles
de gradación, la calidad de una imagen de línea de gradación
múltiple se deteriora inevitablemente porque se reduce el número de
niveles de gradación.
El documento USP5430811 da a conocer una técnica
de interpolación no lineal, utilizando una LUT. En esta técnica, sin
embargo, el algoritmo en sí mismo, sólo puede manejar una ampliación
de 2x en las direcciones horizontal y vertical. Para aumentar la
ampliación, por lo tanto, es necesario repetir el proceso o combinar
el proceso con otro proceso de ampliación, resultando en un proceso
complicado. Además, incluso si se alcanza una ampliación a una
potencia de 2 en el proceso repetitivo, no es fácil ejercer un
control de manera que se le dé a cada píxel de información de alta
resolución la no linealidad deseada en la ampliación final, cuando
se tiene en cuenta el proceso repetitivo. Asimismo, en esta técnica,
los valores de píxel de una imagen en observación (información
original) no son alterados. Por lo tanto, la generación de dentado
es inevitable del mismo modo que en el documento USP5280546.
El documento USP5054100 también da a conocer una
interpolación no lineal. Esta técnica es efectiva para un único
desenfoque de la interpolación, que tiene sus bordes en las
direcciones de las filas y de las columnas. Sin embargo, no puede
obtenerse ese efecto de la técnica para información de imagen ni
siquiera ligeramente complicada. De acuerdo con lo anterior, se
produce inevitablemente un dentado al igual que en las dos técnicas
precedentes.
Adicionalmente, mientras la conversión de
resolución de una imagen binaria sujeta a un proceso de pseudo
gradación tal como el método de oscilación o el método de difusión
de error, la utilización de las técnicas que realizan conversión de
resolución de alta calidad mediante la conversión de un píxel de
interés y a su vecindad en una imagen multivalor a través de un
filtro digital, realizando una interpolación lineal, y binarizando
de nuevo la imagen, se conoce desde hace tiempo (por ejemplo, el
documento USP4803558 y la Publicación de Patente Japonesa número
61-56665). Se han propuesto métodos que utilizan
estas técnicas para realizar una conversión de resolución de alta
calidad cuando la imagen original es una imagen multivalor. Sin
embargo, a medida que la tecnología de cuantificación, tal como la
binarización, se utiliza para la formación de bordes, es difícil
formar imágenes multivalor de alta calidad que presenten una
continuidad espacial de los valores de píxel.
La presente invención se ha realizado para
eliminar los inconvenientes de las técnicas convencionales
mencionadas anteriormente y tiene interés en dar a conocer un
aparato para el proceso de imágenes y un método para el proceso de
imágenes según se indica en las reivindicaciones adjuntas, en el
cual cuando una información de entrada de baja resolución es
convertida en una información de alta resolución, no se produce un
desenfoque debido a la interpolación, lo que es particularmente un
problema en imágenes naturales, y no se produce dentado a pesar de
la baja resolución de la imagen de entrada original, realizando por
tanto un proceso de conversión con una alta calidad de imagen, y,
cuando se constituye la información de alta resolución, el proceso
no se divide, a diferencia de los procesos con umbral
convencionales, de manera que se forma una imagen natural visible
continua de manera extremadamente sencilla incluso a partir de una
imagen natural.
Es otro interés de la presente invención dar a
conocer un aparato para el proceso de imágenes y un método para el
proceso de imágenes capaz de formar de manera sencilla a partir de
una imagen en color, una imagen en color de alta resolución libre de
falta de encuadre del color.
La memoria de la Patente Europea número
EP-A-0645736 da a conocer un aparato
para el proceso de imágenes para convertir una información de baja
resolución en una información de alta resolución utilizando una
interpo-
lación.
lación.
En un aspecto de la presente invención, se da a
conocer un aparato para el proceso de imágenes tal como se indica en
la reivindicación 1.
En un segundo aspecto de la presente invención,
se da a conocer un método para el proceso de imágenes tal como se
define en la reivindicación 25.
Otras características y ventajas de la presente
invención serán evidentes a partir de la siguiente descripción
tomada en relación a los dibujos adjuntos, en los cuales caracteres
de referencia similares designan las mismas o partes similares a lo
largo de las figuras de los mismos.
La figura 1 es un diagrama de bloques que muestra
la disposición de la primera realización de la presente
invención;
la figura 2 es una vista que muestra una ventana
formada por una unidad de formación de una primera ventana;
la figura 3 es una vista que muestra un ejemplo
de un filtro suavizador (LPF);
la figura 4 es una vista que muestra una ventana
formada por una unidad de formación de una segunda ventana;
la figura 5 es un diagrama de flujo para explicar
el proceso de una unidad de clasificación mostrada en la figura
1;
la figura 6 es un diagrama de flujo para explicar
el proceso de una unidad de clasificación mostrada en la figura
1;
la figura 7 es una vista que muestra la
disposición de una unidad de conversión mostrada en la figura 1;
la figura 8 es una vista que muestra la
disposición de un conversor lineal mostrado en la figura 7;
las figuras 9A y 9B son vistas que muestran un
ejemplo de una información de imagen y un ejemplo de una información
cuantificada de imagen;
la figura 10 es una vista que muestra ejemplos de
coeficientes de multiplicación de acuerdo con unos patrones de
cuantificación;
la figura 11 es una vista que muestra ejemplos de
conversión de valores de píxel en ventanas;
la figura 12 es una vista que muestra la
disposición de una unidad de constitución de información de alta
resolución mostrada en la figura 1;
la figura 13 es una vista que muestra un ejemplo
de la constitución de información de alta resolución;
la figura 14 es una vista que muestra un ejemplo
de la constitución de información de alta resolución;
la figura 15 es un diagrama de bloques que
muestra la disposición de una segunda realización de la presente
invención;
la figura 16 es un diagrama de flujo para
explicar el proceso realizado por la unidad de conversión mostrada
en la figura 15;
la figura 17 es una vista que explica la
conversión a partir de un patrón binario dentro de un patrón de 9
bits;
la figura 18 es una vista que explica el cálculo
de H(a,b);
la figura 19 es un diagrama de bloques que
muestra las partes principales de una modificación de la primera
realización de la presente invención ;
la figura 20 es una vista que muestra un ejemplo
de una unidad de constitución de información de alta resolución
mostrada en la figura 19;
la figura 21 es una vista que muestra ejemplos de
la selección de procesos y del establecimiento de los coeficientes
en la figura 12;
la figura 22 es una vista que muestra ejemplos de
la selección de procesos y del establecimiento de los coeficientes
en la figura 20;
la figura 23 es una vista para explicar la
interpolación según el vecino más cercano como técnica anterior;
la figura 24 es una vista para explicar la
interpolación bilineal como técnica anterior;
las figuras 25A, 25B y 25C son vistas que
muestran un ejemplo de la información de entrada y ejemplos de
procesos realizados por los métodos mostrados en las figuras 23 y
24;
la figura 26 es un diagrama de bloques que
muestra los componentes principales de la tercera realización de la
presente invención;
la figura 27 es una vista que muestra un ejemplo
de una ventana;
la figura 28 es un diagrama de bloques que
muestra una unidad de selección del color representativo mostrada en
la figura 26;
la figura 29 es una vista que muestra una
distribución de color;
la figura 30 es una vista que muestra un ejemplo
de un método para seleccionar los valores máximo y mínimo de la
distribución de color mostrada en la figura 29;
la figura 31 es una vista que muestra un ejemplo
de la selección realizada sobre la distribución de color mostrada en
la figura 29 por parte de la tercera realización;
la figura 32 es una vista para explicar la gama
de colores generados por la selección mostrada en la figura 31;
la figura 33 es un diagrama de flujo que muestra
un ejemplo de un proceso para realizar el proceso de la tercera
realización mediante programas;
la figura 34 es un diagrama de bloques que
muestra las partes principales de la cuarta realización de la
presente invención;
la figura 35 es una vista que muestra un cuerpo
sólido formado por los valores máximo y mínimo de un espacio de
color;
la figura 36 es una vista que muestra un ejemplo
de una distribución real de valores de píxel en el cuerpo sólido
mostrado en la figura 35; y
la figura 37 es una vista que muestra los ocho
vértices del cuerpo sólido mostrado en la figura 35.
La figura 1 es un diagrama de bloques que muestra
un aparato para el proceso de imágenes de la primera realización de
acuerdo con la presente invención. El aparato para el proceso de
imágenes de la presente invención está incorporado de manera
eficiente dentro de un aparato de emisión de imágenes tal como una
impresora conectada a un ordenador o una impresora de vídeo para la
introducción de señales de vídeo. Sin embargo, también es posible
incorporar el aparato para el proceso de imágenes de la presente
invención como un aparato para el proceso de imágenes distinto de un
aparato de emisión de imágenes, programas de aplicación en un
ordenador servidor, o programas controladores de impresora para
emitir datos a una impresora.
La secuencia de funcionamiento de esta
realización se describirá a continuación con relación al diagrama de
bloques de la figura 1. En esta realización, una información de
imagen de entrada se convierte en información que tiene los píxeles
Nx y Mx en las direcciones de las columnas y las filas.
En la figura 1, el numeral de referencia (100)
indica un terminal de entrada para introducir una información de
baja resolución de n bits/pixel (n > 1). Se almacenan y se
mantienen varias líneas de esta información de baja resolución en la
memoria intermedia de línea (101). En base a la información de
imagen de estas varias líneas, se dispone una ventana que contiene
un píxel de interés y sus píxeles vecinos más cercanos (una unidad
(102) de formación de primera ventana). Esta ventana es generalmente
un rectángulo que tiene al píxel de interés en su centro, aunque
naturalmente también es posible una forma diferente de la
rectangular. Se supone que el tamaño de la ventana del rectángulo es
de 5x5 píxeles, tal como muestra la figura 2.
Una unidad (103) de detección del valor
máximo/mínimo, detecta el valor máximo (MAX5) y el valor mínimo
(MIN5) de los veinticinco píxeles del bloque de 5x5 píxeles de la
primera ventana, y asimismo detecta el valor máximo (MAX3) y el
valor mínimo (MIN3) de los 3x3 píxeles centrados alrededor del píxel
de interés.
Una unidad (104) de clasificación evalúa la
distribución de valores de píxel a partir de la información de
imagen en la ventana y determina el tipo de imagen del píxel de
interés. En esta realización, la unidad (104) de clasificación
clasifica el píxel de interés comprobando si el píxel de interés
tiene las características de una imagen natural, las características
de una imagen tal como una imagen CG (Gráficos de ordenador), o las
características de una imagen sujeta previamente a un proceso de
pseudo gradación de uno a pocos bits, es decir, comprobando una
serie de diferentes atributos de imagen, y emite el resultado de la
clasificación. El método de clasificación se describirá más
adelante.
Una unidad (105) de conversión es un medio para
convertir el valor del píxel de interés mediante filtrado. Esta
unidad (105) de conversión tiene las características de un LPF
(filtro pasa bajos) y elimina las componentes de alta frecuencia que
dependen de la resolución de entrada. La figura 3 muestra un filtro
suavizador representativo. El filtro mostrado en la figura 3 calcula
el valor promedio de nueve píxeles, es decir, el píxel de interés y
sus píxeles vecinos más cercanos. Si todos los píxeles son
filtrados, se eliminan asimismo todas las componentes importantes de
alta frecuencia, por ejemplo, esquinas y líneas delgadas. Por lo
tanto, es necesario activar y desactivar el filtro de manera
adaptable. En esta realización, para reducir el número de veces de
operación producto-suma y para aumentar la velocidad
de proceso, la operación se simplifica para aumentar la velocidad de
los cálculos de los valores convertidos. Esta unidad (105) de
conversión también será descrita más adelante.
Una unidad (106) de formación de segunda ventana
es un medio para establecer una ventana sobre los valores de píxel
convertidos de manera independiente de la unidad (102) de formación
de primera ventana. Se supone que el tamaño de ventana de la unidad
(106) de formación de segunda ventana es de 3x3 píxeles centrados
alrededor de la posición de píxel de M' como píxel de interés
(figura 4).
En referencia a la figura 4, G', H', I', L', M',
N', Q', R' y S' indican los valores convertidos de G, H, I, L, M, N,
Q, R y S, respectivamente. Para calcular G', H', I', L', M', N', Q',
R' y S', como píxel de interés en lugar de M', es necesaria, por lo
menos, la primera ventana (figura 2) de 5x5 píxeles. Sin embargo,
cuando el proceso para el píxel de interés M se ha completado y la
posición se desplaza a N como siguiente píxel de interés, pueden
reutilizarse los valores de H', I', M', N', R' y S' si se almacenan
los valores convertidos formados cuando M es procesado. De manera
análoga, se calculan los valores de J' y O' cuando I, que ya ha sido
completamente procesado, pasa a ser el píxel de interés. Si se
almacenan los valores convertidos calculados, por lo tanto, un valor
convertido que se ha de calcular nuevamente cuando N es el píxel de
interés es sólo el valor convertido T' en la posición de píxel de T,
lo que resulta en un proceso muy eficiente.
Una unidad (107) de constitución de información
de alta resolución constituye la información de imagen de
\hbox{N x M}píxeles correspondiente al píxel de interés en base a la información (información de primera ventana) en la ventana de la información original, la información (información de segunda ventana) en la ventana de los valores convertidos, la información del valor máximo (MAX5 o MAX3) y del valor mínimo (MIN5 o MIN3) en la primera ventana, y el resultado de la clasificación del píxel de interés. La información de imagen constituida es emitida desde un terminal (108) de salida hacia, por ejemplo, un dispositivo de impresora.
A continuación se describirán detalles de la
unidad (104) de clasificación. Las figuras 5 y 6 son diagramas de
flujo para explicar el proceso de la unidad de clasificación. Se
supone que sólo se utilizan 3x3 píxeles de la primera ventana
formada por la unidad (102) de formación de primera ventana para
determinar la clasificación. En la etapa (S502), se comprueba si
MAX3 y MIN3 son iguales. Si MAX3 y MIN3 son iguales, es posible
determinar que sólo existe un nivel de gradación en la ventana de
3x3 píxeles. Es decir, si se determina un SÍ en la etapa (S502), se
determina en la etapa (S503) que la clasificación es INDICADOR =
NIVEL_UNO. Si se determina un NO en la etapa (S502), se determina
que existe una serie de niveles de gradación, y en la etapa (S504)
se comprueba si la diferencia entre MAX3 y MIN3 es mayor que un
valor umbral definido (th1). Si la diferencia es menor que el valor
umbral, se determina en la etapa (S505) que la imagen es una parte
plana y la clasificación es INDICADOR = PLANA. Si la diferencia es
igual o mayor que el valor umbral, se calcula un valor promedio AVE
de MAX3 y MIN3 en la etapa (S506). Después de calcular los tres
valores MAX3, MIN3 y AVE, el flujo avanza hacia la etapa (S507) para
explorar de nuevo la ventana de 3x3 píxeles, calculando por tanto
los siguientes cinco parámetros de evaluación del estado de
distribución
NÚMERO_DE_NIVEL
Diferencia_MAX_min
Diferencia_MAX_max
Diferencia_MIN_min
Diferencia_MIN_max
NÚMERO_DE_NIVEL es un parámetro que representa el
número de niveles de gradación en la ventana, aunque no es necesaria
información precisa del número de gradación. Si la formación de un
histograma de valores de píxeles en la ventana es difícil debido a,
por ejemplo, que el proceso requiere mucho tiempo, sólo es necesario
ser capaz de comprobar si el número de niveles de gradación es 2
(sólo MAX3 y MIN3, NÚMERO_DE_NIVEL = 0) o 3 o más (NÚMERO_DE_NIVEL =
1).
Diferencia_MAX_min representa la diferencia entre
un valor (A) igual o mayor que AVE, exceptuando MAX3 y el píxel más
cercano a MAX3. De manera similar, Diferencia_MAX_max representa la
diferencia entre un valor (B) igual o mayor que AVE, exceptuando
MAX3 y el píxel más alejado de MAX3. Si no hay valor mayor que AVE
exceptuando MAX3, sólo es necesario dar un valor a estos parámetros
para ser capaz de discriminarlos en la determinación posterior, por
ejemplo, hacer Diferencia_MAX_min = Diferencia_MAX_max = 0.
Diferencia_MIN_min representa la diferencia entre
un valor (C) inferior a AVE, exceptuando MIN3 y el píxel más cercano
a MIN3. De manera similar, Diferencia_MIN_max representa la
diferencia entre un valor (D) inferior a AVE, exceptuando MIN3 y el
píxel más alejado de MIN3. Si no hay ningún valor inferior a AVE
exceptuando MIN3, sólo es necesario dar un valor a estos parámetros
para ser capaz de discriminarlos en la determinación posterior, por
ejemplo, hacer Diferencia_MIN_min = Diferencia_MIN_max = 0.
En base a los cinco diferentes valores descritos
anteriormente, se comprueban las características de la imagen en la
ventana y se clasifica el atributo de la imagen.
En la etapa (S508) de la figura 6 se comprueba si
NÚMERO_DE_NIVEL es 0, es decir, si la ventana tiene dos niveles de
gradación o tres o más niveles de gradación. Si se determina un SÍ
en la etapa (S508), se determina que la imagen es una parte del
borde que tiene sólo dos niveles de gradación. Por lo tanto, en la
etapa (S509) se determina que la clasificación es INDICADOR =
BORDE_BI. Posteriormente, en la etapa (S510) se realiza la siguiente
evaluación.
Es decir, se calcula Diferencia mediante
Diferencia = CONT - (Diferencia_MAX_max +
Diferencia_MIN_max),
y se comprueba si diferencia satisface cualquiera
de las condiciones 1 y 2 que siguen.
Condición 1. Diferencia > th2 Y
Diferencia_MAX_max < th3 Y Diferencia_MIN_max < th3
Condición 2. Diferencia > th4 Y
Diferencia_MAX_min > th5 Y Diferencia_MIN_min > th5
Condición 1 O Condición 2? (th2, th3, th4 y th5
son valores umbral definidos)
\hskip2,5cm... evaluación (1)
Si se determina un SÍ en la etapa (S510), se
determina que la imagen presenta las características de un borde
constituido de manera artificial. Por lo tanto, en la etapa (S511)
se determina que la clasificación es INDICADOR = BORDE_ART.
Si se determina un NO en la etapa (S510), se
realiza la siguiente evaluación en la etapa (S512).
Diferencia_MAX_min > th6 Y Diferencia_MIN_min
> th6 (th6 es un valor umbral definido)
\hskip0,5cm...evaluación (2)
(Nótese que se prefiere que th2 > th4 >
th6)
Si se determina un SÍ en la etapa (S512), la
imagen de entrada puede ser una información de imagen sujeta
previamente a un proceso de pseudo gradación. Por lo tanto, en la
etapa (S513) se determina que la clasificación es INDICADOR =
BORDE_ÍNDICE. Si se determina un NO en la etapa (S512), las
características de la imagen son cercanas a las de un borde de una
imagen natural. Por lo tanto, en la etapa (S514) se determina que la
clasificación es INDICADOR = BORDE_IMAGEN. En las evaluaciones (1) y
(2), se evalúa la separación de los valores de píxel de la
ventana.
La evaluación 1 indica una distribución
denominada "de valle" (condición 1 de (1)) que no tiene valores
intermedios, en la cual los valores de píxel existen de manera local
cerca de MAX3 o MIN3 y no existe ningún valor intermedio, o bien una
distribución discreta (condición 2 de (1)) que está cuantificada
completamente de manera regular desde MAX3 hasta MIN3. Por lo tanto,
se determina que la imagen es una imagen constituida de manera
artificial.
La evaluación 2 indica una distribución
"esparcida", en la que, aunque no se halla artificialidad tan
significativa como en el caso de la evaluación 1, tanto los valores
cercanos a MAX3 como a MIN3 son más bien discretos que continuos. De
acuerdo con lo anterior, se determina que la imagen es una
información de imagen que originalmente es una imagen natural y
cuantificada previamente a pocos bits para, por ejemplo, comprimirla
antes de ser introducida en el aparato para el proceso de imágenes
de esta realización a través de una línea de transmisión. En la
Internet, que está prevaleciendo rápidamente en los últimos años, la
información de imagen que tiene pocos bits de pseudo gradación
circula a menudo sin tener en cuenta si la información de imagen
corresponde a una imagen artificial o a una imagen natural. El borde
de una imagen natural tal como una fotografía introducida desde unos
medios de captura que tienen un cierto número de niveles de
gradación, por ejemplo, un escáner de imagen o una cámara digital,
difícilmente constituye una distribución que tiene más o menos
tendencia a ser discreta como se ha descrito anteriormente debido,
por ejemplo, a la falta de filo de MTF sobre la imagen de entrada.
Es decir, siempre se encuentra continuidad en una parte de la
distribución.
Lo anterior es un ejemplo de la unidad de
clasificación. La unidad de clasificación de esta realización
clasifica una imagen según seis tipos diferentes, NIVEL_UNO, PLANA,
BORDE_BI, BORDE_ART, BORDE_ÍNDICE y BORDE_IMAGEN. Naturalmente, es
posible clasificar una imagen según un número de mayor o menor de
tipos.
Asimismo, puede utilizarse información de 5x5
píxeles en lugar de información de 3x3 píxeles, y puede utilizarse
la información de MAX5 y MIN5 en combinación con la información de
MAX3 y MIN3 en las evaluaciones. Naturalmente, el número de
parámetros de evaluación puede ser superior o inferior al de esta
realización.
A continuación, se describirán con detalle los
cálculos de los valores convertidos. La figura 7 muestra un ejemplo
de la unidad (105) de conversión. Tal como se ha descrito
previamente, la unidad (105) de conversión funciona como un LPF para
eliminar la dependencia con respecto a la resolución de la
resolución de entrada. Por lo tanto, se puede utilizar un filtrado
digital adaptable, dependiendo del tipo de sistema que se ha de
construir. La parte delimitada por líneas de puntos es la unidad de
conversión.
En referencia a la figura 7, un cuantificador
(602) es un medio para cuantificar cada píxel en la ventana en base
a los valores de MAX3 y MIN3. En esta realización, cada valor de
píxel es binarizado de manera sencilla estableciendo AVE como valor
umbral de la forma que sigue
...(3)AVE =
(MAX3 + MIN3)\ / \
2
El cálculo de AVE puede, naturalmente, ser el
mismo que el utilizado en la unidad (104) de clasificación descrita
anteriormente.
El numeral de referencia (603) indica una LUT
(Tabla de consultas) que recibe la información cuantificada de la
ventana y emite valores almacenados en la tabla. La tabla almacena
las relaciones de mezcla relativas de MAX3 y MIN3 con respecto a los
patrones de cuantificación. En base a esta relación de mezcla, un
conversor lineal (604) realiza una conversión lineal mediante una
operación de producto-suma. El valor convertido
linealmente es emitido como un valor convertido (F(p,q)).
La figura 8 es una vista que muestra la
disposición interna de un conversor lineal (604). Un bloque
delimitado por líneas de puntos indica el conversor lineal (604). Se
supone que una señal de entrada tiene una información de profundidad
de n bits. La entrada de información al conversor lineal incluye
tres valores diferentes, es decir, MAX3, MIN3, y un valor de salida
\alpha de la LUT. Sea la longitud de bits de \alpha de m bits.
Un multiplicador (701) calcula el producto de \alpha con MAX3, y
un multiplicador (702) calcula el producto de (2^m - \alpha) y
MIN3 (2^m significa la potencia m-ésima de 2). Un sumador (703) suma
estos productos, y un registro (704) de desplazamiento de bit
realiza un proceso de desplazamiento de bit sobre la suma
resultante. Este proceso de desplazamiento de bit devuelve la
longitud de bit, que se ha visto incrementada a (n x m) bits debido
a las multiplicaciones a la señal de n bits, es decir, desplaza la
longitud de bit en m bits. Es preferible determinar
experimentalmente un valor adecuado a la configuración del sistema
como el valor de m.
Sin embargo, si la longitud de bit de \alpha es
de m bits, los valores que \alpha puede tomar están comprendidos
entre 0 y (2^m-1). Por lo tanto, en la disposición
mostrada en la figura 8, el coeficiente de multiplicación de MAX3 va
de 0 a (2^m-1), y el coeficiente de multiplicación
de MIN3 va de 1 a (2^m). Para que los dos coeficientes de
multiplicación vayan de 0 a (2^m), es posible aumentar la longitud
de bit de \alpha en un bit o cambiar ligeramente la asignación de
los coeficientes para seleccionar (2^m) coeficientes utilizables de
entre los (2^m + 1) coeficientes que van de 0 a (2^m). En cualquier
caso, el coeficiente de multiplicación se hace, de manera natural,
igual a los n bits como la longitud de bit de las entradas MAX3 y
MIN3 en el proceso realizado por el registro (704) de desplazamiento
de bit.
Es decir, suponiendo que \alpha es un
coeficiente que va de 0 a 1 después de su normalización, el
conversor lineal (604) calcula el valor convertido F(p,q)
como sigue.
...
(4)F(p,q) = \alpha MAX3 + (1 - \alpha) \
MIN3
El cálculo de los valores convertidos se
describirá a continuación tomando un proceso real como ejemplo.
La figura 9A muestra una información de entrada
de baja resolución. En relación a la figura 9A, una parte delimitada
por líneas discontinuas es una ventana de 3x3 píxeles para hacer
referencia a los píxeles vecinos más cercanos, y un píxel dispuesto
en una parte central delimitada por líneas continuas es un píxel de
interés. En la figura 9A,
\hbox{MAX3 =}215, MIN3 = 92, y cada valor de píxel se binariza de manera sencilla utilizando como valor umbral AVE = 153 en base a la ecuación (3). La figura 9B muestra el resultado de la binarización en la ventana.
La figura 10 muestra ejemplos del coeficiente
\alpha (\alpha es una información de 8 bits) almacenado en la
LUT. Como se ha descrito previamente, \alpha es el coeficiente de
multiplicación de MAX3 del píxel de interés con respecto al patrón
binario de nueve píxeles de la ventana. En base a este coeficiente
de multiplicación, las operaciones de producto-suma
de la conversión lineal de MAX3 y MIN3 se realizan mediante la
utilización de la configuración mostrada en la figura 8. Debido a
que de la figura 10 se determina que \alpha = 141 en el patrón
mostrado en la figura 9B, se calcula un valor convertido 160
mediante
(215 \
\text{*} \ 141 + 92 \ \text{*} \ 114) \ / \ 255 =
160
La figura 11 muestra ejemplos obtenidos mediante
la conversión de manera similar de los píxeles vecinos más cercanos.
El numeral de referencia (1101) indica una información original; y
(1102), un valor convertido. Resulta evidente a partir de (1102) que
se alcanza el efecto de un LPF mediante un número pequeño de
ejecuciones de una operación de producto-suma.
Asimismo, la utilización de la LUT aumenta el grado de libertad en
comparación con el filtrado digital convencional en el cual se
conmutan de manera adaptable una serie de diferentes tipos de
fil-
tros.
tros.
A continuación, se describirá con detalle la
formación de la información de alta resolución.
La figura 12 muestra la disposición de una unidad
(107) de constitución de información de alta resolución. En relación
a la figura 12, una parte delimitada por las líneas de puntos es la
unidad (107) de constitución de información de alta resolución. Una
señal de entrada a la unidad (107) de constitución de información de
alta resolución incluye la información del valor de píxel de la
ventana, suministrada desde la unidad (102) de formación de primera
ventana, la información del valor máximo/mínimo (MAX3 y MIN3) de la
ventana, la información del valor convertido (figura 9) de la
ventana suministrada por la unidad (106) de formación de segunda
ventana, y la información de identificación del tipo de imagen del
píxel de interés suministrada por la unidad (104) de clasificación.
En la figura 12, el numeral de referencia (1201) indica una unidad
de interpolación de orden cero (equivalente a la interpolación
convencional según el vecino más cercano); (1202) indica una unidad
de interpolación lineal (equivalente a una interpolación bilineal
convencional); y (1203) y (1204), indican unidades de interpolación
no lineal. Las unidades (1203) y (1204) tienen la misma disposición
excepto que la información del valor de píxel de la ventana que se
ha de procesar es diferente. Los numerales de referencia (1205) y
(1206) indican unidades de establecimiento de coeficientes para
establecer coeficientes utilizados en las unidades de interpolación
no lineal de acuerdo con la información del tipo de imagen
identificada por la unidad de clasificación. Las unidades de
interpolación no lineal (1203) y (1204) calculan valores
interpolados según las siguientes operaciones que incluyen una
interpolación lineal.
\newpage
- arriba[i][j] = (a*MAX3+b*datos_intermedios[i][j]) / (a+b)
- abajo[i][j] = (a*MIN3+b*datos_intermedios[i][j]) / (a+b)
- intermedio[i][j] = c*datos_intermedios[i][j]+d*MAX3+d*MIN3+e*MAX5+e*MIN5
- i ... 0 a N-1
- j ... 0 a M-1
En base a los valores arriba[i][j],
abajo[i][j], y intermedio[i][j] descritos
anteriormente,
- (A) si intermedio[i][j] \geq arriba[i][j],
- SALIDA[i][j] = arriba[i][j]
- (B) si intermedio[i][j] \leq abajo[i][j],
- SALIDA[i][j] = abajo[i][j]
- (C) en otros casos
- SALIDA[i][j] = intermedio[i][j]
- a, b, c, d y e son coeficientes
- datos_intermedios[i][j] es un valor interpolado de un punto[i][j] de interpolación obtenido por interpolación lineal
- SALIDA[i][j] es un valor de salida del punto[i][j] de interpolación de la unidad de interpolación no lineal
\hskip15,3cm...5)
La operación aritmética de interpolación lineal
(cálculo de datos_intermedios[i][j]) utilizada en la unidad
de interpolación no lineal puede utilizarse naturalmente en la
unidad (1202) de interpolación lineal.
Las figuras 13 y 14 muestran los lugares
geométricos de los valores "arriba", "abajo", y
"intermedio" descritos anteriormente, de manera unidimensional
análoga, para simplificar la explicación. La figura 13 muestra un
ejemplo que utiliza la información del valor de píxel de la unidad
de formación de primera ventana. En la figura 13, la coordenada
espacial se dibuja según la abscisa, y la densidad se dibuja según
la ordenada. Suponiendo que el píxel de interés es q, los valores de
píxel que se han de observar son I[q] indicados por puntos
negros (los valores de píxel que están antes y después,
espacialmente hablando, del píxel de interés son
I[q-1] y I[q+1]). El campo obtenido
cuando el píxel de interés es ampliado se ilustra de manera análoga
como un bloque del píxel de interés. A partir de la relación de
tamaños entre los tres lugares geométricos de arriba, abajo y medio,
un lugar geométrico indicado por la línea gruesa es una salida de
SALIDA. Los coeficientes utilizados son a = 1, b = 1, c = 2, d =
-1/2, y e = 0. Resulta evidente de la figura 13 que puede realizarse
una interpolación no lineal que hace pronunciado el gradiente del
borde.
La figura 14 muestra un ejemplo que utiliza la
información del valor convertido de la unidad (106) de formación de
segunda ventana. Además de los valores de píxel que se han de
observar, los puntos indicados con puntos blancos representan
valores de píxel después de la conversión utilizando un LPF
adaptable. Sin embargo, por motivos de simplicidad, los píxeles que
se han de observar en la primera ventana se muestran asimismo en la
figura 14, para indicar la relación posicional respecto los valores
convertidos. La constitución de información de alta resolución que
utiliza la segunda ventana es ligeramente diferente en cuanto a la
posición del borde comparada con la que utiliza la primera ventana.
Esta diferencia entre las posiciones del borde representa un gran
efecto en cuanto a la reducción del dentado.
Los coeficientes utilizados en la figura 14 son a
= 3, b = 1, c = 4, d = -3/2 y e = 0.
En ambas figuras 13 y 14, se supone que
I[q-1] es MIN3 y que I[q+1] es MAX3
por motivos de simplicidad. Sin embargo, en cualquier caso, esta
realización puede, por supuesto, realizar una buena interpolación no
lineal. Asimismo, los coeficientes individuales deben establecerse
de manera tal que se mantiene la continuidad no sólo dentro de cada
bloque sino también entre bloques.
En la figura 12, el numeral de referencia (1207)
indica un conmutador para seleccionar un proceso óptimo desde (1201)
a (1204) de acuerdo con la señal de identificación de la unidad de
clasificación.
La figura 21 muestra la conmutación entre
procesos y el establecimiento de los coeficientes realizado por la
unidad (104) de clasificación, en forma de una tabla. Estos
coeficientes son tan sólo ejemplos, y, de manera similar a los
valores umbral (th0 a th6) utilizados en la unidad de clasificación,
sólo es necesario obtener experimentalmente los coeficientes que
mejor se adaptan a un sistema de impresión real. Asimismo, la
conmutación entre procesos es tan sólo un ejemplo, y sólo es
necesario obtener experimentalmente los tipos de imagen necesarios y
acompañar la conmutación junto con los tipos de imágenes
clasificados.
En esta realización, las operaciones de
producto-suma de la unidad de interpolación lineal y
los valores representativos de la ventana se describen en forma de
la ecuación (5) para simplificar la explicación. Sin embargo, debido
a que la interpolación lineal en sí misma es una operación de
producto-suma, estos cálculos pueden describirse en
forma de una única operación de producto-suma. Es
decir, la interpolación lineal se realiza mediante una operación de
producto-suma para los valores de píxel de cuatro
puntos que se han de observar, incluyendo el punto de
interpolación.
Por lo tanto, si los cuatro puntos MAX3, MIN3,
MAX5 y MIN5 se utilizan como los valores representativos de la
ventana tal como se ha descrito anteriormente, puede realizarse la
interpolación no lineal mediante una operación de
producto-suma para un total de ocho puntos.
La figura 19 muestra una modificación de la
disposición mostrada en la figura 1. Los mismos numerales de
referencia de la figura 1 indican las mismas partes en la figura 19,
y se omitirá una descripción detallada de las mismas. En relación a
la figura 19, una unidad (1900) de formación de primera ventana
emite la información del valor de píxel de los 5x5 o veinticinco
píxeles centrados alrededor del píxel de interés como se ha descrito
previamente. La unidad (1900) de formación de primera ventana emite
asimismo la información del valor de píxel de sólo el píxel de
interés hacia una unidad (1902) de constitución de información de
alta resolución. Una unidad (1901) de conversión realiza la
conversión desempeñando el papel de un LPF adaptable como en la
figura 1. La unidad (1901) de conversión de esta modificación recibe
información desde la unidad (104) de clasificación y ejecuta la
conversión mediante la adición de la información de atributo
clasificado. Es decir, la unidad (105) de conversión mostrada en la
figura 1 calcula los valores convertidos sólo según patrones de 3x3
píxeles, mientras que la unidad (1901) de conversión cambia su
método de cálculo según cada clasificación. Por ejemplo, cuando el
atributo de un píxel de interés clasificado es NIVEL_UNO, PLANA,
BORDE_ÍNDICE o BORDE_IMAGEN, el valor de este píxel de interés puede
utilizarse directamente como un valor convertido. Es decir,
suponiendo que la conversión es un LPF adaptable, este filtro puede
ser considerado como un filtro de paso. Debido a que la información
de imagen tiene una fuerte correlación entre píxeles adyacentes, un
atributo clasificado para cada píxel de interés raramente cambia.
Incluso cuando se determina la clasificación de cada píxel de
interés, a menudo se obtiene el mismo resultado de la determinación
en una cierta área unitaria pequeña. Es decir, la unidad de
formación de segunda ventana y la unidad de formación de primera
ventana pueden hacerse equivalentes entre sí mediante la utilización
de la unidad de conversión como un filtro de paso sin transmitir la
información de los veinticinco o de los nueve píxeles de la ventana
formada por la unidad de formación de primera ventana hacia la
unidad de constitución de información de alta resolución.
Es decir, las ventanas pueden combinarse en una
única ventana mediante la utilización de un filtro de paso de manera
parcial.
La unidad (1902) de constitución de información
de alta resolución recibe la información del valor de píxel de la
segunda ventana, la información del valor máximo/mínimo (MAX5, MIN5,
MAX5 y MIN3), y la información de atributo clasificado.
La figura 20 muestra la unidad (1902) de
constitución de información de alta resolución. Una parte delimitada
por las líneas de puntos indica la unidad (1902) de constitución de
información de alta resolución. Los mismos numerales de referencia
de la figura 12 indican las mismas partes que en la figura 20. Esta
unidad (1902) de constitución de información de alta resolución
comprende una unidad (1201) de interpolación de orden cero, una
unidad (1202) de interpolación lineal, y una unidad (1204) de
interpolación no lineal. Un conmutador (200) selecciona una de las
unidades de interpolación que se han de utilizar. En esta
modificación, sólo se utiliza la información del valor de píxel
convertido. Por lo tanto, los elementos de selección de los procesos
y el establecimiento de los coeficientes son como se muestran en la
figura 22.
Tal como se ha descrito anteriormente, esta
realización está dirigida a la combinación efectiva del "LPF
adaptable" con la "interpolación no lineal".
Es decir, para eliminar una parte de una
información de imagen de entrada que depende de la resolución de
entrada, es necesario suavizar de manera adaptable para separar las
componentes de alta frecuencia de la resolución de entrada. Sin
embargo, cuando sólo se obtiene a la salida las componentes de baja
frecuencia que pasan, el resultado es una imagen desenfocada. Por lo
tanto, es esencial la interpolación no lineal que forma nuevas
componentes de alta frecuencia que cumplen con la resolución de
salida. Las propiedades no lineales pueden producirse mediante la
extracción de los valores de píxel representativo (equivalentes a
los valores máximo y mínimo en esta modificación) de entre los
píxeles vecinos más cercanos, y realizando una operación de
producto-suma adaptable de la interpolación lineal y
los valores de píxel representativo. Además, la no linealidad puede
ser controlada fácilmente mediante la conmutación u optimización de
los coeficientes de la operación de producto-suma.
También es posible cambiar los coeficientes de manera dinámica y
continua, en base al contraste de borde, en lugar de conmutarlos
paso a paso. La idea básica para imágenes CG y de línea se mantiene
para el caso de imágenes naturales. En el caso de una imagen
natural, sin embargo, se requiere que la calidad de una imagen de
salida posea "naturalidad". Por lo tanto, la información de
imagen no puede desviarse demasiado de la información de entrada.
Sin embargo, si sólo se realiza una interpolación lineal, se produce
un desenfoque de la interpolación debido a la reducción de
componentes de alta frecuencia. Por lo tanto, para formar nuevas
componentes de alta frecuencia una interpolación no lineal que
realiza una operación de producto-suma adaptable de
la interpolación lineal y unos valores de píxel representativo en
los píxeles vecinos más cercanos son esenciales para mejorar la
calidad de la imagen.
Cuando se utiliza el proceso de esta realización,
una imagen que se adecua a una alta resolución de salida se puede
formar sin tener en cuenta el atributo de la imagen o la
amplificación del proceso. Por supuesto, es posible conmutar
diferentes coeficientes mediante la utilización de la amplificación
como un coeficiente de evaluación o bien mediante la evaluación de
la resolución absoluta de salida real (un valor numérico
representado, por ejemplo, por dpi (punto por pulgada) o ppi (pixel
por pulgada)).
Segunda
realización
La figura 15 es un diagrama de bloques de la
segunda realización de acuerdo con la presente invención. En esta
segunda realización, se describirá la conversión de resolución de
imágenes en color. Cuando se introduce una imagen en color, se puede
formar una buena imagen de salida mediante el proceso de la imagen
de entrada para cada componente de color (por ejemplo, para el Rojo,
el Verde o el Azul) utilizando la disposición del diagrama de
bloques mostrado en la figura 1. Sin embargo, la medida en que se
reduce el dentado difiere de un color a otro en una unidad de
constitución de información de alta resolución que utiliza una
interpolación no lineal. A veces esto lleva a una falta de encuadre
del color en los bordes o similares e impiden que la mejora de la
calidad de la imagen. Asimismo, en la Internet, que está
prevaleciendo rápidamente en los últimos años, se utilizan a menudo
imágenes a las que se les ha dado una pseudo gradación utilizando
paletas de unos pocos bits. Cuando a una imagen se le da esta pseudo
gradación, a veces tiene lugar una falta de encuadre del color en el
borde de la imagen. Es difícil constituir una información de imagen
de alta resolución de alta calidad a partir de información de imagen
que tiene esta falta de encuadre del color antes de ser introducida
en un aparato para el proceso de imágenes de la segunda realización,
sólo mediante el proceso de la imagen de entrada utilizando la
disposición mostrada en la figura 1 para cada color.
Los objetivos, por tanto, de esta segunda
realización son
(1) evitar la falta de encuadre del color en el
aparato para el proceso de imágenes, y
(2) corregir una imagen que originalmente tiene
una ligera falta de encuadre del color mediante la utilización de un
aparato para el proceso de imágenes, formando por lo tanto una
información de alta resolución mejor que en la disposición mostrada
en la figura 1.
En la figura 15, los numerales de referencia
(1500), (1501), y (1502) indican terminales de entrada para la
entrada de las señales R, G y B respectivamente. Las memorias
intermedias de línea (1503), (1504) y (1505) almacenan unas pocas
líneas de información de imagen de sus respectivas componentes de
color. Las unidades de formación de primera ventana (1506), (1507) y
(1508) forman las ventanas mostradas en la figura 2 para sus
diferentes componentes de color.
Las unidades de detección del valor máximo/mínimo
(1509), (1510), y (1511) detectan los valores máximo y mínimo en 5x5
píxeles y en 3x3 píxeles, como en la disposición mostrada en la
figura 1. Las unidades de clasificación (1512), (1513) y (1514)
clasifican el atributo del tipo de imagen del mismo modo que en la
primera realización descrita anteriormente.
El numeral de referencia (1515) indica una unidad
de conversión que es el rasgo caracterizante de la segunda
realización. Esta unidad (1515) de conversión recibe la información
del valor de píxel de cada componente de color de la primera ventana
y la información del valor máximo/mínimo de cada componente de
color, y calcula un valor convertido de cada componente de
color.
Los numerales de referencia (1516), (1517), y
(1518) indican unas unidades de formación de segunda ventana, cada
una de las cuales es un medio para formar una ventana de los valores
convertidos de un píxel de interés y de sus píxeles vecinos más
cercanos de la componente de color correspondiente. Las unidades
(1519), (1520) y (1521) de constitución de información de alta
resolución constituyen información de alta resolución que se
equipara con la resolución de salida para sus respectivas
componentes de color.
La única diferencia de la segunda realización
respecto la disposición mostrada en la figura 1 es la unidad (1515)
de conversión, de manera que se omitirá la descripción de los otros
bloques.
La figura 16 es un diagrama de flujo para
explicar el proceso realizado por la unidad (1515) de conversión. La
segunda realización está caracterizada por el método de cálculo del
coeficiente de producto-suma \alpha de MAX3 en la
primera realización descrita anteriormente. La disposición para
calcular los valores convertidos mediante la operación de
producto-suma de MAX3 y MIN3 en base a la ecuación
(4) es la misma que en la primera realización. En la etapa (S1601),
se calcula el contraste (CONT) en 3x3 píxeles para cada color según
la siguiente ecuación.
CONT = MAX3 -
MIN3
\newpage
Naturalmente, este cálculo de CONT puede ser el
mismo que se utiliza en las unidades de clasificación.
Posteriormente, en la etapa (S1602) los valores
de CONT de los colores individuales se comparan para detectar un
color que tiene un CONT máximo. Es decir, se detecta cual de la R,
G, B tiene el contraste máximo. Por motivos de simplicidad, se
supone que un color que tiene el máximo contraste es X y que los
otros colores son Y y Z. Por ejemplo, si la componente G tiene el
contraste máximo en los 3x3 píxeles, X = G, Y = R y Z = B.
La relación de tamaño entre Y y Z se ignora, de
manera que cualquiera de los colores que no tiene contraste máximo
puede ser introducido en Y.
En la etapa (S1603), se calculan las dos
siguientes conversiones
XY =
H(PAT(X),PAT(Y))
...(7)XZ =
H(PAT(X),PAT(Z))
PAT(X), PAT(Y), y PAT(Z)
indican patrones cuantificados de 3x3 píxeles de los colores X, Y, y
Z respectivamente. Es decir, como en la disposición mostrada en la
figura 7, la cuantificación (binarización) se realiza sobre nueve
píxeles en base al AVE calculado mediante la ecuación (4) para cada
color. Debido a que cada píxel, después de la binarización, se
expresa con un bit, el patrón binario de los nueve píxeles puede
expresarse con una información de 9 bits. La figura 17 muestra la
formación de esta información de 9 bits. En referencia a la figura
17, G'', H'', I'', L'', M'', N'', Q'', R'' y S'' indicados por
(1701), indican los resultados de la binarización de los píxeles G,
H, I, L, M, N, Q, R y S, respectivamente, utilizando AVE como valor
umbral. Estos nueve píxeles son dispuestos nuevamente como es
indicado por numeral de referencia (1702) para formar una
información de 9 bits.
H(a,b) en la ecuación (7) es una función
para realizar una O exclusiva de a y b, en unidades de bits y para
calcular el número de "1" generados.
La figura 18 muestra un ejemplo. El numeral de
referencia (1801) indica un patrón de a = "405"; (1802) indica
un patrón de b = "470"; y (1803) indica un patrón de
a(O-EXCLUSIVA)b. En estos patrones de
9 píxeles, los píxeles negros representan "1" y los otros
píxeles representan "0".
La función H() descrita anteriormente es
equivalente al número de "1" en los nueve píxeles de
\hbox{a(O-EXCLUSIVA)b,}de manera que H(1,b)=3. Es decir, H() representa valores numéricos que van de 0 a 9.
Después de que se calculen los valores de XY y XZ
mediante la ecuación (6), se calcula, en la etapa (S1604) un
coeficiente de producto-suma \alpha(X) para
el color X. LUT(PAT(A)) indica un valor de salida de
la LUT mostrada en la figura 7, cuando el valor de PAT(A) es
introducido en la tabla. A continuación, se comprueba si el valor de
XY es inferior a 3 en la etapa (S1605). Si el valor es inferior a 3,
es decir, 0, 1 ó 2, se calcula un coeficiente de
producto-suma \alpha(Y) para el color Y en
la etapa (S1606). Si este es el caso, el coeficiente de
producto-suma del color Y es el mismo que el
coeficiente de producto-suma del color X. Si el
valor de XY es 3 o superior, se comprueba si el valor de XY es
superior a 6 en la etapa (S1607). Si el valor es superior a 6, es
decir, 7, 8 ó 9, se calcula el coeficiente de
producto-suma \alpha(Y) del color Y en la
etapa (S1608). Si este es el caso, se calcula el coeficiente de
producto-suma del color Y restándole
\alpha(X) a 256. Es decir, este valor es el mismo que el
coeficiente de producto-suma de MIN3 del color X. Si
XY es 3, 4, 5 ó 6, se calcula el coeficiente de
producto-suma \alpha(Y) en la etapa
(S1609). Este \alpha(Y) se calcula introduciendo el patrón
PAT(Y) del color Y en la LUT.
Las etapas (S1610), (S1611), (S1612), (S1613) y
(S1614) indican un método similar para calcular un
producto-suma \alpha(Z). Debido a que este
método es el mismo que el método para calcular \alpha(Y)
descrito anteriormente, se omitirá una descripción del mismo.
En base a los coeficientes de
producto-suma \alpha calculados para los colores
individuales, los valores convertidos de estos colores se calculan
en base a la ecuación (4) descrita anteriormente.
En el diagrama de flujo mostrado en la figura 16,
la aproximación (grado de falta de encuadre) de cada color es
evaluada fácilmente mediante la utilización de la operación de bit
de O-EXCLUSIVA, y se corrige la falta de encuadre en
base al resultado de la evaluación. Cuando la aproximación es alta,
es decir, cuando la falta de encuadre de un patrón es igual o
inferior a un cierto valor umbral (en el ejemplo anterior, cuando
cada XY y XZ es 0, 1, 2, 7, 8 ó 9), se le da prioridad a un color
que tiene el contraste máximo, y se utiliza el coeficiente de
producto-suma que se equipara a este color de
contraste máximo. Es decir, debido a que la magnitud del desencuadre
es pequeña, se corrige la falta de encuadre antes de la entrada
mediante la utilización del mismo coeficiente de
producto-suma para la conversión de los diferentes
colores. Asimismo, cuando se utiliza el mismo coeficiente de
producto-suma para diferentes colores, la
constitución de información de alta resolución realizada por una
interpolación no lineal puede ser controlada de esa manera para
producir un pequeño desencuadre para cada color. Es decir, los
objetivos mencionados anteriormente pueden ser satisfechos. Por otro
lado, cuando la aproximación es escasa, es decir, cuando la falta de
encuadre de un patrón es grande, se determina que la imagen se ha
desencuadrado intencionadamente, y se utiliza un coeficiente de
producto-suma original para ese color. Nótese que
los valores umbral utilizados en la figura 16 no se limitan a
"3" y "6", y pueden utilizarse cualquiera de los valores
calculados experimentalmente.
Aunque los cálculos de los valores convertidos en
base a la magnitud del desencuadre de un patrón se han descrito
anteriormente, los atributos de imagen en la unidad de clasificación
pueden cambiarse asimismo en base a la magnitud del desencuadre. De
manera recíproca, los cálculos de los valores convertidos pueden
cambiarse en base al resultado de la clasificación. Por ejemplo,
cuando en la unidad de clasificación se detecta el NIVEL_UNO o
PLANA, descritos previamente, se puede utilizar directamente el
valor de un píxel de interés como un valor convertido. Esto es
efectivo para aumentar la velocidad de proceso.
Asimismo, en el ejemplo mostrado en la figura 16,
un color que tiene el contraste máximo se considera como un color
prioritario. Sin embargo, cuando las componentes de color son Y, Cr
y CB, por ejemplo, la componente Y puede ser procesada previamente
como un color prioritario.
En la disposición mostrada en la figura 16, se
procesan en paralelo una serie de colores unos respecto a otros. Ya
que esto es para simplificar la explicación, el proceso en serie es
naturalmente posible.
Adicionalmente, aunque en el ejemplo anterior se
procesan 3x3 píxeles, también pueden procesarse 5x5 píxeles de
manera similar.
En esta realización de la presente invención,
como se ha descrito anteriormente, cuando una información de entrada
de baja resolución se convierte en información de alta resolución,
no se produce un desenfoque de la interpolación, lo cual es un
problema particularmente en imágenes naturales. Además, se puede
llevar a cabo un proceso de conversión con alta calidad de imagen en
el que no se produce nada de dentado sin tener en cuenta la baja
resolución de la información original de entrada. Asimismo, cuando
se constituye la información de alta resolución, el proceso no se
divide según el proceso de umbral convencional. De acuerdo con lo
anterior, se puede formar una imagen visible y suave, con
continuidad, de manera extremadamente sencilla incluso a partir de
una imagen natural. Adicionalmente, unos medios de clasificación de
alta calidad pueden clasificar fácilmente diferentes tipos de
imagen. En la constitución de información de alta resolución a
partir de las imágenes clasificadas, se realiza una interpolación no
lineal, correspondiente a cualquier tipo de imagen, sólo cambiando
el establecimiento de los coeficientes. Asimismo, se puede formar de
manera sencilla una imagen en color de alta resolución y de alta
calidad, sin producir ningún desencuadre para ningún color.
Tal como se ha descrito anteriormente, es
posible, mediante la utilización del proceso de conversión de
resolución de esta realización, proporcionar diferentes productos,
tales como una impresora, una vídeo impresora, y programas de
aplicación, capaces de emitir imágenes de alta calidad partiendo
incluso de imágenes que circulan por Internet o imágenes con una
cantidad de información pequeña, por ejemplo, imágenes introducidas
desde una cámara de vídeo digital.
En la primera y segunda realización, tal como se
ha descrito anteriormente, cuando una información de entrada de baja
resolución se convierte en información de alta resolución, no se
produce un desenfoque de la interpolación, lo cual es un problema
particularmente en imágenes naturales. Además, puede llevarse a cabo
un proceso de conversión con alta calidad de imagen en el que no se
produce ningún dentado, sin tener en cuenta la baja resolución de la
información original de entrada. Asimismo, cuando se constituye la
información de alta resolución, el proceso no se divide según el
proceso de umbral convencional. De acuerdo con lo anterior, se puede
formar una imagen visible y suave, con continuidad, de manera
extremadamente sencilla incluso a partir de una imagen natural.
Adicionalmente, se puede formar de manera sencilla una imagen en
color de alta resolución y de alta calidad, sin producir ningún
desencuadre para ningún color.
Tercera
realización
La segunda realización descrita anteriormente
puede presentar el siguiente problema.
Se supone que una información de imagen en color,
por ejemplo, información de imagen del espacio de colores RGB, es
introducida en unidades de ocho bits por píxel. En la segunda
realización anterior, el proceso se realiza para cada componente de
color. Es decir, se detectan los valores máximo y mínimo en una
ventana de píxeles vecinos más cercanos que rodean un píxel de
interés, y se realizan diferentes procesos para constituir una
información de alta resolución utilizando estos dos valores.
Esto será descrito a continuación en relación a
las figuras 35, 36 y 37. La figura 35 muestra un espacio de color
RGB. En la figura 35, un espacio tridimensional está formado por
tres ejes de R, G y B. Un cuerpo sólido (A) mostrado en la figura 35
está constituido por los valores máximo y mínimo de cada color en
una ventana vecina más cercana de un cierto píxel de interés. Cada
uno de los ejes R, G, y B tiene dos valores diferentes, es decir,
los valores máximo y mínimo de la ventana. Por lo tanto, el cuerpo
sólido (A) es un hexaedro que tiene ocho vértices.
La figura 36 muestra un ejemplo de una
distribución tridimensional de valores de píxel existentes realmente
en la ventana. Los círculos blancos representan puntos de
coordenadas donde estos valores de píxel existen. En base a los
valores de píxel existentes indicados por O, se detectan los valores
máximo y mínimo de cada eje para formar el cuerpo sólido (A). Un
cuerpo sólido formado por los valores de píxel existentes es,
naturalmente, un cuerpo sólido pequeño contenido en el cuerpo sólido
(A). En otras palabras, los valores de píxel existentes en la
ventana no incluyen necesariamente los ocho vértices (indicados
mediante círculos negros en la figura 37) del cuerpo sólido (A).
Sin embargo, en la segunda realización descrita
anteriormente, el valor de salida de cada color es determinado en
base a los valores máximo y mínimo de manera independiente de los
otros colores. Por lo tanto, este valor de salida puede tomar un
valor que está fuera de un cuerpo sólido pequeño contenido dentro
del cuerpo sólido (A). Los puntos más extremos entre los otros
puntos son los ocho vértices del cuerpo sólido (A). Si se produce un
valor extremo fuera de un cuerpo sólido pequeño real, se genera un
color singular no generado en una imagen de entrada, y este color
permanece visiblemente. Inevitablemente, esto hace que una imagen de
salida de una mala impresión a un observador.
En la tercera realización de la presente
invención, por lo tanto, cuando se producen datos de imagen en color
de alta resolución a partir de datos de imagen en color de entrada,
se pueden producir datos de imagen en color de alta resolución y
alta calidad mediante la eliminación de la falta de encuadre del
color y la generación de colores singulares.
A continuación, se describirá con detalle la
tercera realización de acuerdo con la presente invención en relación
a los dibujos adjuntos.
La figura 26 es un diagrama de bloques que
muestra los componentes principales de un aparato para el proceso de
imágenes de acuerdo con la tercera realización. Nótese que el
aparato para el proceso de imágenes mencionado en este caso puede
ser un aparato generador de imagen tal como una impresora conectada
a un ordenador o una impresora de vídeo sobre la que se aplican
señales de vídeo. Sin embargo, este aparato para el proceso de
imágenes puede ser asimismo un circuito de proceso interno de dicho
aparato de emisión de imágenes. De manera alternativa, el aparato
para el proceso de imágenes puede ser un aparato distinto de un
aparato de emisión de imágenes. Por ejemplo, el aparato para el
proceso de imágenes puede ser incorporado como programas de
aplicación internos de un ordenador o como programas controladores
de impresora para emitir datos a una impresora. Es decir, que tal
como resultará evidente a partir de la siguiente descripción, la
presente invención no sólo incluye equipos o hardware sino también
programas.
A continuación, se describirá la secuencia de
funcionamiento de la tercera realización en relación al diagrama de
bloques de la figura 26. En esta realización, la información de
imagen de entrada es convertida en información que tiene Nx y Mx
píxeles.
En la figura 26, los numerales de referencia
(1100), (1101) y (1102), indican terminales de entrada a través de
los cuales se introduce una información de imagen en color de baja
resolución. Más específicamente, los terminales de entrada (1100),
(1101) y (1102) introducen información de imagen de componentes R, G
y B respectivamente. Para simplificar la explicación, los terminales
de entrada se disponen en paralelo para las componentes R, G y B.
Sin embargo, estas componentes también pueden ser transmitidas en
serie desde un terminal de entrada.
La secuencia de entrada de la información de
imagen RGB puede ser tanto una secuencia de puntos como una
secuencia de línea. Las memorias intermedias (1103) de línea
almacenan y mantienen de manera independiente unas pocas líneas de
esta información de imagen de baja resolución según sus respectivos
colores.
A partir de esta información de imagen de unas
pocas líneas, se establece una ventana de una serie de píxeles
vecinos más cercanos de dos dimensiones, que incluye un píxel de
interés, para cada R, G y B (unidades (1104) de establecimiento de
ventana).
Como se muestra en la figura 27, esta ventana es
un rectángulo que tiene el píxel de interés en su centro. Sin
embargo, la ventana puede tener de manera natural una forma
diferente al rectángulo. En relación a la figura 27, el asterisco en
el centro indica un píxel de interés (E), y este píxel de interés
(E) y los ocho píxeles vecinos más cercanos que rodean al píxel de
interés (E) constituyen la ventana.
Una unidad (1105) de selección del color
representativo selecciona dos colores existentes a partir de la
información de imagen en tres ventanas diferentes de R, G y B. En la
ventana mostrada en la figura 27, por ejemplo, existen un máximo de
nueve colores si todos los nueve píxeles en la ventana tienen
colores diferentes (combinaciones de componentes R, G y B). La
unidad (1105) de selección del color representativo es un medio para
seleccionar dos colores de entre estos nueve colores. Si los nueve
píxeles en la ventana tienen el mismo color, el color existente es,
por supuesto, solamente un color. Por lo tanto, sólo se emite este
color. La configuración de la unidad (1105) de selección del color
representativo se describirá posteriormente.
Las unidades (1106) de suavizado son medios para
suavizar de manera independiente el píxel de interés y de sus
píxeles vecinos más cercanos según sus colores respectivos. El
proceso de suavizado puede lograrse mediante un LPF (filtro pasa
bajos).
De manera alternativa, es posible convertir
cantidades de características tales como patrones en valores
numéricos en base al estado de distribución del valor de píxel en la
ventana y calcular valores después del suavizado mediante la
introducción de estos valores numéricos en una LUT (tabla de
consultas). En cualquier caso, el proceso de suavizado es importante
porque es esencial para eliminar la dependencia respecto a la
resolución de la información de entrada de baja resolución. Sin
embargo, una imagen tal como una imagen natural, que originalmente
tiene una pequeña dependencia respecto la resolución cuando es
introducida, puede pasar también a través del suavizado para no
perder información de detalle.
Las unidades de interpolación (1107) realizan de
manera independiente una interpolación lineal para sus diferentes
colores. Aunque el proceso de la unidad de interpolación no se
limita a interpolación lineal, la interpolación lineal es un método
capaz de obtener el máximo efecto más fácilmente. Esta unidad de
interpolación incrementa en un píxel de interés el número de píxeles
que corresponden a la resolución de salida.
Por ejemplo, en una conversión en la que una
información de imagen de 72 dpi (punto por pulgada) se emite a una
impresora de 720 dpi, los niveles de aumento N y M son N = M = 10.
Por lo tanto, cada unidad de interpolación convierte un píxel de
interés en información interpolada de 100 (=10x10) píxeles.
Después de que las unidades (1107) de
interpolación obtienen el número de píxeles correspondiente a la
resolución de salida, las unidades (1108) de constitución de
información de alta resolución convierten el valor de píxel de cada
píxel interpolado a un valor de píxel correspondiente a la alta
resolución. En este proceso de constitución de información de
resolución se utiliza la información de las componentes R, G y B de
los dos colores seleccionados por la unidad (1105) de selección.
Se supone que los dos colores seleccionados son P
y Q (las componentes RGB de P y Q son P = (Pr,Pg,Pb) y Q =
(Qr,Qg,Qb)). Es decir, se transmiten dos tipos de información Pr y
Qr de la componente R, dos tipos de información Pg y Qg de la
componente G, y dos tipos de información Pb y Qb de la componente B,
a las unidades de constitución de información de alta
resolución.
Un rasgo característico notable de esta tercera
realización es que los valores utilizados en las unidades de
constitución son seleccionados mediante la evaluación de las tres
componentes.
Siendo Pi y Qi los valores interpolados de una
componente de color i para cada punto de interpolación k de valor
Ci(k), y los valores de las componentes de color P y Q, un
valor de salida hi(k) de la unidad de constitución de
información de alta resolución se calcula mediante las siguientes
operaciones aritméticas.
[Cuando Ci(k) \geq (Pi + Qi) / 2]
hi(k) =
(\alpha Ci(k) + \beta MAX(Pi,Qi)) \ / \ (\alpha +
\beta)
Sin embargo, si hi(k) >
MAX(Pi,Qi),
...
(8)hi(k) =
MAX(Pi,Qi)
[Cuando Ci(k) < (Pi + Qi) / 2]
hi(k) =
(\alpha Ci(k) + \beta MAX(Pi,Qi)) \ / \ (\alpha +
\beta)
Sin embargo, si hi(k) <
MIN(Pi,Qi),
...
(9)hi(k) =
MIN(Pi,Qi)
(donde \alpha y \beta son
coeficientes, MAX(Pi,Qi) es una función para seleccionar el
valor más grande entre Pi y Qi, y MIN(Pi,Qi) es una función
para seleccionar el valor más pequeño entre Pi y
Qi.)
Las ecuaciones (8) y (9) son ejemplos de la
constitución de información de alta resolución. Otro ejemplo es una
operación aritmética que cambia de manera continua sin utilizar
ningún proceso de umbral. El valor hi(k) de cada color
calculado de esta manera es emitido desde un terminal (1109) de
salida.
La figura 28 muestra la configuración de la
unidad (1105) de selección. En la figura 28, el numeral de
referencia (1300) indica una unidad de cálculo de la diferencia de
color; (1301) indica una unidad de cálculo del valor máximo de
diferencia de color; y (1302) indica una unidad de determinación de
dos colores. En la ventana mostrada en la figura 27, se han
seleccionado combinaciones de dos colores a partir de nueve colores.
El número de combinaciones es
\hbox{9C2 = 36.}
La unidad (1300) de cálculo de la diferencia de
color calcula la diferencia de color en estas treintiséis
combinaciones de dos colores. Es decir, suponiendo que los dos
colores de una combinación son A y B (las componentes de color de A
y B son A = (Ar,Ag,Ab) y B = (Br,Bg,Bb)), una diferencia de color E
es calculada como sigue.
...(10)E = ((Ar
– Br)^2 + (Ag – Bg)^2 + (Ab –
Bb)^2)^1/2
(donde ^ representa la potencia,
por ejemplo, x^y significa la potencia y-ésima de
x.)
Debido a que sólo se calcula la diferencia entre
dos píxeles para comprobar sus tamaños, se puede omitir el exponente
1/2 de la ecuación (10). Esta parte es bastante innecesaria cuando
la velocidad de funcionamiento es importante. Si la carga de la
segunda operación de elevar a potencia es alta, puede utilizarse la
suma de los valores absolutos de las diferencias de componentes de
color. Esto simplifica adicionalmente el funcionamiento y aumenta la
velocidad de funcionamiento.
La unidad (1301) de cálculo de valor máximo de la
diferencia de color comprende un comparador y calcula el valor
máximo de las diferencias de color de las treintiséis combinaciones
calculadas mediante la ecuación (10). La unidad (1302) de
determinación de dos colores emite los dos colores detectados que
tienen la mayor diferencia de color como los colores representativos
de la ventana.
La unidad de selección del color representativo
descrita anteriormente es el mayor rasgo característico de esta
realización. El efecto de la realización será descrito a
continuación mediante la comparación con la segunda realización, en
relación a las figuras 29 y 30.
La figura 29 muestra la distribución de valores
de píxel en la ventana. Por motivos de simplicidad, se describirá la
distribución de un espacio RGB tridimensional como la distribución
de un espacio RGB bidimensional suponiendo que el valor de G es
uniforme.
En relación a la figura 29, unos círculos blancos
indican la distribución de los nueve píxeles de la ventana mostrada
en la figura 27. Sólo se muestran siete marcas O en la figura 29
debido a que algunos píxeles tienen el mismo valor.
La figura 30 muestra el método de detección de
los valores máximo y mínimo de cada componente de color como se ha
descrito previamente. Cuando los valores calculados quedan limitados
por los valores máximo y mínimo, como se ha descrito anteriormente,
se obtiene un campo rodeado por los círculos negros de la figura 30
como campo de coordenadas de color generadas en la constitución de
información de alta resolución. Debido a que este campo es amplio,
se genera un color singular que no existe originalmente en los
píxeles vecinos más cercanos.
La figura 31 es una vista que muestra el estado
en el cual dos puntos, donde la diferencia de color es un máximo,
son seleccionados por la unidad (1105) de selección del color
representativo de la tercera realización. Dos puntos indicados por
círculos negros son puntos representativos detectados como que
tienen la mayor diferencia de color, y estos puntos están indicados
como P y Q. Una parte indicada mediante las líneas continuas de la
figura 32 es el campo de información de alta resolución expresado
por los puntos P y Q detectados. Este campo es estrecho debido a que
está limitado por los valores de Pr, Qr, Pb y Qb, no por los valores
máximo y mínimo. De acuerdo con lo anterior, no se genera ningún
color singular, de manera que un buen cambio de gradación de color
puede expresarse de P a Q.
La figura 33 es un diagrama de flujo que muestra
un ejemplo del proceso anterior cuando el proceso se consigue
mediante programas.
En primer lugar, en la etapa (S1001), se
introducen n x m píxeles de color (denominados una ventana en el
proceso anterior). En la etapa (S1002), se seleccionan, de entre los
n x m píxeles, dos píxeles P y Q que tienen la mayor diferencia de
color.
El flujo avanza a continuación a la etapa (S1003)
para interpolar linealmente los n x m píxeles de entrada, calculando
por tanto unos datos provisionales C(k) de píxel de salida
después de la ampliación (o después de que la resolución es
aumentada).
Dado un valor provisional C(k) de píxel de
salida, los valores originales de píxel de salida h(k), es
decir, hr(k),
\hbox{hg(k)}y hb(k) de las componentes R, G y B son calculados en las etapas (S1004) a (S1006).
Para realizar de manera repetitiva este proceso
en la etapa (S1007) para todos los píxeles provisionales de salida
calculados en la etapa (S1003), k se incrementa en "1" (etapa
(S1008)).
Cuando los valores h(k) de píxel de salida
de la ventana de interés son generados de esta manera, el flujo
avanza hacia la etapa (S1009) para comprobar si el dato de imagen de
entrada se ha procesado completamente. Si se determina un NO en la
etapa (S1009), el flujo vuelve a la etapa (S1001) para procesar el
siguiente bloque de píxeles.
Si finalmente se determina un SÍ en la etapa
(S1009), esto significa que los valores h(k) de píxel de
salida contienen datos de píxel de salida de colores individuales
después de la ampliación o de la constitución de información de alta
resolución. Por lo tanto, este dato de píxel de salida es emitido
hacia procesos posteriores (por ejemplo, emitido hacia un aparato de
impresora).
Nótese que la temporización de salida de datos no
es necesariamente la etapa mostrada en la figura 33. Por ejemplo,
los datos pueden ser emitidos inmediatamente después de las etapas
(S1006) y (S1007). En algunos casos, los datos pueden ser emitidos
cuando se ha completado el proceso según la dirección principal de
exploración de los datos de imagen de entrada.
Cuarta
realización
La figura 34 es un diagrama de bloques que
muestra la cuarta realización de la presente invención. Esta cuarta
realización difiere de la tercera realización anterior en la
disposición de la unidad de constitución de información de alta
resolución. En la tercera realización descrita anteriormente, de una
serie de procesos de conversión de resolución, sólo la unidad de
selección del color representativo realiza las etapas utilizando una
información de colores diferente a la componente de color que se ha
de procesar. Esta cuarta realización está caracterizada porque la
información de las tres componentes de color se utiliza no sólo en
una unidad de selección del color representativo sino también en una
unidad de constitución de información de alta resolución.
En la figura 34, los mismos numerales de
referencia de la figura 26 indican partes que tienen esencialmente
las mismas funciones. Por lo tanto, a continuación sólo se
describirán puntos diferentes.
En relación a la figura 34, una unidad (1105) de
selección del color representativo selecciona una combinación de dos
colores que tienen la mayor diferencia de color, como en la tercera
realización. Las componentes de color P = (Pr,Pg,Pb) y Q =
(Qr,Qg,Qb) de los dos colores seleccionados son suministradas a la
unidad (1800) de constitución de información de alta resolución.
Esta unidad (1800) de constitución de información de alta resolución
constituye información de alta resolución de la siguiente
manera.
1. Cuando Pr \geq Qr y Pg \geq Qg y Pb \geq
Qb
- ((a)
- Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
- hi(k)=(\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o
hi(k) < Pi,
- hi(k) =
Pi
\hskip11cm
...(11)
- ((b)
- Si Cr(k) < (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
- hi(k)=(\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o
hi(k) < Qi,
- hi(k) =
Qi
\hskip11cm
...(12)
- ((c)
- En casos distintos de (a) y (b) anteriores
- hi(k) =
Ci(k)
\hskip10,6cm
...(13)
2. Cuando Pr \geq Qr y Pb \geq Qg y Pb <
Qb
- ((a)
- Si Cr(k) \geq (Pr + Qr) y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
- hi(k)=(\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o
hi(k) < Pi,
- hi(k) =
Pi
\hskip11cm
...(14)
- ((b)
- Si Cr(k) < (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o
hi(k) < Qi,
- hi(k) =
Qi
\hskip11cm
...(15)
- ((c)
- En casos distintos de (a) y (b) anteriores
- hi(k) =
Ci(k)
\hskip10,6cm
...(16)
3. Cuando Pr \geq Qr y Pg < Qg y Pb \geq
Qb
- ((a)
- Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o
hi(k) < Pi,
- hi(k) =
Pi
\hskip11cm
...(17)
- ((b)
- Si Cr(k) < (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o
hi(k) < Qi,
- hi(k) =
Qi
\hskip11cm
...(18)
- ((c)
- En casos distintos de (a) y (b) anteriores
- hi(k) =
Ci(k)
\hskip10,6cm
...(19)
4. Cuando Pr \geq Qr y Pg < Qg y Pb <
Qb
- ((a)
- Si Cr(k) \geq (Pr + Qr) y Cg(k) < (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi,
- hi(k) =
Pi
\hskip11cm
...(20)
- ((b)
- Si Cr(k) < (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o
hi(k) < Qi,
- hi(k) =
Qi
\hskip11cm
...(21)
- ((c)
- En casos distintos de (a) y (b) anteriores
- hi(k) =
Ci(k)
\hskip10,6cm
...(22)
5. Cuando Pr < Qr y Pg \geq Qg y Pb \geq
Qb
- ((a)
- Si Cr(k) < (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o
hi(k) < Pi,
- hi(k) =
Pi
\hskip11cm
...(23)
- ((b)
- Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o
hi(k) < Qi,
- hi(k) =
Qi
\hskip11cm
...(24)
- ((c)
- En casos distintos de (a) y (b) anteriores
- hi(k) =
Ci(k)
\hskip10,6cm
...(25)
6. Cuando Pr < Qr y Pg \geq Qg y Pb <
Qb
- ((a)
- Si Cr(k) \geq (Pr + Qr) y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o
hi(k) < Pi,
- hi(k) =
Pi
\hskip11cm
...(26)
- ((b)
- Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o
hi(k) < Qi,
- hi(k) =
Qi
\hskip11cm
...(27)
- ((c)
- En casos distintos de (a) y (b) anteriores
- hi(k) =
Ci(k)
\hskip10,6cm
...(28)
7. Cuando Pr < Qr y Pg < Qg y Pb \geq
Qb
- ((a)
- Si Cr(k) < (Pr + Qr) / 2 y Cg(k) < (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o
hi(k) < Pi,
- hi(k) =
Pi
\hskip11cm
...(29)
- ((b)
- Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o
hi(k) < Qi,
- hi(k) =
Qi
\hskip11cm
...(30)
- ((c)
- En casos distintos de (a) y (b) anteriores
- hi(k) =
Ci(k)
\hskip10,6cm
...(31)
8. Cuando Pr < Qr y Pg < Qg y Pb <
Qb
- ((a)
- Si Cr(k) < (Pr + Qr) y Cg(k) < (Pg + Qg) / 2 y Cb(k) < (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaPi) / (\alpha + \beta)
Sin embargo, si hi(k) > Pi o
hi(k) < Pi,
- hi(k) =
Pi
\hskip11cm
...(32)
- ((b)
- Si Cr(k) \geq (Pr + Qr) / 2 y Cg(k) \geq (Pg + Qg) / 2 y Cb(k) \geq (Pb + Qb) / 2)
- hi(k) = (\alphaCi(k) + \betaQi) / (\alpha + \beta)
Sin embargo, si hi(k) > Qi o
hi(k) < Qi,
- hi(k) =
Qi
\hskip11cm
...(33)
- ((c)
- En casos distintos de (a) y (b) anteriores
- hi(k) =
Ci(k)
\hskip10,6cm
...(34)
(donde \alpha y \beta son
coeficientes, e i es una componente de color correspondiente a cada
una de R, G y
B.)
Las informaciones de alta resolución de R, G y B
constituidas de esta manera son transmitidas a los terminales (1109)
de salida, y se emite una información de imagen de alta calidad.
El rasgo característico de la cuarta realización
es la constitución de información de alta resolución, que es
controlada de manera más precisa. Es decir, si el punto de
interpolación de la unidad de interpolación está de manera obvia
cerca de las posiciones P y Q como colores representativos, se
realiza un proceso de reducción de la distancia. Si la posición del
punto de interpolación es lejana, se emite el valor de este punto de
interpolación. Mediante este proceso es posible estrechar
adicionalmente el campo en el cual se genera un color singular y
determinar libremente el valor de salida en base a la posición
tridimensional del punto de interpolación.
Anteriormente se ha descrito la constitución de
información de alta resolución utilizando una serie de componentes
de color. Sin embargo, el método de constitución de información de
alta resolución no está limitado naturalmente al basado en las
ecuaciones (8), (9) y (11) a (34). Ejemplos son los métodos que
utilizan una LUT y el método de realizar operaciones aritméticas
mediante el establecimiento de funciones descritas en las
realizaciones primera y segunda. En esta realización, se describe el
proceso de selección de dos colores representativos y de
aproximación de valores de salida a estos dos colores. Sin embargo,
el número de colores representativos no se limita a 2. Cuando tres o
más colores son seleccionados como colores representativos, es
posible realizar un control más preciso y constituir una información
de alta resolución mejor. La contrapartida es un proceso complicado
que requiere un tiempo de ejecución mayor.
Cuando se reúnen las ecuaciones (8), (9) y (11) a
(34), el valor de salida es calculado, básicamente, mediante la
utilización de la siguiente ecuación según caso por caso.
...(35)hi(k) = \alpha
Ci(k) + \beta Pi + \gamma
Qi
(donde \alpha, \beta y \gamma
son coeficientes, e i es una componente de color correspondiente a
cada una de R, G y
B.)
Cuando se utilizan valores representativos (S0,
S1, S2, ..., Sn) de tres o más colores, la ecuación anterior puede
reescribirse de manera general como sigue.
...(36)hi(k) = \alpha\cdot
Ci(k)+\Sigma\beta j\cdot
Sji
(donde \Sigma es la suma total
referida a la variable j, variable j = 0, 1, ...,
n-1 y \alpha y \betaj son coeficientes
predeterminados.)
La realización anterior se describe tomando RGB
como un ejemplo de un espacio de color. Sin embargo, son posibles
diferentes espacios de color tales como L*a*b como un espacio de
color uniforme y CMYK como colores producidos por una impresora.
Asimismo, se describe un método de minimización de la diferencia de
color como un ejemplo del método de selección del color
representativo, pero el método no se limita sólo a éste. Un ejemplo
es un método de concesión de prioridad a una componente de color
según la cual el contraste (valor máximo - mínimo) en la ventana es
un máximo, y de especificación de un color representativo a partir
de píxeles que tienen los valores máximo y mínimo de este color
prioritario.
La presente invención se puede aplicar a un
sistema constituido por una serie de dispositivos (por ejemplo, un
ordenador principal, un interfaz, un lector, una impresora) o a un
aparato (por ejemplo, una máquina copiadora, un fax) que comprende
un único dispositivo.
Adicionalmente, el objetivo de la presente
invención puede alcanzarse asimismo dotando de un soporte de
almacenamiento que almacene códigos de programa para realizar las
funciones citadas anteriormente de acuerdo con las realizaciones, a
un sistema o a un aparato, leyendo los códigos de programa con un
ordenador (por ejemplo, CPU, MPU) del sistema o aparato desde el
soporte de almacenamiento, y ejecutando a continuación el
programa.
En este caso, los códigos de programa leídos
desde el soporte de almacenamiento realizan las funciones de acuerdo
con las realizaciones, y el soporte de almacenamiento que almacena
los códigos de programa constituye la invención.
Asimismo, el soporte de almacenamiento, tal como
un diskette, un disco duro, un disco óptico, un disco
magneto-óptico, CD-ROM, CD-R, una
cinta magnética, una tarjeta de memoria de tipo no volátil, y una
memoria ROM pueden utilizarse para proporcionar los códigos de
programa.
Además, al lado de las funciones citadas
anteriormente de acuerdo con las realizaciones anteriores, son
realizadas mediante la ejecución de los códigos de programa que son
leídos por un ordenador, la presente invención incluye un caso donde
un OS (Sistema Operativo) o similar, ejecutándose en el ordenador,
realiza una parte o todos los procesos de acuerdo con las
indicaciones de los códigos de programa y realiza las funciones de
acuerdo con las realizaciones anteriores.
Además, la presente invención incluye asimismo un
caso en el que, después de que los códigos de programa leídos del
soporte de almacenamiento son escritos en una tarjeta de extensión
de funciones, que está insertada en el ordenador, o en una memoria
dispuesta en una unidad de extensión de funciones que está conectada
al ordenador, la CPU o similar contenida en la tarjeta de extensión
de funciones o en una unidad de extensión de funciones, realiza una
parte o todo el proceso de acuerdo con las indicaciones de los
códigos de programa y realiza las funciones de las realizaciones
anteriores.
En las realizaciones tercera y cuarta como se han
descrito anteriormente, cuando se constituyen los datos de imagen en
color de alta resolución a partir de los datos de imagen en color de
entrada, es posible evitar la falta de encuadre del color o la
generación de colores singulares. Además, se pueden realizar
técnicas de interpolación que tienen un alto grado de libertad de
diseño y que son capaces de mejorar la calidad de imagen. De acuerdo
con lo anterior, la presente invención es aplicable fácilmente a
diferentes productos, y se pueden esperar emisiones de alta calidad
incluso a partir de imágenes que tienen una pequeña cantidad de
información.
Pueden realizarse muchas realizaciones
aparentemente muy diferentes de la presente invención, sin desviarse
del ámbito de las reivindicaciones adjuntas.
Claims (27)
1. Aparato para el proceso de imágenes para la
conversión de información de baja resolución en información de alta
resolución mediante el aumento del número de píxeles representados
por la información de imagen, que comprende:
medios (102) para la formación de primera ventana
para la formación de una primera ventana (figura 2) para hacer
referencia a los píxeles vecinos más cercanos de un píxel de interés
de baja resolución;
medios (103) de detección para detectar una serie
de valores de píxel representativo (MAX3, MIN3, MAX5, MIN5) de la
primera ventana;
medios (104) de clasificación para la
determinación del tipo de imagen del píxel de interés mediante la
evaluación de la distribución de los valores de píxel de la primera
ventana con respecto a dichos valores de píxel representativo;
medios para la conversión (105) y almacenamiento
(106) de valores filtrados pasa bajos interpolados linealmente (604)
de los píxeles vecinos más cercanos, incluyendo el píxel de interés,
formando una segunda ventana (figura 4);
una unidad (107) de constitución de información
de alta resolución para la constitución de una serie (NxM) de
valores de píxel correspondientes al píxel de interés mediante la
selección (1207), dependiendo de dicho tipo de imagen determinado,
de un proceso óptimo de entre una serie de procesos
(1201-1204), procesos que incluyen:
la interpolación lineal (1201, 1202) de valores
de píxel de la primera ventana;
la interpolación no lineal (1203, figura 13) de
valores de píxel de la primera ventana y de dichos valores de píxel
representativo;
la interpolación no lineal (1204, figura 14) de
valores de píxel de la segunda ventana y de dichos valores de píxel
representativo.
2. Aparato, según la reivindicación 1, en el que
el proceso de interpolación lineal que puede ser seleccionado es la
interpolación lineal (1202, figura 20) de valores de píxel de la
segunda ventana, y el proceso no lineal que puede ser seleccionado
es la interpolación no lineal (1204, figura 20) de valores de píxel
de la segunda ventana y de dichos valores representativos.
3. Aparato, según la reivindicación 1 o la
reivindicación 2 y que comprende adicionalmente unos medios (108) de
interpolación no lineal para la realización de una interpolación no
lineal mediante una operación de producto-suma de
valores interpolados linealmente desde dichos medios de
interpolación lineal y de los valores representativos.
4. Aparato, según cualquier reivindicación
precedente, caracterizado por comprender adicionalmente unos
medios (1205, 1206) de establecimiento de coeficientes para el
establecimiento de manera dinámica de un coeficiente de
producto-suma de la operación de
producto-suma mediante dichos medios de
interpolación no lineal.
5. Aparato, según la reivindicación 4,
caracterizado por comprender adicionalmente unos medios (104)
de clasificación para la clasificación de un atributo del píxel de
interés mediante la evaluación del estado de distribución de los
valores de píxel en la primera ventana, y
en el que durante el funcionamiento, el
coeficiente de producto-suma de la operación de
producto-suma por parte de dichos medios de
interpolación no lineal es establecido de manera dinámica en base a
un resultado de una clasificación de atributo desde dichos medios de
clasificación.
6. Aparato, según la reivindicación 5,
caracterizado porque dichos medios (104) de clasificación
están adaptados para la evaluación de la separación de los valores
de píxel de la primera ventana.
7. Aparato, según la reivindicación 5,
caracterizado porque dichos medios (104) de clasificación
están adaptados para evaluar el número de niveles de gradación de
los valores de píxel de la primera ventana.
8. Aparato, según la reivindicación 6,
caracterizado porque cuando el número de niveles de gradación
de la ventana no es inferior a tres, la separación es evaluada
mediante la extracción de no menos de tres valores representativos
que incluyen los valores máximo y mínimo de la ventana y mediante el
cálculo de las diferencias entre los valores representativos.
9. Aparato, según la reivindicación 8,
caracterizado porque no menos de tres valores representativos
incluyen el valor máximo, el valor mínimo,
un valor A no inferior a un valor promedio de los
valores máximo y mínimo y exceptuando el valor máximo y el valor más
cercano al mismo,
un valor B no inferior al valor promedio de los
valores máximo y mínimo y exceptuando el valor máximo y el valor más
lejano al mismo,
un valor C inferior al valor promedio de los
valores máximo y mínimo y exceptuando el valor mínimo y el valor más
cercano al mismo, y
un valor D inferior al valor promedio de los
valores máximo y mínimo y exceptuando el valor máximo y el valor más
lejano al mismo.
10. Aparato, según la reivindicación 9,
caracterizado porque la separación es evaluada mediante la
evaluación de valores absolutos de las diferencias entre el valor
máximo y A, el valor máximo y B, C y el valor mínimo, y D y el valor
mínimo.
11. Aparato, según la reivindicación 9,
caracterizado porque la separación es evaluada mediante la
evaluación de valores relativos de las diferencias entre el valor
máximo y A, el valor máximo y B, C y el valor mínimo, y D y el valor
mínimo.
12. Aparato, según cualquiera de las
reivindicaciones 5 a 11, caracterizado porque el aparato
incluye medios adaptados para cambiar las características del filtro
de dicho LPF adaptable de dichos medios de conversión, cambiadas en
base a la información de atributo clasificada por dichos medios de
clasificación.
13. Aparato, según cualquier reivindicación
precedente, caracterizado porque dichos medios (105) de
conversión están adaptados para calcular valores convertidos
mediante una operación de producto-suma de los
valores representativos.
14. Aparato, según la reivindicación 13,
caracterizado porque dichos medios (105) de conversión están
adaptados para calcular un coeficiente de
producto-suma de la operación de
producto-suma en base a una cantidad de
características de la primera ventana.
15. Aparato, según la reivindicación 14,
caracterizado porque la cantidad de características es un
patrón obtenido mediante la cuantificación de la primera
ventana.
16. Aparato, según cualquier reivindicación
precedente, caracterizado porque los valores representativos
son los valores máximo y mínimo de una ventana de n x n píxeles (n
\geq 2) que incluye el píxel de interés.
17. Aparato, según la reivindicación 16,
caracterizado porque los valores representativos son los
valores máximo y mínimo de una ventana de n x n píxeles (n \geq 2)
que incluye el píxel de interés y los valores máximo y mínimo de una
ventana de m x m píxeles (m \geq n) que incluye los n x n
píxeles.
18. Aparato, según la reivindicación 1,
caracterizado porque comprende adicionalmente unos medios
(104) de clasificación para la clasificación de un atributo del
píxel de interés mediante la evaluación de un estado de distribución
de los valores de píxel en la primera ventana, y
en el que la interpolación lineal es ejecutada
mediante la conmutación de la información del valor de píxel de la
primera ventana y la información del valor convertido de la segunda
ventana en base a un resultado de clasificación de atributo desde
dichos medios de clasificación.
19. Aparato, según la reivindicación 1,
caracterizado porque una serie de coeficientes de
producto-suma de los valores interpolados
linealmente y los valores representativos son utilizados para emitir
un valor óptimo de acuerdo con las magnitudes de una serie de
resultados de producto-suma.
20. Aparato, según cualquier reivindicación
precedente, en el que dichos medios para la formación de primera
ventana, dichos medios de detección, dichos medios de conversión,
dichos medios de interpolación lineal y dichos medios de
interpolación no lineal están adaptados para realizar un proceso
para cada componente de color de una imagen en color de entrada.
21. Aparato, según la reivindicación 20,
caracterizado por comprender adicionalmente:
medios para la formación de un patrón para la
formación de un patrón mediante la cuantificación de la primera
ventana para cada componente de color;
medios de evaluación para la evaluación de la
aproximación del patrón de cada componente de color; y
medios de cálculo para el cálculo de valores
convertidos mediante una operación de producto-suma
de una serie de valores representativos para cada componente de
color, y en el que un coeficiente de producto-suma
es establecido en base a un resultado de una evaluación desde dichos
medios de evaluación.
22. Aparato, según la reivindicación 21, y que
comprende adicionalmente:
medios de selección para la selección de un color
prioritario en base a la información del valor de píxel de la
primera ventana de cada componente de color; y
medios de evaluación para la evaluación de la
aproximación de un patrón del color prioritario con un patrón de un
color diferente del color prioritario, en los que
si la aproximación no es inferior a un valor
umbral preestablecido, se establece un coeficiente de
producto-suma del color diferente al color
prioritario en base a un coeficiente de
producto-suma del color prioritario.
23. Aparato, según la reivindicación 21 o la
reivindicación 22, caracterizado porque la aproximación es
evaluada realizando una operación O-EXCLUSIVA de bit
para cada patrón.
24. Aparato, según la reivindicación 22 o la
reivindicación 23, caracterizado porque el color prioritario
es determinado mediante un valor de contraste de la primera
ventana.
25. Método para el proceso de imágenes para la
conversión de información de baja resolución en información de alta
resolución mediante el aumento del número de píxeles representados
por la información de imagen, que comprende:
una etapa de formación de una primera ventana
(figura 2) haciendo referencia a los píxeles vecinos más cercanos de
un píxel de interés de baja resolución;
una etapa de detección de una serie de valores de
píxel representativo (MAX3, MIN3, MAX5, MIN5) desde la primera
ventana;
una etapa de clasificación del tipo de imagen del
píxel de interés mediante la evaluación de la distribución de los
valores de píxel de la primera ventana con respecto a dichos valores
de píxel representativo;
una etapa de conversión (105) y almacenamiento
(106) de los valores filtrados pasa bajos (604) interpolados
linealmente de los píxeles vecinos más cercanos que incluyen el
píxel de interés que forman una segunda ventana (figura 4); y
una etapa de constitución de información de alta
resolución para la constitución de una serie (NxM) de valores de
píxel que corresponden al píxel de interés mediante la selección
(1207), dependiente de dicho tipo de imagen determinado, de un
proceso óptimo de entre una serie de procesos
(1201-1204), procesos los cuales incluyen:
la interpolación lineal (1201, 1202) de valores
de píxel de la primera ventana;
la interpolación no lineal (1203, figura 13) de
valores de píxel de la primera ventana y de dichos valores de píxel
representativos;
la interpolación no lineal (1204, figura 14) de
valores de píxel de la segunda ventana y de dichos valores de píxel
representativos.
26. Método, según la reivindicación 25, en el que
el proceso de interpolación lineal que puede seleccionarse es la
interpolación lineal (1202, figura 20) de valores de píxel de la
segunda ventana, y el proceso no lineal que puede ser seleccionado
es la interpolación no lineal (1204, figura 20) de valores de píxel
de la segunda ventana y de dichos valores representativos.
27. Método, según la reivindicación 25 o la
reivindicación 26 y que comprende adicionalmente la realización de
una interpolación no lineal mediante una operación de
producto-suma de valores interpolados linealmente
desde dichos medios de interpolación lineal y de los valores
representativos.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP05019897A JP3210264B2 (ja) | 1997-03-05 | 1997-03-05 | 画像処理装置及び方法 |
JP5019897 | 1997-03-05 | ||
JP14671997A JP3703253B2 (ja) | 1997-06-04 | 1997-06-04 | 画像処理装置及び方法及び記憶媒体 |
JP14671997 | 1997-06-04 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2226064T3 true ES2226064T3 (es) | 2005-03-16 |
Family
ID=26390649
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES98301597T Expired - Lifetime ES2226064T3 (es) | 1997-03-05 | 1998-03-04 | Metodo y aparato para el proceso de imagenes. |
Country Status (4)
Country | Link |
---|---|
US (1) | US6157749A (es) |
EP (1) | EP0863484B1 (es) |
DE (1) | DE69825196T2 (es) |
ES (1) | ES2226064T3 (es) |
Families Citing this family (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4065462B2 (ja) * | 1997-12-26 | 2008-03-26 | キヤノン株式会社 | 画像処理装置及び画像処理方法 |
DE69835802T2 (de) * | 1998-03-09 | 2007-04-12 | Sony Deutschland Gmbh | Verfahren und System zur Interpolation von digitalen Signalen |
EP0999522B1 (en) * | 1998-11-06 | 2008-04-09 | Canon Kabushiki Kaisha | Image processing method, system and apparatus, and storage medium |
JP2000184185A (ja) * | 1998-12-15 | 2000-06-30 | Canon Inc | 解像度変換装置、方法及びコンピュータ読み取り可能な記憶媒体 |
US6810155B1 (en) * | 1999-01-08 | 2004-10-26 | Macronix International Co., Ltd. | Method and apparatus for scaling an image with locally selected interpolation functions |
JP3857829B2 (ja) * | 1999-03-09 | 2006-12-13 | ペンタックス株式会社 | 画像圧縮装置および画像伸張装置 |
JP3709092B2 (ja) * | 1999-03-09 | 2005-10-19 | ペンタックス株式会社 | 画像圧縮装置および画像伸張装置 |
JP3167120B2 (ja) * | 1999-05-25 | 2001-05-21 | キヤノン株式会社 | 画像処理装置及び方法 |
AUPQ056099A0 (en) * | 1999-05-25 | 1999-06-17 | Silverbrook Research Pty Ltd | A method and apparatus (pprint01) |
US6782143B1 (en) * | 1999-12-30 | 2004-08-24 | Stmicroelectronics, Inc. | Method and apparatus for processing an image |
JP4409702B2 (ja) * | 2000-03-14 | 2010-02-03 | 株式会社東芝 | 認識装置 |
US6809666B1 (en) * | 2000-05-09 | 2004-10-26 | Pixim, Inc. | Circuit and method for gray code to binary conversion |
JP2002024815A (ja) * | 2000-06-13 | 2002-01-25 | Internatl Business Mach Corp <Ibm> | 拡大画像データに変換するための画像変換方法、画像処理装置、および画像表示装置 |
US6587117B1 (en) * | 2000-06-29 | 2003-07-01 | Micron Technology, Inc. | Apparatus and method for adaptive transformation of fractional pixel coordinates for calculating color values |
TW476212B (en) * | 2000-07-12 | 2002-02-11 | Ulead Systems Inc | One-button-triggered image processing unit |
US6727908B1 (en) | 2000-08-31 | 2004-04-27 | Micron Technology, Inc. | Non-linear interpolation scaling system for a graphics processing system and method for use thereof |
JP4928676B2 (ja) * | 2000-09-04 | 2012-05-09 | 株式会社リコー | ビデオ信号出力装置、ビデオ信号出力方法およびその方法をコンピュータに実行させるプログラムを記録したコンピュータ読み取り可能な記録媒体 |
JP4201302B2 (ja) * | 2000-09-19 | 2008-12-24 | 富士フイルム株式会社 | オンスクリーン情報画像表示方法 |
US8682077B1 (en) | 2000-11-28 | 2014-03-25 | Hand Held Products, Inc. | Method for omnidirectional processing of 2D images including recognizable characters |
US6766053B2 (en) * | 2000-12-15 | 2004-07-20 | Xerox Corporation | Method and apparatus for classifying images and/or image regions based on texture information |
US7171059B1 (en) * | 2002-05-23 | 2007-01-30 | Pixelworks, Inc. | Method and apparatus for two-dimensional image scaling |
US7324709B1 (en) * | 2001-07-13 | 2008-01-29 | Pixelworks, Inc. | Method and apparatus for two-dimensional image scaling |
US6879636B2 (en) * | 2001-12-10 | 2005-04-12 | Pelco Incorporated | Adaptive filter for suppressing repetitive high-frequency information in a video data stream |
US7224853B1 (en) * | 2002-05-29 | 2007-05-29 | Microsoft Corporation | Method and apparatus for resampling data |
JP4196782B2 (ja) * | 2003-08-26 | 2008-12-17 | セイコーエプソン株式会社 | 画像処理装置及び画像処理をコンピュータに実行させる画像処理プログラム |
US7343362B1 (en) * | 2003-10-07 | 2008-03-11 | United States Of America As Represented By The Secretary Of The Army | Low complexity classification from a single unattended ground sensor node |
TWI225749B (en) * | 2003-10-30 | 2004-12-21 | Realtek Semiconductor Corp | Method of conversion of image from low-resolution into high-resolution |
JP4371026B2 (ja) * | 2004-09-28 | 2009-11-25 | コニカミノルタビジネステクノロジーズ株式会社 | プリントシステムおよびプリンタ |
US7574071B2 (en) * | 2004-10-05 | 2009-08-11 | Seiko Epson Corporation | Method and apparatus for resizing images |
US7532360B2 (en) * | 2005-09-16 | 2009-05-12 | Seiko Epson Corporation | Image output apparatus |
JP4240032B2 (ja) * | 2005-11-02 | 2009-03-18 | ソニー株式会社 | 信号処理装置および方法、記録媒体、並びにプログラム |
US8594465B2 (en) * | 2007-11-14 | 2013-11-26 | Microsoft Corporation | Adaptive filtering for image transform processes |
JP5366855B2 (ja) * | 2010-02-16 | 2013-12-11 | 富士フイルム株式会社 | 画像処理方法及び装置並びにプログラム |
KR101729556B1 (ko) * | 2010-08-09 | 2017-04-24 | 엘지전자 주식회사 | 입체영상 디스플레이 시스템, 입체영상 디스플레이 장치 및 입체영상 디스플레이 방법, 그리고 위치 추적 장치 |
JP5562812B2 (ja) * | 2010-11-22 | 2014-07-30 | 株式会社東芝 | 送受切替回路、無線装置および送受切替方法 |
TWI466063B (zh) * | 2011-09-29 | 2014-12-21 | Altek Corp | 影像內插的處理方法 |
GB2514410A (en) * | 2013-05-24 | 2014-11-26 | Ibm | Image scaling for images including low resolution text |
US9832396B2 (en) | 2013-12-18 | 2017-11-28 | United Technologies Corporation | Composite image processing for LWIR images using geometric features |
US9706140B2 (en) | 2013-12-18 | 2017-07-11 | United Technologies Corporation | Natural resolution processing for LWIR images |
Family Cites Families (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6156665A (ja) * | 1984-08-25 | 1986-03-22 | 松下電工株式会社 | 消火器訓練装置 |
US4803558A (en) * | 1985-11-15 | 1989-02-07 | Konishiroku Photo Industry Co., Ltd. | Halftone image estimation methods for dither images |
JPS62200976A (ja) * | 1986-02-28 | 1987-09-04 | Dainippon Screen Mfg Co Ltd | 高分解能2値化画像出力装置 |
US5054100A (en) * | 1989-11-16 | 1991-10-01 | Eastman Kodak Company | Pixel interpolator with edge sharpening |
US5410615A (en) * | 1990-09-25 | 1995-04-25 | Xerox Corporation | Bitmap image resolution converter compensating for write-white xerographic laser printing |
US5430811A (en) * | 1991-12-25 | 1995-07-04 | Matsushita Electric Industrial Co., Ltd. | Method for interpolating missing pixels and an apparatus employing the method |
US5499327A (en) * | 1992-01-20 | 1996-03-12 | Canon Kabushiki Kaisha | Multi-window system which can overlay-display a dynamic image in a specific window |
JP3143209B2 (ja) * | 1992-05-25 | 2001-03-07 | 株式会社リコー | 画像変倍装置 |
US5363213A (en) * | 1992-06-08 | 1994-11-08 | Xerox Corporation | Unquantized resolution conversion of bitmap images using error diffusion |
EP0584966B1 (en) * | 1992-08-26 | 1999-04-14 | Hewlett-Packard Company | Pixel image edge-smoothing method and system |
US5481275A (en) * | 1992-11-02 | 1996-01-02 | The 3Do Company | Resolution enhancement for video display using multi-line interpolation |
EP0645736B1 (en) * | 1993-09-27 | 2003-02-05 | Canon Kabushiki Kaisha | Image processing apparatus |
JP3176195B2 (ja) * | 1993-10-28 | 2001-06-11 | キヤノン株式会社 | 画像処理装置 |
US5583659A (en) * | 1994-11-10 | 1996-12-10 | Eastman Kodak Company | Multi-windowing technique for thresholding an image using local image properties |
US5689343A (en) * | 1995-05-26 | 1997-11-18 | Xerox Corporation | Area mapping employing reference clusters for high quality noninteger resolution conversion with enhancement |
US5905822A (en) * | 1995-07-13 | 1999-05-18 | Fuji Photo Film Co., Ltd. | Interpolating operation method and apparatus for image signals |
JP3210248B2 (ja) * | 1996-04-25 | 2001-09-17 | キヤノン株式会社 | 画像処理装置及びその方法 |
-
1998
- 1998-03-03 US US09/033,584 patent/US6157749A/en not_active Expired - Lifetime
- 1998-03-04 EP EP98301597A patent/EP0863484B1/en not_active Expired - Lifetime
- 1998-03-04 ES ES98301597T patent/ES2226064T3/es not_active Expired - Lifetime
- 1998-03-04 DE DE69825196T patent/DE69825196T2/de not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE69825196T2 (de) | 2005-07-28 |
US6157749A (en) | 2000-12-05 |
EP0863484B1 (en) | 2004-07-28 |
EP0863484A3 (en) | 1999-09-22 |
DE69825196D1 (de) | 2004-09-02 |
EP0863484A2 (en) | 1998-09-09 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2226064T3 (es) | Metodo y aparato para el proceso de imagenes. | |
JP7472413B2 (ja) | 点描法、ボロノイ法、及びドロネー法を使用して信号運搬アートを生成すること、並びにこれを読み取ること | |
RU2469403C2 (ru) | Устройство, способ и программа обработки изображения | |
KR0173456B1 (ko) | 디더 처리방법 | |
JP2006155610A (ja) | 色、テクスチャ及びエッジの特徴を用いたドキュメントの地の評価 | |
AU2011250827B2 (en) | Image processing apparatus, image processing method, and program | |
JPH11331609A (ja) | ラスタ化された画像デ―タ内のエイリアスが除去された画素の検知方法 | |
JPH11341286A (ja) | エイリアスが除去された画素を含む画像の処理方法 | |
CN111161181A (zh) | 图像数据的增强方法、模型的训练方法、设备和存储介质 | |
EP2782065B1 (en) | Image-processing device removing encircling lines for identifying sub-regions of image | |
JP4764903B2 (ja) | テキストマップの中からライン構造を検出する方法および画像処理装置 | |
JP2000339449A (ja) | 画像処理装置及び方法 | |
JP4111190B2 (ja) | 画像処理装置 | |
JP4140519B2 (ja) | 画像処理装置、プログラムおよび記録媒体 | |
CN111160063B (zh) | 一种物联网ipc二维码配网图像增强方法及系统 | |
JP4340888B2 (ja) | 画像処理装置および画像処理方法、画像処理プログラム、記憶媒体 | |
JP2001052156A (ja) | 彫版風ハーフトーン画像生成方法 | |
TW202303518A (zh) | 處理電路的方法、包括處理電路的系統和包括處理器件的系統 | |
KR100587979B1 (ko) | 이미지 확대를 위한 경계선 및 귀퉁이 기반 보간 방법 | |
JP5207294B2 (ja) | 二次元コード、その生成方法及びコンピュータプログラム | |
JP2522310B2 (ja) | 光学的文字読取装置 | |
JP5915411B2 (ja) | 画像処理装置及びプログラム | |
JP3972546B2 (ja) | 画像処理装置および画像処理方法 | |
JP3240389B2 (ja) | 2値化処理装置 | |
JP2022133130A (ja) | 画像処理装置、画像処理方法 |