ES2364650T3 - Procedimiento para el análisis de desviaciones de color de imágenes con un sensor de imagen. - Google Patents

Procedimiento para el análisis de desviaciones de color de imágenes con un sensor de imagen. Download PDF

Info

Publication number
ES2364650T3
ES2364650T3 ES03787613T ES03787613T ES2364650T3 ES 2364650 T3 ES2364650 T3 ES 2364650T3 ES 03787613 T ES03787613 T ES 03787613T ES 03787613 T ES03787613 T ES 03787613T ES 2364650 T3 ES2364650 T3 ES 2364650T3
Authority
ES
Spain
Prior art keywords
image sensor
color channel
color
image
pixel
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES03787613T
Other languages
English (en)
Inventor
Volker Lohweg
Harald Heinrich Willeke
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koenig and Bauer AG
Original Assignee
Koenig and Bauer AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=30469124&utm_source=google_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ES2364650(T3) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Koenig and Bauer AG filed Critical Koenig and Bauer AG
Application granted granted Critical
Publication of ES2364650T3 publication Critical patent/ES2364650T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/462Computing operations in or between colour spaces; Colour management systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/465Measurement of colour; Colour measuring devices, e.g. colorimeters taking into account the colour perception of the eye; using tristimulus detection

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Color Television Image Signal Generators (AREA)
  • Facsimile Image Signal Circuits (AREA)
  • Color Image Communication Systems (AREA)

Abstract

Procedimiento para el análisis de desviaciones de color de imágenes impresas con un sensor de imagen, analizándose la señal de imagen recibida del sensor de imagen pixel por pixel, caracterizado por las siguientes etapas de procedimiento: - a partir de unos canales de color (01; 02; 03) se genera una señal de sensor de imagen para cada canal de color (01; 02; 03); - vinculación de la señal del sensor de imagen de un primer canal de color (01) con la señal del sensor de imagen de un segundo canal de color (02) mediante una primera instrucción de cálculo (04), por lo que se genera una señal de salida (12) de un primer canal de color opuesto (07), así como vinculación de la señal del sensor de imagen de un tercer canal de color (03) con las señales del sensor de imagen del primer (01) y del segundo canal de color (02) mediante una segunda instrucción de cálculo (06), por lo que se genera una señal de salida (13) de un segundo canal de color opuesto (08); - el primer canal de color (07) corresponde al campo receptivo rojo/verde del ojo humano; - el segundo canal de color (08) corresponde al campo receptivo azul/amarillo del ojo humano; - la primera instrucción de cálculo (04) prevé una sustracción ponderada de la señal del sensor de imagen del segundo canal de color (02) de la señal del sensor de imagen del primer canal de color (01); - la segunda instrucción de cálculo (06) prevé una vinculación del mínimo de las señales de salida del sensor de imagen del primer canal de color (01) y del segundo canal de color (02) con la señal del sensor de imagen del tercer canal de color (03); - cada señal del sensor de imagen se somete antes de la vinculación mediante las instrucciones de cálculo (04; 06) a una transformación (09) no lineal y se pondera tras la transformación (09) no lineal con un coeficiente (11), de modo que una mera variación de la intensidad de la imagen de partida no contribuye a una de las señales de salida (12; 13) de los canales de color opuesto (07; 08); - clasificación (23) de las señales de salida (12; 13) de los canales de color opuesto (07; 08), comparándose en un modo de inspección (18) las señales de salida (12; 13) de los dos canales de color opuesto (07; 08) generadas por una imagen de inspección (22) pixel por pixel con valores de datos de referencia (19', 19'') de una memoria de datos de referencia, decidiéndose de este modo si el contenido de imagen del pixel examinado corresponde a una clase determinada.

Description

La invención se refiere a un procedimiento para el análisis de desviaciones de color de imágenes con un sensor de imagen según el preámbulo de la reivindicación 1.
El modelo tricromático para la descripción de imágenes en colores aditivos más usado en la técnica es el modelo RGB. En el modelo RGB, el espacio de color se describe mediante los tres colores primarios rojo, verde y azul. El inconveniente de este modelo es, en particular, que la descripción realizada por el modelo RGB no corresponde a la percepción del ojo humano, puesto que en particular no se tiene en cuenta el comportamiento de la percepción humana, es decir, la percepción de los órganos sensoriales.
El documento DE 4419395 A1 da a conocer un procedimiento para el análisis de imágenes de colores mediante un sensor de imagen, cuyas señales de imagen se analizan pixel por pixel. Las señales de imagen se separan según variedad de colores y luminosidad.
El documento DE 69224812 T2 describe un procedimiento para el procesamiento de imágenes en el que las señales RGB se transforman de forma no lineal en valores de señales de colores L, C1, C2.
Por el documento DE 19838806 A1 se conoce un procedimiento par la clasificación de imágenes de colores mediante lógica fuzzy (lógica difusa).
El documento US 2002/021444 A1 describe instrucciones de cálculo para el procesamiento de imágenes con factores de ponderación de los distintos componentes de colores.
Por el artículo de Michael J. Swain y Dana H. Ballard, “Color Indexing”, International Journal of Computer Vision, 7:1, páginas 11-32 (1991), XP000248428 se conoce un procedimiento para el análisis de desviaciones de color de imágenes, generándose canales de color opuesto a partir de canales de color que corresponden a los campos receptivos del ojo humano. Los canales de color opuesto se usan para realizar histogramas.
El documento EP 0473432 B1 da a conocer un procedimiento de análisis de imagen que prevé una transformación con varias señales de entrada con instrucciones de cálculo correspondientes.
La invención tiene el objetivo de crear un procedimiento para el análisis de desviaciones de color de imágenes con un sensor de imagen.
El objetivo se consigue según la invención mediante las características de la reivindicación 1.
En el ojo humano existen tres tipos de conos, que absorben en distintas zonas espectrales. La absorción máxima del tipo de cono S está en la zona espectral azul, concretamente en 420 nm, el tipo de cono M absorbe al máximo en la zona espectral verde, concretamente en 534 nm y el tipo de cono L tiene su máximo de absorción en 564 nm en la zona espectral amarilla/roja. La visión con tres tipos de conos se llama visión tricromática. Las distintas percepciones de color son provocadas por distintas intensidades de excitación de los distintos tipos de conos. La misma excitación de todos los conos hace que se perciba el color blanco. No obstante, con el modelo de visión tricromático no pueden explicarse fenómenos de percepción de color como por ejemplo el antagonismo de color y la constancia de color.
Antagonismo de color significa que determinados colores no pueden verse nunca en transiciones, es decir, que no es posible una transición de color entre estos colores. Los colores que muestran antagonismo de color se llaman colores opuestos o complementarios. Pueden indicarse aquí las parejas de colores rojo/verde y azul/amarillo, así como negro/blanco.
En el caso de la constancia de color, se compensa la distribución espectral variable de la luz, que depende por ejemplo de las condiciones meteorológicas o de la luz de día.
En 1920, Hering desarrolló la teoría de colores opuestos para explicar estos fenómenos de percepción de color de forma diferente de la que los explica el modelo de colores tricromático clásico. El modelo de colores opuestos parte de que los conos están dispuestos en campos receptivos, es decir, en campos azul/amarillo y campos rojo/verde. Por campos receptivos se entienden aquí neuronas y el modo en el que las señales de luz procedentes de los conos son procesadas posteriormente por las neuronas. Para la visión de colores responden sustancialmente dos tipos de campos receptivos. El primer campo receptivo recibe su entrada de datos de los conos L y M, el segundo campo receptivo de los conos S junto con señales ponderadas de distintas maneras de los conos L y M. Se parte de que en el plano de las neuronas o de los campos receptivos se produce una mezcla de colores sustractiva de las excitaciones de los conos.
En el procedimiento para el análisis de desviaciones de color de imágenes impresas, la señal de imagen recibida por el sensor de imagen se analiza pixel por pixel de forma de por sí conocida. Para reproducir los tres tipos de conos del ojo humano con sus distintas sensibilidades espectrales, según la invención la señal de imagen es captada por el sensor de imagen en tres canales de color separados unos de otros. Cada uno de los tres canales de color tiene una sensibilidad espectral característica. Los dos campos receptivos que representan la segunda etapa del procesamiento de colores en la visión humana se simulan mediante una vinculación correspondiente de las señales del sensor de imagen de los tres canales de color separados unos de otros. El campo rojo/verde de la percepción humana de colores representa en el modelo técnico el primer canal de color opuesto. La señal de salida del primer canal de color opuesto se genera mediante vinculación de la señal del sensor de imagen de una primera señal de color con la señal del sensor de imagen de un segundo canal de color. La vinculación se realiza mediante una instrucción de cálculo que está formada por al menos una regla de cálculo. El campo azul/amarillo se genera en el modelo técnico mediante la vinculación de la señal del sensor de imagen de un tercer canal de color con una combinación de las señales del sensor de imagen del primer y del segundo canal de color. El campo azul/amarillo corresponde en el modelo técnico al segundo canal de color opuesto. La señal de salida del segundo canal de color opuesto se genera mediante la vinculación anteriormente descrita. La vinculación se realiza mediante una segunda instrucción de cálculo, que está formada por al menos una regla de cálculo. Para valorar el contenido de imagen del pixel examinado, en la siguiente etapa tiene lugar una clasificación de las señales de salida de los dos canales de color opuesto. De este modo se decide si el contenido de imagen del pixel examinado corresponde a una clase determinada, por lo que puede procederse a una clasificación de bien/mal.
imagen1
Para el principio de la invención no tiene gran importancia en qué zona espectral están situados los tres canales de color del procedimiento, mientras que se trate de canales de color separados unos de otros. Una forma de realización preferible de la invención prevé que los tres canales de color correspondan a los colores primarios del modelo RGB, es decir, rojo, verde y azul. Esto tiene la ventaja de poder recurrir a un modelo de colores muy extendido.
Para adaptar la sensibilidad espectral de cada canal de color a la percepción espectral de los conos correspondientes de la retina del ojo humano es recomendable que cada canal de color pueda adaptarse en su sensibilidad espectral a la sensibilidad espectral de los conos.
Las dos señales de salida de los canales de color opuesto se generan según la invención de acuerdo con las etapas del procedimiento correspondientes de la reivindicación 1. Una posibilidad alternativa, ya conocida por el documento XP 000248428, es que una regla de cálculo de la primera instrucción de cálculo prevé una sustracción ponderada de la señal del sensor de imagen del segundo canal de color de la señal del sensor de imagen del primer canal de color y/o que una regla de cálculo de la segunda instrucción de cálculo prevé una sustracción ponderada de la suma ponderada de las señales del sensor de imagen del primer y del segundo canal de color de la señal del sensor de imagen del tercer canal de color.
En la invención, cada señal de los canales de color opuesto es sometida a una instrucción de transformación no lineal antes de la vinculación. Una transformación tiene, en particular, la ventaja de que puede tenerse en cuenta el carácter digital de captaciones de imágenes generadas por vía electrónica. Además, gracias a instrucciones de transformación es posible transformar una señal del espacio de color en un espacio en el que puede describirse la excitación de los conos.
Puesto que los campos receptivos en la visión humana se caracterizan por un comportamiento de filtro de paso bajo es recomendable que al menos una señal se filtre en al menos un canal de color opuesto mediante un filtro de paso bajo. Según un ejemplo de realización especialmente preferible, la señal de salida de cada canal de color opuesto se filtra mediante un filtro de paso bajo.
Según un ejemplo de realización especialmente preferible, el procedimiento presenta un modo de aprendizaje y un modo de inspección. Durante el modo de aprendizaje, al menos una imagen de referencia se analiza pixel por pixel y las señales de salida generadas por la imagen de referencia de los dos canales de color opuesto se almacenan en una memoria de datos de referencia. Esto significa concretamente que se registra el contenido de imagen de la imagen de referencia en tres canales de color, que las señales de imagen de cada canal de color se adaptan según la percepción y que se vinculan posteriormente entre sí según el modelo de colores opuestos. Las señales de salida de cada canal de color opuesto se almacenan a continuación pixel por pixel en la memoria de datos de referencia. En el posterior modo de inspección se comparan las señales de salida generadas mediante una imagen de inspección del pixel correspondiente con el valor correspondiente de la memoria de datos de referencia y se toma una decisión de clasificación.
Para tener en cuenta variaciones admisibles del contenido de la imagen, como también variaciones de las condiciones durante la captación de la imagen, es recomendable que los valores almacenados en la memoria de datos de referencia estén formados por el análisis de varios juegos de datos de referencia, de modo que para cada valor en la memoria de datos de referencia se define una ventana de tolerancia admisible, en la que puede variar un valor de señal de salida de un canal de color opuesto generado durante la inspección de la imagen. El valor teórico de la señal de salida de un canal de color opuesto puede determinarse aquí, por ejemplo, mediante la obtención de la media aritmética de los valores individuales que resultan de los juegos de datos de referencia. La ventana de tolerancia puede definirse, por ejemplo, mediante los valores mínimos y máximos o mediante la desviación estándar de las señales de salida generadas por las imágenes de referencia examinadas de los canales de color opuesto de cada pixel.
imagen2
En los dibujos están representados unos ejemplos de realización de la invención que se describirán a continuación más detalladamente.
Muestran:
La Fig. 1 muestra una representación esquemática del procedimiento para el análisis de desviaciones de color de imágenes impresas con un modelo de colores opuestos;
la fig. 2 muestra un diagrama de operaciones del modo de aprendizaje y de inspección.
Como puede verse en la Fig. 1, la captación de la señal de imagen se realiza mediante un sensor de imagen en tres canales de color 01; 02; 03 separados unos de otros. En el presente ejemplo de realización, los canales de color 01; 02; 03 son los canales de color rojo 01, verde 02 y azul 03. Cada uno de los canales de color 01; 02; 03 presenta una sensibilidad espectral ajustable. Esto tiene la ventaja de que las características de cada canal de color 01; 02; 03 pueden adaptarse a las condiciones del problema respectivamente planteado. Por ejemplo, es posible adaptar la sensibilidad espectral de un canal de color 01; 02; 03 a la sensibilidad espectral del cono correspondiente de la retina del ojo humano.
En el procedimiento según la invención, se analiza pixel por pixel el contenido espectral de una imagen. Para modelar los dos campos receptivos rojo/verde y azul/amarillo del ojo humano, en el procedimiento según la invención se vinculan entre sí las señales del sensor de imagen de los canales de color 01; 02; 03. Antes de la vinculación propiamente dicha con las instrucciones de cálculo 04; 06, cada señal del sensor de imagen se somete en el canal de color opuesto 07; 08 a una transformación 09 no lineal. De este modo se tiene en cuenta el carácter digital de las captaciones de imágenes generadas de forma electrónica. A continuación, cada señal se pondera con un coeficiente Ki (i=1…4) 11. De este modo se consigue que una mera variación de la intensidad de la imagen de partida no contribuya a una de las señales de salida 12; 13 de los canales de color opuesto 07; 08. La generación de las señales de salida 12; 13 de los canales de color opuesto 07; 08 se realiza de forma análoga a la generación de las señales de los campos receptivos en la retina humana. Es decir, se realiza una vinculación según las instrucciones de cálculo 04; 06 de los canales de color 01; 02; 03 según la vinculación de los conos de la retina humana. Para crear la señal de salida 12 del canal de color opuesto rojo/verde 07, las señales del sensor de imagen del canal de color rojo 01 y del canal de color verde 02 se vinculan entre sí mediante la primera instrucción de cálculo 04. Para la generación de la señal de salida 13 del canal de color opuesto azul/amarillo 08, en el presente ejemplo de realización se vincula la señal del sensor de imagen del canal de color azul 03 con el mínimo 14 de las señal de salida del sensor de imagen del canal de color rojo 01 y del canal de color verde 02 mediante la instrucción de cálculo 06. Los campos receptivos de la retina humana se caracterizan por un comportamiento de filtro de paso bajo. Por consiguiente, en el presente ejemplo de realización, las señales obtenidas mediante vinculación se someten a un filtrado mediante filtro de paso bajo 16 con un filtro de paso bajo de Gauss.
La Fig. 2 muestra la inspección propiamente dicha de los productos impresos, que se realiza en dos etapas, es decir, en un modo de aprendizaje 17 y un modo de inspección 18 posterior. El modo de aprendizaje 17 tiene el objetivo de generar pixel por pixel valores de datos de referencia 19, que se comparan en el modo de inspección 18 posterior con las señales de salida 12; 13 de los canales de color opuesto 07; 08 de los píxeles correspondientes. En el modo de aprendizaje 17 se analizan los contenidos de imagen de una imagen de referencia 21 o de varias imágenes de referencia 21 porque se captan los contenidos de imagen de cada pixel en tres canales de color 01; 02; 03 procediéndose a continuación a una adaptación de las señales de imagen de cada canal de color 01; 02; 03 según la percepción realizándose a continuación un procesamiento subsiguiente de las señales de salida del sensor de imagen según el método de colores opuestos anteriormente descrito. Las señales de salida 12; 13 de los canales de color opuesto 07; 08 obtenidas para cada pixel se almacenan a continuación en una memoria de datos de referencia. Para tener también en cuenta variaciones admisibles de las imágenes de referencia 21, es razonable tener en cuenta en el modo de aprendizaje 17 varias imágenes de referencia 21. De este modo es posible que los valores de datos de referencia 19’, 19” de cada pixel almacenados en la memoria de referencia presenten cierta tolerancia de variación admisible. La tolerancia de variación puede definirse mediante los valores mínimos/máximos
o la desviación estándar de los datos obtenidos de los contenidos de imagen de las imágenes de referencia 21 de cada pixel.
A continuación, en el modo de inspección 18 tiene lugar una comparación pixel por pixel de los valores de partida 12, 13 de los canales de color opuesto 07; 08 de una imagen de inspección 22 con los valores de datos de referencia 19’, 19” de la memoria de datos de referencia. La comparación puede realizarse mediante un clasificador lineal o no lineal 23, en particular, mediante clasificadores por valor umbral, clasificadores por distancia euclidiana, clasificadores bayesianos, clasificadores difusos (fuzzy) o redes neuronales artificiales. A continuación, tiene lugar una decisión de bien/mal.
imagen3
Lista de signos de referencia
01 Primer canal de color (rojo) 02 Segundo canal de color (verde) 03 Tercer canal de color (azul) 04 Primera instrucción de cálculo 05 -06 Segunda instrucción de cálculo 07 Primer canal de color opuesto (rojo/verde); primer canal de color nuevo 08 Segundo canal de color opuesto (azul/amarillo); segundo canal de color nuevo 09 Transformación no lineal 10 -11 Coeficiente Ki (i=1…4) 12 Señal de salida del primer canal de color opuesto (rojo/verde), señal de salida 13 Señal de salida del segundo canal de color opuesto (azul/amarillo), señal de salida 14 Mínimo de canal de color rojo y verde 15 -16 Filtro de paso bajo 17 Modo de aprendizaje 18 Modo de inspección 19 Valores de datos de referencia 20 -21 Imagen de referencia 22 Imagen de inspección 23 Clasificador, sistema de clasificadores 19’ Señal de salida, valor de datos de referencia 19” Señal de salida, valor de datos de referencia
imagen4

Claims (9)

  1. REIVINDICACIONES
    1. Procedimiento para el análisis de desviaciones de color de imágenes impresas con un sensor de imagen, analizándose la señal de imagen recibida del sensor de imagen pixel por pixel, caracterizado por las siguientes etapas de procedimiento:
    - a partir de unos canales de color (01; 02; 03) se genera una señal de sensor de imagen para cada canal de color (01; 02; 03);
    - vinculación de la señal del sensor de imagen de un primer canal de color (01) con la señal del sensor de imagen de un segundo canal de color (02) mediante una primera instrucción de cálculo (04), por lo que se genera una señal de salida (12) de un primer canal de color opuesto (07), así como vinculación de la señal del sensor de imagen de un tercer canal de color (03) con las señales del sensor de imagen del primer (01) y del segundo canal de color (02) mediante una segunda instrucción de cálculo (06), por lo que se genera una señal de salida (13) de un segundo canal de color opuesto (08);
    -
    el primer canal de color (07) corresponde al campo receptivo rojo/verde del ojo humano;
    -
    el segundo canal de color (08) corresponde al campo receptivo azul/amarillo del ojo humano;
    -
    la primera instrucción de cálculo (04) prevé una sustracción ponderada de la señal del sensor de imagen del segundo canal de color (02) de la señal del sensor de imagen del primer canal de color (01);
    -
    la segunda instrucción de cálculo (06) prevé una vinculación del mínimo de las señales de salida del sensor de imagen del primer canal de color (01) y del segundo canal de color (02) con la señal del sensor de imagen del tercer canal de color (03);
    - cada señal del sensor de imagen se somete antes de la vinculación mediante las instrucciones de cálculo (04; 06) a una transformación (09) no lineal y se pondera tras la transformación (09) no lineal con un coeficiente (11), de modo que una mera variación de la intensidad de la imagen de partida no contribuye a una de las señales de salida (12; 13) de los canales de color opuesto (07; 08);
    - clasificación (23) de las señales de salida (12; 13) de los canales de color opuesto (07; 08), comparándose en un modo de inspección (18) las señales de salida (12; 13) de los dos canales de color opuesto (07; 08) generadas por una imagen de inspección (22) pixel por pixel con valores de datos de referencia (19’, 19”) de una memoria de datos de referencia, decidiéndose de este modo si el contenido de imagen del pixel examinado corresponde a una clase determinada.
  2. 2.
    Procedimiento según la reivindicación 1, caracterizado porque los tres canales de color (01; 02; 03) corresponden a los colores primarios del modelo RGB, es decir, R= red (rojo), G=green (verde) y B=blue (azul).
  3. 3.
    Procedimiento según la reivindicación 1, caracterizado porque es ajustable la sensibilidad espectral de cada canal de color (01; 02; 03).
  4. 4.
    Procedimiento según la reivindicación 1, caracterizado porque en al menos un canal de color opuesto (07; 08) se filtra al menos una señal mediante un filtro de paso bajo (16), en particular un filtro de paso bajo de Gauss.
  5. 5.
    Procedimiento según la reivindicación 1, caracterizado porque el procedimiento presenta un modo de aprendizaje (17) y un modo de inspección (18), almacenándose en el modo de aprendizaje (17) los valores de datos de referencia (19’; 19”) de los dos canales de color opuesto (07; 08) generados mediante al menos una imagen de referencia (21) en una memoria de datos de referencia y comparándose en el modo de inspección (18) las señales de salida (12; 13) de los dos canales de color opuesto (07; 08) generadas por una imagen de referencia (22) pixel por pixel con los valores de datos de referencia (19’; 19”) de la memoria de datos de referencia.
  6. 6.
    Procedimiento según la reivindicación 5, caracterizado porque la comparación se realiza mediante un sistema de clasificadores (23).
  7. 7.
    Procedimiento según la reivindicación 6, caracterizado porque se usan sistemas de clasificadores lineales o no lineales (23), en particular, clasificadores por valor umbral, clasificadores por distancia euclidiana, clasificadores bayesianos, clasificadores difusos (fuzzy) o redes neuronales artificiales.
  8. 8.
    Procedimiento según la reivindicación 5, caracterizado porque los valores de datos de referencia (19’; 19”) de cada pixel almacenados en la memoria de datos de referencia se generan mediante análisis de varias imágenes de referencia (21), por lo que se define una ventana de tolerancia para los valores de datos de referencia (19; 19”).
  9. 9.
    Procedimiento según la reivindicación 1, caracterizado porque con el procedimiento se analizan imágenes impresas.
ES03787613T 2002-07-26 2003-06-27 Procedimiento para el análisis de desviaciones de color de imágenes con un sensor de imagen. Expired - Lifetime ES2364650T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10234085A DE10234085B4 (de) 2002-07-26 2002-07-26 Verfahren zur Analyse von Farbabweichungen von Bildern mit einem Bildsensor
DE10234085 2002-07-26

Publications (1)

Publication Number Publication Date
ES2364650T3 true ES2364650T3 (es) 2011-09-08

Family

ID=30469124

Family Applications (1)

Application Number Title Priority Date Filing Date
ES03787613T Expired - Lifetime ES2364650T3 (es) 2002-07-26 2003-06-27 Procedimiento para el análisis de desviaciones de color de imágenes con un sensor de imagen.

Country Status (7)

Country Link
US (1) US7609878B2 (es)
EP (1) EP1525442B1 (es)
AT (1) ATE511632T1 (es)
AU (1) AU2003250762A1 (es)
DE (1) DE10234085B4 (es)
ES (1) ES2364650T3 (es)
WO (1) WO2004017034A1 (es)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004019978B3 (de) 2004-04-23 2005-08-04 Koenig & Bauer Ag Verfahren zur Beurteilung einer Qualität einer von einer Druckmaschine produzierten Drucksache
DE102004021047B3 (de) * 2004-04-29 2005-10-06 Koenig & Bauer Ag Verfahren zum Vergleich eines Bildes mit mindestens einem Referenzbild
EP1965982B1 (en) * 2005-11-25 2014-06-11 KBA-NotaSys SA Method for detection of occurrence of printing errors on printed substrates during processing thereof on a printing press
EP1790473A1 (en) 2005-11-25 2007-05-30 Kba-Giori S.A. Method for detection of occurrence of printing errors on printed substrates during processing thereof on a printing press
CA2847707C (en) * 2014-03-28 2021-03-30 Intelliview Technologies Inc. Leak detection
US10600213B2 (en) * 2016-02-27 2020-03-24 Focal Sharp, Inc. Method and apparatus for color-preserving spectrum reshape
US11425281B1 (en) * 2016-09-07 2022-08-23 Google Llc Color image processing using models of overlapped response spectra for retinal cone cells
US10769817B2 (en) * 2017-08-07 2020-09-08 Samsung Display Co., Ltd. Measures for image testing
DE102019208257A1 (de) * 2018-07-03 2020-01-09 Heidelberger Druckmaschinen Ag Druckqualitätsanalyse mit neuronalen Netzen

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3052352B2 (ja) * 1990-08-20 2000-06-12 ブラザー工業株式会社 色補正処理装置
US5237517A (en) 1990-08-29 1993-08-17 Xerox Corporation Color printing having a highlight color image mapped from a full color image
JPH05183743A (ja) 1992-01-06 1993-07-23 Canon Inc 色表現方法及びカラー画像処理装置
KR940008510A (ko) * 1992-09-14 1994-04-29 김광호 고체촬상소자(ccd)형 컬러비디오카메라의 비디오신호처리회로
US6486981B1 (en) * 1993-07-27 2002-11-26 Canon Kabushiki Kaisha Color image processing method and apparatus thereof
DE4419395C2 (de) * 1994-05-30 2000-09-28 Graphikon Gmbh Verfahren und Einrichtung zur Analyse und Verarbeitung von Farbbildern
US5999636A (en) * 1997-10-10 1999-12-07 Printprobe Technology, Llc Apparatus and process for inspecting print material
BR9813762A (pt) 1997-12-18 2000-10-03 Chromatics Color Sciences Int Sistema de medição de cores com ìndice de cores para pele, dentes, cabelos e substâncias materiais
DE19838806A1 (de) * 1998-08-26 2000-03-02 Max Planck Gesellschaft Verfahren und Vorrichtung zur Erfassung von Objektfarben
JP2002032751A (ja) * 2000-07-18 2002-01-31 Olympus Optical Co Ltd 学習型画像分類装置及び方法並びにその処理プログラムを記録した記録媒体
JP3766274B2 (ja) * 2000-12-21 2006-04-12 株式会社東芝 時分割カラー表示装置および表示方法
US6751348B2 (en) * 2001-03-29 2004-06-15 Fotonation Holdings, Llc Automated detection of pornographic images

Also Published As

Publication number Publication date
ATE511632T1 (de) 2011-06-15
EP1525442B1 (de) 2011-06-01
DE10234085B4 (de) 2012-10-18
WO2004017034A1 (de) 2004-02-26
EP1525442A1 (de) 2005-04-27
US20050259869A1 (en) 2005-11-24
AU2003250762A1 (en) 2004-03-03
US7609878B2 (en) 2009-10-27
DE10234085A1 (de) 2004-02-19

Similar Documents

Publication Publication Date Title
ES2364650T3 (es) Procedimiento para el análisis de desviaciones de color de imágenes con un sensor de imagen.
Cheng et al. Effective learning-based illuminant estimation using simple features
US8929654B2 (en) Spectral image processing
US20060251320A1 (en) Methods for qualitative evaluation of a material with at least one identification characteristic
US9872004B2 (en) On-vehicle image capture device
CN103488987A (zh) 一种基于视频检测交通信号灯的方法及装置
CN102055916A (zh) 对图像传感器中的集成噪声建模的方法和降噪的方法
CN104917935A (zh) 图像处理装置以及图像处理方法
CN107396079B (zh) 白平衡调整方法和装置
US10620417B2 (en) Method for generating a reflection-reduced contrast image and corresponding device
Wonghabut et al. Traffic light color identification for automatic traffic light violation detection system
KR101875004B1 (ko) 캡슐 내시경 영상을 이용한 자동 출혈 감지 방법 및 컴퓨터 프로그램
CN115049530A (zh) 用于调试图像信号处理器的方法、装置和系统
CN107580205A (zh) 白平衡调整方法和装置
WO2015149711A1 (zh) 红外控制装置、方法及摄像机
CN104574313B (zh) 红绿灯的红灯颜色增强方法及其增强系统
CN107578372A (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
JP2021114762A (ja) 低照度撮像システム
US10977500B2 (en) Street marking color recognition
Nakajima et al. A novel color image processing scheme in HSI color space with negative image processing
US11451713B2 (en) Autogaining of color pattern filtered sensors to ensure color fidelity
CN107770446A (zh) 图像处理方法、装置、计算机可读存储介质和电子设备
CN107948619A (zh) 图像处理方法、装置、计算机可读存储介质和移动终端
CN105247570A (zh) 用于红眼修正的系统和方法
CN105359517B (zh) 图像处理装置和图像处理方法