ES2952413T3 - Procedimiento y dispositivo para medir el color de un objeto - Google Patents

Procedimiento y dispositivo para medir el color de un objeto Download PDF

Info

Publication number
ES2952413T3
ES2952413T3 ES13706205T ES13706205T ES2952413T3 ES 2952413 T3 ES2952413 T3 ES 2952413T3 ES 13706205 T ES13706205 T ES 13706205T ES 13706205 T ES13706205 T ES 13706205T ES 2952413 T3 ES2952413 T3 ES 2952413T3
Authority
ES
Spain
Prior art keywords
flash
lext
color
sensor
equations
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13706205T
Other languages
English (en)
Inventor
Franck Hennebelle
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
COLOR GRAIL RES
Original Assignee
COLOR GRAIL RES
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by COLOR GRAIL RES filed Critical COLOR GRAIL RES
Application granted granted Critical
Publication of ES2952413T3 publication Critical patent/ES2952413T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/25Colour; Spectral properties, i.e. comparison of effect of material on the light at two or more different wavelengths or wavelength bands
    • G01N21/255Details, e.g. use of specially adapted sources, lighting or optical systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/02Details
    • G01J3/0272Handheld
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/506Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors measuring the colour produced by screens, monitors, displays or CRTs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N21/00Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
    • G01N21/17Systems in which incident light is modified in accordance with the properties of the material investigated
    • G01N21/47Scattering, i.e. diffuse reflection
    • G01N21/4738Diffuse reflection, e.g. also for testing fluids, fibrous materials
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01LSEMICONDUCTOR DEVICES NOT COVERED BY CLASS H10
    • H01L27/00Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate
    • H01L27/14Devices consisting of a plurality of semiconductor or other solid-state components formed in or on a common substrate including semiconductor components sensitive to infrared radiation, light, electromagnetic radiation of shorter wavelength or corpuscular radiation and specially adapted either for the conversion of the energy of such radiation into electrical energy or for the control of electrical energy by such radiation
    • H01L27/144Devices controlled by radiation
    • H01L27/146Imager structures
    • H01L27/14601Structural or functional details thereof
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/12Generating the spectrum; Monochromators
    • G01J2003/1282Spectrum tailoring
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J3/00Spectrometry; Spectrophotometry; Monochromators; Measuring colours
    • G01J3/46Measurement of colour; Colour measuring devices, e.g. colorimeters
    • G01J3/50Measurement of colour; Colour measuring devices, e.g. colorimeters using electric radiation detectors
    • G01J3/501Colorimeters using spectrally-selective light sources, e.g. LEDs
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01NINVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
    • G01N2201/00Features of devices classified in G01N21/00
    • G01N2201/06Illumination; Optics
    • G01N2201/061Sources

Abstract

La presente invención se refiere a un método para medir la reflectancia difusa uniforme ROBJ(lambda) en al menos un punto de un objeto (30) usando un dispositivo (10) que comprende un medio (11) para emitir iluminantes de color expresados como flujo luminoso y un sensor electrónico de imagen en color (12). La presente invención también se refiere a un dispositivo (10) que comprende un medio (11) para emitir iluminantes de color expresados como flujo luminoso de colores y un sensor electrónico de imagen en color (12), para medir la reflectancia difusa uniforme ROBJ(lambda) al menos en un punto en un objeto (30) colocado en una zona ubicada opuesta y sustancialmente perpendicular a dichos medios (11) para emitir colores y ubicada en el campo de visión de dicho sensor electrónico de imágenes en color (12) y sometido a un iluminante externo expresado como un flujo luminoso ambiental externo constante y desconocido (40) denotado Iext(lambda). (Traducción automática con Google Translate, sin valor legal)

Description

DESCRIPCIÓN
Procedimiento y dispositivo para medir el color de un objeto
Dominio de la invención
[0001] La presente invención se refiere al campo de la medida del color.
[0002] La presente invención se refiere más particularmente a un procedimiento de espectrometría para medir el color de un objeto que implementa un dispositivo electrónico, y al dispositivo asociado.
Estado de la técnica
[0003] Un color es un flujo luminoso percibido por el ojo humano. Se trata de una distribución espectral de energía C(λ) sobre una banda de longitudes de onda, en este caso X que varía de 380 a 780 nm para lo visible (observador estándar CIE 1931). A continuación, designaremos con una letra y una X entre paréntesis la función que describe esta distribución espectral de energía.
[0004] Debido a la síntesis aditiva, cualquier color puede expresarse por sus coordenadas tricromáticas según tres colores primarios. Existen varios sistemas de primarios, a continuación conservaremos los dos normalizados que son el espacio CIE XYZ (y su variante CIE Yxy con plano de cromicidad a luminancia constante) y el espacio CIE L*a*b que permite estimar una diferencia de color con una norma euclidiana llamada “deltaE”, que es representativa de las diferencias de color percibidas por el ojo humano. La “gama” (límites) de estos dos espacios cubre la totalidad de lo visible humano. También nos referiremos al espacio tricromático sRGB correspondiente a la gama de referencia de la mayoría de los equipos electrónicos actuales. La gama del sRGB no cubre el conjunto de lo visible humano, en particular en los azul-verdes.
[0005] El color de un objeto resulta de las interacciones entre un flujo luminoso incidente y la superficie de dicho objeto. Tres fenómenos entran en competencia para dar a la materia la apariencia que se le conoce: la absorción, la reflexión especular y la reflexión difusa. La reflexión especular se produce en la superficie del objeto. Hay poca interacción de la luz con la materia del objeto, y en particular con sus pigmentos. Por lo tanto, el color de la luz reflejada está cerca de la luz recibida, pero la energía reflejada se concentra en un lóbulo centrado en la dirección teórica definida por las leyes de Snell-Descartes. Por el contrario, la reflexión difusa tiene lugar más en profundidad. La luz emitida está teñida del color de los pigmentos y la energía reflejada es independiente de la dirección de observación. En otras palabras, la reflexión especular es el componente brillante de una superficie y la reflexión difusa es el componente mate y coloreado de una superficie.
[0006] Por lo tanto, el color de un objeto depende de dos factores independientes: la iluminación a la que se somete el objeto y la naturaleza de la superficie del objeto. Esta última se caracteriza por la función de "reflectancia espectral bidireccional". Se define como la relación entre la luminancia reflejada por la superficie y la iluminación de ésta. El valor de esta función depende de la longitud de onda A, la dirección de la luz incidente y la dirección de observación. La reflectancia difusa uniforme del objeto R0BJ(A), correspondiente a la reflexión difusa, depende únicamente de la longitud de onda A. Es la que da la información de color en sentido cromático, fuera del fenómeno de brillo.
[0007] Esta es la razón por la cual el color de un objeto puede ser caracterizado 1) por la luz reflejada bajo un iluminante dado (por ejemplo las coordenadas tricromáticas CIE L*a*b bajo un iluminante D50 en una sala negra) o, mejor, 2) por su reflectancia espectral RObJ(A). El primer método requiere dispositivos de medida relativamente simples (entre otros, los esquemas de colores, los colorímetros triestimulus), pero con un alto riesgo de metamerismo (este procedimiento es poco preciso). Su uso se limita generalmente al seguimiento de las variaciones con respecto a un color patrón a lo largo de un proceso de fabricación (imprenta, textil, artes gráficas, etc.). El segundo procedimiento requiere dispositivos más sofisticados (entre otros, espectrómetro de difracción, espectrómetro de doble fotorreceptor en paralelo); no se ve afectado por el metamerismo (este método es muy preciso) y permite simular la percepción del color bajo diferentes iluminantes (interior, exterior). Está dirigido a profesionales exigentes y actividades de diseño.
[0008] Todos estos dispositivos no son compatibles con el uso móvil y no planificado como con un teléfono móvil o una tableta electrónica que se lleva a todas partes. Su uso es relativamente complicado, sin olvidar el coste adicional significativo que representan.
[0009] Por el contrario, las aplicaciones de medida del color disponibles actualmente en los teléfonos móviles o tabletas (iOS, Android...) no requieren un equipo anexo especializado, pero estas aplicaciones no permiten una medida fiel de los colores. De hecho, se basan únicamente en el uso del sensor de imagen en color de la cámara (red de fotodetectores triestimulados, matriz de Bayer rojo-verde-azul) con un programa de cálculo del balance de blancos. Por lo tanto, su percepción de los colores de los objetos está distorsionada por la variabilidad desconocida de la iluminación circundante.
[0010] La técnica anterior conoce el espectrómetro emisivo de difracción y un procedimiento de determinación de la función de reflectancia espectral del objeto: el dispositivo produce un iluminante calibrado blanco S(á) en dirección al objetivo, el iluminante se refleja sobre el objeto, luego pasa a través de un prisma para ser difractado hacia varias decenas de fotodetectores (uno por subespectro) que permiten interpolar E(á), por lo que:
R0BJ(^) = E(\)/S(k)
[0011] El funcionamiento de la medida de color de un objeto con este procedimiento de la técnica anterior se realiza con una caja desarrollada especialmente y con un procedimiento que requiere una cubierta para ocultar cualquier iluminante exterior desconocido. Además, este tipo de espectrómetro no permite realizar una fotografía espectrométrica.
[0012] La técnica anterior conoce, por la patente americana N° US5963333, un espectrómetro de LED y doble fotorreceptores colocados en paralelo, una caja de detección con espectrómetro y un procedimiento de determinación de la función de reflectancia espectral del objeto. La medida del color de un objeto con este procedimiento de la técnica anterior se realiza por medio de una caja desarrollada especialmente y con un procedimiento que requiere una cubierta para ocultar cualquier iluminante exterior desconocido. Además, este tipo de espectrómetro no permite realizar una fotografía espectrométrica.
[0013] La técnica anterior conoce igualmente, por la solicitud de patente PCT N° WO 2004/079314, un colorímetro, una caja de detección de colorímetro y un procedimiento de determinación del color de un objeto calculando una desviación con respecto a un color patrón. El funcionamiento de la medida de color con este procedimiento de la técnica anterior se realiza con una caja desarrollada especialmente, un procedimiento que requiere una cubierta para ocultar cualquier iluminante exterior desconocido, y un procedimiento incapaz de medir una función de reflectancia espectral propiamente dicha.
[0014] La técnica anterior conoce igualmente, por la solicitud de patente británica N° GB2474701A, un colorímetro, una caja de detección de colorímetro y un procedimiento de determinación del color de un objeto calculando una diferencia con respecto a un color patrón. La medida de color con este procedimiento de la técnica anterior se realiza por medio de un teléfono equipado con una pantalla para la emisión de flashes de color y de una cámara en la cara opuesta. La medida de color con este procedimiento de la técnica anterior se realiza con guías de onda desarrolladas especialmente (juegos de espejos, fibras ópticas, etc.), un procedimiento que requiere una cubierta o guías de onda para ocultar cualquier iluminante exterior desconocido, y un procedimiento incapaz de medir una función de reflectancia espectral propiamente dicha.
[0015] Otros documentos que ilustran el estado de la técnica son los siguientes:
• "An approach to color constancy using múltiples images" de Masato Tsukada et al., IEEE 1990,
• "Recovery of illuminant and surface colors from images based on the CIE daylight", Yuichi Ohta y otros, Lecture notes in Computer Science, 1994
• "Separating a color signal into illumination and surface reflectance components: theory and applications" de Jian Ho et al., IEEE 1990, y
• "Estimation of spectral reflectance curves from multiespectral image data" de Stephen Park et al., Applied Optics 1977.
Descripción de la invención
[0016] La presente invención pretende remediar los inconvenientes de la técnica anterior proponiendo un procedimiento de medida del color de un objeto por espectrometría utilizando como emisor un medio apto para emitir iluminantes de colores, y como receptor un sensor electrónico de imagen a color, ambos situados uno al lado del otro, en presencia o no de un iluminante exterior desconocido (pero constante para todos los flashes).
[0017] En principio, la presente invención funciona en oposición a un espectrómetro emisivo de difracción: en lugar de generar un solo iluminante calibrado y analizarlo con varias decenas de fotodetectores, la presente invención genera varias decenas de iluminantes calibrados y los analiza con simplemente tres fotodetectores.
[0018] Para este fin, la presente invención se refiere, en su acepción más general, a un procedimiento de medida de la reflectancia difusa uniforme ROBJ(λ) en al menos un punto de un objeto, siendo el procedimiento tal como se define en la reivindicación 1.
[0019] Así, el procedimiento según la presente invención permite medir con precisión la reflectancia difusa uniforme de un objeto en al menos un punto, y esto de manera optimizada con respecto a las soluciones descritas en la técnica anterior. Además, la presente invención funciona perfectamente con aparatos móviles de uso cotidiano.
[0020] El procedimiento presenta ventajosamente una o varias de las características de las reivindicaciones 2 a 12.
[0021] La presente invención se refiere, también, a un dispositivo según la reivindicación 13.
Breve descripción de los dibujos
[0022] Se comprenderá mejor la invención con la ayuda de la descripción, hecha a continuación a título puramente explicativo, de una realización de la invención, en referencia a las Figuras en las que:
• la Figura 1 ilustra de manera esquemática el dispositivo según la presente invención; y
• la Figura 2 representa las diferentes etapas del procedimiento según la presente invención;
• la Figura 3 describe el no recubrimiento sistemático de las bandas de longitud de onda que intervienen en el marco del procedimiento según la presente invención: ojo humano, sensor, fuente, medida; y
• las Figuras 4, 5, 6, 7 y 8 ilustran el algoritmo de flash, en este caso la generación de cuadrículas sucesivas para repartir de la manera más homogénea posible N flashes en el seno del triángulo de flash.
Descripción detallada de las realizaciones de la invención
[0023] Como comentario preliminar, cabe señalar que las calificaciones en este párrafo son:
• sensor= sensor electrónico de imágenes en color (la función de vídeo no se utiliza en el marco de la calibración, solo se utiliza la toma de imágenes estáticas),
• fuente= fuente de los iluminantes/flashes de color (pantalla, diodo(s), láser(s), etc.);
• (R,G,B)fuente I = parámetros de entrada no lineales de la crominancia de la fuente de los iluminantes de color (RG-BWfuente i o RGBYfuente i para los dispositivos de 4 primarios y más),
• BLfuente i = parámetro de entrada no lineal de luminancia de la fuente de los iluminantes de color (por ejemplo, la retroiluminación de una pantalla LCD);
• (R,G,B)sens°r i = parámetros de salida no lineales de crominancia del flujo luminoso captado por el sensor de imágenes en color,
• BVsens°r = parámetro de salida no lineal de luminancia del flujo luminoso captado por el sensor de imágenes en color (por ejemplo, el Brightness Valúe de la norma japonesa EXIF);
• OBJ = objeto de color a medir;
• EXT = iluminante exterior circundante;
• R/G/B = ecuación válida para cada primario rojo (red) o verde (green) o azul (blue);
• OBJ/EXT = ecuación válida para el objeto de color o para el iluminante exterior;
• x/y/z(A) = ecuación válida para cada sensibilidad espectral x(A), y (A ) y z(A);
• sensibilidades espectrales del observador estándar CIE 1931 = xEC-CIE-1931 (A), y EC_C|E-1931(A), zEC_CIE-1931(A) para A e [380 nm;780 nm];
• Sensibilidad espectral del sensor electrónico de imagen en color: xEC-sens°r(A), y EC_sens°r(A), zEC_sens°r(A). Las notaciones al exponer EC-XXX significan que nos situamos en el espacio de color XXX.
[0024] En las figuras y el ejemplo de realización descrito a continuación, el medio 11 apto para emitir colores es úna pantalla emisora. Se entiende que este medio 11 apto para emitir colores puede ser también uno o varios diodo(s) multicolor(s), uno o varios láser(es) multicolor(s), uno o varios flash(es) coloreados o cualquier otro medio apto para emitir “colores” (un “color” = úna función espectral de energía en la gama de longitud de onda considerada). Además, en las figuras y el ejemplo de realización descritos a continuación, el color del objeto se reduce a la reflectancia uniforme difusa. Se entiende que dicho procedimiento es apto para captar los demás componentes de reflectancia, en particular la reflectancia especular para los objetos brillantes y satinados mediante la visualización en pantalla de úna figura blanca sobre fondo negro y la detección del lóbulo de reflexión especular resultante por un análisis de gradiente en el plano focal imagen del sensor de imágenes en color.
[0025] La Figura 1 representa en un corte esquemático el dispositivo 10 según la invención para medir los colores de un objeto y de la luz circundante exterior: el objeto 30 a medir de color R0BJ(A); el medio apto para emitir colores 11 capaz de emitir N iluminantes conocidos Sfúente(A)i ; la luz circundante exterior 40 lEXT (A) ; el sensor electrónico de imagen de color 12 que caracteriza en crominancia y luminancia el flujo luminoso reflejado E sens°r(A)¡; la aplicación informática 13 "precalibrada colorimétricamente", que controla el sistema e interactúa con el operador.
[0026] En úna realización, la aplicación informática 13 se distribuye parcial o totalmente en la red o "nube" ("cloud" en terminología anglosajona).
[0027] La Figura 2 representa las diferentes etapas del procedimiento según la presente invención: • colocación de dicho objeto 30 en una zona que se encuentra en el campo de iluminación de dicho medio 11 capaz de emitir iluminantes de color en forma de flujo luminoso de colores y que se encuentra en el campo de visión de dicho detector electrónico de imágenes de colores 12 , estando sometido dicho objeto 30 asimismo a un iluminante exterior ambiente 40 en forma de un flujo luminoso exterior lext(A) desconocido y constante en el que A designa la longitud de onda, emitido por dicho medio 11 de una serie de N iluminantes Sfuente(A)i (con N un número entero natural superior a uno, de manera que i varía de 1 a N y A, siendo la longitud de onda), Sfuente(A)¡ conocida en función de los parámetros de entrada de dicho medio 11 capaz de emitir flujos luminoso de colores, captura por dicho detector electrónico de imágenes de colores 12 del flujo luminoso reflejado en al menos un punto de dicho objeto 30 y que entra en el detector, de manera que dicho flujo luminoso se denota por Esensor(A)¡, con N un número entero natural estrictamente superior a dos, de manera que i varía de 1 a N y A la longitud de onda, y obtención de N ecuaciones "E¡":
Figure imgf000005_0001
debido al carácter aditivo de la luz ondulatoria y por definición de la reflectancia difusa uniforme R0BJ(A) en al menos un punto del objeto; y
• determinación por dicho dispositivo de las dos funciones desconocidas continuas RObJ(A) e lext(A) resolviendo el sistema de N ecuaciones E¡:
- integrando cada ecuación E¡ en la intersección de los espectros fuente y detector, de manera que bj denota cada sensibilidad en la base colorimétrica elegida, generando así cada ecuación E¡ un conjunto de ecuaciones "E¡ integrada":
Figure imgf000005_0002
- calculando el valor numérico correspondiente al término de la izquierda de las ecuaciones E¡ integrada con ayuda de los parámetros de salida del detector digital de imagen; y
- expresando las dos funciones desconocidas continuas RObJ(A) e lext(A) con ayuda de un número finito de puntos de interpolación (Aj, yj) unidos por al menos una función de interpolación s(A) para conservar el carácter continuo de dichas funciones desconocidas continuas RObJ(A) e lext(A), siendo las Aj longitudes de onda elegidas en la intersección de los espectros fuente y sensor y que son parámetros de entrada del procedimiento, elegidos para minimizar el número de puntos de interpolación de una precisión dada; y
- buscando los parámetros yi de las funciones RObJ(A) e lext(A) que minimizan el sistema de mínimos cuadrados ||^ * X - S||2 resultante de las ecuaciones E¡ integradas.
[0028] La figura 3 describe el no recubrimiento sistemático de las bandas de longitud de onda que intervienen en el procedimiento según la presente invención:
• ojo humano: según la norma CIE 1931, percibe los flujos luminosos entre A1CIe 1931 = 380 nm y A2CIe 1931 = 780 nm con sensibilidades calificadas x/y/zEC-ClE-1931 (A) de ahí el espacio colorimétrico x /Y/Zec-cie-1931 por integración en [A1cie 1931; A2cie 1931] bien conocido por el experto en la materia,
• sensor: percibe los flujos luminosos entre A1sensory A2sensor, con sensibilidades calificadas x/y/zEC_sensor(A) de ahí el espacio de color XYZEC_sens°r por Integración en [A1sens°r; A2sens°r], al Igual que el espacio de color CIE 1931. Es Importante señalar que la banda espectral de los sensores electrónicos de Imagen habituales (CCD, CMOS) cubre una parte de infrarrojo, además del humano visible (a menos que haya un filtro infrarrojo).
• fuente: la fuente emite flashes de color dentro del intervalo [A1fuente; A2fuente] tales como:
fuente = m i n ( Z ¿ = 1 S fuente' ( / t ) í > 0 ) ^2fuente = m a x (% i= i ( )¿>o) s¡ la fuente es una pantalla LCD de teléfono móvil, es habitual que la banda espectral esté limitada a [300 nm; 700 nm], es decir, significativamente menos ancha que la del ojo humano [380 nm; 780 nm].
• medida: La medida de las funciones R0BJ(A) y Iext(A) solo se puede realizar en la intersección de los espectros de la fuente y del sensor que se observa [A1medida; A2medida], En efecto, por una parte, el sensor no capta nada fuera de su espectro de integración. Por otra parte, la matriz AT*A debe ser invertible, lo que se verifica cuando ^ f u e n t e ( > Q
(Véase el final de la descripción y el anexo 2). La elección de sensibilidades x/y/zEC- med¡da(A)>0 en [A1medida; A2med¡da] y cero en el exterior permite crear un espacio de color XYZEC-med¡da, al igual que el espacio de color CIE 1931. La utilización de las sensibilidades del sensor es siempre posible, las de la norma ClE 1931 también si la banda [A1medida; A2medida] está incluida en [380 nm; 780 nm].
[0029] Una consecuencia de la figura 3 y de las explicaciones que se acaban de dar es que el procedimiento según la invención es capaz de determinar los valores de la reflectancia difusa uniforme RObJ(A) y del iluminante exterior Iext(A) en bandas espectrales distintas del visible humano, a condición de que la fuente y el sensor sean compatibles con estas bandas y que la "luz" conserve un carácter ondulatorio: ultravioleta, infrarrojos, etc.
[0030] Las figuras 4, 5, 6, 7 y 8 ilustran el algoritmo de flash, describiendo las rejillas k utilizadas en función de un número creciente de flashes N solicitados, para repartir de la manera más homogénea posible los flashes en un triángulo de flash dado, compatible con las gamas fuente y sensor. La sucesión de las cuadrículas k es iterativa cuando N crece:
• La Figura 4 presenta la cuadrícula k=1 que se utilizará para N comprendido entre 1 y 3. La posición de cada flash i se indica por su número;
• La Figura 5 muestra la cuadrícula k=2 que se utilizará para N=4. La posición de cada flash i se indica por su número;
• La Figura 6 presenta la cuadrícula k=3 que se utilizará para N comprendido entre 5 y 6. La posición de cada flash i se indica por su número;
• La Figura 7 presenta la cuadrícula k=4 que se utilizará para N comprendido entre 7 y 10. La posición de cada flash i se indica por su número;
• La Figura 8 muestra la cuadrícula k=5 que se usará para N entre 11 y 15. La posición de cada flash i se indica por su número.
[0031] Describamos ahora el tratamiento para determinar las incógnitas RObJ(A) y I ext(A) a partir de los N flashes de color.
[0032] En la realización presentada en la Figura 1, el objeto que se va a medir 30 se coloca bajo la fuente de los flashes de color 11 y en el campo de visión del sensor electrónico de imágenes en color 12.
[0033] A continuación, la fuente 11 emite sucesivamente una sucesión de flashes de color siguiendo el algoritmo de flash descrito en el anexo 1 que busca optimizar el acondicionamiento de la matriz A, permaneciendo en las gamas pantalla y cámara y asegurándose de que el iluminante exterior permanece constante durante los flashes.
[0034] Este algoritmo toma como entrada un número de flashes N válidos solicitados. N depende del número n de puntos de interpolación requeridos para determinar las funciones RObJ(A) e Iext(A). Como mínimo, 3*N > (2n+2) para que el sistema A*X = B se determine correctamente (véase el final de la descripción detallada), por lo tanto N > 2/3*(n+1).
[0035] El algoritmo de flash devuelve a la salida una secuencia de N flashes válidos, con para cada flash, los parámetros de entrada de la fuente y los parámetros de salida del sensor. La puntuación de la secuencia de flashes es i.
[0036] Nota: Si la precisión requerida para determinar las funciones RObJ(A) e Iext(A) es del orden de 10 nm, N “ n “ 30. Teniendo en cuenta la capacidad de respuesta de los componentes electrónicos comunes, todo el ciclo de flash tarda unos diez segundos como máximo. Para un objetivo no uniforme (por ejemplo, una textura), el procedimiento utiliza un algoritmo de estabilización de imagen con al menos un punto de contraste.
[0037] Nota: Si la fuente de los flashes de color 11 es una pantalla emisiva, es capaz de generar un gran número de flashes de color, típicamente N de hasta 224=16,7 millones para sistemas RGB de 3x8 bits.
[0038] Para cada flash i, la luz emitida por la fuente 11 se refleja en el objetivo coloreado 30 y luego llega al sensor de imagen 12, lo que da la ecuación (El):
Figure imgf000007_0001
[0039] Desarrollemos la ecuación (Ei):
Figure imgf000007_0002
[0040] Pongamos lEXT REF(á) = R°BJ(A)*|ext(A)
[0041] La ecuación (Ei) se convierte en:
Figure imgf000007_0005
[0042] En primer lugar, el procedimiento va a interpolar las funciones R°bJ(A) y IeXT ReF (A) con ayuda de una función spline cúbica sellada y de (n°BJ/EXTREF 1) puntos de interpolación de coordenadas [xk= A °bJ/eXt REF k, y k= y °bJ/EXTREF k] para k=0 a n°BJ/EXTREF tales como:
todos los A ° bj/extref, están comprendidos en la intersección de los espectros del sensor y la fuente [A1r
A2medida] (cf. Figura 3) con
Figure imgf000007_0003
la pendiente nula de los splines es nula en los extremos: pO = p n0BJ/EXTREF = 0.
[0043] Las y obj/extref, son las incógnitas que el procedimiento determinará.
[0044] Como las funciones R°bJ(A) e |eXTReF (a) son funciones splines selladas de pendiente cero en los extremos, R°bJ(A) e |eXTReF (a) se pueden escribir en forma lineal:
Figure imgf000007_0006
con:
I entre 1 y n0BJ/EXTREF tal que: A m < A < A i e I = O si A = A 1 medida;
Figure imgf000007_0004
para k = O a n°BJ/EXT REF;
Figure imgf000008_0001
Figure imgf000009_0002
Figure imgf000009_0003
[0045]
Figure imgf000009_0004
L son calculados por la inversió , n (por pivote) del sistema lineal siguiente,
característico de las funciones splines cúbicas selladas; son únicamente función de Ios A l (I = 0 a n°BJ/EXTREE):
Figure imgf000009_0001
para I = 1 a n° F- i
[0046] En segundo lugar, el procedimiento conoce la función de transferencia de la fuente de Ios flashes de colores ffuente que da las funciones Sfuente(A), en función de Ios parámetros de entrada de la fuente en crominancia (R,G,B)fuentei = (Cfuente R/G/bí) y en luminancia BLfuentei = c fuenteBLi Esta función de transferencia se determina a partir de Ios valores teóricos de salida "de fábrica" del dispositivo electrónico y/o de una calibración previa a la medida. No es necesario repetir obligatoriamente esta calibración antes de cada medida de color. Esta función de transferencia también está disponible para dispositivos de 4 o más primarios (rojo-verde azul-blanco, rojo-verde azul-amarillo, etc.).
[0047] A título ilustrativo, una forma de la función de transferencia de la fuente es la siguiente precisando que Ios dispositivos de electrónica de consumo buscan respetar el estándar sRGB.
Figure imgf000009_0005
[0048] En tercer lugar, el procedimiento conoce la función de transferencia del sensor electrónico de imagen en color fsendor que da las coordenadas tricromáticas (X,Y,Z)EC-medida i en el espacio colorimétrico de medida, del flujo luminoso Esensor(A)i que entra en el sensor, en función de sus parámetros de salida de crominancia (R,G,B)sensor i = CsensorR/G/B i y de luminancia BVsensor i = CsensorBV. Esta función de transferencia se determina a partir de Ios valores teóricos de salida "de fábrica" del dispositivo electrónico y/o de una calibración previa a la medida. No es necesario repetir obligatoriamente esta calibración antes de cada medida de color.
[0049] A título ilustrativo, una forma de la función de transferencia del sensor electrónico de imagen en color es la siguiente precisando que Ios dispositivos de electrónica de consumo buscan respetar el estándar sRGB: • Luminancia Y: El procedimiento extrae del EXIF el BrightnessValue BVsens°r para calcular la luminancia Bsens°r del flujo luminoso entrante (Bv = L°g2(B/N/K) en cd/cm2) con N=1/3,125 y K=10,7, luego el proceso determina la luminancia Y = K*B (K es un parámetro de calibración resultante de diversas pérdidas: dispersión de la luz de la pantalla, absorción de la lente, etc.)
• Crominancia (x , y)EC- medida: en primer lugar, el procedimiento linealiza las 3 coordenadas (RGB) del sens°R utilizando una función paramétrica y (g,a,b) (f(x)=(a*x+b)g) y obtiene las 3 coordenadas (RGB-lineal)EC-sens° .^ En segundo lugar, el procedimiento convierte los 3 (RGB-lineaP EC-sensor en 3 coordenadas (RGB -raw)Ec-sens° ^ de multiplicación con una matriz 3x3 [WBsens°r] que corresponde a los valores del balance de blancos. El balance de blancos consiste en realizar una adaptación cromática para pasar de un blanco D65 (referencia del sRGB) a un blanco estimado. En tercer lugar, el procedimiento convierte las 3 coordenadas (RGB-raw) EC-sens°r en 3 coordenadas (X,Y,Z)Ec- medida por multiplicación con la matriz de paso 3x3 [p^-se^i^Ec-^dida] que corresponde a un cambio de base vectorial para pasar del espacio de color del sensor a un subespacio vectorial que es el espacio de color de medida. En cuarto lugar, el procedimiento convierte las 3 coordenadas (X,Y,Z> Ec-medida en (x, y)EC- medida.
[0050] Desarrollemos ahora las ecuaciones (E|) integrándolas en la intersección de los espectros del sensor y de la fuente [A i medida; A 2medida] (cf. Figura 3) para generar las ecuaciones "E| integradas":
Figure imgf000010_0001
[0051] Al cambiar el orden de las sumas, las ecuaciones (E¡ integradas) se convierten en:
Figure imgf000011_0003
[0052] Pongamos n0BJ+EXT REF = (n0BJ 1) (nEXT REF 1);
[0053] Coloquemos el vector xObj+Ext rEf de dimensión n0BJ+EXT REF tal que:
Figure imgf000011_0004
[0054] Coloquemos las variables (O 0BJ+EXTREFi(¡,k‘,X/Y/ZEC-medida) tales como:
si 1 < k < n OBj+1:
Figure imgf000011_0002
[0055] Las ecuaciones (E| integradas) pueden escribirse en la forma de las 3*N ecuaciones siguientes con como únicas incógnitas las x ObJ+Ext REFk:
Figure imgf000011_0001
[0056] Coloquemos la matriz Jacobiana A de dimensión (3*N; n0BJ+EXT rEf):
Figure imgf000012_0001
Con:
• OER para "OBJ+EXT REF", por lo que < 0 ° ER significa < 0 ° BJ+ EXTREF y n0ER significa n0BJ+EXT REF.
[0057] Coloquemos el vector B igual a fcapteur(ccapteurR/G/B/BV i)) x/Y/ZEC-medida de dimensión 3*N (i comprendido entre 1 y N).
[0058] Las ecuaciones (Ei integradas) forman el sistema lineal A*X = B.
[0059] El procedimiento utilizará el algoritmo de mínimos cuadrados lineales para minimizar ||A * X - B||2. Se alcanza el mínimo para: Xmin = (ATA)'1.AT B, de ahí los valores de los puntos de interpolación de RObj(A) y I EXTREF (A) y por lo tanto
Figure imgf000012_0002
[0060] Hay 3 condiciones a respetar: se muestra que la matriz AT.A es invertible si y sólo si A es inyectiva, lo £ * S fuente (A)t > 0
que es cierto con respecto al intervalo [A1 medlda; X2medlda] y con h = m a x(A k+ i- Ak) suficientemente pequeño. La demostración matemática se describe en el anexo 2. Además, x°BD+EXT ref > 0 para todas las k porque éstas son las ordenadas de flujo de energía.
[0061] La primera condición se verifica mediante la construcción de [A1medida; A2medida] como intersección de los espectros fuente y sensor (ver Figura 3) y, la segunda, con un mínimo de puntos de interpolación para RObj(A) y IexT(A).
[0062] Para la tercera condición, la búsqueda de Xmin se realiza bajo restricción X0BJ+EXT ref > 0 para todos los k, utilizando, entre otros, el algoritmo NLLS de Lawson y Hanson (Laboratorio JET de la NASA, Solving Least Squares Problems en las ediciones SIAM), o, más generalmente, un algoritmo de optimización cuadrática.
[0063] Nota: El procedimiento es posible con otras funciones de interpolación en modo lineal o no lineal. El modo no lineal también se debe considerar para pasar de un sistema de 3*N ecuaciones según los componentes X/Y/ZEC_medida a un sistema de N ecuaciones en forma de normas de tipo euclidiano (||.. ||2) o de tipo deltaE de las coordenadas (X,Y,Z)EC_medida
[0064] Nota: El procedimiento funciona, por una parte, con sensores que dan acceso a las coordenadas (R,G,B_raw) y, por otra parte, con sensores que no dan acceso a las coordenadas (R,G,B_raw), que no dan acceso a los valores de la matriz de equilibrio de blancos, pero que permiten bloquear estos valores de equilibrio de blancos durante el proceso de flash. En este segundo caso, los valores de la matriz de blancos se convierten en incógnitas adicionales por determinar (9 como máximo). Para resolver este sistema A*X=B aumentado con las incógnitas del balance de blancos, la técnica consiste en aumentar el número de flashes para disponer de un sistema sobredeterminado, y luego resolverlo ya sea en modo no lineal o en modo lineal iterativo de la siguiente manera (entre otras cosas cuando los posibles valores de los parámetros del balance de blancos están incluidos en un conjunto finito de valores discretos): descomposición QR del sistema con 2 bloques (X I balance de blancos), determinación de X con el primer bloque emitiendo una hipótesis sobre los parámetros del balance de blancos, inyección de los valores de X en el segundo bloque, determinación de los parámetros del balance de blancos, luego reinyección en el primer bloque para iterar X, y así sucesivamente.
[0065] Dos realizaciones de visor son posibles para la invención en modo "colorímetro" con el fin de enriquecer la experiencia de usuario y de mejorar la precisión del modo "muestrario" de la invención:
• Primer modo de realización: pantalla 11 que apunta al contrario de los ojos del usuario
• Segunda realización: pantalla 11 que apunta a la dirección de Ios oJos del usuario
Primer modo de realización: pantalla que apunta al contrario de Ios oJos del usuario
[0066] La pantalla 11 muestra una figura blanca sobre fondo negro (redondo/bandas/cuadrado...) para materializar el lugar a apuntar, luego el usuario presiona el disparador utilizado normalmente para tomar una foto (ver botón en el lateral para un iPhone S o en la parte inferior de la pantalla en oposición a la posición de la cámara de videoconferencia).
[0067] Un interés particular de este primer modo de realización es ser poco sensible al entorno luminoso, lo que garantiza el funcionamiento de la invención en prácticamente todos Ios lugares usuales, incluso muy luminosos (interior, exterior). Esta calidad se basa en la muy corta distancia entre el objetivo, la pantalla 11 y el sensor de imagen 12, en el alto brillo de las pantallas emisoras y en el hecho de que hay varias "barreras" de hecho a Ios rayos de luz circundantes: soporte de la pantalla y del sensor de imagen, mano/dedo(s) del usuario en Ios lados.
Segunda realización : pantalla que apunta a la dirección de Ios oJos del usuario
[0068] La pantalla 11 se coloca frente al iluminante exterior, típicamente frente al cielo. El usuario entonces viene colocado en la parte superior de la pantalla el objeto coloreado a medir (parte cerca del sensor de imagen). Para facilitar la maniobra, la pantalla 11 se divide en dos partes, la parte superior cercana al sensor de imagen 12 sirve para emitir Ios flujos luminosos para la medida, la parte inferior sirve para dar un bucle de retorno al usuario sobre el lugar que está apuntado (Wysiwyg).
[0069] Un interés particular de esta segunda realización es poder medir la reflectancia de la Pantalla R (a).
[0070] El dispositivo 10 según la presente invención permite transformar en espectrómetro todos Ios equipos electrónicos que disponen de una pantalla emisora 11 y de un sensor de imagen 12 situado b lado, entre otros Ios teléfonos, las tabletas, Ios PDA (asistentes personales), Ios ordenadores y Ios monitores/TV equipados con una cámara de videoconferencia. También se dirige, por ejemplo, a las cámaras y videocámaras que disponen de una pantalla orientable/extraíble.
[0071] El dispositivo 10 según la presente invención permite abrir nuevos usos nómadas de medida fiel de color absoluto en el día a día, sin necesidad de un aparato dedicado. La siguiente lista no es limitativa:
• la medida de Ios colores sobre objetos de todo tipo materiales, líquidos, gases, pinturas, tapices, grafismos, textiles, plásticos, madera, metales, suelos, minerales, vegetales y alimentos... ;
• la utilización de códigos de barras en color (de una o varias dimensiones);
• la medida de Ios colores con fines médicos o cosméticos sobre el hombre y Ios seres vivos: piel, granos, lunares, cabello, pelaje, maquillaje, dientes... ;
• la medida de Ios colores con el fin de ayudar a las personas daltónicas y ciegas;
• la medida del color de objeto(s) que aparece en una fotografía con el fin de realizar la adaptación cromática y de guiar el algoritmo de balance de blancos en lugar de utilizar una mira de color calibrada anexa.
[0072] La invención se describe en lo anterior a modo de ejemplo. Se entiende que el experto en la materia es capaz de realizar diferentes variantes de la invención sin por ello salir del marco de la patente.
a n e x o 1: a l g o r it m o DE FLASH
Introducción
[0073] El presente anexo define un algoritmo de flash destinado a optimizar el acondicionamiento de la matriz A buscando separar al máximo Ios dichos flashes y distribuirlos de la manera más homogénea posible en el espacio colorimétrico de medida, permaneciendo al mismo tiempo en las gamas de la fuente y del sensor electrónico de imagen y asegurándose de que el iluminante exterior permanece constante durante Ios flashes.
Descripción del algoritmo de flash
[0074] Dicho algoritmo toma como entrada un número de flashes N válidos solicitados.
[0075] Dicho algoritmo devuelve a la salida una secuencia de N flashes válidos (con para cada flash, Ios parámetros de entrada de la fuente y Ios parámetros de salida del sensor. El índice de esta secuencia se denota i (flash_i).
[0076] Dicho algoritmo interactúa con el procedimiento y el dispositivo según la invención que emiten flashes de colores hacia un objeto objetivo y que captan la luz reflejada con un sensor electrónico de imagen (entre otros, un smartphone con la pantalla que emite Ios flashes y la cámara de vldeoconferencla que capta la luz reflejada por el objeto objetivo).
[0077] Dicho algoritmo funciona en presencia de un iluminante exterior lext(A).
[0078] El algoritmo se divide en 4 grandes "fases", y cada fase en "etapas":
Fase 1: emisión de un flash “negro 1”
Fase 2: búsqueda de los 3 vértices que maximizan el “triángulo de flash”
Fase 3: compleción homogénea del número de flashes válidos solicitados
Fase 4: emisión de un flash “negro 2”
[0079] Notación: en las líneas siguientes, las coordenadas (dispR %, dispG %, dispB %) designan los parámetros de entrada de crominancia de la fuente de los flashes de color en porcentaje ([0;1]). DispBL% designa el parámetro de entrada de luminancia de la fuente de los flashes de color en porcentaje ([0;1]). En la práctica, estos son valores binarios, que generalmente varían entre 0 y 255. (dispECMY, dispECMx, dispECMy) designan las coordenadas del flujo luminoso emitido por la fuente en el espacio de color YxyEC_medida
[0080] Notación: en las líneas siguientes, las coordenadas (camR %-k, camG %-k, camB %-k) designan los parámetros de salida de crominancia del sensor electrónico de imagen en porcentaje ([0;1]). En la práctica, son valores binarios, que varían generalmente entre 0 y 255. camBv designa el Brightness Valúe que es el parámetro de salida de luminancia del sensor electrónico de imagen (véase estándar EXIF). (camECMX, camECMY, camECMZ) y (camECMY, camECMx, camECMy) designan las coordenadas del flujo luminoso emitido por la fuente respectivamente en el espacio de color XYZEC_medida y en su diagrama de cromaticidad.
[0081] Nota: En las líneas siguientes, los valores dispEps y camEps significan que los valores de umbral por debajo de los cuales los valores de entrada de la fuente y de salida del sensor se consideran nulos.
Fase 1: Emisión de un flash "negro 1"
[0082] El objetivo de la fase 1 es doble: controlar que el iluminante exterior sea compatible con los límites físicos del dispositivo y controlar que el iluminante exterior sea constante durante el flash.
[0083] El algoritmo emite un flash "negro", es decir, realiza úna medida con la fuente apagada, es decir, dispR % = dispG % = dispB % = 0 (y dispBL = 0 si es posible).
[0084] El algoritmo se enfrenta a 2 casos posibles:
• Caso 1: El valor camECMY es estrictamente superior a un límite camECMY-IEmax definido en función de la luminancia máxima de la fuente de los flashes de color, lo que significa que la luminancia del iluminante exterior es demasiado fuerte en relación con los límites físicos de la fuente de los flashes de color. La medida no es posible. El algoritmo interrumpe el proceso de flash generando un código de error;
• Caso 2: El valor camECMY es inferior o igual a un límite camECMY-l Emax definido en función de la luminancia máxima de la fuente de los flashes de color, lo que significa que la luminancia del iluminante exterior es compatible con los límites físicos de la fuente de los flashes de color. El algoritmo almacena en memoria los valores de crominancia y luminancia medidos por el sensor de imagen en color para garantizar que el iluminante permanezca constante durante el flash y, a continuación, el algoritmo pasa a la etapa 1 de la fase 2.
[0085] Nota: en el presente anexo 1 sólo se mencionan 2 flashes negros para controlar la constancia del iluminante exterior, uno al principio del flash y otro al final. En función de las condiciones de empleo del dispositivo según la invención, es muy posible reducir o aumentar el número de flashes negros para controlar la constancia del iluminante exterior.
Fase 2: Búsqueda de los 3 vértices que maximizan el "triángulo de flash"
[0086] El objetivo de la fase 2 es construir úna "subgama de flash" de tamaño máximo para úna precisión dada, siendo compatible con la gama de la fuente de los flashes luminosos y la del sensor electrónico de imágenes.
[0087] Vamos a definir la función f: (dispECMx, dispECMy) (camECMx, camECMy) de la gama de la fuente de los flashes de color a la gama del sensor electrónico de imágenes.
[0088] La "subgama fuente-sensor" se define como la intersección de la gama del sensor y de la imagen por f de la gama de la fuente. La subgama fuente se define como la imagen recíproca por f de la subgama sensor.
[0089] Dicho de otro modo, el objetivo de la fase 2 es determinar un triángulo incluido en la "subgama sensorfuente" de tamaño máximo para una precisión dada. Este triángulo se llama "triángulo de flash".
Etapa 1: Búsqueda de un pivote
[0090] El objetivo de la etapa 1 es definir un flash pivote en el interior de la gama de sensores.
[0091] El algoritmo va a la etapa 1.1 utilizando un valor preestablecido de flash- pivote para la iteración k=1, por ejemplo, un flash blanco de máxima luminancia (dispR %, = dispG % 1 = dispB % i = dispBL % i = dispBL%i= 1).
Etapa 1.1: Prueba de un flash pivote K
[0092] El objetivo de la etapa 1.1 es probar si el flash pivote propuesto de índice k es b el interior de la gama sensor.
[0093] El algoritmo pide a la fuente que genere el flash pivote k y recupera las coordenadas de salida del sensor (camR%k, camG%k, camB%k, camBvk).
[0094] El algoritmo se enfrenta a 2 casos posibles:
• Caso 1.1-1: Al menos uno de los componentes (camR %k,camG %k,camB %k) es inferior o igual a camEps, lo que significa que el flash está fuera del rango del sensor. El algoritmo va a la etapa #1.2
• Caso 1.1-2: Todos los componentes (camR%k, camG%k, camB%k) son estrictamente superiores a camEps, lo que significa que el flash es el interior de la gama del sensor. El algoritmo pasa a la etapa 2
Etapa 1.2: Generación de un nuevo flash pivote de índice k+1
[0095] El objetivo de la etapa 1.2 es generar un nuevo flash pivote de índice k+1 en el interior de la gama de sensores, a diferencia del flash pivote anterior de índice k.
[0096] El algoritmo se enfrenta a 2 casos posibles en función de (camR%k, camG%k, camB%k):
Caso 1.2-1: Sólo uno de los tres componentes (camR%k, camG%k, camB %k) es nulo con el flash pivote k. El algoritmo probará un nuevo flash pivote (k+1) con una mayor proporción del componente que se ha cancelado. A modo de ejemplo, si camR%k < camEps, entonces:
Figure imgf000015_0001
El algoritmo va a la etapa 1.1 con este flash pivote k+1
• Caso 1.2-1: Dos de los tres componentes son nulos (camR %k, camG%k, camB%k). El algoritmo intentará entonces un nuevo flash pivote (k+1) con una proporción mayor de los dos componentes que se han anulado. A modo de ejemplo, si camR%k < camEps y camG%k < camEps, entonces
Figure imgf000016_0001
con
Figure imgf000016_0002
El algoritmo va a la etapa 1.1 con este flash pivote k+1
Caso 1.2-3: el algoritmo no puede encontrar un nuevo flash pivote k+1. Entonces el algoritmo declara la medida Imposible y sale del algoritmo devolviendo un código de error.
Etapa 2: Atajo para pasar del flash pivote a un primer triángulo de flash de gran tamaño
[0097] El objetivo de la etapa 2 es ahorrar flashes para hacer crecer el tamaño del triángulo de flash alrededor del flash pivote.
[0098] Para ello, el algoritmo dispone de una base de datos con entrada de valores de entrada y salida de flashes de referencia y salida de las coordenadas de los triángulos de flash asociados. Esta base de datos es por lo tanto un atajo para hacer crecer el triángulo de flash.
[0099] Más precisamente, el algoritmo enmarca el flash pivote con los 3 flashes de referencia más cercanos (en el sentido de una norma euclidiana en el espacio de medida). Luego mezcla las coordenadas de los triángulos de flash de referencia utilizando las coordenadas baricéntricas del flash pivote en el triángulo de los 3 flashes de referencia. El algoritmo obtiene así un triángulo de flash de gran tamaño alrededor del flash pivote. A continuación, efectúa una homotecia de relación K<1 sobre este triángulo con respecto al flash-pivote para tomar un margen de seguridad y pide a la fuente que emita los 3 flashes de color que corresponden a los 3 vértices de dicho triángulo. El algoritmo va a la etapa 4.1 para analizar los resultados.
[0100] Si el algoritmo no es capaz de enmarcar el flash pivote con 3 flashes de referencia, selecciona el flash de referencia más cercano a la base de datos (si está lo suficientemente cerca de un umbral configurable) y luego emite los 3 flashes como antes y va a la etapa 4.
[0101] Si no hay ningún flash de referencia lo suficientemente cerca en la base de datos, el algoritmo pasa a la etapa 3.
Etapa 3: Cambio del flash pivote a un primer triángulo de flash pequeño
[0102] El objetivo de la etapa 3 es crear un primer triángulo de flash de pequeño tamaño gracias a tres puntos, el primero de los cuales es la salida del sensor para el flash pivote (camR %k, camG%k, camB%k).
[0103] El algoritmo ordena los valores (camR%k, camG%k, camB %k), luego genera dos nuevos flashes, el primero con más (en proporción) del componente más débil, el segundo con más de los dos componentes más débiles.
[0104] A modo de ilustración, si camG%k < camR%k <camB %k, el algoritmo emite un primer flash con más (en proporción) de componente verde, luego un segundo flash con más componente verde y más componente rojo.
Etapa 3.1 : Ensayo del triángulo de flash de pequeño tamaño
[0105] El objetivo de la etapa 3.1 es probar si el triángulo de flash de pequeño tamaño está incluido en la gama de sensores.
El algoritmo se enfrenta a 3 casos posibles
[0106]
• Caso 3.1-1: al menos un flash sale de la gama de sensores. El algoritmo va a la etapa 3.2.
• Caso 3.1-2: las salidas del sensor para estos flashes están alineadas con la salida del sensor para el flash pivote. El algoritmo declara la medida imposible y sale del algoritmo devolviendo un código de error.
• Caso 3.1-3: el triángulo de flash pequeño está incluido en el rango del sensor y los puntos no están alineados. El algoritmo va a la etapa 4.
Etapa 3.2: Generación de un nuevo triángulo de flash de pequeño tamaño
[0107] El objetivo de la etapa 3.2 es generar un nuevo triángulo de flash de pequeño tamaño sustituyendo los flashes cuya salida del sensor ha salido de la gama del sensor.
[0108] El algoritmo sustituye al flash que ha fallado añadiendo menos componentes añadidos. El algoritmo va a la etapa 3.1 con esta nueva base.
Etapa 4: Maximización del tamaño del triángulo de flash
[0109] El objetivo de la etapa 4 es construir el triángulo de flash de tamaño máximo para una precisión dada.
[0110] La transformación f se supone lineal y el algoritmo determina esta transformación gracias a los datos de Ios 3 puntos de la base del rango sensor. El algoritmo deduce la subgama fuente-sensor y luego determina el triángulo de superficie máxima incluido en esta subgama. A continuación, efectúa una homotecia de relación K<1 sobre este triángulo con respecto al flash-pivote para tomar un margen de seguridad y pide a la fuente que emita Ios 3 flashes de color que corresponden a Ios 3 vértices de dicho triángulo. El algoritmo va a la etapa 4.1 para analizar Ios resultados.
Etapa 4.1: Ensayo de un triángulo de flash de orden k
[0111] El objetivo de la etapa 4.1 es probar si el triángulo de flash está incluido en la gama de sensores.
[0112] El algoritmo se enfrenta a 2 casos posibles:
• Caso 4.1-1: un vértice del triángulo de flash sale de la gama de sensores. El algoritmo va a la etapa 4.2.
• Caso 4.1-2: el triángulo de flash se considera insuficientemente grande, ya que al menos uno de sus vértices está demasiado lejos de la parte superior de la gama de sensores más cercana (en el sentido de la norma euclidiana en el espacio de medida), y el flash correspondiente a esta parte superior también está demasiado lejos de la parte superior de la gama de fuentes más cercana. El algoritmo va a la etapa 4.3.
• Caso 4.1-3: el triángulo de flash es satisfactorio. El algoritmo pasa a la fase 3.
Etapa 4.2: Generación de un nuevo vértice de índice k+1 del triángulo de flash tras una salida del rango sensor del vértice de índice k
[0113] El objetivo de la etapa 4.2 es generar un nuevo vértice de índice k+1 del triángulo de flash en el interior del rango sensor a diferencia del vértice de índice k y de coordenadas (camR%k, camG%k, camB%k).
[0114] El algoritmo se enfrenta a 2 casos posibles en función de (camR%k, camG%k, camB%k):
• Caso 4.2-1: Sólo uno de Ios tres componentes (camR %k, camG%k, camB%k) es nulo. El algoritmo probará un nuevo flash pivote (k+1) con una mayor proporción del componente que se ha cancelado. A modo de ejemplo, si camR%k < camEps, entonces
Figure imgf000017_0001
con
Figure imgf000018_0001
El algoritmo va a la etapa 1.1 con este flash pivote k+1.
• Caso 4.2-2: Dos de los tres componentes son nulos (camR %k, camG%k, camB%k). El algoritmo intentará entonces un nuevo flash pivote (k+1) con una proporción mayor de los dos componentes que se han anulado. A modo de ejemplo, si camR%k < camEps y camRG%k < camEps,
Figure imgf000018_0002
con
Figure imgf000018_0003
El algoritmo va a la etapa 1.1 con este flash pivote k+1.
Caso 4.2-3: el algoritmo no puede encontrar un nuevo flash pivote k+1. Entonces el algoritmo declara la medida imposible y sale del algoritmo devolviendo un código de error.
Etapa 4.3: Generación de un nuevo vértice del triángulo de flash porque el triángulo de flash de tamaño insuficiente
[0115] El objetivo de la etapa 4.3 es ampliar el triángulo de flash porque al menos uno de sus vértices está demasiado lejos de la parte superior de la gama de sensores más cercana y el flash_k_1 correspondiente a esta parte superior también está demasiado lejos de la parte superior de la gama de fuentes más cercana.
[0116] Destacan flash_k_2 y flash_k_3 los dos flashes cuyas salidas de sensor son los otros dos vértices del triángulo de flash.
[0117] El algoritmo genera dos flashes respectivamente baricentro del sistema {(flash flash_k_1, a), (flash flash_k_2, 1-ci)} y baricentro del sistema {(flash flash_k_1, a), (flash flash_k_3, 1-a)} (por ejemplo: a = 0.2). Estos dos flashes y el flash flash_k_1 forman un triángulo en el que se supone que la transformación f afina. El algoritmo determina esta transformación a través de los datos de los tres puntos y deduce la subgama fuente-sensor y luego determina el vértice que permite obtener el triángulo de flash de superficie máxima incluido en esta subgama. A continuación, realiza una homotecia de relación K<1 sobre este punto con respecto al vértice anterior para tomar un margen de seguridad y pide a la fuente que emita el flash de color correspondiente a dicho punto. Si la salida del sensor sale del rango del sensor, el algoritmo repite la operación con un margen más alto (K más pequeño), de lo contrario, la salida del sensor reemplaza el vértice anterior y forma con los otros vértices un nuevo triángulo de flash. El algoritmo va a la etapa 4.1 con este nuevo triángulo de flash.
Fase 3: Compleción homogénea del número de flashes válidos solicitados
[0118] El objetivo de la fase 3 es generar una secuencia de N flashes cuyas salidas de sensor se distribuyen de manera homogénea en el triángulo de flash definido durante la fase 2.
[0119] Por lo tanto, el algoritmo dispone de las coordenadas de los vértices del triángulo de flash, así como de un cierto número de flashes intermedios que han permitido determinar el triángulo de flash durante la fase 2 (al menos uno: el flash- pivote). Estos puntos se anotan (camECMx_k, camECMy_k).
Etapa 1: Generación de una cuadrícula de N puntos en el triángulo de flash
[0120] El objeto de la etapa 1 es generar una cuadrícula de N puntos repartidos de manera homogénea en el triángulo de flash.
El algoritmo genera una cuadrícula de N puntos distribuidos como se describe en las figuras 4 a 8 para valores de N que van del 1 al 15.
[0121] El algoritmo va a la etapa 2 con esta cuadrícula de N puntos en el triángulo de flash, anotados (camECMx_g_k, camECMy_g_k).
Etapa 2: Generación de un flash
[0122] El objeto de la etapa 2 es generar unos flashes cuya salida sensorial se aproxima a los puntos ideales situados en la rejilla definida durante la etapa 1.
[0123] Para cada punto (camECMx_g_k, camECMy_g_k), el algoritmo determina el triángulo de vértices de tres puntos no alineados (camECMx_k, camECMy_k) que minimiza la suma de los cuadrados de las distancias desde el punto (camECMx_g_k, camECMy_g_k) hasta los vértices del triángulo. Esta suma se llama distancia al triángulo.
[0124] El algoritmo elige el punto (camECMx_g_k, camECMy_g_k) cuya distancia a su triángulo es la más pequeña.
[0125] La transformación f se supone lineal sobre este triángulo y su vecindad, y se determina mediante los datos de los 3 vértices del triángulo. El algoritmo determina el flash (dispECMx_g_k, dispECMy_g_k) cuya salida de sensor será (camECMx_g_k, camECMy_g_k).
[0126] Si la salida del sensor para el flash (dispECMx_g_k, dispECMy_g_k) sale del rango del sensor, el flash no se retiene.
[0127] El punto (camECMx_g_k, camECMy_g_k) se elimina de la lista de puntos cercanos.
[0128] El algoritmo se enfrenta a 2 casos posibles:
• Caso 2-1: no queda ningún punto (camECMx_g_k, camECMy_g_k) por acercar. El algoritmo va a la etapa #3 con todos los flashes que se generaron durante la fase 2 y 3.
• Caso 2-2: todavía queda al menos un punto (cam ECMx_g_k, camECMy_g_k) por acercar. El algoritmo va a la etapa 2 con la nueva lista de puntos (camECMx_g_k, camECMy_g_k).
Etapa 3: Elección de los flashes a devolver
[0129] El algoritmo solo retiene los flashes cuya salida del sensor está lo suficientemente cerca de un punto de la rejilla generada en la etapa 1 (en el sentido de la distancia euclidiana en el espacio colorimétrico de medida). Si dos puntos están lo suficientemente cerca de un punto de la cuadrícula, entonces solo se retiene el punto más cercano. A continuación, el algoritmo pasa a la fase 4.
[0130] Nota: Si al menos un flash cuya salida del sensor está estrictamente incluida en la gama del sensor se retiene, entonces se comprueba la condición
Figure imgf000019_0001
en el intervalo [[A lmedida; A2medida] utilizada en la demostración de reversibilidad de AT*A en el anexo 2
Fase 4: Emisión de un flash "negro 2"
[0131] El objetivo de la fase 4 es controlar que el iluminante exterior sea constante durante el flash.
[0132] El algoritmo emite un flash "negro", es decir, realiza una medida con la fuente apagada, es decir, dispR % = dispG % = dispB % = 0 (y dispBL = 0 si es posible).
[0133] El algoritmo se enfrenta a 2 casos posibles:
Caso 1: La diferencia de los valores de crominancia y luminancia medidos por el sensor de imagen en color entre el flash negro actual y el flash negro anterior es estrictamente superior a un umbral determinado. Esto significa que el iluminante exterior ha variado durante los flashes. El algoritmo interrumpe el proceso de flashing generando un código de error;
Caso 2: La diferencia de los valores de crominancia y luminancia medidos por el sensor de imagen en color entre el flash negro actual y el flash negro anterior es inferior o igual a un umbral determinado. Esto significa que el iluminante exterior no ha variado durante los flashes y, por lo tanto, el proceso de flash es válido. El algoritmo devuelve la secuencia de los N flashes válidos realizados con, para cada flash, los parámetros de entrada de la fuente y los parámetros de salida del sensor.
a n e x o 2: d e m o s t r a c ió n d e l a in v e r s ib il id a d d e a T*a
[0134] Se muestra que AT*A es invertible en el caso en que Iíi,s“ (;.),>o en el intervalo [A1m A2medida]
(Ios flashes cubren el conjunto de las longitudes de onda consideradas para determinar R0BJ(A) e lext(A)), y para h = max (Ai+1 - Aj.) suficientemente pequeño.
[0135] Sea x un vector propio asociado al valor propio |j.
[0136] Por un lado tenemos (AT*A.x , x) = (j .x ,x) = j .(x , x) = j . IIx II2
[0137] Y por otro lado ( A T * A . x , x ) = ( A . x , A . x ) = | | A x | | 2
Figure imgf000020_0001
[0138] Entonces j es positivo y lo es estrictamente si A es inyectiva.
[0139] Por lo tanto, si A es inyectiva, todos Ios valores propios de AT*A son estrictamente positivos, por lo que AT*A es invertible.
[0140] Recíprocamente, si A no es inyectiva, existe x no nula tal que A.x = 0.
[0141] Entonces tenemos AT*A.x = 0 por lo que AT*A no es invertible.
[0142] Finalmente, AT*A es invertible si y sólo si A es inyectiva.
Lema 1: la integral de una spline S(á) cúbica sellada con pendientes nulas en Ios extremos j S{A}*d A es siempre positiva cuando todos Ios yj son positivos
Caso n°1: si todos Ios y¡¡ = 0,
[0143] Entonces s(A)=0 para todos Ios A debido a las pendientes nulas en Ios bordes, de donde I S(A)*d A = 0 Caso n°2: si existe un y¡ >0 y todos Ios demás y¡ son nulos:
[0144] yi crea un "vientre positivo" en [Am ; x .] [A. ; A¡+i ] (área > 0) y "vientres negativos" en [A ¡-2; A¡.] [A+ i ; A ¡+2] (área < 0), y así sucesivamente hasta Ios bordes.
[0145] Como la función spline minimiza la energía de la lengüeta, la superficie del vientre positivo en [A¡_i; A.] u [A. ; A¡+i] es superior a las de Ios vientres negativos [A¡-2; A.] u [A¡+i; A.+2]. Esto se debe a que |p¡+i| > |p.+2| > ... > |Pn| = 0 y que |p¡-i| > |p¡-2| > ... > |pü| = 0. Como resultado, la superficie de Ios vientres positivos es mayor que Ios negativos y, por lo tanto, IS(X)*d A > 0.
Caso n°3: si hay dos y¡.>0:
[0146]
Caso n°3.1: y¡. e y¡+i > 0 (contiguos): Esto crea una vientre "grande" positiva. El razonamiento del caso n°2 es aplicable
Caso n°3.2: y. y¡+2 > 0 (y ¡+1 = 0): tenemos 2 vientres positivos contiguos. El razonamiento del caso n°2 es aplicable Caso n°3.3: y. y¡+3 > 0 (y ¡+1 = y +2): tenemos 1 vientre positivo, 1 vientre negativo, 1 vientre positivo. El razonamiento del caso n°2 es aplicable
Caso n°3.4: y. yí+k>0 con k>3. Idéntico caso n°3.3
Caso n°4: si existe al menos 3 y¡. > 0 (caso general).
[0147] Entonces el razonamiento de Ios casos n°3 es aplicable. CQFD
Lema 2: la integral de una spline S(A) cúbica sellada con pendientes nulas en Ios extremos multiplicada por una función K(A)>0 (jS(A)*K(A)*d A) es siempre positiva cuando todos Ios ¡ son positivos
[0148] El lema 1 (caso n°2) no es aplicable directamente porque el término K(A) puede disminuir fuertemente el área de Ios vientres positivos y aumentar la de Ios vientres negativos.
[0149] El truco consiste en aumentar el número de puntos de interpolación para disminuir la superficie de Ios vientres negativos.
[0150] Pongámonos en el caso n°2 del lema 1. El error de un spline sellado está limitado por la fórmula siguiente: |f(x)-s(x)| < a*h4 con a= 5/384*max[a;b]{lf(4)(E)|} > 0 (valor constante) y h = max{|Xi - Xi_i |}. Es decir: f(x)-a*h < s(x) < f(x)-1-a*h
[0151] Como f(x) >0 (ROBJ(á) e IEXT(á) son flujos de energía), s(x) > -a*h, por lo que la superficie máxima de Ios vientres negativos [A 1-2; A,] u [A ¡+i ; A,+2] es igual a -2*a*h2
[0152] La superficie de Ios vientres positivos permanece constante porque el aumento del número de puntos de interpolación creará varios yj > 0 contiguos.
[0153] Por lo tanto, existe una h para la cual la superficie de Ios vientres positivos es estrictamente superior a la de Ios negativos.
Volver a la demostración
[0154] Sea x tal que A*x=0 con x formado ordenadas de splines cúbicos sellados con pendientes nulas en Ios extremos que representan R0BJ(A) e lEXT(A).
Demostremos que x=0
[0155] Tenemos para todo N y para toda sensibilidad x/y/z(A):
Figure imgf000021_0001
= 0
donde R0BJ(A) e lEXT(A) son las funciones splines cúbicas selladas con pendientes nulas en los extremos [0156] Sumando las 3*N ecuaciones obtenemos:
Figure imgf000021_0003
con x(A) y (A) z(A)>0 y
Figure imgf000021_0004
para cualquier X, se deduce del lema 2 que existe una h suficientemente pequeña tal que:
Figure imgf000021_0002
[0157] Puesto que R0BJ(A) = 0 e I EXT(A) = 0 para todo A, es decir, x = 0. A es inyectiva. Por lo tanto AT*A es invertible. CQFD

Claims (13)

r e iv in d ic a c io n e s
1. Procedimiento de medida de la reflectancia difusa uniforme ROBJ(á) en al menos un punto de un objeto (30) con ayuda de un dispositivo (10) que incluye un medio (11) capaz de emitir iluminantes de color expresados en forma de flujo luminoso y un detector electrónico de imágenes de colores (12), caracterizado porque incluye las etapas siguientes:
• colocación de dicho objeto (30) en una zona que se encuentra en el campo de iluminación de dicho medio (11) capaz de emitir iluminantes de color en forma de flujo luminoso de colores y que se encuentra en el campo de visión de dicho detector electrónico de imágenes de colores (12), estando sometido dicho objeto (30) asimismo a un iluminante exterior en forma de un flujo luminoso exterior ambiente (40) lext(A) desconocido y constante en el que A designa la longitud de onda, emitido por dicho medio (11) de una serie de N iluminantes Sfuente(A)i (con N un número entero natural superior a uno, de manera que i varía de 1 a N y A, siendo la longitud de onda), Sfuente(A)i conocida en función de los parámetros de entrada de dicho medio (11) capaz de emitir flujos luminoso de colores, captura por dicho detector electrónico de imágenes de colores (12) del flujo luminoso reflejado en al menos un punto de dicho objeto y que entra en el detector, de manera que dicho flujo luminoso se denota por Esens°r(A)i, con N un número entero natural estrictamente superior a dos, de manera que i varía de 1 a N y A la longitud de onda, y obtención de N ecuaciones "Ej":
Figure imgf000022_0002
debido al carácter aditivo de la luz ondulatoria y por definición de la reflectancia difusa uniforme R0BJ(A) en al menos un punto del objeto (30); y
• determinación por dicho dispositivo (10) de las dos funciones desconocidas continuas R0BJ(A) e lext(A) resolviendo el sistema de N ecuaciones E;:
- integrando cada ecuación Ej en la intersección de los espectros de la fuente y el sensor, anotando x, y y z las sensibilidades en la base colorimétrica elegida, cada ecuación E, , generando tres ecuaciones “E¡ integrada”:
Figure imgf000022_0001
- calculando el valor numérico correspondiente al término de la izquierda de las ecuaciones Ej integrada con ayuda de los parámetros de salida del detector digital de imagen; y
- expresando las dos funciones desconocidas continuas R0BJ(A) e lext(A) utilizando un número finito de puntos, llamados puntos de interpolación, cada punto de interpolación asociado a una longitud de onda A, un parámetro y, estando los puntos de interpolación unidos por al menos una función de interpolacións(A) de tipo spline cúbico sellado para preservar la naturaleza continua de dichas funciones continuas desconocidas R0BJ(A) e lext(A), les A, siendo A longitudes de onda elegidas en la intersección de los espectros de la fuente y el sensor y siendo de entrada parámetros del método, elegidos para minimizar el número de puntos de interpolación con una precisión dada; y
- buscando los parámetros y, de las funciones R0BJ(A) y lext(A) que minimizan el sistema de mínimos cuadrados ||4 * X- S||2 resultante de las ecuaciones E, integradas con X el vector que reagrupa los parámetros y, y A una matriz de Jacobi.
2. Procedimiento según la reivindicación 1, caracterizado porque comprende además una etapa de determinación del valor del iluminante exterior lext(A).
3. Procedimiento según la reivindicación 1 ó 2, caracterizado porque el número de flashes del mismo orden de magnitud que el número de puntos de interpolación para determinar los valores de la reflectancia difusa uniforme R0BJ(A) en al menos un punto de la objeto y el iluminante exterior lext(A).
4. Procedimiento según la reivindicación 1 ó 2, caracterizado porque comprende una etapa de determinación de los valores de la reflectancia difusa uniforme RObJ(A) en al menos un punto del objeto (30) y del iluminante exterior lext(A) en varias bandas espectrales.
5. Procedimiento según cualquiera de las reivindicaciones anteriores, caracterizado porque dicho dispositivo (10) implementa una pantalla para emitir los flashes de color y un sensor electrónico de imagen para captar la luz reflejada por el objeto objetivo.
6. Procedimiento según cualquiera de las reivindicaciones anteriores, caracterizado porque dicho dispositivo (10) es una cámara o una cámara con flash integrado o extraíble.
7. Procedimiento según cualquiera de las reivindicaciones anteriores, caracterizado porque dicho dispositivo (10) implementa guías de onda para hacer transitar la emisión y la recepción de los flashes de color.
8. Procedimiento según cualquiera de las reivindicaciones 1 a 7, caracterizado porque se utiliza para realizar fotografías espectrométricas de objetos y para realizar adaptaciones cromáticas a voluntad.
9. Procedimiento según cualquiera de las reivindicaciones 1 a 7, caracterizado porque se implementa para medir el color de un elemento incluido en el siguiente grupo: materiales, sólidos, líquidos, gases, pinturas, tapices, gráficos, textiles, plásticos, madera, metales, suelos, minerales, plantas y alimentos.
10. Procedimiento según cualquiera de las reivindicaciones 1 a 7, caracterizado porque se implementa para medir los colores con fines médicos o cosméticos en seres humanos y organismos vivos de al menos un elemento incluido en el siguiente grupo: piel, espinillas, lunares, cabello, abrigo, maquillaje y dientes.
11. Procedimiento según cualquiera de las reivindicaciones 1 a 7, caracterizado porque está implementado para la utilización de códigos de barras en color, de una o varias dimensiones.
12. Procedimiento según cualquiera de las reivindicaciones 1 a 7, caracterizado porque se utiliza con un fin de asistencia a las personas daltónicas y/o ciegas.
13. Dispositivo (10) que comprende un medio (11) capaz de emitir iluminantes coloreados en forma de flujos luminosos de colores y un sensor electrónico de imagen en color (12), para medir la reflectancia difusa uniforme RObJ(A) en al menos un punto de un objeto (30) situado en una zona situada opuesta y sustancialmente perpendicular a dichos medios (11) capaces de emitir colores y situado en el campo de visión de dicho sensor electrónico de imagen en color (12) y estando sometido a un iluminante externo en el forma de un flujo luminoso externo circundante denominado lext(A), constante y desconocido, caracterizado porque comprende medios para:
• emitir una serie de N iluminantes SFuENTE(A). con N entero natural estrictamente superior a uno, i que varía de 1 a N y A, la longitud de onda, SFUENTE(A). conocida en función de los parámetros de entrada de dicho medio (11) apto para emitir flujos luminosos de colores,
• capturar por dicho sensor electrónico de imagen en color (12) el flujo luminoso reflejado en al menos un punto de dicho objeto (30) y que entra en el sensor, siendo dicho flujo luminoso señalado Esens°r(A), con N entero natural estrictamente superior a dos, variando de 1 a N y A la longitud de onda, y
• obtener N ecuaciones"E. ":
Figure imgf000023_0001
debido al carácter aditivo de la luz ondulatoria y por definición de la reflectancia difusa uniforme RObJ(A) en al menos un punto del objeto (30); y
• determinar las dos funciones desconocidas continuas RObJ(A) e I ext(A) resolviendo el sistema de N ecuaciones E¡.:
- integrando cada ecuación E. en la intersección de los espectros de la fuente y el sensor, anotando x, y y z las sensibilidades en la base colorimétrica elegida, cada ecuación E. luego genera tres ecuaciones "E. integrada":
Figure imgf000024_0001
- calculando el valor numérico correspondiente al término de la Izquierda de las ecuaciones Ei, Integrada con ayuda de los parámetros de salida del detector digital de imagen; y
- expresando las dos funciones desconocidas continuas ROBJ(á) e lext(A) con un número finito de puntos, llamados puntos de interpolación, cada punto de interpolación que asocia a una longitud de onda Aj, un parámetro y, estando los puntos de interpolación conectados por al menos una función de interpolación s(A) de tipo spline cúbico sellada para conservar el carácter continuo de dichas funciones desconocidas continuas R0BJ(A) e lext(A), siendo las A, longitudes de onda elegidas en la intersección de los espectros fuente y sensor y siendo parámetros de entrada del procedimiento, elegidos para minimizar el número de puntos de interpolación de precisión dada; y
- buscando los parámetros y, de las funciones R0BJ(A) y lext(A) que minimizan el sistema de mínimos cuadrados ||A * X- B \\2 resultante de las ecuaciones Ej, integradas con X el vector que reagrupa los parámetros yj, y A una matriz de Jacobi.
ES13706205T 2012-02-17 2013-02-14 Procedimiento y dispositivo para medir el color de un objeto Active ES2952413T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR1251484A FR2987118A1 (fr) 2012-02-17 2012-02-17 Procede et dispositif de mesure de la couleur d'un objet
FR1254559A FR2987119A1 (fr) 2012-02-17 2012-05-18 Procede et dispositif de mesure de la couleur d'un objet
FR1257403A FR2987120B1 (fr) 2012-02-17 2012-07-31 Procede et dispositif de mesure de la couleur d'un objet
PCT/EP2013/053000 WO2013120956A1 (fr) 2012-02-17 2013-02-14 Procede et dispositif de mesure de la couleur d'un objet

Publications (1)

Publication Number Publication Date
ES2952413T3 true ES2952413T3 (es) 2023-10-31

Family

ID=46331622

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13706205T Active ES2952413T3 (es) 2012-02-17 2013-02-14 Procedimiento y dispositivo para medir el color de un objeto

Country Status (14)

Country Link
US (1) US9671329B2 (es)
EP (1) EP2815218B1 (es)
JP (1) JP6231498B2 (es)
KR (1) KR102007309B1 (es)
CN (1) CN104272071B (es)
AU (1) AU2013220349A1 (es)
BR (1) BR112014020281B1 (es)
CA (1) CA2864763C (es)
ES (1) ES2952413T3 (es)
FR (3) FR2987118A1 (es)
IL (1) IL234131A (es)
RU (1) RU2632577C1 (es)
SG (1) SG11201404939QA (es)
WO (1) WO2013120956A1 (es)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104802582A (zh) * 2015-04-30 2015-07-29 上海交通大学 一种基于色彩感知的绘画辅助系统
FR3041756B1 (fr) * 2015-09-30 2017-10-20 Color Grail Res Procede de determination de la reflectance d'un objet et dispositif associe
JP6829529B2 (ja) * 2015-09-30 2021-02-10 カラー・グレイル・リサーチColor Grail Research 物体の反射率を決定するための方法及び関連するデバイス
FR3041757B1 (fr) * 2015-09-30 2017-12-01 Color Grail Res Procede de determination de la reflectance d'un objet et dispositif de determination de la reflectance d'un objet associe
US10031073B2 (en) * 2015-11-30 2018-07-24 Edo Segal System and method for detecting colored objects
EP3184977A1 (en) * 2015-12-23 2017-06-28 IMEC vzw User device
CN106934317A (zh) * 2015-12-29 2017-07-07 我查查信息技术(上海)有限公司 条码扫描识别方法及装置
DE102016226206A1 (de) 2016-12-23 2018-06-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. System und Verfahren zum Erfassen von Messbildern eines Messobjekts
EP3639213A1 (de) * 2017-06-12 2020-04-22 Henkel AG & Co. KGaA Verfahren und vorrichtung zur ermittlung eines behandlungsparameters einer textilie anhand der verunreinigungszusammensetzung und textileigenschaft
US11263428B2 (en) 2017-07-09 2022-03-01 Ringo Ai, Inc. Electromagnetic emitters and detectors for electronic devices
US10303920B2 (en) 2017-07-09 2019-05-28 Lumenetix, Inc. Techniques for creating characterization matrices for reflectance, illuminance, or sensor response
US11436858B2 (en) 2017-07-09 2022-09-06 Ringo Ai, Inc. Characterizing reflectance, illuminance, and sensor response for electromagnetic radiation
RU183678U1 (ru) * 2018-04-25 2018-10-01 федеральное государственное бюджетное образовательное учреждение высшего образования "Северо-Западный государственный медицинский университет им. И.И. Мечникова" Министерства здравоохранения РФ Устройство для подбора цвета зуба и слизистой оболочки альвеолярного отростка, используемое при изготовлении зубного протеза
CN114402588A (zh) 2019-03-13 2022-04-26 林戈阿尔公司 具有参考发光体的白平衡
US11215499B1 (en) * 2019-04-05 2022-01-04 Daedalus Technology Group, Inc. Calibration apparatus and method
WO2020208421A1 (en) * 2019-04-09 2020-10-15 Shiseido Company, Limited System and method for creation of topical agents with improved image capture
GB2583905A (en) * 2019-04-24 2020-11-18 Univ Ulster Method and system for generating optical spectra
FR3101144B1 (fr) * 2019-09-23 2021-10-15 Odesyo Système et procédé de contrôle de la couleur d’un article en déplacement
JP7364890B2 (ja) 2019-10-31 2023-10-19 テイ・エス テック株式会社 シート表皮、シートおよびシート表皮の製造方法
GB2588991A (en) * 2019-11-13 2021-05-19 ams Sensors Germany GmbH Optical property measurement using a sensor behind a display screen

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4648051A (en) * 1984-10-15 1987-03-03 The Board Of Trustees Of The Leland Stanford Junior University Color imaging process
US4992963A (en) * 1988-12-02 1991-02-12 Simon Fraser University Method and apparatus for determining ambient light and surface reflectance
US5137364A (en) * 1991-01-31 1992-08-11 Mccarthy Cornelius J Optical spectral analysis apparatus
US5659397A (en) * 1995-06-08 1997-08-19 Az Technology Method and apparatus for measuring total specular and diffuse optical properties from the surface of an object
US6040906A (en) * 1996-07-11 2000-03-21 Harhay; Gregory P. Resonance raman spectroscopy for identifying and quantitating biomatter, organic, and inorganic analytes
US5963333A (en) 1996-09-12 1999-10-05 Color Savvy Systems Limited Color sensor
JPH11132850A (ja) * 1997-08-29 1999-05-21 Dainippon Screen Mfg Co Ltd 色表現データの変換およびこれを用いたカラー印刷物のシミュレーション
JP4076248B2 (ja) * 1997-09-09 2008-04-16 オリンパス株式会社 色再現装置
US6272440B1 (en) * 1997-12-11 2001-08-07 Metso Paper Automation, Inc. Method and apparatus for measuring color and/or composition
JP2000004938A (ja) * 1998-06-19 2000-01-11 Shiseido Co Ltd 分光センサ
AU2003209880A1 (en) 2003-03-05 2004-09-28 Brytech Inc. Colorimeter, colorimeter sensor unit and colour determination process
US7443506B2 (en) * 2003-11-18 2008-10-28 Octadem Technologies, Inc. Compact spectral readers for precise color determination
CA2547359C (en) * 2003-11-26 2012-11-27 Florida Environmental Research Institute, Inc. Spectral imaging system
WO2006130921A1 (en) * 2005-06-08 2006-12-14 Monash University Investigating biological cells using enhanced raman spectroscopy
RU2312314C2 (ru) * 2005-12-16 2007-12-10 Олег Леонидович Головков Способ измерения цвета объектов (варианты) и устройство для его осуществления (варианты)
US7333190B1 (en) * 2006-10-26 2008-02-19 Itt Manufacturing Enterprises, Inc. Raman interrogation of threat aerosols
WO2008075266A2 (en) * 2006-12-19 2008-06-26 Philips Intellectual Property & Standards Gmbh Colour sequential flash for digital image acquisition
JP5233529B2 (ja) * 2008-09-05 2013-07-10 コニカミノルタオプティクス株式会社 分光特性測定装置およびその校正方法ならびに分光特性測定システム
GB2474701B (en) * 2009-10-26 2014-04-30 Richard Frank Lawn A handheld device for measuring the colour properties of objects

Also Published As

Publication number Publication date
RU2632577C1 (ru) 2017-10-06
AU2013220349A1 (en) 2014-09-11
EP2815218B1 (fr) 2023-05-24
FR2987120B1 (fr) 2016-02-05
BR112014020281B1 (pt) 2020-10-13
WO2013120956A1 (fr) 2013-08-22
FR2987118A1 (fr) 2013-08-23
BR112014020281A2 (es) 2017-06-20
EP2815218A1 (fr) 2014-12-24
KR102007309B1 (ko) 2019-08-06
US20150062584A1 (en) 2015-03-05
US9671329B2 (en) 2017-06-06
CA2864763A1 (fr) 2013-08-22
CN104272071A (zh) 2015-01-07
FR2987120A1 (fr) 2013-08-23
IL234131A (en) 2017-01-31
BR112014020281A8 (pt) 2017-07-11
CN104272071B (zh) 2016-08-24
JP2015513077A (ja) 2015-04-30
FR2987119A1 (fr) 2013-08-23
SG11201404939QA (en) 2014-10-30
KR20140143153A (ko) 2014-12-15
CA2864763C (fr) 2023-01-24
JP6231498B2 (ja) 2017-11-15

Similar Documents

Publication Publication Date Title
ES2952413T3 (es) Procedimiento y dispositivo para medir el color de un objeto
Mangold et al. The physics of near-infrared photography
JP6974397B2 (ja) 測定装置
Khan et al. Illuminant estimation in multispectral imaging
CN108449962B (zh) 用于确定物体的反射率的方法和相关设备
US11629950B2 (en) Detection device, detection system, detection method, and storage medium
Nam et al. Multispectral photometric stereo for acquiring high-fidelity surface normals
Macdonald Realistic visualisation of cultural heritage objects
GB2474701A (en) A handheld device for measuring the colour properties of objects
JP2018151832A (ja) 情報処理装置、情報処理方法、および、プログラム
WO2021167661A3 (en) Device and method for color identification
Shaw et al. Multispectral imaging systems on tethered balloons for optical remote sensing education and research
Shiwen et al. Hyperspectral characterisation of natural illumination in woodland and forest environments
CN204313959U (zh) 基于智能移动终端的色度照度测量装置
CN106231193A (zh) 一种图像处理方法及终端
Gerken et al. Colorimetry and multispectral imaging in the shortwave infrared
RU2525625C2 (ru) Способ определения балла облачности
Martínez-Olmos et al. Portable multispectral system based on color detector for the analysis of homogeneous surfaces
Larochelle et al. A Low Power Optical Sensing System for Leaf Area Index (LAI) Measurement with Dynamically Adjustable Field of View
Ulanch Replicating the blue wool response using a smartphone spectroradiometer
Mustafa Design and construction of a toolbox for measurements of light and temperature
Ikeuchi et al. Photometry
Wueller In situ measured spectral radiation of natural objects
Mello et al. A new method for estimating photometric and colorimetric properties using RGB sensor and ANN
Gerken et al. Multispectral imaging in the SWIR: theory, practical approach, and expected performance