ES2253542T3 - Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso. - Google Patents
Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso.Info
- Publication number
- ES2253542T3 ES2253542T3 ES02747506T ES02747506T ES2253542T3 ES 2253542 T3 ES2253542 T3 ES 2253542T3 ES 02747506 T ES02747506 T ES 02747506T ES 02747506 T ES02747506 T ES 02747506T ES 2253542 T3 ES2253542 T3 ES 2253542T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- formatted information
- formatted
- procedure
- representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 111
- 230000000694 effects Effects 0.000 title claims abstract description 36
- 230000007547 defect Effects 0.000 claims abstract description 60
- 238000004519 manufacturing process Methods 0.000 claims abstract description 5
- 101100264195 Caenorhabditis elegans app-1 gene Proteins 0.000 claims abstract description 4
- 238000004364 calculation method Methods 0.000 claims description 29
- 238000012545 processing Methods 0.000 claims description 29
- 230000008569 process Effects 0.000 claims description 18
- 238000004422 calculation algorithm Methods 0.000 claims description 17
- 238000005259 measurement Methods 0.000 claims description 13
- 238000011282 treatment Methods 0.000 claims description 13
- 238000000926 separation method Methods 0.000 claims description 9
- 230000009466 transformation Effects 0.000 claims description 5
- 238000001228 spectrum Methods 0.000 claims description 4
- 238000000844 transformation Methods 0.000 claims description 2
- 206010011224 Cough Diseases 0.000 claims 1
- 238000011002 quantification Methods 0.000 description 5
- 239000003795 chemical substances by application Substances 0.000 description 4
- 238000012937 correction Methods 0.000 description 4
- 230000006870 function Effects 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000007115 recruitment Effects 0.000 description 3
- 241000080590 Niso Species 0.000 description 2
- 230000004075 alteration Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 201000009310 astigmatism Diseases 0.000 description 2
- 230000033228 biological regulation Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000003607 modifier Substances 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 238000004088 simulation Methods 0.000 description 2
- 206010003830 Automatism Diseases 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000007717 exclusion Effects 0.000 description 1
- 238000000605 extraction Methods 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 239000008187 granular material Substances 0.000 description 1
- 238000005286 illumination Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000004321 preservation Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000035945 sensitivity Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T3/10—
-
- G06T5/70—
-
- G06T5/73—
-
- G06T5/80—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00007—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to particular apparatus or devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00045—Methods therefor using a reference pattern designed for the purpose, e.g. a test chart
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00071—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40093—Modification of content of picture, e.g. retouching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/58—Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
Abstract
Procedimiento para producir informaciones formateadas (IF) relacionadas con los aparatos (App1, App2, App3) de una cadena de aparatos (P3, APP), comprendiendo dicha cadena de aparatos (P3, APP) en especial, como mínimo, un aparato de captación de imágenes(App3) y/o, como mínimo, un aparato de restitución de imagen; comprendiendo dicho procedimiento la etapa de producción de las informaciones formateadas (IF) relacionadas con los defectos (P5) relacionados con las características de la óptica y/o del captador y/o de la electrónica y/o del programa integrado, como mínimo, de un aparato de dicha cadena, permitiendo dicho aparato captar o restituir una imagen (I); comportando dicho aparato, como mínimo, una característica fija y/o una característica variables, según la imagen (I); siendo susceptible dicha característica fija y/o característica variable (CC) de ser asociada a uno o varios valores de características, en especial la distancia focal y/o la puesta a punto y valores de características asociadas VCV; comprendiendo dicho procedimiento la etapa de producir informaciones formateadas medidas (IFM) relacionadas con los efectos (P5) de dicho aparato a partir de un campo medido (D(H)) compuesto del conjunto de tripletes constituidos por: - una zona de imagen (ZI) y/o un identificativo de la zona de imagen (ZI), - la representación de imagen (RI) de la zona de imagen (ZI), - la representación de referencia (RR) de una zona de referencia (ZR), y compuesta del valor para la imagen (I) de cada una de las características variables seleccionadas; pudiendo comprender dichas informaciones formateadas las llamadas informaciones formateadas medidas.
Description
Procedimiento y sistema para producir
informaciones formateadas relacionadas con los defectos, como
mínimo, de un aparato de una cadena, en especial por efecto
borroso.
La presente invención se refiere a un
procedimiento y sistema para la producción de informaciones
formateadas relacionadas con los defectos, como mínimo, de un
aparato de una cadena.
El documento NISO: "borrador de norma NISO.
Borrador de diccionario de datos-metadatos técnicos
para trabajo con imágenes fijas, 1,0" SIN NOMBRE, [en línea] 5
de julio de 2000 (2000-07-05),
páginas digitales 1-40, XP002224028, extraído de
Internet: <URL:www.niso.org/pdfs/DataDict.pdf> [extraído en
2002-12-06] divulga informaciones
formateadas que sirven para estimar la exactitud de la salida del
sistema de tratamiento de imágenes y la exactitud de las técnicas
de preservación de la imagen, particularmente en caso de
emigración.
La invención se define en la reivindicación de
procedimiento 1 y en la reivindicación de sistema 18 que se
adjuntan a la descripción. Se refiere a un procedimiento para
producir informaciones formateadas relacionadas con los aparatos de
una cadena de aparatos. La cadena de aparatos comprende en especial,
como mínimo, un aparato de captación de imágenes y/o, como mínimo,
un aparato de restitución de imagen. El procedimiento comprende la
etapa de producir informaciones formateadas relacionadas con los
defectos, como mínimo, de un aparato de la cadena.
Preferentemente, según la invención, el aparato
permite captar o restituir una imagen (-I-). El aparato presenta,
como mínimo, una característica fija y/o una característica variable
según la imagen (-I-). Las características fijas y/o variables son
susceptibles de ser asociadas a uno o varios valores de
características, especialmente la focal y/o la utilización de sus
valores de características asociadas. El procedimiento comprende la
etapa de producir informaciones formateadas medidas relacionadas con
los defectos del aparato a partir de un campo medido -D(H)-.
Las informaciones formateadas pueden comprender informaciones
formateadas medidas.
De modo preferente, de acuerdo con la invención,
el procedimiento comprende además la etapa de producir
informaciones formateadas extendidas relacionadas con los defectos
del aparato a partir de las informaciones formateadas medidas. Las
informaciones formateadas pueden comprender informaciones
formateadas extendidas. Las informaciones formateadas extendidas
presentan una desviación con respecto a dichas informaciones
formateadas
medidas.
medidas.
Preferentemente, según la invención, el
procedimiento es tal que las informaciones formateadas, producidas
a partir de las informaciones formateadas medidas, son representadas
por los parámetros de un modelo parametrizable escogido entre un
conjunto de modelos parametrizables, en especial un conjunto de
polinomios. El procedimiento comprende además la etapa de
seleccionar el modelo parametrizable en el conjunto de modelos
parametri-
zables:
zables:
- -
- definiendo una desviación o separación máxima,
- -
- ordenando los modelos parametrizables del conjunto de modelos parametrizables según su grado de complejidad de realización,
- -
- escogiendo el primero de los modelos parametrizables del conjunto de modelos parametrizables ordenado para aquél cuya desviación es inferior a la separación máxima.
Según una variante de realización de la
invención, las informaciones formateadas extendidas pueden estar
constituidas por las informaciones formateadas medidas.
Preferentemente, de acuerdo con la invención, el
procedimiento comprende un algoritmo de cálculo (AC) que permite
obtener el campo obtenido -D(H)- a partir de una referencia
(-M-). El algoritmo de cálculo (AC) comprende las etapas
siguientes:
- -
- captar o restituir la referencia (-M-) por medio del aparato para producir una imagen (-I-),
- -
- escoger, como mínimo, una zona de imagen (-ZI-) en la imagen (-I-),
- -
- calcular una imagen de referencia (-R-) a partir de la imagen (-I-),
- -
- determinar en la imagen de referencia (-R-) una zona de referencia (-ZR-) homóloga de la zona de imagen (-ZI-),
- -
- escoger una base (-B-) que permite representar la totalidad o una parte de la zona de imagen (-ZI-) por una representación de imagen (-RI-) y representar la totalidad o parte de la zona de referencia (-ZR-) por una representación de referencia (-RR-),
- -
- seleccionar cero, una o varias características variables entre el conjunto de las características variables, que se designan a continuación características variables seleccionadas.
El campo medido -D(H)- se compone del
conjunto de tripletes constituidos por:
- -
- una zona de imagen (-ZI-) y/o un identificativo de la zona de imagen (-ZI-),
- -
- la representación de imagen (-RI-) de la zona de imagen (-ZI-),
- -
- la representación de referencia (-RR-) de la zona de referencia (-ZR-).
El campo medido -D(H)- está compuesto
además por el valor, para la imagen (-I-), de cada una de las
características variables seleccionadas. Resulta de la combinación
de los trazos técnicos que se obtienen en un campo medido que
caracteriza un defecto. Este defecto es denominado efecto borroso,
en el sentido de la presente invención.
Preferentemente, según la invención, la imagen de
referencia (-R-) comporta pixels de referencia. Cada uno de los
pixels de referencia tiene un valor de píxel de referencia. El
procedimiento es tal que para calcular la imagen de referencia
(-R-) a partir de la imagen (-I-) se submuestrea la imagen (-I-),
especialmente para obtener una imagen de referencia (-R-) cuyos
pixels de referencia pueden adoptar uno u otro de dos valores de
pixels de referencia.
Resulta de la combinación de las características
técnicas que la imagen de referencia (-R-) presenta iguales
defectos que la imagen -(I)I-, con exclusión del efecto
borroso.
Preferentemente, según la invención, el
procedimiento es tal que se escoge una base (-B-) que permite una
representación en frecuencia, especialmente calculada con ayuda de
una transformada de Fourier.
Preferentemente, de acuerdo con la invención, el
procedimiento es tal que se escoge una base (-B-) que permite una
representación en pequeñas ondas o en paquetes de pequeñas
ondas.
Preferentemente, de acuerdo con la invención, el
procedimiento es tal que se escoge una base lineal que comprende un
reducido número de elementos. Resulta de ello que con un cálculo
simple se obtiene una representación con buena aproximación.
Preferentemente, de acuerdo con la invención, la
representación de referencia (-RR-) está constituida por valores
numéricos. El procedimiento comprende además la etapa de escoger la
referencia (-M-), tal como el porcentaje de valores numéricos
inferiores a un primer umbral determinado sea inferior a un segundo
umbral predeterminado, en especial 1%.
Preferentemente, según la invención, la
referencia (-M-) está compuesta de elementos cuyo reparto en
dimensiones y posición geométrica se extienden a un amplio
espectro.
Según la invención, la referencia (-M-) se puede
escoger de manera tal que la representación de imagen (-I-) en la
base (-B-) es, teniendo en cuenta los defectos, sensiblemente
independiente de las condiciones de captación o de restitución de
la imagen (-I-), en especial en el caso de un aparato de captación
de imagen, la representación es independiente de la orientación y
de la posición de la referencia (-M-) con respecto al aparato de
captación de imagen.
Según la invención, la referencia (-M-) está
construida a partir de una imagen cuantificada de una escena
natural.
Según la invención, el procedimiento comprende
además la etapa de pretratamiento de la imagen (-I-) por medio de
un cálculo que elimina una parte de los defectos.
El efecto borroso en el sentido de la presente
invención caracteriza el aparato y los medios de cálculo que
permiten eliminar los defectos.
Preferentemente, de acuerdo con la invención, el
procedimiento comprende además la etapa de obtener las
informaciones formateadas extendidas relativas a una zona de imagen
cualquiera (ZIQ), deduciendo las informaciones formateadas,
relativas a una zona de imagen cualquiera (ZIQ), a partir de las
informaciones formateadas medidas.
Preferentemente, de acuerdo con la invención, el
procedimiento es tal que el aparato de la cadena de aparatos
presenta, como mínimo, una característica variable según la imagen,
en especial la focal y/o la apertura. Cada característica variable
es susceptible de ser asociada a un valor para formar una
combinación constituida por el conjunto de las características
variables y de los valores. El procedimiento comprende además las
siguientes etapas:
- -
- la etapa de seleccionar combinaciones predeterminadas,
- -
- la etapa de calcular informaciones formateadas medidas, especialmente utilizando el algoritmo de cálculo (AC) para cada una de las combinaciones predeterminadas seleccionadas de este modo.
Según la invención, se llama argumento una zona
de imagen cualquiera y una de las combinaciones. El procedimiento
comprende además la etapa de deducir las informaciones formateadas
extendidas relativas a un argumento cualquiera a partir de las
informaciones formateadas medidas.
Resulta de la combinación de las características
técnicas que las informaciones formateadas son más compactas y
robustas con respecto a los errores de medición.
Preferentemente, según la invención, el
procedimiento es tal que para deducir las informaciones formateadas
extendidas a partir de las informaciones formateadas medidas:
- -
- se define un primer umbral,
- -
- se seleccionan las informaciones formateadas extendidas, de manera tal que la dispersión sea inferior al primer umbral.
Preferentemente, de acuerdo con la invención, el
procedimiento comprende además la etapa de asociar las desviaciones
a las informaciones formateadas. Resulta de la combinación de las
características técnicas que las informaciones formateadas pueden
ser utilizadas por programas de tratamiento de imágenes captadas por
el aparato para obtener imágenes cuyos efectos residuales son
conocidos. Resulta de la combinación de las características
técnicas que las informaciones formateadas pueden ser utilizadas por
programas de tratamiento de imágenes para obtener imágenes
destinadas a ser restituidas por el aparato de restitución de
imágenes con defectos residuales conocidos.
Preferentemente, de acuerdo con la invención, en
el caso en el que la imagen es una imagen en color compuesta de
varios planos de color, el procedimiento comprende además la etapa
de producir las informaciones formateadas medidas utilizando el
algoritmo de cálculo (AC) para, como mínimo, dos planos de
color.
La invención se refiere a un sistema para
producir informaciones formateadas leídas en los aparatos de una
cadena de aparatos. La cadena de aparatos comprende, en especial,
como mínimo, un aparato de captación de imagen y/o, como mínimo, un
aparato de restitución de imagen. El sistema comprende medios de
cálculo para producir informaciones formateadas relacionadas con
los efectos, como mínimo, de un aparato de la cadena.
Preferentemente, de acuerdo con la invención, el
aparato permite captar o restituir una imagen (-I-). El aparato
presenta, como mínimo, una característica fija y/o una
característica variable según la imagen (-I-). La característica
fija y/o la característica variable son susceptibles de ser
asociadas a uno o varios valores de características, en especial la
focal y/o puesta a punto y sus valores de características asociados.
El sistema comprende medios de cálculo para la producción de las
informaciones formateadas medidas relacionadas con los defectos del
aparato, a partir de un campo medido -D(H)-. Las
informaciones formateadas pueden comprender las informaciones
formateadas medidas.
Preferentemente, según la invención, el sistema
comprende además medios de cálculo para producir informaciones
formateadas extendidas relacionadas con los defectos del aparato a
partir de las informaciones formateadas medidas. Las informaciones
formateadas pueden comprender las informaciones formateadas
extendidas. Las informaciones formateadas extendidas presentan una
desviación con respecto a las informaciones formateadas medidas.
Preferentemente, según la invención, el sistema
es tal que las informaciones formateadas, producidas a partir de
las informaciones formateadas medidas, son representadas por los
parámetros de un modelo parametrizable escogido entre un conjunto
de modelos parametrizables, en especial un conjunto de polinomios.
El sistema comprende además medios de selección para seleccionar el
modelo parametrizable en el conjunto de modelos parametrizables:
- -
- definiendo una desviación o separación máxima,
- -
- ordenando los modelos parametrizables del conjunto de modelos parametrizables según su grado de complejidad de utilización,
- -
- escogiendo el primero de los modelos parametrizables del conjunto de modelos parametrizables ordenado para el cual la desviación es inferior a la desviación máxima.
Preferentemente, según la invención, el sistema
comprende medios de cálculo que utilizan un algoritmo de cálculo
(AC) que permite obtener el campo medido -D(H)- a partir de
una referencia (-M-). El aparato de captación de imágenes o de
restitución de imagen comprende medios para captar o restituir la
referencia (-M-) y para producir de esta manera una imagen (-I-).
Los medios de cálculo comprenden medios de tratamiento informático
para:
- -
- escoger, como mínimo, una zona de imagen (-ZI-) en la imagen (-I-),
- -
- calcular una imagen de referencia (-R-) a partir de la imagen (-I-),
- -
- determinar en la imagen de referencia (-R-) una zona de referencia (-ZR-) homóloga a la zona de imagen (-ZI-),
- -
- escoger una base (-B-) que permita representar la totalidad o parte de la zona de imagen (-ZI-) por una representación de imagen (-RI-) y representar la totalidad o parte de la zona de referencia (-ZR-) por una representación de referencia (-RR-),
- -
- seleccionar cero, una o varias características variables del conjunto de las características variables, que se designarán a continuación características variables seleccionadas.
El campo medido -D(H)- se compone del
conjunto de tripletes constituidos por:
- -
- una zona de imagen (-ZI-) y/o un identificativo de la zona de imagen (-ZI-),
- -
- la representación de imagen (-RI-) de la zona de imagen (-ZI-),
- -
- la representación de referencia (-RR-) de la zona de referencia (-ZR-).
El campo medido -D(H)- está compuesto
además del valor, para la imagen (-I-), de cada una de las
características variables seleccionadas. De esta manera, se obtiene
un campo medido que caracteriza un defecto denominado borroso en el
sentido de la presente invención.
Preferentemente, según la presente invención, la
imagen de referencia (-R-) comporta pixels de preferencia. Los
pixels de referencia, cada uno de los cuales tiene un valor de píxel
de referencia. El sistema es tal que los medios de tratamiento para
calcular la imagen de referencia (-R-) a partir de la imagen (-I-),
comprenden medios para submuestrear la imagen (-I-), en especial
para obtener una imagen de referencia (-R-), cuyos pixels de
referencia pueden adoptar uno u otro de los dos valores de pixels de
referencia.
Preferentemente, según la invención, el sistema
es tal que los medios de tratamiento informático permiten la
elección de una base (-B-) que permite una representación en
frecuencia, especialmente calculada con la ayuda de una
transformada de Fourier.
Preferentemente, según la invención, el sistema
es tal que los medios de tratamiento informático permiten la
elección de una base (-B-) que permite una representación en ondas
pequeñas o paquetes de ondas pequeñas.
Preferentemente, según la invención, el sistema
es tal que los medios de tratamiento informático permiten la
elección de una base lineal que comprende un número reducido de
elementos.
Preferentemente, según la invención, la
representación de referencia (-RR-) está constituida por valores
numéricos. El sistema comprende medios de tratamiento informático
que permiten escoger la referencia (-M-), de manera tal que el
porcentaje de valores numéricos inferiores a un primer umbral
determinado sea inferior al segundo umbral predeterminado, en
especial 1%.
Preferentemente, según la invención, la
referencia (-M-) está compuesta por elementos cuyo reparto en
dimensiones y, por lo tanto, la posición geométrica se extienden a
un amplio espectro.
Preferentemente, según la invención, la
referencia (-M-) es escogida de manera tal que la representación de
imagen (-I-) en la base (-B-) es, teniendo en cuenta los defectos,
sensiblemente independiente de las condiciones de captación o de
restitución de la imagen (-I-), en especial, en el caso de un
aparato de captación de imagen, la representación es independiente
de la orientación y de la posición de la referencia (-M-) con
respecto al aparato de captación de imagen.
Preferentemente, según la invención, la
referencia (-M-) está construida a partir de una imagen cuantificada
de una escena natural.
Preferentemente, según la invención, el sistema
permite además pretratar la imagen (-I-) utilizando medios de
cálculo para eliminar una parte de los defectos.
Preferentemente, según la invención, el sistema
comprende además medios de tratamiento informático que permiten
obtener las informaciones formateadas extendidas relativas a una
zona de imagen cualquiera (ZIQ) deduciendo las informaciones
formateadas, relativas a una zona de imagen cualquiera (ZIQ), a
partir de las informaciones formateadas medidas.
Preferentemente, según la invención el sistema es
tal que el aparato de la cadena de aparatos presenta, como mínimo,
una característica variable según la imagen, especialmente la focal
y/o la abertura. Cada una de las características variables es
susceptible de ser asociada a un valor para formar una combinación
constituida por el conjunto de las características variables y de
los valores. El sistema comprende además medios de cálculo para
calcular informaciones formateadas medidas, utilizando en especial
el algoritmo de cálculo (AC) para combinaciones predeterminadas
seleccionadas.
Preferentemente, según la invención, el sistema
comprende además medios de tratamiento informático para deducir las
informaciones formateadas extendidas relativas a un documento
cualquiera a partir de las informaciones formateadas medidas. Se
llama argumento a una zona de imagen cualquiera y una de las
combinaciones.
Preferentemente, según la invención, el sistema
es tal que los medios de tratamiento informático para deducir las
informaciones formateadas extendidas a partir de las informaciones
formateadas medidas comprenden medios de selección para seleccionar
las informaciones formateadas extendidas de manera tal que la
desviación sea inferior a un primer umbral.
Preferentemente, según la invención, el sistema
comprende además medios de tratamiento informático para asociar las
desviaciones a dichas informaciones formateadas.
Preferentemente, según la invención, la imagen es
una imagen en color compuesta por varios planos de color. El
sistema comprende además medios de cálculo para producir las
informaciones formateadas medidas utilizando el algoritmo de
cálculo (ACV), como mínimo, para dos de los planos de color.
Otras características y ventajas de la invención
aparecerán de la lectura de la descripción de las variantes de
realización de la invención, a título de ejemplo indicativo y no
limitativo, y de las siguientes figuras:
la figura 1 representa un ejemplo de puesta en
práctica del procedimiento de la invención,
la figura 2 representa un ejemplo de realización
de un campo de medición -D(H)-,
la figura 3a representa un ejemplo de una línea
de luminancia procedente de la referencia (M),
la figura 3b representa un ejemplo de una línea
de luminancia generada en la imagen (I),
la figura 3c representa un ejemplo de una línea
de luminancia sobre la imagen de referencia (R),
la figura 4a representa un ejemplo de realización
de una representación de referencia (RR),
la figura 4b representa un ejemplo de realización
de una representación de referencia (RR), adaptada a la referencia
(M),
la figura 4c representa un ejemplo de realización
de una representación de referencia (RR), no adaptada a la
referencia (M),
la figura 5a representa un ejemplo de corte de la
imagen de referencia (R) en la zona de referencia (ZR),
la figura 5b representa un ejemplo de
informaciones formateadas, medidas con respecto a un aparato de
características variables,
la figura 5c representa un ejemplo del sistema de
generación de informaciones formateadas,
la figura 6 representa informaciones formateadas
(IF) relacionadas con los defectos (P5) de un aparato (APP) de una
cadena de aparatos (P3).
Haciendo referencia en especial a la figura 6, se
describirá la noción de aparato (APP). En el sentido de la presente
invención, un aparato (APP) puede ser en especial:
- -
- un aparato de captación de imágenes, tal como, por ejemplo, un aparato de fotografía de un solo uso, un aparato de fotografía de tipo numérico, un aparato réflex, un escáner, un fax, un endoscopio, un camescopio, una cámara de vigilancia, un juguete, una cámara integrada o conectada a un teléfono, un asistente personal o un ordenador, una cámara térmica, un aparato de ecografía,
- -
- un aparato de restitución de imagen como, por ejemplo, una pantalla, un proyector, un televisor, gafas de realidad virtual o una impresora,
- -
- un ser humano que tiene defectos de visión, por ejemplo, astigmatismo,
- -
- un aparato al que se quiere montar para producir imágenes que tienen, por ejemplo, un aspecto similar a las producidas por un aparato de Marca Leica,
- -
- un dispositivo de tratamiento de imágenes, por ejemplo, un programa de zoom que tiene como efecto de borde la añadidura del efecto borroso,
- -
- un aparato virtual equivalente a varios aparatos (APP).
Un aparato (APP) más complejo tal como un
escáner/fax/impresora, un Minilab de impresión de fotografía, un
aparato de videoconferencia, se pueden considerar como un aparato
APP o varios aparatos (APP).
Haciendo referencia especialmente a la figura 6,
se describirá a continuación la noción de cadena de aparatos (P3).
Se llama cadena de aparatos (P3) a un conjunto de aparatos (APP). La
noción de cadena de aparatos (P3) puede incluir además una noción
de orden.
Los ejemplos siguientes constituyen cadenas de
aparatos (P3):
- -
- un solo aparato (APP),
- -
- un aparato de captación de imágenes y un aparato de restitución de la imagen,
- -
- un aparato de fotografía, un escáner, una impresora, por ejemplo, en un Minilab de revelado de fotos,
- -
- un aparato fotonumérico, una impresora, por ejemplo, en un Minilab de revelado de fotos,
- -
- un escáner, una pantalla o una impresora, por ejemplo, en un ordenador,
- -
- una pantalla o proyector y el ojo de un ser humano,
- -
- un aparato y otro al que se quiere reunir,
- -
- un aparato de fotografía y un escáner,
- -
- un aparato de captación de imagen, un programa de tratamiento de imágenes,
- -
- un programa de tratamiento de imágenes, un aparato de restitución de imágenes,
- -
- una combinación de los ejemplos precedentes,
- -
- otro conjunto de aparatos (APP).
Haciendo referencia especialmente a la figura 6,
se describirá a continuación la noción de defecto (P5). Se llama
defecto (P5) del aparato (APP) a un defecto relacionado con las
características de la óptica y/o del captador y/o de la electrónica
y/o del programa integrado en un aparato (APP); son ejemplos de
defectos (P5), por ejemplo, la distorsión, el efecto borroso,
formación de viñetas, aberraciones cromáticas, calidad de los
colores, uniformidad del flash, ruido del captador, granulado,
astigmatismo y aberración esférica.
Haciendo referencia en especial a las figuras 1 y
6, se describirá a continuación la noción de imagen (I). Se llama
imagen (I) una imagen captada o modificada o restituida por un
aparato (APP). La imagen (I) puede proceder de un aparato (APP) de
la cadena de aparatos (P3). La imagen (I) puede estar destinada a un
aparato (APP) de la cadena (P3). De manera más general, la imagen
puede proceder y/o estar destinada a la cadena de aparatos (P3). En
el caso de imágenes animadas, por ejemplo, vídeo, constituidos por
una secuencia en tiempo de imágenes fijas, se llama imagen (I) a
una imagen fija de la secuencia de imágenes.
Haciendo referencia especialmente a la figura 6,
se describirá a continuación la noción de informaciones formateadas
(IF). Se llama informaciones formateadas (IF) a los datos
relacionados a los defectos (P5) de uno o varios aparatos (APP) de
la cadena de aparatos (P3) y que permiten calcular una imagen
transformada I-transf, teniendo en cuenta defectos
(P5) del aparato (APP). Para producir las informaciones formateadas
(IF), se pueden utilizar diferentes procedimientos basados en
mediciones, y/o captaciones o restitución de referencias y/o de
simulaciones.
Para producir las informaciones formateadas (IF),
se puede utilizar, por ejemplo, el procedimiento descrito en la
solicitud de patente internacional, presentada en el mismo día que
la demanda presente, a nombre de la sociedad Vision IQ y con el
título: "Procédé et système pour fournir, selon un format
standard, des informations formatées à des moyens de traitement
d’images" (Procedimiento y sistema para facilitar, según un
formato estándar, informaciones formateadas a medios de tratamiento
de imágenes). En esta solicitud, se describe un procedimiento para
facilitar, según un formato estándar, informaciones formateadas (IF)
a medios de tratamiento de imágenes, en especial programas y/o
componentes. Las informaciones formateadas (IF) están relacionadas a
los defectos de una cadena de aparatos (P3). La cadena de aparatos
(P3) comprende en especial, como mínimo, un aparato de captación de
imagen y/o un aparato de restitución de imagen. Los medios de
tratamiento de imágenes utilizan las informaciones formateadas (IF)
para modificar la calidad, como mínimo, de una imagen procedente o
destinada a la cadena de aparatos (P3). Las informaciones
formateadas (IF) comportan datos que caracterizan defectos (P5) del
aparato de captación de imagen, en especial las características de
distorsión y/o datos que caracterizan defectos del aparato de
restitución de las imágenes, en especial características de
distorsión.
El procedimiento comprende la etapa de indicar
por lo menos un campo del formato estándar con las informaciones
formateadas (IF). El campo es designado por un nombre de campo. El
campo contiene, como mínimo, un valor de campo.
Para buscar las informaciones formateadas (IF),
se puede, por ejemplo, utilizar el procedimiento descrito en la
solicitud de patente internacional presentada el mismo día que la
presente solicitud, a nombre de la sociedad Vision IQ bajo el
título: "Procédé et système pour modifier la qualité d’au moins
une image provenant ou destinée à une chaîne d’appareils"
(Procedimiento y sistema para modificar la calidad, como mínimo, de
una imagen procedente o destinada a una cadena de aparatos). En
dicha solicitud, se describe un procedimiento para modificar la
calidad de, como mínimo, una imagen procedente o destinada a una
cadena de aparatos determinada. La cadena de aparatos determinada
comprende, como mínimo, un aparato de captación de imagen y/o, como
mínimo, un aparato de restitución de imagen. Los aparatos de
captación de imagen y/o los aparatos de restitución de imagen,
progresivamente puestos en el mercado por agentes económicos
distintos, pertenecen a un conjunto indeterminado de aparatos. Los
aparatos del conjunto de aparatos presentan defectos que pueden
estar caracterizados por informaciones formateadas. El
procedimiento comprende, para la imagen de referencia, las etapas
siguientes:
- -
- la etapa de un índice o repertorio de las fuentes de información formateadas correspondientes a los aparatos del conjunto de aparatos,
- -
- la etapa de buscar de manera automática, entre las informaciones formateadas indexadas del modo dicho, informaciones formateadas específicas correspondientes a la cadena de aparatos determinada,
- -
- la etapa de modificar de manera automática la imagen por medio de programas de tratamiento de imágenes y/o componentes de tratamiento de imágenes, teniendo en cuenta informaciones formateadas específicas obtenidas de este modo.
Para producir las informaciones formateadas (IF),
se puede utilizar, por ejemplo, el procedimiento descrito en la
solicitud de patente internacional, presentada el mismo día de la
presente, a nombre de la sociedad Vision IQ con el título:
"Procédé et système pour réduire la fréquence des mises à jour de
moyens de traitement d’images" (Procedimiento y sistema para
reducir la frecuencia de las actualizaciones de medios de
tratamiento de imágenes). En dicha solicitud de patente, se
describe un procedimiento para reducir la frecuencia de las
actualizaciones de los medios de tratamiento de imágenes, en
especial un programa y/o un componente. Los medios de tratamiento
de imágenes permiten modificar la calidad de las imágenes numéricas
que proceden o están destinadas a una cadena de aparatos. La cadena
de aparatos presenta, como mínimo, un aparato de captación de
imágenes y/o, como mínimo, un aparato de restitución de imagen. Los
medios de tratamiento de imagen utilizan informaciones formateadas
relacionadas con los defectos, como mínimo, de un aparato de la
cadena de aparatos. Las informaciones formateadas dependen por lo
menos de una variable. Las informaciones formateadas permiten
establecer una correspondencia entre una parte de las variables e
identificadores. Los identificadores permiten determinar el valor de
la variable correspondiente al identificador, teniendo en cuenta el
identificador y la imagen. Resulta de la combinación de las
características técnicas que es posible determinar el valor de una
variable, en especial en el caso en el que la significación física
y/o el contenido de la variable no se conocen más que posteriormente
a la difusión de los medios de tratamiento de imagen. Resulta
igualmente de la combinación de las características técnicas que el
tiempo entre dos actualizaciones del programa de corrección puede
ser espaciado. Resulta igualmente de la combinación de
características técnicas que los diversos agentes económicos que
producen aparatos y/o medios de tratamiento de imagen pueden
actualizar sus productos independientemente de otros agentes
económicos, incluso si estos últimos cambian radicalmente las
características de su producto o no pueden forzar a su cliente a
actualizar sus productos. Resulta igualmente de la combinación de
características técnicas que una nueva funcionalidad puede ser
desplegada progresivamente, empezando por un número limitado de
agentes económicos y de utilizadores pioneros.
Para explotar las informaciones formateadas (IF),
se puede utilizar, por ejemplo, el procedimiento y sistema
descritos en la solicitud de Patente Internacional, presentada en el
mismo día que la presente solicitud, a nombre de la sociedad Vision
IQ bajo el título "Procédé et système pour modifier une image
numérique en compte son bruit" (Procedimiento y sistema para
modificar una imagen numérica teniendo en cuenta su ruido). En esta
demanda, se describe un procedimiento para calcular la imagen
transformada a partir de una imagen numérica y de informaciones
formateadas (IF) correspondientes a defectos (P5) de la cadena de
aparatos (P3). La cadena de aparatos (P3) comporta aparatos de
captación de imagen y/o aparatos de restitución de imagen. La
cadena de aparatos (P3) comporta como mínimo un aparato (APP). El
procedimiento comprende la etapa de determinar automáticamente
datos característicos a partir de informaciones formateadas (IF) y/o
de la imagen numérica. Resulta de ello que la combinación de las
características técnicas que la imagen transformada no presenta
defecto visible o molesto, en especial defectos relacionados con el
ruido para su utilización posterior.
A continuación, se describirá la noción de
característica variable CC. Según la invención, se llama
característica variable CC un factor medible y variable de una
imagen (I) a la otra captada modificada o restituida por un mismo
aparato (APP), y que tiene influencias sobre el defecto (P5) de la
imagen captada, modificada o restituida por el aparato (APP), en
especial:
- -
- una variable global, fija, para una imagen dada (I), por ejemplo, una característica del aparato (APP) en el momento de la captación o de la restitución de la imagen relacionada con una regulación del usuario o relacionada con un automatismo del aparato (APP),
- -
- una variable local, variable en una imagen (I) dada, por ejemplo coordinadas x, y o ro, teta en la imagen, permitiendo aplicar, en caso deseado, un tratamiento local distinto según la zona de imagen (I).
En general no se considera como característica
variable CC: un factor medible y variable de un aparato (APP) al
otro, pero fijo de una imagen (I) a otra captada, modificada o
restituida por un mismo aparato (APP), por ejemplo, la distancia
focal para un aparato (APP) con distancia focal fija.
Las informaciones formateadas (IF) pueden
depender como mínimo de una característica variable CC.
Por característica variable CC, se puede
comprender en especial:
- -
- la distancia focal de la óptica,
- -
- el redimensionamiento aplicado a la imagen (factor de zoom numérico; aumento de una parte de la imagen; y/o el submuestreo: disminución del número de pixels de la imagen),
- -
- la corrección no lineal de la luminancia, por ejemplo, la corrección de gama,
- -
- el remarcado del contorno, por ejemplo, el nivel de eliminación de efecto borroso aplicado con el aparato (APP),
- -
- el ruido del captador y de la electrónica,
- -
- la abertura de la óptica,
- -
- la distancia de puesta a punto,
- -
- el número de la vista sobre una película,
- -
- la subexposición o sobreexposición,
- -
- la sensibilidad de la película o del captador,
- -
- el tipo de papel utilizado en una impresora,
- -
- la posición del centro del captador en la imagen,
- -
- la rotación de la imagen con respecto al captador,
- -
- la posición de un proyector con respecto a la pantalla,
- -
- el balance de blancos utilizado,
- -
- la activación del flash y/o su potencia,
- -
- el tiempo de exposición,
- -
- la ganancia del captador,
- -
- la compresión,
- -
- el contraste,
- -
- otra regla aplicada por el usuario del aparato (APP), por ejemplo, modo de funcionamiento,
- -
- otra regulación automática del aparato (APP),
- -
- otra medición realizada por el aparato (APP).
A continuación, se describirá la noción de valor
de característica variable VCV. Se llama valor de característica
variable VCV al valor de la característica variable CC en el momento
de la captación, modificación o restitución de una imagen (I)
determinada. Descripción general del procedimiento
La figura 1 representa un sistema, según la
invención, que comporta un algoritmo de cálculo AC que permite
producir un campo medido -D(H)-, utilizando:
- -
- una referencia (M) que pude ser una escena de referencia (-SR-).
- -
- una imagen (I).
- -
- una imagen de referencia (R) calculada a partir de la imagen (I).
Según un ejemplo de realización del sistema de la
invención, se utiliza el procedimiento de la invención, se prevé
una etapa de realización de la imagen (I) con ayuda del aparato
(APP) o de la cadena de aparatos. Se puede tratar de aparatos de
captación de imagen como el que está representado en la figura 1.
Igualmente, se puede tratar de aparatos de restitución de imagen
tal como en un sistema de proyección. En el caso de un sistema de
captación de imágenes, la imagen (I) puede ser producida por un
captador (por ejemplo, CCD), o en el caso de un sistema de
restitución de imágenes, la imagen (I) puede ser la que se ha
visualizado sobre una pantalla de proyección o la que ha sido
materializada, por ejemplo, sobre una hoja de papel de una
impresora.
La imagen (I) es obtenida de la referencia (M)
con ayuda del aparato (APP) o de una cadena de aparatos. Una cadena
de aparatos es un conjunto de aparatos que permiten obtener una
imagen. Por ejemplo, una cadena de aparatos (App1)/(App2)/(App3)
podrá comprender un aparato de captación de imágenes, un escáner, un
aparato de impresión, etc. La imagen (I) presenta por lo tanto
defectos relacionados con estos aparatos, en especial la
distorsión, formación de viñetas, cromatismo, efecto borroso...
Es posible, sin que ello sea obligatorio, escoger
características variables CC del aparato (o cadena de aparatos)
(APP), entre las cuales las utilizadas para obtener la imagen (I)
con el aparato (APP). Las características variables de un aparato o
de una cadena de aparatos pueden comprender la distancia focal de la
óptica de un aparato, la puesta a punto, la abertura, el balance de
blancos, el número de foto en un conjunto de fotos, el zoom
numérico, las características de una captación parcial de imagen
("crop" en terminología anglosajona), ...
Será posible, pero sin que ello sea necesario, de
acuerdo con una realización de la invención, conocer un cierto
número de valores de las características variables VCV de la imagen,
en el momento de la toma de la vista, de manera que el conocimiento
de estos valores determina las características variables y se reduce
a tratar el caso de una imagen (I) salida de un aparato sin
características variables.
La imagen (I) se puede subdividir, tal como se ha
mostrado en la figura 1, en una suma de zonas de imagen (ZI), de
cualquier forma y no necesariamente contiguas. Una zona de imagen
(ZI) podrá ser, por ejemplo, una ventana rectangular.
La imagen de referencia (R) es deducida de la
imagen (I) y debe ser considerada perfecta o casi perfecta. Se verá
posteriormente un ejemplo de realización de la imagen de referencia
(R). Se llamará una zona de referencia (ZR), homóloga a una zona de
imagen (ZI), una zona en la imagen de referencia (R) de igual forma
y de igual situación que la zona de imagen (ZI) a la cual está
asociada, de manera que, por ejemplo, si la zona (ZI) es una
ventana rectangular de 100x100 pixels, entonces la zona (ZR)
correspondiente a la imagen de referencia será de 100x10 pixels y
estará situada en el mismo lugar.
Desde el punto de vista de la concepción del
sistema, las imágenes (I) y (R) son numéricas y son registradas en
memoria de manera conocida, donde son tratadas.
Según un ejemplo de realización del sistema y/o
del procedimiento de la invención, se prevé escoger una base (B) de
representación de una zona de imagen (ZI) y su zona de referencia
homóloga (ZR).
La elección de la base (B) será implícita o
reseñada en las informaciones formateadas. En el sentido de la
presente invención, el técnico en la materia concebirá que es
posible representar una imagen numérica (por ejemplo -I-) en un
espacio vectorial de dimensión igual al número de pixels. Se
comprende por base (B), y ello de manera no exclusiva, una base en
el sentido matemático del término de este espacio vectorial y/o un
subespacio vectorial de éste.
A continuación, se llama frecuencia, un
identificativo relativo a cada elemento de la base. El técnico en
esta materia comprende las transformaciones de Fourier y/o
transformadas en pequeñas ondas como cambios de base en el espacio
de imágenes. En el caso de un aparato (APP), para el cual los
defectos por efecto borroso no afectan de manera significativa más
que a un subespacio del espacio vectorial de las imágenes, será
necesario no corregir más que los componentes de la imagen (I) que
pertenecen a este subespacio. De esta manera, la base (B) será
preferentemente escogida como base de representación de este
subespacio.
Otra manera de poner en práctica el procedimiento
en el sentido de la invención consiste en escoger una base de
representación de la imagen óptima, en el sentido, por ejemplo, del
tiempo de cálculo. Esta base podrá ser escogida de dimensión
reducida, teniendo cada elemento de la base un soporte de algunos
pixels localizados espacialmente en la imagen (I) (por ejemplo, las
Splines o los conjuntos de operadores de variaciones locales
Laplaciana, Laplaciana de Laplaciana o derivadas de orden
superior...).
El aparato induce un efecto borroso en la imagen
(I). La transformación entre imagen "ideal sin efecto borroso"
y la imagen con efecto borroso (I) es realizada por un operador de
efecto borroso. El técnico en la materia sabe que una forma de
escoger un operador de efecto borroso consiste, en especial, en
tomar un operador lineal, es decir, una convolución. Al estar la
imagen (I) especialmente definida sobre un espacio de imagen finito
(número de pixels fijado) el operador lineal se puede representar de
forma matricial. Eliminar el efecto borroso equivale a invertir el
operador y, por lo tanto, en este caso, a invertir la matriz.
Entonces se puede escoger la base (B), que hace la matriz
aproximadamente diagonal, o incluso se puede escoger una subase que
conserva los ejes que comportan la información más
significativa.
La elección de esta base (B) de representación se
hace de manera que se obtengan informaciones relativas a la imagen
(I) y a la imagen de referencia (R), compactas y expresadas en un
espacio de representación apropiado para la observación y a la
modelización del defecto o defectos analizados.
En un ejemplo de realización del procedimiento
descrito en la figura 2, se ha escogido la transformación, con
ayuda de medios de cálculo (MCB), de las zonas de imagen (ZI) y de
referencia (ZR) en la base (B) por una transformada de Fourier, y
la extracción, respectivamente, de una representación de imagen (RI)
y una representación de referencia (RR), que pueden ser calculadas,
por ejemplo, a partir del módulo de la transformada de Fourier,
respectivamente, de la zona de imagen (ZI) y de la zona de
referencia homóloga (ZR). Una forma simple de representar (RI) y/o
(RR) de manera informática consiste en utilizar un formalismo de
vector normalizado en el que cada componente del vector es
característico de la frecuecia de señal contenida en (ZI) y/o (ZR)
(por ejemplo: primera componente que caracteriza las bajas
frecuencias, la segunda componente que caracteriza las altas
frecuencias), y cada valor de componente es característico de la
energía de la señal a la frecuecia considerada.
Este proceso de cálculo de las representaciones
de imagen (RI) y de la representación de referencia (RR) es iterado
para el conjunto de las zonas de imagen (ZI) de la imagen (I). El
medio de cálculo (MCDH) facilita entonces el campo medido
-D(H)-. Cada elemento del campo medido -D(H)- se
compone entonces de una tripleta formada por:
- -
- una zona de imagen (ZI) y/o un identificativo de dicha zona de imagen (por ejemplo, las coordenadas del rectángulo caracterizante -ZI-)
- -
- la representación de imagen (RI) relativa a dicha zona de imagen (ZI)
- -
- la representación de referencia (RR) relativa a la zona de referencia (ZR), homóloga de dicha zona de imagen (ZI).
El campo medido -D(H)- puede comprender
además el valor o valores para dicha imagen (I) del conjunto de
valores de características variables VCV del dispositivo de
captación y/o de restitución en el momento de la creación de la
imagen (I), de manera que se obtiene un campo medido que caracteriza
un defecto denominado efecto borroso en el sentido de la presente
invención.
Se llama información formateada medida (IFM)
relativa al efecto borroso, cualquier combinación realizada a
partir del elemento -D(H)- y/o los valores de características
variables VCV y/o zonas de imagen o de referencia y/o de elección
de la base (B).
Un ejemplo de información formateada medida
realizable consiste en tomar (la zona de imagen (ZI), la zona de
referencia (ZR), la base (B), los valores de características
variables VCV) o incluso (la zona de imagen (ZI), la representación
de imagen (RI), la representación de referencia (RR), los valores de
características variables VCV) o cualquier otra combinación.
Se ha visto, en la descripción anterior, que el
cálculo de la imagen de referencia (R) se realiza a partir de la
imagen (I). La imagen de referencia (R) comporta pixels de
referencia, y cada píxel de referencia posee un valor de pixels de
referencia que será calculado a partir de los valores de luminancia
de (I), realizando un submuestreo. Se entiende por submuestreo en
el sentido de la presente invención bien sea un submuestreo
espacial, o bien en número de valor de píxel (cuantificación) o en
número de elemento de la base..., de manera que la imagen de
referencia (R) posea los mismos defectos procedentes del sistema de
captación y/o de restitución que la imagen (I), a excepción del
efecto borroso.
La referencia (M) debe poseer características
necesarias para la caracterización del efecto borroso introducido
por los aparatos de captación y restitución. Por ejemplo, la
referencia (M) debe ser escogida de manera que:
- -
- comporte elementos cuyo reparto en dimensiones y por lo tanto en la geometría se extienden en un amplio espectro, es decir, comportar una señal cuya representación en la base (B), especialmente de frecuencia, debe presentar informaciones densas para el conjunto de frecuencia que conviene analizar. El carácter denso de la información se puede expresar a título de ejemplo, por el hecho de que la representación log(amplitud) en función del logaritmo de la frecuencia log(frecuencia) es casi una recta.
- -
- presentar una independencia en cuanto a su representación en la base (B) para condiciones de toma de vistas variables (cambios de encuadre, rotación, cambio de iluminación...)
- -
- presentar una luminancia cuantificada en cada uno de sus puntos, por ejemplo, binaria y, en este caso, la referencia está constituida por puntos negros y blancos.
Una forma simple de realizar una referencia (M)
consiste en utilizar la imagen cuantificada de una escena natural
que posee las características anteriormente citadas. La referencia
(M) puede ser entonces una fotografía binarizada de una escena
natural.
La captación o la restitución de la referencia
(M) se pude substituir igualmente por una simulación del aparato o
una medición sobre un banco para producir la imagen (I), de manera
que el campo de aplicación del proceso cubre igualmente
aplicaciones metrológicas.
El procedimiento comprende entonces la etapa de
captar y/o restituir la referencia (M) a partir del aparato (APP)
para producir la imagen (I). La imagen (I) comprende, por lo tanto,
un cierto numero de defectos procedentes del aparato (APP) y, en
especial, el efecto borroso. El efecto borroso se caracteriza en la
imagen (I) especialmente por:
- -
- el hecho de que, para el ejemplo considerado, la información de luminancia en la imagen (I) ya no es binaria, mientras que lo era sobre la referencia (M),
- -
- el hecho de que un cierto número de detalles de la referencia (M) ya no exista en la imagen (I).
Según un procedimiento propio de la invención, es
posible calcular una imagen de referencia (R) a partir de (I),
idealizando la imagen (I) teniendo en cuenta la cuantificación
inicial de la referencia (M). En el caso en que (M) es binaria, el
elemento de referencia (R) se puede calcular a partir de una
cuantificación en un bit (binario) de la imagen (I). (R) representa
entonces la imagen ideal, por lo tanto sin efecto borroso, que se
habría podido obtener de la referencia (M) con exclusión de los
detalles que no se han reproducido en la imagen (I).
En efecto, existe un cierto número de detalles
que a causa del efecto borroso han desaparecido entre la referencia
(M) y la imagen (I), bien sea porque han sido destruidos por el
efecto borroso o porque el efecto borroso las ha llevado a un nivel
inferior o igual al ruido en la imagen (I). En el objetivo de quitar
el efecto borroso de la imagen (I), es ilusorio querer encontrar
estos detalles. Un ejemplo de realización del procedimiento de la
presente invención permite generar una imagen de referencia (R) que
corresponde a la imagen (I) y que está exenta de efecto borroso, en
el sentido de la información que la imagen (I) ha percibido
realmente. Se debe observar que la imagen de referencia (R) y la
referencia (M) no contienen los mismos niveles de detalle en el
sentido en el que los detalles no percibidos en (I) no existirán en
realidad en la imagen de referencia (R). Este procedimiento
permitirá facilitar informaciones formateadas relativas al efecto
borroso, que permiten eliminar el efecto borroso de los detalles
que no se han perdido, sin que por ello sea necesario buscar la
recreación del conjunto de los detalles de (M). En efecto, este
último punto puede añadir artefactos a la imagen en la que se ha
eliminado el efecto borroso.
La figura 3 representa:
- en la línea (3a) la señal de luminancia de una línea de referencia (M),
- en la línea (3b), la misma señal captada por el aparato (APP) y obtenida en la imagen (I),
- la línea (3c), la señal de referencia obtenida a partir de la línea (3b).
Tal como se puede apreciar en la figura 3, las
señales rectangulares de la línea (3a) se encuentran deformadas en
la línea (3b), y a continuación recuperan una forma ideal en la
línea (3c) con la exclusión de los detalles DET que no han sido
percibidos por (I).
La cuantificación de la imagen de referencia (R)
(hasta un bit o más según las representaciones de la referencia
-M-) se puede hacer, a título de ejemplo:
- -
- de manera global sobre la imagen (I),
- -
- de manera local sobre zonas de análisis,
- -
- integrar informaciones estadísticas sobre la luminancia de la imagen (I) para optimizar la estimación de la relación de señal a ruido y cuantificar la señal a 1 y el ruido a 0.
La figura 4a muestra medios de cálculo MCR que
utilizan un segundo ejemplo de realización de la imagen de
referencia (R) a partir de la referencia (M). En la figura 4a, la
referencia (M) es captada por el aparato (APP) para producir la
imagen (I). Se selecciona una zona de imagen (ZI) y se calcula una
transformación sobre (ZI) para crear la zona de referencia homóloga
(ZR). La representación de referencia RR de la zona de referencia
ZR en la base (B) debe ser tal que si la referencia (M) se escoge
correctamente, el porcentaje de valores numéricos inferiores a un
primer umbral determinado sea inferior a un segundo umbral
predeterminado, en especial 1%. El primer umbral puede estar
relacionado al ruido del aparato y el segundo umbral permite, por
ejemplo en el caso de una representación de frecuencias, cubrir
casi la totalidad de gama de frecuencias transmitida por el aparato
(APP) y/o la cadena de aparatos. Es el medio de cálculo MCR el que
permite realizar esta selección.
Esto se traduce por el ejemplo representado en la
figura 4b, c que no debe existir más de 1% de señal inferior al
umbral (S). La figura 4c es característica de la incapacidad de la
referencia (M) de generar una información medible en las
frecuencias que representan una energía inferior al umbral S, siendo
por su parte la figura 4b reveladora de la referencia (M) adaptada
a las características del aparato (APP).
Con anterioridad se ha indicado que la imagen (I)
salida del aparato (APP) y que representa la referencia (M),
incorpora en su seno el conjunto de los defectos del aparato y/o de
la cadena de aparatos. Es posible de acuerdo con el procedimiento
de la invención realizar, además, una o varias etapas de
pretratamiento sobre la imagen (I) (por ejemplo, compensación de la
distorsión, viñeteado, cromatismo, gamma, rayaduras....) de manera
que no queda en la imagen (I) más que el defecto por efecto borroso
que resulta entonces característico del aparato (APP) y de los
algoritmos de pretratamiento.
Se ha visto que el campo medido -D(H)-
relativo a la imagen (I) está constituido por un conjunto de
informaciones formateadas medidas (IFM)1...(IFM)m.
Una información formateada medida relativa a una zona de imagen
(ZI) comprende por ejemplo:
- -
- la zona de imagen (ZI) o un identificativo de la zona,
- -
- la representación de imagen (RI),
- -
- la representación de referencia (RR),
- -
- los valores de las características variables seleccionadas para la imagen (I).
La explotación del sistema conducirá a verse
obligado a tratar un gran número de zonas de imagen y por lo tanto
un gran número de informaciones. Para flexibilizar el funcionamiento
del sistema, acelerar el tratamiento y/o que éste sea resistente a
los errores de medición, la invención prevé deducir, a partir de las
informaciones formateadas medidas (IFM)1 a (IFM)m,
informaciones formateadas extendidas (IFE)1 a (IFE)m
que pertenecen a una superficie o una hipersuperficie (SP) que
puede ser representada por una función escogida en un espacio de
dimensión limitada, por ejemplo un polinomio de orden limitado,
escogido entre la clase de polinomios de grado finito, o una
función spline de grados apropiada o cualquier otra función de
interpolación.
La figura 5 representa un ejemplo extremadamente
simplificado que corresponde a un caso en el que la información
formateada medida (IFM) está constituida únicamente por las
representaciones de referencia (RR):(RR1)...(RRp). La figura 5b
representa además el conjunto de representación de referencia (RR)
para las p zonas de referencia (ZR) analizadas sobre la imagen (R)
de la figura 5a.
El procedimiento de la invención consiste en
calcular un modelo parametrizable tal como la superficie polinómica
(SP). Una forma particular de calcular (SP) puede ser calcular esa
superficie, pasando por todas las informaciones formateadas medidas
o pasando por las proximidades. En la figura 5b la superficie (SP)
pasa por / o por la proximidad del conjunto de representaciones
(RR1)...(RRm) de manera que:
- -
- la parametrización de la superficie (SP) sea además mucho más compacta en colocación de memoria que el conjunto de las representaciones de referencia (RR),
- -
- la superficie (SP) permita obtener mediciones más resistentes a los ruidos,
- -
- la superficie SP permita en caso deseado interpolar perfiles de referencia (RRi) sobre zonas que no corresponden a zonas de medición.
En estas condiciones, en el tratamiento de una
imagen, en lugar de recurrir a un gran número de informaciones
formateadas medidas, el sistema podrá utilizar un modelo
parametrizable.
La dificultad consiste en encontrar la superficie
(SP) que pase por todos los puntos o por las proximidades de todos
estos puntos. Se prevé admitir que pueda existir una separación (EC)
entre una información formateada medida (IFM) y una información
formateada extendida (IFE) similar a (IFM) pero extraída de (SP).
Además, se decide que un (EC) de este tipo no deba superar un
cierto umbral (dS). En estas condiciones convendrá hacer pasar una
superficie polinómica por todos los puntos de información
formateados medidos (IFM)\pm(dS).
La elección de este umbral se llevará a cabo en
adecuación con los errores de toma de vista, los errores de
medición, el nivel de precisión requerido para la corrección, etc.
El procedimiento utilizado podrá prever la utilización de un número
determinado de modelos parametrizables que se pueden escribir
siempre que sea posible, por ejemplo, en forma de polinomios. Se
prevé clasificar esos modelos por orden de complejidad
creciente.
A continuación, poseyendo un conjunto de
informaciones medidas, se comprueba cada uno de los modelos
partiendo preferentemente del modelo más simple (el polinomio de
orden más reducido) hasta obtener un modelo que defina, en la
intersección de la superficie polinómica y de la dirección de cada
información formateada medida, una información formateada extendida
cuya desviación (EC) con la información formateada medida sea
inferior al umbral (dS).
El procedimiento esquematizado por las figuras
5a, 5b, está destinado a obtener informaciones formateadas
extendidas. No obstante, el procedimiento de la invención se podría
limitar a no utilizar como informaciones formateadas más que las
informaciones formateadas medidas. Se puede igualmente prever
utilizar para las informaciones formateadas las informaciones
formateadas medidas y las informaciones formateadas extendidas.
En cualquier caso, se puede prever igualmente
asociar a las informaciones formateadas las desviaciones (EC)
encontradas entre informaciones formateadas medidas e informaciones
formateadas extendidas. Las informaciones formateadas pueden ser
por lo tanto utilizadas mediante programas de tratamiento de
imágenes para obtener imágenes cuyo residual es conocido tanto para
imágenes captadas por un aparato de captación de imágenes como para
imágenes restituidas por un aparato de restitución de imágenes.
El sistema representado en la figura 5c
comprenderá medios de cálculo (MCIFM), medios de cálculo (MCIFE) y
medios de selección (MSIF).
El procedimiento de la invención permite, por
utilización de un modelo parametrizable tal como la superficie
polinomial (SP), determinar informaciones formateadas extendidas
para zonas de imagen cualquiera ZIQ. No obstante, es posible
extraer estas informaciones formateadas extendidas para zonas de
imagen cualquiera ZIQ sin recurrir a modelos parametrizables (SP)
realizando, por ejemplo, interpolaciones simples (líneales,
bilineales) entre las informaciones formateadas medidas.
En lo anterior, se ha visto que una información
formateada podría contener características variables. Si se trata
de un número limitado de características variables o de una única
característica variable que presenta una cuantificación dada (por
ejemplo, tres valores de distancia focal para un aparato
fotográfico), una puesta en práctica del procedimiento de la
invención consiste en iterar n veces el proceso previamente
descrito.
En realidad, de forma práctica se podrá tratar de
una combinación de características variables tal como, por ejemplo,
una combinación de la distancia focal, de la puesta a punto, de la
abertura de diafragma, de la velocidad de captación, de la abertura
etc. Difícilmente se puede pensar calcular las informaciones
formateadas relativas a las diferentes combinaciones en tanto que
ciertas características de la combinación pueden variar de manera
continua, tales como especialmente la distancia focal y la distancia
de puesta a punto. La forma de analizar los parámetros que influyen
para determinar la elección de las combinaciones pertinentes puede
consistir en realizar un análisis de la componente principal,
técnica conocida en este sector.
El procedimiento de la invención prevé calcular
por interpolación las informaciones formateadas a partir de
informaciones formateadas medidas para combinaciones de
características variables conocidas. El recurso a un modelo
parametrizable, tal como una superficie polinómica (SP), necesitará
la introducción en sus argumentos de control de las informaciones
formateadas medidas y los valores de características variables VCV
correspondientes a la medición realizada. De forma análoga a lo
anteriormente indicado, existirá una separación o desviación (EC)
entre las informaciones formateadas medidas y las informaciones
formateadas extendidas que han salido del modelo parametrizable.
Esta desviación (EC) no debe superar un cierto umbral (dS) y en
estas condiciones será conveniente hacer pasar a la superficie
polinómica SP por todos los puntos de las informaciones formateadas
medidas (IFM)\pm(dS). La elección de este umbral se
hará en adecuación con los errores de toma de vista, errores de
redición, nivel de precisión requerida para la corrección, etc.
La invención puesta en práctica podrá prever en
caso necesario utilizar un número determinado de modelos
parametrizables que se puedan escribir, siempre que sea posible, por
ejemplo en forma de polinomios. Se prevé clasificar estos modelos
por orden de complejidad creciente.
A continuación, poseyendo un conjunto de
informaciones medidas, se comprueba cada modelo partiendo
preferentemente del modelo más simple (polinomio de orden más
reducido) hasta obtener un modelo que define, en la intersección de
la superficie polinómica y de la dirección de cada información
formateada medida, una información formateada extendida cuya
desviación (EC) con la información formateada medida sea inferior al
umbral
(dS).
(dS).
El procedimiento prevé en caso necesario incluir
la desviación (EC) en las informaciones formateadas, de manera que
esta información pueda ser eventualmente utilizada por los programas
de tratamiento de imagen.
El procedimiento según la invención permite
calcular informaciones formateadas relativas a una imagen en color.
Una imagen en color puede ser considerada como constituida por
varios planos monocromáticos. De manera clásica se puede considerar
que una imagen en color es una imagen tricromática constituida por
tres imágenes monocromáticas de color rojo, verde, azul o de
longitud de onda próxima a ellas. Puede estar constituida
igualmente, según ciertos captadores, de cuatro planos de colores
ciánico, magenta, amarillo y negro. Se puede poner en práctica
entonces el algoritmo de cálculo AC por lo menos sobre dos de los
planos de color. Un ejemplo de realización de informaciones
formateadas consiste en utilizar el algoritmo de cálculo AC para
cada plano de color, de manera que es posible utilizar las
informaciones formateadas y/o las informaciones formateadas
extendidas y/o las informaciones formateadas medidas para corregir
el efecto borroso monocromático y policromático, en el sentido de
la presente invención, del aparato (APP) y/o de la cadena de
aparatos de captación y/o de restitución. Se observará que es
posible según una forma de puesta en práctica del procedimiento de
la invención el utilizar la misma imagen de referencia (R) para
cada uno de los planos de imagen en color.
El procedimiento según la presente invención
permite calcular informaciones formateadas relativas a una imagen
monocromática y/o policromática de manera que dichas informaciones
formateadas y/o dichas informaciones formateadas medidas pueden ser
utilizadas por programas de tratamiento de imágenes captadas por un
primer aparato de captación de imágenes, para obtener imágenes de
calidad comparable, en términos de defectos, a la del segundo
aparato de captación de imágenes. Por ejemplo, es posible generar
imágenes que tengan un aspecto en desuso (retro look).
Igualmente, según otra puesta en práctica del
procedimiento de la invención, las informaciones formateadas y/o
las llamadas informaciones formateadas medidas pueden ser utilizadas
por programas de tratamiento de imágenes para restituir por el
primer aparato de restitución, para obtener imágenes de calidad
comparable, en términos de defectos, a las restituidas por dicho
segundo aparato de restitución.
Se llama reducción de coste un procedimiento y
sistema para disminuir el coste de un aparato (APP) o de una cadena
de aparatos (P3), especialmente el coste de la óptica de un aparato
o de una cadena de aparatos, consistiendo el procedimiento en:
- -
- disminuir el número de lentes y/o
- -
- simplificar la forma de las lentes y/o
- -
- concebir o escoger en un catálogo una óptica que tenga defectos (P5) más importantes que los deseados para el aparato o cadena de aparatos y/o
- -
- utilizar materiales, componentes, tratamientos o procedimientos de fabricación menos costosos para el aparato o la cadena de aparatos añadiendo defectos (P5).
El procedimiento y sistema según la invención
pueden ser utilizados para disminuir el coste de un aparato o de
una cadena de aparatos. Se puede prever una óptica numérica,
producir informaciones formateadas (IF) relativas a los defectos
del aparato o a la cadena de aparatos, utilizar esas informaciones
formateadas para permitir a medias el tratamiento de imagen,
integrados o no, modificar la calidad de las imágenes que proceden
o están destinadas al aparato o cadena de aparatos, de manera que la
combinación del aparato o cadena de aparatos y medios de
tratamiento de imágenes que permiten captar, modificar o restituir
imágenes de la calidad deseada con un coste reducido.
Claims (34)
1. Procedimiento para producir informaciones
formateadas (IF) relacionadas con los aparatos (App1, App2, App3)
de una cadena de aparatos (P3, APP), comprendiendo dicha cadena de
aparatos (P3, APP) en especial, como mínimo, un aparato de
captación de imágenes (App3) y/o, como mínimo, un aparato de
restitución de imagen; comprendiendo dicho procedimiento la etapa
de producción de las informaciones formateadas (IF) relacionadas con
los defectos (P5) relacionados con las características de la óptica
y/o del captador y/o de la electrónica y/o del programa integrado,
como mínimo, de un aparato de dicha cadena,
permitiendo dicho aparato captar o restituir una
imagen (I); comportando dicho aparato, como mínimo, una
característica fija y/o una característica variables, según la
imagen (I); siendo susceptible dicha característica fija y/o
característica variable (CC) de ser asociada a uno o varios valores
de características, en especial la distancia focal y/o la puesta a
punto y valores de características asociadas VCV;
comprendiendo dicho procedimiento la etapa de
producir informaciones formateadas medidas (IFM) relacionadas con
los efectos (P5) de dicho aparato a partir de un campo medido
-D(H)- compuesto del conjunto de tripletes constituidos
por:
- -
- una zona de imagen (ZI) y/o un identificativo de la zona de imagen (ZI),
- -
- la representación de imagen (RI) de la zona de imagen (ZI),
- -
- la representación de referencia (RR) de una zona de referencia (ZR), y compuesta del valor para la imagen (I) de cada una de las características variables seleccionadas; pudiendo comprender dichas informaciones formateadas las llamadas informaciones formateadas medidas.
2. Procedimiento, según la reivindicación 1, que
comprende además la etapa de producir informaciones formateadas
extendidas (IFE), relacionadas con los defectos (P5) de dicho
aparato a partir de dichas informaciones formateadas medidas;
pudiendo comprender dichas informaciones formateadas, dichas
informaciones formateadas extendidas; presentando dichas
informaciones formateadas extendidas una desviación (EC) con
respecto a dichas informaciones formateadas medidas.
3. Procedimiento, según la reivindicación 2, cuyo
procedimiento es tal que dichas informaciones formateadas
producidas a partir de dicha dichas informaciones formateadas
medidas, están representadas por los parámetros de un modelo
parametrizable (SP) escogido entre el conjunto de modelos
parametrizables, especialmente un conjunto de polinomios;
comprendiendo dicho procedimiento, además, la etapa de seleccionar
dicho modelo parametrizable en dicho conjunto de modelos
parametrizables procediendo a:
- -
- definir una separación máxima,
- -
- ordenar dichos modelos parametrizables de dicho conjunto de modelos parametrizables, según su grado de complejidad de puesta en práctica,
- -
- escoger el primero de dichos modelos parametrizables de dicho conjunto de modelos parametrizables ordenado para el cual dicha desviación (EC) es inferior a dicha desviación máxima.
4. Procedimiento, según cualquiera de las
reivindicaciones 2 ó 3, siendo dichas informaciones formateadas
extendidas, informaciones formateadas medidas.
5. Procedimiento, según cualquiera de las
reivindicaciones 2 a 4; que comprende un algoritmo de cálculo AC
que permite obtener dicho campo medido -D(H)- a partir de una
referencia (M); comprendiendo dicho algoritmo de cálculo AC las
etapas siguientes:
- -
- la etapa de captar o restituir dicha referencia (M) por medio de dicho aparato para producir una imagen (I),
- -
- escoger, como mínimo, una zona de imagen (ZI) en dicha imagen (I).
- -
- calcular una imagen de referencia (R) a partir de la imagen (I),
- -
- determinar en dicha imagen de referencia (R) una zona de referencia (ZR) homóloga de dicha zona de imagen (ZI),
- -
- escoger una base (B) que permite representar la totalidad o una parte de dicha zona de imagen (ZI) por una representación de imagen (RI) y representar la totalidad o parte de dicha zona de referencia (ZR) por una representación de referencia (RR),
\newpage
- -
- seleccionar cero, una o varias características variables entre el conjunto de dichas características variables CC que se designan a continuación, características variables seleccionadas;
estando compuesto dicho campo medido
-D(H)- del conjunto de tripletes constituidos por:
- -
- una zona de imagen (ZI) y/o un identificativo de dicha zona de imagen (ZI),
- -
- la representación de imagen (RI) de dicha zona de imagen (ZI),
- -
- la representación de la referencia (RR) de dicha zona de referencia (ZR);
estando compuesto además dicho campo medido
-D(H)- por el valor, para dicha imagen (I), de cada una de
dichas características variables seleccionadas;
de manera que se obtiene un campo medido que
caracteriza un defecto denominado efecto borroso o de
desenfoque en el sentido de la presente invención.
6. Procedimiento, según la reivindicación 5,
comportando dicha imagen de referencia (R) píxels de referencia,
teniendo cada uno de dichos píxels de referencia un valor de píxel
de referencia; siendo tal dicho procedimiento que para calcular
dicha imagen de referencia (R) a partir de dicha imagen (I), se
submuestrea dicha imagen (I), en especial para obtener una imagen
de referencia (R) cuyos píxels de referencia pueden adoptar uno u
otro de los dos valores de píxels de referencia;
de manera que la imagen de referencia (R)
presente los mismos defectos que la imagen (I) excluyendo el efecto
borroso.
7. Procedimiento, según cualquiera de las
reivindicaciones 5 ó 6, siendo tal dicho procedimiento que se
escoge dicha base (B) que permite una representación en frecuencia,
especialmente calculada con la ayuda de una transformada de
Fourier.
8. Procedimiento, según cualquiera de las
reivindicaciones 5 ó 6, siendo tal dicho procedimiento que se
escoge dicha base (B) permitiendo una representación en pequeñas
ondas o en paquetes de pequeñas ondas.
9. Procedimiento, según cualquiera de las
reivindicaciones 5 a 8, siendo tal dicho procedimiento que se
escoge una base lineal que comprende un pequeño número de
elementos.
10. Procedimiento, según cualquiera de las
reivindicaciones 5 a 9, estando constituida dicha representación de
referencia (RR) por valores numéricos; comprendiendo dicho
procedimiento, además, la etapa de escoger dicha referencia (M),
tal que el porcentaje de valores numéricos inferiores a un primer
umbral determinado sea inferior a un segundo umbral predeterminado,
especialmente de 1%.
11. Procedimiento, según cualquiera de las
reivindicaciones 5 a 10, estando compuesta dicha referencia (M) por
elementos cuyo reparto en dimensiones y posición geométrica se
extienden a un espectro grande.
12. Procedimiento, según cualquiera de las
reivindicaciones 5 a 11, escogiéndose dicha referencia (M) de
manera tal que la mencionada representación dicha imagen (I) en la
mencionada base (B) es, teniendo en cuenta dichos efectos,
sensiblemente independiente de las condiciones de captación o de
restitución de dicha imagen (I), en especial en el caso de un
aparato de captación de imágenes, siendo dicha representación
independiente de la orientación y de la posición de la referencia
(M) con respecto a dicho aparato de captación de imágenes.
13. Procedimiento, según cualquiera de las
reivindicaciones 5 a 12, estando construida dicha referencia (M) a
partir de una imagen cuantificada de una escena natural.
14. Procedimiento, según cualquiera de las
reivindicaciones 5 a 13, comprendiendo dicho procedimiento, además,
la etapa de pretratamiento de dicha imagen (I) por medio de un
cálculo que elimina una parte de dichos defec-
tos;
tos;
de manera que el efecto borroso en el sentido de
la presente invención caracteriza dicho aparato y los medios
de cálculo que permiten eliminar dichos defectos.
15. Procedimiento, según cualquiera de las
reivindicaciones 5 a 14, comprendiendo dicho procedimiento, además,
la etapa de obtener las mencionadas informaciones formateadas
extendidas relativas a una zona de imagen cualquiera ZIQ,
deduciendo dichas informaciones formateadas, con respecto a una
imagen cualquiera ZIQ, a partir de dichas informaciones formateadas
medidas.
16. Procedimiento, según cualquiera de las
reivindicaciones 2 a 15, siendo tal dicho procedimiento que dicho
aparato de la mencionada cadena de aparatos presenta, como mínimo,
una característica variable según la imagen, en especial la
distancia focal y/o la abertura, siendo susceptible cada una de las
características variables de ser asociada a un valor para formar
una combinación constituida por el conjunto de dichas
características variables, y de los mencionados valores;
comprendiendo dicho procedimiento, además, las
etapas siguientes:
- -
- la etapa de seleccionar combinaciones predeterminadas,
- -
- la etapa de calcular informaciones formateadas medidas, utilizando el especial dicho algoritmo de cálculo AC para cada una de dichas combinaciones predeterminadas seleccionadas de este modo.
17. Procedimiento, según la reivindicación 16, en
el que se llama argumento una zona de imagen cualquiera y una de
dichas combinaciones; comprendiendo el procedimiento, además, la
etapa de deducir dichas informaciones formateadas extendidas
relativas a un argumento cualquiera a partir de dichas informaciones
formateadas
medidas.
medidas.
18. Sistema para producir informaciones
formateadas (IF) relacionadas con los aparatos (App1,App2,App3) de
una cadena de aparatos (P3,APP); comprendiendo dicha cadena de
aparatos (P3, APP) en especial, como mínimo, un aparato de
captación de imágenes (App3) y/o, como mínimo, un aparato de
restitución de imágenes; comprendiendo dicho sistema medios de
cálculo (MCIFM, MCIFE, MSIF) para producir informaciones formateadas
(IF) relacionadas con los defectos (P5) relacionados con las
características de la óptica y/o del captador y/o de la electrónica
y/o del programa integrado, por lo menos, de un aparato de dicha
cadena,
permitiendo dicho aparato captar o restituir una
imagen (I); comportando dicho aparato, como mínimo, una
característica fija y/o una característica variable CC según la
imagen (I); siendo susceptibles dichas características fija y/o
variable de ser asociadas a uno o varios valores de características,
en especial la distancia focal y/o la puesta a punto, y sus valores
de características asociadas VCV;
comprendiendo dicho sistema medios de cálculo
(MCIFM) para producir informaciones formateadas medidas (IFM)
relacionadas a los defectos (P5) de dicho aparato a partir de un
campo medido -D(H)- compuesto de un conjunto de tripletes
constituidas por:
- -
- una zona de imagen (ZI) y/o un identificativo de la zona de imagen (ZI),
- -
- la representación de imagen (RI) de la zona de imagen (ZI)
- -
- la representación de referencia (RR) de una zona de referencia (ZR), y
combinación del valor, para la imagen (I), de
cada una de las características variables seleccionadas; pudiendo
comprender dichas informaciones formateadas (IF), las mencionadas
informaciones formateadas medidas (IFM).
19. Sistema, según la reivindicación 18, que
comprende, además, medios de cálculo (MCI-FE) para
producir informaciones formateadas extendidas (IFE) relacionadas
con los defectos de dicho aparato, a partir de dichas
transformaciones formateadas medidas; pudiendo comprender dichas
informaciones formateadas, las mencionadas informaciones
formateadas extendidas; presentando dichas informaciones formateadas
extendidas una desviación (EC) con respecto a dichas informaciones
formateadas medidas.
20. Sistema, según la reivindicación 19, cuyo
sistema es tal que dichas informaciones formateadas, producidas a
partir de dichas informaciones formateadas medidas, están
representadas por los parámetros de un modelo parametrizable (SP)
escogido entre un conjunto de modelos parametrizables, especialmente
un conjunto de polinomios; comprendiendo, además, dicho sistema
medios de selección para seleccionar dicho modelo parametrizable en
dicho conjunto de modelos parametrizables, procediendo a:
- -
- definir una desviación máxima,
- -
- ordenar dichos modelos parametrizables de dicho conjunto de modelos parametrizables, según su grado de complejidad de puesta en práctica,
- -
- escoger el primero de dichos modelos parametrizables de dicho conjunto de modelos parametrizables ordenado para el cual dicha desviación (EC) es inferior a dicha desviación máxima.
21. Sistema, según cualquiera de las
reivindicaciones 19 ó 20, siendo dichas informaciones formateadas
extendidas, dichas informaciones formateadas medidas.
22. Sistema, según cualquiera de las
reivindicaciones 19 a 21, comprendiendo dicho sistema medios de
cálculo que utilizan un algoritmo de cálculo AC que permite obtener
dicho campo medido -D(H)- a partir de una referencia (M);
comprendiendo dicho aparato de captación de imagen o de restitución
de imagen medios para captar o restituir dicha referencia (M) para
producir una imagen (I);
comprendiendo dichos medios de cálculo de dicho
algoritmo de cálculo AC medios de tratamiento informático para:
- -
- escoger, como mínimo, una zona de imagen (ZI) en dicha imagen (I),
- -
- calcular una imagen de referencia (R) a partir de dicha imagen (I),
- -
- determinar en dicha referencia de imagen (R), una zona de referencia (ZR) homóloga a dicha zona de imagen (ZI),
- -
- escoger una base (B) que permita representar la totalidad o parte de dicha zona de imagen (ZI) para una representación de imagen (RI) y representar la totalidad o parte de dicha zona de referencia (ZR) por una representación de referencia (RR),
- -
- seleccionar cero, una o varias características variables CC entre el conjunto de dichas características variables que, a continuación, se designan características variables seleccionadas;
estando compuesto dicho campo medido
-D(H)- del conjunto de tripletes constituidas por:
- -
- una zona de imagen (ZI) y/o un identificativo de dicha zona de imagen (ZI),
- -
- representación de imagen (RI) de dicha zona de imagen (ZI),
- -
- representación de referencia (RR) de dicha zona de referencia (ZR);
estando compuesto además, dicho campo medido
-D(H)- del valor para dicha imagen (I), de cada una de las
características variables seleccionadas;
de manera que se obtiene un campo medido que
caracteriza un defecto denominado efecto borroso en el
sentido de la presente invención.
23. Sistema, según la reivindicación 22, en el
que la mencionada imagen de referencia (R) comporta píxels de
referencia; teniendo cada uno de dichos píxels de referencia un
valor de píxel de referencia; siendo dicho sistema tal que los
mencionados medios de tratamiento para calcular dicha imagen de
referencia (R) a partir de la mencionada imagen (I), comprenden
medios para el submuestreo de dicha imagen (I), en especial, para
obtener una imagen de referencia (R) cuyos píxels de referencia
pueden adoptar uno u otro de los dos valores de píxels de
referencia.
24. Sistema, según cualquiera de las
reivindicaciones 22 ó 23, en el que dicho sistema es tal que los
medios de tratamiento informático escogen una base (B) que permite
una representación de frecuencia, en especial calculada con ayuda
de una transformada de Fourier.
25. Sistema, según cualquiera de las
reivindicaciones 22 ó 23, siendo tal dicho sistema que dichos medios
de tratamiento informático escogen una base (B) que permiten una
representación en pequeñas ondas o en paquetes de ondas.
26. Sistema, según cualquiera de las
reivindicaciones 22 a 25, siendo tal dicho sistema que dichos medios
de tratamiento informático escogen una base lineal que comprende un
pequeño número de elementos.
27. Sistema, según cualquiera de las
reivindicaciones 22 a 26, estando constituida dicha representación
de referencia (RR) por valores numéricos, comprendiendo dicho
sistema, medios de tratamiento informático que permiten escoger
dicha referencia (M), de manera tal que el porcentaje de valores
numéricos inferiores a un primer umbral determinado sea inferior a
un segundo umbral predeterminado, en especial 1%.
28. Sistema, según cualquiera de las
reivindicaciones 22 a 27, estando compuesta dicha referencia (M) de
elementos cuyo reparto en dimensiones y cuya posición geométrica se
extienden en un espectro amplio.
29. Sistema, según cualquiera de las
reivindicaciones 22 a 28, escogiéndose dicha referencia (M) de
manera tal que dicha representación de la mencionada imagen (I) en
dicha base (B) es, teniendo en cuenta dichos defectos,
sensiblemente independiente de las condiciones de captación o de
restitución de dicha imagen (I), en especial en el caso de un
aparato de captación de imagen, siendo independiente dicha
representación de la orientación y de la posición de la referencia
(M) con respecto a dicho aparato de captación de imagen.
30. Sistema, según cualquiera de las
reivindicaciones 22 a 29, estando construida dicha referencia (M) a
partir de una imagen cuantificada de una escena natural.
31. Sistema, según cualquiera de las
reivindicaciones 22 a 30, permitiendo además dicho sistema pretratar
dicha imagen (I) utilizando medios de cálculo para eliminar una
parte de dichos defectos.
32. Sistema, según cualquiera de las
reivindicaciones 22 a 31, comprendiendo además dicho sistema medios
de tratamiento informático que permiten obtener dichas informaciones
formateadas extendidas relativas a una zona de imagen cualquiera
ZIQ, deduciendo dichas informaciones formateadas, relativas a una
zona de imagen cualquiera ZIQ, a partir de dichas informaciones
formateadas medidas.
33. Sistema, según cualquiera de las
reivindicaciones 19 a 32, siendo dicho sistema tal, que dicho
aparato de la mencionada cadena de aparatos presenta, como mínimo,
una característica variable según la imagen, en especial, la
distancia focal y/o la abertura; siendo susceptible cada una de las
características variables de ser asociada a un valor para formar
una combinación constituida por el conjunto de dichas
características variables y dichos valores;
comprendiendo dicho sistema, además, medios de
cálculo para calcular informaciones formateadas medidas, en
especial, utilizando dicho algoritmo de cálculo AC para
combinaciones predeterminadas seleccionadas.
34. Sistema, según la reivindicación 33;
definiéndose un argumento como zona de imagen arbitraria y una de
dichas combinaciones; incluyendo además dicho sistema medios para el
proceso de datos para deducir, a partir de dicha información
formateada medida, dicha información formateada extendida relativa a
un argumento arbitrario.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0109291 | 2001-07-12 | ||
FR0109292 | 2001-07-12 | ||
FR0109291A FR2827459B1 (fr) | 2001-07-12 | 2001-07-12 | Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image |
FR0109292A FR2827460B1 (fr) | 2001-07-12 | 2001-07-12 | Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2253542T3 true ES2253542T3 (es) | 2006-06-01 |
Family
ID=26213095
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02748933T Expired - Lifetime ES2311061T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. |
ES02747506T Expired - Lifetime ES2253542T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso. |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02748933T Expired - Lifetime ES2311061T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. |
Country Status (11)
Country | Link |
---|---|
US (10) | US7343040B2 (es) |
EP (7) | EP1442425B1 (es) |
JP (6) | JP4295612B2 (es) |
KR (4) | KR100940148B1 (es) |
CN (6) | CN1305006C (es) |
AT (4) | ATE310284T1 (es) |
AU (3) | AU2002317219A1 (es) |
CA (1) | CA2453423C (es) |
DE (4) | DE60234207D1 (es) |
ES (2) | ES2311061T3 (es) |
WO (6) | WO2003007241A1 (es) |
Families Citing this family (211)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6950211B2 (en) * | 2001-07-05 | 2005-09-27 | Corel Corporation | Fine moire correction in images |
KR100940148B1 (ko) * | 2001-07-12 | 2010-02-03 | 도 랩스 | 디지털 영상을 그 잡음을 고려하여 수정하기 위한 방법 및시스템 |
DE60224035D1 (de) * | 2002-08-23 | 2008-01-24 | St Microelectronics Srl | Verfahren zur Rauschfilterung einer numerischen Bildfolge |
US7773316B2 (en) * | 2003-01-16 | 2010-08-10 | Tessera International, Inc. | Optics for an extended depth of field |
EP1584067A2 (en) * | 2003-01-16 | 2005-10-12 | D-blur Technologies LTD. C/o Yossi Haimov CPA | Camera with image enhancement functions |
US8294999B2 (en) | 2003-01-16 | 2012-10-23 | DigitalOptics Corporation International | Optics for an extended depth of field |
US7609425B2 (en) * | 2003-01-31 | 2009-10-27 | Canon Kabushiki Kaisha | Image data processing apparatus, method, storage medium and program |
US8471852B1 (en) | 2003-05-30 | 2013-06-25 | Nvidia Corporation | Method and system for tessellation of subdivision surfaces |
JP4096828B2 (ja) * | 2003-07-15 | 2008-06-04 | セイコーエプソン株式会社 | 画像処理装置 |
US7369699B1 (en) * | 2003-08-29 | 2008-05-06 | Apple Inc. | Methods and apparatuses for restoring color and enhancing electronic images |
GB2406992A (en) * | 2003-10-09 | 2005-04-13 | Ta Vision Lab Ltd | Deconvolution of a digital image using metadata |
US7469202B2 (en) | 2003-12-01 | 2008-12-23 | Omnivision Cdm Optics, Inc. | System and method for optimizing optical and digital system designs |
US7944467B2 (en) * | 2003-12-01 | 2011-05-17 | Omnivision Technologies, Inc. | Task-based imaging systems |
US7463296B2 (en) | 2004-04-01 | 2008-12-09 | Microsoft Corporation | Digital cameras with luminance correction |
US7317843B2 (en) * | 2004-04-01 | 2008-01-08 | Microsoft Corporation | Luminance correction |
US8285041B2 (en) * | 2004-09-14 | 2012-10-09 | Olympus Corporation | Image processing apparatus, image recording apparatus, and image processing method |
US7461331B2 (en) * | 2004-12-21 | 2008-12-02 | Fotomedia Technologies, Llc | Automated construction of print order for images capture during a session |
EP1679907A1 (en) * | 2005-01-05 | 2006-07-12 | Dialog Semiconductor GmbH | Hexagonal color pixel structure with white pixels |
FR2881011B1 (fr) | 2005-01-19 | 2007-06-29 | Dxo Labs Sa | Procede de realisation d'un appareil de capture et/ou restitution d'images et appareil obtenu par ce procede |
US7683950B2 (en) * | 2005-04-26 | 2010-03-23 | Eastman Kodak Company | Method and apparatus for correcting a channel dependent color aberration in a digital image |
US20060274209A1 (en) * | 2005-06-03 | 2006-12-07 | Coretronic Corporation | Method and a control device using the same for controlling a display device |
US20090300480A1 (en) * | 2005-07-01 | 2009-12-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media segment alteration with embedded markup identifier |
US7860342B2 (en) * | 2005-07-01 | 2010-12-28 | The Invention Science Fund I, Llc | Modifying restricted images |
US20090235364A1 (en) * | 2005-07-01 | 2009-09-17 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for promotional content alteration |
US20090151004A1 (en) * | 2005-07-01 | 2009-06-11 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for visual content alteration |
US20090037243A1 (en) * | 2005-07-01 | 2009-02-05 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Audio substitution options in media works |
US20080052104A1 (en) * | 2005-07-01 | 2008-02-28 | Searete Llc | Group content substitution in media works |
US20090150444A1 (en) * | 2005-07-01 | 2009-06-11 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for audio content alteration |
US9065979B2 (en) * | 2005-07-01 | 2015-06-23 | The Invention Science Fund I, Llc | Promotional placement in media works |
US9583141B2 (en) * | 2005-07-01 | 2017-02-28 | Invention Science Fund I, Llc | Implementing audio substitution options in media works |
US9426387B2 (en) | 2005-07-01 | 2016-08-23 | Invention Science Fund I, Llc | Image anonymization |
US9230601B2 (en) | 2005-07-01 | 2016-01-05 | Invention Science Fund I, Llc | Media markup system for content alteration in derivative works |
US20080013859A1 (en) * | 2005-07-01 | 2008-01-17 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Implementation of media content alteration |
US8203609B2 (en) * | 2007-01-31 | 2012-06-19 | The Invention Science Fund I, Llc | Anonymization pursuant to a broadcasted policy |
US20070266049A1 (en) * | 2005-07-01 | 2007-11-15 | Searete Llc, A Limited Liability Corportion Of The State Of Delaware | Implementation of media content alteration |
US9092928B2 (en) * | 2005-07-01 | 2015-07-28 | The Invention Science Fund I, Llc | Implementing group content substitution in media works |
US20080028422A1 (en) * | 2005-07-01 | 2008-01-31 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Implementation of media content alteration |
US20090204475A1 (en) * | 2005-07-01 | 2009-08-13 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for promotional visual content |
US20070005423A1 (en) * | 2005-07-01 | 2007-01-04 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Providing promotional content |
US20080052161A1 (en) * | 2005-07-01 | 2008-02-28 | Searete Llc | Alteration of promotional content in media works |
US20070276757A1 (en) * | 2005-07-01 | 2007-11-29 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Approval technique for media content alteration |
US20090150199A1 (en) * | 2005-07-01 | 2009-06-11 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Visual substitution options in media works |
US20070294720A1 (en) * | 2005-07-01 | 2007-12-20 | Searete Llc | Promotional placement in media works |
US20100154065A1 (en) * | 2005-07-01 | 2010-06-17 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for user-activated content alteration |
US8126938B2 (en) * | 2005-07-01 | 2012-02-28 | The Invention Science Fund I, Llc | Group content substitution in media works |
US20070263865A1 (en) * | 2005-07-01 | 2007-11-15 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Authorization rights for substitute media content |
US20080086380A1 (en) * | 2005-07-01 | 2008-04-10 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Alteration of promotional content in media works |
US20090210946A1 (en) * | 2005-07-01 | 2009-08-20 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for promotional audio content |
EP1927025A2 (en) * | 2005-09-19 | 2008-06-04 | CDM Optics, Inc. | Task-based imaging systems |
JP2007096405A (ja) * | 2005-09-27 | 2007-04-12 | Fujifilm Corp | ぶれ方向判定方法および装置ならびにプログラム |
US8571346B2 (en) | 2005-10-26 | 2013-10-29 | Nvidia Corporation | Methods and devices for defective pixel detection |
US7750956B2 (en) | 2005-11-09 | 2010-07-06 | Nvidia Corporation | Using a graphics processing unit to correct video and audio data |
US8588542B1 (en) | 2005-12-13 | 2013-11-19 | Nvidia Corporation | Configurable and compact pixel processing apparatus |
FR2895102B1 (fr) * | 2005-12-19 | 2012-12-07 | Dxo Labs | Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede |
FR2895103B1 (fr) * | 2005-12-19 | 2008-02-22 | Dxo Labs Sa | Procede et systeme de traitement de donnees numeriques |
FR2895104A1 (fr) * | 2005-12-19 | 2007-06-22 | Dxo Labs Sa | Procede pour fournir des donnees a un moyen de traitement numerique |
US8295562B2 (en) * | 2006-01-13 | 2012-10-23 | Carl Zeiss Microimaging Ais, Inc. | Medical image modification to simulate characteristics |
US20070165961A1 (en) * | 2006-01-13 | 2007-07-19 | Juwei Lu | Method And Apparatus For Reducing Motion Blur In An Image |
US8737832B1 (en) | 2006-02-10 | 2014-05-27 | Nvidia Corporation | Flicker band automated detection system and method |
US8368749B2 (en) * | 2006-03-27 | 2013-02-05 | Ge Inspection Technologies Lp | Article inspection apparatus |
US20070239417A1 (en) * | 2006-03-31 | 2007-10-11 | D-Blur Technologies Ltd. | Camera performance simulation |
US20070269123A1 (en) * | 2006-05-16 | 2007-11-22 | Randall Don Briggs | Method and apparatus for performing image enhancement in an image processing pipeline |
JP4974586B2 (ja) * | 2006-05-24 | 2012-07-11 | オリンパス株式会社 | 顕微鏡用撮像装置 |
US7612805B2 (en) | 2006-07-11 | 2009-11-03 | Neal Solomon | Digital imaging system and methods for selective image filtration |
JP4839148B2 (ja) * | 2006-07-12 | 2011-12-21 | 株式会社リコー | ネットワーク装置,端末装置,プログラムおよび記録媒体 |
US8594441B1 (en) | 2006-09-12 | 2013-11-26 | Nvidia Corporation | Compressing image-based data using luminance |
DE102006057190A1 (de) * | 2006-12-05 | 2008-06-12 | Carl Zeiss Meditec Ag | Verfahren zur Erzeugung hochqualitativer Aufnahmen der vorderen und/oder hinteren Augenabschnitte |
US20080180539A1 (en) * | 2007-01-31 | 2008-07-31 | Searete Llc, A Limited Liability Corporation | Image anonymization |
US8723969B2 (en) | 2007-03-20 | 2014-05-13 | Nvidia Corporation | Compensating for undesirable camera shakes during video capture |
US20080244755A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Authorization for media content alteration |
US20080270161A1 (en) * | 2007-04-26 | 2008-10-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Authorization rights for substitute media content |
US9215512B2 (en) | 2007-04-27 | 2015-12-15 | Invention Science Fund I, Llc | Implementation of media content alteration |
US7936915B2 (en) * | 2007-05-29 | 2011-05-03 | Microsoft Corporation | Focal length estimation for panoramic stitching |
US8634103B2 (en) * | 2007-06-12 | 2014-01-21 | Qualcomm Incorporated | Print image matching parameter extraction and rendering on display devices |
US8724895B2 (en) | 2007-07-23 | 2014-05-13 | Nvidia Corporation | Techniques for reducing color artifacts in digital images |
US8570634B2 (en) | 2007-10-11 | 2013-10-29 | Nvidia Corporation | Image processing of an incoming light field using a spatial light modulator |
US9177368B2 (en) | 2007-12-17 | 2015-11-03 | Nvidia Corporation | Image distortion correction |
US8780128B2 (en) | 2007-12-17 | 2014-07-15 | Nvidia Corporation | Contiguously packed data |
US8698908B2 (en) | 2008-02-11 | 2014-04-15 | Nvidia Corporation | Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera |
US9379156B2 (en) * | 2008-04-10 | 2016-06-28 | Nvidia Corporation | Per-channel image intensity correction |
US8280194B2 (en) * | 2008-04-29 | 2012-10-02 | Sony Corporation | Reduced hardware implementation for a two-picture depth map algorithm |
US8553093B2 (en) | 2008-09-30 | 2013-10-08 | Sony Corporation | Method and apparatus for super-resolution imaging using digital imaging devices |
US8194995B2 (en) * | 2008-09-30 | 2012-06-05 | Sony Corporation | Fast camera auto-focus |
US8373718B2 (en) | 2008-12-10 | 2013-02-12 | Nvidia Corporation | Method and system for color enhancement with color volume adjustment and variable shift along luminance axis |
US8290260B2 (en) * | 2008-12-15 | 2012-10-16 | Xerox Corporation | Method and system for creating integrated remote custom rendering profile |
US20100198876A1 (en) * | 2009-02-02 | 2010-08-05 | Honeywell International, Inc. | Apparatus and method of embedding meta-data in a captured image |
DE102009002393A1 (de) * | 2009-04-15 | 2010-11-04 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Verfahren und Vorrichtung zur Bearbeitung von Aufnahmebildern einer digitalen Videokamera |
US8749662B2 (en) | 2009-04-16 | 2014-06-10 | Nvidia Corporation | System and method for lens shading image correction |
CN101551661B (zh) * | 2009-05-12 | 2013-04-24 | 广东工业大学 | 一种面向多机器人系统的控制方法 |
US9519814B2 (en) | 2009-06-12 | 2016-12-13 | Hand Held Products, Inc. | Portable data terminal |
FR2948521B1 (fr) | 2009-07-21 | 2012-01-27 | Dxo Labs | Procede d'estimation d'un defaut d'un systeme de capture d'images et systemes associes |
US8698918B2 (en) | 2009-10-27 | 2014-04-15 | Nvidia Corporation | Automatic white balancing for photography |
KR20110065997A (ko) * | 2009-12-10 | 2011-06-16 | 삼성전자주식회사 | 영상처리장치 및 영상처리방법 |
KR101451136B1 (ko) * | 2010-03-19 | 2014-10-16 | 삼성테크윈 주식회사 | 비네팅 보정 방법 및 장치 |
US8335390B2 (en) * | 2010-03-22 | 2012-12-18 | Sony Corporation | Blur function modeling for depth of field rendering |
US8660372B2 (en) * | 2010-05-10 | 2014-02-25 | Board Of Regents Of The University Of Texas System | Determining quality of an image or video using a distortion classifier |
CN102338972A (zh) * | 2010-07-21 | 2012-02-01 | 华晶科技股份有限公司 | 多人脸区块辅助对焦的方法 |
US20120019709A1 (en) * | 2010-07-21 | 2012-01-26 | Altek Corporation | Assisting focusing method using multiple face blocks |
CH703996A2 (de) | 2010-10-24 | 2012-04-30 | Airlight Energy Ip Sa | Sonnenkollektor. |
EP2447889A1 (en) * | 2010-10-29 | 2012-05-02 | Siemens Aktiengesellschaft | Method for modeling a defect management in a manufacturing process and for handling the defect during the production process based on said modeled defect management |
CN102625043B (zh) | 2011-01-25 | 2014-12-10 | 佳能株式会社 | 图像处理设备、成像设备和图像处理方法 |
US8842931B2 (en) * | 2011-02-18 | 2014-09-23 | Nvidia Corporation | System, method, and computer program product for reducing noise in an image using depth-based sweeping over image samples |
JP5367749B2 (ja) * | 2011-03-25 | 2013-12-11 | 株式会社東芝 | サーバ装置、通信方法およびプログラム |
US10331658B2 (en) * | 2011-06-03 | 2019-06-25 | Gdial Inc. | Systems and methods for atomizing and individuating data as data quanta |
US8712181B2 (en) * | 2011-06-14 | 2014-04-29 | Apteryx, Inc. | Real-time application of filters based on image attributes |
EP2552099B1 (en) | 2011-07-27 | 2013-08-28 | Axis AB | Method and camera for providing an estimation of a mean signal to noise ratio value for an image |
JP5362143B1 (ja) * | 2011-11-16 | 2013-12-11 | オリンパスメディカルシステムズ株式会社 | 内視鏡用映像信号処理装置 |
JP2013123812A (ja) * | 2011-12-13 | 2013-06-24 | Canon Inc | 検査装置、検査方法、コンピュータプログラム |
US20130329996A1 (en) * | 2012-06-10 | 2013-12-12 | Apple Inc. | Method and system for auto-enhancing photographs with tonal response curves |
JP5656926B2 (ja) | 2012-06-22 | 2015-01-21 | キヤノン株式会社 | 画像処理方法、画像処理装置および撮像装置 |
US8976271B2 (en) | 2012-07-19 | 2015-03-10 | Canon Kabushiki Kaisha | Optical system and image pickup apparatus |
EP2878123B1 (en) | 2012-07-26 | 2017-12-20 | DePuy Synthes Products, Inc. | Wide dynamic range using monochromatic sensor |
KR102127100B1 (ko) | 2012-07-26 | 2020-06-29 | 디퍼이 신테스 프로덕츠, 인코포레이티드 | 광 부족 환경에서 ycbcr 펄싱된 조명 수법 |
MX2018006791A (es) | 2012-07-26 | 2022-01-20 | Depuy Synthes Products Inc | Video continuo en un entorno deficiente de luz. |
US9798698B2 (en) | 2012-08-13 | 2017-10-24 | Nvidia Corporation | System and method for multi-color dilu preconditioner |
US9508318B2 (en) | 2012-09-13 | 2016-11-29 | Nvidia Corporation | Dynamic color profile management for electronic devices |
US8867817B1 (en) * | 2012-10-29 | 2014-10-21 | Amazon Technologies, Inc. | Display analysis using scanned images |
US9307213B2 (en) | 2012-11-05 | 2016-04-05 | Nvidia Corporation | Robust selection and weighting for gray patch automatic white balancing |
GB2507576A (en) * | 2012-11-05 | 2014-05-07 | British Broadcasting Corp | Focus detection |
US9026553B2 (en) * | 2012-11-29 | 2015-05-05 | Unisys Corporation | Data expanse viewer for database systems |
WO2014145247A1 (en) | 2013-03-15 | 2014-09-18 | Olive Medical Corporation | Calibration using distal cap |
CA2906950A1 (en) | 2013-03-15 | 2014-09-18 | Olive Medical Corporation | Comprehensive fixed pattern noise cancellation |
JP2016519591A (ja) | 2013-03-15 | 2016-07-07 | オリーブ・メディカル・コーポレイションOlive Medical Corporation | パルスカラー撮像システムにおける超解像度及び色運動アーチファクト補正 |
AU2014233464B2 (en) | 2013-03-15 | 2018-11-01 | DePuy Synthes Products, Inc. | Scope sensing in a light controlled environment |
AU2014233518C1 (en) | 2013-03-15 | 2019-04-04 | DePuy Synthes Products, Inc. | Noise aware edge enhancement |
EP2967300A4 (en) | 2013-03-15 | 2016-11-23 | Olive Medical Corp | CONTROL OF THE INTEGRATED LIGHT ENERGY OF A LASER PULSE |
US9756222B2 (en) | 2013-06-26 | 2017-09-05 | Nvidia Corporation | Method and system for performing white balancing operations on captured images |
US9826208B2 (en) | 2013-06-26 | 2017-11-21 | Nvidia Corporation | Method and system for generating weights for use in white balancing an image |
US9167706B2 (en) | 2013-08-05 | 2015-10-20 | Steven J. Holmstrom | Electronic flight bag retention device |
US10009549B2 (en) | 2014-02-28 | 2018-06-26 | The Board Of Trustees Of The Leland Stanford Junior University | Imaging providing ratio pixel intensity |
AU2015230978B2 (en) | 2014-03-21 | 2020-01-23 | DePuy Synthes Products, Inc. | Card edge connector for an imaging sensor |
US9396409B2 (en) | 2014-09-29 | 2016-07-19 | At&T Intellectual Property I, L.P. | Object based image processing |
US10262400B2 (en) | 2014-10-31 | 2019-04-16 | Huawei Technologies Co., Ltd. | Image processing method and device using reprojection error values |
JP6496940B2 (ja) * | 2014-11-06 | 2019-04-10 | ソニー株式会社 | 軸上色収差を有するレンズを含む撮像システム、内視鏡及び撮像方法 |
JP6465752B2 (ja) * | 2015-05-29 | 2019-02-06 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
WO2017026539A1 (ja) | 2015-08-13 | 2017-02-16 | Hoya株式会社 | 評価値計算装置及び電子内視鏡システム |
CN106687023B (zh) | 2015-08-13 | 2018-12-18 | Hoya株式会社 | 评价值计算装置以及电子内窥镜系统 |
US9838646B2 (en) * | 2015-09-24 | 2017-12-05 | Cisco Technology, Inc. | Attenuation of loudspeaker in microphone array |
KR20190052089A (ko) * | 2016-09-19 | 2019-05-15 | 인터디지털 브이씨 홀딩스 인코포레이티드 | 명시야 데이터를 사용하여 장면을 표현하는 포인트 클라우드를 재구성하기 위한 방법 및 디바이스 |
EP4254035A3 (en) * | 2016-10-12 | 2023-12-06 | Samsung Electronics Co., Ltd. | Method, apparatus, and recording medium for processing image |
CN110520691B (zh) * | 2017-04-03 | 2021-09-10 | 三菱电机株式会社 | 映射图数据生成装置和方法 |
US10733262B2 (en) * | 2017-10-05 | 2020-08-04 | Adobe Inc. | Attribute control for updating digital content in a digital medium environment |
US10657118B2 (en) | 2017-10-05 | 2020-05-19 | Adobe Inc. | Update basis for updating digital content in a digital medium environment |
US11551257B2 (en) | 2017-10-12 | 2023-01-10 | Adobe Inc. | Digital media environment for analysis of audience segments in a digital marketing campaign |
US10685375B2 (en) | 2017-10-12 | 2020-06-16 | Adobe Inc. | Digital media environment for analysis of components of content in a digital marketing campaign |
US11544743B2 (en) | 2017-10-16 | 2023-01-03 | Adobe Inc. | Digital content control based on shared machine learning properties |
US10795647B2 (en) | 2017-10-16 | 2020-10-06 | Adobe, Inc. | Application digital content control using an embedded machine learning module |
GB2570278B (en) * | 2017-10-31 | 2020-09-16 | Cambium Networks Ltd | Spectrum management for a point-to-multipoint wireless network |
US10853766B2 (en) | 2017-11-01 | 2020-12-01 | Adobe Inc. | Creative brief schema |
US10991012B2 (en) | 2017-11-01 | 2021-04-27 | Adobe Inc. | Creative brief-based content creation |
US20190191974A1 (en) | 2017-12-27 | 2019-06-27 | Ethicon Llc | Fluorescence imaging in a light deficient environment |
CN108074241B (zh) * | 2018-01-16 | 2021-10-22 | 深圳大学 | 目标图像的质量评分方法、装置、终端及存储介质 |
US11379725B2 (en) | 2018-06-29 | 2022-07-05 | International Business Machines Corporation | Projectile extrapolation and sequence synthesis from video using convolution |
JP7278096B2 (ja) * | 2019-02-20 | 2023-05-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US11389066B2 (en) | 2019-06-20 | 2022-07-19 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
US10979646B2 (en) | 2019-06-20 | 2021-04-13 | Ethicon Llc | Fluorescence imaging with minimal area monolithic image sensor |
US11221414B2 (en) | 2019-06-20 | 2022-01-11 | Cilag Gmbh International | Laser mapping imaging with fixed pattern noise cancellation |
US11716533B2 (en) | 2019-06-20 | 2023-08-01 | Cilag Gmbh International | Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system |
US11288772B2 (en) | 2019-06-20 | 2022-03-29 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed fluorescence imaging system |
US11937784B2 (en) | 2019-06-20 | 2024-03-26 | Cilag Gmbh International | Fluorescence imaging in a light deficient environment |
US11096565B2 (en) | 2019-06-20 | 2021-08-24 | Cilag Gmbh International | Driving light emissions according to a jitter specification in a hyperspectral, fluorescence, and laser mapping imaging system |
US11700995B2 (en) | 2019-06-20 | 2023-07-18 | Cilag Gmbh International | Speckle removal in a pulsed fluorescence imaging system |
US11892403B2 (en) | 2019-06-20 | 2024-02-06 | Cilag Gmbh International | Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system |
US11172810B2 (en) | 2019-06-20 | 2021-11-16 | Cilag Gmbh International | Speckle removal in a pulsed laser mapping imaging system |
US11758256B2 (en) | 2019-06-20 | 2023-09-12 | Cilag Gmbh International | Fluorescence imaging in a light deficient environment |
US11187657B2 (en) | 2019-06-20 | 2021-11-30 | Cilag Gmbh International | Hyperspectral imaging with fixed pattern noise cancellation |
US11617541B2 (en) | 2019-06-20 | 2023-04-04 | Cilag Gmbh International | Optical fiber waveguide in an endoscopic system for fluorescence imaging |
US11471055B2 (en) | 2019-06-20 | 2022-10-18 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed fluorescence imaging system |
US11237270B2 (en) | 2019-06-20 | 2022-02-01 | Cilag Gmbh International | Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation |
US11550057B2 (en) | 2019-06-20 | 2023-01-10 | Cilag Gmbh International | Offset illumination of a scene using multiple emitters in a fluorescence imaging system |
US11925328B2 (en) | 2019-06-20 | 2024-03-12 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed hyperspectral imaging system |
US10841504B1 (en) | 2019-06-20 | 2020-11-17 | Ethicon Llc | Fluorescence imaging with minimal area monolithic image sensor |
US11516387B2 (en) | 2019-06-20 | 2022-11-29 | Cilag Gmbh International | Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
US11412920B2 (en) | 2019-06-20 | 2022-08-16 | Cilag Gmbh International | Speckle removal in a pulsed fluorescence imaging system |
US11233960B2 (en) | 2019-06-20 | 2022-01-25 | Cilag Gmbh International | Fluorescence imaging with fixed pattern noise cancellation |
US11154188B2 (en) | 2019-06-20 | 2021-10-26 | Cilag Gmbh International | Laser mapping imaging and videostroboscopy of vocal cords |
US11280737B2 (en) | 2019-06-20 | 2022-03-22 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed fluorescence imaging system |
US11877065B2 (en) | 2019-06-20 | 2024-01-16 | Cilag Gmbh International | Image rotation in an endoscopic hyperspectral imaging system |
US11457154B2 (en) | 2019-06-20 | 2022-09-27 | Cilag Gmbh International | Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
US11531112B2 (en) | 2019-06-20 | 2022-12-20 | Cilag Gmbh International | Offset illumination of a scene using multiple emitters in a hyperspectral, fluorescence, and laser mapping imaging system |
US11931009B2 (en) | 2019-06-20 | 2024-03-19 | Cilag Gmbh International | Offset illumination of a scene using multiple emitters in a hyperspectral imaging system |
US10952619B2 (en) | 2019-06-20 | 2021-03-23 | Ethicon Llc | Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor |
US11265491B2 (en) | 2019-06-20 | 2022-03-01 | Cilag Gmbh International | Fluorescence imaging with fixed pattern noise cancellation |
US11540696B2 (en) | 2019-06-20 | 2023-01-03 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed fluorescence imaging system |
US11674848B2 (en) | 2019-06-20 | 2023-06-13 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for hyperspectral imaging |
US11134832B2 (en) | 2019-06-20 | 2021-10-05 | Cilag Gmbh International | Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system |
US11122968B2 (en) | 2019-06-20 | 2021-09-21 | Cilag Gmbh International | Optical fiber waveguide in an endoscopic system for hyperspectral imaging |
US11398011B2 (en) | 2019-06-20 | 2022-07-26 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed laser mapping imaging system |
US11716543B2 (en) | 2019-06-20 | 2023-08-01 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for fluorescence imaging |
US11671691B2 (en) | 2019-06-20 | 2023-06-06 | Cilag Gmbh International | Image rotation in an endoscopic laser mapping imaging system |
US11294062B2 (en) | 2019-06-20 | 2022-04-05 | Cilag Gmbh International | Dynamic range using a monochrome image sensor for hyperspectral and fluorescence imaging and topology laser mapping |
US11624830B2 (en) | 2019-06-20 | 2023-04-11 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for laser mapping imaging |
US11432706B2 (en) | 2019-06-20 | 2022-09-06 | Cilag Gmbh International | Hyperspectral imaging with minimal area monolithic image sensor |
US11633089B2 (en) | 2019-06-20 | 2023-04-25 | Cilag Gmbh International | Fluorescence imaging with minimal area monolithic image sensor |
US11240426B2 (en) | 2019-06-20 | 2022-02-01 | Cilag Gmbh International | Pulsed illumination in a hyperspectral, fluorescence, and laser mapping imaging system |
US11533417B2 (en) | 2019-06-20 | 2022-12-20 | Cilag Gmbh International | Laser scanning and tool tracking imaging in a light deficient environment |
US11187658B2 (en) | 2019-06-20 | 2021-11-30 | Cilag Gmbh International | Fluorescence imaging with fixed pattern noise cancellation |
US11337596B2 (en) | 2019-06-20 | 2022-05-24 | Cilag Gmbh International | Controlling integral energy of a laser pulse in a fluorescence imaging system |
US11903563B2 (en) | 2019-06-20 | 2024-02-20 | Cilag Gmbh International | Offset illumination of a scene using multiple emitters in a fluorescence imaging system |
US11793399B2 (en) | 2019-06-20 | 2023-10-24 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system |
US11218645B2 (en) | 2019-06-20 | 2022-01-04 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for fluorescence imaging |
US11622094B2 (en) | 2019-06-20 | 2023-04-04 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for fluorescence imaging |
US11898909B2 (en) | 2019-06-20 | 2024-02-13 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed fluorescence imaging system |
US11012599B2 (en) | 2019-06-20 | 2021-05-18 | Ethicon Llc | Hyperspectral imaging in a light deficient environment |
US11276148B2 (en) | 2019-06-20 | 2022-03-15 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed fluorescence imaging system |
US11172811B2 (en) | 2019-06-20 | 2021-11-16 | Cilag Gmbh International | Image rotation in an endoscopic fluorescence imaging system |
US11412152B2 (en) | 2019-06-20 | 2022-08-09 | Cilag Gmbh International | Speckle removal in a pulsed hyperspectral imaging system |
US11788963B2 (en) | 2019-06-20 | 2023-10-17 | Cilag Gmbh International | Minimizing image sensor input/output in a pulsed fluorescence imaging system |
US11375886B2 (en) | 2019-06-20 | 2022-07-05 | Cilag Gmbh International | Optical fiber waveguide in an endoscopic system for laser mapping imaging |
US11631202B2 (en) | 2021-01-08 | 2023-04-18 | Samsung Electronics Co., Ltd. | System and method for obtaining and applying a vignette filter and grain layer |
US11829239B2 (en) | 2021-11-17 | 2023-11-28 | Adobe Inc. | Managing machine learning model reconstruction |
Family Cites Families (80)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6080374A (ja) * | 1983-10-11 | 1985-05-08 | Hitachi Denshi Ltd | テレビジヨンカメラ装置の撮像特性補正方法 |
FR2652695B1 (fr) * | 1989-10-03 | 1993-04-16 | Thomson Csf | Procede et dispositif de visualisation d'images, a correction automatique de defauts par contre-reaction. |
FR2661061B1 (fr) * | 1990-04-11 | 1992-08-07 | Multi Media Tech | Procede et dispositif de modification de zone d'images. |
US5047861A (en) * | 1990-07-31 | 1991-09-10 | Eastman Kodak Company | Method and apparatus for pixel non-uniformity correction |
US5157497A (en) * | 1991-02-25 | 1992-10-20 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for detecting and compensating for white shading errors in a digitized video signal |
US5251271A (en) * | 1991-10-21 | 1993-10-05 | R. R. Donnelley & Sons Co. | Method for automatic registration of digitized multi-plane images |
JPH05176166A (ja) | 1991-12-25 | 1993-07-13 | Hitachi Ltd | 色再現方法 |
DE69331719T2 (de) * | 1992-06-19 | 2002-10-24 | Agfa Gevaert Nv | Verfahren und Vorrichtung zur Geräuschunterdrückung |
US5905530A (en) * | 1992-08-24 | 1999-05-18 | Canon Kabushiki Kaisha | Image pickup apparatus |
US5323204A (en) * | 1992-11-03 | 1994-06-21 | Eastman Kodak Company | Automatic optimization of photographic exposure parameters for non-standard display sizes and/or different focal length photographing modes through determination and utilization of extra system speed |
US5461440A (en) * | 1993-02-10 | 1995-10-24 | Olympus Optical Co., Ltd. | Photographing image correction system |
US5353362A (en) * | 1993-05-17 | 1994-10-04 | Tucci Robert R | Method of generation of two electromagnetic modes using squeezers |
JPH0715631A (ja) * | 1993-06-29 | 1995-01-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像信号雑音除去方法および装置 |
US5499057A (en) * | 1993-08-27 | 1996-03-12 | Sony Corporation | Apparatus for producing a noise-reducded image signal from an input image signal |
US5485568A (en) | 1993-10-08 | 1996-01-16 | Xerox Corporation | Structured image (Sl) format for describing complex color raster images |
EP0686945B1 (en) * | 1994-05-26 | 2001-12-19 | Canon Kabushiki Kaisha | Image processing apparatus and method |
US6334219B1 (en) * | 1994-09-26 | 2001-12-25 | Adc Telecommunications Inc. | Channel selection for a hybrid fiber coax network |
JPH08116490A (ja) * | 1994-10-14 | 1996-05-07 | Olympus Optical Co Ltd | 画像処理装置 |
KR100203239B1 (ko) * | 1995-02-16 | 1999-06-15 | 윤종용 | 화이트쉐이딩 보정방법 및 장치 |
US5606365A (en) * | 1995-03-28 | 1997-02-25 | Eastman Kodak Company | Interactive camera for network processing of captured images |
US5694484A (en) * | 1995-05-15 | 1997-12-02 | Polaroid Corporation | System and method for automatically processing image data to provide images of optimal perceptual quality |
JPH0998299A (ja) | 1995-10-02 | 1997-04-08 | Canon Inc | 画像処理装置及び方法 |
JP3409541B2 (ja) | 1995-11-14 | 2003-05-26 | 三菱電機株式会社 | 色補正方法及び色補正装置並びに色補正応用装置及びカラー画像システム |
AU714853B2 (en) * | 1995-12-19 | 2000-01-13 | Telefonaktiebolaget Lm Ericsson (Publ) | Job scheduling for instruction processor |
US5696850A (en) * | 1995-12-21 | 1997-12-09 | Eastman Kodak Company | Automatic image sharpening in an electronic imaging system |
JPH09214807A (ja) * | 1996-01-31 | 1997-08-15 | Canon Inc | 画像処理装置および画像処理方法 |
JP3950188B2 (ja) * | 1996-02-27 | 2007-07-25 | 株式会社リコー | 画像歪み補正用パラメータ決定方法及び撮像装置 |
JPH1083024A (ja) | 1996-09-09 | 1998-03-31 | Fuji Photo Film Co Ltd | カメラ及びプリンタ |
JP3791635B2 (ja) * | 1996-10-22 | 2006-06-28 | 富士写真フイルム株式会社 | 画像再生方法、画像再生装置、画像処理方法および画像処理装置 |
US6173087B1 (en) * | 1996-11-13 | 2001-01-09 | Sarnoff Corporation | Multi-view image registration with application to mosaicing and lens distortion correction |
US6100925A (en) | 1996-11-27 | 2000-08-08 | Princeton Video Image, Inc. | Image insertion in video streams using a combination of physical sensors and pattern recognition |
US6094221A (en) * | 1997-01-02 | 2000-07-25 | Andersion; Eric C. | System and method for using a scripting language to set digital camera device features |
JPH10226139A (ja) * | 1997-02-14 | 1998-08-25 | Canon Inc | 画像形成システム及び画像形成装置及び媒体 |
US6249315B1 (en) * | 1997-03-24 | 2001-06-19 | Jack M. Holm | Strategy for pictorial digital image processing |
US6222583B1 (en) | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
JP3225882B2 (ja) | 1997-03-27 | 2001-11-05 | 日本電信電話株式会社 | 景観ラベリングシステム |
US5990935A (en) * | 1997-04-04 | 1999-11-23 | Evans & Sutherland Computer Corporation | Method for measuring camera and lens properties for camera tracking |
JPH10319929A (ja) | 1997-05-19 | 1998-12-04 | Matsushita Electric Ind Co Ltd | 表示装置 |
JP3911354B2 (ja) * | 1997-09-02 | 2007-05-09 | 大日本スクリーン製造株式会社 | 画像処理方法および装置、並びにその処理を実行するためのプログラムを記録した記録媒体 |
JPH11146308A (ja) | 1997-11-13 | 1999-05-28 | Fuji Photo Film Co Ltd | 画像情報記録装置および画像プリントシステム |
US6493028B1 (en) | 1997-11-26 | 2002-12-10 | Flashpoint Technology, Inc. | Method and system for extending the available image file formats in an image capture device |
DE19855885A1 (de) * | 1997-12-04 | 1999-08-05 | Fuji Photo Film Co Ltd | Bildverarbeitungsverfahren und -vorrichtung |
US6069982A (en) * | 1997-12-23 | 2000-05-30 | Polaroid Corporation | Estimation of frequency dependence and grey-level dependence of noise in an image |
JPH11220687A (ja) * | 1998-01-30 | 1999-08-10 | Fuji Photo Film Co Ltd | 画像処理方法および装置 |
US6381375B1 (en) * | 1998-02-20 | 2002-04-30 | Cognex Corporation | Methods and apparatus for generating a projection of an image |
DE19812028A1 (de) * | 1998-03-19 | 1999-09-23 | Heidelberger Druckmasch Ag | Verfahren zur Koordinatenumrechnung von Bilddaten mit zufälligem Offset der Bildpunkte |
JP3926918B2 (ja) | 1998-03-20 | 2007-06-06 | 富士通株式会社 | 画像補正処理装置及びそのプログラム記録媒体 |
US6603885B1 (en) * | 1998-04-30 | 2003-08-05 | Fuji Photo Film Co., Ltd. | Image processing method and apparatus |
JP4338155B2 (ja) | 1998-06-12 | 2009-10-07 | キヤノン株式会社 | 画像処理装置及びその方法、コンピュータ可読メモリ |
JP4187830B2 (ja) | 1998-07-03 | 2008-11-26 | 東芝医用システムエンジニアリング株式会社 | 医用画像合成装置 |
DE69913534T2 (de) * | 1998-07-15 | 2004-09-30 | Kodak Polychrome Graphics Llc, Norwalk | Verfahren und vorrichtung zur bilderzeugung |
JP4095184B2 (ja) | 1998-10-29 | 2008-06-04 | キヤノン株式会社 | 画像処理装置及びその方法 |
JP2000165647A (ja) * | 1998-11-26 | 2000-06-16 | Seiko Epson Corp | 画像データ処理方法および画像データ印刷装置並びに画像データ処理プログラムを記録した記録媒体 |
JP4154053B2 (ja) * | 1998-12-25 | 2008-09-24 | キヤノン株式会社 | 画像記録・再生システム、画像記録装置及び画像再生装置 |
US6538691B1 (en) * | 1999-01-21 | 2003-03-25 | Intel Corporation | Software correction of image distortion in digital cameras |
JP4072302B2 (ja) * | 1999-04-13 | 2008-04-09 | キヤノン株式会社 | データ処理方法及び装置及び記憶媒体 |
US6856427B1 (en) * | 1999-05-20 | 2005-02-15 | Eastman Kodak Company | System for printing correct exposure in a rendered digital image |
US6693668B1 (en) * | 1999-06-04 | 2004-02-17 | Canon Kabushiki Kaisha | Self-diagnostic image sensor |
US6470151B1 (en) * | 1999-06-22 | 2002-10-22 | Canon Kabushiki Kaisha | Camera, image correcting apparatus, image correcting system, image correcting method, and computer program product providing the image correcting method |
US6707950B1 (en) * | 1999-06-22 | 2004-03-16 | Eastman Kodak Company | Method for modification of non-image data in an image processing chain |
JP2001016449A (ja) | 1999-06-25 | 2001-01-19 | Ricoh Co Ltd | 画像入力装置 |
US6633408B1 (en) | 1999-06-29 | 2003-10-14 | Kodak Polychrome Graphics, Llc | Spectral modeling of photographic printing based on dye concentration |
DE20080319U1 (de) | 1999-06-30 | 2002-05-16 | Logitech Inc | Videokamera, bei der die Hauptfunktionen in der Hauptrechnersoftware implementiert werden |
JP4822571B2 (ja) * | 1999-08-03 | 2011-11-24 | キヤノン株式会社 | デジタルx線撮影システム及び方法 |
DE19943183A1 (de) * | 1999-09-09 | 2001-03-15 | Heimann Systems Gmbh & Co | Verfahren zur Farbanpassung eines Bildes, insbesondere eines Röntgenbildes |
JP2001094848A (ja) | 1999-09-20 | 2001-04-06 | Canon Inc | モニター付カメラ |
EP1248940A1 (en) | 1999-11-12 | 2002-10-16 | Go Sensors, L.L.C. | Methods and apparatus for measuring orientation and distance |
US6809837B1 (en) | 1999-11-29 | 2004-10-26 | Xerox Corporation | On-line model prediction and calibration system for a dynamically varying color reproduction device |
KR100414083B1 (ko) * | 1999-12-18 | 2004-01-07 | 엘지전자 주식회사 | 영상왜곡 보정방법 및 이를 이용한 영상표시기기 |
US6816625B2 (en) * | 2000-08-16 | 2004-11-09 | Lewis Jr Clarence A | Distortion free image capture system and method |
JP3429280B2 (ja) * | 2000-09-05 | 2003-07-22 | 理化学研究所 | 画像のレンズ歪みの補正方法 |
JP4399133B2 (ja) * | 2000-09-08 | 2010-01-13 | カシオ計算機株式会社 | 撮影条件提供装置、撮影条件設定システム、撮影条件提供方法 |
US6956966B2 (en) * | 2001-04-03 | 2005-10-18 | Electronics For Imaging, Inc. | Method and apparatus for automated image correction for digital image acquisition |
KR100940148B1 (ko) * | 2001-07-12 | 2010-02-03 | 도 랩스 | 디지털 영상을 그 잡음을 고려하여 수정하기 위한 방법 및시스템 |
DE60218317T2 (de) * | 2001-07-12 | 2008-01-03 | Do Labs | Verfahren und system zur herstellung von auf geometrischen verzerrungen bezogenen formatierten informationen |
FR2827459B1 (fr) * | 2001-07-12 | 2004-10-29 | Poseidon | Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image |
US6873727B2 (en) * | 2001-07-23 | 2005-03-29 | Hewlett-Packard Development Company, L.P. | System for setting image characteristics using embedded camera tag information |
FR2895102B1 (fr) | 2005-12-19 | 2012-12-07 | Dxo Labs | Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede |
FR2895104A1 (fr) | 2005-12-19 | 2007-06-22 | Dxo Labs Sa | Procede pour fournir des donnees a un moyen de traitement numerique |
FR2895103B1 (fr) | 2005-12-19 | 2008-02-22 | Dxo Labs Sa | Procede et systeme de traitement de donnees numeriques |
-
2002
- 2002-06-05 KR KR1020047000417A patent/KR100940148B1/ko not_active IP Right Cessation
- 2002-06-05 AT AT02747506T patent/ATE310284T1/de not_active IP Right Cessation
- 2002-06-05 ES ES02748933T patent/ES2311061T3/es not_active Expired - Lifetime
- 2002-06-05 JP JP2003512927A patent/JP4295612B2/ja not_active Expired - Fee Related
- 2002-06-05 CN CNB028139518A patent/CN1305006C/zh not_active Expired - Fee Related
- 2002-06-05 WO PCT/FR2002/001914 patent/WO2003007241A1/fr active Application Filing
- 2002-06-05 CN CNB028139577A patent/CN1305010C/zh not_active Expired - Fee Related
- 2002-06-05 WO PCT/FR2002/001908 patent/WO2003007243A2/fr active Application Filing
- 2002-06-05 ES ES02747506T patent/ES2253542T3/es not_active Expired - Lifetime
- 2002-06-05 KR KR1020047000412A patent/KR100879832B1/ko not_active IP Right Cessation
- 2002-06-05 JP JP2003512930A patent/JP4367757B2/ja not_active Expired - Fee Related
- 2002-06-05 EP EP02751241.7A patent/EP1442425B1/fr not_active Expired - Lifetime
- 2002-06-05 US US10/483,496 patent/US7343040B2/en not_active Expired - Fee Related
- 2002-06-05 US US10/483,497 patent/US7724977B2/en not_active Expired - Lifetime
- 2002-06-05 DE DE60234207T patent/DE60234207D1/de not_active Expired - Lifetime
- 2002-06-05 JP JP2003512929A patent/JP4295613B2/ja not_active Expired - Fee Related
- 2002-06-05 DE DE60227374T patent/DE60227374D1/de not_active Expired - Lifetime
- 2002-06-05 JP JP2003512931A patent/JP4452497B2/ja not_active Expired - Fee Related
- 2002-06-05 EP EP02745485.9A patent/EP1410331B1/fr not_active Expired - Lifetime
- 2002-06-05 JP JP2003512928A patent/JP4020262B2/ja not_active Expired - Fee Related
- 2002-06-05 CN CNB028139526A patent/CN1316426C/zh not_active Expired - Fee Related
- 2002-06-05 CN CNB028139534A patent/CN100361153C/zh not_active Expired - Fee Related
- 2002-06-05 CN CNB028139542A patent/CN1273931C/zh not_active Expired - Lifetime
- 2002-06-05 EP EP02747504A patent/EP1444651B1/fr not_active Expired - Lifetime
- 2002-06-05 WO PCT/FR2002/001915 patent/WO2003007242A2/fr active IP Right Grant
- 2002-06-05 AU AU2002317219A patent/AU2002317219A1/en not_active Abandoned
- 2002-06-05 WO PCT/FR2002/001911 patent/WO2003007240A1/fr active Application Filing
- 2002-06-05 EP EP02747506A patent/EP1410327B1/fr not_active Expired - Lifetime
- 2002-06-05 DE DE60239061T patent/DE60239061D1/de not_active Expired - Lifetime
- 2002-06-05 AU AU2002317900A patent/AU2002317900A1/en not_active Abandoned
- 2002-06-05 KR KR1020047000413A patent/KR100957878B1/ko not_active IP Right Cessation
- 2002-06-05 CN CNB028139569A patent/CN1316427C/zh not_active Expired - Fee Related
- 2002-06-05 AT AT02743349T patent/ATE497224T1/de not_active IP Right Cessation
- 2002-06-05 JP JP2003512924A patent/JP4614657B2/ja not_active Expired - Fee Related
- 2002-06-05 US US10/483,494 patent/US7792378B2/en not_active Expired - Lifetime
- 2002-06-05 AT AT02747504T patent/ATE447216T1/de not_active IP Right Cessation
- 2002-06-05 DE DE60207417T patent/DE60207417T2/de not_active Expired - Lifetime
- 2002-06-05 US US10/483,495 patent/US7346221B2/en not_active Expired - Lifetime
- 2002-06-05 EP EP02748933A patent/EP1415275B1/fr not_active Expired - Lifetime
- 2002-06-05 EP EP08100657.9A patent/EP2015247B1/fr not_active Expired - Lifetime
- 2002-06-05 AU AU2002317902A patent/AU2002317902A1/en not_active Abandoned
- 2002-06-05 AT AT02748933T patent/ATE400040T1/de not_active IP Right Cessation
- 2002-06-05 EP EP02743349A patent/EP1410326B1/fr not_active Expired - Lifetime
- 2002-06-05 WO PCT/FR2002/001909 patent/WO2003007239A1/fr active IP Right Grant
- 2002-06-05 CA CA2453423A patent/CA2453423C/fr not_active Expired - Fee Related
- 2002-06-05 WO PCT/FR2002/001910 patent/WO2003007236A2/fr active Application Filing
- 2002-06-05 US US10/483,322 patent/US7760955B2/en active Active
- 2002-06-05 US US10/482,413 patent/US8675980B2/en not_active Expired - Fee Related
- 2002-06-05 KR KR1020047000414A patent/KR100940147B1/ko active IP Right Grant
-
2010
- 2010-07-16 US US12/838,184 patent/US20100278415A1/en not_active Abandoned
- 2010-07-16 US US12/838,198 patent/US8559743B2/en not_active Expired - Lifetime
-
2012
- 2012-06-06 US US13/489,892 patent/US20120308160A1/en not_active Abandoned
-
2013
- 2013-09-09 US US14/021,235 patent/US9536284B2/en not_active Expired - Lifetime
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2253542T3 (es) | Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso. | |
ES2324817T3 (es) | Procedimiento y sistema para calcular una imagen transformada a partir de una imagen digital. | |
US11861813B2 (en) | Image distortion correction method and apparatus | |
US8073318B2 (en) | Determining scene distance in digital camera images | |
JP5830546B2 (ja) | 対象物のモデル変換に基づくモデルパラメータの決定 | |
KR101442610B1 (ko) | 디지털 촬영장치, 그 제어방법 및 제어방법을 실행시키기위한 프로그램을 저장한 기록매체 | |
US7885477B2 (en) | Image processing method, apparatus, and computer readable recording medium including program therefor | |
US20060268150A1 (en) | Photography apparatus, photography method, and photography program | |
US20060291739A1 (en) | Apparatus, method and program for image processing | |
US20060257041A1 (en) | Apparatus, method, and program for image processing | |
EP2444932A2 (en) | Device, method and program for correcting an image | |
JP2004062651A (ja) | 画像処理装置、画像処理方法、その記録媒体およびそのプログラム | |
JP6869652B2 (ja) | 画像処理装置、撮像装置、画像処理方法、画像処理プログラム、および、記憶媒体 | |
CN108989699A (zh) | 图像合成方法、装置、成像设备、电子设备以及计算机可读存储介质 | |
JP2000358157A (ja) | デジタル画像の光減衰を補償する方法および装置 | |
KR20090022710A (ko) | 디지털 촬영장치, 그 제어방법 및 이를 실행시키기 위한프로그램을 저장한 기록매체 | |
JP7443030B2 (ja) | 学習方法、プログラム、学習装置、および、学習済みウエイトの製造方法 | |
TWI721288B (zh) | 影像處理裝置、影像處理方法及程式記錄媒體 | |
JP2002157588A (ja) | 画像データ処理方法及び装置と該方法を実行するためのプログラムを記録した記録媒体 | |
JP2022159118A (ja) | 物体の画像を形成する方法、コンピュータプログラム製品、及びその方法を実行するための画像形成システム | |
Sevcenco | Image stitching and object insertion in the gradient domain | |
McCrackin | Classification-based Adaptive Image Denoising | |
JPH1117972A (ja) | コンピュータによる画像処理方法及び画像処理プログラムを記録したコンピュータ読取可能な記録媒体 |