ES2311061T3 - Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. - Google Patents

Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. Download PDF

Info

Publication number
ES2311061T3
ES2311061T3 ES02748933T ES02748933T ES2311061T3 ES 2311061 T3 ES2311061 T3 ES 2311061T3 ES 02748933 T ES02748933 T ES 02748933T ES 02748933 T ES02748933 T ES 02748933T ES 2311061 T3 ES2311061 T3 ES 2311061T3
Authority
ES
Spain
Prior art keywords
image
defects
restitution
formatted information
parameters
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES02748933T
Other languages
English (en)
Inventor
Bruno Liege
Frederic Guichard
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DO Labs SA
Original Assignee
DO Labs SA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from FR0109291A external-priority patent/FR2827459B1/fr
Priority claimed from FR0109292A external-priority patent/FR2827460B1/fr
Application filed by DO Labs SA filed Critical DO Labs SA
Application granted granted Critical
Publication of ES2311061T3 publication Critical patent/ES2311061T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • G06T1/0007Image acquisition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T3/10
    • G06T5/70
    • G06T5/73
    • G06T5/80
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00007Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to particular apparatus or devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00026Methods therefor
    • H04N1/00045Methods therefor using a reference pattern designed for the purpose, e.g. a test chart
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/00002Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
    • H04N1/00071Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/387Composing, repositioning or otherwise geometrically modifying originals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • H04N1/40093Modification of content of picture, e.g. retouching
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/58Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction

Abstract

Procedimiento para proporcionar, según un formato estándar, informaciones formateadas (15) a medios de tratamiento de imágenes (P1), particularmente programas y/o componentes; dichas informaciones formateadas (15) están relacionadas con defectos (P5) de una cadena de aparatos (P3); dicha cadena de aparatos (P3) incluye particularmente al menos un aparato de captura de imagen (1) y/o un aparato de restitución de imagen (19); dichos medios de tratamiento de imágenes (P1) utilizan dichas informaciones formateadas (15) para modificar la calidad de al menos una imagen (103) procedente de, o destinada a, dicha cadena de aparatos (P3); dichas informaciones formateadas (15) incluyen: - datos que caracterizan los defectos (P5) de dicho aparato de captura de imagen (1), determinados en el momento del diseño y/o de la fabricación de dicho aparato de captura; estos defectos están incluidos en el grupo que consta de: los defectos de geometría, los defectos de picado, los defectos de colorimetría, los defectos geométricos de distorsión, los defectos geométricos de aberración cromática, los defectos geométricos de viñeteado, los defectos de contraste, los defectos de uniformidad del flash, el ruido del captador, el grano, los defectos de astigmatismo, los defectos de aberración esférica; dicho procedimiento incluye la etapa de añadir al menos un campo (91) de dicho formato estándar con dichas informaciones formateadas (15); dicho campo (91) está designado por un nombre de campo; dicho campo (91) contiene al menos un valor de campo; este valor es relativo a las características técnicas de los aparatos, y/o a los parámetros del método de cuantificación, y/o a los parámetros de tratamientos digitales efectuados por dichos aparatos de captura de imagen, y/o a los parámetros que representan las preferencias del usuario, y/o a las desviaciones entre imágenes corregidas por aplicación de un modelo parametrizable a una imagen de referencia e imágenes matemáticas obtenidas por proyección matemática de imágenes de referencia, y/o a los defectos de geometría, y/o a los defectos de picado, y/o a los defectos de colorimetría, y/o a los defectos geométricos de distorsión, y/o a los defectos geométricos de aberración cromática, y/o a los defectos geométricos de viñeteado, y/o a los defectos de contraste, y/o a los defectos de uniformidad del flash, y/o al ruido del captador, y/o al grano, y/o a los defectos de astigmatismo, y/o a los defectos de aberración esférica.

Description

Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imágenes.
Preámbulo de la descripción Ámbito referido, problema planteado
La presente invención se refiere a un procedimiento y un sistema para proporcionar, según un formato estándar, informaciones formateas a medios de tratamiento de imágenes.
En este ámbito se conoce el formato Exif, descrito concretamente en el documento "An Image Data File Format for Digital Stiff Camera", de Watanabe et al., conferencia anual "Imaging on the information superhigway", 1995, páginas 421 a 434.
Solución
La invención se define en las reivindicaciones independientes 1 y 12. Las reivindicaciones dependientes definen modos de realización preferidos.
Procedimiento
La invención se refiere a un procedimiento para proporcionar, según un formato estándar, informaciones formateadas a medios de tratamiento de imágenes, en concreto programas y/o componentes. Las informaciones formateadas están relacionadas con defectos de una cadena de aparatos. La cadena de aparatos incluye en concreto al menos un aparato de captura de imagen y/o un aparato de restitución de imagen. Los medios de tratamiento de imágenes utilizan las informaciones formateadas para modificar la calidad de al menos una imagen procedente o destinada a la cadena de aparatos. Las informaciones formateadas incluyen datos que caracterizan defectos del aparato de captura de imagen, en concreto las características de distorsión y/o datos que caracterizan defectos del aparato de restitución de imágenes, en especial las características de distorsión.
El procedimiento incluye la etapa de rellenar al menos un campo del formato estándar con las informaciones formateadas. El campo está designado por un nombre de campo. El campo contiene al menos un valor de campo.
Preferentemente, según la invención, el procedimiento es tal que el campo es relativo a los defectos de picado del aparato de captura de imagen y/o del aparato de restitución de imagen. El procedimiento es tal que el campo contiene al menos un valor relativo a los defectos de picado del aparato de captura de imagen y/o de restitución de imagen.
Preferentemente, según la invención, el procedimiento es tal que el campo es relativo a los defectos de colorimetría del aparato de captura de imagen y/o del aparato de restitución de imagen. El procedimiento es tal que el campo contiene al menos un valor relativo a los defectos de colorimetría del aparato de captura de imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el procedimiento es tal que el campo es relativo a los defectos geométricos de distorsión y/o a los defectos geométricos de aberración cromática del aparato de captura de imagen y/o del aparato de restitución de imagen. El procedimiento es tal que el campo contiene al menos un valor relativo a los defectos geométricos de distorsión y/o a los defectos geométricos de aberración cromática del aparato de captura de imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el procedimiento es tal que el campo es relativo a los defectos geométricos de viñeteado y/o a los defectos de contraste del aparato de captura de imagen y/o del aparato de restitución de imagen. El procedimiento es tal que el campo contiene al menos un valor relativo a los defectos geométricos de viñeteado y/o a los defectos de contraste del aparato de captura de imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el procedimiento es tal que el campo contiene al menos un valor relativo a las desviaciones.
Preferentemente, según la invención, las informaciones formateadas están compuestas al menos en parte por parámetros de un modelo de transformación parametrizable, representativo de defectos de picado del aparato de captura de imagen y/o del aparato de restitución. El procedimiento es tal que el valor o los valores contenidos en el campo relativo a los defectos de picado están compuestos al menos en parte por parámetros del modelo de transformación parametrizable. De la combinación de rasgos técnicos se deriva que los medios de tratamiento de imagen pueden utilizar los parámetros del modelo de transformación parametrizable para calcular la forma corregida o la forma corregida de restitución de un punto de la imagen.
Preferentemente, según la invención, las informaciones formateadas están compuestas al menos en parte por parámetros de un modelo de transformación parametrizable, representativo de defectos de colorimetría del aparato de captura de imagen y/o del aparato de restitución. El procedimiento es tal que el valor o los valores contenidos en el campo relativo a los defectos de colorimetría están compuestos al menos en parte por parámetros del modelo de transformación parametrizable. De la combinación de rasgos técnicos se deriva que los medios de tratamiento de imagen pueden utilizar los parámetros del modelo de transformación parametrizable para calcular el color corregido o el color corregido de restitución de un punto de la imagen.
Preferentemente, según la invención, las informaciones formateadas están compuestas al menos en parte por parámetros del modelo de transformación parametrizable, representativo de defectos geométricos de distorsión y/o de defectos geométricos de aberración cromática del aparato de captura de imagen y/o del aparato de restitución. El procedimiento es tal que el valor o los valores contenidos en el campo relativo a los defectos geométricos de distorsión y/o a los defectos geométricos de aberración cromática están compuestos al menos en parte por parámetros del modelo de transformación parametrizable. De la combinación de rasgos técnicos se deriva que los medios de tratamiento de imagen pueden utilizar los parámetros del modelo de transformación parametrizable para calcular la posición corregida o la posición corregida de restitución de un punto de la imagen.
Preferentemente, según la invención, las informaciones formateadas están compuestas al menos en parte por parámetros de un modelo de transformación parametrizable, representativo de defectos geométricos de viñeteado y/o de defectos de contraste del aparato de captura de imagen y/o del aparato de restitución. El procedimiento es tal que el valor o los valores contenidos en el campo relativo a los defectos geométricos de viñeteado y/o a los defectos de contrate están compuestos al menos en parte por parámetros del modelo de transformación parametrizable. De la combinación de rasgos técnicos se deriva que los medios de tratamiento de imagen pueden utilizar los parámetros del modelo de transformación parametrizable para calcular la intensidad corregida o la intensidad corregida de restitución de un punto de la imagen.
\vskip1.000000\baselineskip
Asociación informaciones formateadas con la imagen
Preferentemente, según la invención, para proporcionar, de acuerdo con un formato estándar, las informaciones formateadas a los medios de tratamiento de imágenes, el procedimiento incluye además la etapa de asociar las informaciones formateadas a la imagen.
Preferentemente, según la invención, la imagen se difunde en forma de un archivo. El archivo incluye además las informaciones formateadas.
\vskip1.000000\baselineskip
Focal variable
Preferentemente, según la invención, el aparato de captura de imagen y/o el aparato de restitución de imagen incluye al menos una característica variable según la imagen, en especial la focal. Al menos uno de los defectos, en concreto el defecto geométrico de distorsión, del aparato de captura de imagen y/o del aparato de restitución de imagen depende de la característica variable. El procedimiento es tal que al menos uno de los campos contiene al menos un valor en función de la característica variable según la imagen. De la combinación de rasgos técnicos se deriva que los medios de tratamiento de imagen pueden tratar la imagen en función de características variables.
\vskip1.000000\baselineskip
Informaciones formateadas medidas
Preferentemente, según la invención, las informaciones formateadas son al menos en parte informaciones formateadas medidas. Así, en el caso de esta variante de realización, las desviaciones son reducidas.
Preferentemente, según la invención, las informaciones formateadas son al menos en parte informaciones formateadas extendidas. Así, en el caso de esta variante de realización, las informaciones formateadas ocupan poca memoria. De esta manera igualmente, los cálculos de tratamiento de imágenes son más rápidos.
La imagen puede estar compuesta por planos de color. Preferentemente en el caso de esta variante de realización según la invención, las informaciones formateadas están al menos en parte relacionadas con los planos de color. De la combinación de los rasgos técnicos se deriva que el tratamiento de la imagen puede estar separado en tratamientos relacionados con cada plano de color. De la combinación de rasgos técnicos se deriva que al descomponer la imagen en planos de color antes del tratamiento, se puede reducir a valores positivos de píxeles en los planos de
color.
\vskip1.000000\baselineskip
Sistema
La invención se refiere a un sistema para proporcionar, según un formato estándar, informaciones formateadas a medios de tratamiento de imágenes, en concreto programas y/o componentes. Las informaciones formateadas están relacionadas con los defectos de una cadena de aparatos. La cadena de aparatos incluye especialmente al menos un aparato de captura de imagen y/o un aparato de restitución de imagen. Los medios de tratamiento de imágenes utilizan las informaciones formateadas para modificar la calidad de al menos una imagen procedente o destinada a la cadena de aparatos. Las informaciones formateadas incluyen datos que caracterizan los defectos del aparato de captura de imagen, en especial las características de distorsión y/o datos que caracterizan los defectos del aparato de restitución de imágenes, en concreto las características de distorsión.
El sistema incluye medios de tratamiento informáticos para añadir al menos a un campo del formato estándar las informaciones formateadas. El campo se designa con un nombre de campo. El campo contiene al menos un valor de campo.
Preferentemente, según la invención, el sistema es tal que el campo está relacionado con los defectos de picado del aparato de captura de imagen y/o del aparato de restitución de imagen. El sistema es tal que el campo contiene al menos un valor relacionado con los defectos de picado del aparato de captura de imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el sistema es tal que el campo está relacionado con los defectos de colorimetría del aparato de captura de imagen y/o del aparato de restitución de imagen. El sistema es tal que el campo contiene al menos un valor relativo a los defectos de colorimetría del aparato de captura de imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el sistema es tal que el campo está relacionado con los defectos geométricos de distorsión y/o con los defectos geométricos de aberración cromática del aparato de captura de imagen y/o del aparato de restitución de imagen. El sistema es tal que el campo contiene al menos un valor relativo a los defectos geométricos de distorsión y/o a los defectos geométricos de aberración cromática del aparato de captura de imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el sistema es tal que el campo está relacionado con los defectos geométricos de viñeteado y/o con los defectos de contraste del aparato de captura de imagen y/o del aparato de restitución de imagen. El sistema es tal que el campo contiene al menos un valor relativo a los defectos geométricos de viñeteado y/o a los defectos de contraste del aparato de captura de imagen y/o del aparato restitución de imagen.
Preferentemente, según la invención, el sistema es tal que el campo contiene al menos un valor relativo a desviaciones.
Preferentemente, según la invención, las informaciones formateadas están compuestas al menos en parte por parámetros de un modelo de transformación parametrizable representativo de defectos de picado del aparato de captura de imagen y/o del aparato de restitución. El sistema es tal que el valor o los valores contenidos en el campo relativo a los defectos de picado están compuestos al menos en parte por parámetros del modelo de transformación
parametrizable.
Preferentemente, según la invención, las informaciones formateadas están compuestas al menos en parte por parámetros de un modelo de transformación parametrizable representativo de los defectos de colorimetría del aparato de captura de imagen y/o del aparato de restitución. El sistema es tal que el valor o los valores contenidos en el campo relativo a los defectos de colorimetría están compuestos al menos en parte por parámetros del modelo de transformación parametrizable.
Preferentemente, según la invención, las informaciones formateadas están compuestas al menos en parte por parámetros de un modelo de transformación parametrizable representativo de los defectos geométricos de distorsión y/o de los defectos geométricos de aberración cromática del aparato de captura de imagen y/o del aparato de restitución. El sistema es tal que el valor o los valores contenidos en el campo relativo a los defectos geométricos de distorsión y/o a los defectos geométricos de aberración cromática están compuestos al menos en parte por parámetros del modelo de transformación parametrizable.
Preferentemente, según la invención, las informaciones formateadas están compuestas al menos en parte por parámetros de un modelo de transformación parametrizable representativo de los defectos geométricos de viñeteado y/o de los defectos de contraste del aparato de captura de imagen y/o del aparato de restitución. El sistema es tal que el valor o los valores contenidos en el campo relativo a los defectos geométricos de viñeteado y/o a los defectos de contraste están compuestos al menos en parte por parámetros del modelo de transformación parametrizable.
\vskip1.000000\baselineskip
Asociación de informaciones formateadas con la imagen
Preferentemente, según la invención, para proporcionar, según un formato estándar, las informaciones formateadas a los medios de tratamiento de imágenes, el sistema incluye además medios de tratamiento informático para asociar las informaciones formateadas a la imagen.
Preferentemente, según la invención, el sistema consta de medios de difusión para difundir la imagen en forma de archivo. El archivo incluye además las informaciones formateadas.
\vskip1.000000\baselineskip
Focal variable
El aparato de captura de imagen y/o el aparato de restitución de imagen puede incluir al menos una característica variable según la imagen, en concreto la focal. Al menos uno de los defectos, en concreto el defecto geométrico de distorsión, del aparato de captura de imagen y/o del aparato de restitución de imagen, depende de la característica variable. Preferentemente en el caso de esta variante de realización según la invención, el sistema es tal que al menos uno de los campos contiene al menos un valor en función de la característica variable según la imagen.
\vskip1.000000\baselineskip
Variantes de informaciones formateadas
Preferentemente, según la invención, las informaciones formateadas son al menos en parte informaciones formateadas medidas.
Preferentemente, según la invención, las informaciones formateadas son al menos en parte informaciones formateadas extendidas.
La imagen puede estar formada por planos de color. Preferentemente en el caso de esta variante de realización según la invención, las informaciones formateadas están relacionadas al menos en parte con planos de color.
\vskip1.000000\baselineskip
Descripción detallada
Otras características y ventajas de la invención aparecerán en la lectura de la descripción de las variantes de realización de la invención dada a modo de ejemplo indicativo, pero no limitativo, y de las figuras que representan respectivamente:
- figura 1: una vista esquemática de una captura de imagen,
- figura 2: una vista esquemática de una restitución de imagen,
- figura 3: una vista esquemática de píxeles de una imagen,
- figuras 4a y 4b: dos vistas esquemáticas de una escena de referencia,
- figura 5: el organigrama del método que permite calcular la diferencia entre la imagen matemática y la imagen corregida,
- figura 6: el organigrama del método que permite obtener la mejor transformación de restitución para un medio de restitución de imagen,
- figura 7: una vista esquemática de elementos que componen el sistema según la invención,
- figura 8: una vista esquemática de campos de informaciones formateadas,
- figura 9a: una vista esquemática de frente de un punto matemático,
- figura 9b: una vista esquemática de frente de un punto real de una imagen,
- figura 9c: una vista esquemática de perfil de un punto matemático,
- figura 9d: una vista esquemática de perfil de un punto real de una imagen,
- figura 10: una vista esquemática de una tabla de puntos característicos,
- figura 11: el organigrama del método que permite obtener las informaciones formateadas,
- figura 12: el organigrama del método que permite obtener la mejor transformación para un aparato de captura de imagen,
- figura 13: el organigrama del método que permite modificar la calidad de una imagen procedente o destinada a una cadena de aparatos,
- figura 14: un ejemplo de archivo que contiene informaciones formateadas,
- figura 15: un ejemplo de informaciones formateadas,
\newpage
- figura 16: una representación de parámetros de modelos parametrizables,
- figura 17: el organigrama del método que permite obtener la mejor transformación para un aparato de restitución de imagen.
En la figura 1, se ha representado: una escena 3 que incluye un objeto 107, un captador 101 y la superficie del captador 110, un centro óptico 111, un punto de observación 105 en una superficie del captador 110, una dirección de observación 106 pasando por el punto de observación 105, el centro óptico 111, la escena 3, una superficie 10 geométricamente asociada a la superficie del captador 110.
En la figura 2, se ha representado una imagen 103, un medio de restitución de imagen 19 y una imagen restituida 191 obtenida sobre el soporte de restitución 190.
En la figura 3, se ha representado una escena 3, un aparato de captura de imagen 1 y una imagen 103 constituida por píxeles 104.
En las figuras 4a y 4b, se han representado dos variantes de una escena de referencia 9.
En la figura 5, se ha representado un organigrama que emplea una escena 3, una proyección matemática 8 que proporciona una imagen matemática 70 de la escena 3, una proyección real 72 que proporciona una imagen 103 de la escena 3 para las características utilizadas 74, un modelo de transformación parametrizable 12 que proporciona una imagen corregida 71 de la imagen 103, la imagen corregida 71 que presenta una diferencia 73 con la imagen matemática 70.
En la figura 6, se ha representado un organigrama que emplea una imagen 103, una proyección real de restitución 90 que proporciona una imagen restituida 191 de la imagen 103 para las características de restitución utilizadas 95, un modelo de transformación parametrizable de restitución 97 que proporciona una imagen corregida de restitución 94 de la imagen 103, una proyección matemática de restitución 96 que proporciona una imagen matemática de restitución 92 de la imagen corregida de restitución 94 y que presenta una diferencia de restitución 93 con la imagen restituida 191.
En la figura 7, se ha representado un sistema que incluye un aparato de captura de imagen 1 constituido por una óptica 100, un captador 101 y una electrónica 102. En la figura 7 también se han representado una zona de memoria 16 que contiene una imagen 103, una base de datos 22 que contiene informaciones formateadas 15, medios de transmisión 18 de la imagen completada 120 constituida por la imagen 103 e informaciones formateadas 15 hacia medios de cálculo 17 que contienen programas de tratamiento de imagen 4.
En la figura 8 se han representado informaciones formateadas 15 constituidas por campos 91.
En la figura 9a a 9d se han representado una imagen matemática 70, una imagen 103, la posición matemática 40 de un punto, la forma matemática 41 de un punto, comparadas con la posición real 50 y la forma real 51 del punto correspondiente de la imagen.
En la figura 10, se ha representado una tabla 80 de puntos característicos.
En la figura 11, se ha representado un organigrama que emplea una imagen 103, características utilizadas 74, una base de datos de características 22. Las informaciones formateadas 15 se obtienen a partir de características utilizadas 74 y se almacenan en la base de datos 22. La imagen completada 120 se obtiene a partir de la imagen 103 y de las informaciones formateadas 15.
En la figura 12, se ha representado un organigrama que emplea una escena de referencia 9, una proyección matemática 8 que proporciona una clase de imagen de síntesis 7 de la escena de referencia 9, una proyección real 72 que proporciona una imagen de referencia 11 de la escena de referencia 9 para las características utilizadas 74. Este organigrama emplea igualmente un modelo de transformación parametrizable 12 que proporciona una imagen transformada 13 de la imagen de referencia 11. La imagen transformada 13 presenta una desviación 14 con la clase de imagen de síntesis 7.
En la figura 17, se ha representado un organigrama que emplea una referencia de restitución 209, una proyección real de restitución 90 que proporciona una referencia restituida 211 de dicha referencia de restitución 209 para las características de restitución utilizadas 95, un modelo de transformación parametrizable de restitución 97 que proporciona una imagen de referencia corregida de restitución 213 de dicha referencia de restitución 209, un modelo de transformación parametrizable de restitución inversa 297 que produce a partir de dicha imagen de referencia corregida de restitución 213 dicha referencia de restitución 209. Este organigrama emplea igualmente una proyección matemática de restitución 96 que proporciona una imagen de síntesis de restitución 307 de la imagen de referencia corregida de restitución 213. Dicha imagen de síntesis de restitución 307 presenta un desvío de restitución 214 con la referencia restituida 211.
\newpage
\global\parskip0.950000\baselineskip
Definiciones y descripción detallada
Otras características y ventajas de la invención aparecerán en la lectura de:
- las definiciones, a continuación explicitadas, de los términos técnicos empleados ilustradas al referirse a los ejemplos indicativos y no limitativos de las figuras 1 a 17,
- la descripción de las figuras 1 a 17.
\vskip1.000000\baselineskip
Escena
Se denominan escena 3 al lugar en el espacio de tres dimensiones que incluye objetos 107 iluminados por fuentes luminosas.
\vskip1.000000\baselineskip
Aparato de captura de imagen, imagen, captura de imagen
Ahora vamos a describir, refiriéndonos a las figuras 3 y 7, lo que entendemos por aparato de captura de imagen 1 e imagen 103. Se denomina aparato de captura de imagen 1 a un aparato constituido por una óptica 100, uno o varios captadores 101, una electrónica 102, una zona de memoria 16. Dicho aparato de captura de imagen 1 permite a partir de una escena 3 obtener imágenes digitales fijas 103 o animadas grabadas en la zona de memoria 16 o transmitidas a un dispositivo externo. Las imágenes animadas están constituidas por una sucesión en el tiempo, por imágenes fijas 103. Dicho aparato de captura de imagen 1 puede tomar la forma particularmente de un aparato de fotos, un camescopio, una cámara conectada o integrada en un PC, una cámara conectada o integrada en un asistente personal, una cámara conectada o integrada en un teléfono, un aparato de videoconferencia o una cámara o un aparato de medida sensible a otras longitudes de onda diferentes de la luz visible como, por ejemplo, una cámara térmica.
Se denomina captura de imagen al procedimiento que consiste en el cálculo de la imagen 103 con el aparato de captura de imagen 1.
En el caso en que un aparato incluya varios subconjuntos intercambiables, en particular una óptica 100, se llama aparato de captura de imagen 1 a una configuración particular del aparato.
\vskip1.000000\baselineskip
Medio de restitución de imagen, imagen restituida, restitución de imagen
Ahora vamos a describir, refiriéndonos a la figura 2, lo que entendemos por medio de restitución de imagen 19. Dicho medio de restitución de imagen 19 puede tomar la forma especialmente de una pantalla de visualización, un televisor, una pantalla plana, un proyector, gafas de realidad virtual, una impresora.
Dicho medio de restitución de imagen 19 consta de:
- una electrónica,
- una o varias fuentes de luz, electrones o tinta,
- uno o varios moduladores: dispositivos de modulación de luz, electrones o tinta,
- un dispositivo de focalización, que se presenta en concreto en forma de una óptica en el caso de un proyector luminoso, o en forma de bobinas de focalización de haz electrónico en el caso de una pantalla de tubo catódico, o en forma de filtros en el caso de una pantalla plana,
- un soporte de restitución 190 que se presenta especialmente en forma de una pantalla en el caso de una pantalla de tubo catódico, una pantalla plana o un proyector, en forma de soporte de impresión en el que la impresión se efectúa en el caso de una impresora, o en forma de una superficie virtual en el espacio en el caso de un proyector de imagen virtual.
Dicho medio de restitución de imagen 19 permite a partir de una imagen 103 obtener una imagen restituida 191 en el soporte de restitución 190.
Las imágenes animadas están constituidas por una sucesión en el tiempo, por imágenes fijas.
Se denomina restitución de imagen al procedimiento que consiste en la visualización o la impresión de la imagen por el medio de restitución de imagen 19.
En el caso de que un medio de restitución 19 esté formado por varios subconjuntos intercambiables o pueda desplazarse relativamente uno en relación con el otro, en particular el soporte de restitución 190, se denomina medio de restitución de imagen 19 a una configuración particular.
\newpage
\global\parskip1.000000\baselineskip
Superficie del captador, centro óptico, distancia focal
Ahora vamos a describir, refiriéndonos a la figura 1, lo que se denomina superficie del captador 110.
Se denomina superficie del captador 110 a la forma en el espacio dibujada por la superficie sensible del captador 101 del aparato de captura de imagen 1 en el momento de la captura de imagen. Esta superficie es generalmente plana.
Se denomina centro óptico 111 a un punto en el espacio asociado a la imagen 103 en el momento de la captura de imagen. Se denomina distancia focal a la distancia entre este punto 111 y el plano 110, en el caso de que la superficie del captador 110 sea plana.
\vskip1.000000\baselineskip
Píxel, valor de píxel, tiempo de exposición
Ahora vamos a describir, refiriéndonos a la figura 3, lo que entendemos por píxel 104 y valor de píxel.
Se denomina píxel 104 a una zona elemental de la superficie del captador 110 obtenida creando un mosaico generalmente regular de dicha superficie del captador 110. Se llama valor de píxel a un número asociado a este píxel 104.
Una captura de imagen consiste en determinar el valor de cada píxel 104. El conjunto de estos valores constituye la imagen 103.
Durante una captura de imagen, el valor de píxel se obtiene por la integración en la superficie del píxel 104, durante un período de tiempo llamado tiempo de exposición, de una parte del flujo luminoso procedente de la escena 3 a través de la óptica 100 y por conversión del resultado de esta integración en valor digital. La integración del flujo luminoso y/o la conversión del resultado de esta integración en valor digital se efectúan por medio de la electrónica 102.
Esta definición de la noción de valor de píxel se aplica en caso de imágenes 103 en blanco y negro o en color, ya sean fijas o animadas.
No obstante, según los casos, la parte del flujo luminoso afectada se obtiene de diversas maneras:
a) En el caso de una imagen 103 en color, la superficie del captador 110 incluye generalmente varios tipos de píxeles 104, respectivamente asociados a flujos luminosos de longitudes de onda diferentes, como por ejemplo píxeles rojos, verdes y azules.
b) En el caso de una imagen 103 en color, puede haber igualmente varios captadores 101 yuxtapuestos que reciben cada uno una parte del flujo luminoso.
c) En el caso de una imagen 103 en color, los colores utilizados pueden ser diferentes del rojo, verde y azul, como por ejemplo para la televisión NTSC americana, y pueden ser de un número superior a tres.
d) Por último, en el caso de una cámara de televisión de barrido entrelazado, las imágenes animadas producidas están constituidas por una alternancia de imágenes 103 que incluyen las líneas pares, e imágenes 103 que incluyen las líneas impares.
\vskip1.000000\baselineskip
Configuración utilizada, ajustes utilizados, características utilizadas
Se denomina configuración utilizada a la lista de subconjuntos amovibles del aparato de captura de imagen 1, por ejemplo la óptica 100, efectivamente montada en el aparato de captura de imagen 1 si es intercambiable. La configuración utilizada se caracteriza especialmente por:
- el tipo de óptica 100,
- el número de serie de la óptica 100 o cualquier otra designación.
Se denomina ajustes utilizados a:
- la configuración utilizada tal y como se ha definido anteriormente, así como
- el valor de los ajustes manuales o automáticos disponibles en la configuración utilizada y que tengan un impacto en el contenido de la imagen 103. El usuario puede realizar estos ajustes, en particular con ayuda de los botones, o pueden calcularse con el aparato de captura de imagen 1. Estos ajustes pueden almacenarse en el aparato, en concreto en un soporte amovible o en todo dispositivo conectado al aparato. Estos ajustes pueden incluir especialmente los ajustes de focalización, de diafragma y de focal de la óptica 100, los ajustes de tiempo de exposición, los ajustes de equilibrio de blancos, los ajustes de
\hbox{tratamiento de imagen integrados  como el zoom digital,
la compresión, el contraste.}
Se denomina características utilizadas 74 o juego de características utilizadas 74 a:
a) parámetros relacionados con las características técnicas intrínsecas al aparato de captura de imagen 1, determinadas en el momento de la concepción del aparato de captura de imagen 1. Por ejemplo, estos parámetros pueden incluir la fórmula de la óptica 100 de la configuración utilizada que afecten a los defectos geométricos y al picado de imágenes capturadas; la fórmula de la óptica 100 de la configuración utilizada incluye particularmente la forma, la disposición y el material de las lentes de la óptica 100.
Estos parámetros pueden incluir además:
- la geometría del captador 101, a saber, la superficie del captador 110 así como la forma y la disposición relativa de los píxeles 104 sobre esta superficie,
- el ruido generado por la electrónica 102,
- la ley de conversión de flujos luminosos en valor de píxel.
b) parámetros relacionados con las características técnicas intrínsecas al aparato de captura de imagen 1, determinadas en el momento de la fabricación del aparato de captura de imagen 1, y particularmente:
- el posicionamiento exacto de las lentes en la óptica 100 de la configuración utilizada,
- el posicionamiento exacto de la óptica 100 en relación con el captador 101.
c) parámetros relacionados con las características técnicas del aparato de captura de imagen 1, determinadas en el momento de la captura de la imagen 103 y particularmente:
- la posición y la orientación de la superficie del captador 110 en relación con la escena 3,
- los ajustes utilizados,
- los factores exteriores, como la temperatura, si es que tienen influencia.
d) las preferencias del usuario, en particular la temperatura de color a utilizar para la restitución de imágenes. El usuario selecciona estas preferencias, por ejemplo, con ayuda de botones.
\vskip1.000000\baselineskip
Punto de observación, dirección de observación
Ahora vamos a describir, refiriéndonos a la figura 1, lo que entendemos por punto de observación 105 y dirección de observación 106.
Se denomina superficie matemática 10 a una superficie geométricamente asociada a la superficie del captador 110. Por ejemplo, si la superficie del captador es plana, la superficie matemática 10 podrá confundirse con la del captador.
Se denomina dirección de observación 106 a una recta que pasa por al menos un punto de la escena 3 y por el centro óptico 111. Se denomina punto de observación 105 a la intersección de la dirección de observación 106 y de la superficie 10.
\vskip1.000000\baselineskip
Color observado, intensidad observada
Ahora vamos a describir, refiriéndonos a la figura 1, lo que entendemos por color observado e intensidad observada. Se denomina color observado al color de la luz emitida, transmitida o reflejada por dicha escena 3 en dicha dirección de observación 106 en un instante dado, y observada desde dicho punto de observación 105. Se denomina intensidad observada a la intensidad de la luz emitida por dicha escena 3 en dicha dirección de observación 106 en el mismo instante, y observada desde dicho punto de observación 105.
El color puede caracterizarse especialmente por una intensidad luminosa en función de una longitud de onda, o incluso por dos valores, como los medidos por un colorímetro. La intensidad puede caracterizarse por un valor medido con un fotómetro.
Dicho color observado y dicha intensidad observada dependen concretamente de la posición relativa de los objetos 107 en la escena 3 y de las fuentes de iluminación presentes, así como de características de transparencia y de reflexión de objetos 107 en el momento de la observación.
\vskip1.000000\baselineskip
Proyección matemática, imagen matemática, punto matemático, color matemático de un punto, intensidad matemática de un punto, forma matemática de un punto, posición matemática de un punto
Ahora vamos a describir, refiriéndonos especialmente a las figuras 1, 5, 9a, 9b, 9c y 9d, las nociones de proyección matemática 8, imagen matemática 70, punto matemático, color matemático de un punto, intensidad matemática de un punto, forma matemática 41 de un punto, posición matemática 40 de un punto.
Ahora vamos a describir, refiriéndonos a la figura 5, cómo se realiza una imagen matemática 70 por proyección matemática determinada 8 de al menos una escena 3 en la superficie matemática 10.
Previamente, vamos a describir lo que entendemos por proyección matemática determinada 8.
Una proyección matemática determinada 8 asocia una imagen matemática 70:
- a una escena 3 en el momento de la captura de una imagen 103,
- y a las características utilizadas 74.
Una proyección matemática determinada 8 es una transformación que permite determinar las características de cada punto de la imagen matemática 70 a partir de la escena 3 en el momento de la captura de imagen y de las características utilizadas 74.
De manera preferente, la proyección matemática 8 se define de la manera que se describe a continuación.
Se denomina posición matemática 40 del punto a la posición del punto de observación 105 en la superficie matemática 10.
Se denomina forma matemática 41 del punto a la forma geométrica, puntual, del punto de observación 105.
Se denomina color matemático del punto al color observado.
Se denomina intensidad matemática del punto a la intensidad observada.
Se denomina punto matemático a la asociación de la posición matemática 40, la forma matemática 41, el color matemático y la intensidad matemática para el punto de observación 105 considerado. La imagen matemática 70 está constituida por el conjunto de dichos puntos matemáticos.
La proyección matemática 8 de la escena 3 es la imagen matemática 70.
\vskip1.000000\baselineskip
Proyección real, punto real, color real de un punto, intensidad real de un punto, forma real de un punto, posición real de un punto
Ahora vamos a describir, refiriéndonos concretamente a las figuras 3, 5, 9a, 9b, 9c y 9d, las nociones de proyección real 72, punto real, color real de un punto, intensidad real de un punto, forma real 51 de un punto, posición real 50 de un punto.
Durante una captura de imagen, el aparato de captura de imagen 1 asociado a las características utilizadas 74 produce una imagen 103 de la escena 3. La luz procedente de la escena 3 según una dirección de observación 106, atraviesa la óptica 100 y llega a la superficie del captador 110.
Se obtiene entonces para dicha dirección de observación lo que denominamos un punto real que presenta diferencias en relación con un punto matemático.
Al referirnos a las figuras 9a y 9d, ahora vamos a describir las diferencias entre el punto real y el punto matemático.
La forma real 51 asociada a dicha dirección de observación 106 no es un punto en la superficie del captador, pero tiene una forma de nube en el espacio de tres dimensiones, que tiene una intersección con uno o varios píxeles 104. Estas diferencias provocan en particular la coma, la aberración esférica, el astigmatismo, el agrupamiento en píxeles 104, aberración cromática, la profundidad de campo, la difracción, las reflexiones parásitas, la curvatura de campo del aparato de captura de imagen 1. Dan una impresión de efecto borroso, de ausencia de picado de la imagen 103.
Además, la posición real 50 asociada a dicha dirección de observación 106 presenta una diferencia en relación con la posición matemática 40 de un punto. Esta diferencia provoca en particular la distorsión geométrica, que proporciona la impresión de deformación: por ejemplo, las paredes verticales parecen curvas. Se debe también al hecho de que el número de píxeles 104 es limitado y en consecuencia la posición real 50 sólo puede tomar un número finito de
valores.
Además, la intensidad real asociada a dicha dirección de observación 106 presenta diferencias en relación con la intensidad matemática de un punto. Estas diferencias provocan en particular el gamma y el viñeteado: por ejemplo, los bordes de la imagen 103 parecen más oscuros. Por otra parte, puede añadirse ruido a la señal.
Por último, el color real asociado a dicha dirección de observación 106 presenta diferencias en relación con el color matemático de un punto. Estas diferencias provocan en particular el gamma y la dominante de color. Por otra parte, puede añadirse ruido a la señal.
Se denomina punto real a la asociación de la posición real 50, la forma real 51, el color real y la intensidad real para la dirección de observación 106 considerada.
La proyección real 72 de la escena 3 está constituida por el conjunto de puntos reales.
\vskip1.000000\baselineskip
Modelo de transformación parametrizable, parámetros, imagen corregida
Se denomina modelo de transformación parametrizable 12 (o de manera condensada, transformación parametrizable 12) a una transformación matemática que permite obtener a partir de una imagen 103 y el valor de parámetros, una imagen corregida 71. Dichos parámetros pueden calcularse particularmente a partir de características utilizadas 74, como se indica a continuación.
Dicha transformación parametrizable 12 permite en particular determinar para cada punto real de la imagen 103 la posición corregida de dicho punto real, el color corregido de dicho punto real, la intensidad corregida de dicho punto real, la forma corregida de dicho punto real, a partir del valor de parámetros, de la posición real de dicho punto real y de valores de píxeles de la imagen 103. La posición corregida puede calcularse, por ejemplo, con ayuda de polinomios de grado fijado en función de la posición real; los coeficientes de polinomios dependen del valor de los parámetros. El color corregido y la intensidad corregida pueden ser, por ejemplo, sumas ponderadas de valores de píxeles; los coeficientes dependen del valor de los parámetros y de la posición real, o incluso de funciones no lineales de valores de píxeles de la imagen 103.
Se denomina modelo de transformación parametrizable inversa 212 (o de manera condensada, transformación parametrizable inversa 212) a una transformación matemática que permite obtener a partir de una imagen corregida 71, y del valor de parámetros, una imagen 103. Dichos parámetros pueden calcularse particularmente a partir de características utilizadas 74 tal y como se indica a continuación.
Dicha transformación parametrizable inversa 212 permite en particular determinar, para cada punto de la imagen corregida 71, el punto real de la imagen 103 correspondiente a dicho punto de la imagen corregida 71 y particularmente la posición de dicho punto real, el color de dicho punto real, la intensidad de dicho punto real, la forma de dicho punto real, a partir del valor de los parámetros y de la imagen corregida 71. La posición del punto real puede calcularse, por ejemplo, con ayuda de polinomios de grado fijado en función de la posición del punto de la imagen corregida 71; los coeficientes de los polinomios dependen del valor de los parámetros.
Los parámetros pueden incluir especialmente: la focal de la óptica 100 de la configuración utilizada o un valor relacionado como la posición de un grupo de lentes, la focalización de la óptica 100 de la configuración utilizada o un valor relacionado como la posición de un grupo de lentes, la apertura de la óptica 100 de la configuración utilizada o un valor relacionado como la posición del diafragma.
\vskip1.000000\baselineskip
Diferencia entre la imagen matemática y la imagen corregida
Refiriéndonos a la figura 5, se denomina diferencia 73 entre la imagen matemática 70 y la imagen corregida 71, para una escena 3 dada y características utilizadas 74 dadas, a uno o varios valores determinados a partir de números que caracterizan la posición, el color, la intensidad, la forma de la totalidad o parte de los puntos corregidos y de la totalidad o parte de los puntos matemáticos.
Por ejemplo, la diferencia 73 entre la imagen matemática 70 y la imagen corregida 71, para una escena 3 dada y características utilizadas 74 dadas, puede determinarse de la manera siguiente:
- se eligen puntos característicos que puedan ser por ejemplo los puntos de una tabla ortogonal 80 de puntos dispuestos regularmente tal y como se presenta en la figura 10.
- Se calcula la diferencia 73, por ejemplo efectuando la suma para cada punto característico de valores absolutos de diferencias entre cada número que caracteriza la posición corregida, el color corregido, la intensidad corregida, la forma corregida respectivamente para el punto real y para el punto matemático. La función suma de valores absolutos de diferencias puede reemplazarse por otra función como la media, la suma de cuadrados o cualquier otra función que permita combinar los números.
\newpage
\global\parskip0.920000\baselineskip
Escena de referencia
Se denomina escena de referencia 9 a una escena 3 de la que se conocen ciertas características. A modo de ejemplo, la figura 4a presenta una escena de referencia 9 constituida por una hoja de papel que incluye círculos rellenos de negro y dispuestos regularmente. La figura 4b presenta otra hoja de papel que incluye los mismos círculos a los que se han añadido trazos y superficies coloreadas. Los círculos sirven para medir la posición real 50 de un punto, los trazos la forma real 51 de un punto, las superficies coloreadas el color real de un punto y la intensidad real de un punto. Esta escena de referencia 9 puede estar constituida por otro material diferente del papel.
\vskip1.000000\baselineskip
Imagen de referencia
Refiriéndonos a la figura 12, ahora vamos a definir la noción de imagen de referencia 11. Se denomina imagen de referencia 11 a una imagen de la escena de referencia 9 obtenida con el aparato de captura de imagen 1.
\vskip1.000000\baselineskip
Imagen de síntesis, clase de imágenes de síntesis
Refiriéndonos a la figura 12, ahora vamos a definir la noción de imagen de síntesis 207 y de clase de imágenes de síntesis 7. Se denomina imagen de síntesis 207 a una imagen matemática 70 obtenida por proyección matemática 8 de una escena de referencia 9. Se denomina clase de imágenes de síntesis 7 a un conjunto de imágenes matemáticas 70 obtenidas por proyección matemática 8 de una o varias escenas de referencia 9 para uno o varios juegos de características utilizadas 74. En el caso en que sólo haya una escena de referencia 9 y un juego de características utilizadas 74, la clase de imágenes de síntesis 7 solo incluye una imagen de síntesis 207.
\vskip1.000000\baselineskip
Imagen transformada
Refiriéndonos a la figura 12, ahora vamos a definir la noción de imagen transformada 13. Se denomina imagen transformada 13 a la imagen corregida obtenida por aplicación de un modelo de transformación parametrizable 12 a una imagen de referencia 11.
\vskip1.000000\baselineskip
Imagen transformada próxima a una clase de imágenes de síntesis, desviación
Refiriéndonos a la figura 12, ahora vamos a describir la noción de imagen transformada 13 próxima a una clase de imágenes de síntesis 7 y la noción de desviación 14.
Se define la diferencia entre una imagen transformada 13 y una clase de imágenes de síntesis 7 como la diferencia más reducida entre dicha imagen transformada 13 y cualquiera de las imágenes de síntesis 207 de dicha clase de imágenes de síntesis 7.
A continuación, vamos a describir, refiriéndonos a la figura 12, un cuarto algoritmo que permite elegir, entre los modelos de transformación parametrizables 12, el que permite transformar cada imagen de referencia 11 en una imagen transformada 13 próxima a la clase de imágenes de síntesis 7 de la escena de referencia 9 correspondiente a dicha imagen de referencia 11, y esto en diferentes casos de escenas de referencia 9 y características utilizadas 74.
- En el caso de una escena de referencia 9 dada asociada a un juego de características utilizadas 74 dadas, se elige la transformación parametrizable 12 (y sus parámetros) que permite transformar la imagen de referencia 11 en la imagen transformada 13 que presenta la diferencia más reducida con la clase de imágenes de síntesis 7. La clase de imagen de síntesis 7 y la imagen transformada 13 se denominan entonces próximas. Se denomina desviación 14 a dicha diferencia.
- En el caso de un grupo de escenas de referencia dadas asociadas a juegos de características utilizadas 74 dados, se elige la transformación parametrizable 12 (y sus parámetros) en función de diferencias entre la imagen transformada 13 de cada escena de referencia 9 y la clase de imágenes de síntesis 7 de cada escena de referencia 9 considerada. Se elige la transformación parametrizable 12 (y sus parámetros) que permite transformar las imágenes de referencia 11 en imágenes transformadas 13 de manera que la suma de dichas diferencias sea la más reducida. La función suma puede reemplazarse por otra función como el producto. La clase de imagen de síntesis 7 y las imágenes transformadas 13 se denominan entonces próximas. Se denomina desviación 14 a un valor obtenido a partir de dichas diferencias, por ejemplo calculando la media.
- En el caso de que algunas características utilizadas 74 sean desconocidas, es posible determinarlas a partir de la captura de varias imágenes de referencia 11 de al menos una escena de referencia 9. En este caso, se determinan simultáneamente las características desconocidas y la transformación parametrizable 12 (y sus parámetros) que permite transformar las imágenes de referencia 11 en imágenes transformadas 13 de manera que la suma de dichas diferencias sea la más reducida, en concreto por cálculo iterativo o por resolución de ecuaciones relativas a la suma de dichas diferencias y/o su producto y/o cualquier otra combinación apropiada de dichas diferencias. La clase de imagen de síntesis 7 y las imágenes transformadas 13 se denominan entonces próximas. Las características desconocidas pueden ser, por ejemplo, las posiciones y las orientaciones relativas de la superficie del captador 110 y de cada escena de referencia 9 considerada. Se denomina desviación 14 a un valor obtenido a partir de dichas diferencias, por ejemplo calculando la media. A continuación, vamos a describir refiriéndonos a la figura 12, un primer algoritmo de cálculo que permite proceder a una elección:
- en un conjunto de modelos de transformación parametrizables,
- en un conjunto de modelos de transformación parametrizables inversos,
- en un conjunto de imágenes de síntesis,
- en un conjunto de escenas de referencia y en un conjunto de imágenes transformadas.
Esta elección se refiere a:
- una escena de referencia 9 y/o
- una imagen transformada 13 y/o
- un modelo de transformación parametrizable 12 que permite transformar la imagen de referencia 11, obtenida capturando la escena de referencia 9, por medio del aparato de captura de imagen 1, en la imagen transformada 13 y/o
- un modelo de transformación parametrizable inverso 212 que permite transformar la imagen transformada 13 en la imagen de referencia 11 y/o
- una imagen de síntesis 207 obtenida a partir de la escena de referencia 9 y/o obtenida a partir de la imagen de referencia 11.
La elección aceptada es la que minimiza la diferencia entre la imagen transformada 13 y la imagen de síntesis 207. La imagen de síntesis 207 y la imagen transformada 13 se denominan entonces próximas. Se denomina desviación 14 a dicha diferencia.
Preferentemente, según la invención, el primer algoritmo de cálculo permite elegir en un conjunto de proyecciones matemáticas una proyección matemática 8 que permite realizar la imagen de síntesis 207 a partir de la escena de referencia 9.
A continuación, vamos a describir refiriéndonos a la figura 12, un segundo algoritmo de cálculo que incluye las etapas de:
- elegir al menos una escena de referencia 9,
- capturar al menos una imagen de referencia 11 de cada escena de referencia 9 por medio del aparato de captura de imagen 1.
Este segundo algoritmo incluye además la etapa de elegir en un conjunto de modelos de transformación parametrizables y en un conjunto de imágenes de síntesis:
- un modelo de transformación parametrizable 12 que permite transformar la imagen de referencia 11 en una imagen transformada 13 y/o
- una imagen de síntesis 207 obtenida a partir de la escena de referencia 9 y/o obtenida a partir de la imagen de referencia 11.
La elección tomada es la que minimiza la diferencia entre la imagen transformada 13 y la imagen de síntesis 207. La imagen de síntesis 207 y la imagen transformada 13 se denominan entonces próximas. Se denomina desviación 14 a dicha diferencia.
Preferentemente, según la invención, el segundo algoritmo de cálculo permite elegir en un conjunto de proyecciones matemáticas una proyección matemática 8 que permite realizar la imagen de síntesis 207 a partir de la escena de referencia 9.
\vskip1.000000\baselineskip
Mejor transformación
Se denomina mejor transformación a:
- la transformación que, entre los modelos de transformación parametrizables 12, permite transformar cada imagen de referencia 11 en una imagen transformada 13 próxima a la clase de imágenes de síntesis 7 de la escena de referencia 9 correspondiente a dicha imagen de referencia 11 y/o
- los modelos de transformación parametrizables 12 entre los modelos de transformación parametrizables, de manera que la imagen transformada 13 esté próxima a la imagen de síntesis 207 y/o
- los modelos de transformación parametrizables inversos 212 entre los modelos de transformación parametrizables inversos, de manera que la imagen transformada 13 esté próxima a la imagen de síntesis 207.
\vskip1.000000\baselineskip
Calibrado
Se denomina calibrado a un procedimiento que permite obtener datos relativos a las características intrínsecas del aparato de captura de imagen 1 para una o varias configuraciones utilizadas constituidas cada una por una óptica 100 asociada a un aparato de captura de imagen 1.
Caso 1: en el caso de que sólo haya una configuración, dicho procedimiento incluye las etapas siguientes:
- la etapa de montar dicha óptica 100 en dicho aparato de captura de imagen 1,
- la etapa de elegir una o varias escenas de referencia 9,
- la etapa de elegir varias características utilizadas 74,
- la etapa de capturar imágenes de dichas escenas de referencia 9 para dichas características utilizadas,
- la etapa de calcular la mejor transformación para cada grupo de escenas de referencia 9 correspondiente a las mismas características utilizadas 74.
Caso 2: en el caso de que se consideren todas las configuraciones correspondientes a un aparato de captura de imagen 1 dado y a todas las ópticas 100 de un mismo tipo, dicho procedimiento incluye las etapas siguientes:
- la etapa de elegir una o varias escenas de referencia 9,
- la etapa de elegir varias características utilizadas 74,
- la etapa de calcular imágenes 103 a partir de características utilizadas 74 y especialmente fórmulas de la óptica 100 de la configuración utilizada y valores de parámetros, por ejemplo con ayuda de un programa de cálculo de óptica por trazado de rayos,
- la etapa de calcular la mejor transformación para cada grupo de escenas de referencia 9 correspondientes a las mismas características utilizadas.
Caso 3: en el caso de que se consideren todas las configuraciones correspondientes a una óptica 100 dada y a todos los aparatos de captura de imagen 1 de un mismo tipo, dicho procedimiento incluye las etapas siguientes:
- la etapa de montar dicha óptica 100 en un aparato de captura de imagen 1 del tipo considerado,
- la etapa de elegir una o varias escenas de referencia 9,
- la etapa de elegir varias características utilizadas 74,
- la etapa de capturar imágenes de dichas escenas de referencia 9 para dichas características utilizadas,
- la etapa de calcular la mejor transformación para cada grupo de escenas de referencia 9 correspondientes a las mismas características utilizadas.
El calibrado puede llevarlo a cabo, de manera preferente, el constructor del aparato de captura de imagen 1, para cada aparato y configuración en el caso 1. Este método es más preciso pero más exigente y bien adaptado en el caso en que la óptica 100 no sea intercambiable.
El calibrado puede llevarlo a cabo alternativamente el constructor del aparato de captura de imagen 1, para cada tipo y configuración de aparato en el caso 2. Este método es menos preciso pero es más simple.
El calibrado puede llevarlo a cabo alternativamente el constructor del aparato de captura de imagen 1 o un tercero, para cada óptica 100 y tipo de aparato en el caso 3. Este método es un compromiso que permite utilizar una óptica 100 en todos los aparatos de captura de imagen 1 de un tipo sin tener que rehacer el calibrado para cada combinación de aparato de captura de imagen 1 y óptica 100. En el caso de un aparato de captura de imagen de óptica no intercambiable, el método permite hacer el calibrado una sola vez para un tipo de aparato dado.
El calibrado puede llevarlo a cabo alternativamente el distribuidor o instalador del aparato, para cada aparato de captura de imagen 1 y configuración en el caso 1.
\global\parskip1.000000\baselineskip
El calibrado puede llevarlo a cabo alternativamente el distribuidor o instalador del aparato, para cada óptica 100 y tipo de aparato en el caso 3.
El calibrado puede llevarlo a cabo alternativamente el usuario del aparato, para cada aparato y configuración en el caso 1.
El calibrado puede llevarlo a cabo alternativamente el usuario del aparato, para cada óptica 100 y tipo de aparato en el caso 3.
\vskip1.000000\baselineskip
Concepción de óptica digital
Se denomina concepción de óptica digital a un procedimiento para disminuir el coste de la óptica 100, que consiste en:
- concebir o elegir en un catálogo una óptica 100 que tenga defectos, concretamente de posicionamiento de puntos reales,
- disminuir el número de lentes, y/o
- simplificar la forma de las lentes, y/o
- utilizar materiales, tratamientos o procedimientos de fabricación menos costosos.
Dicho procedimiento incluye las etapas siguientes:
- la etapa de elegir una diferencia (en el sentido anteriormente definido) aceptable,
- la etapa de elegir una o varias escenas de referencia 9,
- la etapa de elegir varias características utilizadas 74.
Dicho procedimiento incluye además la iteración de las etapas siguientes:
- la etapa de elegir una fórmula óptica que incluya en concreto la forma, el material y la disposición de las
lentes,
- la etapa de calcular imágenes 103 a partir de características utilizadas 74 y especialmente fórmulas de la óptica 100 de la configuración utilizada, empleando, por ejemplo, un programa de cálculo de óptica por trazado de rayos, o efectuando medidas en un prototipo,
- la etapa de calcular la mejor transformación para cada grupo de escenas de referencia 9 correspondiente a las mismas características utilizadas 74,
- la etapa de verificar si la diferencia es aceptable, hasta que la diferencia sea aceptable.
\vskip1.000000\baselineskip
Informaciones formateadas
Se denomina informaciones formateadas 15 asociadas a la imagen 103 o informaciones formateadas 15 a la totalidad o parte de los datos siguientes:
- datos relativos a las características técnicas intrínsecas del aparato de captura de imagen 1, en especial las características de distorsión, y/o
- datos relativos a las características técnicas del aparato de captura de imagen 1 en el momento de la captura de imagen, en especial el tiempo de exposición, y/o
- datos relativos a las preferencias de dicho usuario, en especial la temperatura de colores, y/o
- datos relativos a las desviaciones 14.
\vskip1.000000\baselineskip
Base de datos de características
Se denomina base de datos de características 22 a una base de datos que incluye, para uno o varios aparatos de captura de imagen 1, y para una o varias imágenes 103, informaciones formateadas 15.
Dicha base de datos de características 22 puede almacenarse de manera centralizada o repartida, y puede estar concretamente:
- integrada en el aparato de captura de imagen 1,
- integrada en la óptica 100,
- integrada en un dispositivo de almacenamiento amovible,
- Integrada en un PC u otro ordenador conectado a otros elementos durante la captura de imagen,
- Integrada en un PC u otro ordenador conectado a otros elementos después de la captura de imagen,
- integrada en un PC u otro ordenador capaz de leer un soporte de almacenamiento común con el aparato de captura de imagen 1,
- integrada en un servidor a distancia conectado a un PC u otro ordenador conectado él mismo a otros elementos de la captura de imagen.
\vskip1.000000\baselineskip
Campos
Ahora vamos a definir la noción de campos 91 refiriéndonos a la figura 8. Las informaciones formateadas 15 asociadas a la imagen 103 pueden grabarse con varias formas y estructurarse en una o varias tablas pero corresponden lógicamente a la totalidad o parte de los campos 91, que incluyen:
(a) la distancia focal,
(b) la profundidad de campo,
(c) los defectos geométricos.
Dichos defectos geométricos incluyen los defectos de geometría de la imagen 103 caracterizados por los parámetros asociados a las características de la toma de vista 74 y una transformación parametrizable que representa las características del aparato de captura de imagen 1 en el momento de la toma de vista. Dichos parámetros y dicha transformación parametrizable permiten calcular la posición corregida de un punto de la imagen 103.
Dichos defectos geométricos incluyen además el viñeteado caracterizado por los parámetros asociados a las características de la toma de vista 74 y una transformación parametrizable que representa las características del aparato de captura de imagen 1 en el momento de la toma de vista. Dichos parámetros y dicha transformación parametrizable permiten calcular la intensidad corregida de un punto de la imagen 103.
Dichos defectos geométricos incluyen además la dominante de color caracterizada por los parámetros asociados a las características de la toma de vista 74 y una transformación parametrizable que representa las características del aparato de captura de imagen 1 en el momento de la toma de vista. Dichos parámetros y dicha transformación parametrizable permiten calcular el color corregido de un punto de la imagen 103.
Dichos campos 91 incluyen además (d) el picado de la imagen 103.
Dicho picado incluye el efecto borroso de resolución de la imagen 103 caracterizado por los parámetros asociados a las características de la toma de vista 74 y una transformación parametrizable que representa las características del aparato de captura de imagen 1 en el momento de la toma de vista. Dichos parámetros y dicha transformación parametrizable permiten calcular la forma corregida de un punto de la imagen 103. El efecto borroso cubre en particular la coma, la aberración esférica, el astigmatismo, el agrupamiento en píxeles 104, la aberración cromática, la profundidad de campo, la difracción, las reflexiones parásitas, la curvatura de campo.
Dicho picado incluye además el efecto borroso de profundidad de campo, en concreto las aberraciones esféricas, la coma, el astigmatismo. Dicho efecto borroso depende de la distancia de los puntos de la escena 3 en relación con el aparato de captura de imagen 1 y se caracteriza por los parámetros asociados a las características de la toma de vista 74 y una transformación parametrizable que representa las características del aparato de captura de imagen 1 en el momento de la toma de vista. Dichos parámetros y dicha transformación parametrizable permiten calcular la forma corregida de un punto de la imagen 103.
Dichos campos 91 incluyen además (e) parámetros del método de cuantificación. Dichos parámetros dependen de la geometría y la física del captador 101, de la arquitectura de la electrónica 102 y de eventuales programas de tratamiento.
\newpage
Dichos parámetros incluyen una función que representa las variaciones de intensidad de un píxel 104 en función de la longitud de onda y del flujo luminoso procedente de dicha escena 3. Dicha función incluye especialmente las informaciones de gamma.
Dichos parámetros incluyen además:
- la geometría de dicho captador 101, en concreto la forma, la posición relativa y el número de elementos sensibles de dicho captador 101,
- una función que representa la distribución espacial y temporal del ruido del aparato de captura de imagen 1,
- un valor que representa el tiempo de exposición de la captura de imagen.
Dichos campos 91 incluyen además (f) parámetros de tratamientos digitales efectuados por el aparato de captura de imagen 1, en concreto el zoom digital, la compresión. Estos parámetros dependen del programa de tratamiento del aparato de captura de imagen 1 y de los ajustes del usuario.
Dichos campos 91 incluyen además:
(g) parámetros que representan las preferencias del usuario, en especial en lo relacionado con el grado de efecto borroso, la resolución de la imagen 103.
(h) las desviaciones 14.
\vskip1.000000\baselineskip
Cálculo de informaciones formateadas
Las informaciones formateadas 15 pueden calcularse y grabarse en la base de datos 22 en varias etapas.
a) una etapa al término de la concepción del aparato de captura de imagen 1.
Esta etapa permite obtener características técnicas intrínsecas al aparato de captura de imagen 1, y concretamente:
-
la distribución espacial y temporal del ruido generado por la electrónica 102,
-
la ley de conversión de flujos luminosos en valor de píxel,
-
la geometría del captador 101.
b) una etapa al término del calibrado o concepción de óptica digital.
Esta etapa permite obtener otras características técnicas intrínsecas del aparato de captura de imagen 1, y en concreto, para cierto número de valores de características utilizadas, la mejor transformación asociada y la desviación 14 asociada.
c) una etapa de elección de preferencias del usuario con ayuda de botones, menús o soporte amovible o conexión a otro dispositivo.
d) una etapa de captura de imagen.
Esta etapa (d) permite obtener características técnicas del aparato de captura de imagen 1 en el momento de la captura de imagen, y en concreto el tiempo de exposición, determinado por los ajustes manuales o automáticos efectuados.
La etapa (d) permite además obtener la distancia focal. La distancia focal se calcula a partir de:
- una medida de la posición del grupo de lentes de focal variable de la óptica 100 de la configuración utilizada, o
- una consigna dada al motor de posicionamiento, o
- un dato constructor si la focal es fija.
Por último, dicha distancia focal puede estar determinada por el análisis del contenido de la imagen 103.
La etapa (d) permite además obtener la profundidad de campo. La profundidad de campo se calcula a partir de:
- una medida de la posición del grupo de lentes de focalización de la óptica 100 de la configuración utilizada, o
- una consigna dada al motor de posicionamiento, o
- un dato constructor si la profundidad de campo es fija.
La etapa (d) permite además obtener los defectos de geometría y de picado. Los defectos de geometría y de picado corresponden a una transformación calculada con ayuda de una combinación de transformaciones de la base de datos de características 22 obtenidas al término de la etapa (b). Esta combinación se elige para representar los valores de parámetros correspondientes a las características utilizadas 74, especialmente la distancia focal.
La etapa (d) permite además obtener los parámetros de tratamiento digitales efectuados por el aparato de captura de imagen 1. Estos parámetros se determinan mediante los ajustes manuales o automáticos efectuados.
El cálculo de las informaciones formateadas 15 según las etapas (a) a (d) puede realizarse mediante:
- un dispositivo o programa integrado en el aparato de captura de imagen 1, y/o
- un programa piloto en un PC u otro ordenador, y/o
- un programa en un PC u otro ordenador, y/o
- una combinación de los tres.
Las transformaciones anteriormente mencionadas en la etapa (b) y en la etapa (d) pueden almacenarse en forma de:
- una fórmula matemática general,
- una fórmula matemática para cada punto,
- una fórmula matemática para algunos puntos característicos.
Las fórmulas matemáticas pueden describirse mediante:
- una lista de coeficientes,
- una lista de coeficientes y coordenadas.
Estos diferentes métodos permiten realizar un compromiso entre el tamaño de la memoria disponible para almacenar las fórmulas y la potencia de cálculo disponible para calcular las imágenes corregidas 71.
Además, con el fin de encontrar los datos, se graban identificadores asociados a los datos en la base de datos 22. Estos identificadores incluyen particularmente:
- un identificador del tipo y de la referencia del aparato de captura de imagen 1,
- un identificador del tipo y de la referencia de la óptica 100 si es amovible,
- un identificador del tipo y de la referencia de cualquier otro elemento amovible que tenga una relación con las informaciones almacenadas,
- un identificador de la imagen 103,
- un identificador de la información formateada 15.
\vskip1.000000\baselineskip
Imagen completada
Como se describe la figura 11, se denomina imagen completada 120 a la imagen 103 asociada a las informaciones formateadas 15. Esta imagen completada 120 puede tomar la forma, de manera preferente, de un archivo P100, tal y como se describe en la figura 14. La imagen completada 120 puede estar repartida igualmente en varios
archivos.
La imagen completada 120 puede calcularse por medio del aparato de captura de imagen 1. También puede calcularse por medio de un dispositivo de cálculo externo, por ejemplo, un ordenador.
\vskip1.000000\baselineskip
Programa de tratamiento de imagen
Se denomina programa de tratamiento de imagen 4 a un programa que acepta una o varias imágenes completadas 120 y que efectúa tratamientos en estas imágenes. Estos tratamientos pueden consistir especialmente en:
- calcular una imagen corregida 71,
- efectuar medidas en el mundo real,
- combinar varias imágenes,
- mejorar la fidelidad de las imágenes en relación con el mundo real,
- mejorar la calidad subjetiva de las imágenes,
- detectar objetos o personas 107 en una escena 3,
- añadir objetos o personas 107 en una escena 3,
- reemplazar o modificar objetos o personas 107 en una escena 3,
- retirar las sombras de una escena 3,
- añadir sombras a una escena 3,
- buscar objetos en una base de imágenes.
Dicho programa de tratamiento de imagen puede:
- estar integrado en el aparato de captura de imagen 1,
- ejecutarse en medios de cálculo 17 conectados al aparato de captura de imagen 1 a través de medios de transmisión 18.
\vskip1.000000\baselineskip
Óptica digital
Se denomina óptica digital a la combinación de un aparato de captura de imagen 1, una base de datos de características 22 y un medio de cálculo 17 que permiten:
- la captura de imagen de una imagen 103,
- el cálculo de la imagen completada,
- el cálculo de la imagen corregida 71.
De manera preferente, el usuario obtiene directamente la imagen corregida 71. Si lo desea, el usuario puede solicitar la supresión de la corrección automática.
La base de datos de características 22 puede estar:
- integrada en el aparato de captura de imagen 1,
- integrada en un PC u otro ordenador conectado a otros elementos durante la captura de imagen,
- integrada en un PC u otro ordenador conectado a otros elementos después de la captura de imagen,
- integrada en un PC u otro ordenador capaz de leer un soporte de almacenamiento común con el aparato de captura de imagen 1,
- integrada en un servidor a distancia conectado a un PC u otro ordenador conectado él mismo a otros elementos de la captura de imagen.
El medio del cálculo 17 puede estar:
- integrado en un componente con el captador 101,
- integrado en un componente con una parte de la electrónica 102,
- integrado en el aparato de captura de imagen 1,
- integrado en un PC o cualquier ordenador conectado a otros elementos durante la captura de imagen,
- integrado en un PC o cualquier ordenador conectado a otros elementos después de la captura de imagen,
- integrado en un PC u otro ordenador capaz de leer un soporte de almacenamiento común con el aparato de captura de imagen 1,
- integrado en un servidor a distancia conectado a un PC con cualquier ordenador conectado él mismo a otros elementos de la captura de imagen.
\vskip1.000000\baselineskip
Tratamiento de la cadena completa
En los párrafos anteriores, se han precisado esencialmente los conceptos y la descripción del procedimiento del sistema según la invención para proporcionar a programas de tratamiento de imágenes 4 informaciones formateadas 15 relacionadas con las características de los aparatos de captura de imagen 1.
En los párrafos siguientes, vamos a ampliar la definición de los conceptos y completar la descripción del procedimiento y del sistema según la invención para proporcionar a programas de tratamiento de imágenes 4 informaciones formateadas 15 relacionadas con las características de medios de restitución de imagen 19. De esta manera, habremos expuesto el tratamiento de una cadena completa.
El tratamiento de la cadena completa permite:
- mejorar la calidad de la imagen 103 de un extremo al otro de la cadena, para obtener una imagen restituida 191 corrigiendo los defectos del aparato de captura de imagen 1 y del medio de restitución de imagen 19, y/o
- utilizar ópticas de menor calidad y de menor coste en un proyector de vídeo en combinación con un programa de mejora de la calidad de imágenes.
\vskip1.000000\baselineskip
Definiciones relacionadas con los medios de restitución de imagen
Apoyándonos en las figuras 2, 17 y 6, ahora vamos a describir la consideración en las informaciones formateadas 15 de las características de un medio de restitución de imágenes 19, como una impresora, una pantalla de visualización o un proyector.
Los complementos o modificaciones a aportar a las definiciones en el caso de un medio de restitución de imagen 19 pueden extrapolarse mutatis mutandis por un profesional a partir de las definiciones proporcionadas en el caso de un aparato de captura de imagen 1. No obstante, con el fin de ilustrar este método, vamos a describir ahora, refiriéndonos en concreto a la figura 6 y a la figura 17, los principales complementos o modificaciones.
Se entiende por características de restitución utilizadas 95 a las características intrínsecas de los medios de restitución de imagen 19, las características del medio de restitución de imagen 19 en el momento de la restitución de imagen y las preferencias del usuario en el momento de la restitución de las imágenes. Especialmente en el caso de un proyector, las características de restitución utilizadas 95 incluyen la forma y la posición de la pantalla utilizada.
Se entiende por modelo de transformación parametrizable de restitución 97 (o de manera condensada, transformación parametrizable de restitución 97) una transformación matemática similar al modelo de transformación parametrizable 12. Se entiende por modelo de transformación parametrizable de restitución inversa 297 (o de manera condensada, transformación parametrizable de restitución inversa 297) una transformación matemática similar al modelo de transformación parametrizable inversa 212.
Se entiende por imagen corregida de restitución 94 la imagen obtenida por aplicación de la transformación parametrizable de restitución 97 a la imagen 103.
Se entiende por proyección matemática de restitución 96 una proyección matemática que asocia a una imagen corregida de restitución 94 una imagen matemática de restitución 92 en la superficie matemática de restitución geométricamente asociada a la superficie del soporte de restitución 190. Los puntos matemáticos de restitución de la superficie matemática de restitución tienen una forma, posición, color e intensidad calculados a partir de la imagen corregida de restitución 94.
Se entiende por proyección real de restitución 90 una proyección que asocia a una imagen 103 una imagen restituida 191. Los valores de píxeles de la imagen 103 se convierten por medio de la electrónica de medios de restitución 19 en una señal que pilota el modulador de medios de restitución 19. Se obtienen puntos reales de restitución en el soporte de restitución 190. Dichos puntos reales de restitución están dotados de una forma, color, intensidad y posición. El fenómeno de agrupamiento en píxeles 104 descrito anteriormente en el caso de un aparato de captura de imagen 1 no se produce en el caso de un medio de restitución de imagen. En cambio, se produce un fenómeno inverso que hace que aparezcan especialmente rectas como escalones de una escalera.
Se entiende por diferencia de restitución 93 la diferencia entre la imagen restituida 191 y la imagen matemática de restitución 92. Esta diferencia de restitución 93 se obtiene mutatis mutandis como la diferencia 73.
Se entiende por referencia de restitución 209 una imagen 103 cuyos valores de píxeles 104 son conocidos. Se entiende por referencia restituida 211 la imagen restituida 191 obtenida por la proyección matemática de restitución 90 de la referencia de restitución 209. Se entiende por imagen de referencia corregida de restitución 213 la imagen corregida de restitución 94 correspondiente a la referencia de restitución 209, para el modelo de transformación parametrizable de restitución 97 y/o para el modelo de transformación parametrizable de restitución inversa 297. Se entiende por imagen de síntesis de restitución 307 la imagen matemática de restitución 92 obtenida por la proyección matemática de restitución 96 de la imagen de referencia corregida de restitución 213.
Se entiende por mejor transformación de restitución:
- para una referencia de restitución 209 y características utilizadas 95, aquella que permite transformar la imagen 103 en una imagen corregida de restitución 94 tal que su proyección matemática de restitución 92 presente la diferencia más reducida de restitución 93 con la imagen restituida 191, y/o
- la transformación parametrizable de restitución 97 entre los modelos de transformación parametrizables de restitución tal que la referencia restituida 211 presente la diferencia más reducida de restitución 93 con la imagen de síntesis de restitución 307, y/o
- la transformación parametrizable de restitución inversa 297 entre los modelos de transformación parametrizables inversos tal que la referencia restituida 211 presente la diferencia más reducida de restitución 93 con la imagen de síntesis de restitución 307.
La referencia restituida 211 y la imagen de síntesis de restitución 307 se denominan entonces próximas.
Los procedimientos de calibrado de restitución y de concepción de óptica digital de restitución son comparables a los procedimientos de calibrado y de concepción de óptica digital en el caso de un aparato de captura de imagen 1. No obstante, algunas etapas incluyen diferencias, en concreto las etapas siguientes:
- la etapa de elegir una referencia de restitución 209,
- la etapa de efectuar la restitución de dicha referencia de restitución,
- la etapa de calcular la mejor transformación de restitución.
Preferentemente, según la invención, el procedimiento incluye un sexto algoritmo de cálculo de informaciones formateadas 15. Este sexto algoritmo permite efectuar una elección:
- en un conjunto de modelos de transformación parametrizables de restitución,
- en un conjunto de modelos de transformación parametrizables de restitución inversos,
- en un conjunto de proyecciones matemáticas de restitución,
- en un conjunto de referencias de restitución y en un conjunto de imágenes de referencia corregidas de restitución.
La elección efectuada por este sexto algoritmo se refiere a:
- una referencia de restitución 209, y/o
- una imagen de referencia corregida de restitución 213, y/o
- un modelo de transformación parametrizable de restitución 97 que permite transformar la referencia de restitución 209 en la imagen de referencia corregida de restitución 213, y/o
- un modelo de transformación parametrizable de restitución inversa 297 que permite transformar la imagen de referencia corregida de restitución 213 en la referencia de restitución 209, y/o
- una proyección matemática de restitución 96 que permite realizar una imagen de síntesis de restitución 307 a partir de la imagen de referencia corregida de restitución 213.
La elección se efectúa mediante este sexto algoritmo de manera que la imagen de síntesis de restitución 307 se aproxime a la referencia restituida 211 obtenida por restitución de la referencia de restitución 209 a través del medio de restitución de imágenes 19. La referencia restituida 211 presenta una desviación de restitución 214 con la imagen de síntesis de restitución 307.
Según una variante de realización de la invención, el procedimiento incluye un séptimo algoritmo de cálculo de informaciones formateadas. Este séptimo algoritmo incluye las etapas de:
- elegir al menos una referencia de restitución 209,
- restituir la referencia de restitución 209, a través del medio de restitución de imágenes 19, en una referencia restituida 211.
Este séptimo algoritmo permite igualmente elegir en un conjunto de modelos de transformación parametrizables de restitución y en un conjunto de proyecciones matemáticas de restitución:
- un modelo de transformación parametrizable de restitución 97 que permite transformar la referencia de restitución 209 en una imagen de referencia corregida de restitución 213, y
- una proyección matemática de restitución 96 que permite realizar una imagen de síntesis de restitución 307 a partir de la imagen de referencia corregida de restitución 213.
La elección se efectúa mediante el séptimo algoritmo de manera que la imagen de síntesis de restitución 307 sea próxima a la referencia restituida 211. La referencia restituida presenta una desviación de restitución 214 con la imagen de síntesis de restitución 307. El modelo de transformación parametrizable de restitución inversa 297 permite transformar la imagen de referencia corregida de restitución 213 en la referencia de restitución 209.
Según otra variante de realización de la invención, el procedimiento incluye un octavo algoritmo de cálculo de informaciones formateadas. Este octavo algoritmo incluye la etapa de elegir una imagen de referencia corregida de restitución 213. Este octavo algoritmo incluye además la etapa de efectuar una elección en un conjunto de modelos de transformación parametrizables de restitución, en un conjunto de proyecciones matemáticas de restitución y en un conjunto de referencias de restitución. Esta elección se refiere a:
- una referencia de restitución 209, y/o
- un modelo de transformación parametrizable de restitución 97 que permite transformar la referencia de restitución 209 en la imagen de referencia corregida de restitución 213, y/o
- un modelo de transformación parametrizable de restitución inversa 297 que permite transformar la imagen de referencia corregida de restitución 213 en la referencia de restitución 209, y/o
- una proyección matemática de restitución 96 que permite realizar una imagen de síntesis de restitución 307 a partir de la imagen de referencia corregida de restitución 213.
El octavo algoritmo efectúa esta elección de manera que la imagen de síntesis de restitución 307 sea próxima a la referencia restituida 211 obtenida por restitución de la referencia de restitución 209, a través del medio de restitución de imágenes 19. La referencia restituida 211 presenta una desviación de restitución con la imagen de síntesis de restitución 307.
Preferentemente, según la invención, el procedimiento incluye un noveno algoritmo de cálculo de desviaciones de restitución 214. Este noveno algoritmo incluye las etapas de:
- calcular las desviaciones de restitución 214 entre la referencia restituida 211 y la imagen de síntesis de restitución 307,
- asociar las desviaciones de restitución 214 a las informaciones formateadas 15.
De la combinación de rasgos técnicos se deriva que es posible verificar automáticamente, por ejemplo durante la fabricación del aparato, que el procedimiento ha producido informaciones formateadas en tolerancias aceptables.
Las informaciones formateadas 15 relacionadas con un aparato de captura de imagen 1 y las relacionadas con un medio de restitución imagen 19 pueden situarse en una detrás de otra para una misma imagen.
Igualmente es posible combinar las informaciones formateadas 15 relativas a cada uno de los aparatos para obtener las informaciones formateadas 15 relativas a la cadena de aparatos, por ejemplo mediante adición de un campo de vector en el caso de la distorsión geométrica.
\newpage
Anteriormente se ha descrito la noción de campo en el caso de un aparato de captura de imagen 1. Esta noción también se aplica mutatis mutandis en el caso de medios de restitución de imagen 19. No obstante, los parámetros del método de cuantificación se sustituyen por los parámetros del método de reconstitución de la señal, a saber: la geometría del soporte de restitución 190 y su posición, una función que representa la distribución espacial y temporal del ruido del medio de restitución de imágenes 19.
En una variante de realización, según la invención, el medio de restitución 19 se asocia a un aparato de captura de imagen 1 para restituir, con una forma digital, la referencia restituida 211 a partir de la referencia de restitución 209. El procedimiento es tal que para producir las informaciones formateadas 15 relacionadas con los defectos P5 del medio de restitución 19, se utilizan las informaciones formateadas 15 relativas al aparato de captura de imagen 1 asociado al medio de restitución, por ejemplo para corregir los defectos del aparato de captura de imagen 1 de forma que la referencia restituida 211 sólo incluya los defectos P5 del medio de restitución 19.
\vskip1.000000\baselineskip
Generalización de conceptos
Los rasgos técnicos que componen la invención y que figuran en las reivindicaciones se han definido, escrito e ilustrado haciendo referencia esencialmente a aparatos de captura de imagen de tipo digital, es decir, que producen imágenes digitales. Se entiende fácilmente que los mismos rasgos técnicos se apliquen en el caso de aparatos de captura de imagen que sean la combinación de un aparato argéntico (un aparato fotográfico o cinematográfico que utilice películas sensibles argénticas, negativas o inversibles) y un escáner que produzca una imagen digital a partir de películas sensibles reveladas. En efecto, en este caso cabe adaptar al menos algunas de las definiciones utilizadas. Estas adaptaciones están al alcance del profesional. Con el fin de poner de manifiesto el carácter evidente de dichas adaptaciones, nos limitaremos a mencionar que las nociones de píxel y de valor de píxel ilustradas en referencia a la figura 3 deben aplicarse, en el caso de la combinación de un aparato argéntico y de un escáner, a una zona elemental de la superficie de la película una vez que ésta se haya digitalizado por medio de un escáner. Dichas transposiciones de definiciones son evidentes y pueden extrapolarse a la noción de configuración utilizada. A la lista de subconjuntos amovibles del aparato de captura de imagen 1 que forman parte de la configuración utilizada puede, por ejemplo, añadirse el tipo de película fotográfica utilizada efectivamente en el aparato
argéntico.
Otras características y ventajas de la invención aparecerán en la lectura de las definiciones y los ejemplos indicativos aunque no limitativos, explicitados a continuación refiriéndonos a las figuras 1 a 17.
\vskip1.000000\baselineskip
Aparato
Refiriéndonos particularmente a las figuras 2, 3 y 13, vamos a describir la noción de aparato P25. En el sentido de la invención, un aparato P25 puede ser especialmente:
- un aparato de captura de imagen 1, como por ejemplo una cámara de fotos desechable, una cámara de fotos digital, una cámara reflex, un escáner, un fax, un endoscopio, un camescopio, una cámara de vigilancia, un juguete, una cámara integrada o conectada a un teléfono, a un asistente personal o a un ordenador, una cámara térmica, un aparato de ecografía,
- un aparato de restitución de imagen 19 o medio de restitución de imagen 19, como por ejemplo una pantalla, un proyector, un televisor, gafas de realidad virtual o una impresora,
- un aparato incluida su instalación, por ejemplo, un proyector, una pantalla y la forma en que están situados,
- el posicionamiento de un observador en relación con un aparato de restitución de imagen 19, que introduce particularmente errores de paralaje,
- un ser humano o un observador que tenga defectos de visión, por ejemplo, astigmatismo,
- un aparato parecido al usado para producir imágenes que tienen un aspecto similar a las producidas por un aparato de marca Leica,
- un dispositivo de tratamiento de imágenes, por ejemplo, un programa de zoom que tenga como efecto de borde añadir un efecto borroso,
- un aparato virtual equivalente a varios aparatos P25,
- un aparato P25 más complejo como un escáner/fax/impresora, un minilab de impresión de fotos, un aparato de videoconferencia puede considerarse un aparato P25 o varios aparatos P25.
\vskip1.000000\baselineskip
Cadena de aparatos
Refiriéndonos particularmente a la figura 13, ahora vamos a describir la noción de cadena de aparatos P3. Se denomina cadena de aparatos P3 a un conjunto de aparatos P25. La noción de cadena de aparatos P3 puede incluir además una noción de orden.
Los ejemplos siguientes constituyen cadenas aparatos P3:
- un solo aparato P25,
- un aparato de captura de imagen 1 y un aparato de restitución de imagen 19,
- una cámara de fotos, un escáner, un impresora, por ejemplo en un Minilab de positivado de fotos,
- una cámara de fotos digital, una impresora, por ejemplo en un Minilab de positivado de fotos,
- un escáner, una pantalla o una impresora, por ejemplo en un ordenador,
- una pantalla o proyector y el ojo de un ser humano,
- un aparato u otro aparato parecido,
- un aparato de fotos y un escáner,
- un aparato de captura de imagen, un programa de tratamiento de imágenes,
- un programa de tratamiento de imágenes, un aparato de restitución de imagen 19,
- una combinación de los ejemplos anteriores,
- otro conjunto de aparatos P25.
\vskip1.000000\baselineskip
Defecto
Refiriéndonos concretamente a la figura 13, ahora vamos a describir la noción de defecto P5. Se denomina defecto P5 del aparato P25 a un defecto relacionado con las características de la óptica y/o del captador y/o de la electrónica y/o del programa integrado en un aparato P25; son ejemplos de defectos P5, por ejemplo, los defectos de geometría, los defectos de picado, los defectos de colorimetría, los defectos geométricos de distorsión, los defectos geométricos de aberración cromática, los defectos geométricos de viñeteado, los defectos de contraste, los defectos de colorimetría, en concreto el rendimiento de los colores y la dominante de color, los defectos de uniformidad del flash, el ruido del captador, el grano, los defectos de astigmatismo, los defectos de aberración esférica.
\vskip1.000000\baselineskip
Imagen
Refiriéndonos particularmente a las figuras 2, 5, 6 y 13, ahora vamos a describir la noción de imagen 103. Se denomina imagen 103 a una imagen digital capturada modificada o restituida por un aparato P25. La imagen 103 puede proceder de un aparato P25 de la cadena de aparatos P3. La imagen 103 puede estar destinada a un aparato P25 de la cadena de aparatos P3. De manera más general, la imagen 103 puede proceder y/o estar destinada a la cadena de aparatos P3. En el caso de imágenes animadas, por ejemplo vídeo, constituidas por una secuencia en el tiempo de imágenes fijas, se denomina imagen 103 a una imagen fija de la secuencia de imágenes.
\vskip1.000000\baselineskip
Informaciones formateadas
Refiriéndonos particularmente a las figuras 7, 8, 10 y 13, ahora vamos a describir la noción de informaciones formateadas 15. Se denomina informaciones formateadas 15 a datos relacionados con los defectos P5 o que caracterizan los defectos P5 de uno o varios aparatos P25 de la cadena de aparatos P3 y que permiten a medios de tratamiento de imágenes P1 modificar la calidad de las imágenes 103 teniendo en cuenta defectos P5 del aparato P25.
Para producir las informaciones formateadas 15, se pueden utilizar diversos procedimientos y sistemas basados en medidas y/o simulaciones y/o calibrados, como por ejemplo el procedimiento del calibrado descrito anteriormente.
Para difundir las informaciones formateadas 15, se puede utilizar un archivo P100 que contenga la imagen completada 120, por ejemplo un aparato de captura de imagen 1 como una cámara de fotos digital puede producir archivos que contienen la imagen 103, las informaciones formateadas 15 copiadas desde una memoria interna de la cámara y datos en formato Exif que contienen los ajustes utilizados.
Para producir las informaciones formateadas 15, se puede utilizar, por ejemplo, el procedimiento y el sistema de escritos en la solicitud del patente internacional WO 03/007237 presentada el mismo día que la presente solicitud a nombre de la sociedad Vision IQ y de título: "Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geométricas". En esta solicitud, se describe un procedimiento para producir informaciones formateadas 15 relacionadas con los aparatos P25 de una cadena de aparatos P3. La cadena de aparatos P3 incluye particularmente al menos un aparato de captura de imagen 1 y/o al menos un aparato de restitución de imagen 19. El procedimiento incluye la etapa de producir informaciones formateadas 15 relacionadas con las distorsiones geométricas de al menos un aparato P25 de la cadena.
Preferentemente, el aparato P25 permite capturar o restituir una imagen sobre un soporte. El aparato P25 incluye al menos una característica fija y/o una característica variable según la imagen. La característica fija y/o característica variable es susceptible de estar asociada a uno o varios valores de características, especialmente la focal y/o el enfoque y sus valores de características asociadas. El procedimiento incluye la etapa de producir informaciones formateadas medidas relacionadas con las distorsiones geométricas del aparato a partir de un campo medido. Las informaciones formateadas 15 pueden incluir las informaciones formateadas medidas.
Para producir las informaciones formateadas 15, se puede utilizar, por ejemplo, el procedimiento y el sistema descritos en la solicitud de patente internacional WO 03/007242 presentada el mismo día que la presente solicitud a nombre de la sociedad Vision IQ y de título: "Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos de al menos un aparato de una cadena, en concreto el efecto borroso". En esta solicitud, se describe un procedimiento para producir informaciones formateadas 15 relacionadas con los aparatos P25 de una cadena de aparatos P3. La cadena de aparatos P3 incluye particularmente al menos un aparato de captura de imagen y/o al menos un aparato de restitución de imagen 19. El procedimiento incluye la etapa de producir informaciones formateadas 15 relacionadas con los defectos P5 de al menos un aparato P25 de la cadena. Preferentemente, el aparato P25, que permite capturar o restituir una imagen, incluye al menos una característica fija y/o una característica variable según la imagen (I). Las características fijas y/o variables son susceptibles de estar asociadas a uno o varios valores de características en concreto la focal y/o el enfoque y sus valores de características asociadas. El procedimiento incluye la etapa de producir informaciones formateadas medidas relacionadas con los defectos P5 del aparato P25 a partir de un campo medido. Las informaciones formateadas 15 pueden incluir las informaciones formateadas medidas.
Para producir las informaciones formateadas 15, se puede utilizar, por ejemplo, el procedimiento y el sistema descritos en la solicitud de patente internacional WO 03/007236 presentada el mismo día que la presente solicitud a nombre de la sociedad Vision IQ y de título: "Procedimiento y sistema para reducir la frecuencia de actualizaciones de medios de tratamiento de imágenes". En esta solicitud, se describe un procedimiento para reducir la frecuencia de actualizaciones de medios de tratamiento de imágenes P1, en concreto un programa y/o un componente. Los medios de tratamiento de imágenes permiten modificar la calidad de las imágenes digitales procedentes o destinadas a una cadena de aparatos P3. La cadena de aparatos P3 incluye al menos un aparato de captura de imagen y/o al menos un aparato de restitución de imagen 19. Los medios de tratamiento de imagen P1 emplean informaciones formateadas 15 relacionadas con los defectos P5 de al menos un aparato de la cadena de aparatos P5. Las informaciones formateadas 15 dependen al menos de una variable. Las informaciones formateadas 15 permiten establecer una correspondencia entre una parte de las variables y los identificadores. Los identificadores permiten determinar el valor de la variable correspondiente al identificador teniendo en cuenta el identificador y la imagen. De la combinación de rasgos técnicos se deriva que es posible determinar el valor de una variable, en concreto en el caso de que la significación física y/o el contenido de la variable sólo se conozcan posteriormente a la difusión de medios de tratamiento de imagen P1. Igualmente de la combinación de rasgos técnicos se deriva que el tiempo entre dos actualizaciones del programa de corrección puede estar espaciado. De la combinación de rasgos técnicos se deriva igualmente que los diversos actores económicos que producen aparatos y/o medios de tratamiento de imagen pueden actualizar sus productos independientemente de otros actores económicos, aunque estos últimos cambien radicalmente las características de sus productos o no puedan forzar a su cliente a poner al día sus productos. De la combinación de rasgos técnicos se deriva igualmente que puede presentarse una nueva funcionalidad progresivamente comenzando con un número limitado de actores económicos y de usuarios pioneros.
Para buscar las informaciones formateadas 15, se puede utilizar, por ejemplo, el procedimiento y el sistema descritos en la solicitud de patente internacional WP 03/007240 presentada el mismo día que la presente solicitud a nombre de la sociedad Vision IQ y de título: "Procedimiento y sistema para modificar la calidad de al menos una imagen procedente o destinada a una cadena de aparatos". En esta solicitud, se describe un procedimiento para modificar la calidad de al menos una imagen 103 procedente o destinada a una cadena de aparatos determinada. La cadena de aparatos determinada incluye al menos un aparato de captura de imagen y/o al menos un aparato de restitución de imagen 19. Los aparatos de captura de imagen y/o los aparatos que restitución de imagen, presentados progresivamente en el mercado por actores económicos distintos, pertenecen a un conjunto indeterminado de aparatos. Los aparatos P25 del conjunto de aparatos presentan defectos P5 que pueden estar caracterizados por informaciones formateadas 15. El procedimiento incluye, para la imagen en cuestión, las etapas siguientes:
- la etapa de catalogar fuentes de información formateadas relativas a los aparatos P25 del conjunto de aparatos,
- la etapa de buscar de manera automática entre las informaciones formateadas 15 así catalogadas, informaciones formateadas específicas relativas a la cadena de aparatos determinada,
- la etapa de modificar de manera automática la imagen mediante programas de tratamiento de imágenes y/o componentes de tratamiento de imágenes teniendo en cuenta informaciones formateadas específicas así obtenidas.
Para explotar las informaciones formateadas 15, se puede utilizar, por ejemplo, el procedimiento y el sistema descritos en la solicitud de patente internacional WO 03/007238 presentada el mismo día que la presente solicitud a nombre de la sociedad Vision IQ de título: "Procedimiento y sistema para calcular una imagen transformada a partir de una imagen digital y de informaciones formateadas relativas a una transformación geométrica". En esta solicitud, se describe un procedimiento para calcular una imagen transformada a partir de una imagen digital y de informaciones formateadas 15 relativas a una transformación geométrica, particularmente informaciones formateadas 15 relativas a las distorsiones y/o aberraciones cromáticas de una cadena de aparatos P3. El procedimiento incluye la etapa de calcular la imagen transformada a partir de una aproximación de la transformación geométrica. De ello se desprende que el cálculo es parco en recursos de memoria, ancho de banda de memoria, potencia de cálculo y en consecuencia consumo eléctrico. De ello se desprende igualmente que la imagen transformada no presenta defectos visibles o molestos para su uso posterior.
Para explotar las informaciones formateadas 15, se puede utilizar, por ejemplo, el procedimiento y el sistema descritos en la solicitud de patente internacional WO 03/007243 presentada el mismo día que la presente solicitud a nombre de la sociedad Vision IQ de título: "Procedimiento y sistema para modificar una imagen digital teniendo en cuenta su ruido". En esta solicitud, se describe un procedimiento para calcular una imagen transformada a partir de una imagen digital y de informaciones formateadas 15 relativas a defectos P5 de una cadena de aparatos P3. La cadena de aparatos P3 incluye aparatos de captura de imagen y/o aparatos que restitución de imagen. La cadena de aparatos P3 incluye al menos un aparato P25. El procedimiento incluye la etapa de determinar automáticamente datos característicos a partir de informaciones formateadas 15 y/o de la imagen digital. De la combinación de rasgos técnicos se deriva que la imagen transformada no presenta defectos visibles o molestos, en concreto de efectos relacionados con el ruido, para su uso posterior.
\vskip1.000000\baselineskip
Medios de tratamiento de imágenes
Refiriéndonos particularmente a las figuras 7 y 13, ahora vamos a describir la noción de medio de tratamiento de imágenes P1. En el sentido de la presente invención, se denomina medio de tratamiento de imágenes P1, por ejemplo, a un programa de tratamiento de imagen 4 y/o un componente y/o un equipamiento y/o un sistema que permite modificar la calidad de la imagen 103 empleando informaciones formateadas 15, con el fin de producir una imagen modificada, por ejemplo en imagen corregida 71 o una imagen corregida de restitución 97. La imagen modificada puede estar destinada al segundo aparato de la cadena de aparatos P3 distinto o no del aparato P25, por ejemplo el aparato siguiente en la cadena de aparatos P3.
La modificación de la calidad de imágenes por los medios de tratamiento de imágenes P1 puede consistir por ejemplo en:
- suprimir o atenuar los defectos P5 de uno o varios aparatos P25 de la cadena de aparatos P3 en la imagen 103
y/o
- modificar la imagen 103 para añadir al menos un defecto P5 de uno o varios aparatos P25 de la cadena de aparatos P3 de manera que la imagen modificada se parezca a una imagen capturada por el aparato o los aparatos P25 y/o
- modificar la imagen 103 para añadir al menos un defecto P5 de uno o varios aparatos P25 de la cadena de aparatos P3 de manera que la restitución de la imagen modificada se parezca a una imagen restituida por el aparato o los aparatos P25 y/o
- modificar la imagen 103 teniendo en cuenta las informaciones formateadas 15 relacionadas con los defectos P5 de visión del ojo de un ser humano P25 de la cadena de aparatos P3 de manera que la restitución de la imagen modificada sea percibida por el ojo del ser humano como corregida en su totalidad o en parte de los defectos P5.
Se denomina algoritmo de corrección al procedimiento empleado por un medio de tratamiento de imágenes P1 para modificar la calidad de las imágenes según el defecto P5.
Los medios de tratamiento de imágenes P1 pueden tomar diversas formas según la aplicación.
Los medios de tratamiento de imágenes P1 pueden estar integrados, en su totalidad o en parte, en el aparato P25, como en los ejemplos siguientes:
- un aparato de captura de imagen que produzca imágenes modificadas, por ejemplo, una cámara de fotos digital que integra medios de tratamiento de imágenes P1,
- un aparato de restitución de imagen 19 que muestre o imprima imágenes modificadas, por ejemplo un proyector de vídeo incluye medios de tratamiento de imágenes P1,
- un aparato mixto que corrija los defectos de sus elementos, por ejemplo, un escáner/una impresora/un fax que incluya medios de tratamiento de imágenes P1,
- un aparato de captura de imagen profesional que produzca imágenes modificadas, por ejemplo, un endoscopio que incluye medios de tratamiento de imágenes P1.
En el caso de que los medios de tratamiento de imágenes P1 estén integrados en el aparato P25, en la práctica el aparato P25 corrige sus propios defectos P5, y los aparatos P25 de la cadena de aparatos P3 pueden estar determinados por construcción, por ejemplo, en un fax, un escáner y una impresora; sin embargo, el usuario puede utilizar solamente parte de los aparatos P25 de la cadena de aparatos P3, por ejemplo, si el fax también puede ser utilizado únicamente como impresora.
Los medios de tratamiento de imágenes P1 pueden estar integrados, en su totalidad o en parte, en un ordenador, por ejemplo de la manera siguiente:
- en un sistema operativo, por ejemplo de la marca Windows o Mac OS, para modificar automáticamente la calidad de las imágenes procedentes o destinadas a varios aparatos P25 variando según la imagen 103 y/o en el tiempo, por ejemplo, escáneres, cámaras de fotos, impresoras; la corrección automática puede tener lugar por ejemplo cuando la imagen 103 entre en el sistema, o cuando el usuario solicite una impresión,
- en una aplicación de tratamiento de imágenes, por ejemplo, Photoshop, para modificar automáticamente la calidad de las imágenes procedentes o destinadas a varios aparatos P25 variando según la imagen y/o en el tiempo, por ejemplo escáneres, cámaras de fotos, impresoras; la corrección automática puede tener lugar por ejemplo cuando el usuario active un comando de filtro en Photoshop,
- en un aparato de positivado fotográfico (por ejemplo, Photofinishing o Minilab en inglés), para modificar automáticamente la calidad de las imágenes procedentes de varias cámaras de fotografía variando según la imagen y/o en el tiempo, por ejemplo, desechables, cámaras de fotos digitales, discos compactos; la corrección automática puede tener en cuenta las cámaras de fotos, así como al escáner y la impresora integrados, y hacerse en el momento en que se lancen los trabajos de impresión,
- en un servidor, por ejemplo, en Internet, para modificar automáticamente la calidad de las imágenes procedentes de varias cámaras de fotografía variando según la imagen y/o en el tiempo, por ejemplo, desechables, cámaras de fotos digitales; la corrección automática puede tener en cuenta las cámaras de fotos, así como, por ejemplo, una impresora, y hacerse en el momento en que las imágenes 103 se graben en el servidor, o en el momento en que se lancen trabajos de impresión.
En el caso de que los medios de tratamiento de imágenes P1 estén integrados en un ordenador, en la práctica los medios de tratamiento de imágenes P1 son compatibles con múltiples aparatos P25, y al menos un aparato P25 de la cadena de aparatos P3 puede variar de una imagen 103 a la otra.
Para proporcionar, según un formato estándar, las informaciones formateadas 15 a los medios de tratamiento de imagen P1, se pueden asociar las informaciones formateadas 15 a la imagen 103, por ejemplo:
- en un archivo P100,
- utilizando identificadores de aparatos P25 de la cadena de aparatos P3, por ejemplo datos en formato Exif en el archivo P100, para encontrar las informaciones formateadas 15 en la base de datos de características 22.
\vskip1.000000\baselineskip
Característica variable
Ahora vamos a describir, basándonos en la figura 13, la noción de característica variable P6. Según la invención, se denomina característica variable P6 a un factor medible y variable de una imagen 103 a la otra capturada, modificada o restituida por un mismo aparato P25, y que tenga una influencia en el defecto P5, de la imagen capturada, modificada o restituida por el aparato P25, en concreto:
- una característica variable global, fija para una imagen 103 dada, por ejemplo, una característica del aparato P25 en el momento de la captura o de la restitución de la imagen relacionada con un ajuste del usuario o relacionada con un automatismo del aparato P25, por ejemplo la focal,
- una característica variable local, variable en una imagen 103 dada, por ejemplo las coordenadas "x", "y" o "ro", "theta" en la imagen, que permitan a los medios de tratamiento de imágenes P1 aplicar un tratamiento local diferente según la zona de la imagen.
En general, no se considera una característica variable P6: un factor medible y variable de un aparato P25 al otro pero fijo de una imagen 103 a la otra capturada, modificada o restituida por un mismo aparato P25, por ejemplo, la focal para un aparato P25 de focal fija.
Los ajustes utilizados, tal y como se ha descrito anteriormente, son ejemplos de características variables P6.
Las informaciones formateadas 15 pueden depender al menos una característica variable P6.
Por característica variable P6, se puede entender particularmente:
- la focal de la óptica,
- el redimensionamiento aplicado a la imagen (factor de zoom digital: aumento de una parte de la imagen; y/o submuestreo: disminución del número de píxeles de la imagen).
- la corrección no lineal de luminancia, por ejemplo, la corrección de gamma.
- el realce del contorno, por ejemplo, el nivel de eliminación de efecto borroso aplicado por el aparato P25.
- el ruido del capturador y de la electrónica.
- la apertura de la óptica.
- la distancia de enfoque.
- el número de la vista en una película.
- la sobreexposición o subexposición.
- la sensibilidad de la película o del captador.
- el tipo de papel utilizado en una impresora,
- la posición del centro del captador en la imagen,
- la rotación de la imagen en relación con el captador,
- la posición de un proyector en relación con la pantalla,
- el equilibrio de blancos utilizado,
- la activación del flash y/o su potencia,
- el tiempo de exposición,
- el rendimiento del captador,
- la compresión,
- el contraste,
- otro ajuste aplicado por el usuario del aparato P25, por ejemplo un modo de funcionamiento,
- otro ajuste automático del aparato P25,
- otra medida realizada por el aparato P25.
En el caso de un medio de restitución 19, la característica variable P6 puede denominarse igualmente característica variable de restitución.
\vskip1.000000\baselineskip
Valor de característica variable
Ahora vamos a describir, basándonos en la figura 13, la noción de valor de característica variable P26. Se denomina valor de característica variable P26 al valor de la característica variable P6 en el momento de la captura, modificación o restitución de una imagen determinada, obtenida por ejemplo a partir de datos en formato Exif presentados en el archivo P100. Los medios de tratamiento de imagen P1 pueden tratar o modificar la calidad de la imagen 103 en función de características variables P6, utilizando informaciones formateadas 15 en función de características variables P6 y determinando el valor de las características variables P26.
En el caso de un medio de restitución 19, el valor de característica variable P6 puede denominarse igualmente valor de característica variable de restitución.
\vskip1.000000\baselineskip
Informaciones formateadas medidas, informaciones formateadas extendidas
Las informaciones formateadas 15 o una fracción de informaciones formateadas 15 pueden incluir informaciones formateadas medidas P101, tal y como se representa en la figura 15, para representar una medida bruta, por ejemplo un campo matemático relacionado con los defectos geométricos de distorsión en cierto número de puntos característicos de una tabla 80. Las informaciones formateadas 15 o una fracción de informaciones formateadas 15 pueden incluir informaciones formateadas extendidas P102, tal y como se representa en la figura 15, que pueden calcularse a partir de informaciones formateadas medidas P101, por ejemplo, por interpolación para los demás puntos reales de los puntos característicos de la tabla 80. Anteriormente, hemos visto que una información formateada 15 podía depender de características variables P6. Se denomina, según la invención, combinación P120 a una combinación constituida por características variables P6 y valores de características variables P26, como por ejemplo una combinación P120 constituida por la focal, el enfoque, la abertura del diafragma, la velocidad de captura, la apertura, etc. y valores asociados. Difícilmente puede pensarse en calcular las informaciones formateadas 15 relativas a las diferentes combinaciones P120 ya que ciertas características de la combinación P120 pueden variar de forma continua como, en particular, la focal y la distancia.
La invención prevé calcular las informaciones formateadas 15 en forma de informaciones formateadas extendidas P102 por interpolación a partir de informaciones formateadas medidas P101 relativas a una selección predeterminada de combinaciones P120 de características variables P6 conocidas.
Por ejemplo, se utilizan informaciones formateadas medidas P101 relativas a combinaciones P120 "focal=2, distancia=7, velocidad de captura=1/100", la combinación "focal=10, distancia=7, velocidad de captura=1/100", la combinación "focal=50, distancia=7, velocidad de captura=1/100" para calcular informaciones formateadas extendidas P102 dependientes de la característica variable P6 focal. Estas informaciones formateadas extendidas P102 permiten particularmente determinar informaciones formateadas relativas a la combinación "focal=25, distancia=7 y velocidad de captura=1/100".
Las informaciones formateadas medidas P101 y las informaciones formateadas extendidas P102 pueden presentar una desviación de interpolación P121. La invención puede incluir la etapa de seleccionar cero, una o varias de las características variables P6, de manera que la desviación interpolación P121, para las informaciones formateadas extendidas P102 obtenidas para las características variables P6 así seleccionadas, sea inferior a un umbral de interpolación predeterminado. En efecto, algunas características variables P6 pueden tener una influencia sobre el defecto P5 más reducida que otras y hacer la aproximación de que son constantes puede introducir únicamente un error mínimo; por ejemplo, el ajuste de enfoque sólo puede tener una influencia reducida sobre el defecto de viñeteado y por esta razón no formar parte de las características variables P6 seleccionadas. Las características variables P6 pueden seleccionarse en el momento de la producción de informaciones formateadas 15. De la combinación de rasgos técnicos se deriva que la modificación de la calidad de las imágenes emplea cálculos simples. De la combinación de rasgos técnicos también se deriva que las informaciones formateadas extendidas P102 son compactas. De la combinación de rasgos técnicos también se deriva que las características variables P6 eliminadas son las que menos influyen en el defecto P5. De la combinación de rasgos técnicos se deriva que las informaciones formateadas 15 permiten modificar la calidad de las imágenes con una precisión determinada.
En el caso de un medio de restitución 19, la combinación 120 puede denominarse igualmente combinación de restitución.
En el caso de un medio de restitución 19, las informaciones formateadas medidas P101 pueden igualmente denominarse informaciones formateadas medidas de restitución.
En el caso de un medio de restitución 19, las informaciones formateadas extendidas P102 pueden igualmente denominarse informaciones formateadas extendidas de restitución.
En el caso de un medio de restitución 19, las desviaciones de interpolación P121 pueden igualmente denominarse desviaciones de interpolación de restitución.
\vskip1.000000\baselineskip
Modelo parametrizable, parámetros
Ahora vamos a describir, refiriéndonos particularmente a las figuras 5, 6 y 16, la noción de parámetros P9, modelo parametrizable P10. En el sentido de la invención, se denomina modelo parametrizable P10 a un modelo matemático que puede depender de variables P6 y relativo a uno o varios defectos P5 de uno o varios aparatos P25; el modelo de transformación parametrizable 12, el modelo de transformación parametrizable inverso 212, el modelo de transformación parametrizable de restitución 97, el modelo de transformación parametrizable de restitución 297, descritos anteriormente, son ejemplos de modelos parametrizables P10; por ejemplo, un modelo parametrizable P10 puede ser relativo a:
- los defectos de picado o efecto borroso de una cámara de fotos digital,
- los defectos geométricos de viñeteado de una cámara de fotos parecida,
- los defectos geométricos de distorsión y los defectos geométricos de aberraciones cromáticas de un proyector,
- los defectos de picado o efecto borroso de una cámara de fotos desechable combinada con un escáner.
Las informaciones formateadas 15 relativas a un defecto P5 de un aparato P25 pueden presentarse en forma de parámetros P9 de un modelo parametrizable P10 que dependa de características variables P6; los parámetros P9 del modelo parametrizable P10 permiten identificar una función matemática P16 en un conjunto de funciones matemáticas, por ejemplo, polinomios con varias variables; las funciones matemáticas P16 permiten modificar la calidad de la imagen en función de valores determinados, de variables P6.
De esta manera, los medios de tratamiento de imagen P1 pueden utilizar los parámetros P9 del modelo de transformación parametrizable P10 para calcular la imagen modificada, por ejemplo, para calcular la intensidad corregida o la intensidad corregida de restitución de un punto de la imagen.
\vskip1.000000\baselineskip
Plano de color
Ahora vamos a describir, refiriéndonos particularmente a la figura 15, la noción de plano de color P20 de una imagen 103 en color. La imagen 103 puede descomponerse en planos de color P20 de diversas maneras: número de planos (1, 3 o más), precisión (8 bits no marcados, 16 bits marcados, fluctuante...) y significación de planos (en relación con un espacio de color estándar). La imagen 103 puede descomponerse de diversas maneras en planos de color P20: plano de color rojo constituido por píxeles rojos, plano de color verde, plano de color azul (RVA) o luminancia, saturación, color...; por otra parte, existen espacios de color como PIM, o son posibles valores de píxeles negativos con el fin de permitir la representación de colores sustractivos que no es posible representar en RVA positivo; por último, es posible codificar un valor de píxel en 8 bits, 16 bits o utilizando valores fluctuantes. Las informaciones formateadas 15 pueden ser relativas a planos de color P20, por ejemplo, caracterizando de manera diferente los defectos de picado para los planos de color rojo, verde y azul para permitir a los medios de tratamiento de imagen P1 corregir el defecto de picado de manera diferente para cada plano de color P20.
\vskip1.000000\baselineskip
Proporcionar las informaciones formateadas
Ahora vamos a describir, basándonos concretamente en las figuras 8, 13, 15 y 16, una variante de realización de la invención. Para proporcionar, según un formato estándar, las informaciones formateadas 15 a medios de tratamiento de imagen P1, el sistema incluye medios de tratamiento informáticos y el procedimiento incluye la etapa de añadir al menos un campo 91 del formato estándar con las informaciones formateadas 15. El campo 91 puede incluir entonces particularmente:
- valores relativos a los defectos P5, por ejemplo, en forma de parámetros P9, de manera que los medios de tratamiento de imagen P1 puedan utilizar los parámetros P9 para modificar la calidad de las imágenes teniendo en cuenta los defectos P5, y/o
- valores relativos a los defectos de picado, por ejemplo, en forma de parámetros P9, de manera que los medios de tratamiento de imagen P1 puedan utilizar los parámetros P9 para modificar la calidad de las imágenes teniendo cuenta defectos de picado, y calcular la forma corregida o la forma corregida de restitución de un punto de la imagen,
y/o
- valores relativos a los defectos de colorimetría, por ejemplo, en forma de parámetros P9, de manera que los medios de tratamiento de imagen P1 puedan utilizar los parámetros P9 para modificar la calidad de las imágenes teniendo en cuenta defectos de colorimetría, y calcular el color corregido o el color corregido de restitución de un punto de la imagen, y/o
- valores relativos a los defectos geométricos de distorsión y/o los defectos geométricos de aberración cromática, por ejemplo, en forma de parámetros P9, de manera que los medios de tratamiento de imagen P1 puedan utilizar los parámetros P9 para modificar la calidad de las imágenes teniendo en cuenta los defectos geométricos de distorsión y/o los defectos geométricos de aberración cromática, y calcular la posición corregida o la posición corregida de restitución de un punto de la imagen, y/o
- valores relativos a los defectos geométricos de viñeteado, por ejemplo, en forma de parámetros P9, de manera que los medios de tratamiento de imagen P1 puedan utilizar los parámetros P9 para modificar la calidad de las imágenes teniendo en cuenta defectos geométricos de viñeteado, y calcular la intensidad corregida o la intensidad corregida de restitución de un punto de la imagen, y/o
- valores relativos a las desviaciones 14, y/o
- valores en función de características variables P6 según la imagen 103, por ejemplo, los coeficientes y términos de un polinomio dependiente de la característica variable P6 correspondiente a la focal y que permite calcular la intensidad corregida de un punto de la imagen en función de su distancia al centro, de manera que los medios de tratamiento de imagen puedan calcular la intensidad corregida de un punto para todo valor de focal del aparato de captura de imagen en el momento en que la imagen 103 haya sido capturada,
- valores relativos a informaciones formateadas relativas a los planos de color P20,
- valores relativos a informaciones formateadas,
- valores relativos a informaciones formateadas medidas,
- valores relativos a informaciones formateadas extendidas.
\vskip1.000000\baselineskip
Producir informaciones formateadas
Ahora vamos a describir una variante de realización de la invención, basándonos concretamente en las figuras 7,12 y 17. Para producir las informaciones formateadas 15, relacionadas con los defectos P5 de los aparatos P25 de una cadena de aparatos P3, la invención puede emplear medios de tratamiento informático y el primer algoritmo, y/o segundo algoritmo, y/o tercer algoritmo, y/o cuarto algoritmo, y/o quinto algoritmo, y/o sexto algoritmo, y/o séptimo algoritmo y/o octavo algoritmo tal y como se han descrito anteriormente.
\vskip1.000000\baselineskip
Aplicación de la invención a la reducción de coste
Se denomina reducción de coste a un procedimiento y sistema para disminuir el coste de un aparato P25 o de una cadena de aparatos P3, en concreto el coste de la óptica de un aparato o de una cadena de aparatos; el procedimiento consiste en:
- disminuir el número de lentes, y/o
- simplificar la forma de las lentes, y/o
- diseñar o elegir en un catálogo una óptica que tenga defectos P5 más importantes que los deseados para el aparato de la cadena de aparatos, y/o
- utilizar materiales, componentes, tratamientos o procedimientos de fabricación menos costosos para el aparato o la cadena de aparatos, añadiendo defectos P5.
El procedimiento y sistema según la invención puede utilizarse para disminuir el coste de un aparato o de una cadena de aparatos: se puede diseñar una óptica digital, producir informaciones formateadas 15 relativas a defectos P5 del aparato o en la cadena de aparatos, utilizar estas informaciones formateadas para permitir a los medios de tratamiento de imagen P1, integrados o no, modificar la calidad de las imágenes procedentes o destinadas al aparato o a la cadena de aparatos, de manera que la combinación del aparato o la cadena de aparatos y de los medios de tratamiento de imagen permitan capturar, modificar o restituir imágenes de la calidad deseada con un coste reducido.

Claims (22)

1. Procedimiento para proporcionar, según un formato estándar, informaciones formateadas (15) a medios de tratamiento de imágenes (P1), particularmente programas y/o componentes; dichas informaciones formateadas (15) están relacionadas con defectos (P5) de una cadena de aparatos (P3); dicha cadena de aparatos (P3) incluye particularmente al menos un aparato de captura de imagen (1) y/o un aparato de restitución de imagen (19); dichos medios de tratamiento de imágenes (P1) utilizan dichas informaciones formateadas (15) para modificar la calidad de al menos una imagen (103) procedente de, o destinada a, dicha cadena de aparatos (P3);
dichas informaciones formateadas (15) incluyen:
- datos que caracterizan los defectos (P5) de dicho aparato de captura de imagen (1), determinados en el momento del diseño y/o de la fabricación de dicho aparato de captura;
estos defectos están incluidos en el grupo que consta de: los defectos de geometría, los defectos de picado, los defectos de colorimetría, los defectos geométricos de distorsión, los defectos geométricos de aberración cromática, los defectos geométricos de viñeteado, los defectos de contraste, los defectos de uniformidad del flash, el ruido del captador, el grano, los defectos de astigmatismo, los defectos de aberración esférica; dicho procedimiento incluye la etapa de añadir al menos un campo (91) de dicho formato estándar con dichas informaciones formateadas (15); dicho campo (91) está designado por un nombre de campo; dicho campo (91) contiene al menos un valor de campo; este valor es relativo a las características técnicas de los aparatos, y/o a los parámetros del método de cuantificación, y/o a los parámetros de tratamientos digitales efectuados por dichos aparatos de captura de imagen, y/o a los parámetros que representan las preferencias del usuario, y/o a las desviaciones entre imágenes corregidas por aplicación de un modelo parametrizable a una imagen de referencia e imágenes matemáticas obtenidas por proyección matemática de imágenes de referencia, y/o a los defectos de geometría, y/o a los defectos de picado, y/o a los defectos de colorimetría, y/o a los defectos geométricos de distorsión, y/o a los defectos geométricos de aberración cromática, y/o a los defectos geométricos de viñeteado, y/o a los defectos de contraste, y/o a los defectos de uniformidad del flash, y/o al ruido del captador, y/o al grano, y/o a los defectos de astigmatismo, y/o a los defectos de aberración esférica.
2. Procedimiento según la reivindicación 1, en el que las informaciones formateadas proporcionadas dependen al menos de una característica variable de una imagen a la otra, y tienen una influencia sobre los defectos, esta característica está incluida en el grupo que consta de: la focal de la óptica, el redimensionamiento aplicado a la imagen, la corrección no lineal de luminancia, el realce de contorno, el ruido del captador y de la electrónica, la abertura de la óptica, la distancia de enfoque, el número de vista en una película, la sobreexposición o subexposición, la sensibilidad de la película o del captador, el tipo de papel utilizado en una impresora, la posición del centro del captador en la imagen, la rotación de la imagen en relación con el captador, la posición de un proyector en relación con la pantalla, el equilibrio de blancos utilizado, la activación del flash y/o su potencia, el tiempo de exposición, el rendimiento del captador, la compresión, el contraste, un ajuste automático o aplicado por el usuario.
3. Procedimiento según la reivindicación 1 ó 2, dichas informaciones formateadas (15) están compuestas al menos en parte por parámetros (P9) de un modelo de transformación parametrizable (12) representativo de defectos (P5) de picado del aparato de captura de imagen (1) y/o del aparato de restitución de imagen (19); dicho procedimiento es tal que dicho valor o dichos valores contenidos en dicho campo (91) relativo a los defectos (P5) de picado están formados al menos en parte por parámetros (P9) de dicho modelo de transformación parametrizable (12);
de manera que dichos medios de tratamiento de imágenes (P1) pueden utilizar dichos parámetros (P9) de dicho modelo de transformación parametrizable (12) para calcular la forma corregida o la forma corregida de restitución de un punto de la imagen (103).
4. Procedimiento según cualquiera de las reivindicaciones 1 a 3; dichas informaciones formateadas (15) están compuestas al menos en parte por parámetros (P9) de un modelo de transformación parametrizable (12) representativo de defectos (P5) de colorimetría del aparato de captura de imagen (1) y/o del aparato de restitución de imagen (19); dicho procedimiento es tal que el valor o los valores contenidos en dicho campo (91) relativo a los defectos (P5) de colorimetría están compuestos al menos en parte por parámetros (P9) de dicho modelo de transformación parametrizable (12);
de manera que dichos medios de tratamiento de imágenes (P1) pueden utilizar dichos parámetros (P9) de dicho modelo de transformación parametrizable (12) para calcular el color corregido o el color corregido de restitución de un punto de la imagen (103).
5. Procedimiento según cualquiera de las reivindicaciones 1 a 4; dichas informaciones formateadas (15) están compuestas al menos en parte por parámetros (P9) de un modelo de transformación parametrizable (12) representativo de defectos (P5) geométricos de distorsión y/o de defectos (P5) geométricos de aberración cromática del aparato de captura de imagen (1) y/o del aparato de restitución de imagen (19); dicho procedimiento es tal que dicho valor o dichos valores contenidos en dicho campo (91) relativo a los defectos (P5) geométricos de distorsión y/o los defectos (P5) geométricos de aberración cromática están compuestos al menos en parte por parámetros (P9) de dicho modelo de transformación parametrizable (12);
de manera que dichos medios de tratamiento de imágenes (P1) pueden utilizar dichos parámetros (P9) de dicho modelo de transformación parametrizable (12) para calcular la posición corregida o la posición corregida de restitución de un punto de la imagen (103).
6. Procedimiento según cualquiera de las reivindicaciones 1 a 5; dichas informaciones formateadas (15) están compuestas al menos en parte por parámetros (P9) de un modelo de transformación parametrizable (12) representativo de defectos (P5) geométricos de viñeteado y/o de defectos (P5) de contraste del aparato de captura de imagen (1) y/o del aparato de restitución de imagen (19); dicho procedimiento es tal que dicho valor o dichos valores contenidos en dicho campo (91) relativo a los defectos (P5) geométricos de viñeteado y/o los defectos (P5) de contraste están compuestos al menos en parte por parámetros (P9) de dicho modelo de transformación parametrizable (12);
de manera que dichos medios de tratamiento de imágenes (P1) pueden utilizar dichos parámetros (P9) de dicho modelo de transformación parametrizable (12) para calcular la intensidad corregida o la intensidad corregida de restitución de un punto de la imagen (103).
7. Procedimiento según cualquiera de las reivindicaciones 1 a 6; para proporcionar, según un formato estándar, dichas informaciones formateadas (15) a dichos medios de tratamiento de imágenes (P1), dicho procedimiento incluye además la etapa de asociar dichas informaciones formateadas (15) a dicha imagen (103).
8. Procedimiento según la reivindicación 7; dicha imagen (103) se difunde en forma de un archivo (P100); dicho archivo (P100) incluye además dichas informaciones formateadas (15).
9. Procedimiento según cualquiera de las reivindicaciones 1 a 8; dicho aparato de captura de imagen (1) y/o dicho aparato de restitución de imagen (19) incluye al menos una característica variable (P6) según la imagen (103), en particular, la focal; al menos uno de dichos defectos (P5), en concreto el defecto geométrico de distorsión, de dicho aparato de captura de imagen (1) y/o de dicho aparato de restitución de imagen (19) depende de dicha característica variable (P6); dicho procedimiento es tal que al menos uno de dichos campos (91) contiene al menos un valor en función de dicha característica variable (P6) según la imagen (103);
de manera que los medios de tratamiento de imágenes (P1) pueden tratar dicha imagen (103) en función de dichas características variables (P6).
10. Procedimiento según cualquiera de las reivindicaciones 1 a 9; dichas informaciones formateadas (15) son al menos en parte informaciones formateadas medidas (P101).
11. Procedimiento según la reivindicación 10; dichas informaciones formateadas (15) son al menos en parte informaciones formateadas (15) extendidas (P102) obtenidas por interpolación a partir de informaciones formateadas medidas.
12. Sistema para proporcionar, según un formato estándar, informaciones formateadas (15) a medios de tratamiento de imágenes (P1), en concreto programas y/o componentes; dichas informaciones formateadas (15) están relacionadas con los defectos (P5) de una cadena de aparatos (P3); dicha cadena de aparatos (P3) incluye particularmente al menos un aparato de captura de imagen (1) y/o un aparato de restitución de imagen (19); dichos medios de tratamiento de imágenes (P1) utilizan dichas informaciones formateadas (15) para modificar la calidad de al menos una imagen (103) procedente de, o destinada a, dicha cadena de aparatos (P3);
dichas informaciones formateadas (15) incluyen:
- datos que caracterizan los defectos (P5) de dicho aparato de captura de imagen (1), determinados en el momento del diseño y/o de la fabricación de dicho aparato de captura;
estos defectos caracterizados están incluidos en el grupo que consta de: los defectos de geometría, los defectos de picado, los defectos de colorimetría, los defectos geométricos de distorsión, los defectos geométricos de aberración cromática, los defectos geométricos de viñeteado, los defectos de contraste, los defectos de uniformidad del flash, el ruido del captador, el grano, los defectos de astigmatismo, los defectos de aberración esférica;
dicho sistema incluye medios de tratamiento informáticos para añadir al menos a un campo (91) de dicho formato estándar dichas informaciones formateadas (15); dicho campo (91) está designado por un nombre de campo; dicho campo (91) contiene al menos un valor de campo; este valor es relativo a las características técnicas de los aparatos, y/o a los parámetros del método de cuantificación, y/o a los parámetros de tratamientos digitales efectuados por dichos aparatos de captura de imagen, y/o a los parámetros que representan las preferencias del usuario, y/o a las desviaciones entre imágenes corregidas por aplicación de un modelo parametrizable a una imagen de referencia e imágenes matemáticas obtenidas por proyección matemática de imágenes de referencia, y/o a los defectos de geometría, y/o a los defectos de picado, y/o a los defectos de colorimetría, y/o a los defectos geométricos de distorsión, y/o a los defectos geométricos de aberración cromática, y/o a los defectos geométricos de viñeteado, y/o a los defectos de contraste, y/o a los defectos de uniformidad del flash, y/o al ruido del captador, y/o al grano, y/o a los defectos de astigmatismo, y/o a los defectos de aberración esférica.
13. Sistema según la reivindicación 12, en el que las informaciones formateadas proporcionadas dependen al menos de una característica variable de una imagen a la otra, y tienen una influencia sobre los defectos, esta característica está incluida en el grupo que consta de: la focal de la óptica, el redimensionamiento aplicado a la imagen, la corrección no lineal de luminancia, el realce de contorno, el ruido del captador y de la electrónica, la abertura de la óptica, la distancia de enfoque, el número de vista en una película, la sobreexposición o subexposición, la sensibilidad de la película o del captador, el tipo de papel utilizado en una impresora, la posición del centro del captador en la imagen, la rotación de la imagen en relación con el captador, la posición de un proyector en relación con la pantalla, el equilibrio de blancos utilizado, la activación del flash y/o su potencia, el tiempo de exposición, el rendimiento del captador, la compresión, el contraste, un ajuste automático o aplicado por el usuario.
14. Sistema según la reivindicación 12 ó 13; dichas informaciones formateadas (15) están compuestas al menos en parte por parámetros (P9) de un modelo de transformación parametrizable (12) representativo de defectos (P5) de picado del aparato de captura de imagen (1) y/o del aparato de restitución de imagen (19); dicho sistema es tal que dicho valor o dichos valores contenidos en dicho campo (91) relativo a los defectos (P5) de picado están formados al menos en parte por parámetros (P9) de dicho modelo de transformación parametrizable (12);
15. Sistema según cualquiera de las reivindicaciones 12 a 14; dichas informaciones formateadas (15) están compuestas al menos en parte por parámetros (P9) de un modelo de transformación parametrizable (12) representativo de defectos (P5) de colorimetría del aparato de captura de imagen (1) y/o del aparato de restitución de imagen (19); dicho sistema es tal que dicho valor o dichos valores contenidos en dicho campo (91) relativo a los defectos (P5) de colorimetría están compuestos al menos en parte por parámetros (P9) de dicho modelo de transformación parametrizable (12);
16. Sistema según cualquiera de las reivindicaciones 12 a 15; dichas informaciones formateadas (15) están compuestas al menos en parte por parámetros (P9) de un modelo de transformación parametrizable (12) representativo de defectos (P5) geométricos de distorsión y/o de defectos (P5) geométricos de aberración cromática del aparato de captura de imagen (1) y/o del aparato de restitución de imagen (19); dicho sistema es tal que dicho valor o dichos valores contenidos en dicho campo (91) relativo a los defectos (P5) geométricos de distorsión y/o los defectos (P5) geométricos de aberración cromática están compuestos al menos en parte por parámetros (P9) de dicho modelo de transformación parametrizable (12);
17. Sistema según cualquiera de las reivindicaciones 12 a 16; dichas informaciones formateadas (15) están compuestas al menos en parte por parámetros (P9) de un modelo de transformación parametrizable (12) representativo de defectos (P5) geométricos de viñeteado y/o de defectos (P5) de contraste del aparato de captura de imagen (1) y/o del aparato de restitución de imagen (19); dicho sistema es tal que dicho valor o dichos valores contenidos en dicho campo (91) relativo a los defectos (P5) geométricos de viñeteado y/o los defectos (P5) de contraste están compuestos al menos en parte por parámetros (P9) de dicho modelo de transformación parametrizable (12);
18. Sistema según cualquiera de las reivindicaciones 12 a 17; para proporcionar, según un formato estándar, dichas informaciones formateadas (15) a dichos medios de tratamiento de imágenes (P1), dicho sistema incluye además medidas de tratamiento informático para asociar dichas informaciones formateadas (15) a dicha imagen (103).
19. Sistema según la reivindicación 18; dicho sistema incluye medios de difusión para difundir dicha imagen (103) en forma de un archivo (P100); dicho archivo (P100) incluye además dichas informaciones formateadas (15).
20. Sistema según cualquiera de las reivindicaciones 12 a 19; dicho aparato de captura de imagen (1) y/o dicho aparato de restitución de imagen (19) incluye al menos una característica variable (P6) según la imagen (103), en particular, la focal; al menos uno de dichos defectos (P5), en concreto el defecto geométrico de distorsión, de dicho aparato de captura de imagen (1) y/o de dicho aparato de restitución de imagen (19) depende de dicha característica variable (P6); dicho sistema es tal que al menos uno de dichos campos (91) contiene al menos un valor en función de dicha característica variable (P6) según la imagen (103);
21. Sistema según cualquiera de las reivindicaciones 12 a 20; dichas informaciones formateadas (15) son al menos en parte informaciones formateadas medidas (P101).
22. Sistema según la reivindicación 21; dichas informaciones formateadas (15) son al menos en parte informaciones formateadas extendidas (P102) obtenidas por interpolación a partir de informaciones formateadas medidas.
ES02748933T 2001-07-12 2002-06-05 Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. Expired - Lifetime ES2311061T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
FR0109291A FR2827459B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image
FR0109292A FR2827460B1 (fr) 2001-07-12 2001-07-12 Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti
FR0109292 2001-07-12
FR0109291 2001-07-12

Publications (1)

Publication Number Publication Date
ES2311061T3 true ES2311061T3 (es) 2009-02-01

Family

ID=26213095

Family Applications (2)

Application Number Title Priority Date Filing Date
ES02747506T Expired - Lifetime ES2253542T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso.
ES02748933T Expired - Lifetime ES2311061T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes.

Family Applications Before (1)

Application Number Title Priority Date Filing Date
ES02747506T Expired - Lifetime ES2253542T3 (es) 2001-07-12 2002-06-05 Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso.

Country Status (11)

Country Link
US (10) US7343040B2 (es)
EP (7) EP1410326B1 (es)
JP (6) JP4295612B2 (es)
KR (4) KR100957878B1 (es)
CN (6) CN1305006C (es)
AT (4) ATE447216T1 (es)
AU (3) AU2002317219A1 (es)
CA (1) CA2453423C (es)
DE (4) DE60207417T2 (es)
ES (2) ES2253542T3 (es)
WO (6) WO2003007240A1 (es)

Families Citing this family (211)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6950211B2 (en) * 2001-07-05 2005-09-27 Corel Corporation Fine moire correction in images
CN1305006C (zh) * 2001-07-12 2007-03-14 杜莱布斯公司 向图象处理装置提供格式化信息的方法和系统
EP1394742B1 (en) * 2002-08-23 2007-12-12 STMicroelectronics S.r.l. Method for filtering the noise of a digital image sequence
US8294999B2 (en) 2003-01-16 2012-10-23 DigitalOptics Corporation International Optics for an extended depth of field
US7773316B2 (en) * 2003-01-16 2010-08-10 Tessera International, Inc. Optics for an extended depth of field
JP4377404B2 (ja) * 2003-01-16 2009-12-02 ディ−ブルアー テクノロジス リミテッド 画像向上機能を備えたカメラ
US7609425B2 (en) * 2003-01-31 2009-10-27 Canon Kabushiki Kaisha Image data processing apparatus, method, storage medium and program
US8471852B1 (en) 2003-05-30 2013-06-25 Nvidia Corporation Method and system for tessellation of subdivision surfaces
JP4096828B2 (ja) * 2003-07-15 2008-06-04 セイコーエプソン株式会社 画像処理装置
US7369699B1 (en) 2003-08-29 2008-05-06 Apple Inc. Methods and apparatuses for restoring color and enhancing electronic images
GB2406992A (en) * 2003-10-09 2005-04-13 Ta Vision Lab Ltd Deconvolution of a digital image using metadata
WO2005054927A2 (en) * 2003-12-01 2005-06-16 Cdm Optics, Inc. System and method for optimizing optical and digital system designs
US7944467B2 (en) * 2003-12-01 2011-05-17 Omnivision Technologies, Inc. Task-based imaging systems
US7317843B2 (en) * 2004-04-01 2008-01-08 Microsoft Corporation Luminance correction
US7463296B2 (en) 2004-04-01 2008-12-09 Microsoft Corporation Digital cameras with luminance correction
US8285041B2 (en) * 2004-09-14 2012-10-09 Olympus Corporation Image processing apparatus, image recording apparatus, and image processing method
US7461331B2 (en) * 2004-12-21 2008-12-02 Fotomedia Technologies, Llc Automated construction of print order for images capture during a session
EP1679907A1 (en) * 2005-01-05 2006-07-12 Dialog Semiconductor GmbH Hexagonal color pixel structure with white pixels
FR2881011B1 (fr) 2005-01-19 2007-06-29 Dxo Labs Sa Procede de realisation d'un appareil de capture et/ou restitution d'images et appareil obtenu par ce procede
US7683950B2 (en) * 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US20060274209A1 (en) * 2005-06-03 2006-12-07 Coretronic Corporation Method and a control device using the same for controlling a display device
US20080052104A1 (en) * 2005-07-01 2008-02-28 Searete Llc Group content substitution in media works
US20090150199A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Visual substitution options in media works
US20090300480A1 (en) * 2005-07-01 2009-12-03 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media segment alteration with embedded markup identifier
US20090235364A1 (en) * 2005-07-01 2009-09-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional content alteration
US20090150444A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for audio content alteration
US9065979B2 (en) * 2005-07-01 2015-06-23 The Invention Science Fund I, Llc Promotional placement in media works
US20070263865A1 (en) * 2005-07-01 2007-11-15 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Authorization rights for substitute media content
US8910033B2 (en) * 2005-07-01 2014-12-09 The Invention Science Fund I, Llc Implementing group content substitution in media works
US20090204475A1 (en) * 2005-07-01 2009-08-13 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional visual content
US20070005423A1 (en) * 2005-07-01 2007-01-04 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Providing promotional content
US20090037243A1 (en) * 2005-07-01 2009-02-05 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Audio substitution options in media works
US9092928B2 (en) * 2005-07-01 2015-07-28 The Invention Science Fund I, Llc Implementing group content substitution in media works
US20100154065A1 (en) * 2005-07-01 2010-06-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for user-activated content alteration
US20070294720A1 (en) * 2005-07-01 2007-12-20 Searete Llc Promotional placement in media works
US7860342B2 (en) 2005-07-01 2010-12-28 The Invention Science Fund I, Llc Modifying restricted images
US20080013859A1 (en) * 2005-07-01 2008-01-17 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Implementation of media content alteration
US20080052161A1 (en) * 2005-07-01 2008-02-28 Searete Llc Alteration of promotional content in media works
US9583141B2 (en) * 2005-07-01 2017-02-28 Invention Science Fund I, Llc Implementing audio substitution options in media works
US20080086380A1 (en) * 2005-07-01 2008-04-10 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Alteration of promotional content in media works
US20070266049A1 (en) * 2005-07-01 2007-11-15 Searete Llc, A Limited Liability Corportion Of The State Of Delaware Implementation of media content alteration
US20090210946A1 (en) * 2005-07-01 2009-08-20 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for promotional audio content
US20080028422A1 (en) * 2005-07-01 2008-01-31 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Implementation of media content alteration
US20070276757A1 (en) * 2005-07-01 2007-11-29 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Approval technique for media content alteration
US9230601B2 (en) 2005-07-01 2016-01-05 Invention Science Fund I, Llc Media markup system for content alteration in derivative works
US20090151004A1 (en) * 2005-07-01 2009-06-11 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Media markup for visual content alteration
US8203609B2 (en) * 2007-01-31 2012-06-19 The Invention Science Fund I, Llc Anonymization pursuant to a broadcasted policy
US8126190B2 (en) * 2007-01-31 2012-02-28 The Invention Science Fund I, Llc Targeted obstrufication of an image
CN101288013B (zh) * 2005-09-19 2010-12-08 Cdm光学有限公司 基于任务的成像系统
JP2007096405A (ja) * 2005-09-27 2007-04-12 Fujifilm Corp ぶれ方向判定方法および装置ならびにプログラム
US8571346B2 (en) 2005-10-26 2013-10-29 Nvidia Corporation Methods and devices for defective pixel detection
US7750956B2 (en) 2005-11-09 2010-07-06 Nvidia Corporation Using a graphics processing unit to correct video and audio data
US8588542B1 (en) 2005-12-13 2013-11-19 Nvidia Corporation Configurable and compact pixel processing apparatus
FR2895103B1 (fr) * 2005-12-19 2008-02-22 Dxo Labs Sa Procede et systeme de traitement de donnees numeriques
FR2895102B1 (fr) * 2005-12-19 2012-12-07 Dxo Labs Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede
FR2895104A1 (fr) * 2005-12-19 2007-06-22 Dxo Labs Sa Procede pour fournir des donnees a un moyen de traitement numerique
US20070165961A1 (en) * 2006-01-13 2007-07-19 Juwei Lu Method And Apparatus For Reducing Motion Blur In An Image
US8295562B2 (en) * 2006-01-13 2012-10-23 Carl Zeiss Microimaging Ais, Inc. Medical image modification to simulate characteristics
US8737832B1 (en) 2006-02-10 2014-05-27 Nvidia Corporation Flicker band automated detection system and method
US8310533B2 (en) * 2006-03-27 2012-11-13 GE Sensing & Inspection Technologies, LP Inspection apparatus for inspecting articles
US20070239417A1 (en) * 2006-03-31 2007-10-11 D-Blur Technologies Ltd. Camera performance simulation
US20070269123A1 (en) * 2006-05-16 2007-11-22 Randall Don Briggs Method and apparatus for performing image enhancement in an image processing pipeline
JP4974586B2 (ja) * 2006-05-24 2012-07-11 オリンパス株式会社 顕微鏡用撮像装置
US7612805B2 (en) 2006-07-11 2009-11-03 Neal Solomon Digital imaging system and methods for selective image filtration
JP4839148B2 (ja) * 2006-07-12 2011-12-21 株式会社リコー ネットワーク装置,端末装置,プログラムおよび記録媒体
US8594441B1 (en) 2006-09-12 2013-11-26 Nvidia Corporation Compressing image-based data using luminance
DE102006057190A1 (de) * 2006-12-05 2008-06-12 Carl Zeiss Meditec Ag Verfahren zur Erzeugung hochqualitativer Aufnahmen der vorderen und/oder hinteren Augenabschnitte
US20080180539A1 (en) * 2007-01-31 2008-07-31 Searete Llc, A Limited Liability Corporation Image anonymization
US8723969B2 (en) 2007-03-20 2014-05-13 Nvidia Corporation Compensating for undesirable camera shakes during video capture
US20080244755A1 (en) * 2007-03-30 2008-10-02 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Authorization for media content alteration
US20080270161A1 (en) * 2007-04-26 2008-10-30 Searete Llc, A Limited Liability Corporation Of The State Of Delaware Authorization rights for substitute media content
US9215512B2 (en) 2007-04-27 2015-12-15 Invention Science Fund I, Llc Implementation of media content alteration
US7936915B2 (en) * 2007-05-29 2011-05-03 Microsoft Corporation Focal length estimation for panoramic stitching
US8634103B2 (en) * 2007-06-12 2014-01-21 Qualcomm Incorporated Print image matching parameter extraction and rendering on display devices
US8724895B2 (en) 2007-07-23 2014-05-13 Nvidia Corporation Techniques for reducing color artifacts in digital images
US8570634B2 (en) 2007-10-11 2013-10-29 Nvidia Corporation Image processing of an incoming light field using a spatial light modulator
US9177368B2 (en) 2007-12-17 2015-11-03 Nvidia Corporation Image distortion correction
US8780128B2 (en) 2007-12-17 2014-07-15 Nvidia Corporation Contiguously packed data
US8698908B2 (en) 2008-02-11 2014-04-15 Nvidia Corporation Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera
US9379156B2 (en) * 2008-04-10 2016-06-28 Nvidia Corporation Per-channel image intensity correction
US8280194B2 (en) * 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8194995B2 (en) * 2008-09-30 2012-06-05 Sony Corporation Fast camera auto-focus
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
US8373718B2 (en) 2008-12-10 2013-02-12 Nvidia Corporation Method and system for color enhancement with color volume adjustment and variable shift along luminance axis
US8290260B2 (en) * 2008-12-15 2012-10-16 Xerox Corporation Method and system for creating integrated remote custom rendering profile
US20100198876A1 (en) * 2009-02-02 2010-08-05 Honeywell International, Inc. Apparatus and method of embedding meta-data in a captured image
DE102009002393A1 (de) * 2009-04-15 2010-11-04 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Verfahren und Vorrichtung zur Bearbeitung von Aufnahmebildern einer digitalen Videokamera
US8749662B2 (en) 2009-04-16 2014-06-10 Nvidia Corporation System and method for lens shading image correction
CN101551661B (zh) * 2009-05-12 2013-04-24 广东工业大学 一种面向多机器人系统的控制方法
US9519814B2 (en) 2009-06-12 2016-12-13 Hand Held Products, Inc. Portable data terminal
FR2948521B1 (fr) 2009-07-21 2012-01-27 Dxo Labs Procede d'estimation d'un defaut d'un systeme de capture d'images et systemes associes
US8698918B2 (en) 2009-10-27 2014-04-15 Nvidia Corporation Automatic white balancing for photography
KR20110065997A (ko) * 2009-12-10 2011-06-16 삼성전자주식회사 영상처리장치 및 영상처리방법
KR101451136B1 (ko) * 2010-03-19 2014-10-16 삼성테크윈 주식회사 비네팅 보정 방법 및 장치
US8335390B2 (en) * 2010-03-22 2012-12-18 Sony Corporation Blur function modeling for depth of field rendering
WO2011143223A2 (en) 2010-05-10 2011-11-17 Board Of Regents, The University Of Texas System Determining quality of an image or a video using a distortion classifier
US20120019709A1 (en) * 2010-07-21 2012-01-26 Altek Corporation Assisting focusing method using multiple face blocks
CN102338972A (zh) * 2010-07-21 2012-02-01 华晶科技股份有限公司 多人脸区块辅助对焦的方法
CH703995A2 (de) 2010-10-24 2012-04-30 Airlight Energy Ip Sa Rinnenkollektor sowie Absorberrohr für einen Rinnenkollektor.
EP2447889A1 (en) * 2010-10-29 2012-05-02 Siemens Aktiengesellschaft Method for modeling a defect management in a manufacturing process and for handling the defect during the production process based on said modeled defect management
CN102625043B (zh) 2011-01-25 2014-12-10 佳能株式会社 图像处理设备、成像设备和图像处理方法
US8842931B2 (en) * 2011-02-18 2014-09-23 Nvidia Corporation System, method, and computer program product for reducing noise in an image using depth-based sweeping over image samples
JP5367749B2 (ja) * 2011-03-25 2013-12-11 株式会社東芝 サーバ装置、通信方法およびプログラム
US10331658B2 (en) * 2011-06-03 2019-06-25 Gdial Inc. Systems and methods for atomizing and individuating data as data quanta
US8712181B2 (en) * 2011-06-14 2014-04-29 Apteryx, Inc. Real-time application of filters based on image attributes
EP2552099B1 (en) 2011-07-27 2013-08-28 Axis AB Method and camera for providing an estimation of a mean signal to noise ratio value for an image
WO2013073418A1 (ja) * 2011-11-16 2013-05-23 オリンパスメディカルシステムズ株式会社 内視鏡用映像信号処理装置
JP2013123812A (ja) * 2011-12-13 2013-06-24 Canon Inc 検査装置、検査方法、コンピュータプログラム
US8958638B2 (en) * 2012-06-10 2015-02-17 Apple Inc. Method and system for multi-stage auto-enhancement of photographs
JP5656926B2 (ja) 2012-06-22 2015-01-21 キヤノン株式会社 画像処理方法、画像処理装置および撮像装置
US8976271B2 (en) 2012-07-19 2015-03-10 Canon Kabushiki Kaisha Optical system and image pickup apparatus
US9509917B2 (en) 2012-07-26 2016-11-29 DePuy Synthes Products, Inc. Wide dynamic range using monochromatic sensor
EP2877080B1 (en) 2012-07-26 2020-07-22 DePuy Synthes Products, Inc. Ycbcr pulsed illumination scheme in a light deficient environment
CN104486986B (zh) 2012-07-26 2018-06-01 德普伊辛迪斯制品公司 光不足环境中的连续视频
US9798698B2 (en) 2012-08-13 2017-10-24 Nvidia Corporation System and method for multi-color dilu preconditioner
US9508318B2 (en) 2012-09-13 2016-11-29 Nvidia Corporation Dynamic color profile management for electronic devices
US8867817B1 (en) * 2012-10-29 2014-10-21 Amazon Technologies, Inc. Display analysis using scanned images
GB2507576A (en) * 2012-11-05 2014-05-07 British Broadcasting Corp Focus detection
US9307213B2 (en) 2012-11-05 2016-04-05 Nvidia Corporation Robust selection and weighting for gray patch automatic white balancing
US9026553B2 (en) * 2012-11-29 2015-05-05 Unisys Corporation Data expanse viewer for database systems
WO2014144950A1 (en) 2013-03-15 2014-09-18 Olive Medical Corporation Noise aware edge enhancement
US10251530B2 (en) 2013-03-15 2019-04-09 DePuy Synthes Products, Inc. Scope sensing in a light controlled environment
US9777913B2 (en) 2013-03-15 2017-10-03 DePuy Synthes Products, Inc. Controlling the integral light energy of a laser pulse
US9492060B2 (en) 2013-03-15 2016-11-15 DePuy Synthes Products, Inc. White balance and fixed pattern noise frame calibration using distal cap
WO2014145244A1 (en) 2013-03-15 2014-09-18 Olive Medical Corporation Comprehensive fixed pattern noise cancellation
JP2016519591A (ja) 2013-03-15 2016-07-07 オリーブ・メディカル・コーポレイションOlive Medical Corporation パルスカラー撮像システムにおける超解像度及び色運動アーチファクト補正
US9756222B2 (en) 2013-06-26 2017-09-05 Nvidia Corporation Method and system for performing white balancing operations on captured images
US9826208B2 (en) 2013-06-26 2017-11-21 Nvidia Corporation Method and system for generating weights for use in white balancing an image
US9167706B2 (en) 2013-08-05 2015-10-20 Steven J. Holmstrom Electronic flight bag retention device
US10009549B2 (en) 2014-02-28 2018-06-26 The Board Of Trustees Of The Leland Stanford Junior University Imaging providing ratio pixel intensity
JP6573960B2 (ja) 2014-03-21 2019-09-11 デピュイ・シンセス・プロダクツ・インコーポレイテッド イメージングセンサ用のカードエッジコネクタ
US9396409B2 (en) 2014-09-29 2016-07-19 At&T Intellectual Property I, L.P. Object based image processing
EP3200148B1 (en) * 2014-10-31 2019-08-28 Huawei Technologies Co., Ltd. Image processing method and device
US10334216B2 (en) * 2014-11-06 2019-06-25 Sony Corporation Imaging system including lens with longitudinal chromatic aberration, endoscope and imaging method
JP6465752B2 (ja) * 2015-05-29 2019-02-06 キヤノン株式会社 制御装置、制御方法、及びプログラム
US20170280971A1 (en) * 2015-08-13 2017-10-05 Hoya Corporation Evaluation value calculation device and electronic endoscope system
WO2017026540A1 (ja) 2015-08-13 2017-02-16 Hoya株式会社 評価値計算装置及び電子内視鏡システム
US9838646B2 (en) * 2015-09-24 2017-12-05 Cisco Technology, Inc. Attenuation of loudspeaker in microphone array
KR20190052089A (ko) * 2016-09-19 2019-05-15 인터디지털 브이씨 홀딩스 인코포레이티드 명시야 데이터를 사용하여 장면을 표현하는 포인트 클라우드를 재구성하기 위한 방법 및 디바이스
EP4254035A3 (en) * 2016-10-12 2023-12-06 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image
US11423005B2 (en) * 2017-04-03 2022-08-23 Mitsubishi Electric Corporation Map data generator and method for generating map data
US10657118B2 (en) 2017-10-05 2020-05-19 Adobe Inc. Update basis for updating digital content in a digital medium environment
US10733262B2 (en) * 2017-10-05 2020-08-04 Adobe Inc. Attribute control for updating digital content in a digital medium environment
US11551257B2 (en) 2017-10-12 2023-01-10 Adobe Inc. Digital media environment for analysis of audience segments in a digital marketing campaign
US10685375B2 (en) 2017-10-12 2020-06-16 Adobe Inc. Digital media environment for analysis of components of content in a digital marketing campaign
US10795647B2 (en) 2017-10-16 2020-10-06 Adobe, Inc. Application digital content control using an embedded machine learning module
US11544743B2 (en) 2017-10-16 2023-01-03 Adobe Inc. Digital content control based on shared machine learning properties
GB2570278B (en) * 2017-10-31 2020-09-16 Cambium Networks Ltd Spectrum management for a point-to-multipoint wireless network
US10853766B2 (en) 2017-11-01 2020-12-01 Adobe Inc. Creative brief schema
US10991012B2 (en) 2017-11-01 2021-04-27 Adobe Inc. Creative brief-based content creation
JP2021508542A (ja) 2017-12-27 2021-03-11 エシコン エルエルシーEthicon LLC 光不足環境におけるハイパースペクトル撮像
CN108074241B (zh) * 2018-01-16 2021-10-22 深圳大学 目标图像的质量评分方法、装置、终端及存储介质
US11379725B2 (en) 2018-06-29 2022-07-05 International Business Machines Corporation Projectile extrapolation and sequence synthesis from video using convolution
JP7278096B2 (ja) * 2019-02-20 2023-05-19 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
US11252326B2 (en) 2019-06-20 2022-02-15 Cilag Gmbh International Pulsed illumination in a laser mapping imaging system
US11134832B2 (en) 2019-06-20 2021-10-05 Cilag Gmbh International Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system
US11398011B2 (en) 2019-06-20 2022-07-26 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed laser mapping imaging system
US11700995B2 (en) 2019-06-20 2023-07-18 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11360028B2 (en) 2019-06-20 2022-06-14 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11716533B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11096565B2 (en) 2019-06-20 2021-08-24 Cilag Gmbh International Driving light emissions according to a jitter specification in a hyperspectral, fluorescence, and laser mapping imaging system
US11937784B2 (en) 2019-06-20 2024-03-26 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11674848B2 (en) 2019-06-20 2023-06-13 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for hyperspectral imaging
US11550057B2 (en) 2019-06-20 2023-01-10 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11233960B2 (en) 2019-06-20 2022-01-25 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11221414B2 (en) 2019-06-20 2022-01-11 Cilag Gmbh International Laser mapping imaging with fixed pattern noise cancellation
US11141052B2 (en) 2019-06-20 2021-10-12 Cilag Gmbh International Image rotation in an endoscopic fluorescence imaging system
US11172811B2 (en) 2019-06-20 2021-11-16 Cilag Gmbh International Image rotation in an endoscopic fluorescence imaging system
US11276148B2 (en) 2019-06-20 2022-03-15 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US10952619B2 (en) 2019-06-20 2021-03-23 Ethicon Llc Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor
US11172810B2 (en) 2019-06-20 2021-11-16 Cilag Gmbh International Speckle removal in a pulsed laser mapping imaging system
US11218645B2 (en) 2019-06-20 2022-01-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11012599B2 (en) 2019-06-20 2021-05-18 Ethicon Llc Hyperspectral imaging in a light deficient environment
US11284784B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Controlling integral energy of a laser pulse in a fluorescence imaging system
US11237270B2 (en) 2019-06-20 2022-02-01 Cilag Gmbh International Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation
US11412152B2 (en) 2019-06-20 2022-08-09 Cilag Gmbh International Speckle removal in a pulsed hyperspectral imaging system
US11903563B2 (en) 2019-06-20 2024-02-20 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11432706B2 (en) 2019-06-20 2022-09-06 Cilag Gmbh International Hyperspectral imaging with minimal area monolithic image sensor
US11931009B2 (en) 2019-06-20 2024-03-19 Cilag Gmbh International Offset illumination of a scene using multiple emitters in a hyperspectral imaging system
US11412920B2 (en) 2019-06-20 2022-08-16 Cilag Gmbh International Speckle removal in a pulsed fluorescence imaging system
US11671691B2 (en) 2019-06-20 2023-06-06 Cilag Gmbh International Image rotation in an endoscopic laser mapping imaging system
US11540696B2 (en) 2019-06-20 2023-01-03 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11533417B2 (en) 2019-06-20 2022-12-20 Cilag Gmbh International Laser scanning and tool tracking imaging in a light deficient environment
US11617541B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for fluorescence imaging
US11265491B2 (en) 2019-06-20 2022-03-01 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11187657B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Hyperspectral imaging with fixed pattern noise cancellation
US11187658B2 (en) 2019-06-20 2021-11-30 Cilag Gmbh International Fluorescence imaging with fixed pattern noise cancellation
US11471055B2 (en) 2019-06-20 2022-10-18 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11716543B2 (en) 2019-06-20 2023-08-01 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US11633089B2 (en) 2019-06-20 2023-04-25 Cilag Gmbh International Fluorescence imaging with minimal area monolithic image sensor
US11389066B2 (en) 2019-06-20 2022-07-19 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11793399B2 (en) 2019-06-20 2023-10-24 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system
US11288772B2 (en) 2019-06-20 2022-03-29 Cilag Gmbh International Super resolution and color motion artifact correction in a pulsed fluorescence imaging system
US20200397239A1 (en) 2019-06-20 2020-12-24 Ethicon Llc Offset illumination of a scene using multiple emitters in a fluorescence imaging system
US11457154B2 (en) 2019-06-20 2022-09-27 Cilag Gmbh International Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11622094B2 (en) 2019-06-20 2023-04-04 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for fluorescence imaging
US10841504B1 (en) 2019-06-20 2020-11-17 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11294062B2 (en) 2019-06-20 2022-04-05 Cilag Gmbh International Dynamic range using a monochrome image sensor for hyperspectral and fluorescence imaging and topology laser mapping
US11516387B2 (en) 2019-06-20 2022-11-29 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system
US11898909B2 (en) 2019-06-20 2024-02-13 Cilag Gmbh International Noise aware edge enhancement in a pulsed fluorescence imaging system
US11375886B2 (en) 2019-06-20 2022-07-05 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for laser mapping imaging
US11754500B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Minimizing image sensor input/output in a pulsed fluorescence imaging system
US11624830B2 (en) 2019-06-20 2023-04-11 Cilag Gmbh International Wide dynamic range using a monochrome image sensor for laser mapping imaging
US11612309B2 (en) 2019-06-20 2023-03-28 Cilag Gmbh International Hyperspectral videostroboscopy of vocal cords
US11925328B2 (en) 2019-06-20 2024-03-12 Cilag Gmbh International Noise aware edge enhancement in a pulsed hyperspectral imaging system
US11122968B2 (en) 2019-06-20 2021-09-21 Cilag Gmbh International Optical fiber waveguide in an endoscopic system for hyperspectral imaging
US10979646B2 (en) 2019-06-20 2021-04-13 Ethicon Llc Fluorescence imaging with minimal area monolithic image sensor
US11892403B2 (en) 2019-06-20 2024-02-06 Cilag Gmbh International Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system
US11758256B2 (en) 2019-06-20 2023-09-12 Cilag Gmbh International Fluorescence imaging in a light deficient environment
US11631202B2 (en) * 2021-01-08 2023-04-18 Samsung Electronics Co., Ltd. System and method for obtaining and applying a vignette filter and grain layer
US11829239B2 (en) 2021-11-17 2023-11-28 Adobe Inc. Managing machine learning model reconstruction

Family Cites Families (80)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6080374A (ja) * 1983-10-11 1985-05-08 Hitachi Denshi Ltd テレビジヨンカメラ装置の撮像特性補正方法
FR2652695B1 (fr) * 1989-10-03 1993-04-16 Thomson Csf Procede et dispositif de visualisation d'images, a correction automatique de defauts par contre-reaction.
FR2661061B1 (fr) * 1990-04-11 1992-08-07 Multi Media Tech Procede et dispositif de modification de zone d'images.
US5047861A (en) * 1990-07-31 1991-09-10 Eastman Kodak Company Method and apparatus for pixel non-uniformity correction
US5157497A (en) * 1991-02-25 1992-10-20 Matsushita Electric Industrial Co., Ltd. Method and apparatus for detecting and compensating for white shading errors in a digitized video signal
US5251271A (en) * 1991-10-21 1993-10-05 R. R. Donnelley & Sons Co. Method for automatic registration of digitized multi-plane images
JPH05176166A (ja) 1991-12-25 1993-07-13 Hitachi Ltd 色再現方法
DE69331719T2 (de) * 1992-06-19 2002-10-24 Agfa Gevaert Nv Verfahren und Vorrichtung zur Geräuschunterdrückung
US5905530A (en) * 1992-08-24 1999-05-18 Canon Kabushiki Kaisha Image pickup apparatus
US5323204A (en) * 1992-11-03 1994-06-21 Eastman Kodak Company Automatic optimization of photographic exposure parameters for non-standard display sizes and/or different focal length photographing modes through determination and utilization of extra system speed
US5461440A (en) * 1993-02-10 1995-10-24 Olympus Optical Co., Ltd. Photographing image correction system
US5353362A (en) * 1993-05-17 1994-10-04 Tucci Robert R Method of generation of two electromagnetic modes using squeezers
JPH0715631A (ja) * 1993-06-29 1995-01-17 Nippon Telegr & Teleph Corp <Ntt> 画像信号雑音除去方法および装置
US5499057A (en) * 1993-08-27 1996-03-12 Sony Corporation Apparatus for producing a noise-reducded image signal from an input image signal
US5485568A (en) * 1993-10-08 1996-01-16 Xerox Corporation Structured image (Sl) format for describing complex color raster images
EP0686945B1 (en) 1994-05-26 2001-12-19 Canon Kabushiki Kaisha Image processing apparatus and method
US6334219B1 (en) * 1994-09-26 2001-12-25 Adc Telecommunications Inc. Channel selection for a hybrid fiber coax network
JPH08116490A (ja) * 1994-10-14 1996-05-07 Olympus Optical Co Ltd 画像処理装置
KR100203239B1 (ko) * 1995-02-16 1999-06-15 윤종용 화이트쉐이딩 보정방법 및 장치
US5606365A (en) * 1995-03-28 1997-02-25 Eastman Kodak Company Interactive camera for network processing of captured images
US5694484A (en) * 1995-05-15 1997-12-02 Polaroid Corporation System and method for automatically processing image data to provide images of optimal perceptual quality
JPH0998299A (ja) 1995-10-02 1997-04-08 Canon Inc 画像処理装置及び方法
JP3409541B2 (ja) 1995-11-14 2003-05-26 三菱電機株式会社 色補正方法及び色補正装置並びに色補正応用装置及びカラー画像システム
JP2000502202A (ja) * 1995-12-19 2000-02-22 テレフオンアクチーボラゲツト エル エム エリクソン(パブル) 命令プロセッサのジョブスケジューリング
US5696850A (en) * 1995-12-21 1997-12-09 Eastman Kodak Company Automatic image sharpening in an electronic imaging system
JPH09214807A (ja) * 1996-01-31 1997-08-15 Canon Inc 画像処理装置および画像処理方法
JP3950188B2 (ja) * 1996-02-27 2007-07-25 株式会社リコー 画像歪み補正用パラメータ決定方法及び撮像装置
JPH1083024A (ja) 1996-09-09 1998-03-31 Fuji Photo Film Co Ltd カメラ及びプリンタ
JP3791635B2 (ja) * 1996-10-22 2006-06-28 富士写真フイルム株式会社 画像再生方法、画像再生装置、画像処理方法および画像処理装置
US6173087B1 (en) * 1996-11-13 2001-01-09 Sarnoff Corporation Multi-view image registration with application to mosaicing and lens distortion correction
US6100925A (en) * 1996-11-27 2000-08-08 Princeton Video Image, Inc. Image insertion in video streams using a combination of physical sensors and pattern recognition
US6094221A (en) * 1997-01-02 2000-07-25 Andersion; Eric C. System and method for using a scripting language to set digital camera device features
JPH10226139A (ja) * 1997-02-14 1998-08-25 Canon Inc 画像形成システム及び画像形成装置及び媒体
US6249315B1 (en) * 1997-03-24 2001-06-19 Jack M. Holm Strategy for pictorial digital image processing
US6222583B1 (en) * 1997-03-27 2001-04-24 Nippon Telegraph And Telephone Corporation Device and system for labeling sight images
JP3225882B2 (ja) 1997-03-27 2001-11-05 日本電信電話株式会社 景観ラベリングシステム
US5990935A (en) * 1997-04-04 1999-11-23 Evans & Sutherland Computer Corporation Method for measuring camera and lens properties for camera tracking
JPH10319929A (ja) 1997-05-19 1998-12-04 Matsushita Electric Ind Co Ltd 表示装置
JP3911354B2 (ja) * 1997-09-02 2007-05-09 大日本スクリーン製造株式会社 画像処理方法および装置、並びにその処理を実行するためのプログラムを記録した記録媒体
JPH11146308A (ja) 1997-11-13 1999-05-28 Fuji Photo Film Co Ltd 画像情報記録装置および画像プリントシステム
US6493028B1 (en) * 1997-11-26 2002-12-10 Flashpoint Technology, Inc. Method and system for extending the available image file formats in an image capture device
DE19855885A1 (de) * 1997-12-04 1999-08-05 Fuji Photo Film Co Ltd Bildverarbeitungsverfahren und -vorrichtung
US6069982A (en) * 1997-12-23 2000-05-30 Polaroid Corporation Estimation of frequency dependence and grey-level dependence of noise in an image
JPH11220687A (ja) * 1998-01-30 1999-08-10 Fuji Photo Film Co Ltd 画像処理方法および装置
US6381375B1 (en) * 1998-02-20 2002-04-30 Cognex Corporation Methods and apparatus for generating a projection of an image
DE19812028A1 (de) * 1998-03-19 1999-09-23 Heidelberger Druckmasch Ag Verfahren zur Koordinatenumrechnung von Bilddaten mit zufälligem Offset der Bildpunkte
JP3926918B2 (ja) 1998-03-20 2007-06-06 富士通株式会社 画像補正処理装置及びそのプログラム記録媒体
US6603885B1 (en) * 1998-04-30 2003-08-05 Fuji Photo Film Co., Ltd. Image processing method and apparatus
JP4338155B2 (ja) * 1998-06-12 2009-10-07 キヤノン株式会社 画像処理装置及びその方法、コンピュータ可読メモリ
JP4187830B2 (ja) 1998-07-03 2008-11-26 東芝医用システムエンジニアリング株式会社 医用画像合成装置
US6462835B1 (en) * 1998-07-15 2002-10-08 Kodak Polychrome Graphics, Llc Imaging system and method
JP4095184B2 (ja) 1998-10-29 2008-06-04 キヤノン株式会社 画像処理装置及びその方法
JP2000165647A (ja) * 1998-11-26 2000-06-16 Seiko Epson Corp 画像データ処理方法および画像データ印刷装置並びに画像データ処理プログラムを記録した記録媒体
JP4154053B2 (ja) * 1998-12-25 2008-09-24 キヤノン株式会社 画像記録・再生システム、画像記録装置及び画像再生装置
US6538691B1 (en) * 1999-01-21 2003-03-25 Intel Corporation Software correction of image distortion in digital cameras
JP4072302B2 (ja) 1999-04-13 2008-04-09 キヤノン株式会社 データ処理方法及び装置及び記憶媒体
US6856427B1 (en) * 1999-05-20 2005-02-15 Eastman Kodak Company System for printing correct exposure in a rendered digital image
US6693668B1 (en) * 1999-06-04 2004-02-17 Canon Kabushiki Kaisha Self-diagnostic image sensor
US6470151B1 (en) * 1999-06-22 2002-10-22 Canon Kabushiki Kaisha Camera, image correcting apparatus, image correcting system, image correcting method, and computer program product providing the image correcting method
US6707950B1 (en) * 1999-06-22 2004-03-16 Eastman Kodak Company Method for modification of non-image data in an image processing chain
JP2001016449A (ja) 1999-06-25 2001-01-19 Ricoh Co Ltd 画像入力装置
US6633408B1 (en) 1999-06-29 2003-10-14 Kodak Polychrome Graphics, Llc Spectral modeling of photographic printing based on dye concentration
CN2567940Y (zh) * 1999-06-30 2003-08-20 罗技电子股份有限公司 摄像机设备
JP4822571B2 (ja) * 1999-08-03 2011-11-24 キヤノン株式会社 デジタルx線撮影システム及び方法
DE19943183A1 (de) * 1999-09-09 2001-03-15 Heimann Systems Gmbh & Co Verfahren zur Farbanpassung eines Bildes, insbesondere eines Röntgenbildes
JP2001094848A (ja) 1999-09-20 2001-04-06 Canon Inc モニター付カメラ
AU1486101A (en) 1999-11-12 2001-06-06 Brian S. Armstrong Image metrology methods and apparatus
US6809837B1 (en) * 1999-11-29 2004-10-26 Xerox Corporation On-line model prediction and calibration system for a dynamically varying color reproduction device
KR100414083B1 (ko) * 1999-12-18 2004-01-07 엘지전자 주식회사 영상왜곡 보정방법 및 이를 이용한 영상표시기기
US6816625B2 (en) * 2000-08-16 2004-11-09 Lewis Jr Clarence A Distortion free image capture system and method
JP3429280B2 (ja) * 2000-09-05 2003-07-22 理化学研究所 画像のレンズ歪みの補正方法
JP4399133B2 (ja) * 2000-09-08 2010-01-13 カシオ計算機株式会社 撮影条件提供装置、撮影条件設定システム、撮影条件提供方法
US6956966B2 (en) * 2001-04-03 2005-10-18 Electronics For Imaging, Inc. Method and apparatus for automated image correction for digital image acquisition
FR2827459B1 (fr) * 2001-07-12 2004-10-29 Poseidon Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image
CN1305006C (zh) * 2001-07-12 2007-03-14 杜莱布斯公司 向图象处理装置提供格式化信息的方法和系统
JP4159986B2 (ja) * 2001-07-12 2008-10-01 ドゥ ラブズ デジタル画像から変換された画像を計算するための方法およびシステム
US6873727B2 (en) * 2001-07-23 2005-03-29 Hewlett-Packard Development Company, L.P. System for setting image characteristics using embedded camera tag information
FR2895103B1 (fr) * 2005-12-19 2008-02-22 Dxo Labs Sa Procede et systeme de traitement de donnees numeriques
FR2895104A1 (fr) * 2005-12-19 2007-06-22 Dxo Labs Sa Procede pour fournir des donnees a un moyen de traitement numerique
FR2895102B1 (fr) * 2005-12-19 2012-12-07 Dxo Labs Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede

Also Published As

Publication number Publication date
WO2003007239A1 (fr) 2003-01-23
EP2015247A3 (fr) 2009-03-18
ATE310284T1 (de) 2005-12-15
ES2253542T3 (es) 2006-06-01
EP1410326A1 (fr) 2004-04-21
JP4367757B2 (ja) 2009-11-18
KR20040043157A (ko) 2004-05-22
KR100940148B1 (ko) 2010-02-03
US7760955B2 (en) 2010-07-20
KR100879832B1 (ko) 2009-01-22
US20040234152A1 (en) 2004-11-25
EP1415275B1 (fr) 2008-07-02
EP1410327A2 (fr) 2004-04-21
EP1410331A2 (fr) 2004-04-21
CN1305010C (zh) 2007-03-14
US7346221B2 (en) 2008-03-18
CN1526116A (zh) 2004-09-01
CN1554074A (zh) 2004-12-08
JP4295612B2 (ja) 2009-07-15
DE60234207D1 (de) 2009-12-10
JP2004534342A (ja) 2004-11-11
US20040218803A1 (en) 2004-11-04
US7343040B2 (en) 2008-03-11
US8559743B2 (en) 2013-10-15
CA2453423C (fr) 2014-10-14
EP1442425A1 (fr) 2004-08-04
US20100278415A1 (en) 2010-11-04
ATE447216T1 (de) 2009-11-15
WO2003007243A3 (fr) 2004-01-22
AU2002317219A1 (en) 2003-01-29
CN1526115A (zh) 2004-09-01
KR20040043155A (ko) 2004-05-22
US20050008242A1 (en) 2005-01-13
JP2004535128A (ja) 2004-11-18
AU2002317902A1 (en) 2003-01-29
JP4614657B2 (ja) 2011-01-19
EP2015247A2 (fr) 2009-01-14
EP1442425B1 (fr) 2018-08-08
US20040247196A1 (en) 2004-12-09
DE60227374D1 (de) 2008-08-14
ATE497224T1 (de) 2011-02-15
US20050002586A1 (en) 2005-01-06
CN1305006C (zh) 2007-03-14
CN1316426C (zh) 2007-05-16
AU2002317900A1 (en) 2003-01-29
CN1526117A (zh) 2004-09-01
JP2004537791A (ja) 2004-12-16
EP1415275A1 (fr) 2004-05-06
US8675980B2 (en) 2014-03-18
EP1410331B1 (fr) 2015-08-12
JP4020262B2 (ja) 2007-12-12
WO2003007242A3 (fr) 2003-04-10
US7724977B2 (en) 2010-05-25
CN1535448A (zh) 2004-10-06
EP1444651B1 (fr) 2009-10-28
JP2005509333A (ja) 2005-04-07
JP2004534341A (ja) 2004-11-11
ATE400040T1 (de) 2008-07-15
KR20040044187A (ko) 2004-05-27
EP2015247B1 (fr) 2016-04-13
CN1273931C (zh) 2006-09-06
CN100361153C (zh) 2008-01-09
DE60207417D1 (de) 2005-12-22
CA2453423A1 (fr) 2003-01-23
KR100940147B1 (ko) 2010-02-03
EP1410326B1 (fr) 2011-01-26
US20110085740A1 (en) 2011-04-14
WO2003007236A2 (fr) 2003-01-23
WO2003007242A2 (fr) 2003-01-23
US20140099042A1 (en) 2014-04-10
WO2003007241A1 (fr) 2003-01-23
JP2004534491A (ja) 2004-11-11
JP4295613B2 (ja) 2009-07-15
WO2003007243A2 (fr) 2003-01-23
US9536284B2 (en) 2017-01-03
US20040252906A1 (en) 2004-12-16
EP1410327B1 (fr) 2005-11-16
US7792378B2 (en) 2010-09-07
US20120308160A1 (en) 2012-12-06
WO2003007240A1 (fr) 2003-01-23
JP4452497B2 (ja) 2010-04-21
WO2003007236A3 (fr) 2003-04-24
EP1444651A2 (fr) 2004-08-11
KR20040043154A (ko) 2004-05-22
KR100957878B1 (ko) 2010-05-13
CN1316427C (zh) 2007-05-16
CN1527989A (zh) 2004-09-08
DE60239061D1 (de) 2011-03-10
DE60207417T2 (de) 2006-08-10

Similar Documents

Publication Publication Date Title
ES2311061T3 (es) Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes.
ES2282429T3 (es) Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas.
Tocci et al. A versatile HDR video production system
US8368762B1 (en) Methods and apparatus for camera calibration based on multiview image geometry
FR2827459A1 (fr) Procede et systeme pour fournir a des logiciels de traitement d&#39;image des informations formatees liees aux caracteristiques des appareils de capture d&#39;image et/ou des moyens de restitution d&#39;image
CN102844788A (zh) 图像处理装置及使用该图像处理装置的图像拾取装置
Trumpy et al. A multispectral design for a new generation of film scanners
Hasinoff Variable-aperture photography
Rowlands Equivalence theory for cross-format photographic image quality comparisons
Ortiz et al. Criteria and recommendations for capturing and presenting soil profile images in order to create a database of soil images.
Riess Physical Integrity
US11758122B1 (en) Lens and camera testing method, apparatus, and system