ES2311061T3 - Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. - Google Patents
Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. Download PDFInfo
- Publication number
- ES2311061T3 ES2311061T3 ES02748933T ES02748933T ES2311061T3 ES 2311061 T3 ES2311061 T3 ES 2311061T3 ES 02748933 T ES02748933 T ES 02748933T ES 02748933 T ES02748933 T ES 02748933T ES 2311061 T3 ES2311061 T3 ES 2311061T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- defects
- restitution
- formatted information
- parameters
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 title claims abstract description 113
- 238000011282 treatment Methods 0.000 title claims abstract description 38
- 230000007547 defect Effects 0.000 claims abstract description 233
- 238000012545 processing Methods 0.000 claims abstract description 58
- 230000004075 alteration Effects 0.000 claims abstract description 35
- 238000004737 colorimetric analysis Methods 0.000 claims abstract description 22
- 201000009310 astigmatism Diseases 0.000 claims abstract description 11
- 238000004519 manufacturing process Methods 0.000 claims abstract description 8
- 238000013461 design Methods 0.000 claims abstract description 5
- 238000011002 quantification Methods 0.000 claims abstract description 5
- 230000009466 transformation Effects 0.000 claims description 131
- 230000003287 optical effect Effects 0.000 claims description 13
- 230000000694 effects Effects 0.000 claims description 12
- 238000012937 correction Methods 0.000 claims description 10
- 230000006835 compression Effects 0.000 claims description 5
- 238000007906 compression Methods 0.000 claims description 5
- 238000005259 measurement Methods 0.000 claims description 5
- 230000004913 activation Effects 0.000 claims description 3
- 230000035945 sensitivity Effects 0.000 claims description 3
- 238000009792 diffusion process Methods 0.000 claims 1
- 230000015572 biosynthetic process Effects 0.000 description 50
- 238000003786 synthesis reaction Methods 0.000 description 50
- 238000004422 calculation algorithm Methods 0.000 description 29
- 238000004364 calculation method Methods 0.000 description 14
- 230000006870 function Effects 0.000 description 13
- 230000008520 organization Effects 0.000 description 13
- 230000004907 flux Effects 0.000 description 7
- 239000000463 material Substances 0.000 description 5
- 230000004048 modification Effects 0.000 description 5
- 238000012986 modification Methods 0.000 description 5
- 230000002441 reversible effect Effects 0.000 description 5
- 238000003860 storage Methods 0.000 description 5
- 238000006243 chemical reaction Methods 0.000 description 4
- 230000010354 integration Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 239000003086 colorant Substances 0.000 description 3
- 230000001419 dependent effect Effects 0.000 description 3
- 238000009826 distribution Methods 0.000 description 3
- 239000011521 glass Substances 0.000 description 3
- 230000002123 temporal effect Effects 0.000 description 3
- 208000002193 Pain Diseases 0.000 description 2
- 230000006978 adaptation Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 238000007620 mathematical function Methods 0.000 description 2
- 230000003071 parasitic effect Effects 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 230000008685 targeting Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 206010003830 Automatism Diseases 0.000 description 1
- 206010073261 Ovarian theca cell tumour Diseases 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000013459 approach Methods 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000009434 installation Methods 0.000 description 1
- 238000013178 mathematical model Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 238000003168 reconstitution method Methods 0.000 description 1
- 230000011514 reflex Effects 0.000 description 1
- 230000001105 regulatory effect Effects 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 230000001629 suppression Effects 0.000 description 1
- 208000001644 thecoma Diseases 0.000 description 1
- 230000017105 transposition Effects 0.000 description 1
- 238000002604 ultrasonography Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/0007—Image acquisition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G06T3/10—
-
- G06T5/70—
-
- G06T5/73—
-
- G06T5/80—
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00007—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for relating to particular apparatus or devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00026—Methods therefor
- H04N1/00045—Methods therefor using a reference pattern designed for the purpose, e.g. a test chart
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/00002—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for
- H04N1/00071—Diagnosis, testing or measuring; Detecting, analysing or monitoring not otherwise provided for characterised by the action taken
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/387—Composing, repositioning or otherwise geometrically modifying originals
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/40—Picture signal circuits
- H04N1/40093—Modification of content of picture, e.g. retouching
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/58—Edge or detail enhancement; Noise or error suppression, e.g. colour misregistration correction
Abstract
Procedimiento para proporcionar, según un formato estándar, informaciones formateadas (15) a medios de tratamiento de imágenes (P1), particularmente programas y/o componentes; dichas informaciones formateadas (15) están relacionadas con defectos (P5) de una cadena de aparatos (P3); dicha cadena de aparatos (P3) incluye particularmente al menos un aparato de captura de imagen (1) y/o un aparato de restitución de imagen (19); dichos medios de tratamiento de imágenes (P1) utilizan dichas informaciones formateadas (15) para modificar la calidad de al menos una imagen (103) procedente de, o destinada a, dicha cadena de aparatos (P3); dichas informaciones formateadas (15) incluyen: - datos que caracterizan los defectos (P5) de dicho aparato de captura de imagen (1), determinados en el momento del diseño y/o de la fabricación de dicho aparato de captura; estos defectos están incluidos en el grupo que consta de: los defectos de geometría, los defectos de picado, los defectos de colorimetría, los defectos geométricos de distorsión, los defectos geométricos de aberración cromática, los defectos geométricos de viñeteado, los defectos de contraste, los defectos de uniformidad del flash, el ruido del captador, el grano, los defectos de astigmatismo, los defectos de aberración esférica; dicho procedimiento incluye la etapa de añadir al menos un campo (91) de dicho formato estándar con dichas informaciones formateadas (15); dicho campo (91) está designado por un nombre de campo; dicho campo (91) contiene al menos un valor de campo; este valor es relativo a las características técnicas de los aparatos, y/o a los parámetros del método de cuantificación, y/o a los parámetros de tratamientos digitales efectuados por dichos aparatos de captura de imagen, y/o a los parámetros que representan las preferencias del usuario, y/o a las desviaciones entre imágenes corregidas por aplicación de un modelo parametrizable a una imagen de referencia e imágenes matemáticas obtenidas por proyección matemática de imágenes de referencia, y/o a los defectos de geometría, y/o a los defectos de picado, y/o a los defectos de colorimetría, y/o a los defectos geométricos de distorsión, y/o a los defectos geométricos de aberración cromática, y/o a los defectos geométricos de viñeteado, y/o a los defectos de contraste, y/o a los defectos de uniformidad del flash, y/o al ruido del captador, y/o al grano, y/o a los defectos de astigmatismo, y/o a los defectos de aberración esférica.
Description
Procedimiento y sistema para proporcionar
informaciones formateadas a medios de tratamiento de imágenes.
La presente invención se refiere a un
procedimiento y un sistema para proporcionar, según un formato
estándar, informaciones formateas a medios de tratamiento de
imágenes.
En este ámbito se conoce el formato Exif,
descrito concretamente en el documento "An Image Data File Format
for Digital Stiff Camera", de Watanabe et al., conferencia
anual "Imaging on the information superhigway", 1995, páginas
421 a 434.
La invención se define en las reivindicaciones
independientes 1 y 12. Las reivindicaciones dependientes definen
modos de realización preferidos.
La invención se refiere a un procedimiento para
proporcionar, según un formato estándar, informaciones formateadas
a medios de tratamiento de imágenes, en concreto programas y/o
componentes. Las informaciones formateadas están relacionadas con
defectos de una cadena de aparatos. La cadena de aparatos incluye en
concreto al menos un aparato de captura de imagen y/o un aparato de
restitución de imagen. Los medios de tratamiento de imágenes
utilizan las informaciones formateadas para modificar la calidad de
al menos una imagen procedente o destinada a la cadena de aparatos.
Las informaciones formateadas incluyen datos que caracterizan
defectos del aparato de captura de imagen, en concreto las
características de distorsión y/o datos que caracterizan defectos
del aparato de restitución de imágenes, en especial las
características de distorsión.
El procedimiento incluye la etapa de rellenar al
menos un campo del formato estándar con las informaciones
formateadas. El campo está designado por un nombre de campo. El
campo contiene al menos un valor de campo.
Preferentemente, según la invención, el
procedimiento es tal que el campo es relativo a los defectos de
picado del aparato de captura de imagen y/o del aparato de
restitución de imagen. El procedimiento es tal que el campo
contiene al menos un valor relativo a los defectos de picado del
aparato de captura de imagen y/o de restitución de imagen.
Preferentemente, según la invención, el
procedimiento es tal que el campo es relativo a los defectos de
colorimetría del aparato de captura de imagen y/o del aparato de
restitución de imagen. El procedimiento es tal que el campo
contiene al menos un valor relativo a los defectos de colorimetría
del aparato de captura de imagen y/o del aparato de restitución de
imagen.
Preferentemente, según la invención, el
procedimiento es tal que el campo es relativo a los defectos
geométricos de distorsión y/o a los defectos geométricos de
aberración cromática del aparato de captura de imagen y/o del
aparato de restitución de imagen. El procedimiento es tal que el
campo contiene al menos un valor relativo a los defectos
geométricos de distorsión y/o a los defectos geométricos de
aberración cromática del aparato de captura de imagen y/o del
aparato de restitución de imagen.
Preferentemente, según la invención, el
procedimiento es tal que el campo es relativo a los defectos
geométricos de viñeteado y/o a los defectos de contraste del
aparato de captura de imagen y/o del aparato de restitución de
imagen. El procedimiento es tal que el campo contiene al menos un
valor relativo a los defectos geométricos de viñeteado y/o a los
defectos de contraste del aparato de captura de imagen y/o del
aparato de restitución de imagen.
Preferentemente, según la invención, el
procedimiento es tal que el campo contiene al menos un valor
relativo a las desviaciones.
Preferentemente, según la invención, las
informaciones formateadas están compuestas al menos en parte por
parámetros de un modelo de transformación parametrizable,
representativo de defectos de picado del aparato de captura de
imagen y/o del aparato de restitución. El procedimiento es tal que
el valor o los valores contenidos en el campo relativo a los
defectos de picado están compuestos al menos en parte por parámetros
del modelo de transformación parametrizable. De la combinación de
rasgos técnicos se deriva que los medios de tratamiento de imagen
pueden utilizar los parámetros del modelo de transformación
parametrizable para calcular la forma corregida o la forma
corregida de restitución de un punto de la imagen.
Preferentemente, según la invención, las
informaciones formateadas están compuestas al menos en parte por
parámetros de un modelo de transformación parametrizable,
representativo de defectos de colorimetría del aparato de captura
de imagen y/o del aparato de restitución. El procedimiento es tal
que el valor o los valores contenidos en el campo relativo a los
defectos de colorimetría están compuestos al menos en parte por
parámetros del modelo de transformación parametrizable. De la
combinación de rasgos técnicos se deriva que los medios de
tratamiento de imagen pueden utilizar los parámetros del modelo de
transformación parametrizable para calcular el color corregido o el
color corregido de restitución de un punto de la imagen.
Preferentemente, según la invención, las
informaciones formateadas están compuestas al menos en parte por
parámetros del modelo de transformación parametrizable,
representativo de defectos geométricos de distorsión y/o de
defectos geométricos de aberración cromática del aparato de captura
de imagen y/o del aparato de restitución. El procedimiento es tal
que el valor o los valores contenidos en el campo relativo a los
defectos geométricos de distorsión y/o a los defectos geométricos
de aberración cromática están compuestos al menos en parte por
parámetros del modelo de transformación parametrizable. De la
combinación de rasgos técnicos se deriva que los medios de
tratamiento de imagen pueden utilizar los parámetros del modelo de
transformación parametrizable para calcular la posición corregida o
la posición corregida de restitución de un punto de la imagen.
Preferentemente, según la invención, las
informaciones formateadas están compuestas al menos en parte por
parámetros de un modelo de transformación parametrizable,
representativo de defectos geométricos de viñeteado y/o de defectos
de contraste del aparato de captura de imagen y/o del aparato de
restitución. El procedimiento es tal que el valor o los valores
contenidos en el campo relativo a los defectos geométricos de
viñeteado y/o a los defectos de contrate están compuestos al menos
en parte por parámetros del modelo de transformación
parametrizable. De la combinación de rasgos técnicos se deriva que
los medios de tratamiento de imagen pueden utilizar los parámetros
del modelo de transformación parametrizable para calcular la
intensidad corregida o la intensidad corregida de restitución de un
punto de la imagen.
\vskip1.000000\baselineskip
Preferentemente, según la invención, para
proporcionar, de acuerdo con un formato estándar, las informaciones
formateadas a los medios de tratamiento de imágenes, el
procedimiento incluye además la etapa de asociar las informaciones
formateadas a la imagen.
Preferentemente, según la invención, la imagen
se difunde en forma de un archivo. El archivo incluye además las
informaciones formateadas.
\vskip1.000000\baselineskip
Preferentemente, según la invención, el aparato
de captura de imagen y/o el aparato de restitución de imagen
incluye al menos una característica variable según la imagen, en
especial la focal. Al menos uno de los defectos, en concreto el
defecto geométrico de distorsión, del aparato de captura de imagen
y/o del aparato de restitución de imagen depende de la
característica variable. El procedimiento es tal que al menos uno de
los campos contiene al menos un valor en función de la
característica variable según la imagen. De la combinación de rasgos
técnicos se deriva que los medios de tratamiento de imagen pueden
tratar la imagen en función de características variables.
\vskip1.000000\baselineskip
Preferentemente, según la invención, las
informaciones formateadas son al menos en parte informaciones
formateadas medidas. Así, en el caso de esta variante de
realización, las desviaciones son reducidas.
Preferentemente, según la invención, las
informaciones formateadas son al menos en parte informaciones
formateadas extendidas. Así, en el caso de esta variante de
realización, las informaciones formateadas ocupan poca memoria. De
esta manera igualmente, los cálculos de tratamiento de imágenes son
más rápidos.
La imagen puede estar compuesta por planos de
color. Preferentemente en el caso de esta variante de realización
según la invención, las informaciones formateadas están al menos en
parte relacionadas con los planos de color. De la combinación de
los rasgos técnicos se deriva que el tratamiento de la imagen puede
estar separado en tratamientos relacionados con cada plano de
color. De la combinación de rasgos técnicos se deriva que al
descomponer la imagen en planos de color antes del tratamiento, se
puede reducir a valores positivos de píxeles en los planos
de
color.
color.
\vskip1.000000\baselineskip
La invención se refiere a un sistema para
proporcionar, según un formato estándar, informaciones formateadas
a medios de tratamiento de imágenes, en concreto programas y/o
componentes. Las informaciones formateadas están relacionadas con
los defectos de una cadena de aparatos. La cadena de aparatos
incluye especialmente al menos un aparato de captura de imagen y/o
un aparato de restitución de imagen. Los medios de tratamiento de
imágenes utilizan las informaciones formateadas para modificar la
calidad de al menos una imagen procedente o destinada a la cadena
de aparatos. Las informaciones formateadas incluyen datos que
caracterizan los defectos del aparato de captura de imagen, en
especial las características de distorsión y/o datos que
caracterizan los defectos del aparato de restitución de imágenes,
en concreto las características de distorsión.
El sistema incluye medios de tratamiento
informáticos para añadir al menos a un campo del formato estándar
las informaciones formateadas. El campo se designa con un nombre de
campo. El campo contiene al menos un valor de campo.
Preferentemente, según la invención, el sistema
es tal que el campo está relacionado con los defectos de picado del
aparato de captura de imagen y/o del aparato de restitución de
imagen. El sistema es tal que el campo contiene al menos un valor
relacionado con los defectos de picado del aparato de captura de
imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el sistema
es tal que el campo está relacionado con los defectos de
colorimetría del aparato de captura de imagen y/o del aparato de
restitución de imagen. El sistema es tal que el campo contiene al
menos un valor relativo a los defectos de colorimetría del aparato
de captura de imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el sistema
es tal que el campo está relacionado con los defectos geométricos
de distorsión y/o con los defectos geométricos de aberración
cromática del aparato de captura de imagen y/o del aparato de
restitución de imagen. El sistema es tal que el campo contiene al
menos un valor relativo a los defectos geométricos de distorsión
y/o a los defectos geométricos de aberración cromática del aparato
de captura de imagen y/o del aparato de restitución de imagen.
Preferentemente, según la invención, el sistema
es tal que el campo está relacionado con los defectos geométricos
de viñeteado y/o con los defectos de contraste del aparato de
captura de imagen y/o del aparato de restitución de imagen. El
sistema es tal que el campo contiene al menos un valor relativo a
los defectos geométricos de viñeteado y/o a los defectos de
contraste del aparato de captura de imagen y/o del aparato
restitución de imagen.
Preferentemente, según la invención, el sistema
es tal que el campo contiene al menos un valor relativo a
desviaciones.
Preferentemente, según la invención, las
informaciones formateadas están compuestas al menos en parte por
parámetros de un modelo de transformación parametrizable
representativo de defectos de picado del aparato de captura de
imagen y/o del aparato de restitución. El sistema es tal que el
valor o los valores contenidos en el campo relativo a los defectos
de picado están compuestos al menos en parte por parámetros del
modelo de transformación
parametrizable.
parametrizable.
Preferentemente, según la invención, las
informaciones formateadas están compuestas al menos en parte por
parámetros de un modelo de transformación parametrizable
representativo de los defectos de colorimetría del aparato de
captura de imagen y/o del aparato de restitución. El sistema es tal
que el valor o los valores contenidos en el campo relativo a los
defectos de colorimetría están compuestos al menos en parte por
parámetros del modelo de transformación parametrizable.
Preferentemente, según la invención, las
informaciones formateadas están compuestas al menos en parte por
parámetros de un modelo de transformación parametrizable
representativo de los defectos geométricos de distorsión y/o de los
defectos geométricos de aberración cromática del aparato de captura
de imagen y/o del aparato de restitución. El sistema es tal que el
valor o los valores contenidos en el campo relativo a los defectos
geométricos de distorsión y/o a los defectos geométricos de
aberración cromática están compuestos al menos en parte por
parámetros del modelo de transformación parametrizable.
Preferentemente, según la invención, las
informaciones formateadas están compuestas al menos en parte por
parámetros de un modelo de transformación parametrizable
representativo de los defectos geométricos de viñeteado y/o de los
defectos de contraste del aparato de captura de imagen y/o del
aparato de restitución. El sistema es tal que el valor o los
valores contenidos en el campo relativo a los defectos geométricos
de viñeteado y/o a los defectos de contraste están compuestos al
menos en parte por parámetros del modelo de transformación
parametrizable.
\vskip1.000000\baselineskip
Preferentemente, según la invención, para
proporcionar, según un formato estándar, las informaciones
formateadas a los medios de tratamiento de imágenes, el sistema
incluye además medios de tratamiento informático para asociar las
informaciones formateadas a la imagen.
Preferentemente, según la invención, el sistema
consta de medios de difusión para difundir la imagen en forma de
archivo. El archivo incluye además las informaciones
formateadas.
\vskip1.000000\baselineskip
El aparato de captura de imagen y/o el aparato
de restitución de imagen puede incluir al menos una característica
variable según la imagen, en concreto la focal. Al menos uno de los
defectos, en concreto el defecto geométrico de distorsión, del
aparato de captura de imagen y/o del aparato de restitución de
imagen, depende de la característica variable. Preferentemente en
el caso de esta variante de realización según la invención, el
sistema es tal que al menos uno de los campos contiene al menos un
valor en función de la característica variable según la imagen.
\vskip1.000000\baselineskip
Preferentemente, según la invención, las
informaciones formateadas son al menos en parte informaciones
formateadas medidas.
Preferentemente, según la invención, las
informaciones formateadas son al menos en parte informaciones
formateadas extendidas.
La imagen puede estar formada por planos de
color. Preferentemente en el caso de esta variante de realización
según la invención, las informaciones formateadas están relacionadas
al menos en parte con planos de color.
\vskip1.000000\baselineskip
Otras características y ventajas de la invención
aparecerán en la lectura de la descripción de las variantes de
realización de la invención dada a modo de ejemplo indicativo, pero
no limitativo, y de las figuras que representan
respectivamente:
- figura 1: una vista esquemática de una captura
de imagen,
- figura 2: una vista esquemática de una
restitución de imagen,
- figura 3: una vista esquemática de píxeles de
una imagen,
- figuras 4a y 4b: dos vistas esquemáticas de
una escena de referencia,
- figura 5: el organigrama del método que
permite calcular la diferencia entre la imagen matemática y la
imagen corregida,
- figura 6: el organigrama del método que
permite obtener la mejor transformación de restitución para un medio
de restitución de imagen,
- figura 7: una vista esquemática de elementos
que componen el sistema según la invención,
- figura 8: una vista esquemática de campos de
informaciones formateadas,
- figura 9a: una vista esquemática de frente de
un punto matemático,
- figura 9b: una vista esquemática de frente de
un punto real de una imagen,
- figura 9c: una vista esquemática de perfil de
un punto matemático,
- figura 9d: una vista esquemática de perfil de
un punto real de una imagen,
- figura 10: una vista esquemática de una tabla
de puntos característicos,
- figura 11: el organigrama del método que
permite obtener las informaciones formateadas,
- figura 12: el organigrama del método que
permite obtener la mejor transformación para un aparato de captura
de imagen,
- figura 13: el organigrama del método que
permite modificar la calidad de una imagen procedente o destinada a
una cadena de aparatos,
- figura 14: un ejemplo de archivo que contiene
informaciones formateadas,
- figura 15: un ejemplo de informaciones
formateadas,
\newpage
- figura 16: una representación de parámetros de
modelos parametrizables,
- figura 17: el organigrama del método que
permite obtener la mejor transformación para un aparato de
restitución de imagen.
En la figura 1, se ha representado: una escena 3
que incluye un objeto 107, un captador 101 y la superficie del
captador 110, un centro óptico 111, un punto de observación 105 en
una superficie del captador 110, una dirección de observación 106
pasando por el punto de observación 105, el centro óptico 111, la
escena 3, una superficie 10 geométricamente asociada a la
superficie del captador 110.
En la figura 2, se ha representado una imagen
103, un medio de restitución de imagen 19 y una imagen restituida
191 obtenida sobre el soporte de restitución 190.
En la figura 3, se ha representado una escena 3,
un aparato de captura de imagen 1 y una imagen 103 constituida por
píxeles 104.
En las figuras 4a y 4b, se han representado dos
variantes de una escena de referencia 9.
En la figura 5, se ha representado un
organigrama que emplea una escena 3, una proyección matemática 8 que
proporciona una imagen matemática 70 de la escena 3, una proyección
real 72 que proporciona una imagen 103 de la escena 3 para las
características utilizadas 74, un modelo de transformación
parametrizable 12 que proporciona una imagen corregida 71 de la
imagen 103, la imagen corregida 71 que presenta una diferencia 73
con la imagen matemática 70.
En la figura 6, se ha representado un
organigrama que emplea una imagen 103, una proyección real de
restitución 90 que proporciona una imagen restituida 191 de la
imagen 103 para las características de restitución utilizadas 95,
un modelo de transformación parametrizable de restitución 97 que
proporciona una imagen corregida de restitución 94 de la imagen
103, una proyección matemática de restitución 96 que proporciona una
imagen matemática de restitución 92 de la imagen corregida de
restitución 94 y que presenta una diferencia de restitución 93 con
la imagen restituida 191.
En la figura 7, se ha representado un sistema
que incluye un aparato de captura de imagen 1 constituido por una
óptica 100, un captador 101 y una electrónica 102. En la figura 7
también se han representado una zona de memoria 16 que contiene una
imagen 103, una base de datos 22 que contiene informaciones
formateadas 15, medios de transmisión 18 de la imagen completada
120 constituida por la imagen 103 e informaciones formateadas 15
hacia medios de cálculo 17 que contienen programas de tratamiento de
imagen 4.
En la figura 8 se han representado informaciones
formateadas 15 constituidas por campos 91.
En la figura 9a a 9d se han representado una
imagen matemática 70, una imagen 103, la posición matemática 40 de
un punto, la forma matemática 41 de un punto, comparadas con la
posición real 50 y la forma real 51 del punto correspondiente de la
imagen.
En la figura 10, se ha representado una tabla 80
de puntos característicos.
En la figura 11, se ha representado un
organigrama que emplea una imagen 103, características utilizadas
74, una base de datos de características 22. Las informaciones
formateadas 15 se obtienen a partir de características utilizadas
74 y se almacenan en la base de datos 22. La imagen completada 120
se obtiene a partir de la imagen 103 y de las informaciones
formateadas 15.
En la figura 12, se ha representado un
organigrama que emplea una escena de referencia 9, una proyección
matemática 8 que proporciona una clase de imagen de síntesis 7 de
la escena de referencia 9, una proyección real 72 que proporciona
una imagen de referencia 11 de la escena de referencia 9 para las
características utilizadas 74. Este organigrama emplea igualmente
un modelo de transformación parametrizable 12 que proporciona una
imagen transformada 13 de la imagen de referencia 11. La imagen
transformada 13 presenta una desviación 14 con la clase de imagen
de síntesis 7.
En la figura 17, se ha representado un
organigrama que emplea una referencia de restitución 209, una
proyección real de restitución 90 que proporciona una referencia
restituida 211 de dicha referencia de restitución 209 para las
características de restitución utilizadas 95, un modelo de
transformación parametrizable de restitución 97 que proporciona una
imagen de referencia corregida de restitución 213 de dicha
referencia de restitución 209, un modelo de transformación
parametrizable de restitución inversa 297 que produce a partir de
dicha imagen de referencia corregida de restitución 213 dicha
referencia de restitución 209. Este organigrama emplea igualmente
una proyección matemática de restitución 96 que proporciona una
imagen de síntesis de restitución 307 de la imagen de referencia
corregida de restitución 213. Dicha imagen de síntesis de
restitución 307 presenta un desvío de restitución 214 con la
referencia restituida 211.
\newpage
\global\parskip0.950000\baselineskip
Otras características y ventajas de la invención
aparecerán en la lectura de:
- las definiciones, a continuación explicitadas,
de los términos técnicos empleados ilustradas al referirse a los
ejemplos indicativos y no limitativos de las figuras 1 a 17,
- la descripción de las figuras 1 a 17.
\vskip1.000000\baselineskip
Se denominan escena 3 al lugar en el espacio de
tres dimensiones que incluye objetos 107 iluminados por fuentes
luminosas.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos a las
figuras 3 y 7, lo que entendemos por aparato de captura de imagen 1
e imagen 103. Se denomina aparato de captura de imagen 1 a un
aparato constituido por una óptica 100, uno o varios captadores
101, una electrónica 102, una zona de memoria 16. Dicho aparato de
captura de imagen 1 permite a partir de una escena 3 obtener
imágenes digitales fijas 103 o animadas grabadas en la zona de
memoria 16 o transmitidas a un dispositivo externo. Las imágenes
animadas están constituidas por una sucesión en el tiempo, por
imágenes fijas 103. Dicho aparato de captura de imagen 1 puede tomar
la forma particularmente de un aparato de fotos, un camescopio, una
cámara conectada o integrada en un PC, una cámara conectada o
integrada en un asistente personal, una cámara conectada o
integrada en un teléfono, un aparato de videoconferencia o una
cámara o un aparato de medida sensible a otras longitudes de onda
diferentes de la luz visible como, por ejemplo, una cámara
térmica.
Se denomina captura de imagen al procedimiento
que consiste en el cálculo de la imagen 103 con el aparato de
captura de imagen 1.
En el caso en que un aparato incluya varios
subconjuntos intercambiables, en particular una óptica 100, se
llama aparato de captura de imagen 1 a una configuración particular
del aparato.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos a la
figura 2, lo que entendemos por medio de restitución de imagen 19.
Dicho medio de restitución de imagen 19 puede tomar la forma
especialmente de una pantalla de visualización, un televisor, una
pantalla plana, un proyector, gafas de realidad virtual, una
impresora.
Dicho medio de restitución de imagen 19 consta
de:
- una electrónica,
- una o varias fuentes de luz, electrones o
tinta,
- uno o varios moduladores: dispositivos de
modulación de luz, electrones o tinta,
- un dispositivo de focalización, que se
presenta en concreto en forma de una óptica en el caso de un
proyector luminoso, o en forma de bobinas de focalización de haz
electrónico en el caso de una pantalla de tubo catódico, o en forma
de filtros en el caso de una pantalla plana,
- un soporte de restitución 190 que se presenta
especialmente en forma de una pantalla en el caso de una pantalla
de tubo catódico, una pantalla plana o un proyector, en forma de
soporte de impresión en el que la impresión se efectúa en el caso
de una impresora, o en forma de una superficie virtual en el espacio
en el caso de un proyector de imagen virtual.
Dicho medio de restitución de imagen 19 permite
a partir de una imagen 103 obtener una imagen restituida 191 en el
soporte de restitución 190.
Las imágenes animadas están constituidas por una
sucesión en el tiempo, por imágenes fijas.
Se denomina restitución de imagen al
procedimiento que consiste en la visualización o la impresión de la
imagen por el medio de restitución de imagen 19.
En el caso de que un medio de restitución 19
esté formado por varios subconjuntos intercambiables o pueda
desplazarse relativamente uno en relación con el otro, en particular
el soporte de restitución 190, se denomina medio de restitución de
imagen 19 a una configuración particular.
\newpage
\global\parskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos a la
figura 1, lo que se denomina superficie del captador 110.
Se denomina superficie del captador 110 a la
forma en el espacio dibujada por la superficie sensible del captador
101 del aparato de captura de imagen 1 en el momento de la captura
de imagen. Esta superficie es generalmente plana.
Se denomina centro óptico 111 a un punto en el
espacio asociado a la imagen 103 en el momento de la captura de
imagen. Se denomina distancia focal a la distancia entre este punto
111 y el plano 110, en el caso de que la superficie del captador
110 sea plana.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos a la
figura 3, lo que entendemos por píxel 104 y valor de píxel.
Se denomina píxel 104 a una zona elemental de la
superficie del captador 110 obtenida creando un mosaico generalmente
regular de dicha superficie del captador 110. Se llama valor de
píxel a un número asociado a este píxel 104.
Una captura de imagen consiste en determinar el
valor de cada píxel 104. El conjunto de estos valores constituye la
imagen 103.
Durante una captura de imagen, el valor de píxel
se obtiene por la integración en la superficie del píxel 104,
durante un período de tiempo llamado tiempo de exposición, de una
parte del flujo luminoso procedente de la escena 3 a través de la
óptica 100 y por conversión del resultado de esta integración en
valor digital. La integración del flujo luminoso y/o la conversión
del resultado de esta integración en valor digital se efectúan por
medio de la electrónica 102.
Esta definición de la noción de valor de píxel
se aplica en caso de imágenes 103 en blanco y negro o en color, ya
sean fijas o animadas.
No obstante, según los casos, la parte del flujo
luminoso afectada se obtiene de diversas maneras:
a) En el caso de una imagen 103 en color, la
superficie del captador 110 incluye generalmente varios tipos de
píxeles 104, respectivamente asociados a flujos luminosos de
longitudes de onda diferentes, como por ejemplo píxeles rojos,
verdes y azules.
b) En el caso de una imagen 103 en color, puede
haber igualmente varios captadores 101 yuxtapuestos que reciben
cada uno una parte del flujo luminoso.
c) En el caso de una imagen 103 en color, los
colores utilizados pueden ser diferentes del rojo, verde y azul,
como por ejemplo para la televisión NTSC americana, y pueden ser de
un número superior a tres.
d) Por último, en el caso de una cámara de
televisión de barrido entrelazado, las imágenes animadas producidas
están constituidas por una alternancia de imágenes 103 que incluyen
las líneas pares, e imágenes 103 que incluyen las líneas
impares.
\vskip1.000000\baselineskip
Se denomina configuración utilizada a la lista
de subconjuntos amovibles del aparato de captura de imagen 1, por
ejemplo la óptica 100, efectivamente montada en el aparato de
captura de imagen 1 si es intercambiable. La configuración
utilizada se caracteriza especialmente por:
- el tipo de óptica 100,
- el número de serie de la óptica 100 o
cualquier otra designación.
Se denomina ajustes utilizados a:
- la configuración utilizada tal y como se ha
definido anteriormente, así como
- el valor de los ajustes manuales o automáticos
disponibles en la configuración utilizada y que tengan un impacto
en el contenido de la imagen 103. El usuario puede realizar estos
ajustes, en particular con ayuda de los botones, o pueden
calcularse con el aparato de captura de imagen 1. Estos ajustes
pueden almacenarse en el aparato, en concreto en un soporte
amovible o en todo dispositivo conectado al aparato. Estos ajustes
pueden incluir especialmente los ajustes de focalización, de
diafragma y de focal de la óptica 100, los ajustes de tiempo de
exposición, los ajustes de equilibrio de blancos, los ajustes de
\hbox{tratamiento de imagen integrados como el zoom digital, la compresión, el contraste.}
Se denomina características utilizadas 74 o
juego de características utilizadas 74 a:
a) parámetros relacionados con las
características técnicas intrínsecas al aparato de captura de imagen
1, determinadas en el momento de la concepción del aparato de
captura de imagen 1. Por ejemplo, estos parámetros pueden incluir
la fórmula de la óptica 100 de la configuración utilizada que
afecten a los defectos geométricos y al picado de imágenes
capturadas; la fórmula de la óptica 100 de la configuración
utilizada incluye particularmente la forma, la disposición y el
material de las lentes de la óptica 100.
Estos parámetros pueden incluir además:
- la geometría del captador 101, a saber, la
superficie del captador 110 así como la forma y la disposición
relativa de los píxeles 104 sobre esta superficie,
- el ruido generado por la electrónica 102,
- la ley de conversión de flujos luminosos en
valor de píxel.
b) parámetros relacionados con las
características técnicas intrínsecas al aparato de captura de imagen
1, determinadas en el momento de la fabricación del aparato de
captura de imagen 1, y particularmente:
- el posicionamiento exacto de las lentes en la
óptica 100 de la configuración utilizada,
- el posicionamiento exacto de la óptica 100 en
relación con el captador 101.
c) parámetros relacionados con las
características técnicas del aparato de captura de imagen 1,
determinadas en el momento de la captura de la imagen 103 y
particularmente:
- la posición y la orientación de la superficie
del captador 110 en relación con la escena 3,
- los ajustes utilizados,
- los factores exteriores, como la temperatura,
si es que tienen influencia.
d) las preferencias del usuario, en particular
la temperatura de color a utilizar para la restitución de imágenes.
El usuario selecciona estas preferencias, por ejemplo, con ayuda de
botones.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos a la
figura 1, lo que entendemos por punto de observación 105 y dirección
de observación 106.
Se denomina superficie matemática 10 a una
superficie geométricamente asociada a la superficie del captador
110. Por ejemplo, si la superficie del captador es plana, la
superficie matemática 10 podrá confundirse con la del captador.
Se denomina dirección de observación 106 a una
recta que pasa por al menos un punto de la escena 3 y por el centro
óptico 111. Se denomina punto de observación 105 a la intersección
de la dirección de observación 106 y de la superficie 10.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos a la
figura 1, lo que entendemos por color observado e intensidad
observada. Se denomina color observado al color de la luz emitida,
transmitida o reflejada por dicha escena 3 en dicha dirección de
observación 106 en un instante dado, y observada desde dicho punto
de observación 105. Se denomina intensidad observada a la
intensidad de la luz emitida por dicha escena 3 en dicha dirección
de observación 106 en el mismo instante, y observada desde dicho
punto de observación 105.
El color puede caracterizarse especialmente por
una intensidad luminosa en función de una longitud de onda, o
incluso por dos valores, como los medidos por un colorímetro. La
intensidad puede caracterizarse por un valor medido con un
fotómetro.
Dicho color observado y dicha intensidad
observada dependen concretamente de la posición relativa de los
objetos 107 en la escena 3 y de las fuentes de iluminación
presentes, así como de características de transparencia y de
reflexión de objetos 107 en el momento de la observación.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos
especialmente a las figuras 1, 5, 9a, 9b, 9c y 9d, las nociones de
proyección matemática 8, imagen matemática 70, punto matemático,
color matemático de un punto, intensidad matemática de un punto,
forma matemática 41 de un punto, posición matemática 40 de un
punto.
Ahora vamos a describir, refiriéndonos a la
figura 5, cómo se realiza una imagen matemática 70 por proyección
matemática determinada 8 de al menos una escena 3 en la superficie
matemática 10.
Previamente, vamos a describir lo que entendemos
por proyección matemática determinada 8.
Una proyección matemática determinada 8 asocia
una imagen matemática 70:
- a una escena 3 en el momento de la captura de
una imagen 103,
- y a las características utilizadas 74.
Una proyección matemática determinada 8 es una
transformación que permite determinar las características de cada
punto de la imagen matemática 70 a partir de la escena 3 en el
momento de la captura de imagen y de las características utilizadas
74.
De manera preferente, la proyección matemática 8
se define de la manera que se describe a continuación.
Se denomina posición matemática 40 del punto a
la posición del punto de observación 105 en la superficie matemática
10.
Se denomina forma matemática 41 del punto a la
forma geométrica, puntual, del punto de observación 105.
Se denomina color matemático del punto al color
observado.
Se denomina intensidad matemática del punto a la
intensidad observada.
Se denomina punto matemático a la asociación de
la posición matemática 40, la forma matemática 41, el color
matemático y la intensidad matemática para el punto de observación
105 considerado. La imagen matemática 70 está constituida por el
conjunto de dichos puntos matemáticos.
La proyección matemática 8 de la escena 3 es la
imagen matemática 70.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos
concretamente a las figuras 3, 5, 9a, 9b, 9c y 9d, las nociones de
proyección real 72, punto real, color real de un punto, intensidad
real de un punto, forma real 51 de un punto, posición real 50 de un
punto.
Durante una captura de imagen, el aparato de
captura de imagen 1 asociado a las características utilizadas 74
produce una imagen 103 de la escena 3. La luz procedente de la
escena 3 según una dirección de observación 106, atraviesa la
óptica 100 y llega a la superficie del captador 110.
Se obtiene entonces para dicha dirección de
observación lo que denominamos un punto real que presenta
diferencias en relación con un punto matemático.
Al referirnos a las figuras 9a y 9d, ahora vamos
a describir las diferencias entre el punto real y el punto
matemático.
La forma real 51 asociada a dicha dirección de
observación 106 no es un punto en la superficie del captador, pero
tiene una forma de nube en el espacio de tres dimensiones, que tiene
una intersección con uno o varios píxeles 104. Estas diferencias
provocan en particular la coma, la aberración esférica, el
astigmatismo, el agrupamiento en píxeles 104, aberración cromática,
la profundidad de campo, la difracción, las reflexiones parásitas,
la curvatura de campo del aparato de captura de imagen 1. Dan una
impresión de efecto borroso, de ausencia de picado de la imagen
103.
Además, la posición real 50 asociada a dicha
dirección de observación 106 presenta una diferencia en relación
con la posición matemática 40 de un punto. Esta diferencia provoca
en particular la distorsión geométrica, que proporciona la
impresión de deformación: por ejemplo, las paredes verticales
parecen curvas. Se debe también al hecho de que el número de
píxeles 104 es limitado y en consecuencia la posición real 50 sólo
puede tomar un número finito de
valores.
valores.
Además, la intensidad real asociada a dicha
dirección de observación 106 presenta diferencias en relación con
la intensidad matemática de un punto. Estas diferencias provocan en
particular el gamma y el viñeteado: por ejemplo, los bordes de la
imagen 103 parecen más oscuros. Por otra parte, puede añadirse ruido
a la señal.
Por último, el color real asociado a dicha
dirección de observación 106 presenta diferencias en relación con
el color matemático de un punto. Estas diferencias provocan en
particular el gamma y la dominante de color. Por otra parte, puede
añadirse ruido a la señal.
Se denomina punto real a la asociación de la
posición real 50, la forma real 51, el color real y la intensidad
real para la dirección de observación 106 considerada.
La proyección real 72 de la escena 3 está
constituida por el conjunto de puntos reales.
\vskip1.000000\baselineskip
Se denomina modelo de transformación
parametrizable 12 (o de manera condensada, transformación
parametrizable 12) a una transformación matemática que permite
obtener a partir de una imagen 103 y el valor de parámetros, una
imagen corregida 71. Dichos parámetros pueden calcularse
particularmente a partir de características utilizadas 74, como se
indica a continuación.
Dicha transformación parametrizable 12 permite
en particular determinar para cada punto real de la imagen 103 la
posición corregida de dicho punto real, el color corregido de dicho
punto real, la intensidad corregida de dicho punto real, la forma
corregida de dicho punto real, a partir del valor de parámetros, de
la posición real de dicho punto real y de valores de píxeles de la
imagen 103. La posición corregida puede calcularse, por ejemplo,
con ayuda de polinomios de grado fijado en función de la posición
real; los coeficientes de polinomios dependen del valor de los
parámetros. El color corregido y la intensidad corregida pueden ser,
por ejemplo, sumas ponderadas de valores de píxeles; los
coeficientes dependen del valor de los parámetros y de la posición
real, o incluso de funciones no lineales de valores de píxeles de la
imagen 103.
Se denomina modelo de transformación
parametrizable inversa 212 (o de manera condensada, transformación
parametrizable inversa 212) a una transformación matemática que
permite obtener a partir de una imagen corregida 71, y del valor de
parámetros, una imagen 103. Dichos parámetros pueden calcularse
particularmente a partir de características utilizadas 74 tal y
como se indica a continuación.
Dicha transformación parametrizable inversa 212
permite en particular determinar, para cada punto de la imagen
corregida 71, el punto real de la imagen 103 correspondiente a dicho
punto de la imagen corregida 71 y particularmente la posición de
dicho punto real, el color de dicho punto real, la intensidad de
dicho punto real, la forma de dicho punto real, a partir del valor
de los parámetros y de la imagen corregida 71. La posición del punto
real puede calcularse, por ejemplo, con ayuda de polinomios de
grado fijado en función de la posición del punto de la imagen
corregida 71; los coeficientes de los polinomios dependen del valor
de los parámetros.
Los parámetros pueden incluir especialmente: la
focal de la óptica 100 de la configuración utilizada o un valor
relacionado como la posición de un grupo de lentes, la focalización
de la óptica 100 de la configuración utilizada o un valor
relacionado como la posición de un grupo de lentes, la apertura de
la óptica 100 de la configuración utilizada o un valor relacionado
como la posición del diafragma.
\vskip1.000000\baselineskip
Refiriéndonos a la figura 5, se denomina
diferencia 73 entre la imagen matemática 70 y la imagen corregida
71, para una escena 3 dada y características utilizadas 74 dadas, a
uno o varios valores determinados a partir de números que
caracterizan la posición, el color, la intensidad, la forma de la
totalidad o parte de los puntos corregidos y de la totalidad o
parte de los puntos matemáticos.
Por ejemplo, la diferencia 73 entre la imagen
matemática 70 y la imagen corregida 71, para una escena 3 dada y
características utilizadas 74 dadas, puede determinarse de la manera
siguiente:
- se eligen puntos característicos que puedan
ser por ejemplo los puntos de una tabla ortogonal 80 de puntos
dispuestos regularmente tal y como se presenta en la figura 10.
- Se calcula la diferencia 73, por ejemplo
efectuando la suma para cada punto característico de valores
absolutos de diferencias entre cada número que caracteriza la
posición corregida, el color corregido, la intensidad corregida, la
forma corregida respectivamente para el punto real y para el punto
matemático. La función suma de valores absolutos de diferencias
puede reemplazarse por otra función como la media, la suma de
cuadrados o cualquier otra función que permita combinar los
números.
\newpage
\global\parskip0.920000\baselineskip
Se denomina escena de referencia 9 a una escena
3 de la que se conocen ciertas características. A modo de ejemplo,
la figura 4a presenta una escena de referencia 9 constituida por una
hoja de papel que incluye círculos rellenos de negro y dispuestos
regularmente. La figura 4b presenta otra hoja de papel que incluye
los mismos círculos a los que se han añadido trazos y superficies
coloreadas. Los círculos sirven para medir la posición real 50 de
un punto, los trazos la forma real 51 de un punto, las superficies
coloreadas el color real de un punto y la intensidad real de un
punto. Esta escena de referencia 9 puede estar constituida por otro
material diferente del papel.
\vskip1.000000\baselineskip
Refiriéndonos a la figura 12, ahora vamos a
definir la noción de imagen de referencia 11. Se denomina imagen de
referencia 11 a una imagen de la escena de referencia 9 obtenida con
el aparato de captura de imagen 1.
\vskip1.000000\baselineskip
Refiriéndonos a la figura 12, ahora vamos a
definir la noción de imagen de síntesis 207 y de clase de imágenes
de síntesis 7. Se denomina imagen de síntesis 207 a una imagen
matemática 70 obtenida por proyección matemática 8 de una escena de
referencia 9. Se denomina clase de imágenes de síntesis 7 a un
conjunto de imágenes matemáticas 70 obtenidas por proyección
matemática 8 de una o varias escenas de referencia 9 para uno o
varios juegos de características utilizadas 74. En el caso en que
sólo haya una escena de referencia 9 y un juego de características
utilizadas 74, la clase de imágenes de síntesis 7 solo incluye una
imagen de síntesis 207.
\vskip1.000000\baselineskip
Refiriéndonos a la figura 12, ahora vamos a
definir la noción de imagen transformada 13. Se denomina imagen
transformada 13 a la imagen corregida obtenida por aplicación de un
modelo de transformación parametrizable 12 a una imagen de
referencia 11.
\vskip1.000000\baselineskip
Refiriéndonos a la figura 12, ahora vamos a
describir la noción de imagen transformada 13 próxima a una clase
de imágenes de síntesis 7 y la noción de desviación 14.
Se define la diferencia entre una imagen
transformada 13 y una clase de imágenes de síntesis 7 como la
diferencia más reducida entre dicha imagen transformada 13 y
cualquiera de las imágenes de síntesis 207 de dicha clase de
imágenes de síntesis 7.
A continuación, vamos a describir, refiriéndonos
a la figura 12, un cuarto algoritmo que permite elegir, entre los
modelos de transformación parametrizables 12, el que permite
transformar cada imagen de referencia 11 en una imagen transformada
13 próxima a la clase de imágenes de síntesis 7 de la escena de
referencia 9 correspondiente a dicha imagen de referencia 11, y
esto en diferentes casos de escenas de referencia 9 y
características utilizadas 74.
- En el caso de una escena de referencia 9 dada
asociada a un juego de características utilizadas 74 dadas, se
elige la transformación parametrizable 12 (y sus parámetros) que
permite transformar la imagen de referencia 11 en la imagen
transformada 13 que presenta la diferencia más reducida con la clase
de imágenes de síntesis 7. La clase de imagen de síntesis 7 y la
imagen transformada 13 se denominan entonces próximas. Se denomina
desviación 14 a dicha diferencia.
- En el caso de un grupo de escenas de
referencia dadas asociadas a juegos de características utilizadas 74
dados, se elige la transformación parametrizable 12 (y sus
parámetros) en función de diferencias entre la imagen transformada
13 de cada escena de referencia 9 y la clase de imágenes de síntesis
7 de cada escena de referencia 9 considerada. Se elige la
transformación parametrizable 12 (y sus parámetros) que permite
transformar las imágenes de referencia 11 en imágenes transformadas
13 de manera que la suma de dichas diferencias sea la más reducida.
La función suma puede reemplazarse por otra función como el
producto. La clase de imagen de síntesis 7 y las imágenes
transformadas 13 se denominan entonces próximas. Se denomina
desviación 14 a un valor obtenido a partir de dichas diferencias,
por ejemplo calculando la media.
- En el caso de que algunas características
utilizadas 74 sean desconocidas, es posible determinarlas a partir
de la captura de varias imágenes de referencia 11 de al menos una
escena de referencia 9. En este caso, se determinan simultáneamente
las características desconocidas y la transformación parametrizable
12 (y sus parámetros) que permite transformar las imágenes de
referencia 11 en imágenes transformadas 13 de manera que la suma de
dichas diferencias sea la más reducida, en concreto por cálculo
iterativo o por resolución de ecuaciones relativas a la suma de
dichas diferencias y/o su producto y/o cualquier otra combinación
apropiada de dichas diferencias. La clase de imagen de síntesis 7 y
las imágenes transformadas 13 se denominan entonces próximas. Las
características desconocidas pueden ser, por ejemplo, las posiciones
y las orientaciones relativas de la superficie del captador 110 y
de cada escena de referencia 9 considerada. Se denomina desviación
14 a un valor obtenido a partir de dichas diferencias, por ejemplo
calculando la media. A continuación, vamos a describir
refiriéndonos a la figura 12, un primer algoritmo de cálculo que
permite proceder a una elección:
- en un conjunto de modelos de transformación
parametrizables,
- en un conjunto de modelos de transformación
parametrizables inversos,
- en un conjunto de imágenes de síntesis,
- en un conjunto de escenas de referencia y en
un conjunto de imágenes transformadas.
Esta elección se refiere a:
- una escena de referencia 9 y/o
- una imagen transformada 13 y/o
- un modelo de transformación parametrizable 12
que permite transformar la imagen de referencia 11, obtenida
capturando la escena de referencia 9, por medio del aparato de
captura de imagen 1, en la imagen transformada 13 y/o
- un modelo de transformación parametrizable
inverso 212 que permite transformar la imagen transformada 13 en la
imagen de referencia 11 y/o
- una imagen de síntesis 207 obtenida a partir
de la escena de referencia 9 y/o obtenida a partir de la imagen de
referencia 11.
La elección aceptada es la que minimiza la
diferencia entre la imagen transformada 13 y la imagen de síntesis
207. La imagen de síntesis 207 y la imagen transformada 13 se
denominan entonces próximas. Se denomina desviación 14 a dicha
diferencia.
Preferentemente, según la invención, el primer
algoritmo de cálculo permite elegir en un conjunto de proyecciones
matemáticas una proyección matemática 8 que permite realizar la
imagen de síntesis 207 a partir de la escena de referencia 9.
A continuación, vamos a describir refiriéndonos
a la figura 12, un segundo algoritmo de cálculo que incluye las
etapas de:
- elegir al menos una escena de referencia
9,
- capturar al menos una imagen de referencia 11
de cada escena de referencia 9 por medio del aparato de captura de
imagen 1.
Este segundo algoritmo incluye además la etapa
de elegir en un conjunto de modelos de transformación
parametrizables y en un conjunto de imágenes de síntesis:
- un modelo de transformación parametrizable 12
que permite transformar la imagen de referencia 11 en una imagen
transformada 13 y/o
- una imagen de síntesis 207 obtenida a partir
de la escena de referencia 9 y/o obtenida a partir de la imagen de
referencia 11.
La elección tomada es la que minimiza la
diferencia entre la imagen transformada 13 y la imagen de síntesis
207. La imagen de síntesis 207 y la imagen transformada 13 se
denominan entonces próximas. Se denomina desviación 14 a dicha
diferencia.
Preferentemente, según la invención, el segundo
algoritmo de cálculo permite elegir en un conjunto de proyecciones
matemáticas una proyección matemática 8 que permite realizar la
imagen de síntesis 207 a partir de la escena de referencia 9.
\vskip1.000000\baselineskip
Se denomina mejor transformación a:
- la transformación que, entre los modelos de
transformación parametrizables 12, permite transformar cada imagen
de referencia 11 en una imagen transformada 13 próxima a la clase de
imágenes de síntesis 7 de la escena de referencia 9 correspondiente
a dicha imagen de referencia 11 y/o
- los modelos de transformación parametrizables
12 entre los modelos de transformación parametrizables, de manera
que la imagen transformada 13 esté próxima a la imagen de síntesis
207 y/o
- los modelos de transformación parametrizables
inversos 212 entre los modelos de transformación parametrizables
inversos, de manera que la imagen transformada 13 esté próxima a la
imagen de síntesis 207.
\vskip1.000000\baselineskip
Se denomina calibrado a un procedimiento que
permite obtener datos relativos a las características intrínsecas
del aparato de captura de imagen 1 para una o varias configuraciones
utilizadas constituidas cada una por una óptica 100 asociada a un
aparato de captura de imagen 1.
Caso 1: en el caso de que sólo haya una
configuración, dicho procedimiento incluye las etapas
siguientes:
- la etapa de montar dicha óptica 100 en dicho
aparato de captura de imagen 1,
- la etapa de elegir una o varias escenas de
referencia 9,
- la etapa de elegir varias características
utilizadas 74,
- la etapa de capturar imágenes de dichas
escenas de referencia 9 para dichas características utilizadas,
- la etapa de calcular la mejor transformación
para cada grupo de escenas de referencia 9 correspondiente a las
mismas características utilizadas 74.
Caso 2: en el caso de que se consideren todas
las configuraciones correspondientes a un aparato de captura de
imagen 1 dado y a todas las ópticas 100 de un mismo tipo, dicho
procedimiento incluye las etapas siguientes:
- la etapa de elegir una o varias escenas de
referencia 9,
- la etapa de elegir varias características
utilizadas 74,
- la etapa de calcular imágenes 103 a partir de
características utilizadas 74 y especialmente fórmulas de la óptica
100 de la configuración utilizada y valores de parámetros, por
ejemplo con ayuda de un programa de cálculo de óptica por trazado
de rayos,
- la etapa de calcular la mejor transformación
para cada grupo de escenas de referencia 9 correspondientes a las
mismas características utilizadas.
Caso 3: en el caso de que se consideren todas
las configuraciones correspondientes a una óptica 100 dada y a
todos los aparatos de captura de imagen 1 de un mismo tipo, dicho
procedimiento incluye las etapas siguientes:
- la etapa de montar dicha óptica 100 en un
aparato de captura de imagen 1 del tipo considerado,
- la etapa de elegir una o varias escenas de
referencia 9,
- la etapa de elegir varias características
utilizadas 74,
- la etapa de capturar imágenes de dichas
escenas de referencia 9 para dichas características utilizadas,
- la etapa de calcular la mejor transformación
para cada grupo de escenas de referencia 9 correspondientes a las
mismas características utilizadas.
El calibrado puede llevarlo a cabo, de manera
preferente, el constructor del aparato de captura de imagen 1, para
cada aparato y configuración en el caso 1. Este método es más
preciso pero más exigente y bien adaptado en el caso en que la
óptica 100 no sea intercambiable.
El calibrado puede llevarlo a cabo
alternativamente el constructor del aparato de captura de imagen 1,
para cada tipo y configuración de aparato en el caso 2. Este método
es menos preciso pero es más simple.
El calibrado puede llevarlo a cabo
alternativamente el constructor del aparato de captura de imagen 1 o
un tercero, para cada óptica 100 y tipo de aparato en el caso 3.
Este método es un compromiso que permite utilizar una óptica 100 en
todos los aparatos de captura de imagen 1 de un tipo sin tener que
rehacer el calibrado para cada combinación de aparato de captura de
imagen 1 y óptica 100. En el caso de un aparato de captura de
imagen de óptica no intercambiable, el método permite hacer el
calibrado una sola vez para un tipo de aparato dado.
El calibrado puede llevarlo a cabo
alternativamente el distribuidor o instalador del aparato, para cada
aparato de captura de imagen 1 y configuración en el caso 1.
\global\parskip1.000000\baselineskip
El calibrado puede llevarlo a cabo
alternativamente el distribuidor o instalador del aparato, para cada
óptica 100 y tipo de aparato en el caso 3.
El calibrado puede llevarlo a cabo
alternativamente el usuario del aparato, para cada aparato y
configuración en el caso 1.
El calibrado puede llevarlo a cabo
alternativamente el usuario del aparato, para cada óptica 100 y tipo
de aparato en el caso 3.
\vskip1.000000\baselineskip
Se denomina concepción de óptica digital a un
procedimiento para disminuir el coste de la óptica 100, que
consiste en:
- concebir o elegir en un catálogo una óptica
100 que tenga defectos, concretamente de posicionamiento de puntos
reales,
- disminuir el número de lentes, y/o
- simplificar la forma de las lentes, y/o
- utilizar materiales, tratamientos o
procedimientos de fabricación menos costosos.
Dicho procedimiento incluye las etapas
siguientes:
- la etapa de elegir una diferencia (en el
sentido anteriormente definido) aceptable,
- la etapa de elegir una o varias escenas de
referencia 9,
- la etapa de elegir varias características
utilizadas 74.
Dicho procedimiento incluye además la iteración
de las etapas siguientes:
- la etapa de elegir una fórmula óptica que
incluya en concreto la forma, el material y la disposición de
las
lentes,
lentes,
- la etapa de calcular imágenes 103 a partir de
características utilizadas 74 y especialmente fórmulas de la óptica
100 de la configuración utilizada, empleando, por ejemplo, un
programa de cálculo de óptica por trazado de rayos, o efectuando
medidas en un prototipo,
- la etapa de calcular la mejor transformación
para cada grupo de escenas de referencia 9 correspondiente a las
mismas características utilizadas 74,
- la etapa de verificar si la diferencia es
aceptable, hasta que la diferencia sea aceptable.
\vskip1.000000\baselineskip
Se denomina informaciones formateadas 15
asociadas a la imagen 103 o informaciones formateadas 15 a la
totalidad o parte de los datos siguientes:
- datos relativos a las características técnicas
intrínsecas del aparato de captura de imagen 1, en especial las
características de distorsión, y/o
- datos relativos a las características técnicas
del aparato de captura de imagen 1 en el momento de la captura de
imagen, en especial el tiempo de exposición, y/o
- datos relativos a las preferencias de dicho
usuario, en especial la temperatura de colores, y/o
- datos relativos a las desviaciones 14.
\vskip1.000000\baselineskip
Se denomina base de datos de características 22
a una base de datos que incluye, para uno o varios aparatos de
captura de imagen 1, y para una o varias imágenes 103, informaciones
formateadas 15.
Dicha base de datos de características 22 puede
almacenarse de manera centralizada o repartida, y puede estar
concretamente:
- integrada en el aparato de captura de imagen
1,
- integrada en la óptica 100,
- integrada en un dispositivo de almacenamiento
amovible,
- Integrada en un PC u otro ordenador conectado
a otros elementos durante la captura de imagen,
- Integrada en un PC u otro ordenador conectado
a otros elementos después de la captura de imagen,
- integrada en un PC u otro ordenador capaz de
leer un soporte de almacenamiento común con el aparato de captura
de imagen 1,
- integrada en un servidor a distancia conectado
a un PC u otro ordenador conectado él mismo a otros elementos de la
captura de imagen.
\vskip1.000000\baselineskip
Ahora vamos a definir la noción de campos 91
refiriéndonos a la figura 8. Las informaciones formateadas 15
asociadas a la imagen 103 pueden grabarse con varias formas y
estructurarse en una o varias tablas pero corresponden lógicamente
a la totalidad o parte de los campos 91, que incluyen:
(a) la distancia focal,
(b) la profundidad de campo,
(c) los defectos geométricos.
Dichos defectos geométricos incluyen los
defectos de geometría de la imagen 103 caracterizados por los
parámetros asociados a las características de la toma de vista 74 y
una transformación parametrizable que representa las
características del aparato de captura de imagen 1 en el momento de
la toma de vista. Dichos parámetros y dicha transformación
parametrizable permiten calcular la posición corregida de un punto
de la imagen 103.
Dichos defectos geométricos incluyen además el
viñeteado caracterizado por los parámetros asociados a las
características de la toma de vista 74 y una transformación
parametrizable que representa las características del aparato de
captura de imagen 1 en el momento de la toma de vista. Dichos
parámetros y dicha transformación parametrizable permiten calcular
la intensidad corregida de un punto de la imagen 103.
Dichos defectos geométricos incluyen además la
dominante de color caracterizada por los parámetros asociados a las
características de la toma de vista 74 y una transformación
parametrizable que representa las características del aparato de
captura de imagen 1 en el momento de la toma de vista. Dichos
parámetros y dicha transformación parametrizable permiten calcular
el color corregido de un punto de la imagen 103.
Dichos campos 91 incluyen además (d) el picado
de la imagen 103.
Dicho picado incluye el efecto borroso de
resolución de la imagen 103 caracterizado por los parámetros
asociados a las características de la toma de vista 74 y una
transformación parametrizable que representa las características
del aparato de captura de imagen 1 en el momento de la toma de
vista. Dichos parámetros y dicha transformación parametrizable
permiten calcular la forma corregida de un punto de la imagen 103.
El efecto borroso cubre en particular la coma, la aberración
esférica, el astigmatismo, el agrupamiento en píxeles 104, la
aberración cromática, la profundidad de campo, la difracción, las
reflexiones parásitas, la curvatura de campo.
Dicho picado incluye además el efecto borroso de
profundidad de campo, en concreto las aberraciones esféricas, la
coma, el astigmatismo. Dicho efecto borroso depende de la distancia
de los puntos de la escena 3 en relación con el aparato de captura
de imagen 1 y se caracteriza por los parámetros asociados a las
características de la toma de vista 74 y una transformación
parametrizable que representa las características del aparato de
captura de imagen 1 en el momento de la toma de vista. Dichos
parámetros y dicha transformación parametrizable permiten calcular
la forma corregida de un punto de la imagen 103.
Dichos campos 91 incluyen además (e) parámetros
del método de cuantificación. Dichos parámetros dependen de la
geometría y la física del captador 101, de la arquitectura de la
electrónica 102 y de eventuales programas de tratamiento.
\newpage
Dichos parámetros incluyen una función que
representa las variaciones de intensidad de un píxel 104 en función
de la longitud de onda y del flujo luminoso procedente de dicha
escena 3. Dicha función incluye especialmente las informaciones de
gamma.
Dichos parámetros incluyen además:
- la geometría de dicho captador 101, en
concreto la forma, la posición relativa y el número de elementos
sensibles de dicho captador 101,
- una función que representa la distribución
espacial y temporal del ruido del aparato de captura de imagen
1,
- un valor que representa el tiempo de
exposición de la captura de imagen.
Dichos campos 91 incluyen además (f) parámetros
de tratamientos digitales efectuados por el aparato de captura de
imagen 1, en concreto el zoom digital, la compresión. Estos
parámetros dependen del programa de tratamiento del aparato de
captura de imagen 1 y de los ajustes del usuario.
Dichos campos 91 incluyen además:
(g) parámetros que representan las preferencias
del usuario, en especial en lo relacionado con el grado de efecto
borroso, la resolución de la imagen 103.
(h) las desviaciones 14.
\vskip1.000000\baselineskip
Las informaciones formateadas 15 pueden
calcularse y grabarse en la base de datos 22 en varias etapas.
a) una etapa al término de la concepción del
aparato de captura de imagen 1.
Esta etapa permite obtener características
técnicas intrínsecas al aparato de captura de imagen 1, y
concretamente:
- -
- la distribución espacial y temporal del ruido generado por la electrónica 102,
- -
- la ley de conversión de flujos luminosos en valor de píxel,
- -
- la geometría del captador 101.
b) una etapa al término del calibrado o
concepción de óptica digital.
Esta etapa permite obtener otras características
técnicas intrínsecas del aparato de captura de imagen 1, y en
concreto, para cierto número de valores de características
utilizadas, la mejor transformación asociada y la desviación 14
asociada.
c) una etapa de elección de preferencias del
usuario con ayuda de botones, menús o soporte amovible o conexión a
otro dispositivo.
d) una etapa de captura de imagen.
Esta etapa (d) permite obtener características
técnicas del aparato de captura de imagen 1 en el momento de la
captura de imagen, y en concreto el tiempo de exposición,
determinado por los ajustes manuales o automáticos efectuados.
La etapa (d) permite además obtener la distancia
focal. La distancia focal se calcula a partir de:
- una medida de la posición del grupo de lentes
de focal variable de la óptica 100 de la configuración utilizada,
o
- una consigna dada al motor de posicionamiento,
o
- un dato constructor si la focal es fija.
Por último, dicha distancia focal puede estar
determinada por el análisis del contenido de la imagen 103.
La etapa (d) permite además obtener la
profundidad de campo. La profundidad de campo se calcula a partir
de:
- una medida de la posición del grupo de lentes
de focalización de la óptica 100 de la configuración utilizada,
o
- una consigna dada al motor de posicionamiento,
o
- un dato constructor si la profundidad de campo
es fija.
La etapa (d) permite además obtener los defectos
de geometría y de picado. Los defectos de geometría y de picado
corresponden a una transformación calculada con ayuda de una
combinación de transformaciones de la base de datos de
características 22 obtenidas al término de la etapa (b). Esta
combinación se elige para representar los valores de parámetros
correspondientes a las características utilizadas 74, especialmente
la distancia focal.
La etapa (d) permite además obtener los
parámetros de tratamiento digitales efectuados por el aparato de
captura de imagen 1. Estos parámetros se determinan mediante los
ajustes manuales o automáticos efectuados.
El cálculo de las informaciones formateadas 15
según las etapas (a) a (d) puede realizarse mediante:
- un dispositivo o programa integrado en el
aparato de captura de imagen 1, y/o
- un programa piloto en un PC u otro ordenador,
y/o
- un programa en un PC u otro ordenador, y/o
- una combinación de los tres.
Las transformaciones anteriormente mencionadas
en la etapa (b) y en la etapa (d) pueden almacenarse en forma
de:
- una fórmula matemática general,
- una fórmula matemática para cada punto,
- una fórmula matemática para algunos puntos
característicos.
Las fórmulas matemáticas pueden describirse
mediante:
- una lista de coeficientes,
- una lista de coeficientes y coordenadas.
Estos diferentes métodos permiten realizar un
compromiso entre el tamaño de la memoria disponible para almacenar
las fórmulas y la potencia de cálculo disponible para calcular las
imágenes corregidas 71.
Además, con el fin de encontrar los datos, se
graban identificadores asociados a los datos en la base de datos
22. Estos identificadores incluyen particularmente:
- un identificador del tipo y de la referencia
del aparato de captura de imagen 1,
- un identificador del tipo y de la referencia
de la óptica 100 si es amovible,
- un identificador del tipo y de la referencia
de cualquier otro elemento amovible que tenga una relación con las
informaciones almacenadas,
- un identificador de la imagen 103,
- un identificador de la información formateada
15.
\vskip1.000000\baselineskip
Como se describe la figura 11, se denomina
imagen completada 120 a la imagen 103 asociada a las informaciones
formateadas 15. Esta imagen completada 120 puede tomar la forma, de
manera preferente, de un archivo P100, tal y como se describe en la
figura 14. La imagen completada 120 puede estar repartida igualmente
en varios
archivos.
archivos.
La imagen completada 120 puede calcularse por
medio del aparato de captura de imagen 1. También puede calcularse
por medio de un dispositivo de cálculo externo, por ejemplo, un
ordenador.
\vskip1.000000\baselineskip
Se denomina programa de tratamiento de imagen 4
a un programa que acepta una o varias imágenes completadas 120 y
que efectúa tratamientos en estas imágenes. Estos tratamientos
pueden consistir especialmente en:
- calcular una imagen corregida 71,
- efectuar medidas en el mundo real,
- combinar varias imágenes,
- mejorar la fidelidad de las imágenes en
relación con el mundo real,
- mejorar la calidad subjetiva de las
imágenes,
- detectar objetos o personas 107 en una escena
3,
- añadir objetos o personas 107 en una escena
3,
- reemplazar o modificar objetos o personas 107
en una escena 3,
- retirar las sombras de una escena 3,
- añadir sombras a una escena 3,
- buscar objetos en una base de imágenes.
Dicho programa de tratamiento de imagen
puede:
- estar integrado en el aparato de captura de
imagen 1,
- ejecutarse en medios de cálculo 17 conectados
al aparato de captura de imagen 1 a través de medios de transmisión
18.
\vskip1.000000\baselineskip
Se denomina óptica digital a la combinación de
un aparato de captura de imagen 1, una base de datos de
características 22 y un medio de cálculo 17 que permiten:
- la captura de imagen de una imagen 103,
- el cálculo de la imagen completada,
- el cálculo de la imagen corregida 71.
De manera preferente, el usuario obtiene
directamente la imagen corregida 71. Si lo desea, el usuario puede
solicitar la supresión de la corrección automática.
La base de datos de características 22 puede
estar:
- integrada en el aparato de captura de imagen
1,
- integrada en un PC u otro ordenador conectado
a otros elementos durante la captura de imagen,
- integrada en un PC u otro ordenador conectado
a otros elementos después de la captura de imagen,
- integrada en un PC u otro ordenador capaz de
leer un soporte de almacenamiento común con el aparato de captura
de imagen 1,
- integrada en un servidor a distancia conectado
a un PC u otro ordenador conectado él mismo a otros elementos de la
captura de imagen.
El medio del cálculo 17 puede estar:
- integrado en un componente con el captador
101,
- integrado en un componente con una parte de la
electrónica 102,
- integrado en el aparato de captura de imagen
1,
- integrado en un PC o cualquier ordenador
conectado a otros elementos durante la captura de imagen,
- integrado en un PC o cualquier ordenador
conectado a otros elementos después de la captura de imagen,
- integrado en un PC u otro ordenador capaz de
leer un soporte de almacenamiento común con el aparato de captura
de imagen 1,
- integrado en un servidor a distancia conectado
a un PC con cualquier ordenador conectado él mismo a otros
elementos de la captura de imagen.
\vskip1.000000\baselineskip
En los párrafos anteriores, se han precisado
esencialmente los conceptos y la descripción del procedimiento del
sistema según la invención para proporcionar a programas de
tratamiento de imágenes 4 informaciones formateadas 15 relacionadas
con las características de los aparatos de captura de imagen 1.
En los párrafos siguientes, vamos a ampliar la
definición de los conceptos y completar la descripción del
procedimiento y del sistema según la invención para proporcionar a
programas de tratamiento de imágenes 4 informaciones formateadas 15
relacionadas con las características de medios de restitución de
imagen 19. De esta manera, habremos expuesto el tratamiento de una
cadena completa.
El tratamiento de la cadena completa
permite:
- mejorar la calidad de la imagen 103 de un
extremo al otro de la cadena, para obtener una imagen restituida
191 corrigiendo los defectos del aparato de captura de imagen 1 y
del medio de restitución de imagen 19, y/o
- utilizar ópticas de menor calidad y de menor
coste en un proyector de vídeo en combinación con un programa de
mejora de la calidad de imágenes.
\vskip1.000000\baselineskip
Apoyándonos en las figuras 2, 17 y 6, ahora
vamos a describir la consideración en las informaciones formateadas
15 de las características de un medio de restitución de imágenes 19,
como una impresora, una pantalla de visualización o un
proyector.
Los complementos o modificaciones a aportar a
las definiciones en el caso de un medio de restitución de imagen 19
pueden extrapolarse mutatis mutandis por un profesional a
partir de las definiciones proporcionadas en el caso de un aparato
de captura de imagen 1. No obstante, con el fin de ilustrar este
método, vamos a describir ahora, refiriéndonos en concreto a la
figura 6 y a la figura 17, los principales complementos o
modificaciones.
Se entiende por características de restitución
utilizadas 95 a las características intrínsecas de los medios de
restitución de imagen 19, las características del medio de
restitución de imagen 19 en el momento de la restitución de imagen
y las preferencias del usuario en el momento de la restitución de
las imágenes. Especialmente en el caso de un proyector, las
características de restitución utilizadas 95 incluyen la forma y la
posición de la pantalla utilizada.
Se entiende por modelo de transformación
parametrizable de restitución 97 (o de manera condensada,
transformación parametrizable de restitución 97) una
transformación matemática similar al modelo de transformación
parametrizable 12. Se entiende por modelo de transformación
parametrizable de restitución inversa 297 (o de manera condensada,
transformación parametrizable de restitución inversa 297) una
transformación matemática similar al modelo de transformación
parametrizable inversa 212.
Se entiende por imagen corregida de restitución
94 la imagen obtenida por aplicación de la transformación
parametrizable de restitución 97 a la imagen 103.
Se entiende por proyección matemática de
restitución 96 una proyección matemática que asocia a una imagen
corregida de restitución 94 una imagen matemática de restitución 92
en la superficie matemática de restitución geométricamente asociada
a la superficie del soporte de restitución 190. Los puntos
matemáticos de restitución de la superficie matemática de
restitución tienen una forma, posición, color e intensidad
calculados a partir de la imagen corregida de restitución 94.
Se entiende por proyección real de restitución
90 una proyección que asocia a una imagen 103 una imagen restituida
191. Los valores de píxeles de la imagen 103 se convierten por
medio de la electrónica de medios de restitución 19 en una señal
que pilota el modulador de medios de restitución 19. Se obtienen
puntos reales de restitución en el soporte de restitución 190.
Dichos puntos reales de restitución están dotados de una forma,
color, intensidad y posición. El fenómeno de agrupamiento en
píxeles 104 descrito anteriormente en el caso de un aparato de
captura de imagen 1 no se produce en el caso de un medio de
restitución de imagen. En cambio, se produce un fenómeno inverso
que hace que aparezcan especialmente rectas como escalones de una
escalera.
Se entiende por diferencia de restitución 93 la
diferencia entre la imagen restituida 191 y la imagen matemática de
restitución 92. Esta diferencia de restitución 93 se obtiene
mutatis mutandis como la diferencia 73.
Se entiende por referencia de restitución 209
una imagen 103 cuyos valores de píxeles 104 son conocidos. Se
entiende por referencia restituida 211 la imagen restituida 191
obtenida por la proyección matemática de restitución 90 de la
referencia de restitución 209. Se entiende por imagen de referencia
corregida de restitución 213 la imagen corregida de restitución 94
correspondiente a la referencia de restitución 209, para el modelo
de transformación parametrizable de restitución 97 y/o para el
modelo de transformación parametrizable de restitución inversa
297. Se entiende por imagen de síntesis de restitución 307 la imagen
matemática de restitución 92 obtenida por la proyección matemática
de restitución 96 de la imagen de referencia corregida de
restitución 213.
Se entiende por mejor transformación de
restitución:
- para una referencia de restitución 209 y
características utilizadas 95, aquella que permite transformar la
imagen 103 en una imagen corregida de restitución 94 tal que su
proyección matemática de restitución 92 presente la diferencia más
reducida de restitución 93 con la imagen restituida 191, y/o
- la transformación parametrizable de
restitución 97 entre los modelos de transformación parametrizables
de restitución tal que la referencia restituida 211 presente la
diferencia más reducida de restitución 93 con la imagen de síntesis
de restitución 307, y/o
- la transformación parametrizable de
restitución inversa 297 entre los modelos de transformación
parametrizables inversos tal que la referencia restituida 211
presente la diferencia más reducida de restitución 93 con la imagen
de síntesis de restitución 307.
La referencia restituida 211 y la imagen de
síntesis de restitución 307 se denominan entonces próximas.
Los procedimientos de calibrado de restitución y
de concepción de óptica digital de restitución son comparables a
los procedimientos de calibrado y de concepción de óptica digital en
el caso de un aparato de captura de imagen 1. No obstante, algunas
etapas incluyen diferencias, en concreto las etapas siguientes:
- la etapa de elegir una referencia de
restitución 209,
- la etapa de efectuar la restitución de dicha
referencia de restitución,
- la etapa de calcular la mejor transformación
de restitución.
Preferentemente, según la invención, el
procedimiento incluye un sexto algoritmo de cálculo de informaciones
formateadas 15. Este sexto algoritmo permite efectuar una
elección:
- en un conjunto de modelos de transformación
parametrizables de restitución,
- en un conjunto de modelos de transformación
parametrizables de restitución inversos,
- en un conjunto de proyecciones matemáticas de
restitución,
- en un conjunto de referencias de restitución y
en un conjunto de imágenes de referencia corregidas de
restitución.
La elección efectuada por este sexto algoritmo
se refiere a:
- una referencia de restitución 209, y/o
- una imagen de referencia corregida de
restitución 213, y/o
- un modelo de transformación parametrizable de
restitución 97 que permite transformar la referencia de restitución
209 en la imagen de referencia corregida de restitución 213, y/o
- un modelo de transformación parametrizable de
restitución inversa 297 que permite transformar la imagen de
referencia corregida de restitución 213 en la referencia de
restitución 209, y/o
- una proyección matemática de restitución 96
que permite realizar una imagen de síntesis de restitución 307 a
partir de la imagen de referencia corregida de restitución 213.
La elección se efectúa mediante este sexto
algoritmo de manera que la imagen de síntesis de restitución 307 se
aproxime a la referencia restituida 211 obtenida por restitución de
la referencia de restitución 209 a través del medio de restitución
de imágenes 19. La referencia restituida 211 presenta una desviación
de restitución 214 con la imagen de síntesis de restitución
307.
Según una variante de realización de la
invención, el procedimiento incluye un séptimo algoritmo de cálculo
de informaciones formateadas. Este séptimo algoritmo incluye las
etapas de:
- elegir al menos una referencia de restitución
209,
- restituir la referencia de restitución 209, a
través del medio de restitución de imágenes 19, en una referencia
restituida 211.
Este séptimo algoritmo permite igualmente elegir
en un conjunto de modelos de transformación parametrizables de
restitución y en un conjunto de proyecciones matemáticas de
restitución:
- un modelo de transformación parametrizable de
restitución 97 que permite transformar la referencia de restitución
209 en una imagen de referencia corregida de restitución 213, y
- una proyección matemática de restitución 96
que permite realizar una imagen de síntesis de restitución 307 a
partir de la imagen de referencia corregida de restitución 213.
La elección se efectúa mediante el séptimo
algoritmo de manera que la imagen de síntesis de restitución 307
sea próxima a la referencia restituida 211. La referencia restituida
presenta una desviación de restitución 214 con la imagen de
síntesis de restitución 307. El modelo de transformación
parametrizable de restitución inversa 297 permite transformar la
imagen de referencia corregida de restitución 213 en la referencia
de restitución 209.
Según otra variante de realización de la
invención, el procedimiento incluye un octavo algoritmo de cálculo
de informaciones formateadas. Este octavo algoritmo incluye la etapa
de elegir una imagen de referencia corregida de restitución 213.
Este octavo algoritmo incluye además la etapa de efectuar una
elección en un conjunto de modelos de transformación
parametrizables de restitución, en un conjunto de proyecciones
matemáticas de restitución y en un conjunto de referencias de
restitución. Esta elección se refiere a:
- una referencia de restitución 209, y/o
- un modelo de transformación parametrizable de
restitución 97 que permite transformar la referencia de restitución
209 en la imagen de referencia corregida de restitución 213, y/o
- un modelo de transformación parametrizable de
restitución inversa 297 que permite transformar la imagen de
referencia corregida de restitución 213 en la referencia de
restitución 209, y/o
- una proyección matemática de restitución 96
que permite realizar una imagen de síntesis de restitución 307 a
partir de la imagen de referencia corregida de restitución 213.
El octavo algoritmo efectúa esta elección de
manera que la imagen de síntesis de restitución 307 sea próxima a
la referencia restituida 211 obtenida por restitución de la
referencia de restitución 209, a través del medio de restitución de
imágenes 19. La referencia restituida 211 presenta una desviación de
restitución con la imagen de síntesis de restitución 307.
Preferentemente, según la invención, el
procedimiento incluye un noveno algoritmo de cálculo de desviaciones
de restitución 214. Este noveno algoritmo incluye las etapas
de:
- calcular las desviaciones de restitución 214
entre la referencia restituida 211 y la imagen de síntesis de
restitución 307,
- asociar las desviaciones de restitución 214 a
las informaciones formateadas 15.
De la combinación de rasgos técnicos se deriva
que es posible verificar automáticamente, por ejemplo durante la
fabricación del aparato, que el procedimiento ha producido
informaciones formateadas en tolerancias aceptables.
Las informaciones formateadas 15 relacionadas
con un aparato de captura de imagen 1 y las relacionadas con un
medio de restitución imagen 19 pueden situarse en una detrás de otra
para una misma imagen.
Igualmente es posible combinar las informaciones
formateadas 15 relativas a cada uno de los aparatos para obtener
las informaciones formateadas 15 relativas a la cadena de aparatos,
por ejemplo mediante adición de un campo de vector en el caso de la
distorsión geométrica.
\newpage
Anteriormente se ha descrito la noción de campo
en el caso de un aparato de captura de imagen 1. Esta noción
también se aplica mutatis mutandis en el caso de medios de
restitución de imagen 19. No obstante, los parámetros del método de
cuantificación se sustituyen por los parámetros del método de
reconstitución de la señal, a saber: la geometría del soporte de
restitución 190 y su posición, una función que representa la
distribución espacial y temporal del ruido del medio de restitución
de imágenes 19.
En una variante de realización, según la
invención, el medio de restitución 19 se asocia a un aparato de
captura de imagen 1 para restituir, con una forma digital, la
referencia restituida 211 a partir de la referencia de restitución
209. El procedimiento es tal que para producir las informaciones
formateadas 15 relacionadas con los defectos P5 del medio de
restitución 19, se utilizan las informaciones formateadas 15
relativas al aparato de captura de imagen 1 asociado al medio de
restitución, por ejemplo para corregir los defectos del aparato de
captura de imagen 1 de forma que la referencia restituida 211 sólo
incluya los defectos P5 del medio de restitución 19.
\vskip1.000000\baselineskip
Los rasgos técnicos que componen la invención y
que figuran en las reivindicaciones se han definido, escrito e
ilustrado haciendo referencia esencialmente a aparatos de captura de
imagen de tipo digital, es decir, que producen imágenes digitales.
Se entiende fácilmente que los mismos rasgos técnicos se apliquen en
el caso de aparatos de captura de imagen que sean la combinación de
un aparato argéntico (un aparato fotográfico o cinematográfico que
utilice películas sensibles argénticas, negativas o inversibles) y
un escáner que produzca una imagen digital a partir de películas
sensibles reveladas. En efecto, en este caso cabe adaptar al menos
algunas de las definiciones utilizadas. Estas adaptaciones están al
alcance del profesional. Con el fin de poner de manifiesto el
carácter evidente de dichas adaptaciones, nos limitaremos a
mencionar que las nociones de píxel y de valor de píxel ilustradas
en referencia a la figura 3 deben aplicarse, en el caso de la
combinación de un aparato argéntico y de un escáner, a una zona
elemental de la superficie de la película una vez que ésta se haya
digitalizado por medio de un escáner. Dichas transposiciones de
definiciones son evidentes y pueden extrapolarse a la noción de
configuración utilizada. A la lista de subconjuntos amovibles del
aparato de captura de imagen 1 que forman parte de la configuración
utilizada puede, por ejemplo, añadirse el tipo de película
fotográfica utilizada efectivamente en el aparato
argéntico.
argéntico.
Otras características y ventajas de la invención
aparecerán en la lectura de las definiciones y los ejemplos
indicativos aunque no limitativos, explicitados a continuación
refiriéndonos a las figuras 1 a 17.
\vskip1.000000\baselineskip
Refiriéndonos particularmente a las figuras 2, 3
y 13, vamos a describir la noción de aparato P25. En el sentido de
la invención, un aparato P25 puede ser especialmente:
- un aparato de captura de imagen 1, como por
ejemplo una cámara de fotos desechable, una cámara de fotos digital,
una cámara reflex, un escáner, un fax, un endoscopio, un
camescopio, una cámara de vigilancia, un juguete, una cámara
integrada o conectada a un teléfono, a un asistente personal o a un
ordenador, una cámara térmica, un aparato de ecografía,
- un aparato de restitución de imagen 19 o medio
de restitución de imagen 19, como por ejemplo una pantalla, un
proyector, un televisor, gafas de realidad virtual o una
impresora,
- un aparato incluida su instalación, por
ejemplo, un proyector, una pantalla y la forma en que están
situados,
- el posicionamiento de un observador en
relación con un aparato de restitución de imagen 19, que introduce
particularmente errores de paralaje,
- un ser humano o un observador que tenga
defectos de visión, por ejemplo, astigmatismo,
- un aparato parecido al usado para producir
imágenes que tienen un aspecto similar a las producidas por un
aparato de marca Leica,
- un dispositivo de tratamiento de imágenes, por
ejemplo, un programa de zoom que tenga como efecto de borde añadir
un efecto borroso,
- un aparato virtual equivalente a varios
aparatos P25,
- un aparato P25 más complejo como un
escáner/fax/impresora, un minilab de impresión de fotos, un aparato
de videoconferencia puede considerarse un aparato P25 o varios
aparatos P25.
\vskip1.000000\baselineskip
Refiriéndonos particularmente a la figura 13,
ahora vamos a describir la noción de cadena de aparatos P3. Se
denomina cadena de aparatos P3 a un conjunto de aparatos P25. La
noción de cadena de aparatos P3 puede incluir además una noción de
orden.
Los ejemplos siguientes constituyen cadenas
aparatos P3:
- un solo aparato P25,
- un aparato de captura de imagen 1 y un aparato
de restitución de imagen 19,
- una cámara de fotos, un escáner, un impresora,
por ejemplo en un Minilab de positivado de fotos,
- una cámara de fotos digital, una impresora,
por ejemplo en un Minilab de positivado de fotos,
- un escáner, una pantalla o una impresora, por
ejemplo en un ordenador,
- una pantalla o proyector y el ojo de un ser
humano,
- un aparato u otro aparato parecido,
- un aparato de fotos y un escáner,
- un aparato de captura de imagen, un programa
de tratamiento de imágenes,
- un programa de tratamiento de imágenes, un
aparato de restitución de imagen 19,
- una combinación de los ejemplos
anteriores,
- otro conjunto de aparatos P25.
\vskip1.000000\baselineskip
Refiriéndonos concretamente a la figura 13,
ahora vamos a describir la noción de defecto P5. Se denomina defecto
P5 del aparato P25 a un defecto relacionado con las características
de la óptica y/o del captador y/o de la electrónica y/o del
programa integrado en un aparato P25; son ejemplos de defectos P5,
por ejemplo, los defectos de geometría, los defectos de picado, los
defectos de colorimetría, los defectos geométricos de distorsión,
los defectos geométricos de aberración cromática, los defectos
geométricos de viñeteado, los defectos de contraste, los defectos
de colorimetría, en concreto el rendimiento de los colores y la
dominante de color, los defectos de uniformidad del flash, el ruido
del captador, el grano, los defectos de astigmatismo, los defectos
de aberración esférica.
\vskip1.000000\baselineskip
Refiriéndonos particularmente a las figuras 2,
5, 6 y 13, ahora vamos a describir la noción de imagen 103. Se
denomina imagen 103 a una imagen digital capturada modificada o
restituida por un aparato P25. La imagen 103 puede proceder de un
aparato P25 de la cadena de aparatos P3. La imagen 103 puede estar
destinada a un aparato P25 de la cadena de aparatos P3. De manera
más general, la imagen 103 puede proceder y/o estar destinada a la
cadena de aparatos P3. En el caso de imágenes animadas, por ejemplo
vídeo, constituidas por una secuencia en el tiempo de imágenes
fijas, se denomina imagen 103 a una imagen fija de la secuencia de
imágenes.
\vskip1.000000\baselineskip
Refiriéndonos particularmente a las figuras 7,
8, 10 y 13, ahora vamos a describir la noción de informaciones
formateadas 15. Se denomina informaciones formateadas 15 a datos
relacionados con los defectos P5 o que caracterizan los defectos P5
de uno o varios aparatos P25 de la cadena de aparatos P3 y que
permiten a medios de tratamiento de imágenes P1 modificar la
calidad de las imágenes 103 teniendo en cuenta defectos P5 del
aparato P25.
Para producir las informaciones formateadas 15,
se pueden utilizar diversos procedimientos y sistemas basados en
medidas y/o simulaciones y/o calibrados, como por ejemplo el
procedimiento del calibrado descrito anteriormente.
Para difundir las informaciones formateadas 15,
se puede utilizar un archivo P100 que contenga la imagen completada
120, por ejemplo un aparato de captura de imagen 1 como una cámara
de fotos digital puede producir archivos que contienen la imagen
103, las informaciones formateadas 15 copiadas desde una memoria
interna de la cámara y datos en formato Exif que contienen los
ajustes utilizados.
Para producir las informaciones formateadas 15,
se puede utilizar, por ejemplo, el procedimiento y el sistema de
escritos en la solicitud del patente internacional WO 03/007237
presentada el mismo día que la presente solicitud a nombre de la
sociedad Vision IQ y de título: "Procedimiento y sistema para
producir informaciones formateadas relacionadas con las
distorsiones geométricas". En esta solicitud, se describe un
procedimiento para producir informaciones formateadas 15
relacionadas con los aparatos P25 de una cadena de aparatos P3. La
cadena de aparatos P3 incluye particularmente al menos un aparato de
captura de imagen 1 y/o al menos un aparato de restitución de
imagen 19. El procedimiento incluye la etapa de producir
informaciones formateadas 15 relacionadas con las distorsiones
geométricas de al menos un aparato P25 de la cadena.
Preferentemente, el aparato P25 permite capturar
o restituir una imagen sobre un soporte. El aparato P25 incluye al
menos una característica fija y/o una característica variable según
la imagen. La característica fija y/o característica variable es
susceptible de estar asociada a uno o varios valores de
características, especialmente la focal y/o el enfoque y sus
valores de características asociadas. El procedimiento incluye la
etapa de producir informaciones formateadas medidas relacionadas
con las distorsiones geométricas del aparato a partir de un campo
medido. Las informaciones formateadas 15 pueden incluir las
informaciones formateadas medidas.
Para producir las informaciones formateadas 15,
se puede utilizar, por ejemplo, el procedimiento y el sistema
descritos en la solicitud de patente internacional WO 03/007242
presentada el mismo día que la presente solicitud a nombre de la
sociedad Vision IQ y de título: "Procedimiento y sistema para
producir informaciones formateadas relacionadas con los defectos de
al menos un aparato de una cadena, en concreto el efecto
borroso". En esta solicitud, se describe un procedimiento para
producir informaciones formateadas 15 relacionadas con los aparatos
P25 de una cadena de aparatos P3. La cadena de aparatos P3 incluye
particularmente al menos un aparato de captura de imagen y/o al
menos un aparato de restitución de imagen 19. El procedimiento
incluye la etapa de producir informaciones formateadas 15
relacionadas con los defectos P5 de al menos un aparato P25 de la
cadena. Preferentemente, el aparato P25, que permite capturar o
restituir una imagen, incluye al menos una característica fija y/o
una característica variable según la imagen (I). Las características
fijas y/o variables son susceptibles de estar asociadas a uno o
varios valores de características en concreto la focal y/o el
enfoque y sus valores de características asociadas. El
procedimiento incluye la etapa de producir informaciones formateadas
medidas relacionadas con los defectos P5 del aparato P25 a partir
de un campo medido. Las informaciones formateadas 15 pueden incluir
las informaciones formateadas medidas.
Para producir las informaciones formateadas 15,
se puede utilizar, por ejemplo, el procedimiento y el sistema
descritos en la solicitud de patente internacional WO 03/007236
presentada el mismo día que la presente solicitud a nombre de la
sociedad Vision IQ y de título: "Procedimiento y sistema para
reducir la frecuencia de actualizaciones de medios de tratamiento
de imágenes". En esta solicitud, se describe un procedimiento
para reducir la frecuencia de actualizaciones de medios de
tratamiento de imágenes P1, en concreto un programa y/o un
componente. Los medios de tratamiento de imágenes permiten
modificar la calidad de las imágenes digitales procedentes o
destinadas a una cadena de aparatos P3. La cadena de aparatos P3
incluye al menos un aparato de captura de imagen y/o al menos un
aparato de restitución de imagen 19. Los medios de tratamiento de
imagen P1 emplean informaciones formateadas 15 relacionadas con los
defectos P5 de al menos un aparato de la cadena de aparatos P5. Las
informaciones formateadas 15 dependen al menos de una variable. Las
informaciones formateadas 15 permiten establecer una
correspondencia entre una parte de las variables y los
identificadores. Los identificadores permiten determinar el valor
de la variable correspondiente al identificador teniendo en cuenta
el identificador y la imagen. De la combinación de rasgos técnicos
se deriva que es posible determinar el valor de una variable, en
concreto en el caso de que la significación física y/o el contenido
de la variable sólo se conozcan posteriormente a la difusión de
medios de tratamiento de imagen P1. Igualmente de la combinación de
rasgos técnicos se deriva que el tiempo entre dos actualizaciones
del programa de corrección puede estar espaciado. De la combinación
de rasgos técnicos se deriva igualmente que los diversos actores
económicos que producen aparatos y/o medios de tratamiento de
imagen pueden actualizar sus productos independientemente de otros
actores económicos, aunque estos últimos cambien radicalmente las
características de sus productos o no puedan forzar a su cliente a
poner al día sus productos. De la combinación de rasgos técnicos se
deriva igualmente que puede presentarse una nueva funcionalidad
progresivamente comenzando con un número limitado de actores
económicos y de usuarios pioneros.
Para buscar las informaciones formateadas 15, se
puede utilizar, por ejemplo, el procedimiento y el sistema
descritos en la solicitud de patente internacional WP 03/007240
presentada el mismo día que la presente solicitud a nombre de la
sociedad Vision IQ y de título: "Procedimiento y sistema para
modificar la calidad de al menos una imagen procedente o destinada
a una cadena de aparatos". En esta solicitud, se describe un
procedimiento para modificar la calidad de al menos una imagen 103
procedente o destinada a una cadena de aparatos determinada. La
cadena de aparatos determinada incluye al menos un aparato de
captura de imagen y/o al menos un aparato de restitución de imagen
19. Los aparatos de captura de imagen y/o los aparatos que
restitución de imagen, presentados progresivamente en el mercado
por actores económicos distintos, pertenecen a un conjunto
indeterminado de aparatos. Los aparatos P25 del conjunto de
aparatos presentan defectos P5 que pueden estar caracterizados por
informaciones formateadas 15. El procedimiento incluye, para la
imagen en cuestión, las etapas siguientes:
- la etapa de catalogar fuentes de información
formateadas relativas a los aparatos P25 del conjunto de
aparatos,
- la etapa de buscar de manera automática entre
las informaciones formateadas 15 así catalogadas, informaciones
formateadas específicas relativas a la cadena de aparatos
determinada,
- la etapa de modificar de manera automática la
imagen mediante programas de tratamiento de imágenes y/o componentes
de tratamiento de imágenes teniendo en cuenta informaciones
formateadas específicas así obtenidas.
Para explotar las informaciones formateadas 15,
se puede utilizar, por ejemplo, el procedimiento y el sistema
descritos en la solicitud de patente internacional WO 03/007238
presentada el mismo día que la presente solicitud a nombre de la
sociedad Vision IQ de título: "Procedimiento y sistema para
calcular una imagen transformada a partir de una imagen digital y
de informaciones formateadas relativas a una transformación
geométrica". En esta solicitud, se describe un procedimiento
para calcular una imagen transformada a partir de una imagen
digital y de informaciones formateadas 15 relativas a una
transformación geométrica, particularmente informaciones
formateadas 15 relativas a las distorsiones y/o aberraciones
cromáticas de una cadena de aparatos P3. El procedimiento incluye
la etapa de calcular la imagen transformada a partir de una
aproximación de la transformación geométrica. De ello se desprende
que el cálculo es parco en recursos de memoria, ancho de banda de
memoria, potencia de cálculo y en consecuencia consumo eléctrico.
De ello se desprende igualmente que la imagen transformada no
presenta defectos visibles o molestos para su uso posterior.
Para explotar las informaciones formateadas 15,
se puede utilizar, por ejemplo, el procedimiento y el sistema
descritos en la solicitud de patente internacional WO 03/007243
presentada el mismo día que la presente solicitud a nombre de la
sociedad Vision IQ de título: "Procedimiento y sistema para
modificar una imagen digital teniendo en cuenta su ruido". En
esta solicitud, se describe un procedimiento para calcular una
imagen transformada a partir de una imagen digital y de
informaciones formateadas 15 relativas a defectos P5 de una cadena
de aparatos P3. La cadena de aparatos P3 incluye aparatos de
captura de imagen y/o aparatos que restitución de imagen. La cadena
de aparatos P3 incluye al menos un aparato P25. El procedimiento
incluye la etapa de determinar automáticamente datos
característicos a partir de informaciones formateadas 15 y/o de la
imagen digital. De la combinación de rasgos técnicos se deriva que
la imagen transformada no presenta defectos visibles o molestos, en
concreto de efectos relacionados con el ruido, para su uso
posterior.
\vskip1.000000\baselineskip
Refiriéndonos particularmente a las figuras 7 y
13, ahora vamos a describir la noción de medio de tratamiento de
imágenes P1. En el sentido de la presente invención, se denomina
medio de tratamiento de imágenes P1, por ejemplo, a un programa de
tratamiento de imagen 4 y/o un componente y/o un equipamiento y/o un
sistema que permite modificar la calidad de la imagen 103 empleando
informaciones formateadas 15, con el fin de producir una imagen
modificada, por ejemplo en imagen corregida 71 o una imagen
corregida de restitución 97. La imagen modificada puede estar
destinada al segundo aparato de la cadena de aparatos P3 distinto o
no del aparato P25, por ejemplo el aparato siguiente en la cadena
de aparatos P3.
La modificación de la calidad de imágenes por
los medios de tratamiento de imágenes P1 puede consistir por
ejemplo en:
- suprimir o atenuar los defectos P5 de uno o
varios aparatos P25 de la cadena de aparatos P3 en la imagen
103
y/o
y/o
- modificar la imagen 103 para añadir al menos
un defecto P5 de uno o varios aparatos P25 de la cadena de aparatos
P3 de manera que la imagen modificada se parezca a una imagen
capturada por el aparato o los aparatos P25 y/o
- modificar la imagen 103 para añadir al menos
un defecto P5 de uno o varios aparatos P25 de la cadena de aparatos
P3 de manera que la restitución de la imagen modificada se parezca a
una imagen restituida por el aparato o los aparatos P25 y/o
- modificar la imagen 103 teniendo en cuenta las
informaciones formateadas 15 relacionadas con los defectos P5 de
visión del ojo de un ser humano P25 de la cadena de aparatos P3 de
manera que la restitución de la imagen modificada sea percibida por
el ojo del ser humano como corregida en su totalidad o en parte de
los defectos P5.
Se denomina algoritmo de corrección al
procedimiento empleado por un medio de tratamiento de imágenes P1
para modificar la calidad de las imágenes según el defecto P5.
Los medios de tratamiento de imágenes P1 pueden
tomar diversas formas según la aplicación.
Los medios de tratamiento de imágenes P1 pueden
estar integrados, en su totalidad o en parte, en el aparato P25,
como en los ejemplos siguientes:
- un aparato de captura de imagen que produzca
imágenes modificadas, por ejemplo, una cámara de fotos digital que
integra medios de tratamiento de imágenes P1,
- un aparato de restitución de imagen 19 que
muestre o imprima imágenes modificadas, por ejemplo un proyector de
vídeo incluye medios de tratamiento de imágenes P1,
- un aparato mixto que corrija los defectos de
sus elementos, por ejemplo, un escáner/una impresora/un fax que
incluya medios de tratamiento de imágenes P1,
- un aparato de captura de imagen profesional
que produzca imágenes modificadas, por ejemplo, un endoscopio que
incluye medios de tratamiento de imágenes P1.
En el caso de que los medios de tratamiento de
imágenes P1 estén integrados en el aparato P25, en la práctica el
aparato P25 corrige sus propios defectos P5, y los aparatos P25 de
la cadena de aparatos P3 pueden estar determinados por
construcción, por ejemplo, en un fax, un escáner y una impresora;
sin embargo, el usuario puede utilizar solamente parte de los
aparatos P25 de la cadena de aparatos P3, por ejemplo, si el fax
también puede ser utilizado únicamente como impresora.
Los medios de tratamiento de imágenes P1 pueden
estar integrados, en su totalidad o en parte, en un ordenador, por
ejemplo de la manera siguiente:
- en un sistema operativo, por ejemplo de la
marca Windows o Mac OS, para modificar automáticamente la calidad
de las imágenes procedentes o destinadas a varios aparatos P25
variando según la imagen 103 y/o en el tiempo, por ejemplo,
escáneres, cámaras de fotos, impresoras; la corrección automática
puede tener lugar por ejemplo cuando la imagen 103 entre en el
sistema, o cuando el usuario solicite una impresión,
- en una aplicación de tratamiento de imágenes,
por ejemplo, Photoshop, para modificar automáticamente la calidad
de las imágenes procedentes o destinadas a varios aparatos P25
variando según la imagen y/o en el tiempo, por ejemplo escáneres,
cámaras de fotos, impresoras; la corrección automática puede tener
lugar por ejemplo cuando el usuario active un comando de filtro en
Photoshop,
- en un aparato de positivado fotográfico (por
ejemplo, Photofinishing o Minilab en inglés), para modificar
automáticamente la calidad de las imágenes procedentes de varias
cámaras de fotografía variando según la imagen y/o en el tiempo,
por ejemplo, desechables, cámaras de fotos digitales, discos
compactos; la corrección automática puede tener en cuenta las
cámaras de fotos, así como al escáner y la impresora integrados, y
hacerse en el momento en que se lancen los trabajos de
impresión,
- en un servidor, por ejemplo, en Internet, para
modificar automáticamente la calidad de las imágenes procedentes de
varias cámaras de fotografía variando según la imagen y/o en el
tiempo, por ejemplo, desechables, cámaras de fotos digitales; la
corrección automática puede tener en cuenta las cámaras de fotos,
así como, por ejemplo, una impresora, y hacerse en el momento en
que las imágenes 103 se graben en el servidor, o en el momento en
que se lancen trabajos de impresión.
En el caso de que los medios de tratamiento de
imágenes P1 estén integrados en un ordenador, en la práctica los
medios de tratamiento de imágenes P1 son compatibles con múltiples
aparatos P25, y al menos un aparato P25 de la cadena de aparatos P3
puede variar de una imagen 103 a la otra.
Para proporcionar, según un formato estándar,
las informaciones formateadas 15 a los medios de tratamiento de
imagen P1, se pueden asociar las informaciones formateadas 15 a la
imagen 103, por ejemplo:
- en un archivo P100,
- utilizando identificadores de aparatos P25 de
la cadena de aparatos P3, por ejemplo datos en formato Exif en el
archivo P100, para encontrar las informaciones formateadas 15 en la
base de datos de características 22.
\vskip1.000000\baselineskip
Ahora vamos a describir, basándonos en la figura
13, la noción de característica variable P6. Según la invención, se
denomina característica variable P6 a un factor medible y variable
de una imagen 103 a la otra capturada, modificada o restituida por
un mismo aparato P25, y que tenga una influencia en el defecto P5,
de la imagen capturada, modificada o restituida por el aparato P25,
en concreto:
- una característica variable global, fija para
una imagen 103 dada, por ejemplo, una característica del aparato
P25 en el momento de la captura o de la restitución de la imagen
relacionada con un ajuste del usuario o relacionada con un
automatismo del aparato P25, por ejemplo la focal,
- una característica variable local, variable en
una imagen 103 dada, por ejemplo las coordenadas "x", "y"
o "ro", "theta" en la imagen, que permitan a los medios
de tratamiento de imágenes P1 aplicar un tratamiento local
diferente según la zona de la imagen.
En general, no se considera una característica
variable P6: un factor medible y variable de un aparato P25 al otro
pero fijo de una imagen 103 a la otra capturada, modificada o
restituida por un mismo aparato P25, por ejemplo, la focal para un
aparato P25 de focal fija.
Los ajustes utilizados, tal y como se ha
descrito anteriormente, son ejemplos de características variables
P6.
Las informaciones formateadas 15 pueden depender
al menos una característica variable P6.
Por característica variable P6, se puede
entender particularmente:
- la focal de la óptica,
- el redimensionamiento aplicado a la imagen
(factor de zoom digital: aumento de una parte de la imagen; y/o
submuestreo: disminución del número de píxeles de la imagen).
- la corrección no lineal de luminancia, por
ejemplo, la corrección de gamma.
- el realce del contorno, por ejemplo, el nivel
de eliminación de efecto borroso aplicado por el aparato P25.
- el ruido del capturador y de la
electrónica.
- la apertura de la óptica.
- la distancia de enfoque.
- el número de la vista en una película.
- la sobreexposición o subexposición.
- la sensibilidad de la película o del
captador.
- el tipo de papel utilizado en una
impresora,
- la posición del centro del captador en la
imagen,
- la rotación de la imagen en relación con el
captador,
- la posición de un proyector en relación con la
pantalla,
- el equilibrio de blancos utilizado,
- la activación del flash y/o su potencia,
- el tiempo de exposición,
- el rendimiento del captador,
- la compresión,
- el contraste,
- otro ajuste aplicado por el usuario del
aparato P25, por ejemplo un modo de funcionamiento,
- otro ajuste automático del aparato P25,
- otra medida realizada por el aparato P25.
En el caso de un medio de restitución 19, la
característica variable P6 puede denominarse igualmente
característica variable de restitución.
\vskip1.000000\baselineskip
Ahora vamos a describir, basándonos en la figura
13, la noción de valor de característica variable P26. Se denomina
valor de característica variable P26 al valor de la característica
variable P6 en el momento de la captura, modificación o restitución
de una imagen determinada, obtenida por ejemplo a partir de datos en
formato Exif presentados en el archivo P100. Los medios de
tratamiento de imagen P1 pueden tratar o modificar la calidad de la
imagen 103 en función de características variables P6, utilizando
informaciones formateadas 15 en función de características
variables P6 y determinando el valor de las características
variables P26.
En el caso de un medio de restitución 19, el
valor de característica variable P6 puede denominarse igualmente
valor de característica variable de restitución.
\vskip1.000000\baselineskip
Las informaciones formateadas 15 o una fracción
de informaciones formateadas 15 pueden incluir informaciones
formateadas medidas P101, tal y como se representa en la figura 15,
para representar una medida bruta, por ejemplo un campo matemático
relacionado con los defectos geométricos de distorsión en cierto
número de puntos característicos de una tabla 80. Las informaciones
formateadas 15 o una fracción de informaciones formateadas 15
pueden incluir informaciones formateadas extendidas P102, tal y como
se representa en la figura 15, que pueden calcularse a partir de
informaciones formateadas medidas P101, por ejemplo, por
interpolación para los demás puntos reales de los puntos
característicos de la tabla 80. Anteriormente, hemos visto que una
información formateada 15 podía depender de características
variables P6. Se denomina, según la invención, combinación P120 a
una combinación constituida por características variables P6 y
valores de características variables P26, como por ejemplo una
combinación P120 constituida por la focal, el enfoque, la abertura
del diafragma, la velocidad de captura, la apertura, etc. y valores
asociados. Difícilmente puede pensarse en calcular las
informaciones formateadas 15 relativas a las diferentes
combinaciones P120 ya que ciertas características de la combinación
P120 pueden variar de forma continua como, en particular, la focal y
la distancia.
La invención prevé calcular las informaciones
formateadas 15 en forma de informaciones formateadas extendidas
P102 por interpolación a partir de informaciones formateadas medidas
P101 relativas a una selección predeterminada de combinaciones P120
de características variables P6 conocidas.
Por ejemplo, se utilizan informaciones
formateadas medidas P101 relativas a combinaciones P120 "focal=2,
distancia=7, velocidad de captura=1/100", la combinación
"focal=10, distancia=7, velocidad de captura=1/100", la
combinación "focal=50, distancia=7, velocidad de
captura=1/100" para calcular informaciones formateadas extendidas
P102 dependientes de la característica variable P6 focal. Estas
informaciones formateadas extendidas P102 permiten particularmente
determinar informaciones formateadas relativas a la combinación
"focal=25, distancia=7 y velocidad de captura=1/100".
Las informaciones formateadas medidas P101 y las
informaciones formateadas extendidas P102 pueden presentar una
desviación de interpolación P121. La invención puede incluir la
etapa de seleccionar cero, una o varias de las características
variables P6, de manera que la desviación interpolación P121, para
las informaciones formateadas extendidas P102 obtenidas para las
características variables P6 así seleccionadas, sea inferior a un
umbral de interpolación predeterminado. En efecto, algunas
características variables P6 pueden tener una influencia sobre el
defecto P5 más reducida que otras y hacer la aproximación de que son
constantes puede introducir únicamente un error mínimo; por
ejemplo, el ajuste de enfoque sólo puede tener una influencia
reducida sobre el defecto de viñeteado y por esta razón no formar
parte de las características variables P6 seleccionadas. Las
características variables P6 pueden seleccionarse en el momento de
la producción de informaciones formateadas 15. De la combinación de
rasgos técnicos se deriva que la modificación de la calidad de las
imágenes emplea cálculos simples. De la combinación de rasgos
técnicos también se deriva que las informaciones formateadas
extendidas P102 son compactas. De la combinación de rasgos técnicos
también se deriva que las características variables P6 eliminadas
son las que menos influyen en el defecto P5. De la combinación de
rasgos técnicos se deriva que las informaciones formateadas 15
permiten modificar la calidad de las imágenes con una precisión
determinada.
En el caso de un medio de restitución 19, la
combinación 120 puede denominarse igualmente combinación de
restitución.
En el caso de un medio de restitución 19, las
informaciones formateadas medidas P101 pueden igualmente denominarse
informaciones formateadas medidas de restitución.
En el caso de un medio de restitución 19, las
informaciones formateadas extendidas P102 pueden igualmente
denominarse informaciones formateadas extendidas de restitución.
En el caso de un medio de restitución 19, las
desviaciones de interpolación P121 pueden igualmente denominarse
desviaciones de interpolación de restitución.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos
particularmente a las figuras 5, 6 y 16, la noción de parámetros P9,
modelo parametrizable P10. En el sentido de la invención, se
denomina modelo parametrizable P10 a un modelo matemático que puede
depender de variables P6 y relativo a uno o varios defectos P5 de
uno o varios aparatos P25; el modelo de transformación
parametrizable 12, el modelo de transformación parametrizable
inverso 212, el modelo de transformación parametrizable de
restitución 97, el modelo de transformación parametrizable de
restitución 297, descritos anteriormente, son ejemplos de modelos
parametrizables P10; por ejemplo, un modelo parametrizable P10
puede ser relativo a:
- los defectos de picado o efecto borroso de una
cámara de fotos digital,
- los defectos geométricos de viñeteado de una
cámara de fotos parecida,
- los defectos geométricos de distorsión y los
defectos geométricos de aberraciones cromáticas de un
proyector,
- los defectos de picado o efecto borroso de una
cámara de fotos desechable combinada con un escáner.
Las informaciones formateadas 15 relativas a un
defecto P5 de un aparato P25 pueden presentarse en forma de
parámetros P9 de un modelo parametrizable P10 que dependa de
características variables P6; los parámetros P9 del modelo
parametrizable P10 permiten identificar una función matemática P16
en un conjunto de funciones matemáticas, por ejemplo, polinomios
con varias variables; las funciones matemáticas P16 permiten
modificar la calidad de la imagen en función de valores
determinados, de variables P6.
De esta manera, los medios de tratamiento de
imagen P1 pueden utilizar los parámetros P9 del modelo de
transformación parametrizable P10 para calcular la imagen
modificada, por ejemplo, para calcular la intensidad corregida o la
intensidad corregida de restitución de un punto de la imagen.
\vskip1.000000\baselineskip
Ahora vamos a describir, refiriéndonos
particularmente a la figura 15, la noción de plano de color P20 de
una imagen 103 en color. La imagen 103 puede descomponerse en planos
de color P20 de diversas maneras: número de planos (1, 3 o más),
precisión (8 bits no marcados, 16 bits marcados, fluctuante...) y
significación de planos (en relación con un espacio de color
estándar). La imagen 103 puede descomponerse de diversas maneras en
planos de color P20: plano de color rojo constituido por píxeles
rojos, plano de color verde, plano de color azul (RVA) o
luminancia, saturación, color...; por otra parte, existen espacios
de color como PIM, o son posibles valores de píxeles negativos con
el fin de permitir la representación de colores sustractivos que no
es posible representar en RVA positivo; por último, es posible
codificar un valor de píxel en 8 bits, 16 bits o utilizando valores
fluctuantes. Las informaciones formateadas 15 pueden ser relativas
a planos de color P20, por ejemplo, caracterizando de manera
diferente los defectos de picado para los planos de color rojo,
verde y azul para permitir a los medios de tratamiento de imagen P1
corregir el defecto de picado de manera diferente para cada plano
de color P20.
\vskip1.000000\baselineskip
Ahora vamos a describir, basándonos
concretamente en las figuras 8, 13, 15 y 16, una variante de
realización de la invención. Para proporcionar, según un formato
estándar, las informaciones formateadas 15 a medios de tratamiento
de imagen P1, el sistema incluye medios de tratamiento informáticos
y el procedimiento incluye la etapa de añadir al menos un campo 91
del formato estándar con las informaciones formateadas 15. El campo
91 puede incluir entonces particularmente:
- valores relativos a los defectos P5, por
ejemplo, en forma de parámetros P9, de manera que los medios de
tratamiento de imagen P1 puedan utilizar los parámetros P9 para
modificar la calidad de las imágenes teniendo en cuenta los
defectos P5, y/o
- valores relativos a los defectos de picado,
por ejemplo, en forma de parámetros P9, de manera que los medios de
tratamiento de imagen P1 puedan utilizar los parámetros P9 para
modificar la calidad de las imágenes teniendo cuenta defectos de
picado, y calcular la forma corregida o la forma corregida de
restitución de un punto de la imagen,
y/o
y/o
- valores relativos a los defectos de
colorimetría, por ejemplo, en forma de parámetros P9, de manera que
los medios de tratamiento de imagen P1 puedan utilizar los
parámetros P9 para modificar la calidad de las imágenes teniendo en
cuenta defectos de colorimetría, y calcular el color corregido o el
color corregido de restitución de un punto de la imagen, y/o
- valores relativos a los defectos geométricos
de distorsión y/o los defectos geométricos de aberración cromática,
por ejemplo, en forma de parámetros P9, de manera que los medios de
tratamiento de imagen P1 puedan utilizar los parámetros P9 para
modificar la calidad de las imágenes teniendo en cuenta los defectos
geométricos de distorsión y/o los defectos geométricos de
aberración cromática, y calcular la posición corregida o la posición
corregida de restitución de un punto de la imagen, y/o
- valores relativos a los defectos geométricos
de viñeteado, por ejemplo, en forma de parámetros P9, de manera que
los medios de tratamiento de imagen P1 puedan utilizar los
parámetros P9 para modificar la calidad de las imágenes teniendo en
cuenta defectos geométricos de viñeteado, y calcular la intensidad
corregida o la intensidad corregida de restitución de un punto de
la imagen, y/o
- valores relativos a las desviaciones 14,
y/o
- valores en función de características
variables P6 según la imagen 103, por ejemplo, los coeficientes y
términos de un polinomio dependiente de la característica variable
P6 correspondiente a la focal y que permite calcular la intensidad
corregida de un punto de la imagen en función de su distancia al
centro, de manera que los medios de tratamiento de imagen puedan
calcular la intensidad corregida de un punto para todo valor de
focal del aparato de captura de imagen en el momento en que la
imagen 103 haya sido capturada,
- valores relativos a informaciones formateadas
relativas a los planos de color P20,
- valores relativos a informaciones
formateadas,
- valores relativos a informaciones formateadas
medidas,
- valores relativos a informaciones formateadas
extendidas.
\vskip1.000000\baselineskip
Ahora vamos a describir una variante de
realización de la invención, basándonos concretamente en las figuras
7,12 y 17. Para producir las informaciones formateadas 15,
relacionadas con los defectos P5 de los aparatos P25 de una cadena
de aparatos P3, la invención puede emplear medios de tratamiento
informático y el primer algoritmo, y/o segundo algoritmo, y/o
tercer algoritmo, y/o cuarto algoritmo, y/o quinto algoritmo, y/o
sexto algoritmo, y/o séptimo algoritmo y/o octavo algoritmo tal y
como se han descrito anteriormente.
\vskip1.000000\baselineskip
Se denomina reducción de coste a un
procedimiento y sistema para disminuir el coste de un aparato P25 o
de una cadena de aparatos P3, en concreto el coste de la óptica de
un aparato o de una cadena de aparatos; el procedimiento consiste
en:
- disminuir el número de lentes, y/o
- simplificar la forma de las lentes, y/o
- diseñar o elegir en un catálogo una óptica que
tenga defectos P5 más importantes que los deseados para el aparato
de la cadena de aparatos, y/o
- utilizar materiales, componentes, tratamientos
o procedimientos de fabricación menos costosos para el aparato o la
cadena de aparatos, añadiendo defectos P5.
El procedimiento y sistema según la invención
puede utilizarse para disminuir el coste de un aparato o de una
cadena de aparatos: se puede diseñar una óptica digital, producir
informaciones formateadas 15 relativas a defectos P5 del aparato o
en la cadena de aparatos, utilizar estas informaciones formateadas
para permitir a los medios de tratamiento de imagen P1, integrados
o no, modificar la calidad de las imágenes procedentes o destinadas
al aparato o a la cadena de aparatos, de manera que la combinación
del aparato o la cadena de aparatos y de los medios de tratamiento
de imagen permitan capturar, modificar o restituir imágenes de la
calidad deseada con un coste reducido.
Claims (22)
1. Procedimiento para proporcionar, según un
formato estándar, informaciones formateadas (15) a medios de
tratamiento de imágenes (P1), particularmente programas y/o
componentes; dichas informaciones formateadas (15) están
relacionadas con defectos (P5) de una cadena de aparatos (P3); dicha
cadena de aparatos (P3) incluye particularmente al menos un aparato
de captura de imagen (1) y/o un aparato de restitución de imagen
(19); dichos medios de tratamiento de imágenes (P1) utilizan dichas
informaciones formateadas (15) para modificar la calidad de al
menos una imagen (103) procedente de, o destinada a, dicha cadena de
aparatos (P3);
dichas informaciones formateadas (15)
incluyen:
- datos que caracterizan los defectos
(P5) de dicho aparato de captura de imagen (1), determinados en el
momento del diseño y/o de la fabricación de dicho aparato de
captura;
estos defectos están incluidos en el grupo que
consta de: los defectos de geometría, los defectos de picado, los
defectos de colorimetría, los defectos geométricos de distorsión,
los defectos geométricos de aberración cromática, los defectos
geométricos de viñeteado, los defectos de contraste, los defectos de
uniformidad del flash, el ruido del captador, el grano, los
defectos de astigmatismo, los defectos de aberración esférica;
dicho procedimiento incluye la etapa de añadir al menos un campo
(91) de dicho formato estándar con dichas informaciones formateadas
(15); dicho campo (91) está designado por un nombre de campo; dicho
campo (91) contiene al menos un valor de campo; este valor es
relativo a las características técnicas de los aparatos, y/o a los
parámetros del método de cuantificación, y/o a los parámetros de
tratamientos digitales efectuados por dichos aparatos de captura de
imagen, y/o a los parámetros que representan las preferencias del
usuario, y/o a las desviaciones entre imágenes corregidas por
aplicación de un modelo parametrizable a una imagen de referencia e
imágenes matemáticas obtenidas por proyección matemática de imágenes
de referencia, y/o a los defectos de geometría, y/o a los defectos
de picado, y/o a los defectos de colorimetría, y/o a los defectos
geométricos de distorsión, y/o a los defectos geométricos de
aberración cromática, y/o a los defectos geométricos de viñeteado,
y/o a los defectos de contraste, y/o a los defectos de uniformidad
del flash, y/o al ruido del captador, y/o al grano, y/o a los
defectos de astigmatismo, y/o a los defectos de aberración
esférica.
2. Procedimiento según la reivindicación 1, en
el que las informaciones formateadas proporcionadas dependen al
menos de una característica variable de una imagen a la otra, y
tienen una influencia sobre los defectos, esta característica está
incluida en el grupo que consta de: la focal de la óptica, el
redimensionamiento aplicado a la imagen, la corrección no lineal de
luminancia, el realce de contorno, el ruido del captador y de la
electrónica, la abertura de la óptica, la distancia de enfoque, el
número de vista en una película, la sobreexposición o
subexposición, la sensibilidad de la película o del captador, el
tipo de papel utilizado en una impresora, la posición del centro
del captador en la imagen, la rotación de la imagen en relación con
el captador, la posición de un proyector en relación con la
pantalla, el equilibrio de blancos utilizado, la activación del
flash y/o su potencia, el tiempo de exposición, el rendimiento del
captador, la compresión, el contraste, un ajuste automático o
aplicado por el usuario.
3. Procedimiento según la reivindicación 1 ó 2,
dichas informaciones formateadas (15) están compuestas al menos en
parte por parámetros (P9) de un modelo de transformación
parametrizable (12) representativo de defectos (P5) de picado del
aparato de captura de imagen (1) y/o del aparato de restitución de
imagen (19); dicho procedimiento es tal que dicho valor o dichos
valores contenidos en dicho campo (91) relativo a los defectos (P5)
de picado están formados al menos en parte por parámetros (P9) de
dicho modelo de transformación parametrizable (12);
de manera que dichos medios de tratamiento de
imágenes (P1) pueden utilizar dichos parámetros (P9) de dicho
modelo de transformación parametrizable (12) para calcular la forma
corregida o la forma corregida de restitución de un punto de la
imagen (103).
4. Procedimiento según cualquiera de las
reivindicaciones 1 a 3; dichas informaciones formateadas (15) están
compuestas al menos en parte por parámetros (P9) de un modelo de
transformación parametrizable (12) representativo de defectos (P5)
de colorimetría del aparato de captura de imagen (1) y/o del aparato
de restitución de imagen (19); dicho procedimiento es tal que el
valor o los valores contenidos en dicho campo (91) relativo a los
defectos (P5) de colorimetría están compuestos al menos en parte por
parámetros (P9) de dicho modelo de transformación parametrizable
(12);
de manera que dichos medios de tratamiento de
imágenes (P1) pueden utilizar dichos parámetros (P9) de dicho
modelo de transformación parametrizable (12) para calcular el color
corregido o el color corregido de restitución de un punto de la
imagen (103).
5. Procedimiento según cualquiera de las
reivindicaciones 1 a 4; dichas informaciones formateadas (15) están
compuestas al menos en parte por parámetros (P9) de un modelo de
transformación parametrizable (12) representativo de defectos (P5)
geométricos de distorsión y/o de defectos (P5) geométricos de
aberración cromática del aparato de captura de imagen (1) y/o del
aparato de restitución de imagen (19); dicho procedimiento es tal
que dicho valor o dichos valores contenidos en dicho campo (91)
relativo a los defectos (P5) geométricos de distorsión y/o los
defectos (P5) geométricos de aberración cromática están compuestos
al menos en parte por parámetros (P9) de dicho modelo de
transformación parametrizable (12);
de manera que dichos medios de tratamiento de
imágenes (P1) pueden utilizar dichos parámetros (P9) de dicho
modelo de transformación parametrizable (12) para calcular la
posición corregida o la posición corregida de restitución de un
punto de la imagen (103).
6. Procedimiento según cualquiera de las
reivindicaciones 1 a 5; dichas informaciones formateadas (15) están
compuestas al menos en parte por parámetros (P9) de un modelo de
transformación parametrizable (12) representativo de defectos (P5)
geométricos de viñeteado y/o de defectos (P5) de contraste del
aparato de captura de imagen (1) y/o del aparato de restitución de
imagen (19); dicho procedimiento es tal que dicho valor o dichos
valores contenidos en dicho campo (91) relativo a los defectos (P5)
geométricos de viñeteado y/o los defectos (P5) de contraste están
compuestos al menos en parte por parámetros (P9) de dicho modelo de
transformación parametrizable (12);
de manera que dichos medios de tratamiento de
imágenes (P1) pueden utilizar dichos parámetros (P9) de dicho
modelo de transformación parametrizable (12) para calcular la
intensidad corregida o la intensidad corregida de restitución de un
punto de la imagen (103).
7. Procedimiento según cualquiera de las
reivindicaciones 1 a 6; para proporcionar, según un formato
estándar, dichas informaciones formateadas (15) a dichos medios de
tratamiento de imágenes (P1), dicho procedimiento incluye además la
etapa de asociar dichas informaciones formateadas (15) a dicha
imagen (103).
8. Procedimiento según la reivindicación 7;
dicha imagen (103) se difunde en forma de un archivo (P100); dicho
archivo (P100) incluye además dichas informaciones formateadas
(15).
9. Procedimiento según cualquiera de las
reivindicaciones 1 a 8; dicho aparato de captura de imagen (1) y/o
dicho aparato de restitución de imagen (19) incluye al menos una
característica variable (P6) según la imagen (103), en particular,
la focal; al menos uno de dichos defectos (P5), en concreto el
defecto geométrico de distorsión, de dicho aparato de captura de
imagen (1) y/o de dicho aparato de restitución de imagen (19)
depende de dicha característica variable (P6); dicho procedimiento
es tal que al menos uno de dichos campos (91) contiene al menos un
valor en función de dicha característica variable (P6) según la
imagen (103);
de manera que los medios de tratamiento de
imágenes (P1) pueden tratar dicha imagen (103) en función de dichas
características variables (P6).
10. Procedimiento según cualquiera de las
reivindicaciones 1 a 9; dichas informaciones formateadas (15) son
al menos en parte informaciones formateadas medidas (P101).
11. Procedimiento según la reivindicación 10;
dichas informaciones formateadas (15) son al menos en parte
informaciones formateadas (15) extendidas (P102) obtenidas por
interpolación a partir de informaciones formateadas medidas.
12. Sistema para proporcionar, según un formato
estándar, informaciones formateadas (15) a medios de tratamiento de
imágenes (P1), en concreto programas y/o componentes; dichas
informaciones formateadas (15) están relacionadas con los defectos
(P5) de una cadena de aparatos (P3); dicha cadena de aparatos (P3)
incluye particularmente al menos un aparato de captura de imagen
(1) y/o un aparato de restitución de imagen (19); dichos medios de
tratamiento de imágenes (P1) utilizan dichas informaciones
formateadas (15) para modificar la calidad de al menos una imagen
(103) procedente de, o destinada a, dicha cadena de aparatos
(P3);
dichas informaciones formateadas (15)
incluyen:
- datos que caracterizan los defectos
(P5) de dicho aparato de captura de imagen (1), determinados en el
momento del diseño y/o de la fabricación de dicho aparato de
captura;
estos defectos caracterizados están
incluidos en el grupo que consta de: los defectos de geometría, los
defectos de picado, los defectos de colorimetría, los defectos
geométricos de distorsión, los defectos geométricos de aberración
cromática, los defectos geométricos de viñeteado, los defectos de
contraste, los defectos de uniformidad del flash, el ruido del
captador, el grano, los defectos de astigmatismo, los defectos de
aberración esférica;
dicho sistema incluye medios de tratamiento
informáticos para añadir al menos a un campo (91) de dicho formato
estándar dichas informaciones formateadas (15); dicho campo (91)
está designado por un nombre de campo; dicho campo (91) contiene al
menos un valor de campo; este valor es relativo a las
características técnicas de los aparatos, y/o a los parámetros del
método de cuantificación, y/o a los parámetros de tratamientos
digitales efectuados por dichos aparatos de captura de imagen, y/o
a los parámetros que representan las preferencias del usuario, y/o
a las desviaciones entre imágenes corregidas por aplicación de un
modelo parametrizable a una imagen de referencia e imágenes
matemáticas obtenidas por proyección matemática de imágenes de
referencia, y/o a los defectos de geometría, y/o a los defectos de
picado, y/o a los defectos de colorimetría, y/o a los defectos
geométricos de distorsión, y/o a los defectos geométricos de
aberración cromática, y/o a los defectos geométricos de viñeteado,
y/o a los defectos de contraste, y/o a los defectos de uniformidad
del flash, y/o al ruido del captador, y/o al grano, y/o a los
defectos de astigmatismo, y/o a los defectos de aberración
esférica.
13. Sistema según la reivindicación 12, en el
que las informaciones formateadas proporcionadas dependen al menos
de una característica variable de una imagen a la otra, y tienen una
influencia sobre los defectos, esta característica está incluida en
el grupo que consta de: la focal de la óptica, el redimensionamiento
aplicado a la imagen, la corrección no lineal de luminancia, el
realce de contorno, el ruido del captador y de la electrónica, la
abertura de la óptica, la distancia de enfoque, el número de vista
en una película, la sobreexposición o subexposición, la
sensibilidad de la película o del captador, el tipo de papel
utilizado en una impresora, la posición del centro del captador en
la imagen, la rotación de la imagen en relación con el captador, la
posición de un proyector en relación con la pantalla, el equilibrio
de blancos utilizado, la activación del flash y/o su potencia, el
tiempo de exposición, el rendimiento del captador, la compresión,
el contraste, un ajuste automático o aplicado por el usuario.
14. Sistema según la reivindicación 12 ó 13;
dichas informaciones formateadas (15) están compuestas al menos en
parte por parámetros (P9) de un modelo de transformación
parametrizable (12) representativo de defectos (P5) de picado del
aparato de captura de imagen (1) y/o del aparato de restitución de
imagen (19); dicho sistema es tal que dicho valor o dichos valores
contenidos en dicho campo (91) relativo a los defectos (P5) de
picado están formados al menos en parte por parámetros (P9) de
dicho modelo de transformación parametrizable (12);
15. Sistema según cualquiera de las
reivindicaciones 12 a 14; dichas informaciones formateadas (15)
están compuestas al menos en parte por parámetros (P9) de un modelo
de transformación parametrizable (12) representativo de defectos
(P5) de colorimetría del aparato de captura de imagen (1) y/o del
aparato de restitución de imagen (19); dicho sistema es tal que
dicho valor o dichos valores contenidos en dicho campo (91) relativo
a los defectos (P5) de colorimetría están compuestos al menos en
parte por parámetros (P9) de dicho modelo de transformación
parametrizable (12);
16. Sistema según cualquiera de las
reivindicaciones 12 a 15; dichas informaciones formateadas (15)
están compuestas al menos en parte por parámetros (P9) de un modelo
de transformación parametrizable (12) representativo de defectos
(P5) geométricos de distorsión y/o de defectos (P5) geométricos de
aberración cromática del aparato de captura de imagen (1) y/o del
aparato de restitución de imagen (19); dicho sistema es tal que
dicho valor o dichos valores contenidos en dicho campo (91)
relativo a los defectos (P5) geométricos de distorsión y/o los
defectos (P5) geométricos de aberración cromática están compuestos
al menos en parte por parámetros (P9) de dicho modelo de
transformación parametrizable (12);
17. Sistema según cualquiera de las
reivindicaciones 12 a 16; dichas informaciones formateadas (15)
están compuestas al menos en parte por parámetros (P9) de un modelo
de transformación parametrizable (12) representativo de defectos
(P5) geométricos de viñeteado y/o de defectos (P5) de contraste del
aparato de captura de imagen (1) y/o del aparato de restitución de
imagen (19); dicho sistema es tal que dicho valor o dichos valores
contenidos en dicho campo (91) relativo a los defectos (P5)
geométricos de viñeteado y/o los defectos (P5) de contraste están
compuestos al menos en parte por parámetros (P9) de dicho modelo de
transformación parametrizable (12);
18. Sistema según cualquiera de las
reivindicaciones 12 a 17; para proporcionar, según un formato
estándar, dichas informaciones formateadas (15) a dichos medios de
tratamiento de imágenes (P1), dicho sistema incluye además medidas
de tratamiento informático para asociar dichas informaciones
formateadas (15) a dicha imagen (103).
19. Sistema según la reivindicación 18; dicho
sistema incluye medios de difusión para difundir dicha imagen (103)
en forma de un archivo (P100); dicho archivo (P100) incluye además
dichas informaciones formateadas (15).
20. Sistema según cualquiera de las
reivindicaciones 12 a 19; dicho aparato de captura de imagen (1)
y/o dicho aparato de restitución de imagen (19) incluye al menos
una característica variable (P6) según la imagen (103), en
particular, la focal; al menos uno de dichos defectos (P5), en
concreto el defecto geométrico de distorsión, de dicho aparato de
captura de imagen (1) y/o de dicho aparato de restitución de imagen
(19) depende de dicha característica variable (P6); dicho sistema
es tal que al menos uno de dichos campos (91) contiene al menos un
valor en función de dicha característica variable (P6) según la
imagen (103);
21. Sistema según cualquiera de las
reivindicaciones 12 a 20; dichas informaciones formateadas (15) son
al menos en parte informaciones formateadas medidas (P101).
22. Sistema según la reivindicación 21; dichas
informaciones formateadas (15) son al menos en parte informaciones
formateadas extendidas (P102) obtenidas por interpolación a partir
de informaciones formateadas medidas.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
FR0109291A FR2827459B1 (fr) | 2001-07-12 | 2001-07-12 | Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image |
FR0109292A FR2827460B1 (fr) | 2001-07-12 | 2001-07-12 | Procede et systeme pour fournir, selon un format standard, a des logiciels de traitement d'images des informations liees aux caracteristiques des appareils de capture d'image et/ou des moyens de resti |
FR0109292 | 2001-07-12 | ||
FR0109291 | 2001-07-12 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2311061T3 true ES2311061T3 (es) | 2009-02-01 |
Family
ID=26213095
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02747506T Expired - Lifetime ES2253542T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso. |
ES02748933T Expired - Lifetime ES2311061T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES02747506T Expired - Lifetime ES2253542T3 (es) | 2001-07-12 | 2002-06-05 | Procedimiento y sistema para producir informaciones formateadas relacionadas con los defectos, como minimo, de una aparato de una cadena, en especial por efecto borroso. |
Country Status (11)
Country | Link |
---|---|
US (10) | US7343040B2 (es) |
EP (7) | EP1410326B1 (es) |
JP (6) | JP4295612B2 (es) |
KR (4) | KR100957878B1 (es) |
CN (6) | CN1305006C (es) |
AT (4) | ATE447216T1 (es) |
AU (3) | AU2002317219A1 (es) |
CA (1) | CA2453423C (es) |
DE (4) | DE60207417T2 (es) |
ES (2) | ES2253542T3 (es) |
WO (6) | WO2003007240A1 (es) |
Families Citing this family (211)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6950211B2 (en) * | 2001-07-05 | 2005-09-27 | Corel Corporation | Fine moire correction in images |
CN1305006C (zh) * | 2001-07-12 | 2007-03-14 | 杜莱布斯公司 | 向图象处理装置提供格式化信息的方法和系统 |
EP1394742B1 (en) * | 2002-08-23 | 2007-12-12 | STMicroelectronics S.r.l. | Method for filtering the noise of a digital image sequence |
US8294999B2 (en) | 2003-01-16 | 2012-10-23 | DigitalOptics Corporation International | Optics for an extended depth of field |
US7773316B2 (en) * | 2003-01-16 | 2010-08-10 | Tessera International, Inc. | Optics for an extended depth of field |
JP4377404B2 (ja) * | 2003-01-16 | 2009-12-02 | ディ−ブルアー テクノロジス リミテッド | 画像向上機能を備えたカメラ |
US7609425B2 (en) * | 2003-01-31 | 2009-10-27 | Canon Kabushiki Kaisha | Image data processing apparatus, method, storage medium and program |
US8471852B1 (en) | 2003-05-30 | 2013-06-25 | Nvidia Corporation | Method and system for tessellation of subdivision surfaces |
JP4096828B2 (ja) * | 2003-07-15 | 2008-06-04 | セイコーエプソン株式会社 | 画像処理装置 |
US7369699B1 (en) | 2003-08-29 | 2008-05-06 | Apple Inc. | Methods and apparatuses for restoring color and enhancing electronic images |
GB2406992A (en) * | 2003-10-09 | 2005-04-13 | Ta Vision Lab Ltd | Deconvolution of a digital image using metadata |
WO2005054927A2 (en) * | 2003-12-01 | 2005-06-16 | Cdm Optics, Inc. | System and method for optimizing optical and digital system designs |
US7944467B2 (en) * | 2003-12-01 | 2011-05-17 | Omnivision Technologies, Inc. | Task-based imaging systems |
US7317843B2 (en) * | 2004-04-01 | 2008-01-08 | Microsoft Corporation | Luminance correction |
US7463296B2 (en) | 2004-04-01 | 2008-12-09 | Microsoft Corporation | Digital cameras with luminance correction |
US8285041B2 (en) * | 2004-09-14 | 2012-10-09 | Olympus Corporation | Image processing apparatus, image recording apparatus, and image processing method |
US7461331B2 (en) * | 2004-12-21 | 2008-12-02 | Fotomedia Technologies, Llc | Automated construction of print order for images capture during a session |
EP1679907A1 (en) * | 2005-01-05 | 2006-07-12 | Dialog Semiconductor GmbH | Hexagonal color pixel structure with white pixels |
FR2881011B1 (fr) | 2005-01-19 | 2007-06-29 | Dxo Labs Sa | Procede de realisation d'un appareil de capture et/ou restitution d'images et appareil obtenu par ce procede |
US7683950B2 (en) * | 2005-04-26 | 2010-03-23 | Eastman Kodak Company | Method and apparatus for correcting a channel dependent color aberration in a digital image |
US20060274209A1 (en) * | 2005-06-03 | 2006-12-07 | Coretronic Corporation | Method and a control device using the same for controlling a display device |
US20080052104A1 (en) * | 2005-07-01 | 2008-02-28 | Searete Llc | Group content substitution in media works |
US20090150199A1 (en) * | 2005-07-01 | 2009-06-11 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Visual substitution options in media works |
US20090300480A1 (en) * | 2005-07-01 | 2009-12-03 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media segment alteration with embedded markup identifier |
US20090235364A1 (en) * | 2005-07-01 | 2009-09-17 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for promotional content alteration |
US20090150444A1 (en) * | 2005-07-01 | 2009-06-11 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for audio content alteration |
US9065979B2 (en) * | 2005-07-01 | 2015-06-23 | The Invention Science Fund I, Llc | Promotional placement in media works |
US20070263865A1 (en) * | 2005-07-01 | 2007-11-15 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Authorization rights for substitute media content |
US8910033B2 (en) * | 2005-07-01 | 2014-12-09 | The Invention Science Fund I, Llc | Implementing group content substitution in media works |
US20090204475A1 (en) * | 2005-07-01 | 2009-08-13 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for promotional visual content |
US20070005423A1 (en) * | 2005-07-01 | 2007-01-04 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Providing promotional content |
US20090037243A1 (en) * | 2005-07-01 | 2009-02-05 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Audio substitution options in media works |
US9092928B2 (en) * | 2005-07-01 | 2015-07-28 | The Invention Science Fund I, Llc | Implementing group content substitution in media works |
US20100154065A1 (en) * | 2005-07-01 | 2010-06-17 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for user-activated content alteration |
US20070294720A1 (en) * | 2005-07-01 | 2007-12-20 | Searete Llc | Promotional placement in media works |
US7860342B2 (en) | 2005-07-01 | 2010-12-28 | The Invention Science Fund I, Llc | Modifying restricted images |
US20080013859A1 (en) * | 2005-07-01 | 2008-01-17 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Implementation of media content alteration |
US20080052161A1 (en) * | 2005-07-01 | 2008-02-28 | Searete Llc | Alteration of promotional content in media works |
US9583141B2 (en) * | 2005-07-01 | 2017-02-28 | Invention Science Fund I, Llc | Implementing audio substitution options in media works |
US20080086380A1 (en) * | 2005-07-01 | 2008-04-10 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Alteration of promotional content in media works |
US20070266049A1 (en) * | 2005-07-01 | 2007-11-15 | Searete Llc, A Limited Liability Corportion Of The State Of Delaware | Implementation of media content alteration |
US20090210946A1 (en) * | 2005-07-01 | 2009-08-20 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for promotional audio content |
US20080028422A1 (en) * | 2005-07-01 | 2008-01-31 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Implementation of media content alteration |
US20070276757A1 (en) * | 2005-07-01 | 2007-11-29 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Approval technique for media content alteration |
US9230601B2 (en) | 2005-07-01 | 2016-01-05 | Invention Science Fund I, Llc | Media markup system for content alteration in derivative works |
US20090151004A1 (en) * | 2005-07-01 | 2009-06-11 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Media markup for visual content alteration |
US8203609B2 (en) * | 2007-01-31 | 2012-06-19 | The Invention Science Fund I, Llc | Anonymization pursuant to a broadcasted policy |
US8126190B2 (en) * | 2007-01-31 | 2012-02-28 | The Invention Science Fund I, Llc | Targeted obstrufication of an image |
CN101288013B (zh) * | 2005-09-19 | 2010-12-08 | Cdm光学有限公司 | 基于任务的成像系统 |
JP2007096405A (ja) * | 2005-09-27 | 2007-04-12 | Fujifilm Corp | ぶれ方向判定方法および装置ならびにプログラム |
US8571346B2 (en) | 2005-10-26 | 2013-10-29 | Nvidia Corporation | Methods and devices for defective pixel detection |
US7750956B2 (en) | 2005-11-09 | 2010-07-06 | Nvidia Corporation | Using a graphics processing unit to correct video and audio data |
US8588542B1 (en) | 2005-12-13 | 2013-11-19 | Nvidia Corporation | Configurable and compact pixel processing apparatus |
FR2895103B1 (fr) * | 2005-12-19 | 2008-02-22 | Dxo Labs Sa | Procede et systeme de traitement de donnees numeriques |
FR2895102B1 (fr) * | 2005-12-19 | 2012-12-07 | Dxo Labs | Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede |
FR2895104A1 (fr) * | 2005-12-19 | 2007-06-22 | Dxo Labs Sa | Procede pour fournir des donnees a un moyen de traitement numerique |
US20070165961A1 (en) * | 2006-01-13 | 2007-07-19 | Juwei Lu | Method And Apparatus For Reducing Motion Blur In An Image |
US8295562B2 (en) * | 2006-01-13 | 2012-10-23 | Carl Zeiss Microimaging Ais, Inc. | Medical image modification to simulate characteristics |
US8737832B1 (en) | 2006-02-10 | 2014-05-27 | Nvidia Corporation | Flicker band automated detection system and method |
US8310533B2 (en) * | 2006-03-27 | 2012-11-13 | GE Sensing & Inspection Technologies, LP | Inspection apparatus for inspecting articles |
US20070239417A1 (en) * | 2006-03-31 | 2007-10-11 | D-Blur Technologies Ltd. | Camera performance simulation |
US20070269123A1 (en) * | 2006-05-16 | 2007-11-22 | Randall Don Briggs | Method and apparatus for performing image enhancement in an image processing pipeline |
JP4974586B2 (ja) * | 2006-05-24 | 2012-07-11 | オリンパス株式会社 | 顕微鏡用撮像装置 |
US7612805B2 (en) | 2006-07-11 | 2009-11-03 | Neal Solomon | Digital imaging system and methods for selective image filtration |
JP4839148B2 (ja) * | 2006-07-12 | 2011-12-21 | 株式会社リコー | ネットワーク装置,端末装置,プログラムおよび記録媒体 |
US8594441B1 (en) | 2006-09-12 | 2013-11-26 | Nvidia Corporation | Compressing image-based data using luminance |
DE102006057190A1 (de) * | 2006-12-05 | 2008-06-12 | Carl Zeiss Meditec Ag | Verfahren zur Erzeugung hochqualitativer Aufnahmen der vorderen und/oder hinteren Augenabschnitte |
US20080180539A1 (en) * | 2007-01-31 | 2008-07-31 | Searete Llc, A Limited Liability Corporation | Image anonymization |
US8723969B2 (en) | 2007-03-20 | 2014-05-13 | Nvidia Corporation | Compensating for undesirable camera shakes during video capture |
US20080244755A1 (en) * | 2007-03-30 | 2008-10-02 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Authorization for media content alteration |
US20080270161A1 (en) * | 2007-04-26 | 2008-10-30 | Searete Llc, A Limited Liability Corporation Of The State Of Delaware | Authorization rights for substitute media content |
US9215512B2 (en) | 2007-04-27 | 2015-12-15 | Invention Science Fund I, Llc | Implementation of media content alteration |
US7936915B2 (en) * | 2007-05-29 | 2011-05-03 | Microsoft Corporation | Focal length estimation for panoramic stitching |
US8634103B2 (en) * | 2007-06-12 | 2014-01-21 | Qualcomm Incorporated | Print image matching parameter extraction and rendering on display devices |
US8724895B2 (en) | 2007-07-23 | 2014-05-13 | Nvidia Corporation | Techniques for reducing color artifacts in digital images |
US8570634B2 (en) | 2007-10-11 | 2013-10-29 | Nvidia Corporation | Image processing of an incoming light field using a spatial light modulator |
US9177368B2 (en) | 2007-12-17 | 2015-11-03 | Nvidia Corporation | Image distortion correction |
US8780128B2 (en) | 2007-12-17 | 2014-07-15 | Nvidia Corporation | Contiguously packed data |
US8698908B2 (en) | 2008-02-11 | 2014-04-15 | Nvidia Corporation | Efficient method for reducing noise and blur in a composite still image from a rolling shutter camera |
US9379156B2 (en) * | 2008-04-10 | 2016-06-28 | Nvidia Corporation | Per-channel image intensity correction |
US8280194B2 (en) * | 2008-04-29 | 2012-10-02 | Sony Corporation | Reduced hardware implementation for a two-picture depth map algorithm |
US8194995B2 (en) * | 2008-09-30 | 2012-06-05 | Sony Corporation | Fast camera auto-focus |
US8553093B2 (en) | 2008-09-30 | 2013-10-08 | Sony Corporation | Method and apparatus for super-resolution imaging using digital imaging devices |
US8373718B2 (en) | 2008-12-10 | 2013-02-12 | Nvidia Corporation | Method and system for color enhancement with color volume adjustment and variable shift along luminance axis |
US8290260B2 (en) * | 2008-12-15 | 2012-10-16 | Xerox Corporation | Method and system for creating integrated remote custom rendering profile |
US20100198876A1 (en) * | 2009-02-02 | 2010-08-05 | Honeywell International, Inc. | Apparatus and method of embedding meta-data in a captured image |
DE102009002393A1 (de) * | 2009-04-15 | 2010-11-04 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Verfahren und Vorrichtung zur Bearbeitung von Aufnahmebildern einer digitalen Videokamera |
US8749662B2 (en) | 2009-04-16 | 2014-06-10 | Nvidia Corporation | System and method for lens shading image correction |
CN101551661B (zh) * | 2009-05-12 | 2013-04-24 | 广东工业大学 | 一种面向多机器人系统的控制方法 |
US9519814B2 (en) | 2009-06-12 | 2016-12-13 | Hand Held Products, Inc. | Portable data terminal |
FR2948521B1 (fr) | 2009-07-21 | 2012-01-27 | Dxo Labs | Procede d'estimation d'un defaut d'un systeme de capture d'images et systemes associes |
US8698918B2 (en) | 2009-10-27 | 2014-04-15 | Nvidia Corporation | Automatic white balancing for photography |
KR20110065997A (ko) * | 2009-12-10 | 2011-06-16 | 삼성전자주식회사 | 영상처리장치 및 영상처리방법 |
KR101451136B1 (ko) * | 2010-03-19 | 2014-10-16 | 삼성테크윈 주식회사 | 비네팅 보정 방법 및 장치 |
US8335390B2 (en) * | 2010-03-22 | 2012-12-18 | Sony Corporation | Blur function modeling for depth of field rendering |
WO2011143223A2 (en) | 2010-05-10 | 2011-11-17 | Board Of Regents, The University Of Texas System | Determining quality of an image or a video using a distortion classifier |
US20120019709A1 (en) * | 2010-07-21 | 2012-01-26 | Altek Corporation | Assisting focusing method using multiple face blocks |
CN102338972A (zh) * | 2010-07-21 | 2012-02-01 | 华晶科技股份有限公司 | 多人脸区块辅助对焦的方法 |
CH703995A2 (de) | 2010-10-24 | 2012-04-30 | Airlight Energy Ip Sa | Rinnenkollektor sowie Absorberrohr für einen Rinnenkollektor. |
EP2447889A1 (en) * | 2010-10-29 | 2012-05-02 | Siemens Aktiengesellschaft | Method for modeling a defect management in a manufacturing process and for handling the defect during the production process based on said modeled defect management |
CN102625043B (zh) | 2011-01-25 | 2014-12-10 | 佳能株式会社 | 图像处理设备、成像设备和图像处理方法 |
US8842931B2 (en) * | 2011-02-18 | 2014-09-23 | Nvidia Corporation | System, method, and computer program product for reducing noise in an image using depth-based sweeping over image samples |
JP5367749B2 (ja) * | 2011-03-25 | 2013-12-11 | 株式会社東芝 | サーバ装置、通信方法およびプログラム |
US10331658B2 (en) * | 2011-06-03 | 2019-06-25 | Gdial Inc. | Systems and methods for atomizing and individuating data as data quanta |
US8712181B2 (en) * | 2011-06-14 | 2014-04-29 | Apteryx, Inc. | Real-time application of filters based on image attributes |
EP2552099B1 (en) | 2011-07-27 | 2013-08-28 | Axis AB | Method and camera for providing an estimation of a mean signal to noise ratio value for an image |
WO2013073418A1 (ja) * | 2011-11-16 | 2013-05-23 | オリンパスメディカルシステムズ株式会社 | 内視鏡用映像信号処理装置 |
JP2013123812A (ja) * | 2011-12-13 | 2013-06-24 | Canon Inc | 検査装置、検査方法、コンピュータプログラム |
US8958638B2 (en) * | 2012-06-10 | 2015-02-17 | Apple Inc. | Method and system for multi-stage auto-enhancement of photographs |
JP5656926B2 (ja) | 2012-06-22 | 2015-01-21 | キヤノン株式会社 | 画像処理方法、画像処理装置および撮像装置 |
US8976271B2 (en) | 2012-07-19 | 2015-03-10 | Canon Kabushiki Kaisha | Optical system and image pickup apparatus |
US9509917B2 (en) | 2012-07-26 | 2016-11-29 | DePuy Synthes Products, Inc. | Wide dynamic range using monochromatic sensor |
EP2877080B1 (en) | 2012-07-26 | 2020-07-22 | DePuy Synthes Products, Inc. | Ycbcr pulsed illumination scheme in a light deficient environment |
CN104486986B (zh) | 2012-07-26 | 2018-06-01 | 德普伊辛迪斯制品公司 | 光不足环境中的连续视频 |
US9798698B2 (en) | 2012-08-13 | 2017-10-24 | Nvidia Corporation | System and method for multi-color dilu preconditioner |
US9508318B2 (en) | 2012-09-13 | 2016-11-29 | Nvidia Corporation | Dynamic color profile management for electronic devices |
US8867817B1 (en) * | 2012-10-29 | 2014-10-21 | Amazon Technologies, Inc. | Display analysis using scanned images |
GB2507576A (en) * | 2012-11-05 | 2014-05-07 | British Broadcasting Corp | Focus detection |
US9307213B2 (en) | 2012-11-05 | 2016-04-05 | Nvidia Corporation | Robust selection and weighting for gray patch automatic white balancing |
US9026553B2 (en) * | 2012-11-29 | 2015-05-05 | Unisys Corporation | Data expanse viewer for database systems |
WO2014144950A1 (en) | 2013-03-15 | 2014-09-18 | Olive Medical Corporation | Noise aware edge enhancement |
US10251530B2 (en) | 2013-03-15 | 2019-04-09 | DePuy Synthes Products, Inc. | Scope sensing in a light controlled environment |
US9777913B2 (en) | 2013-03-15 | 2017-10-03 | DePuy Synthes Products, Inc. | Controlling the integral light energy of a laser pulse |
US9492060B2 (en) | 2013-03-15 | 2016-11-15 | DePuy Synthes Products, Inc. | White balance and fixed pattern noise frame calibration using distal cap |
WO2014145244A1 (en) | 2013-03-15 | 2014-09-18 | Olive Medical Corporation | Comprehensive fixed pattern noise cancellation |
JP2016519591A (ja) | 2013-03-15 | 2016-07-07 | オリーブ・メディカル・コーポレイションOlive Medical Corporation | パルスカラー撮像システムにおける超解像度及び色運動アーチファクト補正 |
US9756222B2 (en) | 2013-06-26 | 2017-09-05 | Nvidia Corporation | Method and system for performing white balancing operations on captured images |
US9826208B2 (en) | 2013-06-26 | 2017-11-21 | Nvidia Corporation | Method and system for generating weights for use in white balancing an image |
US9167706B2 (en) | 2013-08-05 | 2015-10-20 | Steven J. Holmstrom | Electronic flight bag retention device |
US10009549B2 (en) | 2014-02-28 | 2018-06-26 | The Board Of Trustees Of The Leland Stanford Junior University | Imaging providing ratio pixel intensity |
JP6573960B2 (ja) | 2014-03-21 | 2019-09-11 | デピュイ・シンセス・プロダクツ・インコーポレイテッド | イメージングセンサ用のカードエッジコネクタ |
US9396409B2 (en) | 2014-09-29 | 2016-07-19 | At&T Intellectual Property I, L.P. | Object based image processing |
EP3200148B1 (en) * | 2014-10-31 | 2019-08-28 | Huawei Technologies Co., Ltd. | Image processing method and device |
US10334216B2 (en) * | 2014-11-06 | 2019-06-25 | Sony Corporation | Imaging system including lens with longitudinal chromatic aberration, endoscope and imaging method |
JP6465752B2 (ja) * | 2015-05-29 | 2019-02-06 | キヤノン株式会社 | 制御装置、制御方法、及びプログラム |
US20170280971A1 (en) * | 2015-08-13 | 2017-10-05 | Hoya Corporation | Evaluation value calculation device and electronic endoscope system |
WO2017026540A1 (ja) | 2015-08-13 | 2017-02-16 | Hoya株式会社 | 評価値計算装置及び電子内視鏡システム |
US9838646B2 (en) * | 2015-09-24 | 2017-12-05 | Cisco Technology, Inc. | Attenuation of loudspeaker in microphone array |
KR20190052089A (ko) * | 2016-09-19 | 2019-05-15 | 인터디지털 브이씨 홀딩스 인코포레이티드 | 명시야 데이터를 사용하여 장면을 표현하는 포인트 클라우드를 재구성하기 위한 방법 및 디바이스 |
EP4254035A3 (en) * | 2016-10-12 | 2023-12-06 | Samsung Electronics Co., Ltd. | Method, apparatus, and recording medium for processing image |
US11423005B2 (en) * | 2017-04-03 | 2022-08-23 | Mitsubishi Electric Corporation | Map data generator and method for generating map data |
US10657118B2 (en) | 2017-10-05 | 2020-05-19 | Adobe Inc. | Update basis for updating digital content in a digital medium environment |
US10733262B2 (en) * | 2017-10-05 | 2020-08-04 | Adobe Inc. | Attribute control for updating digital content in a digital medium environment |
US11551257B2 (en) | 2017-10-12 | 2023-01-10 | Adobe Inc. | Digital media environment for analysis of audience segments in a digital marketing campaign |
US10685375B2 (en) | 2017-10-12 | 2020-06-16 | Adobe Inc. | Digital media environment for analysis of components of content in a digital marketing campaign |
US10795647B2 (en) | 2017-10-16 | 2020-10-06 | Adobe, Inc. | Application digital content control using an embedded machine learning module |
US11544743B2 (en) | 2017-10-16 | 2023-01-03 | Adobe Inc. | Digital content control based on shared machine learning properties |
GB2570278B (en) * | 2017-10-31 | 2020-09-16 | Cambium Networks Ltd | Spectrum management for a point-to-multipoint wireless network |
US10853766B2 (en) | 2017-11-01 | 2020-12-01 | Adobe Inc. | Creative brief schema |
US10991012B2 (en) | 2017-11-01 | 2021-04-27 | Adobe Inc. | Creative brief-based content creation |
JP2021508542A (ja) | 2017-12-27 | 2021-03-11 | エシコン エルエルシーEthicon LLC | 光不足環境におけるハイパースペクトル撮像 |
CN108074241B (zh) * | 2018-01-16 | 2021-10-22 | 深圳大学 | 目标图像的质量评分方法、装置、终端及存储介质 |
US11379725B2 (en) | 2018-06-29 | 2022-07-05 | International Business Machines Corporation | Projectile extrapolation and sequence synthesis from video using convolution |
JP7278096B2 (ja) * | 2019-02-20 | 2023-05-19 | キヤノン株式会社 | 画像処理装置、画像処理方法、およびプログラム |
US11252326B2 (en) | 2019-06-20 | 2022-02-15 | Cilag Gmbh International | Pulsed illumination in a laser mapping imaging system |
US11134832B2 (en) | 2019-06-20 | 2021-10-05 | Cilag Gmbh International | Image rotation in an endoscopic hyperspectral, fluorescence, and laser mapping imaging system |
US11398011B2 (en) | 2019-06-20 | 2022-07-26 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed laser mapping imaging system |
US11700995B2 (en) | 2019-06-20 | 2023-07-18 | Cilag Gmbh International | Speckle removal in a pulsed fluorescence imaging system |
US11360028B2 (en) | 2019-06-20 | 2022-06-14 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
US11716533B2 (en) | 2019-06-20 | 2023-08-01 | Cilag Gmbh International | Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system |
US11096565B2 (en) | 2019-06-20 | 2021-08-24 | Cilag Gmbh International | Driving light emissions according to a jitter specification in a hyperspectral, fluorescence, and laser mapping imaging system |
US11937784B2 (en) | 2019-06-20 | 2024-03-26 | Cilag Gmbh International | Fluorescence imaging in a light deficient environment |
US11674848B2 (en) | 2019-06-20 | 2023-06-13 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for hyperspectral imaging |
US11550057B2 (en) | 2019-06-20 | 2023-01-10 | Cilag Gmbh International | Offset illumination of a scene using multiple emitters in a fluorescence imaging system |
US11233960B2 (en) | 2019-06-20 | 2022-01-25 | Cilag Gmbh International | Fluorescence imaging with fixed pattern noise cancellation |
US11221414B2 (en) | 2019-06-20 | 2022-01-11 | Cilag Gmbh International | Laser mapping imaging with fixed pattern noise cancellation |
US11141052B2 (en) | 2019-06-20 | 2021-10-12 | Cilag Gmbh International | Image rotation in an endoscopic fluorescence imaging system |
US11172811B2 (en) | 2019-06-20 | 2021-11-16 | Cilag Gmbh International | Image rotation in an endoscopic fluorescence imaging system |
US11276148B2 (en) | 2019-06-20 | 2022-03-15 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed fluorescence imaging system |
US10952619B2 (en) | 2019-06-20 | 2021-03-23 | Ethicon Llc | Hyperspectral and fluorescence imaging and topology laser mapping with minimal area monolithic image sensor |
US11172810B2 (en) | 2019-06-20 | 2021-11-16 | Cilag Gmbh International | Speckle removal in a pulsed laser mapping imaging system |
US11218645B2 (en) | 2019-06-20 | 2022-01-04 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for fluorescence imaging |
US11012599B2 (en) | 2019-06-20 | 2021-05-18 | Ethicon Llc | Hyperspectral imaging in a light deficient environment |
US11284784B2 (en) | 2019-06-20 | 2022-03-29 | Cilag Gmbh International | Controlling integral energy of a laser pulse in a fluorescence imaging system |
US11237270B2 (en) | 2019-06-20 | 2022-02-01 | Cilag Gmbh International | Hyperspectral, fluorescence, and laser mapping imaging with fixed pattern noise cancellation |
US11412152B2 (en) | 2019-06-20 | 2022-08-09 | Cilag Gmbh International | Speckle removal in a pulsed hyperspectral imaging system |
US11903563B2 (en) | 2019-06-20 | 2024-02-20 | Cilag Gmbh International | Offset illumination of a scene using multiple emitters in a fluorescence imaging system |
US11432706B2 (en) | 2019-06-20 | 2022-09-06 | Cilag Gmbh International | Hyperspectral imaging with minimal area monolithic image sensor |
US11931009B2 (en) | 2019-06-20 | 2024-03-19 | Cilag Gmbh International | Offset illumination of a scene using multiple emitters in a hyperspectral imaging system |
US11412920B2 (en) | 2019-06-20 | 2022-08-16 | Cilag Gmbh International | Speckle removal in a pulsed fluorescence imaging system |
US11671691B2 (en) | 2019-06-20 | 2023-06-06 | Cilag Gmbh International | Image rotation in an endoscopic laser mapping imaging system |
US11540696B2 (en) | 2019-06-20 | 2023-01-03 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed fluorescence imaging system |
US11533417B2 (en) | 2019-06-20 | 2022-12-20 | Cilag Gmbh International | Laser scanning and tool tracking imaging in a light deficient environment |
US11617541B2 (en) | 2019-06-20 | 2023-04-04 | Cilag Gmbh International | Optical fiber waveguide in an endoscopic system for fluorescence imaging |
US11265491B2 (en) | 2019-06-20 | 2022-03-01 | Cilag Gmbh International | Fluorescence imaging with fixed pattern noise cancellation |
US11187657B2 (en) | 2019-06-20 | 2021-11-30 | Cilag Gmbh International | Hyperspectral imaging with fixed pattern noise cancellation |
US11187658B2 (en) | 2019-06-20 | 2021-11-30 | Cilag Gmbh International | Fluorescence imaging with fixed pattern noise cancellation |
US11471055B2 (en) | 2019-06-20 | 2022-10-18 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed fluorescence imaging system |
US11716543B2 (en) | 2019-06-20 | 2023-08-01 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for fluorescence imaging |
US11633089B2 (en) | 2019-06-20 | 2023-04-25 | Cilag Gmbh International | Fluorescence imaging with minimal area monolithic image sensor |
US11389066B2 (en) | 2019-06-20 | 2022-07-19 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
US11793399B2 (en) | 2019-06-20 | 2023-10-24 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed hyperspectral imaging system |
US11288772B2 (en) | 2019-06-20 | 2022-03-29 | Cilag Gmbh International | Super resolution and color motion artifact correction in a pulsed fluorescence imaging system |
US20200397239A1 (en) | 2019-06-20 | 2020-12-24 | Ethicon Llc | Offset illumination of a scene using multiple emitters in a fluorescence imaging system |
US11457154B2 (en) | 2019-06-20 | 2022-09-27 | Cilag Gmbh International | Speckle removal in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
US11622094B2 (en) | 2019-06-20 | 2023-04-04 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for fluorescence imaging |
US10841504B1 (en) | 2019-06-20 | 2020-11-17 | Ethicon Llc | Fluorescence imaging with minimal area monolithic image sensor |
US11294062B2 (en) | 2019-06-20 | 2022-04-05 | Cilag Gmbh International | Dynamic range using a monochrome image sensor for hyperspectral and fluorescence imaging and topology laser mapping |
US11516387B2 (en) | 2019-06-20 | 2022-11-29 | Cilag Gmbh International | Image synchronization without input clock and data transmission clock in a pulsed hyperspectral, fluorescence, and laser mapping imaging system |
US11898909B2 (en) | 2019-06-20 | 2024-02-13 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed fluorescence imaging system |
US11375886B2 (en) | 2019-06-20 | 2022-07-05 | Cilag Gmbh International | Optical fiber waveguide in an endoscopic system for laser mapping imaging |
US11754500B2 (en) | 2019-06-20 | 2023-09-12 | Cilag Gmbh International | Minimizing image sensor input/output in a pulsed fluorescence imaging system |
US11624830B2 (en) | 2019-06-20 | 2023-04-11 | Cilag Gmbh International | Wide dynamic range using a monochrome image sensor for laser mapping imaging |
US11612309B2 (en) | 2019-06-20 | 2023-03-28 | Cilag Gmbh International | Hyperspectral videostroboscopy of vocal cords |
US11925328B2 (en) | 2019-06-20 | 2024-03-12 | Cilag Gmbh International | Noise aware edge enhancement in a pulsed hyperspectral imaging system |
US11122968B2 (en) | 2019-06-20 | 2021-09-21 | Cilag Gmbh International | Optical fiber waveguide in an endoscopic system for hyperspectral imaging |
US10979646B2 (en) | 2019-06-20 | 2021-04-13 | Ethicon Llc | Fluorescence imaging with minimal area monolithic image sensor |
US11892403B2 (en) | 2019-06-20 | 2024-02-06 | Cilag Gmbh International | Image synchronization without input clock and data transmission clock in a pulsed fluorescence imaging system |
US11758256B2 (en) | 2019-06-20 | 2023-09-12 | Cilag Gmbh International | Fluorescence imaging in a light deficient environment |
US11631202B2 (en) * | 2021-01-08 | 2023-04-18 | Samsung Electronics Co., Ltd. | System and method for obtaining and applying a vignette filter and grain layer |
US11829239B2 (en) | 2021-11-17 | 2023-11-28 | Adobe Inc. | Managing machine learning model reconstruction |
Family Cites Families (80)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS6080374A (ja) * | 1983-10-11 | 1985-05-08 | Hitachi Denshi Ltd | テレビジヨンカメラ装置の撮像特性補正方法 |
FR2652695B1 (fr) * | 1989-10-03 | 1993-04-16 | Thomson Csf | Procede et dispositif de visualisation d'images, a correction automatique de defauts par contre-reaction. |
FR2661061B1 (fr) * | 1990-04-11 | 1992-08-07 | Multi Media Tech | Procede et dispositif de modification de zone d'images. |
US5047861A (en) * | 1990-07-31 | 1991-09-10 | Eastman Kodak Company | Method and apparatus for pixel non-uniformity correction |
US5157497A (en) * | 1991-02-25 | 1992-10-20 | Matsushita Electric Industrial Co., Ltd. | Method and apparatus for detecting and compensating for white shading errors in a digitized video signal |
US5251271A (en) * | 1991-10-21 | 1993-10-05 | R. R. Donnelley & Sons Co. | Method for automatic registration of digitized multi-plane images |
JPH05176166A (ja) | 1991-12-25 | 1993-07-13 | Hitachi Ltd | 色再現方法 |
DE69331719T2 (de) * | 1992-06-19 | 2002-10-24 | Agfa Gevaert Nv | Verfahren und Vorrichtung zur Geräuschunterdrückung |
US5905530A (en) * | 1992-08-24 | 1999-05-18 | Canon Kabushiki Kaisha | Image pickup apparatus |
US5323204A (en) * | 1992-11-03 | 1994-06-21 | Eastman Kodak Company | Automatic optimization of photographic exposure parameters for non-standard display sizes and/or different focal length photographing modes through determination and utilization of extra system speed |
US5461440A (en) * | 1993-02-10 | 1995-10-24 | Olympus Optical Co., Ltd. | Photographing image correction system |
US5353362A (en) * | 1993-05-17 | 1994-10-04 | Tucci Robert R | Method of generation of two electromagnetic modes using squeezers |
JPH0715631A (ja) * | 1993-06-29 | 1995-01-17 | Nippon Telegr & Teleph Corp <Ntt> | 画像信号雑音除去方法および装置 |
US5499057A (en) * | 1993-08-27 | 1996-03-12 | Sony Corporation | Apparatus for producing a noise-reducded image signal from an input image signal |
US5485568A (en) * | 1993-10-08 | 1996-01-16 | Xerox Corporation | Structured image (Sl) format for describing complex color raster images |
EP0686945B1 (en) | 1994-05-26 | 2001-12-19 | Canon Kabushiki Kaisha | Image processing apparatus and method |
US6334219B1 (en) * | 1994-09-26 | 2001-12-25 | Adc Telecommunications Inc. | Channel selection for a hybrid fiber coax network |
JPH08116490A (ja) * | 1994-10-14 | 1996-05-07 | Olympus Optical Co Ltd | 画像処理装置 |
KR100203239B1 (ko) * | 1995-02-16 | 1999-06-15 | 윤종용 | 화이트쉐이딩 보정방법 및 장치 |
US5606365A (en) * | 1995-03-28 | 1997-02-25 | Eastman Kodak Company | Interactive camera for network processing of captured images |
US5694484A (en) * | 1995-05-15 | 1997-12-02 | Polaroid Corporation | System and method for automatically processing image data to provide images of optimal perceptual quality |
JPH0998299A (ja) | 1995-10-02 | 1997-04-08 | Canon Inc | 画像処理装置及び方法 |
JP3409541B2 (ja) | 1995-11-14 | 2003-05-26 | 三菱電機株式会社 | 色補正方法及び色補正装置並びに色補正応用装置及びカラー画像システム |
JP2000502202A (ja) * | 1995-12-19 | 2000-02-22 | テレフオンアクチーボラゲツト エル エム エリクソン(パブル) | 命令プロセッサのジョブスケジューリング |
US5696850A (en) * | 1995-12-21 | 1997-12-09 | Eastman Kodak Company | Automatic image sharpening in an electronic imaging system |
JPH09214807A (ja) * | 1996-01-31 | 1997-08-15 | Canon Inc | 画像処理装置および画像処理方法 |
JP3950188B2 (ja) * | 1996-02-27 | 2007-07-25 | 株式会社リコー | 画像歪み補正用パラメータ決定方法及び撮像装置 |
JPH1083024A (ja) | 1996-09-09 | 1998-03-31 | Fuji Photo Film Co Ltd | カメラ及びプリンタ |
JP3791635B2 (ja) * | 1996-10-22 | 2006-06-28 | 富士写真フイルム株式会社 | 画像再生方法、画像再生装置、画像処理方法および画像処理装置 |
US6173087B1 (en) * | 1996-11-13 | 2001-01-09 | Sarnoff Corporation | Multi-view image registration with application to mosaicing and lens distortion correction |
US6100925A (en) * | 1996-11-27 | 2000-08-08 | Princeton Video Image, Inc. | Image insertion in video streams using a combination of physical sensors and pattern recognition |
US6094221A (en) * | 1997-01-02 | 2000-07-25 | Andersion; Eric C. | System and method for using a scripting language to set digital camera device features |
JPH10226139A (ja) * | 1997-02-14 | 1998-08-25 | Canon Inc | 画像形成システム及び画像形成装置及び媒体 |
US6249315B1 (en) * | 1997-03-24 | 2001-06-19 | Jack M. Holm | Strategy for pictorial digital image processing |
US6222583B1 (en) * | 1997-03-27 | 2001-04-24 | Nippon Telegraph And Telephone Corporation | Device and system for labeling sight images |
JP3225882B2 (ja) | 1997-03-27 | 2001-11-05 | 日本電信電話株式会社 | 景観ラベリングシステム |
US5990935A (en) * | 1997-04-04 | 1999-11-23 | Evans & Sutherland Computer Corporation | Method for measuring camera and lens properties for camera tracking |
JPH10319929A (ja) | 1997-05-19 | 1998-12-04 | Matsushita Electric Ind Co Ltd | 表示装置 |
JP3911354B2 (ja) * | 1997-09-02 | 2007-05-09 | 大日本スクリーン製造株式会社 | 画像処理方法および装置、並びにその処理を実行するためのプログラムを記録した記録媒体 |
JPH11146308A (ja) | 1997-11-13 | 1999-05-28 | Fuji Photo Film Co Ltd | 画像情報記録装置および画像プリントシステム |
US6493028B1 (en) * | 1997-11-26 | 2002-12-10 | Flashpoint Technology, Inc. | Method and system for extending the available image file formats in an image capture device |
DE19855885A1 (de) * | 1997-12-04 | 1999-08-05 | Fuji Photo Film Co Ltd | Bildverarbeitungsverfahren und -vorrichtung |
US6069982A (en) * | 1997-12-23 | 2000-05-30 | Polaroid Corporation | Estimation of frequency dependence and grey-level dependence of noise in an image |
JPH11220687A (ja) * | 1998-01-30 | 1999-08-10 | Fuji Photo Film Co Ltd | 画像処理方法および装置 |
US6381375B1 (en) * | 1998-02-20 | 2002-04-30 | Cognex Corporation | Methods and apparatus for generating a projection of an image |
DE19812028A1 (de) * | 1998-03-19 | 1999-09-23 | Heidelberger Druckmasch Ag | Verfahren zur Koordinatenumrechnung von Bilddaten mit zufälligem Offset der Bildpunkte |
JP3926918B2 (ja) | 1998-03-20 | 2007-06-06 | 富士通株式会社 | 画像補正処理装置及びそのプログラム記録媒体 |
US6603885B1 (en) * | 1998-04-30 | 2003-08-05 | Fuji Photo Film Co., Ltd. | Image processing method and apparatus |
JP4338155B2 (ja) * | 1998-06-12 | 2009-10-07 | キヤノン株式会社 | 画像処理装置及びその方法、コンピュータ可読メモリ |
JP4187830B2 (ja) | 1998-07-03 | 2008-11-26 | 東芝医用システムエンジニアリング株式会社 | 医用画像合成装置 |
US6462835B1 (en) * | 1998-07-15 | 2002-10-08 | Kodak Polychrome Graphics, Llc | Imaging system and method |
JP4095184B2 (ja) | 1998-10-29 | 2008-06-04 | キヤノン株式会社 | 画像処理装置及びその方法 |
JP2000165647A (ja) * | 1998-11-26 | 2000-06-16 | Seiko Epson Corp | 画像データ処理方法および画像データ印刷装置並びに画像データ処理プログラムを記録した記録媒体 |
JP4154053B2 (ja) * | 1998-12-25 | 2008-09-24 | キヤノン株式会社 | 画像記録・再生システム、画像記録装置及び画像再生装置 |
US6538691B1 (en) * | 1999-01-21 | 2003-03-25 | Intel Corporation | Software correction of image distortion in digital cameras |
JP4072302B2 (ja) | 1999-04-13 | 2008-04-09 | キヤノン株式会社 | データ処理方法及び装置及び記憶媒体 |
US6856427B1 (en) * | 1999-05-20 | 2005-02-15 | Eastman Kodak Company | System for printing correct exposure in a rendered digital image |
US6693668B1 (en) * | 1999-06-04 | 2004-02-17 | Canon Kabushiki Kaisha | Self-diagnostic image sensor |
US6470151B1 (en) * | 1999-06-22 | 2002-10-22 | Canon Kabushiki Kaisha | Camera, image correcting apparatus, image correcting system, image correcting method, and computer program product providing the image correcting method |
US6707950B1 (en) * | 1999-06-22 | 2004-03-16 | Eastman Kodak Company | Method for modification of non-image data in an image processing chain |
JP2001016449A (ja) | 1999-06-25 | 2001-01-19 | Ricoh Co Ltd | 画像入力装置 |
US6633408B1 (en) | 1999-06-29 | 2003-10-14 | Kodak Polychrome Graphics, Llc | Spectral modeling of photographic printing based on dye concentration |
CN2567940Y (zh) * | 1999-06-30 | 2003-08-20 | 罗技电子股份有限公司 | 摄像机设备 |
JP4822571B2 (ja) * | 1999-08-03 | 2011-11-24 | キヤノン株式会社 | デジタルx線撮影システム及び方法 |
DE19943183A1 (de) * | 1999-09-09 | 2001-03-15 | Heimann Systems Gmbh & Co | Verfahren zur Farbanpassung eines Bildes, insbesondere eines Röntgenbildes |
JP2001094848A (ja) | 1999-09-20 | 2001-04-06 | Canon Inc | モニター付カメラ |
AU1486101A (en) | 1999-11-12 | 2001-06-06 | Brian S. Armstrong | Image metrology methods and apparatus |
US6809837B1 (en) * | 1999-11-29 | 2004-10-26 | Xerox Corporation | On-line model prediction and calibration system for a dynamically varying color reproduction device |
KR100414083B1 (ko) * | 1999-12-18 | 2004-01-07 | 엘지전자 주식회사 | 영상왜곡 보정방법 및 이를 이용한 영상표시기기 |
US6816625B2 (en) * | 2000-08-16 | 2004-11-09 | Lewis Jr Clarence A | Distortion free image capture system and method |
JP3429280B2 (ja) * | 2000-09-05 | 2003-07-22 | 理化学研究所 | 画像のレンズ歪みの補正方法 |
JP4399133B2 (ja) * | 2000-09-08 | 2010-01-13 | カシオ計算機株式会社 | 撮影条件提供装置、撮影条件設定システム、撮影条件提供方法 |
US6956966B2 (en) * | 2001-04-03 | 2005-10-18 | Electronics For Imaging, Inc. | Method and apparatus for automated image correction for digital image acquisition |
FR2827459B1 (fr) * | 2001-07-12 | 2004-10-29 | Poseidon | Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image |
CN1305006C (zh) * | 2001-07-12 | 2007-03-14 | 杜莱布斯公司 | 向图象处理装置提供格式化信息的方法和系统 |
JP4159986B2 (ja) * | 2001-07-12 | 2008-10-01 | ドゥ ラブズ | デジタル画像から変換された画像を計算するための方法およびシステム |
US6873727B2 (en) * | 2001-07-23 | 2005-03-29 | Hewlett-Packard Development Company, L.P. | System for setting image characteristics using embedded camera tag information |
FR2895103B1 (fr) * | 2005-12-19 | 2008-02-22 | Dxo Labs Sa | Procede et systeme de traitement de donnees numeriques |
FR2895104A1 (fr) * | 2005-12-19 | 2007-06-22 | Dxo Labs Sa | Procede pour fournir des donnees a un moyen de traitement numerique |
FR2895102B1 (fr) * | 2005-12-19 | 2012-12-07 | Dxo Labs | Procede pour traiter un objet dans une plateforme a processeur(s) et memoire(s) et plateforme utilisant le procede |
-
2002
- 2002-06-05 CN CNB028139518A patent/CN1305006C/zh not_active Expired - Fee Related
- 2002-06-05 JP JP2003512927A patent/JP4295612B2/ja not_active Expired - Fee Related
- 2002-06-05 EP EP02743349A patent/EP1410326B1/fr not_active Expired - Lifetime
- 2002-06-05 AT AT02747504T patent/ATE447216T1/de not_active IP Right Cessation
- 2002-06-05 ES ES02747506T patent/ES2253542T3/es not_active Expired - Lifetime
- 2002-06-05 JP JP2003512929A patent/JP4295613B2/ja not_active Expired - Fee Related
- 2002-06-05 AT AT02748933T patent/ATE400040T1/de not_active IP Right Cessation
- 2002-06-05 AU AU2002317219A patent/AU2002317219A1/en not_active Abandoned
- 2002-06-05 KR KR1020047000413A patent/KR100957878B1/ko not_active IP Right Cessation
- 2002-06-05 CA CA2453423A patent/CA2453423C/fr not_active Expired - Fee Related
- 2002-06-05 KR KR1020047000417A patent/KR100940148B1/ko not_active IP Right Cessation
- 2002-06-05 WO PCT/FR2002/001911 patent/WO2003007240A1/fr active Application Filing
- 2002-06-05 WO PCT/FR2002/001909 patent/WO2003007239A1/fr active IP Right Grant
- 2002-06-05 WO PCT/FR2002/001910 patent/WO2003007236A2/fr active Application Filing
- 2002-06-05 US US10/483,496 patent/US7343040B2/en not_active Expired - Fee Related
- 2002-06-05 US US10/483,497 patent/US7724977B2/en not_active Expired - Lifetime
- 2002-06-05 EP EP02747506A patent/EP1410327B1/fr not_active Expired - Lifetime
- 2002-06-05 CN CNB028139542A patent/CN1273931C/zh not_active Expired - Lifetime
- 2002-06-05 KR KR1020047000414A patent/KR100940147B1/ko active IP Right Grant
- 2002-06-05 EP EP02751241.7A patent/EP1442425B1/fr not_active Expired - Lifetime
- 2002-06-05 DE DE60207417T patent/DE60207417T2/de not_active Expired - Lifetime
- 2002-06-05 DE DE60227374T patent/DE60227374D1/de not_active Expired - Lifetime
- 2002-06-05 US US10/483,322 patent/US7760955B2/en active Active
- 2002-06-05 CN CNB028139534A patent/CN100361153C/zh not_active Expired - Fee Related
- 2002-06-05 CN CNB028139526A patent/CN1316426C/zh not_active Expired - Fee Related
- 2002-06-05 WO PCT/FR2002/001914 patent/WO2003007241A1/fr active Application Filing
- 2002-06-05 JP JP2003512924A patent/JP4614657B2/ja not_active Expired - Fee Related
- 2002-06-05 US US10/483,495 patent/US7346221B2/en not_active Expired - Lifetime
- 2002-06-05 AT AT02747506T patent/ATE310284T1/de not_active IP Right Cessation
- 2002-06-05 US US10/482,413 patent/US8675980B2/en not_active Expired - Fee Related
- 2002-06-05 ES ES02748933T patent/ES2311061T3/es not_active Expired - Lifetime
- 2002-06-05 CN CNB028139569A patent/CN1316427C/zh not_active Expired - Fee Related
- 2002-06-05 EP EP02748933A patent/EP1415275B1/fr not_active Expired - Lifetime
- 2002-06-05 DE DE60239061T patent/DE60239061D1/de not_active Expired - Lifetime
- 2002-06-05 WO PCT/FR2002/001915 patent/WO2003007242A2/fr active IP Right Grant
- 2002-06-05 US US10/483,494 patent/US7792378B2/en not_active Expired - Lifetime
- 2002-06-05 AU AU2002317900A patent/AU2002317900A1/en not_active Abandoned
- 2002-06-05 DE DE60234207T patent/DE60234207D1/de not_active Expired - Lifetime
- 2002-06-05 EP EP02747504A patent/EP1444651B1/fr not_active Expired - Lifetime
- 2002-06-05 AT AT02743349T patent/ATE497224T1/de not_active IP Right Cessation
- 2002-06-05 AU AU2002317902A patent/AU2002317902A1/en not_active Abandoned
- 2002-06-05 CN CNB028139577A patent/CN1305010C/zh not_active Expired - Fee Related
- 2002-06-05 JP JP2003512928A patent/JP4020262B2/ja not_active Expired - Fee Related
- 2002-06-05 EP EP08100657.9A patent/EP2015247B1/fr not_active Expired - Lifetime
- 2002-06-05 JP JP2003512930A patent/JP4367757B2/ja not_active Expired - Fee Related
- 2002-06-05 EP EP02745485.9A patent/EP1410331B1/fr not_active Expired - Lifetime
- 2002-06-05 JP JP2003512931A patent/JP4452497B2/ja not_active Expired - Fee Related
- 2002-06-05 WO PCT/FR2002/001908 patent/WO2003007243A2/fr active Application Filing
- 2002-06-05 KR KR1020047000412A patent/KR100879832B1/ko not_active IP Right Cessation
-
2010
- 2010-07-16 US US12/838,184 patent/US20100278415A1/en not_active Abandoned
- 2010-07-16 US US12/838,198 patent/US8559743B2/en not_active Expired - Lifetime
-
2012
- 2012-06-06 US US13/489,892 patent/US20120308160A1/en not_active Abandoned
-
2013
- 2013-09-09 US US14/021,235 patent/US9536284B2/en not_active Expired - Lifetime
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2311061T3 (es) | Procedimiento y sistema para proporcionar informaciones formateadas a medios de tratamiento de imagenes. | |
ES2282429T3 (es) | Procedimiento y sistema para producir informaciones formateadas relacionadas con las distorsiones geometricas. | |
Tocci et al. | A versatile HDR video production system | |
US8368762B1 (en) | Methods and apparatus for camera calibration based on multiview image geometry | |
FR2827459A1 (fr) | Procede et systeme pour fournir a des logiciels de traitement d'image des informations formatees liees aux caracteristiques des appareils de capture d'image et/ou des moyens de restitution d'image | |
CN102844788A (zh) | 图像处理装置及使用该图像处理装置的图像拾取装置 | |
Trumpy et al. | A multispectral design for a new generation of film scanners | |
Hasinoff | Variable-aperture photography | |
Rowlands | Equivalence theory for cross-format photographic image quality comparisons | |
Ortiz et al. | Criteria and recommendations for capturing and presenting soil profile images in order to create a database of soil images. | |
Riess | Physical Integrity | |
US11758122B1 (en) | Lens and camera testing method, apparatus, and system |