ES2242281T3 - Procedimiento de tratamiento de imagenes. - Google Patents

Procedimiento de tratamiento de imagenes.

Info

Publication number
ES2242281T3
ES2242281T3 ES98923218T ES98923218T ES2242281T3 ES 2242281 T3 ES2242281 T3 ES 2242281T3 ES 98923218 T ES98923218 T ES 98923218T ES 98923218 T ES98923218 T ES 98923218T ES 2242281 T3 ES2242281 T3 ES 2242281T3
Authority
ES
Spain
Prior art keywords
image
color
plane
distance
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES98923218T
Other languages
English (en)
Inventor
Finn Hoydal
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
ZETEX AS
Original Assignee
ZETEX AS
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ZETEX AS filed Critical ZETEX AS
Application granted granted Critical
Publication of ES2242281T3 publication Critical patent/ES2242281T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Endoscopes (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Image Generation (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Holo Graphy (AREA)
  • Threshing Machine Elements (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)
  • Sewing Machines And Sewing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Silver Salt Photography Or Processing Solution Therefor (AREA)

Abstract

Procedimiento de tratamiento de imagen, en particular para la conversión bidimensional de un sujeto real tridimensional en una representación tridimensional de este último, el cual se compone de elementos, cada uno representado por un pixel enla imagen bidimensional. Los colores de la imagen son sometidos a un análisis relativo a la calidad del color y a la orientación en el espacio respectiva de los puntos de color se determina mediante una escala de temperatura de los colores, de una escala de saturación de los colores y una escala de contraste, de manera que cada color encuentra su lugar perspectivo respecto de los otros colores de la imagen.

Description

Procedimiento de tratamiento de imágenes.
La invención se refiere a un procedimiento para el procesamiento de imágenes, especialmente para convertir una imagen de dos dimensiones de un sujeto real de tres dimensiones en una representación en tres dimensiones del mismo sujeto real de tres dimensiones, en el que el sujeto está compuesto de elementos en la imagen de dos dimensiones.
El objetivo de la presente invención es proporcionar una técnica nueva y simple que permita convertir fotogramas en color a partir de película o video, que es una representación en dos dimensiones en el plano de la imagen con coordenadas de anchura y altura (x, y), en una representación de tres dimensiones en el espacio con coordenadas de anchura, altura y profundidad (X, Y, Z). Esta representación de tres dimensiones puede, por ejemplo, usarse para analizar la forma de elementos en la superficie de la imagen (diagnóstico de objetos) o para la producción de imágenes/película en tres dimensiones para un medio adecuado a la misma.
Los fotogramas en color a partir de película o video son una representación fotográfica de la luz de una o más fuentes de luz con una cierta composición espectral que en un punto dado del tiempo enciende los objetos en la representación de la imagen de la cámara. Todos los objetos absorben ciertos colores y reflejan el resto. El color del objeto está determinado por la distribución espectral de la luz reflejada por el objeto. La grabación en película de un objeto depende de varios elementos, que incluyen:
1) La distribución espectral de la(s) fuente(s) de luz.
2) La potencia reflectante espectral del objeto.
3) La distancia desde la cámara y el espectro de absorción de esta perspectiva aérea.
4) La capacidad de grabación del color del material fotográfico.
Para obtener las coordenadas espaciales, incluyendo el parámetro de la profundidad Z, para los elementos del sujeto en una imagen existente, se analiza el color de la imagen. El color es una grabación de las fuentes de luz incidentes y que reflejan los objetos.
El color de las fuentes de luz se mide en temperatura del color y se indica en Kelvin (K). Cuando se fotografía un escenario, la temperatura del color de luz incidente y reflejada desde los objetos en la superficie de la imagen se medirá normalmente con un detector de luz de color, usando una película con una capacidad de grabación del color que esté adaptada para el propósito (luz de día, luz artificial, etc.). La temperatura del color de las fuentes de luz varía con la distancia a la cámara.
Los elementos de la imagen individuales en un fotograma a color representan los objetos reflejados en la representación de la imagen. El color de los elementos de la imagen se determina de manera no ambigua mediante tres parámetros que se pueden medir: tono, saturación y brillo. Estos parámetros del color varían con la distancia a la cámara.
El tono se refiere al lugar del color en el espectro electromagnético, cf. espectro y círculo de color de Newton. Esto se indica normalmente mediante la composición relativa de los colores del espectro Rojo, Verde y Azul (R, G, B), o alternativamente Magenta, Amarillo y Cian (M, Y, C). Cf. también la transformación a coordenadas de color según el estándar CIE 1931, donde todos los colores visibles (es decir, en rango de longitud de onda entre 400 nm y 770 nm) para un grado de brillo dado se le pueden asignar coordenadas exactas en un diagrama que se define mediante los colores espectrales y una línea púrpura.
La saturación indica cómo un color se ha mezclado con otros colores, y está designada como porcentaje (%). Un color espectral puro se llama saturado (grado de saturación 100%), el blanco y el gris se llaman colores insaturados (grado de saturación 0%).
El brillo (intensidad de la luz) se una medida de la cantidad incidente de luz respecto a la reflexión desde una superficie absolutamente blanca (reflexión del 100%) y se designa de esta manera como porcentaje relativo (%).
El color de la luz grabado reflejado desde los objetos que se mueven en diferentes distancias respecto a una cámara de película varía. La temperatura de color de las fuentes de luz varía con la distancia. El tono de los elementos individuales (RGB) es constante, pero el brillo y la saturación varía con la distancia. Un alto grado de brillo, colores saturados y una baja temperatura del color se producen cerca de la superficie de la imagen (corta distancia), dando los llamados niveles activos. En correspondencia, un bajo grado de brillo, colores insaturados y una alta temperatura del color se producirán lejos de la superficie de la imagen (larga distancia), dando niveles pasivos. Además, esto funciona internamente en todos estos niveles (activos/pasivos), donde los colores cálidos parecen más activos en contraste complementario con los colores fríos. Los colores cálidos son M, MY e Y. Los colores fríos son YC y C.
Debido a la variación en dichas características con la distancia desde una cámara de película, se puede deducir que cada color tiene su propio lugar de perspectiva en uno y el mismo escenario en relación con los otros colores de la imagen. Esta es la base de la presente invención.
Según la invención, se propone un procedimiento para el procesamiento de imágenes, especialmente para convertir una imagen en dos dimensiones de un sujeto real en tres dimensiones en una representación en tres dimensiones del mismo sujeto real en tres dimensiones, en el que el sujeto está compuesto de elementos en la imagen de dos dimensiones, y en el que la imagen en dos dimensiones se proporciona mediante una cámara. El procedimiento se caracteriza por:
- definir un plano de referencia correspondiente al plano focal de la cámara colocado más próximo al plano focal de la cámara, comprendiendo el plano de referencia elementos correspondientes a elementos en la imagen en dos dimensiones,
- definir los parámetros del color tono, saturación, brillo para cada elemento en el plano de referencia,
- crear una escala de referencia mediante la determinación de los valores de los parámetros del color mediante una secuencia de imágenes de imágenes individuales, cada una de las cuales representa el sujeto en diferentes planos focales predeterminados, usándose los cambios en los parámetros del color entre los respectivos planos focales para la calibración de una escala de medición geométrica que se refiere a respectivos parámetros del color medidos en valores de distancia métricos o de perspectiva,
- medir y grabar los parámetros del color tono, saturación y brillo para cada elemento en la imagen en dos dimensiones,
- comparar los parámetros del color para cada elemento en la imagen en dos dimensiones con los parámetros del color para el elemento correspondiente en el plano de referencia,
- basado en dicha comparación, asignar a cada elemento en la imagen en dos dimensiones, un valor de distancia dh; ds; db, donde dh resulta a partir de la comparación de los valores del tono, ds resulta a partir de la comparación de los valores de la saturación y db resulta a partir de la comparación de los valores del brillo,
- calcular la distancia d(z) entre los elementos en la imagen en dos dimensiones y el plano de referencia, siendo d(z) la distancia medida a lo largo del eje z perpendicular al plano de referencia y con origen en el mismo, como un promedio ponderado de los valores de distancia dh, ds, db; d(z) = 1/3*(kh*dh+ks*ds+kb*db), donde kh, ks y kb constituyen factores de ponderación basados en los datos empíricos,
- realizar las transformaciones d(x) --> X, d(y) --> Y y d(z) --> Z, donde X, Y, Z son las coordenadas de los elementos en un sistema de coordenadas de tres dimensiones con origen en el plano de referencia, obteniéndose las transformaciones d(x) --> X, d(y) --> Y mediante un procedimiento conocido para convertir los elementos de la imagen en el plano en elementos en el espacio mediante índices calculados (escala) entre el plano de la imagen de la cámara y los planos focales en el espacio, constituyendo el plano más cercano el plano de referencia, y obteniéndose la transformación d(z) --> Z mediante la aplicación inversa del procedimiento para la construcción de la perspectiva frontal para leer la distancia métrica desde un dibujo en perspectiva estandarizado, y
- determinar sobre la base del valor de distancia establecido d(z) y las coordenadas x, y del elemento en el plano de la imagen en dos dimensiones las coordenadas espaciales reales X, Y, Z para el elemento.
La invención comprende la creación de una escala de referencia mediante la determinación de los valores de los parámetros para el color mediante una secuencia de imágenes individuales, cada una de las cuales muestra el sujeto en diferentes planos focales predeterminados, usándose los cambios en los parámetros del color entre los respectivos planos focales para la calibración de una escala de medición geométrica que se refiere a los respectivos parámetros del color medidos a los valores de distancia métrica o en perspectiva. La escala de medición geométrica preferiblemente comprende escalas no lineales geométricamente coincidentes basadas en datos de referencia y empíricos para tono, saturación del color y brillo respectivamente. La temperatura del color aumenta hacia el valor máximo en el punto de extremo común o punto de convergencia, donde la saturación del color y el contraste se aproximan a cero. El punto común de convergencia de las escalas no lineales se determina mediante los parámetros del color para uno o más elementos situados de manera remota en la imagen que se focalizó sobre el plano focal para la distancia más lejana, determinando los valores medidos para este elemento o los valores medidos promedio para estos elementos el punto de convergencia. En otra realización preferida, la escala de medición geométrica se inserta en un diagrama en perspectiva frontal correspondiente al formato de la imagen en dos dimensiones y con las escalas no lineales calibradas para el color de la imagen relacionada para determinar la distancia entre el plano de referencia y un elemento en la imagen.
Finalmente, según la invención se hace uso preferiblemente de un valor de la distancia basado en la perspectiva o un valor de la distancia métrico.
Mediante estos medios el material de la imagen fotográfica de color expuesto se somete a un análisis basado en el conocimiento empírico y experimental de las características del color, obteniendo así cada color su lugar de perspectiva respecto a los otros colores de la imagen. Como resultado, la invención proporciona una base de datos de referencia en tres dimensiones para todos los colores en el escenario, a partir de la cual se pueden deducir otros parámetros de la perspectiva, tal como la distancia, las coordenadas espaciales, etc.
En la presente invención, se procesa la información que existe en las imágenes fotográficas a color ya expuestas. Si el material fotográfico es del tipo analógico tradicional, tal como papel/película de color negativo o positivo o video, para el tratamiento adicional será natural convertir el material en formato digital, donde cada punto en la superficie de la imagen se representa mediante un píxel, es decir, una descripción de sus características, y que ha de contener entre otras cosas la orientación del punto en el plano de la imagen y los datos deseables respecto al color (tono, saturación y brillo). Esta representación digital se puede proporcionar mediante unidades de edición existentes para el procesamiento de imágenes, en las que la invención también se puede procesar.
En la siguiente descripción de la presente invención se utiliza un modelo matemático basado en un procedimiento geométrico. El objetivo de esta realización es proporcionar la mejor explicación posible del procedimiento. En la práctica será natural implementar el procedimiento en un procedimiento matemático equivalente alternativo para procesarse en un ordenador.
La invención se describirá ahora en mayor detalle con referencia a las figuras adjuntas que representan el procedimiento, en las que:
La figura 1 es una representación esquemática de varias imágenes de un objeto en movimiento, utilizado para la deducción de la calibración o de los datos de referencia;
La figura 2 representa la posición de diferentes objetos representados en la imagen respecto al plano de referencia;
La figura 3 representa el uso de los datos en una escala de medición geométrica; y
La figura 4 es una perspectiva frontal que representa el formato de la imagen.
La figura 1 representa una secuencia de imágenes para un objeto que se mueve a lo largo de un eje Z (paralelo con C-B) en un escenario específico. Debido a la distancia que aumenta desde el plano focal de la cámara, el color del objeto cambiará. La representación del plano focal del objeto tendrá entonces unos parámetros del color que expresan la distancia del objeto desde un plano de referencia (por ejemplo la primera imagen en la secuencia, 5') a la última imagen en la secuencia 11', y grabando el movimiento de los objetos entre los diferentes planos focales (la secuencia de imagen real 5'-11' en la figura 1), obteniendo así una expresión de la distancia de los objetos desde el plano de referencia 5'. La posición conocida del plano focal, es decir, los valores de distancia conocidos para el objeto combinados con los parámetros del color medidos para el objeto en cada plano focal 5'-11' dan de esta manera una escala de referencia que se puede usar para crear una escala de medición geométrica (escala de distancia) para los parámetros del color medidos, tal como se representa en la figura 2.
La figura 2 representa una cámara con una lente y cómo se determina el plano de referencia (el plano focal de la cámara). La figura también representa diferentes objetos que en realidad están situados a una distancia específica d(z) del plano de referencia. En el procedimiento según la invención, la posición espacial real del objeto se obtiene sobre la base de los parámetros del color de los elementos que representan el objeto en la imagen. En la parte inferior de la figura se puede ver la escala geométrica que en una realización de la invención permite establecer la distancia entre un objeto y el plano de referencia sobre la base de la imagen del objeto.
La figura 3 representa una escala de medición geométrica que coincide con escalas no lineales para tono, saturación de color y brillo respectivamente. La escala de medición geométrica será la herramienta para analizar los elementos arbitrarios en el mismo escenario. La escala de medición es en forma de un triángulo rectángulo ABC', que describe el rango de profundidad en el escenario de la imagen, correspondiente a la figura 1. A lo largo de los bordes laterales hay escalas establecidas para las características relacionadas para el color basadas en datos de referencia y empíricos. Esta escala de medición geométrica, que se puede encontrar en la perspectiva frontal representada en la figura 4, es la herramienta principal en esta realización del procedimiento según la inven-
ción.
La figura 4 muestra un rectángulo ADEF que representa el formato de la imagen de película/video. El punto C en la figura 4 describe los puntos centrales en cada plano focal, llamados los puntos focales, vistos frontalmente a través de las imágenes en perspectiva hacia el centro del escenario representado en la figura 1, y la escala geométrica de la figura 3 se indica insertada en el cuadrante inferior derecho. La figura 4 está adaptada al sistema métrico según una escala que se calcula sobre la base de un procedimiento conocido. Los valores métricos se guardarán a continuación en toda su superficie y contorno.
La figura 4 se llama una perspectiva frontal y se conoce en los procedimientos de arquitectura en el caso de diseños manuales para realizar un cálculo exacto desde el exterior y en una perspectiva. En la presente realización de la invención esto se puede utilizar en el orden inverso, mediante una lectura automática de la figura 3 internamente en la figura 4 en una perspectiva al revés (la figura 3 también está adaptada de esta manera a la escala métrica) para obtener datos métricos de distancia referidos al elemento sujeto (objetos) de las imágenes.
El procedimiento según la realización empieza con un procedimiento para establecer y calibrar la herramienta que se utiliza, descrita anteriormente con referencia a las figuras 1, 2, 3 y 4. En primer lugar, la escala de medición geométrica en la figura 3 se establece con las diferentes escalas. La figura 3 se establece en su forma geométrica como un triángulo rectángulo con las esquinas A, B y C. A lo largo de los bordes laterales se establecen diferentes escalas que son responsables del concepto de la invención, a saber, el análisis del color en un escenario fotografiado. La escala geométrica se inserta en la figura 4 y las escalas se calibran mediante los datos medidos. Esto se ha de realizar para cada escenario que se ha de procesar.
A continuación se pueden realizar los procedimientos para proporcionar los parámetros de perspectiva-distancia, por ejemplo proporcionando valores de la distancia métrica para objetos/elementos en el escenario.
A lo largo de la hipotenusa AC' en ABC' en la figura 3, el orden de las imágenes en la secuencia de la película está marcado. Cada plano focal de la imagen también se sigue implícitamente mediante líneas de construcción vertical hasta la pata BC'. En el área intermedia (en el interior del triángulo mostrado en la figura 3) se reflejará el color de la imagen individual.
A lo largo de la pata AB en ABC' en la figura 3, se establece una escala con una distribución de tonos, por ejemplo indicados en formato RGB. La escala es no lineal y se produce de manera analítica con una inclinación de ciertos colores basada en los datos de referencia, colocándose los colores más cálidos y frontales en el punto B, y los colores restantes en el orden RGB con los colores fríos y más distantes abajo hacia el punto A. Todos estos colores a lo largo de la línea AB pertenecen al segmento saturado de los colores, correspondiendo a los valores más bajos de la temperatura del color en la perspectiva del escenario. Durante el procesamiento, la distribución de los diferentes colores proporcionará la desviación en relación con los datos de referencia iniciales, y teniendo en cuenta estos datos empíricos, aumenta la probabilidad de conseguir una calibración exacta de la escala para varios escenarios.
A lo largo de la pata BC' en ABC' en la figura 3 se establecen tres escalas, en las que:
La escala 1 es no lineal y representa el tono en Kelvin (K), más bajo en B y elevándose hacia C',
La escala 2 es no lineal y representa el grado de la saturación de color como porcentaje (%), más alto en B y cayendo hacia C', y
La escala 3 es no lineal y representa el brillo.
La escala 3 tendrá su punto inicial en un punto B' en la línea BC. El punto B' se prevé normalmente dibujando una línea perpendicular desde la esquina B hacia abajo a la línea AC', formando así el punto de intersección 5'. Normalmente se dibuja a continuación una línea perpendicular desde el punto 5' hasta la línea BC', formando así el punto B'.
La vertical 4 en la figura 3 marca así el plano focal más cercano, indicado como 5' en la figura 1.
Después de haber establecido en la figura 3 las escalas que contienen los datos de referencia iniciales, toda la escala geométrica se inserta en la figura 4 tal como se indica, en el cuadrante inferior derecho o inferior izquierdo. La figura 4, con la escala geométrica de la figura 3 insertada, se coloca sobre las imágenes en un escenario. La extensión de la escala geométrica se calibra para el escenario en cuestión según los datos medidos. La escala 1, la escala del tono, proporciona una directriz para el tratamiento adicional. Es no lineal y está producida con una inclinación de ciertos colores basados en datos de referencia, cf. la escala RGB a lo largo de la pata AB. La escala 1 se calibra en el punto final, y también mediante datos empíricos si están disponibles.
La escala 1 tendrá su punto final en un punto C' que coincide aparentemente con las escalas 2 y 3. En el punto C', llamado punto de convergencia, el contraste y la saturación de color que se pueden medir convergerán hacia el 0%. En correspondencia, el punto C' en la escala 1 será la temperatura de color más alta posible que se puede medir en el escenario. El punto de convergencia C' se prevé marcando estos valores medidos en las tres escalas relacionadas a partir del último plano/punto focal grabado en las series de imágenes y seleccionando un promedio, o alternativamente se usan valores medidos desde el elemento/objeto más remoto grabado en el escenario. Si los datos empíricos indican otra cosa, se puede seleccionar un algoritmo para una media ponderada, que da el punto de extremo C'.
La escala 1 para el tono es una transferencia (representación) de la escala de color saturado de la figura a lo largo de la línea AB respecto a la saturación del color y el brillo. Esto implica que el área en el interior de la escala triangular refleja el cambio de perspectiva para todos los colores en el escenario. De esta manera, cada elemento en cada imagen en el escenario se representa mediante su tono, saturación y brillo. La orientación del punto en el espacio relacionado con la posición de la cámara se define sin ambigüedades, y se puede deducir mediante el procesamiento de coordenadas espaciales (x,y,z) exactas adecuadas.
Después de establecer la herramienta en forma de una escala geométrica calibrada (figura 3) insertada en una perspectiva frontal (figura 4) tal como se ha descrito anteriormente, sigue el procesamiento real de las imágenes en un escenario, es decir, los procedimientos para proporcionar los parámetros de perspectiva-distancia. La herramienta se coloca sobre las imágenes individuales en el escenario, y se obtienen los parámetros deseados mediante procedimientos conocidos.
Si se requiere la distancia métrica a los objetos o elementos en las imágenes, se puede realizar el siguiente procedimiento:
Los puntos deseados de la superficie de la imagen incidentales al objeto/elemento se transfieren a través de líneas de construcción a la línea de perspectiva principal AC. Las líneas perpendiculares se dibujan normalmente desde estos puntos sobre la línea AC hasta la línea BC' a un punto de intersección, cf. puntos/planos focales 11', 10' y 9' en la figura 3. Desde el punto de intersección con la línea de perspectiva principal AC también se dibuja una línea hasta el punto de distancia B así como hacia abajo en su extensión a un punto de intersección con el borde lateral AF, o en su extensión fuera de ADEF. La distancia métrica al punto en la superficie de la imagen para la cámara será entonces proporcional a la distancia desde el punto A dependiendo de la escala (o proporcional a la distancia desde el punto F si se inserta la plantilla en el cuadrante inferior izquierdo en la figura 4).
Si se requiere altura métrica incidental a o entre los objetos y elementos en las imágenes, se puede realizar un procedimiento similar dibujando líneas de construcción hasta la línea CD y a continuación en línea desde el punto de intersección con CD fuera de la línea AD, donde se leen los valores métricos.
Si se requiere altura métrica correspondiente al objeto o entre el objeto y los elementos en las imágenes para la determinación del contorno, se puede realizar un procedimiento conocido similar.
Estos parámetros métricos se pueden utilizar en el diagnóstico de objetos determinando primero las coordenadas espaciales (x,y,z), es decir, convirtiendo desde una representación en dos dimensiones a una representación en tres dimensiones para todo o parte del escenario, y realizando posteriormente un análisis de la forma del elemento respecto a la alteración en circunferencia, contorno, colores, etc.
Si se requiere el color de un objeto/elemento relativo a una distancia métrica, se puede realizar el procedimiento anterior en orden inverso. Estos parámetros de color perspectiva-distancia se pueden utilizar para crear una perspectiva exagerada y para manipular el material de la imagen en dos dimensiones de manera que parezca que sea tridimensional, y se pueda ver, por ejemplo, mediante tecnología conocida de datos de video, por ejemplo, en pantallas de alta resolución (TV Virtual 3D).
Mediante una combinación de las anteriores y otras posibles realizaciones del procedimiento según la invención, se pueden deducir datos que se pueden usar en la producción de televisión real en tres dimensiones (TV Real 3D), para verse en un medio adecuado para la misma.

Claims (7)

1. Procedimiento para el procesamiento de imágenes, especialmente para convertir una imagen en dos dimensiones de un sujeto real en tres dimensiones en una representación en tres dimensiones del mismo sujeto real en tres dimensiones, en el que el sujeto está compuesto de elementos en la imagen de dos dimensiones, y en el que la imagen en dos dimensiones se proporciona mediante una cámara, caracterizado por:
- definir un plano de referencia correspondiente al plano focal de la cámara colocado más próximo al plano focal de la cámara, comprendiendo el plano de referencia elementos correspondientes a elementos en la imagen en dos dimensiones,
- definir los parámetros del color tono, saturación, brillo para cada elemento en el plano de referencia,
- crear una escala de referencia mediante la determinación de los valores de los parámetros del color mediante una secuencia de imágenes de imágenes individuales, cada una de las cuales representa el sujeto en diferentes planos focales predeterminados, usándose los cambios en los parámetros del color entre los respectivos planos focales para la calibración de una escala de medición geométrica que se refiere a respectivos parámetros del color medidos en valores de distancia métricos o de perspectiva,
- medir y grabar los parámetros del color tono, saturación y brillo para cada elemento en la imagen en dos dimensiones,
- comparar los parámetros del color para cada elemento en la imagen en dos dimensiones con los parámetros del color para el elemento correspondiente en el plano de referencia,
- basado en dicha comparación, asignar a cada elemento en la imagen en dos dimensiones, un valor de distancia dh; ds; db, donde dh resulta a partir de la comparación de los valores del tono, ds resulta a partir de la comparación de los valores de la saturación y db resulta a partir de la comparación de los valores del brillo,
- calcular la distancia d(z) entre los elementos en la imagen en dos dimensiones y el plano de referencia, siendo d(z) la distancia medida a lo largo del eje z perpendicular al plano de referencia y con origen en el mismo, como un promedio ponderado de los valores de distancia dh, ds, db; d(z) = 1/3*(kh*dh+ks*ds+kb*db), donde kh, ks y kb constituyen factores de ponderación basados en los datos empíricos,
- realizar las transformaciones d(x) --> X, d(y) --> Y y d(z) --> Z, donde X, Y, Z son las coordenadas de los elementos en un sistema de coordenadas de tres dimensiones con origen en el plano de referencia, obteniéndose las transformaciones d(x) --> X, d(y) --> Y mediante un procedimiento conocido para convertir los elementos de la imagen en el plano en elementos en el espacio mediante índices calculados (escala) entre el plano de la imagen de la cámara y los planos focales en el espacio, constituyendo el plano más cercano el plano de referencia, y obteniéndose la transformación d(z) --> Z mediante la aplicación inversa del procedimiento para la construcción de la perspectiva frontal para leer la distancia métrica desde un dibujo en perspectiva estandarizado, y
- determinar sobre la base del valor de distancia establecido d(z) y las coordenadas x, y del elemento en el plano de la imagen en dos dimensiones las coordenadas espaciales reales X, Y, Z para el elemento.
2. Procedimiento según la reivindicación 1, caracterizado por el hecho de que los datos empíricos se organizan en un modelo de color geométrico adecuado para su uso en conexión con la construcción de la perspectiva frontal.
3. Procedimiento según la reivindicación 2, caracterizado por el hecho de que la escala de medición del modelo de color geométrico comprende escalas no lineales geométricamente coincidentes basadas en datos de referencia y empíricos para el tono, la saturación del color y el brillo respectivamente, donde la temperatura del color aumenta hacia su valor máximo en el punto final común, o punto de convergencia, donde la saturación del color y el contraste se aproximan a cero.
4. Procedimiento según la reivindicación 3, caracterizado por el hecho de que el punto común de convergencia de las escalas no lineales se determina mediante los parámetros del color para uno o más elementos situados alejados en la imagen que se focaliza en el plano focal para una distancia más alejada, determinando los valores medidos para este elemento o los valores medidos promedio para estos elementos el punto de convergencia.
5. Procedimiento según la reivindicación 4, caracterizado por el hecho de que caracterizado por el hecho de que la escala de medición geométrica se inserta en un diagrama frontal en perspectiva que corresponde al formato de la imagen en dos dimensiones y con las escalas no lineales calibradas para el sujeto de la imagen concernida para la determinación de la distancia entre el plano de referencia y un elemento en la imagen.
6. Procedimiento según la reivindicación 5, caracterizado por el hecho de que se utiliza el valor de distancia basado en la perspectiva.
7. Procedimiento según la reivindicación 6, caracterizado por el hecho de que se utiliza el valor de distancia métrica.
ES98923218T 1997-05-06 1998-05-06 Procedimiento de tratamiento de imagenes. Expired - Lifetime ES2242281T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
NO971651A NO304715B1 (no) 1997-05-06 1997-05-06 FremgangsmÕte ved bildebehandling
NO972097 1997-05-06

Publications (1)

Publication Number Publication Date
ES2242281T3 true ES2242281T3 (es) 2005-11-01

Family

ID=19900698

Family Applications (1)

Application Number Title Priority Date Filing Date
ES98923218T Expired - Lifetime ES2242281T3 (es) 1997-05-06 1998-05-06 Procedimiento de tratamiento de imagenes.

Country Status (19)

Country Link
US (1) US6546153B1 (es)
EP (1) EP0980568B1 (es)
JP (1) JP2001524239A (es)
KR (1) KR100496875B1 (es)
CN (1) CN1261969A (es)
AT (1) ATE290242T1 (es)
AU (1) AU735613B2 (es)
BR (1) BR9808743A (es)
CA (1) CA2289593A1 (es)
DE (1) DE69829177T2 (es)
ES (1) ES2242281T3 (es)
IL (1) IL132728A (es)
IS (1) IS5238A (es)
NO (1) NO304715B1 (es)
NZ (1) NZ501466A (es)
PL (1) PL336850A1 (es)
RU (1) RU2193798C2 (es)
TR (1) TR199902741T2 (es)
WO (1) WO1998050889A1 (es)

Families Citing this family (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7068825B2 (en) * 1999-03-08 2006-06-27 Orametrix, Inc. Scanning system and calibration method for capturing precise three-dimensional information of objects
KR100450836B1 (ko) * 2001-12-11 2004-10-01 삼성전자주식회사 이차원 영상의 입체화 장치 및 방법
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7102615B2 (en) * 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US7883415B2 (en) * 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US9474968B2 (en) * 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US8686939B2 (en) * 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US7391409B2 (en) * 2002-07-27 2008-06-24 Sony Computer Entertainment America Inc. Method and system for applying gearing effects to multi-channel mixed input
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US9682319B2 (en) * 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US8072470B2 (en) * 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
JP4068596B2 (ja) 2003-06-27 2008-03-26 株式会社東芝 図形処理方法、図形処理装置およびコンピュータ読取り可能な図形処理プログラム
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US8323106B2 (en) * 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US9573056B2 (en) * 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US10279254B2 (en) * 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US8547401B2 (en) * 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
WO2007078533A2 (en) 2005-12-23 2007-07-12 Wms Gaming Inc. Transient or persistent game play in wagering games
WO2007098017A2 (en) 2006-02-17 2007-08-30 Wms Gaming Inc. Providing alternative persistent state recovery techniques
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8542907B2 (en) * 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
JP5684577B2 (ja) * 2008-02-27 2015-03-11 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
JP5338228B2 (ja) * 2008-09-29 2013-11-13 カシオ計算機株式会社 画像生成装置、及びプログラム
US8961313B2 (en) * 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8527657B2 (en) * 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) * 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
CN103004180A (zh) 2010-05-12 2013-03-27 派力肯影像公司 成像器阵列和阵列照相机的架构
US8305456B1 (en) * 2011-05-11 2012-11-06 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
CN103797782A (zh) * 2011-09-02 2014-05-14 株式会社尼康 图像处理装置、程序
RU2493602C1 (ru) * 2012-08-10 2013-09-20 Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." Способ и система для выделения ключевых кадров из видео последовательностей
PL2836983T3 (pl) * 2012-10-08 2018-01-31 Koninklijke Philips Nv Przetwarzanie obrazu zmieniające luminancję z ograniczeniami barwy
US10467855B2 (en) 2017-06-01 2019-11-05 Igt Gaming system and method for modifying persistent elements
CN109816704B (zh) 2019-01-28 2021-08-03 北京百度网讯科技有限公司 物体的三维信息获取方法和装置
BR112022004811A2 (pt) 2019-09-17 2022-06-21 Boston Polarimetrics Inc Sistemas e métodos para modelagem de superfície usando indicações de polarização
CN114746717A (zh) 2019-10-07 2022-07-12 波士顿偏振测定公司 利用偏振进行表面法线感测的系统和方法
WO2021108002A1 (en) 2019-11-30 2021-06-03 Boston Polarimetrics, Inc. Systems and methods for transparent object segmentation using polarization cues
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2021243088A1 (en) 2020-05-27 2021-12-02 Boston Polarimetrics, Inc. Multi-aperture polarization optical systems using beam splitters
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6236748B1 (en) * 1994-08-02 2001-05-22 Canon Kabushiki Kaisha Compound eye image pickup device utilizing plural image sensors and plural lenses
GB2305050A (en) * 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
US6014472A (en) * 1995-11-14 2000-01-11 Sony Corporation Special effect device, image processing method, and shadow generating method
US6009188A (en) * 1996-02-16 1999-12-28 Microsoft Corporation Method and system for digital plenoptic imaging

Also Published As

Publication number Publication date
NO304715B1 (no) 1999-02-01
EP0980568B1 (en) 2005-03-02
RU2193798C2 (ru) 2002-11-27
BR9808743A (pt) 2002-05-21
IL132728A0 (en) 2001-03-19
CN1261969A (zh) 2000-08-02
IS5238A (is) 1999-11-05
DE69829177D1 (de) 2005-04-07
WO1998050889A1 (en) 1998-11-12
ATE290242T1 (de) 2005-03-15
US6546153B1 (en) 2003-04-08
CA2289593A1 (en) 1998-11-12
DE69829177T2 (de) 2006-04-13
JP2001524239A (ja) 2001-11-27
IL132728A (en) 2004-06-20
EP0980568A1 (en) 2000-02-23
KR20010012303A (ko) 2001-02-15
AU735613B2 (en) 2001-07-12
NZ501466A (en) 2002-10-25
KR100496875B1 (ko) 2005-06-22
PL336850A1 (en) 2000-07-17
AU7555798A (en) 1998-11-27
NO972097L (no) 1998-11-09
TR199902741T2 (xx) 2000-02-21
NO972097D0 (no) 1997-05-06

Similar Documents

Publication Publication Date Title
ES2242281T3 (es) Procedimiento de tratamiento de imagenes.
CN106127745B (zh) 结构光3d视觉系统与线阵相机的联合标定方法及装置
CN101558282B (zh) 图像处理系统、方法、装置、以及图像格式
US8432435B2 (en) Ray image modeling for fast catadioptric light field rendering
CN107270810B (zh) 多方位投影的投影仪标定方法及装置
CN108020175B (zh) 一种多光栅投影双目视觉舌体表面三维整体成像方法
CN103218812A (zh) 基于摄影测量的树木形态模型参数快速获取方法
CN108446596A (zh) 基于可见光相机矩阵的虹膜3d四维数据采集系统及方法
ES2689907T3 (es) Procedimiento para la generación de informaciones de imágenes
CN114549660A (zh) 基于圆柱形自识别标记物的多相机标定方法、装置及设备
Ma et al. Image formation
CN110956668A (zh) 一种基于聚焦测度的聚焦堆栈成像系统预置位标定方法
Hanke Accuracy Study Project of Eos Systems' PhotoModeler
Tian et al. Improvement of camera calibration accuracy based on periodic arrangement characteristics of calibration target pattern
CN112465947B (zh) 影像的虚拟空间建立方法及系统
WO2017054784A2 (es) Procedimiento de obtención de los atributos cromáticos de entornos naturales para la configuración de patrones de color
MacDonald et al. 3D reconstruction in an illumination dome
JP6907566B2 (ja) 3次元形状計測装置、及び、プログラム
KR100569629B1 (ko) 골프코스 공략도 제작방법
Vangeli et al. Photogrammetry for 3D representation of human remains from the necropolis KR-N1 in Dhofar (Southern Oman): digital technology applied to osteo-archaeological studies
TW393628B (en) The way to produce a three dimensional figure
Garcia-Fernandez et al. Representation of Synthetic Shadows on 3d Digital Models for the Volumetric Interpretation on Concave-Convex Archaeological Artifacts
JPH0137683B2 (es)
CN117213373A (zh) 一种三维点云获取方法
JPH03500579A (ja) 立体測定装置用座標格子