ES2242281T3 - Procedimiento de tratamiento de imagenes. - Google Patents
Procedimiento de tratamiento de imagenes.Info
- Publication number
- ES2242281T3 ES2242281T3 ES98923218T ES98923218T ES2242281T3 ES 2242281 T3 ES2242281 T3 ES 2242281T3 ES 98923218 T ES98923218 T ES 98923218T ES 98923218 T ES98923218 T ES 98923218T ES 2242281 T3 ES2242281 T3 ES 2242281T3
- Authority
- ES
- Spain
- Prior art keywords
- image
- color
- plane
- distance
- dimensional
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Image Analysis (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Image Processing (AREA)
- Apparatus For Radiation Diagnosis (AREA)
- Endoscopes (AREA)
- Spectrometry And Color Measurement (AREA)
- Image Generation (AREA)
- Measuring And Recording Apparatus For Diagnosis (AREA)
- Holo Graphy (AREA)
- Threshing Machine Elements (AREA)
- Ultra Sonic Daignosis Equipment (AREA)
- Sewing Machines And Sewing (AREA)
- Position Fixing By Use Of Radio Waves (AREA)
- Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
- Silver Salt Photography Or Processing Solution Therefor (AREA)
Abstract
Procedimiento de tratamiento de imagen, en particular para la conversión bidimensional de un sujeto real tridimensional en una representación tridimensional de este último, el cual se compone de elementos, cada uno representado por un pixel enla imagen bidimensional. Los colores de la imagen son sometidos a un análisis relativo a la calidad del color y a la orientación en el espacio respectiva de los puntos de color se determina mediante una escala de temperatura de los colores, de una escala de saturación de los colores y una escala de contraste, de manera que cada color encuentra su lugar perspectivo respecto de los otros colores de la imagen.
Description
Procedimiento de tratamiento de imágenes.
La invención se refiere a un procedimiento para
el procesamiento de imágenes, especialmente para convertir una
imagen de dos dimensiones de un sujeto real de tres dimensiones en
una representación en tres dimensiones del mismo sujeto real de tres
dimensiones, en el que el sujeto está compuesto de elementos en la
imagen de dos dimensiones.
El objetivo de la presente invención es
proporcionar una técnica nueva y simple que permita convertir
fotogramas en color a partir de película o video, que es una
representación en dos dimensiones en el plano de la imagen con
coordenadas de anchura y altura (x, y), en una representación de
tres dimensiones en el espacio con coordenadas de anchura, altura y
profundidad (X, Y, Z). Esta representación de tres dimensiones
puede, por ejemplo, usarse para analizar la forma de elementos en la
superficie de la imagen (diagnóstico de objetos) o para la
producción de imágenes/película en tres dimensiones para un medio
adecuado a la misma.
Los fotogramas en color a partir de película o
video son una representación fotográfica de la luz de una o más
fuentes de luz con una cierta composición espectral que en un punto
dado del tiempo enciende los objetos en la representación de la
imagen de la cámara. Todos los objetos absorben ciertos colores y
reflejan el resto. El color del objeto está determinado por la
distribución espectral de la luz reflejada por el objeto. La
grabación en película de un objeto depende de varios elementos, que
incluyen:
1) La distribución espectral de la(s)
fuente(s) de luz.
2) La potencia reflectante espectral del
objeto.
3) La distancia desde la cámara y el espectro de
absorción de esta perspectiva aérea.
4) La capacidad de grabación del color del
material fotográfico.
Para obtener las coordenadas espaciales,
incluyendo el parámetro de la profundidad Z, para los elementos del
sujeto en una imagen existente, se analiza el color de la imagen. El
color es una grabación de las fuentes de luz incidentes y que
reflejan los objetos.
El color de las fuentes de luz se mide en
temperatura del color y se indica en Kelvin (K). Cuando se
fotografía un escenario, la temperatura del color de luz incidente y
reflejada desde los objetos en la superficie de la imagen se medirá
normalmente con un detector de luz de color, usando una película con
una capacidad de grabación del color que esté adaptada para el
propósito (luz de día, luz artificial, etc.). La temperatura del
color de las fuentes de luz varía con la distancia a la cámara.
Los elementos de la imagen individuales en un
fotograma a color representan los objetos reflejados en la
representación de la imagen. El color de los elementos de la imagen
se determina de manera no ambigua mediante tres parámetros que se
pueden medir: tono, saturación y brillo. Estos parámetros del color
varían con la distancia a la cámara.
El tono se refiere al lugar del color en el
espectro electromagnético, cf. espectro y círculo de color de
Newton. Esto se indica normalmente mediante la composición relativa
de los colores del espectro Rojo, Verde y Azul (R, G, B), o
alternativamente Magenta, Amarillo y Cian (M, Y, C). Cf. también la
transformación a coordenadas de color según el estándar CIE 1931,
donde todos los colores visibles (es decir, en rango de longitud de
onda entre 400 nm y 770 nm) para un grado de brillo dado se le
pueden asignar coordenadas exactas en un diagrama que se define
mediante los colores espectrales y una línea púrpura.
La saturación indica cómo un color se ha mezclado
con otros colores, y está designada como porcentaje (%). Un color
espectral puro se llama saturado (grado de saturación 100%), el
blanco y el gris se llaman colores insaturados (grado de saturación
0%).
El brillo (intensidad de la luz) se una medida de
la cantidad incidente de luz respecto a la reflexión desde una
superficie absolutamente blanca (reflexión del 100%) y se designa de
esta manera como porcentaje relativo (%).
El color de la luz grabado reflejado desde los
objetos que se mueven en diferentes distancias respecto a una cámara
de película varía. La temperatura de color de las fuentes de luz
varía con la distancia. El tono de los elementos individuales (RGB)
es constante, pero el brillo y la saturación varía con la distancia.
Un alto grado de brillo, colores saturados y una baja temperatura
del color se producen cerca de la superficie de la imagen (corta
distancia), dando los llamados niveles activos. En correspondencia,
un bajo grado de brillo, colores insaturados y una alta temperatura
del color se producirán lejos de la superficie de la imagen (larga
distancia), dando niveles pasivos. Además, esto funciona
internamente en todos estos niveles (activos/pasivos), donde los
colores cálidos parecen más activos en contraste complementario con
los colores fríos. Los colores cálidos son M, MY e Y. Los colores
fríos son YC y C.
Debido a la variación en dichas características
con la distancia desde una cámara de película, se puede deducir que
cada color tiene su propio lugar de perspectiva en uno y el mismo
escenario en relación con los otros colores de la imagen. Esta es la
base de la presente invención.
Según la invención, se propone un procedimiento
para el procesamiento de imágenes, especialmente para convertir una
imagen en dos dimensiones de un sujeto real en tres dimensiones en
una representación en tres dimensiones del mismo sujeto real en
tres dimensiones, en el que el sujeto está compuesto de elementos
en la imagen de dos dimensiones, y en el que la imagen en dos
dimensiones se proporciona mediante una cámara. El procedimiento se
caracteriza por:
- definir un plano de referencia correspondiente
al plano focal de la cámara colocado más próximo al plano focal de
la cámara, comprendiendo el plano de referencia elementos
correspondientes a elementos en la imagen en dos dimensiones,
- definir los parámetros del color tono,
saturación, brillo para cada elemento en el plano de
referencia,
- crear una escala de referencia mediante la
determinación de los valores de los parámetros del color mediante
una secuencia de imágenes de imágenes individuales, cada una de las
cuales representa el sujeto en diferentes planos focales
predeterminados, usándose los cambios en los parámetros del color
entre los respectivos planos focales para la calibración de una
escala de medición geométrica que se refiere a respectivos
parámetros del color medidos en valores de distancia métricos o de
perspectiva,
- medir y grabar los parámetros del color tono,
saturación y brillo para cada elemento en la imagen en dos
dimensiones,
- comparar los parámetros del color para cada
elemento en la imagen en dos dimensiones con los parámetros del
color para el elemento correspondiente en el plano de
referencia,
- basado en dicha comparación, asignar a cada
elemento en la imagen en dos dimensiones, un valor de distancia dh;
ds; db, donde dh resulta a partir de la comparación de los valores
del tono, ds resulta a partir de la comparación de los valores de
la saturación y db resulta a partir de la comparación de los valores
del brillo,
- calcular la distancia d(z) entre los
elementos en la imagen en dos dimensiones y el plano de referencia,
siendo d(z) la distancia medida a lo largo del eje z
perpendicular al plano de referencia y con origen en el mismo, como
un promedio ponderado de los valores de distancia dh, ds, db;
d(z) = 1/3*(kh*dh+ks*ds+kb*db), donde kh, ks y kb
constituyen factores de ponderación basados en los datos
empíricos,
- realizar las transformaciones d(x)
--> X, d(y) --> Y y d(z) --> Z, donde X, Y,
Z son las coordenadas de los elementos en un sistema de coordenadas
de tres dimensiones con origen en el plano de referencia,
obteniéndose las transformaciones d(x) --> X, d(y)
--> Y mediante un procedimiento conocido para convertir los
elementos de la imagen en el plano en elementos en el espacio
mediante índices calculados (escala) entre el plano de la imagen de
la cámara y los planos focales en el espacio, constituyendo el
plano más cercano el plano de referencia, y obteniéndose la
transformación d(z) --> Z mediante la aplicación inversa
del procedimiento para la construcción de la perspectiva frontal
para leer la distancia métrica desde un dibujo en perspectiva
estandarizado, y
- determinar sobre la base del valor de distancia
establecido d(z) y las coordenadas x, y del elemento en el
plano de la imagen en dos dimensiones las coordenadas espaciales
reales X, Y, Z para el elemento.
La invención comprende la creación de una escala
de referencia mediante la determinación de los valores de los
parámetros para el color mediante una secuencia de imágenes
individuales, cada una de las cuales muestra el sujeto en diferentes
planos focales predeterminados, usándose los cambios en los
parámetros del color entre los respectivos planos focales para la
calibración de una escala de medición geométrica que se refiere a
los respectivos parámetros del color medidos a los valores de
distancia métrica o en perspectiva. La escala de medición geométrica
preferiblemente comprende escalas no lineales geométricamente
coincidentes basadas en datos de referencia y empíricos para tono,
saturación del color y brillo respectivamente. La temperatura del
color aumenta hacia el valor máximo en el punto de extremo común o
punto de convergencia, donde la saturación del color y el contraste
se aproximan a cero. El punto común de convergencia de las escalas
no lineales se determina mediante los parámetros del color para uno
o más elementos situados de manera remota en la imagen que se
focalizó sobre el plano focal para la distancia más lejana,
determinando los valores medidos para este elemento o los valores
medidos promedio para estos elementos el punto de convergencia. En
otra realización preferida, la escala de medición geométrica se
inserta en un diagrama en perspectiva frontal correspondiente al
formato de la imagen en dos dimensiones y con las escalas no
lineales calibradas para el color de la imagen relacionada para
determinar la distancia entre el plano de referencia y un elemento
en la imagen.
Finalmente, según la invención se hace uso
preferiblemente de un valor de la distancia basado en la perspectiva
o un valor de la distancia métrico.
Mediante estos medios el material de la imagen
fotográfica de color expuesto se somete a un análisis basado en el
conocimiento empírico y experimental de las características del
color, obteniendo así cada color su lugar de perspectiva respecto a
los otros colores de la imagen. Como resultado, la invención
proporciona una base de datos de referencia en tres dimensiones
para todos los colores en el escenario, a partir de la cual se
pueden deducir otros parámetros de la perspectiva, tal como la
distancia, las coordenadas espaciales, etc.
En la presente invención, se procesa la
información que existe en las imágenes fotográficas a color ya
expuestas. Si el material fotográfico es del tipo analógico
tradicional, tal como papel/película de color negativo o positivo o
video, para el tratamiento adicional será natural convertir el
material en formato digital, donde cada punto en la superficie de
la imagen se representa mediante un píxel, es decir, una
descripción de sus características, y que ha de contener entre otras
cosas la orientación del punto en el plano de la imagen y los datos
deseables respecto al color (tono, saturación y brillo). Esta
representación digital se puede proporcionar mediante unidades de
edición existentes para el procesamiento de imágenes, en las que la
invención también se puede procesar.
En la siguiente descripción de la presente
invención se utiliza un modelo matemático basado en un procedimiento
geométrico. El objetivo de esta realización es proporcionar la mejor
explicación posible del procedimiento. En la práctica será natural
implementar el procedimiento en un procedimiento matemático
equivalente alternativo para procesarse en un ordenador.
La invención se describirá ahora en mayor detalle
con referencia a las figuras adjuntas que representan el
procedimiento, en las que:
La figura 1 es una representación esquemática de
varias imágenes de un objeto en movimiento, utilizado para la
deducción de la calibración o de los datos de referencia;
La figura 2 representa la posición de diferentes
objetos representados en la imagen respecto al plano de
referencia;
La figura 3 representa el uso de los datos en una
escala de medición geométrica; y
La figura 4 es una perspectiva frontal que
representa el formato de la imagen.
La figura 1 representa una secuencia de imágenes
para un objeto que se mueve a lo largo de un eje Z (paralelo con
C-B) en un escenario específico. Debido a la
distancia que aumenta desde el plano focal de la cámara, el color
del objeto cambiará. La representación del plano focal del objeto
tendrá entonces unos parámetros del color que expresan la distancia
del objeto desde un plano de referencia (por ejemplo la primera
imagen en la secuencia, 5') a la última imagen en la secuencia 11',
y grabando el movimiento de los objetos entre los diferentes planos
focales (la secuencia de imagen real 5'-11' en la
figura 1), obteniendo así una expresión de la distancia de los
objetos desde el plano de referencia 5'. La posición conocida del
plano focal, es decir, los valores de distancia conocidos para el
objeto combinados con los parámetros del color medidos para el
objeto en cada plano focal 5'-11' dan de esta manera
una escala de referencia que se puede usar para crear una escala de
medición geométrica (escala de distancia) para los parámetros del
color medidos, tal como se representa en la figura 2.
La figura 2 representa una cámara con una lente y
cómo se determina el plano de referencia (el plano focal de la
cámara). La figura también representa diferentes objetos que en
realidad están situados a una distancia específica d(z) del
plano de referencia. En el procedimiento según la invención, la
posición espacial real del objeto se obtiene sobre la base de los
parámetros del color de los elementos que representan el objeto en
la imagen. En la parte inferior de la figura se puede ver la escala
geométrica que en una realización de la invención permite establecer
la distancia entre un objeto y el plano de referencia sobre la base
de la imagen del objeto.
La figura 3 representa una escala de medición
geométrica que coincide con escalas no lineales para tono,
saturación de color y brillo respectivamente. La escala de medición
geométrica será la herramienta para analizar los elementos
arbitrarios en el mismo escenario. La escala de medición es en forma
de un triángulo rectángulo ABC', que describe el rango de
profundidad en el escenario de la imagen, correspondiente a la
figura 1. A lo largo de los bordes laterales hay escalas
establecidas para las características relacionadas para el color
basadas en datos de referencia y empíricos. Esta escala de medición
geométrica, que se puede encontrar en la perspectiva frontal
representada en la figura 4, es la herramienta principal en esta
realización del procedimiento según la inven-
ción.
ción.
La figura 4 muestra un rectángulo ADEF que
representa el formato de la imagen de película/video. El punto C en
la figura 4 describe los puntos centrales en cada plano focal,
llamados los puntos focales, vistos frontalmente a través de las
imágenes en perspectiva hacia el centro del escenario representado
en la figura 1, y la escala geométrica de la figura 3 se indica
insertada en el cuadrante inferior derecho. La figura 4 está
adaptada al sistema métrico según una escala que se calcula sobre la
base de un procedimiento conocido. Los valores métricos se guardarán
a continuación en toda su superficie y contorno.
La figura 4 se llama una perspectiva frontal y se
conoce en los procedimientos de arquitectura en el caso de diseños
manuales para realizar un cálculo exacto desde el exterior y en una
perspectiva. En la presente realización de la invención esto se
puede utilizar en el orden inverso, mediante una lectura automática
de la figura 3 internamente en la figura 4 en una perspectiva al
revés (la figura 3 también está adaptada de esta manera a la escala
métrica) para obtener datos métricos de distancia referidos al
elemento sujeto (objetos) de las imágenes.
El procedimiento según la realización empieza con
un procedimiento para establecer y calibrar la herramienta que se
utiliza, descrita anteriormente con referencia a las figuras 1, 2, 3
y 4. En primer lugar, la escala de medición geométrica en la figura
3 se establece con las diferentes escalas. La figura 3 se establece
en su forma geométrica como un triángulo rectángulo con las esquinas
A, B y C. A lo largo de los bordes laterales se establecen
diferentes escalas que son responsables del concepto de la
invención, a saber, el análisis del color en un escenario
fotografiado. La escala geométrica se inserta en la figura 4 y las
escalas se calibran mediante los datos medidos. Esto se ha de
realizar para cada escenario que se ha de procesar.
A continuación se pueden realizar los
procedimientos para proporcionar los parámetros de
perspectiva-distancia, por ejemplo proporcionando
valores de la distancia métrica para objetos/elementos en el
escenario.
A lo largo de la hipotenusa AC' en ABC' en la
figura 3, el orden de las imágenes en la secuencia de la película
está marcado. Cada plano focal de la imagen también se sigue
implícitamente mediante líneas de construcción vertical hasta la
pata BC'. En el área intermedia (en el interior del triángulo
mostrado en la figura 3) se reflejará el color de la imagen
individual.
A lo largo de la pata AB en ABC' en la figura 3,
se establece una escala con una distribución de tonos, por ejemplo
indicados en formato RGB. La escala es no lineal y se produce de
manera analítica con una inclinación de ciertos colores basada en
los datos de referencia, colocándose los colores más cálidos y
frontales en el punto B, y los colores restantes en el orden RGB con
los colores fríos y más distantes abajo hacia el punto A. Todos
estos colores a lo largo de la línea AB pertenecen al segmento
saturado de los colores, correspondiendo a los valores más bajos de
la temperatura del color en la perspectiva del escenario. Durante el
procesamiento, la distribución de los diferentes colores
proporcionará la desviación en relación con los datos de referencia
iniciales, y teniendo en cuenta estos datos empíricos, aumenta la
probabilidad de conseguir una calibración exacta de la escala para
varios escenarios.
A lo largo de la pata BC' en ABC' en la figura 3
se establecen tres escalas, en las que:
La escala 1 es no lineal y representa el tono en
Kelvin (K), más bajo en B y elevándose hacia C',
La escala 2 es no lineal y representa el grado de
la saturación de color como porcentaje (%), más alto en B y cayendo
hacia C', y
La escala 3 es no lineal y representa el
brillo.
La escala 3 tendrá su punto inicial en un punto
B' en la línea BC. El punto B' se prevé normalmente dibujando una
línea perpendicular desde la esquina B hacia abajo a la línea AC',
formando así el punto de intersección 5'. Normalmente se dibuja a
continuación una línea perpendicular desde el punto 5' hasta la
línea BC', formando así el punto B'.
La vertical 4 en la figura 3 marca así el plano
focal más cercano, indicado como 5' en la figura 1.
Después de haber establecido en la figura 3 las
escalas que contienen los datos de referencia iniciales, toda la
escala geométrica se inserta en la figura 4 tal como se indica, en
el cuadrante inferior derecho o inferior izquierdo. La figura 4, con
la escala geométrica de la figura 3 insertada, se coloca sobre las
imágenes en un escenario. La extensión de la escala geométrica se
calibra para el escenario en cuestión según los datos medidos. La
escala 1, la escala del tono, proporciona una directriz para el
tratamiento adicional. Es no lineal y está producida con una
inclinación de ciertos colores basados en datos de referencia, cf.
la escala RGB a lo largo de la pata AB. La escala 1 se calibra en el
punto final, y también mediante datos empíricos si están
disponibles.
La escala 1 tendrá su punto final en un punto C'
que coincide aparentemente con las escalas 2 y 3. En el punto C',
llamado punto de convergencia, el contraste y la saturación de color
que se pueden medir convergerán hacia el 0%. En correspondencia, el
punto C' en la escala 1 será la temperatura de color más alta
posible que se puede medir en el escenario. El punto de convergencia
C' se prevé marcando estos valores medidos en las tres escalas
relacionadas a partir del último plano/punto focal grabado en las
series de imágenes y seleccionando un promedio, o alternativamente
se usan valores medidos desde el elemento/objeto más remoto grabado
en el escenario. Si los datos empíricos indican otra cosa, se puede
seleccionar un algoritmo para una media ponderada, que da el punto
de extremo C'.
La escala 1 para el tono es una transferencia
(representación) de la escala de color saturado de la figura a lo
largo de la línea AB respecto a la saturación del color y el brillo.
Esto implica que el área en el interior de la escala triangular
refleja el cambio de perspectiva para todos los colores en el
escenario. De esta manera, cada elemento en cada imagen en el
escenario se representa mediante su tono, saturación y brillo. La
orientación del punto en el espacio relacionado con la posición de
la cámara se define sin ambigüedades, y se puede deducir mediante el
procesamiento de coordenadas espaciales (x,y,z) exactas
adecuadas.
Después de establecer la herramienta en forma de
una escala geométrica calibrada (figura 3) insertada en una
perspectiva frontal (figura 4) tal como se ha descrito
anteriormente, sigue el procesamiento real de las imágenes en un
escenario, es decir, los procedimientos para proporcionar los
parámetros de perspectiva-distancia. La herramienta
se coloca sobre las imágenes individuales en el escenario, y se
obtienen los parámetros deseados mediante procedimientos
conocidos.
Si se requiere la distancia métrica a los objetos
o elementos en las imágenes, se puede realizar el siguiente
procedimiento:
Los puntos deseados de la superficie de la imagen
incidentales al objeto/elemento se transfieren a través de líneas de
construcción a la línea de perspectiva principal AC. Las líneas
perpendiculares se dibujan normalmente desde estos puntos sobre la
línea AC hasta la línea BC' a un punto de intersección, cf.
puntos/planos focales 11', 10' y 9' en la figura 3. Desde el punto
de intersección con la línea de perspectiva principal AC también se
dibuja una línea hasta el punto de distancia B así como hacia abajo
en su extensión a un punto de intersección con el borde lateral AF,
o en su extensión fuera de ADEF. La distancia métrica al punto en la
superficie de la imagen para la cámara será entonces proporcional a
la distancia desde el punto A dependiendo de la escala (o
proporcional a la distancia desde el punto F si se inserta la
plantilla en el cuadrante inferior izquierdo en la figura 4).
Si se requiere altura métrica incidental a o
entre los objetos y elementos en las imágenes, se puede realizar un
procedimiento similar dibujando líneas de construcción hasta la
línea CD y a continuación en línea desde el punto de intersección
con CD fuera de la línea AD, donde se leen los valores métricos.
Si se requiere altura métrica correspondiente al
objeto o entre el objeto y los elementos en las imágenes para la
determinación del contorno, se puede realizar un procedimiento
conocido similar.
Estos parámetros métricos se pueden utilizar en
el diagnóstico de objetos determinando primero las coordenadas
espaciales (x,y,z), es decir, convirtiendo desde una representación
en dos dimensiones a una representación en tres dimensiones para
todo o parte del escenario, y realizando posteriormente un análisis
de la forma del elemento respecto a la alteración en circunferencia,
contorno, colores, etc.
Si se requiere el color de un objeto/elemento
relativo a una distancia métrica, se puede realizar el procedimiento
anterior en orden inverso. Estos parámetros de color
perspectiva-distancia se pueden utilizar para crear
una perspectiva exagerada y para manipular el material de la imagen
en dos dimensiones de manera que parezca que sea tridimensional, y
se pueda ver, por ejemplo, mediante tecnología conocida de datos de
video, por ejemplo, en pantallas de alta resolución (TV Virtual
3D).
Mediante una combinación de las anteriores y
otras posibles realizaciones del procedimiento según la invención,
se pueden deducir datos que se pueden usar en la producción de
televisión real en tres dimensiones (TV Real 3D), para verse en un
medio adecuado para la misma.
Claims (7)
1. Procedimiento para el procesamiento de
imágenes, especialmente para convertir una imagen en dos dimensiones
de un sujeto real en tres dimensiones en una representación en tres
dimensiones del mismo sujeto real en tres dimensiones, en el que el
sujeto está compuesto de elementos en la imagen de dos dimensiones,
y en el que la imagen en dos dimensiones se proporciona mediante
una cámara, caracterizado por:
- definir un plano de referencia correspondiente
al plano focal de la cámara colocado más próximo al plano focal de
la cámara, comprendiendo el plano de referencia elementos
correspondientes a elementos en la imagen en dos dimensiones,
- definir los parámetros del color tono,
saturación, brillo para cada elemento en el plano de
referencia,
- crear una escala de referencia mediante la
determinación de los valores de los parámetros del color mediante
una secuencia de imágenes de imágenes individuales, cada una de las
cuales representa el sujeto en diferentes planos focales
predeterminados, usándose los cambios en los parámetros del color
entre los respectivos planos focales para la calibración de una
escala de medición geométrica que se refiere a respectivos
parámetros del color medidos en valores de distancia métricos o de
perspectiva,
- medir y grabar los parámetros del color tono,
saturación y brillo para cada elemento en la imagen en dos
dimensiones,
- comparar los parámetros del color para cada
elemento en la imagen en dos dimensiones con los parámetros del
color para el elemento correspondiente en el plano de
referencia,
- basado en dicha comparación, asignar a cada
elemento en la imagen en dos dimensiones, un valor de distancia dh;
ds; db, donde dh resulta a partir de la comparación de los valores
del tono, ds resulta a partir de la comparación de los valores de
la saturación y db resulta a partir de la comparación de los valores
del brillo,
- calcular la distancia d(z) entre los
elementos en la imagen en dos dimensiones y el plano de referencia,
siendo d(z) la distancia medida a lo largo del eje z
perpendicular al plano de referencia y con origen en el mismo, como
un promedio ponderado de los valores de distancia dh, ds, db;
d(z) = 1/3*(kh*dh+ks*ds+kb*db), donde kh, ks y kb
constituyen factores de ponderación basados en los datos
empíricos,
- realizar las transformaciones d(x)
--> X, d(y) --> Y y d(z) --> Z, donde X, Y,
Z son las coordenadas de los elementos en un sistema de coordenadas
de tres dimensiones con origen en el plano de referencia,
obteniéndose las transformaciones d(x) --> X, d(y)
--> Y mediante un procedimiento conocido para convertir los
elementos de la imagen en el plano en elementos en el espacio
mediante índices calculados (escala) entre el plano de la imagen de
la cámara y los planos focales en el espacio, constituyendo el
plano más cercano el plano de referencia, y obteniéndose la
transformación d(z) --> Z mediante la aplicación inversa
del procedimiento para la construcción de la perspectiva frontal
para leer la distancia métrica desde un dibujo en perspectiva
estandarizado, y
- determinar sobre la base del valor de distancia
establecido d(z) y las coordenadas x, y del elemento en el
plano de la imagen en dos dimensiones las coordenadas espaciales
reales X, Y, Z para el elemento.
2. Procedimiento según la reivindicación 1,
caracterizado por el hecho de que los datos empíricos se
organizan en un modelo de color geométrico adecuado para su uso en
conexión con la construcción de la perspectiva frontal.
3. Procedimiento según la reivindicación 2,
caracterizado por el hecho de que la escala de medición del
modelo de color geométrico comprende escalas no lineales
geométricamente coincidentes basadas en datos de referencia y
empíricos para el tono, la saturación del color y el brillo
respectivamente, donde la temperatura del color aumenta hacia su
valor máximo en el punto final común, o punto de convergencia, donde
la saturación del color y el contraste se aproximan a cero.
4. Procedimiento según la reivindicación 3,
caracterizado por el hecho de que el punto común de
convergencia de las escalas no lineales se determina mediante los
parámetros del color para uno o más elementos situados alejados en
la imagen que se focaliza en el plano focal para una distancia más
alejada, determinando los valores medidos para este elemento o los
valores medidos promedio para estos elementos el punto de
convergencia.
5. Procedimiento según la reivindicación 4,
caracterizado por el hecho de que caracterizado por
el hecho de que la escala de medición geométrica se inserta en un
diagrama frontal en perspectiva que corresponde al formato de la
imagen en dos dimensiones y con las escalas no lineales calibradas
para el sujeto de la imagen concernida para la determinación de la
distancia entre el plano de referencia y un elemento en la
imagen.
6. Procedimiento según la reivindicación 5,
caracterizado por el hecho de que se utiliza el valor de
distancia basado en la perspectiva.
7. Procedimiento según la reivindicación 6,
caracterizado por el hecho de que se utiliza el valor de
distancia métrica.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
NO971651A NO304715B1 (no) | 1997-05-06 | 1997-05-06 | FremgangsmÕte ved bildebehandling |
NO972097 | 1997-05-06 |
Publications (1)
Publication Number | Publication Date |
---|---|
ES2242281T3 true ES2242281T3 (es) | 2005-11-01 |
Family
ID=19900698
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES98923218T Expired - Lifetime ES2242281T3 (es) | 1997-05-06 | 1998-05-06 | Procedimiento de tratamiento de imagenes. |
Country Status (19)
Country | Link |
---|---|
US (1) | US6546153B1 (es) |
EP (1) | EP0980568B1 (es) |
JP (1) | JP2001524239A (es) |
KR (1) | KR100496875B1 (es) |
CN (1) | CN1261969A (es) |
AT (1) | ATE290242T1 (es) |
AU (1) | AU735613B2 (es) |
BR (1) | BR9808743A (es) |
CA (1) | CA2289593A1 (es) |
DE (1) | DE69829177T2 (es) |
ES (1) | ES2242281T3 (es) |
IL (1) | IL132728A (es) |
IS (1) | IS5238A (es) |
NO (1) | NO304715B1 (es) |
NZ (1) | NZ501466A (es) |
PL (1) | PL336850A1 (es) |
RU (1) | RU2193798C2 (es) |
TR (1) | TR199902741T2 (es) |
WO (1) | WO1998050889A1 (es) |
Families Citing this family (51)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7068825B2 (en) * | 1999-03-08 | 2006-06-27 | Orametrix, Inc. | Scanning system and calibration method for capturing precise three-dimensional information of objects |
KR100450836B1 (ko) * | 2001-12-11 | 2004-10-01 | 삼성전자주식회사 | 이차원 영상의 입체화 장치 및 방법 |
US8797260B2 (en) | 2002-07-27 | 2014-08-05 | Sony Computer Entertainment Inc. | Inertially trackable hand-held controller |
US7102615B2 (en) * | 2002-07-27 | 2006-09-05 | Sony Computer Entertainment Inc. | Man-machine interface using a deformable device |
US7883415B2 (en) * | 2003-09-15 | 2011-02-08 | Sony Computer Entertainment Inc. | Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion |
US9474968B2 (en) * | 2002-07-27 | 2016-10-25 | Sony Interactive Entertainment America Llc | Method and system for applying gearing effects to visual tracking |
US8686939B2 (en) * | 2002-07-27 | 2014-04-01 | Sony Computer Entertainment Inc. | System, method, and apparatus for three-dimensional input control |
US7391409B2 (en) * | 2002-07-27 | 2008-06-24 | Sony Computer Entertainment America Inc. | Method and system for applying gearing effects to multi-channel mixed input |
US8570378B2 (en) | 2002-07-27 | 2013-10-29 | Sony Computer Entertainment Inc. | Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera |
US7760248B2 (en) | 2002-07-27 | 2010-07-20 | Sony Computer Entertainment Inc. | Selective sound source listening in conjunction with computer interactive processing |
US9393487B2 (en) | 2002-07-27 | 2016-07-19 | Sony Interactive Entertainment Inc. | Method for mapping movements of a hand-held controller to game commands |
US8313380B2 (en) | 2002-07-27 | 2012-11-20 | Sony Computer Entertainment America Llc | Scheme for translating movements of a hand-held controller into inputs for a system |
US9682319B2 (en) * | 2002-07-31 | 2017-06-20 | Sony Interactive Entertainment Inc. | Combiner method for altering game gearing |
US8072470B2 (en) * | 2003-05-29 | 2011-12-06 | Sony Computer Entertainment Inc. | System and method for providing a real-time three-dimensional interactive environment |
JP4068596B2 (ja) | 2003-06-27 | 2008-03-26 | 株式会社東芝 | 図形処理方法、図形処理装置およびコンピュータ読取り可能な図形処理プログラム |
US7874917B2 (en) | 2003-09-15 | 2011-01-25 | Sony Computer Entertainment Inc. | Methods and systems for enabling depth and direction detection when interfacing with a computer program |
US8323106B2 (en) * | 2008-05-30 | 2012-12-04 | Sony Computer Entertainment America Llc | Determination of controller three-dimensional location using image analysis and ultrasonic communication |
US9573056B2 (en) * | 2005-10-26 | 2017-02-21 | Sony Interactive Entertainment Inc. | Expandable control device via hardware attachment |
US8287373B2 (en) | 2008-12-05 | 2012-10-16 | Sony Computer Entertainment Inc. | Control device for communicating visual information |
US10279254B2 (en) * | 2005-10-26 | 2019-05-07 | Sony Interactive Entertainment Inc. | Controller having visually trackable object for interfacing with a gaming system |
US8547401B2 (en) * | 2004-08-19 | 2013-10-01 | Sony Computer Entertainment Inc. | Portable augmented reality device and method |
WO2007078533A2 (en) | 2005-12-23 | 2007-07-12 | Wms Gaming Inc. | Transient or persistent game play in wagering games |
WO2007098017A2 (en) | 2006-02-17 | 2007-08-30 | Wms Gaming Inc. | Providing alternative persistent state recovery techniques |
US8781151B2 (en) | 2006-09-28 | 2014-07-15 | Sony Computer Entertainment Inc. | Object detection using video input combined with tilt angle information |
US8310656B2 (en) | 2006-09-28 | 2012-11-13 | Sony Computer Entertainment America Llc | Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen |
USRE48417E1 (en) | 2006-09-28 | 2021-02-02 | Sony Interactive Entertainment Inc. | Object direction using video input combined with tilt angle information |
US8542907B2 (en) * | 2007-12-17 | 2013-09-24 | Sony Computer Entertainment America Llc | Dynamic three-dimensional object mapping for user-defined control device |
JP5684577B2 (ja) * | 2008-02-27 | 2015-03-11 | ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー | シーンの深度データをキャプチャし、コンピュータのアクションを適用する方法 |
US8368753B2 (en) | 2008-03-17 | 2013-02-05 | Sony Computer Entertainment America Llc | Controller with an integrated depth camera |
JP5338228B2 (ja) * | 2008-09-29 | 2013-11-13 | カシオ計算機株式会社 | 画像生成装置、及びプログラム |
US8961313B2 (en) * | 2009-05-29 | 2015-02-24 | Sony Computer Entertainment America Llc | Multi-positional three-dimensional controller |
US8527657B2 (en) * | 2009-03-20 | 2013-09-03 | Sony Computer Entertainment America Llc | Methods and systems for dynamically adjusting update rates in multi-player network gaming |
US8342963B2 (en) * | 2009-04-10 | 2013-01-01 | Sony Computer Entertainment America Inc. | Methods and systems for enabling control of artificial intelligence game characters |
US8393964B2 (en) | 2009-05-08 | 2013-03-12 | Sony Computer Entertainment America Llc | Base station for position location |
US8142288B2 (en) | 2009-05-08 | 2012-03-27 | Sony Computer Entertainment America Llc | Base station movement detection and compensation |
CN103004180A (zh) | 2010-05-12 | 2013-03-27 | 派力肯影像公司 | 成像器阵列和阵列照相机的架构 |
US8305456B1 (en) * | 2011-05-11 | 2012-11-06 | Pelican Imaging Corporation | Systems and methods for transmitting and receiving array camera image data |
CN103797782A (zh) * | 2011-09-02 | 2014-05-14 | 株式会社尼康 | 图像处理装置、程序 |
RU2493602C1 (ru) * | 2012-08-10 | 2013-09-20 | Корпорация "САМСУНГ ЭЛЕКТРОНИКС Ко., Лтд." | Способ и система для выделения ключевых кадров из видео последовательностей |
PL2836983T3 (pl) * | 2012-10-08 | 2018-01-31 | Koninklijke Philips Nv | Przetwarzanie obrazu zmieniające luminancję z ograniczeniami barwy |
US10467855B2 (en) | 2017-06-01 | 2019-11-05 | Igt | Gaming system and method for modifying persistent elements |
CN109816704B (zh) | 2019-01-28 | 2021-08-03 | 北京百度网讯科技有限公司 | 物体的三维信息获取方法和装置 |
BR112022004811A2 (pt) | 2019-09-17 | 2022-06-21 | Boston Polarimetrics Inc | Sistemas e métodos para modelagem de superfície usando indicações de polarização |
CN114746717A (zh) | 2019-10-07 | 2022-07-12 | 波士顿偏振测定公司 | 利用偏振进行表面法线感测的系统和方法 |
WO2021108002A1 (en) | 2019-11-30 | 2021-06-03 | Boston Polarimetrics, Inc. | Systems and methods for transparent object segmentation using polarization cues |
JP7462769B2 (ja) | 2020-01-29 | 2024-04-05 | イントリンジック イノベーション エルエルシー | 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法 |
WO2021154459A1 (en) | 2020-01-30 | 2021-08-05 | Boston Polarimetrics, Inc. | Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images |
WO2021243088A1 (en) | 2020-05-27 | 2021-12-02 | Boston Polarimetrics, Inc. | Multi-aperture polarization optical systems using beam splitters |
US11954886B2 (en) | 2021-04-15 | 2024-04-09 | Intrinsic Innovation Llc | Systems and methods for six-degree of freedom pose estimation of deformable objects |
US11290658B1 (en) | 2021-04-15 | 2022-03-29 | Boston Polarimetrics, Inc. | Systems and methods for camera exposure control |
US11689813B2 (en) | 2021-07-01 | 2023-06-27 | Intrinsic Innovation Llc | Systems and methods for high dynamic range imaging using crossed polarizers |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6236748B1 (en) * | 1994-08-02 | 2001-05-22 | Canon Kabushiki Kaisha | Compound eye image pickup device utilizing plural image sensors and plural lenses |
GB2305050A (en) * | 1995-09-08 | 1997-03-26 | Orad Hi Tec Systems Ltd | Determining the position of a television camera for use in a virtual studio employing chroma keying |
US6014472A (en) * | 1995-11-14 | 2000-01-11 | Sony Corporation | Special effect device, image processing method, and shadow generating method |
US6009188A (en) * | 1996-02-16 | 1999-12-28 | Microsoft Corporation | Method and system for digital plenoptic imaging |
-
1997
- 1997-05-06 NO NO971651A patent/NO304715B1/no unknown
-
1998
- 1998-05-06 CN CN98806694A patent/CN1261969A/zh active Pending
- 1998-05-06 CA CA002289593A patent/CA2289593A1/en not_active Abandoned
- 1998-05-06 PL PL98336850A patent/PL336850A1/xx unknown
- 1998-05-06 JP JP54750198A patent/JP2001524239A/ja not_active Ceased
- 1998-05-06 WO PCT/NO1998/000141 patent/WO1998050889A1/en active IP Right Grant
- 1998-05-06 RU RU99126413/09A patent/RU2193798C2/ru not_active IP Right Cessation
- 1998-05-06 TR TR1999/02741T patent/TR199902741T2/xx unknown
- 1998-05-06 DE DE69829177T patent/DE69829177T2/de not_active Expired - Fee Related
- 1998-05-06 ES ES98923218T patent/ES2242281T3/es not_active Expired - Lifetime
- 1998-05-06 EP EP98923218A patent/EP0980568B1/en not_active Expired - Lifetime
- 1998-05-06 US US09/423,191 patent/US6546153B1/en not_active Expired - Fee Related
- 1998-05-06 KR KR10-1999-7010255A patent/KR100496875B1/ko not_active IP Right Cessation
- 1998-05-06 AU AU75557/98A patent/AU735613B2/en not_active Ceased
- 1998-05-06 IL IL13272898A patent/IL132728A/en not_active IP Right Cessation
- 1998-05-06 BR BR9808743-6A patent/BR9808743A/pt not_active IP Right Cessation
- 1998-05-06 AT AT98923218T patent/ATE290242T1/de not_active IP Right Cessation
- 1998-05-06 NZ NZ501466A patent/NZ501466A/xx unknown
-
1999
- 1999-11-05 IS IS5238A patent/IS5238A/is unknown
Also Published As
Publication number | Publication date |
---|---|
NO304715B1 (no) | 1999-02-01 |
EP0980568B1 (en) | 2005-03-02 |
RU2193798C2 (ru) | 2002-11-27 |
BR9808743A (pt) | 2002-05-21 |
IL132728A0 (en) | 2001-03-19 |
CN1261969A (zh) | 2000-08-02 |
IS5238A (is) | 1999-11-05 |
DE69829177D1 (de) | 2005-04-07 |
WO1998050889A1 (en) | 1998-11-12 |
ATE290242T1 (de) | 2005-03-15 |
US6546153B1 (en) | 2003-04-08 |
CA2289593A1 (en) | 1998-11-12 |
DE69829177T2 (de) | 2006-04-13 |
JP2001524239A (ja) | 2001-11-27 |
IL132728A (en) | 2004-06-20 |
EP0980568A1 (en) | 2000-02-23 |
KR20010012303A (ko) | 2001-02-15 |
AU735613B2 (en) | 2001-07-12 |
NZ501466A (en) | 2002-10-25 |
KR100496875B1 (ko) | 2005-06-22 |
PL336850A1 (en) | 2000-07-17 |
AU7555798A (en) | 1998-11-27 |
NO972097L (no) | 1998-11-09 |
TR199902741T2 (xx) | 2000-02-21 |
NO972097D0 (no) | 1997-05-06 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ES2242281T3 (es) | Procedimiento de tratamiento de imagenes. | |
CN106127745B (zh) | 结构光3d视觉系统与线阵相机的联合标定方法及装置 | |
CN101558282B (zh) | 图像处理系统、方法、装置、以及图像格式 | |
US8432435B2 (en) | Ray image modeling for fast catadioptric light field rendering | |
CN107270810B (zh) | 多方位投影的投影仪标定方法及装置 | |
CN108020175B (zh) | 一种多光栅投影双目视觉舌体表面三维整体成像方法 | |
CN103218812A (zh) | 基于摄影测量的树木形态模型参数快速获取方法 | |
CN108446596A (zh) | 基于可见光相机矩阵的虹膜3d四维数据采集系统及方法 | |
ES2689907T3 (es) | Procedimiento para la generación de informaciones de imágenes | |
CN114549660A (zh) | 基于圆柱形自识别标记物的多相机标定方法、装置及设备 | |
Ma et al. | Image formation | |
CN110956668A (zh) | 一种基于聚焦测度的聚焦堆栈成像系统预置位标定方法 | |
Hanke | Accuracy Study Project of Eos Systems' PhotoModeler | |
Tian et al. | Improvement of camera calibration accuracy based on periodic arrangement characteristics of calibration target pattern | |
CN112465947B (zh) | 影像的虚拟空间建立方法及系统 | |
WO2017054784A2 (es) | Procedimiento de obtención de los atributos cromáticos de entornos naturales para la configuración de patrones de color | |
MacDonald et al. | 3D reconstruction in an illumination dome | |
JP6907566B2 (ja) | 3次元形状計測装置、及び、プログラム | |
KR100569629B1 (ko) | 골프코스 공략도 제작방법 | |
Vangeli et al. | Photogrammetry for 3D representation of human remains from the necropolis KR-N1 in Dhofar (Southern Oman): digital technology applied to osteo-archaeological studies | |
TW393628B (en) | The way to produce a three dimensional figure | |
Garcia-Fernandez et al. | Representation of Synthetic Shadows on 3d Digital Models for the Volumetric Interpretation on Concave-Convex Archaeological Artifacts | |
JPH0137683B2 (es) | ||
CN117213373A (zh) | 一种三维点云获取方法 | |
JPH03500579A (ja) | 立体測定装置用座標格子 |