ES2361758A1 - Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades. - Google Patents
Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades. Download PDFInfo
- Publication number
- ES2361758A1 ES2361758A1 ES200931139A ES200931139A ES2361758A1 ES 2361758 A1 ES2361758 A1 ES 2361758A1 ES 200931139 A ES200931139 A ES 200931139A ES 200931139 A ES200931139 A ES 200931139A ES 2361758 A1 ES2361758 A1 ES 2361758A1
- Authority
- ES
- Spain
- Prior art keywords
- block
- image
- function
- blocks
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/97—Determining parameters from multiple pictures
-
- G06T7/0022—
-
- G06T7/0077—
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
- G06T7/596—Depth or shape recovery from multiple images from stereo images from three or more stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20021—Dividing image into blocks, subimages or windows
Abstract
Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades.Procedimiento de establecimiento de correspondencia entre una primera imagen digital (U1) y una segunda (U2), que comprende las etapas de:a) seleccionar U1 un bloque B1(x) de forma determinada centrado en un píxel x de U1;b) seleccionar de U2 una serie de bloques B2 (yi) de misma forma que B1(x);c) calcular para cada B2(yi) una distancia entre B2(yi) y B1(x) como suma ponderada por f(x,z) de una función de las diferencias entre valores asociados al color de los píxeles de misma posición relativa z;d) seleccionar el píxel yi que minimiza la distancia entre bloques, estableciéndose una correspondencia entre píxeles x e yi y dando la disparidad de x como la diferencia yi-x,donde f depende de x y de z y es una función decreciente y no constante respecto al módulo del gradiente direccional de U1(x+z) en una dirección determinada.
Description
Procedimiento de establecimiento de
correspondencia entre una primera imagen digital y una segunda
imagen digital de una misma escena para la obtención de
disparidades.
La presente invención se refiere a un
procedimiento de establecimiento de correspondencia entre una
primera imagen digital y una segunda imagen digital de una misma
escena para la obtención de disparidades que evita el efecto de
adherencia o fattening.
Los métodos de estereoscópica numérica parten de
un par de imágenes de una misma escena y reconstruyen el relieve por
un método de paralaje cuyo principio es bien conocido.
De entrada, el conocimiento de la posición de
las cámaras y su calibración previa permite colocar las dos imágenes
en geometría estéreo-rectificada, tal como se
aprecia en la figura 1, lo que significa que las dos imágenes son
corregidas por una homografía de tal manera que un punto de la
primera imagen U1 tenga su punto correspondiente, modulo un error
numérico pequeño, sobre la misma línea horizontal de la otra imagen
U2.
Concretamente, en la figura 1 se ilustra una
posible hipótesis de partida del procedimiento, a saber, que las
imágenes tratadas por el procedimiento de la invención son
estereo-rectificadas.
A la izquierda hay dos cámaras con centros
ópticos C y C'. Los dos paralelogramos representan las dos imágenes
que se forman en las dos cámaras. El segmento entre C y C' es la
línea de base o "baseline". Los puntos x y
x' son las proyecciones del punto de arriba sobre los dos
planos imagen, por lo tanto son los puntos homólogos. Los
puntos
e y e' son los puntos de intersección de los planos imagen con la baseline: son los puntos epipolares.
e y e' son los puntos de intersección de los planos imagen con la baseline: son los puntos epipolares.
Para cada punto de la escena, las rectas (e,
x) y (e', x') están en correspondencia: son las rectas
epipolares. A la derecha se muestra la posición de los planos imagen
después de la estereo-rectificación.
En el proceso de
estereo-rectificación se mandan los puntos
epipolares al infinito. Todas las rectas epipolares se vuelven
paralelas y horizontales en cada imagen.
En la descripción de la invención, se supondrá
en general que las dos imágenes U1 y U2 han sido puestas en esta
geometría epipolar, de tal manera que un bloque alrededor de
x en la imagen de la izquierda se compara con todos los
bloques alrededor de la imagen de la derecha, en la misma línea
epipolar. Esta línea se llama línea epipolar de x en U2.
Los valores del color o del nivel de gris de los
píxeles x e y no son suficientemente discriminantes
para su comparación directa. Se necesita comparar un bloque
B1(x) de píxeles, usualmente un cuadrado centrado en
x, con un bloque de misma forma B2(y) centrado en
y, punto de U2 que pertenece a la línea epipolar de x,
tal como se indica en la figura 2.
Concretamente, en la figura 2 se muestran dos
imágenes estereoscópicas con un error de adherencia. Los píxeles
sobre el edificio E tienen una disparidad diferente de los píxeles
del suelo. El bloque B, con su píxel central sobre el suelo, también
contiene píxeles del edificio. El bloque de la otra imagen que se
parece mas a B es B', pues contiene el contorno del edificio, que
está muy contrastado. Por ello, el píxel central de B se pone
falsamente en correspondencia con el píxel central de B', que tiene
la misma disparidad que los píxeles del edificio. La correspondencia
correcta de B hubiera sido B''.
Por lo tanto, la selección del punto
correspondiente de x en U2 es el punto y que hace
mínima la distancia d(B1, B2) entre los bloques B1(x)
y B2(y). La altitud de x es entonces deducida por
paralaje del desplazamiento m(x)=y-x
que lleva x en y.
Este calculo de paralaje refleja
cuantitativamente la intuición cualitativa que cuanto mayor la
disparidad entre x y y, mas cerca de las cámaras el
punto de la escena X que se proyecte en x sobre U1, y en
y sobre U2, tal como se aprecia en las figuras 3 y 4.
El fenómeno de adherencia se ilustra en esta
toma de una vista de un edificio, ya sea aérea o tomada desde un
satélite. El techo del edificio esta mucho mas iluminado que el
suelo, por lo cual los bloques que incluyen una porción del techo
tienen píxeles bien contrastados. Por lo tanto, la puesta en
correspondencia de los bloques esta determinada por el techo, como
se ha explicado con respecto a la figura 2.
De aquí resulta el fenómeno de adherencia o
"fattening": la disparidad correcta del punto r
debería ser r'' pero el bloque Br se encuentra en
correspondencia con Br', cuyo resultado es un relieve como el
descrito por la línea punteada de la figura 5.
\newpage
En esta figura, la línea continua representa el
perfil de una casa con su techo inclinado. La línea discontinua
representa el perfil del relieve obtenido, deformado por el fenómeno
de adherencia.
Este fenómeno se produce cuando el techo
presenta un fuerte contraste de color con el suelo. Por lo tanto, la
adherencia provoca una dilatación del edificio, y también un
allanamiento interior del techo.
La distancia entre bloques en las diferentes
implementaciones propuestas en la literatura viene dada ya sea por
una suma de cuadrados de diferencias de colores, ya sea por esa
misma distancia cuadrática después de haber normalizado las medias
de los dos bloques, o bien por una correlación entre los dos
bloques, lo que equivale a calcular de nuevo una distancia
cuadrática de los bloques divididos por sus normas euclidianas
respectivas. Este método clásico de puesta en correspondencia de
bloques por minimización de distancia sufre el defecto llamado
comúnmente "efecto de adherencia", en ingles "fattening
effect" que se produce para todas las distancias mencionadas,
e incluso con otras distancias mas generales. Para una descripción
más detallada del problema véase la descripción que dan del problema
T. Kanade y M. Okutomi (1994) en "A stereo matching algorithm
with an adaptive window: Theory and experiment", IEEE
Transactions on Pattern Analysis and Machine Intelligence, 16,9
páginas 920 a 932, 1994.
Aunque se haya ilustrado más arriba con
edificios, el problema de la adherencia se produce en toda la
imagen, siempre y cuando en el bloque B1(x) haya dos grupos
de puntos P1 y P2 a dos altitudes diferentes.
Ocurre con frecuencia que el grupo P1 contenga
puntos en los cuales la imagen U1 está bien contrastada, mientras
que en el grupo P2 la imagen U1 está menos contrastada. En estas
condiciones, la puesta en correspondencia por minimización de la
distancia entre los valores de color de los dos bloques B1(x)
y B2(y), distancia donde el grupo P1 predomina, atribuye al
centro del bloque x la disparidad de los puntos de P1. Si
x pertenece al grupo P2, es un error.
Por ejemplo, en el caso de una imagen aérea, los
puntos de P1 pueden estar situados sobre el borde contrastado de un
edificio. Entonces la altitud del borde de este edificio se atribuye
a todos los puntos x tales que el bloque centrado en x
intercepte el borde del edificio, tal como se puede apreciar en las
figuras 2 y 3.
Como consecuencia, este efecto de adherencia
provoca una dilatación aparente de los objetos que están en primer
plano, y un allanamiento de los techos inclinados en un entorno de
su borde: es el "fattening effect", que se ilustra en
puntos en la figura 5.
Existen varios procedimientos para evitar el
efecto de adherencia, que se describen a continuación.
Un primer tipo de procedimiento consiste en
guardar solamente los bloques B1(x) que no encuentran las
líneas contrastadas en la imagen U1, lo que permite evitar los
bordes de objetos reales donde el relieve es ambiguo. Un ejemplo de
procedimiento de este tipo se describe en A. Fusiello, and V.
Roberto y E. Trueco, "Symmetric Stereo with Múltiple
Windowing", Journal of Pattern Recognition and Artificial
Intelligence, 14,8, 2000.
En este procedimiento de selección, para cada
píxel, se consideran los bloques que lo contienen y se selecciona el
bloque que lo contenga que presente la similitud más grande respecto
a un bloque en la otra imagen. De esta manera los bloques que no
contengan una fuerte disparidad de altura son en general los
seleccionados y se evitan los bloques que contienen líneas de
contraste fuerte (edges).
Un segundo tipo de procedimiento, basado en el
mismo principio, adapta la forma de los bloques de comparación
B1(x) de tal manera, que estos bloques no encuentren las
líneas contrastadas de la imagen, o bien de forma que den la
distancia cuadrática mínima, tal como se describe por ejemplo en H.
Hirschmuller, P.R. Innocent y J. Garibaldi
"Real-Time Correlation-Based Stereo Vision with Reduced Border Errors" - International Journal of Computer Vision, 2002.
"Real-Time Correlation-Based Stereo Vision with Reduced Border Errors" - International Journal of Computer Vision, 2002.
Este articulo propone seleccionar los
sub-bloques de un bloque más grande que tengan la
menor distancia respecto a los bloques correspondientes de la otra
imagen.
De esta manera, de cada bloque se deduce un
sub-bloque de forma adaptativa, que en general
excluye las líneas de fuerte contraste (edges).
Otro ejemplo de este segundo tipo de
procedimiento se describe en K. Wang, "Adaptive stereo matching
algorithm based on edge detection", 2004 International
Conference on Image Processing, Vol. 2 (18 April 2005), pp.
1345-1348 Vol. 2.
Un tercer tipo de procedimiento no guarda más
que los bloques de geometría rectangular variable donde la
disparidad es estadísticamente coherente, tal como se describe en el
documento de T. Kanade y M. Okutomi, ya referenciado más arriba.
Finalmente, un cuarto tipo de procedimiento
consiste en atribuir la disparidad del bloque B1(x) no a
x sino al baricentro de los puntos del bloque ponderados por
sus gradiente, tal como se indica en el documento de Bernard Rougé,
"Appariement fin d'images stéréoscopiques et instrument dédié avec
un faible coefficient stéréoscopique", patente francesa FR
2868168 presentada el 30 de septiembre de 2005.
Por lo tanto, el objeto de la invención es
definir una distancia entre bloques que evite el efecto de
adherencia y que permita sin embargo mantener una forma de bloque de
comparación fija y al mismo tiempo que permita también comparar sin
excepción todos los bloques de la imagen atribuyéndoles la
disparidad al centro del bloque, evitando no obstante el efecto de
adherencia.
Para ello, la presente invención es un
procedimiento de establecimiento de correspondencia entre una
primera imagen digital (U1) y una segunda imagen digital (U2) de una
misma escena para la obtención de disparidades, que comprende las
etapas de:
a) seleccionar de la primera imagen (U1) un
bloque B1(x) de forma determinada centrado en un píxel
x de dicha primera imagen (U1);
b) seleccionar de la segunda imagen (U2) una
serie de bloques B2(y_{i}) de la misma forma determinada
que el bloque B1(x) y centrados cada uno en un píxel
y_{i} de la segunda imagen (U2);
c) calcular para cada bloque B2(y_{i})
una distancia entre dicho bloque B2(y_{i}) y el bloque
B1(x), obteniéndose dicha distancia como suma en el bloque de
una función de las diferencias entre valores asociados al color de
los píxeles de misma posición relativa z en los bloques
B1(x) y B2(y_{i}), siendo esa suma ponderada por una
función de ponderación f(x,z);
d) seleccionar el píxel y_{i} para el
cual se obtiene la mínima distancia entre el bloque
B2(y_{i}) y el bloque B1(x), estableciéndose de este
modo una correspondencia entre dichos píxeles x e
y_{i}, y dando la disparidad de x como la diferencia
y_{i}-x, de modo que es posible calcular por
paralaje la distancia a la cámara del punto correspondiente al píxel
x,
que se caracteriza por el hecho de que
f depende de x y de z y es una función
decreciente y no constante respecto al modulo del gradiente
direccional de U1(x+z) en una dirección determinada.
\vskip1.000000\baselineskip
Con la forma preferida de la invención,
- la función f(x,z) responde a la
siguiente ecuación:
Los inventores han podido comprobar que la
selección entre distancias ponderadas con un filtro como el
reivindicado permite eliminar el efecto de adherencia, obteniéndose
relieves sin este efecto, y por lo tanto más fieles a la realidad.
Más precisamente en la forma preferida la invención permite
calcular, no la disparidad real, pero si una versión filtrada de
ésta dada por un filtro lineal de convolución cuyo núcleo de
convolución p(z) puede ser fijado por el usuario.
Para evitar varios problemas debidos al ruido en
las imágenes y a la anulación de la derivada U1', una variante más
general considerada por la invención es cuando
- la función f(x,z) responde a la
siguiente ecuación:
donde:
p(z) es una función de peso fija para
todos los bloques,
U1'(x+z) es la derivada parcial de U1 en
el punto x+z y en dicha dirección determinada y
e es una constante.
- otra variante considerada por las mismas
razones es cuando la función f(x,z) responde a la siguiente
ecuación:
donde:
p(z) es una función de peso fija para
todos los bloques,
U1'(x+z) es la derivada parcial de U1 en
el punto x+z y en dicha dirección determinada y
e es una constante.
- la dirección determinada es la dirección
epipolar.
- la función p(z) es una función cuya
suma de valores en el bloque B(O) es 1.
- más ventajosamente, en el procedimiento de la
invención se realiza una etapa adicional de minimización de la
distancia entre bloques con una precisión inferior a un píxel
arbitraria mediante traslaciones de la imagen U2 de recorrido
inferior al tamaño de píxel.
- Mas generalmente, en el caso en que la
geometría epipolar sea imprecisa, o en el caso en que la escena
fotografiada tenga variaciones temporales de forma, la búsqueda de
y_{i} se hace sobre diversas líneas de la imagen U2 y no
tan solo en la dirección epipolar. Esto se produce por ejemplo
cuando las fotografías son de un planeta cuyo relieve evoluciona, o
cuando las fotografías son de un material sujeto a presiones que lo
deforman. En tal caso el paralaje no viene al caso; lo que interesa
es la deformación del objeto debido a otras causas que no sean la
perspectiva.
- Más preferentemente, se trata una pluralidad
de imágenes de la misma escena, comparándolas dos a dos, con la
finalidad de obtener estimaciones múltiples de la disparidad y
eventualmente del relieve, que pueden ser posteriormente fusionadas.
Estas imágenes pueden ser obtenidas mediante dos cámaras dispuestas
separadas y enfocadas hacia la misma escena o bien puede tratarse de
una única cámara que se va desplazando manteniendo una orientación
general sustancialmente fija.
- Aún más preferentemente, se vuelven a realizar
las etapas a, b, c y d pero intercambiando U1 y U2.
\vskip1.000000\baselineskip
El procedimiento de la invención halla una
aplicación preferentemente para la obtención de relieves a partir de
imágenes obtenidas por uno o varios satélites de observación de un
planeta.
Más preferentemente, las imágenes U1 y U2 son
obtenidas por una o más cámaras conectadas a uno o más ordenadores
configurado(s) para obtener valores aproximados de las
disparidades y deducir el relieve de la escena observada por
paralaje.
Finalmente, en el procedimiento de la invención
las imágenes U1 y U2 son obtenidas como fotografías sucesivas de una
escena física que se deforma, y la disparidad calculada mide la
deformación de la escena entre los dos momentos en que se tomaron
las fotos.
Para mejor comprensión de cuanto se ha expuesto
se acompañan unos dibujos en los que, esquemáticamente y tan sólo a
título de ejemplo no limitativo, se ilustra el problema técnico
resuelto por la invención.
La figura 1 ilustra el proceso inicial de
estereo rectificación.
La figura 2 ilustra dos tipos de
correspondencia, una correcta C y otra incorrecta I.
La figura 3 ilustra las posiciones relativas de
los puntos desde los que se toma la imagen y de los puntos centrales
de los bloques.
La figura 4 ilustra las posiciones relativas de
la figura 3 en planta.
La figura 5 ilustra la diferencia entre el
relieve real y el obtenido por culpa del efecto de adherencia.
A continuación se describe una realización
preferida del procedimiento de la invención.
Un calculo prueba que la eliminación del efecto
de adherencia es óptima cuando la función de ponderación es
f(x,z) = p(z)/(U1'(x+z)^{2}), donde
p(z) es una función de ponderación fija, de tal manera que
f(x,z) sea inversamente proporcional al cuadrado del
gradiente direccional de U1 en la dirección epipolar.
En este caso, se obtiene simplemente
es decir, la disparidad calculada
es la disparidad real entre las dos imágenes, convolucionada con el
filtro p(z). O, dicho de otra manera, la función de
disparidad m(x) que minimiza la distancia entre bloques en
cada punto x de la imagen U1 es una media ponderada de los
valores dentro del bloque B1(x) de la disparidad real
a(x), siendo los pesos unos valores fijos p(z). La
función de peso p(z) definida sobre el bloque B(O)
puede ser elegida por el
usuario.
\vskip1.000000\baselineskip
En todo el presente documento se han empleado
las siguientes notaciones:
U1(x): imagen 1, valor de la imagen en
x. Ese valor puede ser cualquier valor vectorial (nivel de
gris, color, ...)
U2(y): imagen 2, valor de la imagen en
y.
B(O): bloque de píxeles de forma fija, a
menudo cuadrada o rectangular, centrado en el origen O(0,0).
El bloque es típicamente un cuadrado cuyo tamaño puede ir de 3x3 a
16x16 píxeles o un rectángulo.
B1(x)=x+B(O): bloque de
forma fija, en general cuadrado, centrado en x, de la imagen
U1
B2(y)=y+B(O) bloque de la
misma forma, centrado en y, de la imagen U2.
p(z): función de peso fija, definida para
z en B(O).
\vskip1.000000\baselineskip
La función d(B1(x), B2(y))
=
SUMA_para_z_en_B(O)_de_[p(z)(U1(x+z)-U2(y+z))^{2}]:
se trata de la suma de los cuadrados de las diferencias de valores
de las imágenes U1 en B1(x) con los valores correspondientes
de U2 en B2(y). Esos términos son ponderados por la función
de peso p(z). Esa función de distancia entre bloques es
clásica.
U'(x): para una imagen U(x), en la
que después de la rectificación estéreo las líneas horizontales son
las líneas epipolares, denotamos por U'(x) la derivada
parcial de U(x) en la dirección de la línea epipolar. Esta
derivada parcial puede ser calculada aproximadamente por diferencias
finitas, o exactamente por la trasformada de Fourier Discreta, bajo
la hipótesis clásica de que la imagen es periódica y de espectro
acotada.
\vskip1.000000\baselineskip
La función f(x,z)
=p(z)/U1'(x+z)^{2}: se trata de los pesos especiales
propuestos en la invención para evitar la adherencia. Estos pesos en
el bloque B(x) dependen de x y no tan solo de z
como en los métodos clásicos.
La nueva función de distancia entre bloques
d(B1(x), B2(y)) =
SUMA_para_z_en_B(O)_de_[f(x,z)(U1(x+z)
U2(y+z))^{2}]: con las notaciones precedentes, es pues la función distancia dependiente de x, que permite seleccionar por minimización el punto y de U2 correspondiente al punto x de U1. Este punto es el y que, para x fijo, realiza el mínimo de d(B1(x), B2(y_{i})) para todos los y_{i} en un entorno o vecindad de la línea epipolar.
U2(y+z))^{2}]: con las notaciones precedentes, es pues la función distancia dependiente de x, que permite seleccionar por minimización el punto y de U2 correspondiente al punto x de U1. Este punto es el y que, para x fijo, realiza el mínimo de d(B1(x), B2(y_{i})) para todos los y_{i} en un entorno o vecindad de la línea epipolar.
\vskip1.000000\baselineskip
Disparidad real: es la función desconocida
a(x) definida sobre el dominio de la imagen U1, que es la
disparidad físicamente correcta, que lleva la imagen U1 sobre la
imagen U2, de manera que se cumpla la identidad
La relación fundamental que justifica la
invención viene dada por el teorema siguiente: si se utiliza la
función peso definida anteriormente para comparar el bloque
B1(x) con los bloques B2(y), entonces la disparidad
m(x) con la que se logra el mínimo de d(B1(x),
B2(y)) verifica la propiedad siguiente:
En otros términos, la disparidad m(x)
calculada en x por la invención en su implementación
preferida, es una media ponderada de la disparidad real en un
entorno fijo de x, y con una ponderación dada por los pesos
p(z) en el bloque, independiente de x, con el que se
logra establecer una correspondencia óptima entre puntos de
diferentes imágenes.
Claims (12)
1. Procedimiento de establecimiento de
correspondencia entre una primera imagen digital (U1) y una segunda
imagen digital (U2) de una misma escena para la obtención de
disparidades, que comprende las etapas de:
a) seleccionar de la primera imagen (U1) un
bloque B1(x) de forma determinada centrado en un píxel
x de dicha primera imagen (U1);
b) seleccionar de la segunda imagen (U2) una
serie de bloques B2(y_{i}) de misma forma determinada que
el bloque B1(x) y centrados cada uno en un píxel
y_{i} de la segunda imagen (U2);
c) calcular para cada bloque B2(y_{i})
una distancia entre dicho bloque B2(y_{i}) y el bloque
B1(x), obteniéndose dicha distancia como suma en el bloque de
una función de las diferencias entre valores asociados al color de
los píxeles de misma posición relativa z de los bloques
B1(x) y B2(y_{i}), siendo esa suma ponderada por una
función de ponderación f(x,z);
d) seleccionar el píxel y_{i} para el
cual se obtiene la mínima distancia entre el bloque
B2(y_{i}) y el bloque B1(x), estableciéndose de este
modo una correspondencia entre dichos píxeles x e
y_{i}, y dando la disparidad de x como la diferencia
y_{i}-x,
caracterizado por el hecho de que
f depende de x y de z y es una función
decreciente y no constante respecto al modulo del gradiente
direccional de U1(x+z) en una dirección determinada.
\vskip1.000000\baselineskip
2. Procedimiento según la reivindicación
anterior, en el que dicha función f(x,z) responde a la
siguiente ecuación:
donde:
p(z) es una función de peso fija para
todos los bloques,
U1'(x+z) es la derivada parcial de U1 en
el punto x+z y en dicha dirección determinada y
e es una constante.
\vskip1.000000\baselineskip
3. Procedimiento según la reivindicación 1, en
el que dicha función f(x,z) responde a la siguiente
ecuación:
donde:
p(z) es una función de peso fija para
todos los bloques,
U1'(x+z) es la derivada parcial de U1 en
el punto x+z y en dicha dirección determinada y
e es una constante.
\vskip1.000000\baselineskip
4. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que dicha dirección determinada
es la dirección epipolar, de modo que es posible calcular por
paralaje la distancia a la cámara del punto correspondiente al píxel
x.
5. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la función p(z) es una
función positiva cuya suma de valores en el bloque B(O) es
1.
6. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que se realiza una etapa
adicional de minimización de la distancia entre bloques con una
precisión inferior a un píxel arbitraria mediante traslaciones de la
imagen U2 de recorrido inferior al tamaño de píxel.
\newpage
7. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que la búsqueda de y_{i}
se hace sobre diversas líneas de la imagen U2.
8. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que se trata una pluralidad de
imágenes de la misma escena, comparándolas dos a dos, con la
finalidad de obtener estimaciones múltiples del relieve, que pueden
ser posteriormente fusionadas.
9. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que se vuelven a realizar las
etapas a, b, c y d pero intercambiando U1 y U2.
10. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que se emplean imágenes obtenidas
por uno o varios satélites de observación de un cuerpo celeste
(planeta, asteroide, sol).
11. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que las imágenes U1 y U2 son
obtenidas por una o más cámaras conectadas a uno o más ordenadores
configurado(s) para obtener valores aproximados de las
disparidades y deducir el relieve de la escena observada por
paralaje.
12. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que las imágenes U1 y U2 son
obtenidas como fotografías sucesivas de una escena física que se
deforma, y la disparidad calculada mide la deformación entre los dos
momentos en que se tomaron las fotos.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200931139A ES2361758B1 (es) | 2009-12-10 | 2009-12-10 | Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades. |
PCT/ES2010/070813 WO2011070211A1 (es) | 2009-12-10 | 2010-12-09 | Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades |
EP10835533.0A EP2528036A4 (en) | 2009-12-10 | 2010-12-09 | METHOD OF ESTABLISHING CORRESPONDENCE BETWEEN A FIRST DIGITAL IMAGE AND A SECOND DIGITAL IMAGE OF THE SAME SCENE FOR OBTAINING DISPARITIES |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
ES200931139A ES2361758B1 (es) | 2009-12-10 | 2009-12-10 | Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades. |
Publications (2)
Publication Number | Publication Date |
---|---|
ES2361758A1 true ES2361758A1 (es) | 2011-06-22 |
ES2361758B1 ES2361758B1 (es) | 2012-04-27 |
Family
ID=44123073
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
ES200931139A Active ES2361758B1 (es) | 2009-12-10 | 2009-12-10 | Procedimiento de establecimiento de correspondencia entre una primera imagen digital y una segunda imagen digital de una misma escena para la obtención de disparidades. |
Country Status (3)
Country | Link |
---|---|
EP (1) | EP2528036A4 (es) |
ES (1) | ES2361758B1 (es) |
WO (1) | WO2011070211A1 (es) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9756312B2 (en) | 2014-05-01 | 2017-09-05 | Ecole polytechnique fédérale de Lausanne (EPFL) | Hardware-oriented dynamically adaptive disparity estimation algorithm and its real-time hardware |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1991019265A1 (en) * | 1990-05-29 | 1991-12-12 | Axiom Innovation Limited | Machine vision stereo matching |
US20050129325A1 (en) * | 2003-11-27 | 2005-06-16 | Sony Corporation | Image processing apparatus and method |
EP1610271A2 (en) * | 2004-06-25 | 2005-12-28 | STMicroelectronics, Inc. | Segment based image matching method and system |
WO2007072102A1 (en) * | 2005-12-21 | 2007-06-28 | Telecom Italia S.P.A. | Method for determining dense disparity fields in stereo vision |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE19810014C2 (de) * | 1998-03-09 | 2000-04-06 | Deutsch Zentr Luft & Raumfahrt | Verfahren zum Auswerten eines Stereobildpaares zum Zweck der Erstellung von Disparitätskarten |
FR2868168B1 (fr) | 2004-03-26 | 2006-09-15 | Cnes Epic | Appariement fin d'images stereoscopiques et instrument dedie avec un faible coefficient stereoscopique |
-
2009
- 2009-12-10 ES ES200931139A patent/ES2361758B1/es active Active
-
2010
- 2010-12-09 WO PCT/ES2010/070813 patent/WO2011070211A1/es active Application Filing
- 2010-12-09 EP EP10835533.0A patent/EP2528036A4/en not_active Ceased
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO1991019265A1 (en) * | 1990-05-29 | 1991-12-12 | Axiom Innovation Limited | Machine vision stereo matching |
US20050129325A1 (en) * | 2003-11-27 | 2005-06-16 | Sony Corporation | Image processing apparatus and method |
EP1610271A2 (en) * | 2004-06-25 | 2005-12-28 | STMicroelectronics, Inc. | Segment based image matching method and system |
WO2007072102A1 (en) * | 2005-12-21 | 2007-06-28 | Telecom Italia S.P.A. | Method for determining dense disparity fields in stereo vision |
Also Published As
Publication number | Publication date |
---|---|
EP2528036A1 (en) | 2012-11-28 |
ES2361758B1 (es) | 2012-04-27 |
WO2011070211A1 (es) | 2011-06-16 |
EP2528036A4 (en) | 2013-10-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN111750820B (zh) | 影像定位方法及其系统 | |
KR102261020B1 (ko) | 개선된 카메라 캘리브레이션 시스템, 타겟 및 프로세스 | |
Papadhimitri et al. | Uncalibrated near-light photometric stereo | |
US9530235B2 (en) | Aligning panoramic imagery and aerial imagery | |
WO2020206903A1 (zh) | 影像匹配方法、装置及计算机可读存储介质 | |
ES2787226T3 (es) | Imágenes oblicuas en mosaico y métodos para elaborar y usar las mismas | |
US8457357B2 (en) | Relative pose estimation of non-overlapping cameras using the motion of subjects in the camera fields of view | |
ES2640346T3 (es) | Procedimiento y sistema para la construcción de un modelo tridimensional a partir de imágenes de satélites | |
Tamas et al. | Targetless calibration of a lidar-perspective camera pair | |
CN106504192B (zh) | 一种输电线路走廊地质灾害勘探影像处理方法及系统 | |
WO2020038386A1 (zh) | 确定单目视觉重建中的尺度因子 | |
WO2016188010A1 (zh) | 运动图像补偿方法及装置、显示装置 | |
WO2008114264A2 (en) | A method and apparatus for video image stabilization | |
CN111798373A (zh) | 一种基于局部平面假设及六自由度位姿优化的快速无人机图像拼接方法 | |
US20160163114A1 (en) | Absolute rotation estimation including outlier detection via low-rank and sparse matrix decomposition | |
CN107016707B (zh) | 一种集成成像超大三维场景拍摄图像校正方法 | |
Workman et al. | A pot of gold: Rainbows as a calibration cue | |
US8340399B2 (en) | Method for determining a depth map from images, device for determining a depth map | |
McIlroy et al. | Kinectrack: 3d pose estimation using a projected dense dot pattern | |
CN116576850B (zh) | 一种位姿确定方法、装置、计算机设备及存储介质 | |
CN111091117B (zh) | 用于二维全景图像的目标检测方法、装置、设备、介质 | |
CN111161138B (zh) | 用于二维全景图像的目标检测方法、装置、设备、介质 | |
CN110796699B (zh) | 多目相机系统的最优视角选择方法和三维人体骨骼检测方法 | |
EP2879090B1 (en) | Aligning ground based images and aerial imagery | |
RU2583756C2 (ru) | Способ определения местоположения на основе сигнатур изображений городской застройки в видимом и инфракрасном диапазонах |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FG2A | Definitive protection |
Ref document number: 2361758 Country of ref document: ES Kind code of ref document: B1 Effective date: 20120427 |