ES2312010T3 - Analisis de patrones. - Google Patents
Analisis de patrones. Download PDFInfo
- Publication number
- ES2312010T3 ES2312010T3 ES05775541T ES05775541T ES2312010T3 ES 2312010 T3 ES2312010 T3 ES 2312010T3 ES 05775541 T ES05775541 T ES 05775541T ES 05775541 T ES05775541 T ES 05775541T ES 2312010 T3 ES2312010 T3 ES 2312010T3
- Authority
- ES
- Spain
- Prior art keywords
- elements
- ordered set
- ordered
- value
- selection
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Classifications
-
- G—PHYSICS
- G06—COMPUTING OR CALCULATING; COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Theoretical Computer Science (AREA)
- Medical Informatics (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Evolutionary Computation (AREA)
- General Health & Medical Sciences (AREA)
- Artificial Intelligence (AREA)
- Software Systems (AREA)
- Computing Systems (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Multimedia (AREA)
- Image Analysis (AREA)
- Holo Graphy (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Abstract
Procedimiento para comparar un primer patrón (A) representado por un primer conjunto ordenado de elementos (xi), presentando cada uno un valor, con un segundo patrón (B) representado por un segundo conjunto ordenado de elementos (ui), presentando cada uno un valor, que comprende la realización iterativa de las etapas siguientes: (i) seleccionar una pluralidad de elementos del primer conjunto ordenado; (ii) para cada elemento seleccionado del primer conjunto ordenado, seleccionar un elemento del segundo conjunto ordenado, de tal forma que los elementos seleccionados del segundo conjunto ordenado presentan, dentro del segundo conjunto ordenado, un conjunto de relaciones de posiciones mutuas que es igual al, o es una transformación del, conjunto de relaciones de posición que presentan entre sí la pluralidad seleccionada de elementos del primer conjunto ordenado; (iii) comparar el valor de cada uno de los elementos seleccionados del primer conjunto ordenado con el valor del elemento seleccionado situado en una posición correspondiente del segundo conjunto ordenado, de conformidad con un criterio de coincidencia predeterminado para decidir si la pluralidad seleccionada de elementos del primer conjunto ordenado coincide o no con la pluralidad seleccionada de elementos del segundo conjunto ordenado; (iv) en caso de que se produzca una coincidencia, actualización de por lo menos una puntuación de similitud (SAB); caracterizado porque la etapa de selección de los elementos del segundo conjunto ordenado comprende la selección de un valor para por lo menos un parámetro (R, beta y alfa) que caracteriza una transformación por reflexión, rotación o escalado, y la selección de unos elementos que presentan un conjunto de relaciones de posición (di'' y di'''') que está transformado con respecto al conjunto de relaciones de posición (di) de los elementos seleccionados del primer conjunto ordenado, de conformidad con el parámetro o los parámetros.
Description
Análisis de patrones.
La presente invención se refiere a la
comparación de un patrón con otro, o de un patrón con sí mismo, y
tiene particular interés en la comparación de los patrones
bidimensionales, tales como imágenes visuales, aunque también es
aplicable a los patrones unidimensionales y los patrones
tridimensionales o de más dimensiones. En las propuestas de
reconocimiento de patrones habituales, se utilizan plantillas para
reconocer y clasificar los patrones [1]. Dichas plantillas adoptan
muchas formas pero normalmente se generan mediante un análisis
estadístico de los datos de aprendizaje y se comparan con datos no
estudiados utilizando una medida de similitud [2]. El análisis
estadístico se realiza normalmente con respecto a un grupo de rasgos
seleccionados intuitivamente que parecen satisfacer las necesidades
de la tarea de reconocimiento. Por ejemplo, en el reconocimiento de
voz pueden encapsularse plantillas como modelos ocultos de Markov
obtenidos en el dominio de la frecuencia, y en el reconocimiento
óptico de caracteres las plantillas adoptan la forma de las propias
fuentes de los caracteres. En el caso del reconocimiento facial, se
utiliza un conjunto de rasgos elegidos intuitivamente, tales como
la textura de la piel, el color de la piel y el registro de rasgos
faciales para definir las plantillas faciales [5]. En una
aplicación de vigilancia por CCTV, los intrusos se detectan
normalmente a través de un procedimiento de sustracción de tramas y
de modelizado con plantilla de fondo que detecta el movimiento y
elimina los efectos de fondo del procesamiento [3]. En muchos casos,
el número de rasgos determina que el procedimiento sea difícil de
manejar desde el punto de vista informático, recurriéndose entonces
al análisis de componentes principales y otras técnicas para
mitigar el problema sin reducir significativamente el rendimiento
[http://www.peertek.com/index.html]. Estas propuestas obtienen
resultados muy positivos en entornos sin ruido pero fallan cuando la
variabilidad de patrones y el número de clases de patrones se
incrementa.
En las solicitudes de patente anteriores
indicadas a continuación se describen algunas técnicas de análisis
de imágenes u otro tipo de patrones en las que el patrón se compara
con otras partes del mismo patrón:
Solicitud de patente europea 00301262.2 (n.º de
publicación 1126411);
Solicitud de patente internacional
PCT/GB01/00504 (n.º de publicación WO 01/61648);
Solicitud de patente internacional
PCT/GB01/03802 (n.º de publicación WO 02/21448);
Solicitud de patente US 977.263/09, presentada
el 16 de octubre de 2001 (n.º de publicación 20020081033);
así como los siguientes documentos
publicados por el
inventor:
Stentiford F W M, "An estimator for
visual attention through competitive novelty with application to
image compression", Proc. Picture Coding Symposium
2001, Seoul, 25 a 27 de abril, pp. 101 - 104, 2001.
Stentiford F W M, "An evolutionary
programming approach to the simulation of visual attention",
Proc. Congress on Evolutionary Computation 2001,
Seoul, pp. 851 - 858, 27 a 30 de mayo de 2001.
Stentiford F W M, "An attention based
similarity measure for fringerprint retrieval", Proc. 4th
European Workshop on Image Analysis for Multimedia Interactive
Service, 9 de abril de 2003, pp.
27-30.
\vskip1.000000\baselineskip
Los procedimientos y aparatos para comparar
patrones expuestos en el preámbulo de la reivindicación 1 se
describen en la solicitud de patente internacional WO 03/081523.
Chang S-H et al., "Fast
algorithm for point pattern matching: invariant to translations,
rotations and scale changes", Pattern Recognition, vol. 30, n.º
2, (febrero de 1997), pp. 311-320, describe
propuestas para el reconocimiento de patrones en las que se tienen
en cuenta las diferencias de rotación y escalado, pero estas
propuestas no se prestan a combinarse con los procedimientos
considerados actualmente.
Los aspectos de la presente invención se exponen
en las reivindicaciones.
A continuación, se describirán algunas formas de
realización de la presente invención haciendo referencia a los
dibujos adjuntos, en los que:
la figura 1 es un diagrama de bloques de un
aparato para realizar la presente invención;
la figura 2 es un diagrama que ilustra el
funcionamiento de la presente invención;
la figura 3 es un diagrama de flujo de las
etapas que realiza el aparato de la figura 1 según una primera
forma de realización de la presente invención;
la figura 4 es un diagrama de flujo de las
etapas que realiza el aparato de la figura 1 según una segunda
forma de realización de la presente invención y
la figura 5 ilustra un par de imágenes.
La figura 1 representa un aparato que consta de
un ordenador de uso general programado para realizar el análisis de
imágenes según una primera forma de realización de la presente
invención. El aparato comprende un bus 1, al cual se conecta una
unidad central de procesamiento 2, una pantalla 3, un teclado 4, un
escáner 5 (u otro tipo de dispositivo, no representado) para la
entrada de imágenes y una memoria 6.
En la memoria 6 se almacena un sistema operativo
601, un programa 602 para realizar el análisis de imágenes y unas
áreas de almacenamiento 603 y 604 para almacenar dos imágenes,
denominadas imagen A e imagen B. Cada imagen se almacena como una
matriz bidimensional de valores, en la que cada valor representa el
brillo de un elemento de imagen de la matriz. Debe observarse, no
obstante, que de una manera más general el aparato puede estar
dispuesto para analizar conjuntos de datos distintos a las imágenes,
en cuyo caso las áreas de almacenamiento 603 y 604 contendrán cada
una un conjunto de datos A y B, cada uno de los cuales consta de un
conjunto de valores ordenados en cualquier número de dimensiones (el
mismo número de dimensiones en cada conjunto).
Las matrices de imagen se representan
esquemáticamente en las figuras 2a y 2b. La imagen A consta de una
matriz de elementos de imagen x_{i} = (x_{i}, y_{i}),
siendo x_{i} e y_{i} las posiciones horizontal y vertical de
los elementos de la imagen. Se representa una matriz 20x20 por
motivos ilustrativos. En el caso general, x_{i} =
(x_{i1}, x_{i2}, x_{i3}, ..., x_{in}), siendo x_{il} las n
coordenadas de x_{l} en n dimensiones. Cada elemento tiene
un respectivo valor a = a (x_{i}). Este valor puede ser un
valor escalar \alpha o un valor vectorial (de varias dimensiones)
a. En el caso de una imagen, estos valores serán el brillo \alpha
o bien un conjunto de componentes de color, tales como (en
representación RGB) a = (\alpha_{r}, \alpha_{g},
\alpha_{b}). Análogamente, la imagen B consta de una matriz de
elementos de imagen u_{i} = (u_{i}, v_{i}) que tienen
valores de brillo b(u_{i}). En el caso general,
u_{i} = (u_{i1}, u_{i2}, u_{i3}, ..., u_{in}).
u_{i} = (u_{i1}, u_{i2}, u_{i3}, ..., u_{in}).
La figura 3 es un diagrama de flujo que describe
la aplicación del procedimiento aplicado a las imágenes
bidimensionales A y B. En la etapa 200, la puntuación S_{AB} se
pone a cero y en la etapa 201 el contador t se pone a cero.
La primera tarea del procedimiento consiste en
realizar una selección aleatoria de los elementos de la imagen A.
Esto puede visualizarse como la acción de pinchar la imagen con una
horquilla de m puntas. El número m concreto de elementos puede
seleccionarse (etapa 202) aleatoriamente dentro del rango m_{min}
\leq m \leq m_{max} o puede ser fijo, en cuyo caso la etapa
202 se omite. El tamaño de la horquilla está limitado por un
diámetro D seleccionado como un número aleatorio D_{min} \leq D
\leq D_{max} (etapa 203). Más adelante se describen otras
maneras de variar la distribución del tamaño de las horquillas. Debe
tenerse en cuenta, que en la presente memoria, las referencias a
una selección aleatoria también prevén la posibilidad de una
selección por medio de un procedimiento pseudoaleatorio. Asimismo,
una referencia a una selección aleatoria no solo prevé la
posibilidad de una selección aleatoria en la que la selección de
cualquier valor (dentro del rango indicado) es igualmente probable,
sino también la posibilidad de una selección en la que la
distribución de probabilidad no es uniforme.
En la etapa 204, se selecciona un conjunto
N_{x} de m elementos de posiciones x_{i} aleatorias, sujeto a
la restricción de que todos los elementos deben estar comprendidos
dentro de la imagen y que todos los elementos deben circunscribirse
a un área circular de diámetro D. Un procedimiento posible para
realizar esta acción comprende las subetapas siguientes:
- 2041 Elección de un elemento aleatorio x_{0} de A.
- 2042 Elección de un conjunto de desplazamientos aleatorios d_{i} = (d_{xi}, d_{yi}), siendo 0 \leq d_{xi} \leq D/2 y 0 \leq d_{yi} \leq D/2.
- 2043 Si la distancia euclídea |d_{i}| \leq D/2, entonces, continuación; en caso contrario, repetición de la etapa previa hasta que se cumple esta condición (siendo |d_{i}| = \surd{d_{xi}^{2} + d_{yi}^{2}}.
- 2044 Cálculo de las posiciones x_{i} = x_{0} + d_{i}.
- 2045 Si algún x_{i} se halla fuera del área de la imagen, repetición de las etapas 2042 a 2045 con respecto al valor d_{i} no válido.
\vskip1.000000\baselineskip
Debe observarse que este procedimiento permite
la presencia de uno o más pares x_{i} = x_{j} i\neqj, es
decir, los valores x_{i} no están limitados a ser diferentes. Esto
no es censurable en la práctica, pero si se desea puede eliminarse
haciendo las correspondientes pruebas y deseleccionando un elemento
del par coincidente de la misma manera que se hace con los
elementos que están fuera del área de la imagen.
En la siguiente etapa (etapa 205), se realiza
una selección N_{u} de m elementos u_{i} comprendidos dentro de
la imagen B en una posición global aleatoria, pero con la misma
posición relativa entre sí que los elementos seleccionados de la
imagen A. Es decir, x_{i} - x_{j} = u_{i} - u_{j} para
todos los valores de i y j. Esto puede visualizarse como la acción
de pinchar la imagen B con la misma horquilla que la utilizada en la
imagen A.
Suponiendo que se haya calculado un conjunto de
desplazamientos d_{i} como se ha descrito anteriormente, esta
etapa puede realizarse a través de las subetapas siguientes:
- 2051 Elección de un elemento aleatorio u_{0} de B.
- 2052 Cálculo de las posiciones u_{i} = u_{0} + d_{i}.
- 2053 Si algún elemento u_{i} está fuera del área de la imagen, repetición de las etapas 2051 y 2043 con respecto al valor d_{i} no válido.
En la etapa 206, se determina si cada uno de los
elementos seleccionados de la imagen A coincide con el elemento que
tiene la misma posición relativa en la imagen B. Cuando el valor
asociado a cada elemento es un valor escalar, que en este caso
representa el brillo, debe comprobarse si se cumple la condición
para la coincidencia:
para todos los valores i = 1, ...,
m
siendo \delta un valor umbral pequeño.
En el caso vectorial (p.ej, RGB), se produce una
coincidencia si:
para todos los valores i = 1, ...,
m
Dist es un operador de distancia (p.ej.,
euclídeo o de bloque de casas). Otra posibilidad es establecer
umbrales para los componentes vectoriales por separado (p.ej., los
componentes de color)
y
y
para todos los valores i = 1...
m.
Si se produce una coincidencia, en la etapa 207
se incrementa la puntuación S_{AB}. Dicha puntuación puede
incrementarse simplemente en una unidad (u otro valor fijo). Cuando
m es variable, la puntuación puede incrementarse, si se desea, en m
o alguna función de m (como se indicará más adelante).
Una vez que se ha actualizado la puntuación o si
no se ha producido ninguna coincidencia, en la etapa 209 se
comprueba si el contador de iteraciones t ha llegado al recuento
máximo de iteraciones T y, en tal caso, el procedimiento termina.
En caso contrario, el procedimiento vuelve a la etapa 202 para
realizar otra iteración.
A continuación, se hará referencia al diámetro
de la horquilla. Si se utilizan horquillas pequeñas, la puntuación
o medida de similitud dependerá de las similitudes locales y
adoptará valores altos si una imagen posee muchas zonas que son
similares a las de la otra imagen. Los diámetros grandes dan más
peso a las similitudes de gran escala entre las imágenes. Si se
fija el diámetro D, entonces se obtiene cierta distribución
estadística de los diámetros reales de las horquillas, que
comprenden desde valores muy pequeños hasta el valor máximo
permitido por el valor particular de D (el término "valor real
del diámetro" se refiere al diámetro del círculo más pequeño que
puede rodear todos los elementos x_{i} en una iteración
particular). La selección aleatoria de D en el rango D_{min}
\leq D \leq D_{max} permite diámetros reales de hasta
D_{max} pero sesga su distribución estadística favoreciendo los
diámetros reales inferiores a D_{min} a expensas de los diámetros
comprendidos entre D_{min} y D_{max}.
Pueden diseñarse procedimientos alternativos
para sesgar esta distribución (incluida la posibilidad de favorecer
horquillas de mayor tamaño); por ejemplo, se puede utilizar un valor
fijo de D y entonces, para cada selección de u conjunto de valores
d_{i} (i = 1, ..., m), se puede calcular el
diámetro real (o una estimación de éste, tal como
\surd[Max(d_{xi}) - Min(d_{xi})]^{2} +
[Max(d_{yi}) - Min(d_{yi})]^{2}) y rechazar o no
el conjunto con una probabilidad correspondiente a una función
deseada del diámetro actual.
Haciendo referencia de nuevo a la etapa de
incremento de puntuación, en el caso de un m variable, el valor
informativo de una coincidencia crece de conformidad con su rareza.
Por lo tanto, una coincidencia obtenida utilizando una horquilla
con muchas puntas es más significativa que una obtenida utilizando
pocas puntas. De ahí la recomendación anterior de aplicar un
incremento m a la coincidencia. De manera más general, se puede
incrementar la puntuación mediante alguna función de incremento
monotónico f(m) de m en lugar del propio valor m. Por
ejemplo, pueden utilizarse funciones que aumentan más rápidamente
que el propio m (tales como m^{2} o 2^{m}).
Se hace referencia a continuación a una segunda
forma de realización de la presente invención, que introduce un
conjunto de transformaciones adicionales a la horquilla aplicada a
la imagen B. La descripción siguiente omite la variación aleatoria
de m y D descrita anteriormente, aunque éstas podrían incluirse (o
no) si se desea.
La idea en la cual se basa esta forma de
realización es la de permitir la obtención de coincidencias y, por
consiguiente, de contribuciones a la puntuación total que se va a
generar, en situaciones en las que un rasgo aparece en una imagen,
mientras que en otra imagen aparece un rasgo similar, pero de tamaño
diferente, en posición invertida o sometido a una rotación con
respecto al rasgo de la primera imagen. Esto se consigue aplicando
a la imagen B una horquilla que no es igual a la aplicada a la
imagen A, sino que es una versión de ésta sometida a escalado,
inversión o rotación.
La figura 4 representa un diagrama de flujo. Las
etapas que son idénticas a las de la figura 3 se designar mediante
los mismos números de referencia.
Las etapas 2041 a 2045 no se representan
explícitamente.
Después de la etapa 204, se aplica una reflexión
aleatoria a la horquilla, de la siguiente forma:
- Se elige un entero aleatorio R de valor 0 ó 1;
- Si R = 1, entonces se establece d_{xi} = d_{xi} para todos los valores i = m. Los valores d_{yi} no cambian.
La reflexión anterior es una reflexión alrededor
de un solo eje vertical. Para abarcar las reflexiones alrededor de
otros ejes, a esta reflexión debe añadírsele la etapa de rotación
siguiente.
En la etapa 211, se selecciona un ángulo de
rotación aleatorio \beta del rango comprendido entre
\beta_{max} y \beta_{min}. A continuación (etapa 212), se
aplica una rotación de este ángulo a la horquilla representada por
d_{t}, utilizando las siguientes ecuaciones para cada i:
En tercer lugar, en la etapa 213, se elige un
factor de escala aleatorio \alpha del rango comprendido entre
\alpha_{max} y \alpha_{min}. En la etapa 214, la horquilla
se escala con este factor:
El escalado y la rotación se realizan con
referencia al punto (0,0), aunque el escalado o la rotación en torno
a otro centro son igualmente posibles.
Si así se desea, es posible definir
\alpha_{x} y \alpha_{y} por separado en las direcciones X e
Y, para detectar versiones más largas o más altas de las mismas
formas.
A continuación, en la etapa 215, se determinan
los elementos u_{i}. Esta etapa es idéntica a la etapa 205,
excepto porque utiliza el valor d_{i}'' transformado en lugar de
d_{i}. Debe observarse que existe la posibilidad de que la
selección de las transformaciones, o incluso de d_{i}, pueda
determinar que sea más difícil o incluso imposible hallar, en la
etapa 215 (que comprende las subetapas 2051 a 2053 descritas
anteriormente), una posición u_{0} que permita que todos los
elementos u_{i} estén comprendidos dentro de la imagen B. Por lo
tanto, aunque no se representa en el diagrama de flujo, tal vez sea
necesario en tal caso volver a la etapa 210 para realizar una nueva
selección de la transformación o las transformaciones o incluso
volver a la etapa 204 para aplicar una horquilla completamente
nueva.
Las etapas 206 a 209 son como las descritas
anteriormente.
A título de ilustración, la figura 5 representa
el caso bidimensional en el que se equipara una horquilla con m = 4
píxeles x de la imagen A con una horquilla de 4 píxeles u de la
imagen B tras una rotación de 90º y una reducción a escala del 25%.
Cada uno de los píxeles puede presentar tres intensidades de color,
es decir a = (a_{r}, a_{g} y a_{b}), y entonces los píxeles u
coinciden con los x si las intensidades de color de todos los m
píxeles correspondientes presentan valores que están a una distancia
\delta_{j} unos de otros.
Debe observarse que la reflexión, la rotación y
el escalado son operaciones lineales que pueden realizarse en
cualquier orden. La utilización de estas transformaciones aparte de
la traslación determina que las similitudes estructurales entre las
dos imágenes no queden ocultadas por la reflexión, la rotación o las
diferencias de escala.
No es necesario emplear las tres
transformaciones a la vez, sino que pueden utilizarse
individualmente o de dos en dos. Es poco frecuente que se permita
la reflexión pero no la rotación, aunque es posible. En caso de que
se requiera la reflexión en torno a algún eje, pero no la rotación,
entonces se puede modificar la etapa de reflexión para que ésta
tenga lugar alrededor de un eje elegido aleatoriamente o, lo que
viene a ser lo mismo, se puede mantener la etapa de rotación, pero
omitirla cuando R = 0. Se puede decidir aplicar el escalado pero no
la rotación en los casos en que se buscan similitudes invariables
con el escalado pero no con la rotación (p.ej., tal vez se requiera
diferenciar entre formas de diamantes y de cuadros).
En otra modificación, los valores de los
parámetros resultantes de una coincidencia pueden registrarse. Una
implementación sencilla de esta modificación puede consistir, por
ejemplo, en registrar cada ángulo de rotación \beta que da por
resultado una coincidencia. Se podría calcular el promedio de estos
valores. Por ejemplo, un promedio de \beta de 22º podría ser útil
como indicador de que la imagen B presenta una rotación de 20º con
respecto a la imagen A. Una distribución de ángulos para cada
coincidencia podría indicar la medida de simetría circular presente
en ambas imágenes. Por ejemplo, las coincidencias de una pelota roja
entre las imágenes A y B podrían producirse con cualquier rotación
angular.
Puede aplicarse un procesamiento similar a los
factores de escala \alpha.
En otro ejemplo, en caso de coincidencia se
calcula la posición del centroide g_{x} de x_{i} y el centroide
g_{u} de u_{i}. Calculando el promedio de g_{x} se obtiene la
posición en la imagen A de una zona que es similar a la zona de una
posición en la imagen B dada por el promedio de g_{u}. En la
práctica, puesto que el centroide g es el promedio de x_{i} (o
u_{i}), no es necesario calcular g y a continuación calcular su
promedio (si m es constante), sino que basta con calcular el
promedio de todas las x_{i} (o u_{i}). También en este caso,
esta propuesta aporta resultados útiles solo si las coincidencias se
producen principalmente a partir de una zona de cada imagen. Una
propuesta más compleja consiste en determinar, para cada
coincidencia, si las posiciones de los centroides g_{x} y g_{u}
son similares a las del par de centroides registradas en una
coincidencia previa. Por ejemplo, Dist(g_{x} - g_{x}')
< e y Dist(g_{u} - g_{u}') < e, siendo Dist la
distancia euclídea u otro tipo de operador de distancia, g_{x}' y
g_{u}' el par de centroides correspondientes a una coincidencia
anterior (o posiblemente un promedio deslizante de dichos centroides
coincidentes anteriores) y e un umbral pequeño. Esto indica que en
la coincidencia estaba implicada la misma zona que en la
coincidencia anterior. A continuación, se puede continuar añadiendo
el nuevo resultado al promedio solo si se cumple esta condición. Se
puede calcular más de un promedio, para más de una zona diferente,
pero para esto probablemente resulte más eficaz guardar los datos
de cada coincidencia y procesarlos al final.
El conjunto de correspondencias de zonas puede
utilizarse para efectuar el seguimiento de objetos entre tramas de
vídeo o para obtener un registro no lineal entre imágenes (p.ej. el
registro de mamografías tomadas en tiempos diferentes). Si se
compara la imagen A simultáneamente con varias imágenes B, C, D,
..., Z, la medida de similitud puede utilizarse para detectar la
presencia de objetos específicos o comparar el estado de las
escenas con un conjunto de estados normales y anormales (p.ej., con
fines de seguridad). De manera similar, el sistema puede utilizarse
para identificar expresiones faciales o identidades faciales.
Podría aplicarse el mismo tipo de promediado,
condicionado a la similitud de las posiciones de los centroides, al
ángulo de rotación \beta. Dicho procedimiento podría indicar una
fuerte similitud entre un cuadro y un diamante, aunque solo tras la
aplicación de una transformación rotacional de 45º, 135º, 225º o
315º.
Los valores habituales de los diversos
parámetros indicados anteriormente para las imágenes de 600x400 se
indican a continuación:
- m_{min}
- 1
- m_{max}
- 20
- D_{min}
- 1
- D_{max}
- Puede elegirse un valor más bajo para extraer similitudes de zona, o un valor más alto para extraer similitudes globales. Los valores pueden variar entre 10 y el valor más pequeño entre las anchuras y alturas de las dos imágenes.
- \delta
- 30 (suponiendo que a se halla dentro del rango de 0 a 255)
\delta_{r}, \delta_{g},
\delta_{b} 30 (suponiendo que r, g, y b se hallan dentro del
rango de 0 a
255)
- T
- 20000
- \beta_{min}
- -90
- \beta_{max}
- +90
- \alpha_{min}
- 0,5
- \alpha_{max}
- 2
- e
- 10
En el caso de las imágenes A y B, que contienen
ambas grandes áreas lisas de brillo (o color) similar, puede
obtenerse un gran número de coincidencias y, en consecuencia, una
alta puntuación aunque pueda existir poca similitud entre las
partes de la imagen que contienen detalle. En este caso, no es
necesario realizar el procedimiento para toda la imagen. Por
ejemplo, si se ha determinado que algunas zonas de las imágenes A y
B tienen un interés particular, utilizando tal vez el procedimiento
descrito en una de las solicitudes de patente anteriores
mencionadas, entonces los elementos de imagen x y u
descritos pueden simplemente hallarse en los alrededores de la zona
determinada. Esto podría implementarse restringiendo la selección de
x y u, de tal forma que por lo menos un elemento x_{i} sea un
elemento de una zona de particular interés de la imagen A y por lo
menos un elemento u_{i} sea un elemento de una zona de particular
interés de la imagen B. Esto significa que cada coincidencia
establece una relación similar en cada imagen entre el primer plano
y el fondo o el fondo y el primer plano (si todas las puntas de las
horquillas se hallan en píxeles de gran interés). Las horquillas de
pequeño diámetro tenderán a obtener similitudes entre zonas
localizadas de A y B, y las horquillas de mayor diámetro
determinarán relaciones globales entre el primer plano y el
fondo.
Los procedimientos descritos para dos
dimensiones pueden aplicarse también a los datos unidimensionales,
tales como las secuencias temporales de valores (p.ej., muestras de
una señal de audio u otro tipo de señal). No obstante, la rotación
carece de sentido en una dimensión. Asimismo, dichos procedimientos
pueden aplicarse a datos de tres (o más) dimensiones, aunque la
rotación requerirá especificar más ángulos (hasta
n-1) si ésta debe realizarse alrededor de más de un
eje. La rotación tiene sentido sólo si las dimensiones alteradas son
de la misma categoría. Por lo tanto, un conjunto tridimensional de
valores que representan una secuencia de imágenes visuales (x, y,
t) (o un conjunto tetradimensional que representa una secuencia
temporal de imágenes visuales tridimensionales (x, y, z, t)) podría
hacerse girar solo alrededor de los ejes paralelos al eje
temporal.
El procedimiento realiza un análisis de pares
individuales de imágenes y extrae una estructura que es común a
ambas imágenes. La cantidad de estructura que es común a ambas
imágenes provee una medida de su similitud. A diferencia de otros
procedimientos, esta propuesta no utiliza las mediciones de rasgos
predefinidos y no requiere conjuntos de imágenes de aprendizaje
representativos y el procesamiento asociado para optimizar los
parámetros de reconocimiento.
Se pueden producir diferencias de escala y
orientación en el dominio visual, debido a la perspectiva, al ángulo
de visión y otros factores, siendo común la incorporación de
información previa en el clasificador para compensar dichas
diferencias. Dicha información previa no es necesaria en este
procedimiento, ya que el procedimiento de comparación tiene en
cuenta las diferencias generadas debido a la orientación y la escala
de los objetos. Esto significa, por ejemplo, que el procedimiento
puede aplicarse a los problemas de reconocimiento en los que el
objeto que se desea reconocer está integrado en otra imagen. Por
consiguiente, el procedimiento también puede aplicarse al problema
de la detección de infracciones de derechos de autor en los casos en
que se recortan partes del material de obras más grandes (p.ej., de
arte), o a la tarea de reducir el tamaño de las bases de datos
cuando se sabe que el duplicado se produce con frecuencia.
A menos que se establezcan disposiciones para el
contenido particular de los patrones, las propuestas de plantillas
estándar para el reconocimiento de patrones fracasan cuando los
patrones que se comparan difieren debido a distorsiones locales, o
pequeños movimientos, como ocurre en el caso visual con la agitación
de los árboles, el movimiento de las nubes, los cambios en las
expresiones faciales, las huellas dactilares en la escena de un
crimen sobre superficies irregulares o el ruido, por ejemplo. Dichas
disposiciones requieren un conocimiento previo de la aplicación y
seguirán provocando el fallo del sistema si las distorsiones locales
sin procesar no se ajustan a los requisitos de diseño del sistema.
El presente procedimiento es capaz de reducir al mínimo los efectos
de las distorsiones locales sin conocimiento previo del tipo de
distorsión.
Asimismo, el procedimiento puede aplicarse a
patrones parciales que contienen espacios y omisiones. Por
consiguiente, el procedimiento es directamente aplicable al
problema de la identificación de las huellas dactilares en la
escena de un crimen, en el que solo se dispone de una parte del
conjunto de la huella para la confrontación. En el caso del
reconocimiento facial, el procedimiento permite efectuar búsquedas
basadas en partes restringidas de la cara desconocida. Esto
significa, por ejemplo, que las búsquedas pueden basarse por
completo en la zona de los ojos y la nariz, en los casos en que la
barba y el bigote pueden provocar ambigüedades. No obstante, el
rendimiento se degradará cada vez más a medida que las distorsiones
y los espacios se incrementen, aunque sin sufrir una caída
catastrófica.
El procedimiento puede utilizarse para calcular
las puntuaciones de similitud entre una imagen y un conjunto de
patrones de referencia. Las puntuaciones de similitud pueden
utilizarse para formar grupos de dichos patrones procesando las
puntuaciones de alta similitud unas en relación con las otras. Unos
patrones preferidos, que presentan similitudes con otros patrones
del grupo y que se obtienen a partir de cada grupo, pueden agruparse
a su vez para formar supergrupos, y entonces el proceso puede
continuar para estructurar bases de datos de patrones de gran
tamaño. Se realiza una búsqueda tipo "consulta por ejemplo"
midiendo las puntuaciones de similitud con cada uno de los patrones
preferentes de nivel superior y, a continuación, con cada uno de
los patrones preferentes de los subgrupos correspondientes al patrón
preferente de puntuación más alta del grupo anterior. Es probable
que algunos patrones preferentes representen grupos con elementos
comunes en los casos en que los patrones presentan altas
puntuaciones de similitud con más de un patrón preferente. Los
patrones que pueden tratarse de esta manera comprenden caras y
expresiones faciales. Esto puede aplicarse a la categorización de
materiales manufacturados o procesados, tales como la arena y la
grava. Cuando en un contexto militar se detecta un objeto volador,
los valores de las puntuaciones de similitud permiten evaluar las
probabilidades de que el objeto sea un pájaro o un avión.
El procedimiento puede aplicarse a patrones de
cualquier dimensión, tales como señales de audio unidimensionales,
datos de vídeo tridimensionales (x, y, tiempo) o vectores
dependientes del tiempo de n dimensiones obtenidos desde cualquier
fuente, tal como una agrupación de sensores. En reconocimiento de
patrones, el procedimiento puede procesar variantes de la velocidad
de la voz sin utilizar estrategias heurísticas especiales. En una
propuesta convencional, se utiliza el alineamiento temporal dinámico
para mitigar este problema, aunque esto supone iniciar una mayor
cantidad de procesos informáticos y el peligro de que el
procedimiento de alineamiento provoque un incremento de
clasificaciones erróneas, en particular en un problema de gran
alcance que abarca varias clases. Además, con este procedimiento es
suficiente utilizar partes de los enunciados para identificar las
palabras cuando éstas son exclusivas del dominio del discurso (p.ej.
"yeah" en lugar de "yes", con pérdida de la última
consonante sibilante).
El procedimiento puede aplicarse al problema de
la detección de la disparidad como en el caso de la detección del
movimiento o el paralaje. Las propuestas estándar para la detección
de la disparidad se basan en gran medida en el registro adecuado
entre dos imágenes, de tal forma que la sustracción (que puede
aplicarse por tramos en pequeñas áreas del conjunto de la imagen)
tiene lugar entre píxeles que corresponden a los mismos puntos del
objeto original ilustrado en las dos imágenes. La imagen de
diferencia resultante resalta las áreas que corresponden a
diferencias en las imágenes originales. Esto resulta sumamente
difícil en presencia de ruido, puesto que se introduce
incertidumbre en la estimación de la posición de registro correcta
y, como consecuencia, pueden originarse muchas falsas diferencias.
Incluso en ausencia de ruido, las distorsiones locales o los
ligeros movimientos del sujeto pueden ocasionar registros erróneos y
pueden determinar que se resalten áreas de diferencia que tienen
poco interés, a menos que se mida la propia distorsión o movimiento.
Las técnicas de registro de imágenes digitales lineales o no
lineales aplicadas antes de la sustracción compensan parcialmente,
aunque no eliminan, este problema en un gran porcentaje de casos
[4]. Con este procedimiento, el registro se obtiene localizando las
correspondencias entre zonas similares de un par de imágenes,
utilizando rasgos que están presentes en ambas zonas, y haciendo
omiso de las zonas que no se corresponden. Dichas correspondencias
entre zonas de tramas consecutivas de un vídeo pueden aplicarse al
problema del reconocimiento y el seguimiento de objetos en
movimiento.
Este procedimiento también presenta la ventaja
de permitir la detección de diversas disparidades, en la medida en
que la imagen A se compara con las imágenes B, C, D, etc. Esto
resulta útil en el caso de la detección de intrusos por CCTV, en la
que las tramas de las imágenes B, C, D, etc. son ejemplos típicos de
diferentes condiciones atmosféricas y otros estados de fondo
normales, y en la que se activa una alarma solo si se detectan
discrepancias en las tramas de imagen normales. Este procedimiento
también es aplicable al problema de la medición de las semejanzas de
las imágenes faciales.
Debe observarse que el procedimiento puede
aplicarse al caso en el que la imagen A y la imagen B son idénticas.
En realidad, si se desea, es posible almacenar una sola imagen A en
el área de almacenamiento 603, manteniéndose el área de
almacenamiento 604 como un área de almacenamiento redundante (las
referencias anteriores a la imagen B deben sustituirse por
referencias a la imagen A).
Cuando la imagen A es idéntica a la imagen B y
el procedimiento realmente tiene en cuenta solo una imagen, puede
generarse una puntuación de similitud alta (S_{AA}) a partir de la
aplicación de la transformación de reflexión si existe simetría a
través del eje de reflexión de la imagen. De forma parecida, también
puede detectarse la simetría rotacional y la presencia de simetrías
en perspectiva. Las distribuciones de los ángulos de los ejes de
rotación y reflexión con los que se encuentran coincidencias indican
las orientaciones de las simetrías presentes en la imagen. Las
horquillas deberán incluir algunos píxeles de alta puntuación de
atención, de lo contrario, puede parecer, por ejemplo, que grandes
secciones de un fondo de cielo autocoincidente presentan simetrías
triviales. Esto podría realizarse restringiendo el procedimiento al
área o las áreas que se determina que tienen un interés particular,
como se ha descrito anteriormente.
Este algoritmo es sumamente adecuado para la
implementación en paralelo, puesto que el procesamiento de cada
horquilla de píxeles es independiente del procesamiento de otras
horquillas. Esto significa que el procesamiento de las horquillas
puede distribuirse a través de numerosas fuentes de cálculo
independientes, obteniéndose de ese modo velocidades de
procesamiento que solo están limitadas por la velocidad de captura
de datos.
Algunas técnicas de análisis de imágenes
realizan cálculos de comparación entre imágenes utilizando parches
que son horquillas en las que se emplean todos los píxeles. Los
parches coinciden cuando una medida de correlación sobrepasa cierto
umbral. Estas propuestas no permiten aprovechar bien la estructura
detallada cuyo tamaño es más pequeño que el del parche, excepto en
el caso en el que la medida de correlación está diseñada para
identificar un rasgo específico. Además, dichos parches son de un
tamaño particular; por lo tanto, si son demasiado grandes, no
coinciden en ningún lugar y, si son demasiado pequeños, coinciden en
lugares erróneos. Las horquillas de píxeles dispersas N_{x}
utilizadas en este procedimiento no experimentan estas
restricciones.
[1] Vailaya A. et al., Image
Classification for Content-_Based Indexing, IEEE
Trans on Image Processing, Vol 10, nº 1, págs 117 - 130, enero
2001.
[2] Santini S. & Jain R.,
Similarity Matching, in Proc 2nd Asian Conf on Computer Vision,
páginas II 544-548, IEEE, 1995.
[3] IEEE Trans PAMI - Special Section on Video
Surveillance, vol 22 nº 8, agosto 2000.
[4] Brown L. G., A survey of image
registration techniques, ACM Computing Surveys, Vol._24, No. 4
(diciembre 1992), págs. 325-376.
[5] Zhao W., Chellappa R.,
Rosenfeld A., and Phillips P.J., "Face recognition:
A literature survey." CVL Technical Report, University of
Maryland, octubre 2000.
<ftp:_//ftp.cfar.umd.edu/TRs/CVL-_Reports-_2000/TR4167-_zhao.ps.gz>.
[6] Sebastian T.B., Klein P.N.,
and Kimia B.B., "Recognition of shapes by editing shock
graphs," Proc ICCV 2001, págs 755-762.
Fuente de datos en
http:_//www.lems.brown.edu/_vision/_researchAreas/_SIID/_.
Claims (16)
1. Procedimiento para comparar un primer patrón
(A) representado por un primer conjunto ordenado de elementos
(x_{i}), presentando cada uno un valor, con un segundo patrón (B)
representado por un segundo conjunto ordenado de elementos
(u_{i}), presentando cada uno un valor, que comprende la
realización iterativa de las etapas siguientes:
- (i)
- seleccionar una pluralidad de elementos del primer conjunto ordenado;
- (ii)
- para cada elemento seleccionado del primer conjunto ordenado, seleccionar un elemento del segundo conjunto ordenado, de tal forma que los elementos seleccionados del segundo conjunto ordenado presentan, dentro del segundo conjunto ordenado, un conjunto de relaciones de posiciones mutuas que es igual al, o es una transformación del, conjunto de relaciones de posición que presentan entre sí la pluralidad seleccionada de elementos del primer conjunto ordenado;
- (iii)
- comparar el valor de cada uno de los elementos seleccionados del primer conjunto ordenado con el valor del elemento seleccionado situado en una posición correspondiente del segundo conjunto ordenado, de conformidad con un criterio de coincidencia predeterminado para decidir si la pluralidad seleccionada de elementos del primer conjunto ordenado coincide o no con la pluralidad seleccionada de elementos del segundo conjunto ordenado;
- (iv)
- en caso de que se produzca una coincidencia, actualización de por lo menos una puntuación de similitud (S_{AB});
caracterizado porque la etapa de
selección de los elementos del segundo conjunto ordenado comprende
la selección de un valor para por lo menos un parámetro (R, \beta
y \alpha) que caracteriza una transformación por
reflexión, rotación o escalado, y la selección de unos elementos que
presentan un conjunto de relaciones de posición (d_{i'} y
d_{i}'') que está transformado con respecto al conjunto de
relaciones de posición (d_{i}) de los elementos seleccionados del
primer conjunto ordenado, de conformidad con el parámetro o los
parámetros.
2. Procedimiento para analizar un patrón (A)
representado por un conjunto ordenado de elementos (x_{i}),
presentando cada uno un valor, que comprende la realización
iterativa de las etapas siguientes:
- (i)
- seleccionar una primera pluralidad de elementos del primer conjunto ordenado;
- (ii)
- para cada elemento seleccionado del conjunto ordenado, seleccionar otro elemento del conjunto ordenado, de tal forma que los otros elementos seleccionados del conjunto ordenado presentan, dentro del conjunto ordenado, un conjunto de relaciones de posición mutuas que es igual, o es una transformación del conjunto de relaciones de posición que presentan entre sí la primera pluralidad de elementos seleccionados del conjunto ordenado;
- (iii)
- comparar el valor de cada uno de los primeros elementos seleccionados del conjunto ordenado con el valor del otro elemento seleccionado situado en una posición correspondiente del conjunto ordenado, de conformidad con un criterio de coincidencia predeterminado para decidir si la primera pluralidad seleccionada de elementos del conjunto ordenado coincide o no con la pluralidad seleccionada de los otros elementos del conjunto ordenado;
- (iv)
- en caso de que se produzca una coincidencia, actualizar por lo menos una puntuación de similitud (S_{AA});
caracterizado porque la etapa de
selección de los otros elementos del conjunto ordenado comprende la
selección de un valor para por lo menos un parámetro (R, \beta y
\alpha) que caracteriza una transformación por reflexión,
rotación o escalado, y la selección de elementos que presentan un
conjunto de relaciones de posición (d_{i'} y d_{i}'') que está
transformado con respecto al conjunto de relaciones de posición
(d_{i}) de los primeros elementos seleccionados del conjunto
ordenado, de conformidad con el parámetro o los parámetros.
3. Procedimiento según la reivindicación 1 ó 2,
en el que la selección de una pluralidad de elementos del primer
conjunto ordenado del conjunto ordenado es aleatoria o
pseudoaleatoria.
4. Procedimiento según la reivindicación 1, 2 ó
3, en el que la selección del parámetro o los parámetros es
aleatoria o pseudoaleatoria.
5. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el parámetro o uno de dichos
parámetros (R) determina si debe aplicarse o no una reflexión a las
relaciones de posición.
6. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el parámetro o uno de dichos
parámetros (\beta) determina si debe aplicarse y en qué grado debe
aplicarse una rotación a las relaciones de posición.
\newpage
7. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que el parámetro o uno de dichos
parámetros (\alpha) determina si debe aplicarse y en qué grado
debe aplicarse un escalado a las relaciones de posición.
8. Procedimiento según cualquiera de las
reivindicaciones anteriores, que comprende el análisis de los
valores de los parámetros que dan como resultado una
coincidencia.
9. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que las selecciones de los
elementos del primer conjunto ordenado determinan que su dimensión,
dentro del conjunto ordenado, esté sesgada hacia una dimensión
pequeña en lugar de una dimensión grande.
10. Procedimiento según la reivindicación 9, que
comprende la definición de una zona delimitada del primer conjunto
ordenado, presentando dicha zona delimitada un tamaño seleccionado
aleatoriamente (D), y la restricción de la selección de los
elementos de tal forma que los elementos seleccionados se hallen
todos dentro de la zona delimitada definida.
11. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que, en cada iteración, el número
de elementos (m) que se van a seleccionar del primer conjunto
ordenado se selecciona aleatoriamente, y en el que, en la etapa de
actualización de la puntuación, la puntuación se incrementa en una
cantidad que es una función de incremento monotónico del número (m)
de elementos.
12. Procedimiento según la reivindicación 11, en
el que la función del número (m) de elementos es igual al número de
elementos.
13. Procedimiento según la reivindicación 11, en
el que la función se incrementa más rápidamente que el número (m)
de elementos.
14. Procedimiento según cualquiera de las
reivindicaciones anteriores, en el que cada valor (a) comprende una
pluralidad de componentes.
15. Procedimiento según cualquiera de las
reivindicaciones anteriores, que comprende en primer lugar el
procesamiento del primer y el segundo conjunto ordenado para
identificar zonas de los mismos que contienen detalles
significativos, y en el que la selección de los elementos se
restringe para que por lo menos uno de los elementos seleccionados
del primer conjunto ordenado se halle en la zona o una de las zonas
identificadas del primer conjunto ordenado, y/o para que por lo
menos uno de los elementos seleccionados del primer conjunto
ordenado se halle en la zona o una de las zonas identificadas del
primer conjunto ordenado.
16. Procedimiento según cualquiera de las
reivindicaciones anteriores, que comprende el análisis de los
valores de las posiciones de los elementos seleccionados que dan
como resultado una coincidencia.
Applications Claiming Priority (4)
| Application Number | Priority Date | Filing Date | Title |
|---|---|---|---|
| GB0420727 | 2004-09-17 | ||
| GB0420727A GB0420727D0 (en) | 2004-09-17 | 2004-09-17 | Comparison of patterns |
| GB0503944 | 2005-02-25 | ||
| GB0503944A GB0503944D0 (en) | 2005-02-25 | 2005-02-25 | Comparison of patterns |
Publications (1)
| Publication Number | Publication Date |
|---|---|
| ES2312010T3 true ES2312010T3 (es) | 2009-02-16 |
Family
ID=36059728
Family Applications (1)
| Application Number | Title | Priority Date | Filing Date |
|---|---|---|---|
| ES05775541T Expired - Lifetime ES2312010T3 (es) | 2004-09-17 | 2005-08-26 | Analisis de patrones. |
Country Status (6)
| Country | Link |
|---|---|
| US (1) | US7620249B2 (es) |
| EP (1) | EP1789910B1 (es) |
| AT (1) | ATE404938T1 (es) |
| DE (1) | DE602005008993D1 (es) |
| ES (1) | ES2312010T3 (es) |
| WO (1) | WO2006030173A1 (es) |
Families Citing this family (12)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| CA2479223C (en) | 2002-03-22 | 2012-09-04 | British Telecommunications Public Limited Company | Comparing patterns |
| US7546236B2 (en) | 2002-03-22 | 2009-06-09 | British Telecommunications Public Limited Company | Anomaly recognition method for data streams |
| GB0229625D0 (en) | 2002-12-19 | 2003-01-22 | British Telecomm | Searching images |
| GB0328326D0 (en) | 2003-12-05 | 2004-01-07 | British Telecomm | Image processing |
| ATE404938T1 (de) | 2004-09-17 | 2008-08-15 | British Telecomm | Analyse von mustern |
| EP1732030A1 (en) * | 2005-06-10 | 2006-12-13 | BRITISH TELECOMMUNICATIONS public limited company | Comparison of patterns |
| WO2007012798A1 (en) | 2005-07-28 | 2007-02-01 | British Telecommunications Public Limited Company | Image analysis |
| EP1798961A1 (en) | 2005-12-19 | 2007-06-20 | BRITISH TELECOMMUNICATIONS public limited company | Method for focus control |
| US9268025B2 (en) * | 2012-08-09 | 2016-02-23 | Massachusetts Institute Of Technology | Fast transform based offset determination |
| US20140358821A1 (en) * | 2013-05-28 | 2014-12-04 | Min MIN | Robust Method for Portfolio Management |
| US9245192B2 (en) | 2013-09-20 | 2016-01-26 | Here Global B.V. | Ad collateral detection |
| US9639954B2 (en) * | 2014-10-27 | 2017-05-02 | Playsigh Interactive Ltd. | Object extraction from video images |
Family Cites Families (47)
| Publication number | Priority date | Publication date | Assignee | Title |
|---|---|---|---|---|
| JP3049997B2 (ja) | 1993-07-14 | 2000-06-05 | 松下電器産業株式会社 | 形状検出方法 |
| DE2256617C3 (de) | 1971-11-19 | 1978-08-31 | Hitachi, Ltd., Tokio | Einrichtung zur Analyse einer Vorlage |
| EP0062066B1 (en) | 1980-10-20 | 1988-01-20 | De La Rue Printrak, Inc. | Fingerprint minutiae matcher |
| EP0098152B1 (en) | 1982-06-28 | 1988-12-28 | Nec Corporation | Method and device for matching fingerprints |
| US5113454A (en) | 1988-08-19 | 1992-05-12 | Kajaani Electronics Ltd. | Formation testing with digital image analysis |
| GB8821024D0 (en) | 1988-09-07 | 1988-10-05 | Etherington H J | Image recognition |
| JPH03238533A (ja) | 1990-02-15 | 1991-10-24 | Nec Corp | マイクロコンピュータ |
| JPH03238566A (ja) | 1990-02-15 | 1991-10-24 | Nissan Motor Co Ltd | 消点検出装置 |
| US5200820A (en) | 1991-04-26 | 1993-04-06 | Bell Communications Research, Inc. | Block-matching motion estimator for video coder |
| JP3106006B2 (ja) | 1992-06-24 | 2000-11-06 | キヤノン株式会社 | 電子スチルカメラ |
| US5303885A (en) | 1992-12-14 | 1994-04-19 | Wade Lionel T | Adjustable pipe hanger |
| JP3057981B2 (ja) | 1992-12-25 | 2000-07-04 | オムロン株式会社 | 画像処理装置及びそれを用いた複写機 |
| US5790413A (en) | 1993-03-22 | 1998-08-04 | Exxon Chemical Patents Inc. | Plant parameter detection by monitoring of power spectral densities |
| JPH0799658A (ja) * | 1993-08-03 | 1995-04-11 | Sony Corp | 動きベクトル検出装置 |
| US6169995B1 (en) | 1994-03-17 | 2001-01-02 | Hitachi, Ltd. | Link information maintenance management method |
| JPH08248303A (ja) | 1995-03-07 | 1996-09-27 | Minolta Co Ltd | 焦点検出装置 |
| CA2148340C (en) | 1995-05-01 | 2004-12-07 | Gianni Di Pietro | Method and apparatus for automatically and reproducibly rating the transmission quality of a speech transmission system |
| GB2305050A (en) | 1995-09-08 | 1997-03-26 | Orad Hi Tec Systems Ltd | Determining the position of a television camera for use in a virtual studio employing chroma keying |
| JP3002721B2 (ja) | 1997-03-17 | 2000-01-24 | 警察庁長官 | 図形位置検出方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体 |
| US6215898B1 (en) | 1997-04-15 | 2001-04-10 | Interval Research Corporation | Data processing system and method |
| JP3580670B2 (ja) | 1997-06-10 | 2004-10-27 | 富士通株式会社 | 入力画像を基準画像に対応付ける方法、そのための装置、及びその方法を実現するプログラムを記憶した記憶媒体 |
| US6078680A (en) | 1997-07-25 | 2000-06-20 | Arch Development Corporation | Method, apparatus, and storage medium for detection of nodules in biological tissue using wavelet snakes to characterize features in radiographic images |
| CA2332118A1 (en) | 1998-05-18 | 1999-11-25 | Swami Manickam | Image recognition and correlation system |
| US6240208B1 (en) | 1998-07-23 | 2001-05-29 | Cognex Corporation | Method for automatic visual identification of a reference site in an image |
| CA2372124C (en) | 1998-11-25 | 2008-07-22 | Iridian Technologies, Inc. | Fast focus assessment system and method for imaging |
| US6282317B1 (en) | 1998-12-31 | 2001-08-28 | Eastman Kodak Company | Method for automatic determination of main subjects in photographic images |
| US6480629B1 (en) * | 1999-04-06 | 2002-11-12 | Koninklijke Philips Electronics N.V. | Motion estimation method using orthogonal-sum block matching |
| US6389417B1 (en) | 1999-06-29 | 2002-05-14 | Samsung Electronics Co., Ltd. | Method and apparatus for searching a digital image |
| US6839454B1 (en) | 1999-09-30 | 2005-01-04 | Biodiscovery, Inc. | System and method for automatically identifying sub-grids in a microarray |
| WO2001029257A2 (en) | 1999-10-22 | 2001-04-26 | Genset | Methods of genetic cluster analysis |
| US6499009B1 (en) | 1999-10-29 | 2002-12-24 | Telefonaktiebolaget Lm Ericsson | Handling variable delay in objective speech quality assessment |
| US20010013895A1 (en) | 2000-02-04 | 2001-08-16 | Kiyoharu Aizawa | Arbitrarily focused image synthesizing apparatus and multi-image simultaneous capturing camera for use therein |
| WO2001061648A2 (en) | 2000-02-17 | 2001-08-23 | British Telecommunications Public Limited Company | Visual attention location system |
| EP1126411A1 (en) | 2000-02-17 | 2001-08-22 | BRITISH TELECOMMUNICATIONS public limited company | Visual attention location system |
| US6778699B1 (en) | 2000-03-27 | 2004-08-17 | Eastman Kodak Company | Method of determining vanishing point location from an image |
| JP2002050066A (ja) | 2000-08-01 | 2002-02-15 | Nec Corp | 光ピックアップ回路及び光ピックアップ方法 |
| AU2001284171A1 (en) | 2000-09-08 | 2002-03-22 | British Telecommunications Public Limited Company | Analysing a moving image |
| US6670963B2 (en) | 2001-01-17 | 2003-12-30 | Tektronix, Inc. | Visual attention model |
| WO2002098137A1 (en) | 2001-06-01 | 2002-12-05 | Nanyang Technological University | A block motion estimation method |
| US6996291B2 (en) * | 2001-08-06 | 2006-02-07 | Mitutoyo Corporation | Systems and methods for correlating images in an image correlation system with reduced computational loads |
| EP1286539A1 (en) | 2001-08-23 | 2003-02-26 | BRITISH TELECOMMUNICATIONS public limited company | Camera control |
| US7546236B2 (en) | 2002-03-22 | 2009-06-09 | British Telecommunications Public Limited Company | Anomaly recognition method for data streams |
| CA2479223C (en) | 2002-03-22 | 2012-09-04 | British Telecommunications Public Limited Company | Comparing patterns |
| DE10251787A1 (de) | 2002-11-05 | 2004-05-19 | Philips Intellectual Property & Standards Gmbh | Verfahren, Vorrichtung und Computerprogramm zur Erfassung von Punktkorrespondenzen in Punktmengen |
| GB0229625D0 (en) | 2002-12-19 | 2003-01-22 | British Telecomm | Searching images |
| GB0328326D0 (en) | 2003-12-05 | 2004-01-07 | British Telecomm | Image processing |
| ATE404938T1 (de) | 2004-09-17 | 2008-08-15 | British Telecomm | Analyse von mustern |
-
2005
- 2005-08-26 AT AT05775541T patent/ATE404938T1/de not_active IP Right Cessation
- 2005-08-26 EP EP05775541A patent/EP1789910B1/en not_active Expired - Lifetime
- 2005-08-26 DE DE602005008993T patent/DE602005008993D1/de not_active Expired - Lifetime
- 2005-08-26 ES ES05775541T patent/ES2312010T3/es not_active Expired - Lifetime
- 2005-08-26 WO PCT/GB2005/003339 patent/WO2006030173A1/en not_active Ceased
- 2005-08-26 US US11/661,984 patent/US7620249B2/en not_active Expired - Fee Related
Also Published As
| Publication number | Publication date |
|---|---|
| ATE404938T1 (de) | 2008-08-15 |
| EP1789910B1 (en) | 2008-08-13 |
| US7620249B2 (en) | 2009-11-17 |
| US20080075372A1 (en) | 2008-03-27 |
| WO2006030173A1 (en) | 2006-03-23 |
| EP1789910A1 (en) | 2007-05-30 |
| DE602005008993D1 (de) | 2008-09-25 |
Similar Documents
| Publication | Publication Date | Title |
|---|---|---|
| Jégou et al. | Improving bag-of-features for large scale image search | |
| Lin et al. | Facet segmentation-based line segment extraction for large-scale point clouds | |
| Van Der Maaten | Barnes-hut-sne | |
| Penatti et al. | Visual word spatial arrangement for image retrieval and classification | |
| Salti et al. | SHOT: Unique signatures of histograms for surface and texture description | |
| Zhao et al. | Completed robust local binary pattern for texture classification | |
| KR101343902B1 (ko) | 인덱싱 및 데이터베이스 검색 시스템 | |
| JP3053388B2 (ja) | 指紋画像特色相関器 | |
| Matei et al. | Rapid object indexing using locality sensitive hashing and joint 3D-signature space estimation | |
| ES2312010T3 (es) | Analisis de patrones. | |
| Davis et al. | An empirical evaluation of generalized cooccurrence matrices | |
| ES2306153T3 (es) | Identificacion de caracteristicas de imagenes. | |
| Tsuji et al. | A structural analyzer for a class of textures | |
| US20100329556A1 (en) | Image conversion method and apparatus, and pattern identification method and apparatus | |
| Jang et al. | Fast line segment grouping method for finding globally more favorable line segments | |
| US12067756B2 (en) | Efficient calculation of a robust signature of a media unit | |
| Wu et al. | An efficient visual loop closure detection method in a map of 20 million key locations | |
| US7542624B1 (en) | Window-based method for approximating the Hausdorff in three-dimensional range imagery | |
| Shen et al. | Satellite objects extraction and classification based on similarity measure | |
| Jain et al. | A novel fingerprint indexing scheme using dynamic clustering | |
| Fleuret et al. | Graded learning for object detection | |
| Chugh et al. | Plant leaf image identification with texture features using microstructure descriptor | |
| CN114842543B (zh) | 三维人脸识别方法、装置、电子设备及存储介质 | |
| Tortorici et al. | Representing and analyzing relief patterns using LBP variants on mesh manifold | |
| WO2006061365A1 (en) | Face recognition using features along iso-radius contours |