ES2312010T3 - Analisis de patrones. - Google Patents

Analisis de patrones. Download PDF

Info

Publication number
ES2312010T3
ES2312010T3 ES05775541T ES05775541T ES2312010T3 ES 2312010 T3 ES2312010 T3 ES 2312010T3 ES 05775541 T ES05775541 T ES 05775541T ES 05775541 T ES05775541 T ES 05775541T ES 2312010 T3 ES2312010 T3 ES 2312010T3
Authority
ES
Spain
Prior art keywords
elements
ordered set
ordered
value
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
ES05775541T
Other languages
English (en)
Inventor
Frederick Warwick Michael Stentiford
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
British Telecommunications PLC
Original Assignee
British Telecommunications PLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB0420727A external-priority patent/GB0420727D0/en
Priority claimed from GB0503944A external-priority patent/GB0503944D0/en
Application filed by British Telecommunications PLC filed Critical British Telecommunications PLC
Application granted granted Critical
Publication of ES2312010T3 publication Critical patent/ES2312010T3/es
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING OR CALCULATING; COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Medical Informatics (AREA)
  • Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Image Analysis (AREA)
  • Holo Graphy (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

Procedimiento para comparar un primer patrón (A) representado por un primer conjunto ordenado de elementos (xi), presentando cada uno un valor, con un segundo patrón (B) representado por un segundo conjunto ordenado de elementos (ui), presentando cada uno un valor, que comprende la realización iterativa de las etapas siguientes: (i) seleccionar una pluralidad de elementos del primer conjunto ordenado; (ii) para cada elemento seleccionado del primer conjunto ordenado, seleccionar un elemento del segundo conjunto ordenado, de tal forma que los elementos seleccionados del segundo conjunto ordenado presentan, dentro del segundo conjunto ordenado, un conjunto de relaciones de posiciones mutuas que es igual al, o es una transformación del, conjunto de relaciones de posición que presentan entre sí la pluralidad seleccionada de elementos del primer conjunto ordenado; (iii) comparar el valor de cada uno de los elementos seleccionados del primer conjunto ordenado con el valor del elemento seleccionado situado en una posición correspondiente del segundo conjunto ordenado, de conformidad con un criterio de coincidencia predeterminado para decidir si la pluralidad seleccionada de elementos del primer conjunto ordenado coincide o no con la pluralidad seleccionada de elementos del segundo conjunto ordenado; (iv) en caso de que se produzca una coincidencia, actualización de por lo menos una puntuación de similitud (SAB); caracterizado porque la etapa de selección de los elementos del segundo conjunto ordenado comprende la selección de un valor para por lo menos un parámetro (R, beta y alfa) que caracteriza una transformación por reflexión, rotación o escalado, y la selección de unos elementos que presentan un conjunto de relaciones de posición (di'' y di'''') que está transformado con respecto al conjunto de relaciones de posición (di) de los elementos seleccionados del primer conjunto ordenado, de conformidad con el parámetro o los parámetros.

Description

Análisis de patrones.
La presente invención se refiere a la comparación de un patrón con otro, o de un patrón con sí mismo, y tiene particular interés en la comparación de los patrones bidimensionales, tales como imágenes visuales, aunque también es aplicable a los patrones unidimensionales y los patrones tridimensionales o de más dimensiones. En las propuestas de reconocimiento de patrones habituales, se utilizan plantillas para reconocer y clasificar los patrones [1]. Dichas plantillas adoptan muchas formas pero normalmente se generan mediante un análisis estadístico de los datos de aprendizaje y se comparan con datos no estudiados utilizando una medida de similitud [2]. El análisis estadístico se realiza normalmente con respecto a un grupo de rasgos seleccionados intuitivamente que parecen satisfacer las necesidades de la tarea de reconocimiento. Por ejemplo, en el reconocimiento de voz pueden encapsularse plantillas como modelos ocultos de Markov obtenidos en el dominio de la frecuencia, y en el reconocimiento óptico de caracteres las plantillas adoptan la forma de las propias fuentes de los caracteres. En el caso del reconocimiento facial, se utiliza un conjunto de rasgos elegidos intuitivamente, tales como la textura de la piel, el color de la piel y el registro de rasgos faciales para definir las plantillas faciales [5]. En una aplicación de vigilancia por CCTV, los intrusos se detectan normalmente a través de un procedimiento de sustracción de tramas y de modelizado con plantilla de fondo que detecta el movimiento y elimina los efectos de fondo del procesamiento [3]. En muchos casos, el número de rasgos determina que el procedimiento sea difícil de manejar desde el punto de vista informático, recurriéndose entonces al análisis de componentes principales y otras técnicas para mitigar el problema sin reducir significativamente el rendimiento [http://www.peertek.com/index.html]. Estas propuestas obtienen resultados muy positivos en entornos sin ruido pero fallan cuando la variabilidad de patrones y el número de clases de patrones se incrementa.
En las solicitudes de patente anteriores indicadas a continuación se describen algunas técnicas de análisis de imágenes u otro tipo de patrones en las que el patrón se compara con otras partes del mismo patrón:
Solicitud de patente europea 00301262.2 (n.º de publicación 1126411);
Solicitud de patente internacional PCT/GB01/00504 (n.º de publicación WO 01/61648);
Solicitud de patente internacional PCT/GB01/03802 (n.º de publicación WO 02/21448);
Solicitud de patente US 977.263/09, presentada el 16 de octubre de 2001 (n.º de publicación 20020081033);
así como los siguientes documentos publicados por el inventor:
Stentiford F W M, "An estimator for visual attention through competitive novelty with application to image compression", Proc. Picture Coding Symposium 2001, Seoul, 25 a 27 de abril, pp. 101 - 104, 2001.
Stentiford F W M, "An evolutionary programming approach to the simulation of visual attention", Proc. Congress on Evolutionary Computation 2001, Seoul, pp. 851 - 858, 27 a 30 de mayo de 2001.
Stentiford F W M, "An attention based similarity measure for fringerprint retrieval", Proc. 4th European Workshop on Image Analysis for Multimedia Interactive Service, 9 de abril de 2003, pp. 27-30.
\vskip1.000000\baselineskip
Los procedimientos y aparatos para comparar patrones expuestos en el preámbulo de la reivindicación 1 se describen en la solicitud de patente internacional WO 03/081523.
Chang S-H et al., "Fast algorithm for point pattern matching: invariant to translations, rotations and scale changes", Pattern Recognition, vol. 30, n.º 2, (febrero de 1997), pp. 311-320, describe propuestas para el reconocimiento de patrones en las que se tienen en cuenta las diferencias de rotación y escalado, pero estas propuestas no se prestan a combinarse con los procedimientos considerados actualmente.
Los aspectos de la presente invención se exponen en las reivindicaciones.
A continuación, se describirán algunas formas de realización de la presente invención haciendo referencia a los dibujos adjuntos, en los que:
la figura 1 es un diagrama de bloques de un aparato para realizar la presente invención;
la figura 2 es un diagrama que ilustra el funcionamiento de la presente invención;
la figura 3 es un diagrama de flujo de las etapas que realiza el aparato de la figura 1 según una primera forma de realización de la presente invención;
la figura 4 es un diagrama de flujo de las etapas que realiza el aparato de la figura 1 según una segunda forma de realización de la presente invención y
la figura 5 ilustra un par de imágenes.
La figura 1 representa un aparato que consta de un ordenador de uso general programado para realizar el análisis de imágenes según una primera forma de realización de la presente invención. El aparato comprende un bus 1, al cual se conecta una unidad central de procesamiento 2, una pantalla 3, un teclado 4, un escáner 5 (u otro tipo de dispositivo, no representado) para la entrada de imágenes y una memoria 6.
En la memoria 6 se almacena un sistema operativo 601, un programa 602 para realizar el análisis de imágenes y unas áreas de almacenamiento 603 y 604 para almacenar dos imágenes, denominadas imagen A e imagen B. Cada imagen se almacena como una matriz bidimensional de valores, en la que cada valor representa el brillo de un elemento de imagen de la matriz. Debe observarse, no obstante, que de una manera más general el aparato puede estar dispuesto para analizar conjuntos de datos distintos a las imágenes, en cuyo caso las áreas de almacenamiento 603 y 604 contendrán cada una un conjunto de datos A y B, cada uno de los cuales consta de un conjunto de valores ordenados en cualquier número de dimensiones (el mismo número de dimensiones en cada conjunto).
Las matrices de imagen se representan esquemáticamente en las figuras 2a y 2b. La imagen A consta de una matriz de elementos de imagen x_{i} = (x_{i}, y_{i}), siendo x_{i} e y_{i} las posiciones horizontal y vertical de los elementos de la imagen. Se representa una matriz 20x20 por motivos ilustrativos. En el caso general, x_{i} = (x_{i1}, x_{i2}, x_{i3}, ..., x_{in}), siendo x_{il} las n coordenadas de x_{l} en n dimensiones. Cada elemento tiene un respectivo valor a = a (x_{i}). Este valor puede ser un valor escalar \alpha o un valor vectorial (de varias dimensiones) a. En el caso de una imagen, estos valores serán el brillo \alpha o bien un conjunto de componentes de color, tales como (en representación RGB) a = (\alpha_{r}, \alpha_{g}, \alpha_{b}). Análogamente, la imagen B consta de una matriz de elementos de imagen u_{i} = (u_{i}, v_{i}) que tienen valores de brillo b(u_{i}). En el caso general,
u_{i} = (u_{i1}, u_{i2}, u_{i3}, ..., u_{in}).
La figura 3 es un diagrama de flujo que describe la aplicación del procedimiento aplicado a las imágenes bidimensionales A y B. En la etapa 200, la puntuación S_{AB} se pone a cero y en la etapa 201 el contador t se pone a cero.
La primera tarea del procedimiento consiste en realizar una selección aleatoria de los elementos de la imagen A. Esto puede visualizarse como la acción de pinchar la imagen con una horquilla de m puntas. El número m concreto de elementos puede seleccionarse (etapa 202) aleatoriamente dentro del rango m_{min} \leq m \leq m_{max} o puede ser fijo, en cuyo caso la etapa 202 se omite. El tamaño de la horquilla está limitado por un diámetro D seleccionado como un número aleatorio D_{min} \leq D \leq D_{max} (etapa 203). Más adelante se describen otras maneras de variar la distribución del tamaño de las horquillas. Debe tenerse en cuenta, que en la presente memoria, las referencias a una selección aleatoria también prevén la posibilidad de una selección por medio de un procedimiento pseudoaleatorio. Asimismo, una referencia a una selección aleatoria no solo prevé la posibilidad de una selección aleatoria en la que la selección de cualquier valor (dentro del rango indicado) es igualmente probable, sino también la posibilidad de una selección en la que la distribución de probabilidad no es uniforme.
En la etapa 204, se selecciona un conjunto N_{x} de m elementos de posiciones x_{i} aleatorias, sujeto a la restricción de que todos los elementos deben estar comprendidos dentro de la imagen y que todos los elementos deben circunscribirse a un área circular de diámetro D. Un procedimiento posible para realizar esta acción comprende las subetapas siguientes:
2041 Elección de un elemento aleatorio x_{0} de A.
2042 Elección de un conjunto de desplazamientos aleatorios d_{i} = (d_{xi}, d_{yi}), siendo 0 \leq d_{xi} \leq D/2 y 0 \leq d_{yi} \leq D/2.
2043 Si la distancia euclídea |d_{i}| \leq D/2, entonces, continuación; en caso contrario, repetición de la etapa previa hasta que se cumple esta condición (siendo |d_{i}| = \surd{d_{xi}^{2} + d_{yi}^{2}}.
2044 Cálculo de las posiciones x_{i} = x_{0} + d_{i}.
2045 Si algún x_{i} se halla fuera del área de la imagen, repetición de las etapas 2042 a 2045 con respecto al valor d_{i} no válido.
\vskip1.000000\baselineskip
Debe observarse que este procedimiento permite la presencia de uno o más pares x_{i} = x_{j} i\neqj, es decir, los valores x_{i} no están limitados a ser diferentes. Esto no es censurable en la práctica, pero si se desea puede eliminarse haciendo las correspondientes pruebas y deseleccionando un elemento del par coincidente de la misma manera que se hace con los elementos que están fuera del área de la imagen.
En la siguiente etapa (etapa 205), se realiza una selección N_{u} de m elementos u_{i} comprendidos dentro de la imagen B en una posición global aleatoria, pero con la misma posición relativa entre sí que los elementos seleccionados de la imagen A. Es decir, x_{i} - x_{j} = u_{i} - u_{j} para todos los valores de i y j. Esto puede visualizarse como la acción de pinchar la imagen B con la misma horquilla que la utilizada en la imagen A.
Suponiendo que se haya calculado un conjunto de desplazamientos d_{i} como se ha descrito anteriormente, esta etapa puede realizarse a través de las subetapas siguientes:
2051 Elección de un elemento aleatorio u_{0} de B.
2052 Cálculo de las posiciones u_{i} = u_{0} + d_{i}.
2053 Si algún elemento u_{i} está fuera del área de la imagen, repetición de las etapas 2051 y 2043 con respecto al valor d_{i} no válido.
En la etapa 206, se determina si cada uno de los elementos seleccionados de la imagen A coincide con el elemento que tiene la misma posición relativa en la imagen B. Cuando el valor asociado a cada elemento es un valor escalar, que en este caso representa el brillo, debe comprobarse si se cumple la condición para la coincidencia:
100
para todos los valores i = 1, ..., m
siendo \delta un valor umbral pequeño.
En el caso vectorial (p.ej, RGB), se produce una coincidencia si:
101
para todos los valores i = 1, ..., m
Dist es un operador de distancia (p.ej., euclídeo o de bloque de casas). Otra posibilidad es establecer umbrales para los componentes vectoriales por separado (p.ej., los componentes de color)
102
y
103
y
104
para todos los valores i = 1... m.
Si se produce una coincidencia, en la etapa 207 se incrementa la puntuación S_{AB}. Dicha puntuación puede incrementarse simplemente en una unidad (u otro valor fijo). Cuando m es variable, la puntuación puede incrementarse, si se desea, en m o alguna función de m (como se indicará más adelante).
Una vez que se ha actualizado la puntuación o si no se ha producido ninguna coincidencia, en la etapa 209 se comprueba si el contador de iteraciones t ha llegado al recuento máximo de iteraciones T y, en tal caso, el procedimiento termina. En caso contrario, el procedimiento vuelve a la etapa 202 para realizar otra iteración.
A continuación, se hará referencia al diámetro de la horquilla. Si se utilizan horquillas pequeñas, la puntuación o medida de similitud dependerá de las similitudes locales y adoptará valores altos si una imagen posee muchas zonas que son similares a las de la otra imagen. Los diámetros grandes dan más peso a las similitudes de gran escala entre las imágenes. Si se fija el diámetro D, entonces se obtiene cierta distribución estadística de los diámetros reales de las horquillas, que comprenden desde valores muy pequeños hasta el valor máximo permitido por el valor particular de D (el término "valor real del diámetro" se refiere al diámetro del círculo más pequeño que puede rodear todos los elementos x_{i} en una iteración particular). La selección aleatoria de D en el rango D_{min} \leq D \leq D_{max} permite diámetros reales de hasta D_{max} pero sesga su distribución estadística favoreciendo los diámetros reales inferiores a D_{min} a expensas de los diámetros comprendidos entre D_{min} y D_{max}.
Pueden diseñarse procedimientos alternativos para sesgar esta distribución (incluida la posibilidad de favorecer horquillas de mayor tamaño); por ejemplo, se puede utilizar un valor fijo de D y entonces, para cada selección de u conjunto de valores d_{i} (i = 1, ..., m), se puede calcular el diámetro real (o una estimación de éste, tal como \surd[Max(d_{xi}) - Min(d_{xi})]^{2} + [Max(d_{yi}) - Min(d_{yi})]^{2}) y rechazar o no el conjunto con una probabilidad correspondiente a una función deseada del diámetro actual.
Haciendo referencia de nuevo a la etapa de incremento de puntuación, en el caso de un m variable, el valor informativo de una coincidencia crece de conformidad con su rareza. Por lo tanto, una coincidencia obtenida utilizando una horquilla con muchas puntas es más significativa que una obtenida utilizando pocas puntas. De ahí la recomendación anterior de aplicar un incremento m a la coincidencia. De manera más general, se puede incrementar la puntuación mediante alguna función de incremento monotónico f(m) de m en lugar del propio valor m. Por ejemplo, pueden utilizarse funciones que aumentan más rápidamente que el propio m (tales como m^{2} o 2^{m}).
Se hace referencia a continuación a una segunda forma de realización de la presente invención, que introduce un conjunto de transformaciones adicionales a la horquilla aplicada a la imagen B. La descripción siguiente omite la variación aleatoria de m y D descrita anteriormente, aunque éstas podrían incluirse (o no) si se desea.
La idea en la cual se basa esta forma de realización es la de permitir la obtención de coincidencias y, por consiguiente, de contribuciones a la puntuación total que se va a generar, en situaciones en las que un rasgo aparece en una imagen, mientras que en otra imagen aparece un rasgo similar, pero de tamaño diferente, en posición invertida o sometido a una rotación con respecto al rasgo de la primera imagen. Esto se consigue aplicando a la imagen B una horquilla que no es igual a la aplicada a la imagen A, sino que es una versión de ésta sometida a escalado, inversión o rotación.
La figura 4 representa un diagrama de flujo. Las etapas que son idénticas a las de la figura 3 se designar mediante los mismos números de referencia.
Las etapas 2041 a 2045 no se representan explícitamente.
Después de la etapa 204, se aplica una reflexión aleatoria a la horquilla, de la siguiente forma:
Se elige un entero aleatorio R de valor 0 ó 1;
Si R = 1, entonces se establece d_{xi} = d_{xi} para todos los valores i = m. Los valores d_{yi} no cambian.
La reflexión anterior es una reflexión alrededor de un solo eje vertical. Para abarcar las reflexiones alrededor de otros ejes, a esta reflexión debe añadírsele la etapa de rotación siguiente.
En la etapa 211, se selecciona un ángulo de rotación aleatorio \beta del rango comprendido entre \beta_{max} y \beta_{min}. A continuación (etapa 212), se aplica una rotación de este ángulo a la horquilla representada por d_{t}, utilizando las siguientes ecuaciones para cada i:
105
En tercer lugar, en la etapa 213, se elige un factor de escala aleatorio \alpha del rango comprendido entre \alpha_{max} y \alpha_{min}. En la etapa 214, la horquilla se escala con este factor:
106
El escalado y la rotación se realizan con referencia al punto (0,0), aunque el escalado o la rotación en torno a otro centro son igualmente posibles.
Si así se desea, es posible definir \alpha_{x} y \alpha_{y} por separado en las direcciones X e Y, para detectar versiones más largas o más altas de las mismas formas.
A continuación, en la etapa 215, se determinan los elementos u_{i}. Esta etapa es idéntica a la etapa 205, excepto porque utiliza el valor d_{i}'' transformado en lugar de d_{i}. Debe observarse que existe la posibilidad de que la selección de las transformaciones, o incluso de d_{i}, pueda determinar que sea más difícil o incluso imposible hallar, en la etapa 215 (que comprende las subetapas 2051 a 2053 descritas anteriormente), una posición u_{0} que permita que todos los elementos u_{i} estén comprendidos dentro de la imagen B. Por lo tanto, aunque no se representa en el diagrama de flujo, tal vez sea necesario en tal caso volver a la etapa 210 para realizar una nueva selección de la transformación o las transformaciones o incluso volver a la etapa 204 para aplicar una horquilla completamente nueva.
Las etapas 206 a 209 son como las descritas anteriormente.
A título de ilustración, la figura 5 representa el caso bidimensional en el que se equipara una horquilla con m = 4 píxeles x de la imagen A con una horquilla de 4 píxeles u de la imagen B tras una rotación de 90º y una reducción a escala del 25%. Cada uno de los píxeles puede presentar tres intensidades de color, es decir a = (a_{r}, a_{g} y a_{b}), y entonces los píxeles u coinciden con los x si las intensidades de color de todos los m píxeles correspondientes presentan valores que están a una distancia \delta_{j} unos de otros.
Debe observarse que la reflexión, la rotación y el escalado son operaciones lineales que pueden realizarse en cualquier orden. La utilización de estas transformaciones aparte de la traslación determina que las similitudes estructurales entre las dos imágenes no queden ocultadas por la reflexión, la rotación o las diferencias de escala.
No es necesario emplear las tres transformaciones a la vez, sino que pueden utilizarse individualmente o de dos en dos. Es poco frecuente que se permita la reflexión pero no la rotación, aunque es posible. En caso de que se requiera la reflexión en torno a algún eje, pero no la rotación, entonces se puede modificar la etapa de reflexión para que ésta tenga lugar alrededor de un eje elegido aleatoriamente o, lo que viene a ser lo mismo, se puede mantener la etapa de rotación, pero omitirla cuando R = 0. Se puede decidir aplicar el escalado pero no la rotación en los casos en que se buscan similitudes invariables con el escalado pero no con la rotación (p.ej., tal vez se requiera diferenciar entre formas de diamantes y de cuadros).
En otra modificación, los valores de los parámetros resultantes de una coincidencia pueden registrarse. Una implementación sencilla de esta modificación puede consistir, por ejemplo, en registrar cada ángulo de rotación \beta que da por resultado una coincidencia. Se podría calcular el promedio de estos valores. Por ejemplo, un promedio de \beta de 22º podría ser útil como indicador de que la imagen B presenta una rotación de 20º con respecto a la imagen A. Una distribución de ángulos para cada coincidencia podría indicar la medida de simetría circular presente en ambas imágenes. Por ejemplo, las coincidencias de una pelota roja entre las imágenes A y B podrían producirse con cualquier rotación angular.
Puede aplicarse un procesamiento similar a los factores de escala \alpha.
En otro ejemplo, en caso de coincidencia se calcula la posición del centroide g_{x} de x_{i} y el centroide g_{u} de u_{i}. Calculando el promedio de g_{x} se obtiene la posición en la imagen A de una zona que es similar a la zona de una posición en la imagen B dada por el promedio de g_{u}. En la práctica, puesto que el centroide g es el promedio de x_{i} (o u_{i}), no es necesario calcular g y a continuación calcular su promedio (si m es constante), sino que basta con calcular el promedio de todas las x_{i} (o u_{i}). También en este caso, esta propuesta aporta resultados útiles solo si las coincidencias se producen principalmente a partir de una zona de cada imagen. Una propuesta más compleja consiste en determinar, para cada coincidencia, si las posiciones de los centroides g_{x} y g_{u} son similares a las del par de centroides registradas en una coincidencia previa. Por ejemplo, Dist(g_{x} - g_{x}') < e y Dist(g_{u} - g_{u}') < e, siendo Dist la distancia euclídea u otro tipo de operador de distancia, g_{x}' y g_{u}' el par de centroides correspondientes a una coincidencia anterior (o posiblemente un promedio deslizante de dichos centroides coincidentes anteriores) y e un umbral pequeño. Esto indica que en la coincidencia estaba implicada la misma zona que en la coincidencia anterior. A continuación, se puede continuar añadiendo el nuevo resultado al promedio solo si se cumple esta condición. Se puede calcular más de un promedio, para más de una zona diferente, pero para esto probablemente resulte más eficaz guardar los datos de cada coincidencia y procesarlos al final.
El conjunto de correspondencias de zonas puede utilizarse para efectuar el seguimiento de objetos entre tramas de vídeo o para obtener un registro no lineal entre imágenes (p.ej. el registro de mamografías tomadas en tiempos diferentes). Si se compara la imagen A simultáneamente con varias imágenes B, C, D, ..., Z, la medida de similitud puede utilizarse para detectar la presencia de objetos específicos o comparar el estado de las escenas con un conjunto de estados normales y anormales (p.ej., con fines de seguridad). De manera similar, el sistema puede utilizarse para identificar expresiones faciales o identidades faciales.
Podría aplicarse el mismo tipo de promediado, condicionado a la similitud de las posiciones de los centroides, al ángulo de rotación \beta. Dicho procedimiento podría indicar una fuerte similitud entre un cuadro y un diamante, aunque solo tras la aplicación de una transformación rotacional de 45º, 135º, 225º o 315º.
Los valores habituales de los diversos parámetros indicados anteriormente para las imágenes de 600x400 se indican a continuación:
m_{min}
1
m_{max}
20
D_{min}
1
D_{max}
Puede elegirse un valor más bajo para extraer similitudes de zona, o un valor más alto para extraer similitudes globales. Los valores pueden variar entre 10 y el valor más pequeño entre las anchuras y alturas de las dos imágenes.
\delta
30 (suponiendo que a se halla dentro del rango de 0 a 255)
\delta_{r}, \delta_{g}, \delta_{b} 30 (suponiendo que r, g, y b se hallan dentro del rango de 0 a 255)
T
20000
\beta_{min}
-90
\beta_{max}
+90
\alpha_{min}
0,5
\alpha_{max}
2
e
10
En el caso de las imágenes A y B, que contienen ambas grandes áreas lisas de brillo (o color) similar, puede obtenerse un gran número de coincidencias y, en consecuencia, una alta puntuación aunque pueda existir poca similitud entre las partes de la imagen que contienen detalle. En este caso, no es necesario realizar el procedimiento para toda la imagen. Por ejemplo, si se ha determinado que algunas zonas de las imágenes A y B tienen un interés particular, utilizando tal vez el procedimiento descrito en una de las solicitudes de patente anteriores mencionadas, entonces los elementos de imagen x y u descritos pueden simplemente hallarse en los alrededores de la zona determinada. Esto podría implementarse restringiendo la selección de x y u, de tal forma que por lo menos un elemento x_{i} sea un elemento de una zona de particular interés de la imagen A y por lo menos un elemento u_{i} sea un elemento de una zona de particular interés de la imagen B. Esto significa que cada coincidencia establece una relación similar en cada imagen entre el primer plano y el fondo o el fondo y el primer plano (si todas las puntas de las horquillas se hallan en píxeles de gran interés). Las horquillas de pequeño diámetro tenderán a obtener similitudes entre zonas localizadas de A y B, y las horquillas de mayor diámetro determinarán relaciones globales entre el primer plano y el fondo.
Los procedimientos descritos para dos dimensiones pueden aplicarse también a los datos unidimensionales, tales como las secuencias temporales de valores (p.ej., muestras de una señal de audio u otro tipo de señal). No obstante, la rotación carece de sentido en una dimensión. Asimismo, dichos procedimientos pueden aplicarse a datos de tres (o más) dimensiones, aunque la rotación requerirá especificar más ángulos (hasta n-1) si ésta debe realizarse alrededor de más de un eje. La rotación tiene sentido sólo si las dimensiones alteradas son de la misma categoría. Por lo tanto, un conjunto tridimensional de valores que representan una secuencia de imágenes visuales (x, y, t) (o un conjunto tetradimensional que representa una secuencia temporal de imágenes visuales tridimensionales (x, y, z, t)) podría hacerse girar solo alrededor de los ejes paralelos al eje temporal.
Discusión
El procedimiento realiza un análisis de pares individuales de imágenes y extrae una estructura que es común a ambas imágenes. La cantidad de estructura que es común a ambas imágenes provee una medida de su similitud. A diferencia de otros procedimientos, esta propuesta no utiliza las mediciones de rasgos predefinidos y no requiere conjuntos de imágenes de aprendizaje representativos y el procesamiento asociado para optimizar los parámetros de reconocimiento.
Diferencias de escala y orientación
Se pueden producir diferencias de escala y orientación en el dominio visual, debido a la perspectiva, al ángulo de visión y otros factores, siendo común la incorporación de información previa en el clasificador para compensar dichas diferencias. Dicha información previa no es necesaria en este procedimiento, ya que el procedimiento de comparación tiene en cuenta las diferencias generadas debido a la orientación y la escala de los objetos. Esto significa, por ejemplo, que el procedimiento puede aplicarse a los problemas de reconocimiento en los que el objeto que se desea reconocer está integrado en otra imagen. Por consiguiente, el procedimiento también puede aplicarse al problema de la detección de infracciones de derechos de autor en los casos en que se recortan partes del material de obras más grandes (p.ej., de arte), o a la tarea de reducir el tamaño de las bases de datos cuando se sabe que el duplicado se produce con frecuencia.
Distorsiones locales
A menos que se establezcan disposiciones para el contenido particular de los patrones, las propuestas de plantillas estándar para el reconocimiento de patrones fracasan cuando los patrones que se comparan difieren debido a distorsiones locales, o pequeños movimientos, como ocurre en el caso visual con la agitación de los árboles, el movimiento de las nubes, los cambios en las expresiones faciales, las huellas dactilares en la escena de un crimen sobre superficies irregulares o el ruido, por ejemplo. Dichas disposiciones requieren un conocimiento previo de la aplicación y seguirán provocando el fallo del sistema si las distorsiones locales sin procesar no se ajustan a los requisitos de diseño del sistema. El presente procedimiento es capaz de reducir al mínimo los efectos de las distorsiones locales sin conocimiento previo del tipo de distorsión.
Asimismo, el procedimiento puede aplicarse a patrones parciales que contienen espacios y omisiones. Por consiguiente, el procedimiento es directamente aplicable al problema de la identificación de las huellas dactilares en la escena de un crimen, en el que solo se dispone de una parte del conjunto de la huella para la confrontación. En el caso del reconocimiento facial, el procedimiento permite efectuar búsquedas basadas en partes restringidas de la cara desconocida. Esto significa, por ejemplo, que las búsquedas pueden basarse por completo en la zona de los ojos y la nariz, en los casos en que la barba y el bigote pueden provocar ambigüedades. No obstante, el rendimiento se degradará cada vez más a medida que las distorsiones y los espacios se incrementen, aunque sin sufrir una caída catastrófica.
Clasificación de las imágenes
El procedimiento puede utilizarse para calcular las puntuaciones de similitud entre una imagen y un conjunto de patrones de referencia. Las puntuaciones de similitud pueden utilizarse para formar grupos de dichos patrones procesando las puntuaciones de alta similitud unas en relación con las otras. Unos patrones preferidos, que presentan similitudes con otros patrones del grupo y que se obtienen a partir de cada grupo, pueden agruparse a su vez para formar supergrupos, y entonces el proceso puede continuar para estructurar bases de datos de patrones de gran tamaño. Se realiza una búsqueda tipo "consulta por ejemplo" midiendo las puntuaciones de similitud con cada uno de los patrones preferentes de nivel superior y, a continuación, con cada uno de los patrones preferentes de los subgrupos correspondientes al patrón preferente de puntuación más alta del grupo anterior. Es probable que algunos patrones preferentes representen grupos con elementos comunes en los casos en que los patrones presentan altas puntuaciones de similitud con más de un patrón preferente. Los patrones que pueden tratarse de esta manera comprenden caras y expresiones faciales. Esto puede aplicarse a la categorización de materiales manufacturados o procesados, tales como la arena y la grava. Cuando en un contexto militar se detecta un objeto volador, los valores de las puntuaciones de similitud permiten evaluar las probabilidades de que el objeto sea un pájaro o un avión.
El procedimiento puede aplicarse a patrones de cualquier dimensión, tales como señales de audio unidimensionales, datos de vídeo tridimensionales (x, y, tiempo) o vectores dependientes del tiempo de n dimensiones obtenidos desde cualquier fuente, tal como una agrupación de sensores. En reconocimiento de patrones, el procedimiento puede procesar variantes de la velocidad de la voz sin utilizar estrategias heurísticas especiales. En una propuesta convencional, se utiliza el alineamiento temporal dinámico para mitigar este problema, aunque esto supone iniciar una mayor cantidad de procesos informáticos y el peligro de que el procedimiento de alineamiento provoque un incremento de clasificaciones erróneas, en particular en un problema de gran alcance que abarca varias clases. Además, con este procedimiento es suficiente utilizar partes de los enunciados para identificar las palabras cuando éstas son exclusivas del dominio del discurso (p.ej. "yeah" en lugar de "yes", con pérdida de la última consonante sibilante).
Procesamiento de la disparidad
El procedimiento puede aplicarse al problema de la detección de la disparidad como en el caso de la detección del movimiento o el paralaje. Las propuestas estándar para la detección de la disparidad se basan en gran medida en el registro adecuado entre dos imágenes, de tal forma que la sustracción (que puede aplicarse por tramos en pequeñas áreas del conjunto de la imagen) tiene lugar entre píxeles que corresponden a los mismos puntos del objeto original ilustrado en las dos imágenes. La imagen de diferencia resultante resalta las áreas que corresponden a diferencias en las imágenes originales. Esto resulta sumamente difícil en presencia de ruido, puesto que se introduce incertidumbre en la estimación de la posición de registro correcta y, como consecuencia, pueden originarse muchas falsas diferencias. Incluso en ausencia de ruido, las distorsiones locales o los ligeros movimientos del sujeto pueden ocasionar registros erróneos y pueden determinar que se resalten áreas de diferencia que tienen poco interés, a menos que se mida la propia distorsión o movimiento. Las técnicas de registro de imágenes digitales lineales o no lineales aplicadas antes de la sustracción compensan parcialmente, aunque no eliminan, este problema en un gran porcentaje de casos [4]. Con este procedimiento, el registro se obtiene localizando las correspondencias entre zonas similares de un par de imágenes, utilizando rasgos que están presentes en ambas zonas, y haciendo omiso de las zonas que no se corresponden. Dichas correspondencias entre zonas de tramas consecutivas de un vídeo pueden aplicarse al problema del reconocimiento y el seguimiento de objetos en movimiento.
Este procedimiento también presenta la ventaja de permitir la detección de diversas disparidades, en la medida en que la imagen A se compara con las imágenes B, C, D, etc. Esto resulta útil en el caso de la detección de intrusos por CCTV, en la que las tramas de las imágenes B, C, D, etc. son ejemplos típicos de diferentes condiciones atmosféricas y otros estados de fondo normales, y en la que se activa una alarma solo si se detectan discrepancias en las tramas de imagen normales. Este procedimiento también es aplicable al problema de la medición de las semejanzas de las imágenes faciales.
Imagen única
Debe observarse que el procedimiento puede aplicarse al caso en el que la imagen A y la imagen B son idénticas. En realidad, si se desea, es posible almacenar una sola imagen A en el área de almacenamiento 603, manteniéndose el área de almacenamiento 604 como un área de almacenamiento redundante (las referencias anteriores a la imagen B deben sustituirse por referencias a la imagen A).
Cuando la imagen A es idéntica a la imagen B y el procedimiento realmente tiene en cuenta solo una imagen, puede generarse una puntuación de similitud alta (S_{AA}) a partir de la aplicación de la transformación de reflexión si existe simetría a través del eje de reflexión de la imagen. De forma parecida, también puede detectarse la simetría rotacional y la presencia de simetrías en perspectiva. Las distribuciones de los ángulos de los ejes de rotación y reflexión con los que se encuentran coincidencias indican las orientaciones de las simetrías presentes en la imagen. Las horquillas deberán incluir algunos píxeles de alta puntuación de atención, de lo contrario, puede parecer, por ejemplo, que grandes secciones de un fondo de cielo autocoincidente presentan simetrías triviales. Esto podría realizarse restringiendo el procedimiento al área o las áreas que se determina que tienen un interés particular, como se ha descrito anteriormente.
Implementación de hardware
Este algoritmo es sumamente adecuado para la implementación en paralelo, puesto que el procesamiento de cada horquilla de píxeles es independiente del procesamiento de otras horquillas. Esto significa que el procesamiento de las horquillas puede distribuirse a través de numerosas fuentes de cálculo independientes, obteniéndose de ese modo velocidades de procesamiento que solo están limitadas por la velocidad de captura de datos.
Algunas técnicas de análisis de imágenes realizan cálculos de comparación entre imágenes utilizando parches que son horquillas en las que se emplean todos los píxeles. Los parches coinciden cuando una medida de correlación sobrepasa cierto umbral. Estas propuestas no permiten aprovechar bien la estructura detallada cuyo tamaño es más pequeño que el del parche, excepto en el caso en el que la medida de correlación está diseñada para identificar un rasgo específico. Además, dichos parches son de un tamaño particular; por lo tanto, si son demasiado grandes, no coinciden en ningún lugar y, si son demasiado pequeños, coinciden en lugares erróneos. Las horquillas de píxeles dispersas N_{x} utilizadas en este procedimiento no experimentan estas restricciones.
Referencias
[1] Vailaya A. et al., Image Classification for Content-_Based Indexing, IEEE Trans on Image Processing, Vol 10, nº 1, págs 117 - 130, enero 2001.
[2] Santini S. & Jain R., Similarity Matching, in Proc 2nd Asian Conf on Computer Vision, páginas II 544-548, IEEE, 1995.
[3] IEEE Trans PAMI - Special Section on Video Surveillance, vol 22 nº 8, agosto 2000.
[4] Brown L. G., A survey of image registration techniques, ACM Computing Surveys, Vol._24, No. 4 (diciembre 1992), págs. 325-376.
[5] Zhao W., Chellappa R., Rosenfeld A., and Phillips P.J., "Face recognition: A literature survey." CVL Technical Report, University of Maryland, octubre 2000.
<ftp:_//ftp.cfar.umd.edu/TRs/CVL-_Reports-_2000/TR4167-_zhao.ps.gz>.
[6] Sebastian T.B., Klein P.N., and Kimia B.B., "Recognition of shapes by editing shock graphs," Proc ICCV 2001, págs 755-762. Fuente de datos en http:_//www.lems.brown.edu/_vision/_researchAreas/_SIID/_.

Claims (16)

1. Procedimiento para comparar un primer patrón (A) representado por un primer conjunto ordenado de elementos (x_{i}), presentando cada uno un valor, con un segundo patrón (B) representado por un segundo conjunto ordenado de elementos (u_{i}), presentando cada uno un valor, que comprende la realización iterativa de las etapas siguientes:
(i)
seleccionar una pluralidad de elementos del primer conjunto ordenado;
(ii)
para cada elemento seleccionado del primer conjunto ordenado, seleccionar un elemento del segundo conjunto ordenado, de tal forma que los elementos seleccionados del segundo conjunto ordenado presentan, dentro del segundo conjunto ordenado, un conjunto de relaciones de posiciones mutuas que es igual al, o es una transformación del, conjunto de relaciones de posición que presentan entre sí la pluralidad seleccionada de elementos del primer conjunto ordenado;
(iii)
comparar el valor de cada uno de los elementos seleccionados del primer conjunto ordenado con el valor del elemento seleccionado situado en una posición correspondiente del segundo conjunto ordenado, de conformidad con un criterio de coincidencia predeterminado para decidir si la pluralidad seleccionada de elementos del primer conjunto ordenado coincide o no con la pluralidad seleccionada de elementos del segundo conjunto ordenado;
(iv)
en caso de que se produzca una coincidencia, actualización de por lo menos una puntuación de similitud (S_{AB});
caracterizado porque la etapa de selección de los elementos del segundo conjunto ordenado comprende la selección de un valor para por lo menos un parámetro (R, \beta y \alpha) que caracteriza una transformación por reflexión, rotación o escalado, y la selección de unos elementos que presentan un conjunto de relaciones de posición (d_{i'} y d_{i}'') que está transformado con respecto al conjunto de relaciones de posición (d_{i}) de los elementos seleccionados del primer conjunto ordenado, de conformidad con el parámetro o los parámetros.
2. Procedimiento para analizar un patrón (A) representado por un conjunto ordenado de elementos (x_{i}), presentando cada uno un valor, que comprende la realización iterativa de las etapas siguientes:
(i)
seleccionar una primera pluralidad de elementos del primer conjunto ordenado;
(ii)
para cada elemento seleccionado del conjunto ordenado, seleccionar otro elemento del conjunto ordenado, de tal forma que los otros elementos seleccionados del conjunto ordenado presentan, dentro del conjunto ordenado, un conjunto de relaciones de posición mutuas que es igual, o es una transformación del conjunto de relaciones de posición que presentan entre sí la primera pluralidad de elementos seleccionados del conjunto ordenado;
(iii)
comparar el valor de cada uno de los primeros elementos seleccionados del conjunto ordenado con el valor del otro elemento seleccionado situado en una posición correspondiente del conjunto ordenado, de conformidad con un criterio de coincidencia predeterminado para decidir si la primera pluralidad seleccionada de elementos del conjunto ordenado coincide o no con la pluralidad seleccionada de los otros elementos del conjunto ordenado;
(iv)
en caso de que se produzca una coincidencia, actualizar por lo menos una puntuación de similitud (S_{AA});
caracterizado porque la etapa de selección de los otros elementos del conjunto ordenado comprende la selección de un valor para por lo menos un parámetro (R, \beta y \alpha) que caracteriza una transformación por reflexión, rotación o escalado, y la selección de elementos que presentan un conjunto de relaciones de posición (d_{i'} y d_{i}'') que está transformado con respecto al conjunto de relaciones de posición (d_{i}) de los primeros elementos seleccionados del conjunto ordenado, de conformidad con el parámetro o los parámetros.
3. Procedimiento según la reivindicación 1 ó 2, en el que la selección de una pluralidad de elementos del primer conjunto ordenado del conjunto ordenado es aleatoria o pseudoaleatoria.
4. Procedimiento según la reivindicación 1, 2 ó 3, en el que la selección del parámetro o los parámetros es aleatoria o pseudoaleatoria.
5. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que el parámetro o uno de dichos parámetros (R) determina si debe aplicarse o no una reflexión a las relaciones de posición.
6. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que el parámetro o uno de dichos parámetros (\beta) determina si debe aplicarse y en qué grado debe aplicarse una rotación a las relaciones de posición.
\newpage
7. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que el parámetro o uno de dichos parámetros (\alpha) determina si debe aplicarse y en qué grado debe aplicarse un escalado a las relaciones de posición.
8. Procedimiento según cualquiera de las reivindicaciones anteriores, que comprende el análisis de los valores de los parámetros que dan como resultado una coincidencia.
9. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que las selecciones de los elementos del primer conjunto ordenado determinan que su dimensión, dentro del conjunto ordenado, esté sesgada hacia una dimensión pequeña en lugar de una dimensión grande.
10. Procedimiento según la reivindicación 9, que comprende la definición de una zona delimitada del primer conjunto ordenado, presentando dicha zona delimitada un tamaño seleccionado aleatoriamente (D), y la restricción de la selección de los elementos de tal forma que los elementos seleccionados se hallen todos dentro de la zona delimitada definida.
11. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que, en cada iteración, el número de elementos (m) que se van a seleccionar del primer conjunto ordenado se selecciona aleatoriamente, y en el que, en la etapa de actualización de la puntuación, la puntuación se incrementa en una cantidad que es una función de incremento monotónico del número (m) de elementos.
12. Procedimiento según la reivindicación 11, en el que la función del número (m) de elementos es igual al número de elementos.
13. Procedimiento según la reivindicación 11, en el que la función se incrementa más rápidamente que el número (m) de elementos.
14. Procedimiento según cualquiera de las reivindicaciones anteriores, en el que cada valor (a) comprende una pluralidad de componentes.
15. Procedimiento según cualquiera de las reivindicaciones anteriores, que comprende en primer lugar el procesamiento del primer y el segundo conjunto ordenado para identificar zonas de los mismos que contienen detalles significativos, y en el que la selección de los elementos se restringe para que por lo menos uno de los elementos seleccionados del primer conjunto ordenado se halle en la zona o una de las zonas identificadas del primer conjunto ordenado, y/o para que por lo menos uno de los elementos seleccionados del primer conjunto ordenado se halle en la zona o una de las zonas identificadas del primer conjunto ordenado.
16. Procedimiento según cualquiera de las reivindicaciones anteriores, que comprende el análisis de los valores de las posiciones de los elementos seleccionados que dan como resultado una coincidencia.
ES05775541T 2004-09-17 2005-08-26 Analisis de patrones. Expired - Lifetime ES2312010T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB0420727 2004-09-17
GB0420727A GB0420727D0 (en) 2004-09-17 2004-09-17 Comparison of patterns
GB0503944 2005-02-25
GB0503944A GB0503944D0 (en) 2005-02-25 2005-02-25 Comparison of patterns

Publications (1)

Publication Number Publication Date
ES2312010T3 true ES2312010T3 (es) 2009-02-16

Family

ID=36059728

Family Applications (1)

Application Number Title Priority Date Filing Date
ES05775541T Expired - Lifetime ES2312010T3 (es) 2004-09-17 2005-08-26 Analisis de patrones.

Country Status (6)

Country Link
US (1) US7620249B2 (es)
EP (1) EP1789910B1 (es)
AT (1) ATE404938T1 (es)
DE (1) DE602005008993D1 (es)
ES (1) ES2312010T3 (es)
WO (1) WO2006030173A1 (es)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2479223C (en) 2002-03-22 2012-09-04 British Telecommunications Public Limited Company Comparing patterns
US7546236B2 (en) 2002-03-22 2009-06-09 British Telecommunications Public Limited Company Anomaly recognition method for data streams
GB0229625D0 (en) 2002-12-19 2003-01-22 British Telecomm Searching images
GB0328326D0 (en) 2003-12-05 2004-01-07 British Telecomm Image processing
ATE404938T1 (de) 2004-09-17 2008-08-15 British Telecomm Analyse von mustern
EP1732030A1 (en) * 2005-06-10 2006-12-13 BRITISH TELECOMMUNICATIONS public limited company Comparison of patterns
WO2007012798A1 (en) 2005-07-28 2007-02-01 British Telecommunications Public Limited Company Image analysis
EP1798961A1 (en) 2005-12-19 2007-06-20 BRITISH TELECOMMUNICATIONS public limited company Method for focus control
US9268025B2 (en) * 2012-08-09 2016-02-23 Massachusetts Institute Of Technology Fast transform based offset determination
US20140358821A1 (en) * 2013-05-28 2014-12-04 Min MIN Robust Method for Portfolio Management
US9245192B2 (en) 2013-09-20 2016-01-26 Here Global B.V. Ad collateral detection
US9639954B2 (en) * 2014-10-27 2017-05-02 Playsigh Interactive Ltd. Object extraction from video images

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3049997B2 (ja) 1993-07-14 2000-06-05 松下電器産業株式会社 形状検出方法
DE2256617C3 (de) 1971-11-19 1978-08-31 Hitachi, Ltd., Tokio Einrichtung zur Analyse einer Vorlage
EP0062066B1 (en) 1980-10-20 1988-01-20 De La Rue Printrak, Inc. Fingerprint minutiae matcher
EP0098152B1 (en) 1982-06-28 1988-12-28 Nec Corporation Method and device for matching fingerprints
US5113454A (en) 1988-08-19 1992-05-12 Kajaani Electronics Ltd. Formation testing with digital image analysis
GB8821024D0 (en) 1988-09-07 1988-10-05 Etherington H J Image recognition
JPH03238533A (ja) 1990-02-15 1991-10-24 Nec Corp マイクロコンピュータ
JPH03238566A (ja) 1990-02-15 1991-10-24 Nissan Motor Co Ltd 消点検出装置
US5200820A (en) 1991-04-26 1993-04-06 Bell Communications Research, Inc. Block-matching motion estimator for video coder
JP3106006B2 (ja) 1992-06-24 2000-11-06 キヤノン株式会社 電子スチルカメラ
US5303885A (en) 1992-12-14 1994-04-19 Wade Lionel T Adjustable pipe hanger
JP3057981B2 (ja) 1992-12-25 2000-07-04 オムロン株式会社 画像処理装置及びそれを用いた複写機
US5790413A (en) 1993-03-22 1998-08-04 Exxon Chemical Patents Inc. Plant parameter detection by monitoring of power spectral densities
JPH0799658A (ja) * 1993-08-03 1995-04-11 Sony Corp 動きベクトル検出装置
US6169995B1 (en) 1994-03-17 2001-01-02 Hitachi, Ltd. Link information maintenance management method
JPH08248303A (ja) 1995-03-07 1996-09-27 Minolta Co Ltd 焦点検出装置
CA2148340C (en) 1995-05-01 2004-12-07 Gianni Di Pietro Method and apparatus for automatically and reproducibly rating the transmission quality of a speech transmission system
GB2305050A (en) 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
JP3002721B2 (ja) 1997-03-17 2000-01-24 警察庁長官 図形位置検出方法及びその装置並びにプログラムを記録した機械読み取り可能な記録媒体
US6215898B1 (en) 1997-04-15 2001-04-10 Interval Research Corporation Data processing system and method
JP3580670B2 (ja) 1997-06-10 2004-10-27 富士通株式会社 入力画像を基準画像に対応付ける方法、そのための装置、及びその方法を実現するプログラムを記憶した記憶媒体
US6078680A (en) 1997-07-25 2000-06-20 Arch Development Corporation Method, apparatus, and storage medium for detection of nodules in biological tissue using wavelet snakes to characterize features in radiographic images
CA2332118A1 (en) 1998-05-18 1999-11-25 Swami Manickam Image recognition and correlation system
US6240208B1 (en) 1998-07-23 2001-05-29 Cognex Corporation Method for automatic visual identification of a reference site in an image
CA2372124C (en) 1998-11-25 2008-07-22 Iridian Technologies, Inc. Fast focus assessment system and method for imaging
US6282317B1 (en) 1998-12-31 2001-08-28 Eastman Kodak Company Method for automatic determination of main subjects in photographic images
US6480629B1 (en) * 1999-04-06 2002-11-12 Koninklijke Philips Electronics N.V. Motion estimation method using orthogonal-sum block matching
US6389417B1 (en) 1999-06-29 2002-05-14 Samsung Electronics Co., Ltd. Method and apparatus for searching a digital image
US6839454B1 (en) 1999-09-30 2005-01-04 Biodiscovery, Inc. System and method for automatically identifying sub-grids in a microarray
WO2001029257A2 (en) 1999-10-22 2001-04-26 Genset Methods of genetic cluster analysis
US6499009B1 (en) 1999-10-29 2002-12-24 Telefonaktiebolaget Lm Ericsson Handling variable delay in objective speech quality assessment
US20010013895A1 (en) 2000-02-04 2001-08-16 Kiyoharu Aizawa Arbitrarily focused image synthesizing apparatus and multi-image simultaneous capturing camera for use therein
WO2001061648A2 (en) 2000-02-17 2001-08-23 British Telecommunications Public Limited Company Visual attention location system
EP1126411A1 (en) 2000-02-17 2001-08-22 BRITISH TELECOMMUNICATIONS public limited company Visual attention location system
US6778699B1 (en) 2000-03-27 2004-08-17 Eastman Kodak Company Method of determining vanishing point location from an image
JP2002050066A (ja) 2000-08-01 2002-02-15 Nec Corp 光ピックアップ回路及び光ピックアップ方法
AU2001284171A1 (en) 2000-09-08 2002-03-22 British Telecommunications Public Limited Company Analysing a moving image
US6670963B2 (en) 2001-01-17 2003-12-30 Tektronix, Inc. Visual attention model
WO2002098137A1 (en) 2001-06-01 2002-12-05 Nanyang Technological University A block motion estimation method
US6996291B2 (en) * 2001-08-06 2006-02-07 Mitutoyo Corporation Systems and methods for correlating images in an image correlation system with reduced computational loads
EP1286539A1 (en) 2001-08-23 2003-02-26 BRITISH TELECOMMUNICATIONS public limited company Camera control
US7546236B2 (en) 2002-03-22 2009-06-09 British Telecommunications Public Limited Company Anomaly recognition method for data streams
CA2479223C (en) 2002-03-22 2012-09-04 British Telecommunications Public Limited Company Comparing patterns
DE10251787A1 (de) 2002-11-05 2004-05-19 Philips Intellectual Property & Standards Gmbh Verfahren, Vorrichtung und Computerprogramm zur Erfassung von Punktkorrespondenzen in Punktmengen
GB0229625D0 (en) 2002-12-19 2003-01-22 British Telecomm Searching images
GB0328326D0 (en) 2003-12-05 2004-01-07 British Telecomm Image processing
ATE404938T1 (de) 2004-09-17 2008-08-15 British Telecomm Analyse von mustern

Also Published As

Publication number Publication date
ATE404938T1 (de) 2008-08-15
EP1789910B1 (en) 2008-08-13
US7620249B2 (en) 2009-11-17
US20080075372A1 (en) 2008-03-27
WO2006030173A1 (en) 2006-03-23
EP1789910A1 (en) 2007-05-30
DE602005008993D1 (de) 2008-09-25

Similar Documents

Publication Publication Date Title
Jégou et al. Improving bag-of-features for large scale image search
Lin et al. Facet segmentation-based line segment extraction for large-scale point clouds
Van Der Maaten Barnes-hut-sne
Penatti et al. Visual word spatial arrangement for image retrieval and classification
Salti et al. SHOT: Unique signatures of histograms for surface and texture description
Zhao et al. Completed robust local binary pattern for texture classification
KR101343902B1 (ko) 인덱싱 및 데이터베이스 검색 시스템
JP3053388B2 (ja) 指紋画像特色相関器
Matei et al. Rapid object indexing using locality sensitive hashing and joint 3D-signature space estimation
ES2312010T3 (es) Analisis de patrones.
Davis et al. An empirical evaluation of generalized cooccurrence matrices
ES2306153T3 (es) Identificacion de caracteristicas de imagenes.
Tsuji et al. A structural analyzer for a class of textures
US20100329556A1 (en) Image conversion method and apparatus, and pattern identification method and apparatus
Jang et al. Fast line segment grouping method for finding globally more favorable line segments
US12067756B2 (en) Efficient calculation of a robust signature of a media unit
Wu et al. An efficient visual loop closure detection method in a map of 20 million key locations
US7542624B1 (en) Window-based method for approximating the Hausdorff in three-dimensional range imagery
Shen et al. Satellite objects extraction and classification based on similarity measure
Jain et al. A novel fingerprint indexing scheme using dynamic clustering
Fleuret et al. Graded learning for object detection
Chugh et al. Plant leaf image identification with texture features using microstructure descriptor
CN114842543B (zh) 三维人脸识别方法、装置、电子设备及存储介质
Tortorici et al. Representing and analyzing relief patterns using LBP variants on mesh manifold
WO2006061365A1 (en) Face recognition using features along iso-radius contours