ES2536560T3 - Método para descubrir y reconocer patrones - Google Patents

Método para descubrir y reconocer patrones Download PDF

Info

Publication number
ES2536560T3
ES2536560T3 ES09799660.7T ES09799660T ES2536560T3 ES 2536560 T3 ES2536560 T3 ES 2536560T3 ES 09799660 T ES09799660 T ES 09799660T ES 2536560 T3 ES2536560 T3 ES 2536560T3
Authority
ES
Spain
Prior art keywords
sequence
concept
signal
matrix
symbols
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES09799660.7T
Other languages
English (en)
Inventor
Unto Laine
Okko RÄSÄNEN
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Aalto Korkeakoulusaatio sr
Original Assignee
Aalto Korkeakoulusaatio sr
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Aalto Korkeakoulusaatio sr filed Critical Aalto Korkeakoulusaatio sr
Application granted granted Critical
Publication of ES2536560T3 publication Critical patent/ES2536560T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/196Recognition using electronic means using sequential comparisons of the image signals with a plurality of references
    • G06V30/1983Syntactic or structural pattern recognition, e.g. symbolic string recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/29Graphical models, e.g. Bayesian networks
    • G06F18/295Markov models or related models, e.g. semi-Markov models; Markov random fields; Networks embedding Markov models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Data Mining & Analysis (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Image Analysis (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

Método (200) para reconocer un concepto en una señal, por ejemplo una señal de voz, mediante un aparato, comprendiendo el método: recibir (210), mediante un receptor del aparato, una primera señal, muestrear (215, 220, 225), mediante el aparato, la primera señal para formar una primera secuencia de símbolos unidimensional a partir de la primera señal recibida, por ejemplo usando cuantificación vectorial, especificar la presencia de un concepto en la primera secuencia mediante una etiqueta de concepto, para cada etiqueta de concepto ck, variando k desde 1 hasta Nc, y para cada retardo ld dado, variando d desde 1 hasta Nl, donde un retardo ld indica una distancia de d elementos en la secuencia de símbolos: obtener (230, 235), mediante el aparato, una matriz de frecuencia de transición T(ai, aj|ld, ck) de tamaño Nq x Nq, donde Nq es el número de posibles símbolos, incrementando el elemento de matriz en la posición i,j siempre que los símbolos ai y aj aparezcan en conjunto en la primera secuencia con el retardo ld en presencia de la etiqueta de concepto ck, obtener (240), mediante el aparato, una matriz de probabilidad de transición P'(ai, aj|ld, ck) normalizando la matriz de frecuencia de transición T mediante todas las posibles transiciones obtener, mediante el aparato, una matriz de probabilidad de etiqueta P(ai, aj|ld, ck) mediante donde recibir (270), mediante el receptor del aparato, una segunda señal, y reconocer (280, 285), mediante el aparato, la presencia de un concepto en la posición t en una segunda secuencia de símbolos, que se forma a partir de la segunda señal recibida, como la etiqueta de concepto ck que maximiza el valor de siendo i desde 1 hasta Nc.

Description

5
10
15
20
25
30
35
40
45
E09799660
08-05-2015
DESCRIPCIÓN
Método para descubrir y reconocer patrones
Campo técnico de la invención
La invención se refiere en general a un método para descubrir y reconocer patrones.
Antecedentes de la invención
Una idea básica en todos los métodos para descubrir patrones es modelar regularidades estadísticas y comparar un modelo con una representación real con el fin de medir una similitud o similitudes entre el modelo creado (aprendido) y un patrón actual que está analizándose.
Uno de los métodos y técnicas conocidos utilizado para modelar y reconocer patrones en secuencias es el modelo de Markov, que supone que una secuencia que va a modelarse tiene la propiedad de Markov. Tener la propiedad de Markov significa que, dado un estado actual, los estados futuros son independientes de los estados pasados. Dicho de otro modo, la descripción del estado actual en sí misma capta completamente toda la información que podría influir en la evolución futura del procedimiento. Los estados futuros se alcanzarán a través de un procedimiento probabilístico en lugar de un procedimiento determinístico.
En cada etapa un sistema puede cambiar su estado del estado actual a otro estado, o permanecer en el mismo estado, según una cierta distribución de probabilidad. Los cambios del estado se denominan transiciones y las probabilidades asociadas con diversos cambios de estado se denominan probabilidades de transición.
Muchos procedimientos físicos y correspondientes secuencias observables, que se crean mediante los procedimientos físicos, tienen estructuras fuertes tales como estructuras temporales que pueden medirse mediante coeficientes de correlación de orden superior. Por tanto, dependiendo de la resolución temporal usada la secuencia creada puede tener estructuras amplias (por el tiempo o espacio), que no pueden modelarse con precisión mediante una cadena de Markov en la que los estados futuros son independientes de los estados pasados.
Un objeto de la invención es proporcionar un método para descubrir y reconocer patrones, un producto de programa informático para descubrir y reconocer patrones y un aparato para descubrir y reconocer patrones.
Un objeto de la invención se alcanza proporcionando un método según la reivindicación 1, un producto de programa informático según la reivindicación 8 y un aparato según la reivindicación 9.
Una realización de la presente invención se refiere a un método según la reivindicación 1, una realización a un producto de programa informático según la reivindicación 8 y una realización a un aparato según la reivindicación 9.
En las reivindicaciones dependientes se definen realizaciones adicionales.
Según una realización de la invención un método comprende recibir una primera secuencia que comprende símbolos de primera secuencia en relación con el concepto y una etiqueta asociada a la primera secuencia, obtener matrices de probabilidad de transición a partir de matrices de frecuencia de transición que representan datos de frecuencia de incidencia de transiciones entre los símbolos de primera secuencia a diferentes distancias en la primera secuencia y aprender las matrices de probabilidad de transición para cada etiqueta y cada distancia para obtener una función de activación que determina el concepto que se produce en una segunda secuencia.
El método según las realizaciones de la invención puede realizarse en un aparato, que puede ser por ejemplo un sistema informático, un portátil o un teléfono móvil, en el que un software ejecuta el procedimiento para descubrir y reconocer patrones. En segundo lugar, el procedimiento para descubrir y reconocer patrones puede ejecutarse mediante un procesador (por ejemplo un chip de procesador de señal digital (DSP)), que se ha adaptado para realizar el procedimiento para descubrir y reconocer patrones.
El término “concepto” (patrón) se refiere a un cierto tipo de regularidad estadística en una secuencia (o entre dos secuencias diferentes), que difiere de otros conceptos (otras regularidades) y forma un claro contraste con todas las irregularidades de tipo ruido.
El término “etiqueta” se refiere a una indicación, que está asociada con una secuencia o varias etiquetas están asociadas a la misma secuencia y estas asociaciones se denominan conceptos.
El término “transiciones” se refiere a pares de símbolos de secuencia (índice, indicador). Los símbolos de secuencia
10
15
20
25
30
35
40
45
50
E09799660
08-05-2015
son los elementos básicos de las secuencias y los pares de símbolos de secuencia tienen distancias entre los símbolos de secuencia dentro de un par (Dicho de otro modo, cada par de símbolos tiene una cierta ubicación y distancia entre sí (diferencia en las ubicaciones) en la secuencia).
Según una realización de la invención el método, que se da a conocer en una realización anterior, comprende recibir la primera información que comprende el concepto. La primera información puede ser por ejemplo voz o imagen.
Según una realización de la invención el método, que se da a conocer en cualquiera de las realizaciones anteriores, comprende asociar la etiqueta a la primera secuencia.
Según una realización de la invención el método, que se da a conocer en cualquiera de las realizaciones anteriores, comprende discretizar y cuantificar primera información que comprende el concepto y representar la primera información en forma de la primera secuencia unidimensional (1D). Además, puede muestrearse información 2D visual (espacial) de diferentes maneras para formar secuencias 1D. Por este motivo la descripción detallada se limita solamente a la información secuencial (1D). En un caso más complicado es posible tratar con un conjunto de secuencias 1D y también asociaciones entre estas secuencias (por ejemplo asociaciones entre representaciones de audio y visuales).
Según una realización de la invención el método, que se da a conocer en cualquiera de las realizaciones anteriores, recopila los datos de frecuencia de la incidencia de las transiciones entre los símbolos de secuencia en la primera secuencia. Se formula un grupo de matrices que comprende al menos una matriz, que consiste en los datos de frecuencia, para cada etiqueta. El número de las matrices en el grupo depende del número de las diferentes distancias de los pares de símbolos recopilados a partir de la secuencia y el número de etiquetas asociadas con conceptos (por ejemplo matriz M(a,b|distancia, etiqueta), donde a*b define el tamaño de la matriz y el número de las matrices es igual a distancias por etiquetas).
Según una realización de la invención el método, que se da a conocer en cualquiera de las realizaciones anteriores, comprende almacenar los datos de frecuencia de la incidencia de las transiciones en la primera secuencia en las matrices de frecuencia de transición.
Según una realización de la invención el método, que se da a conocer en cualquiera de las realizaciones anteriores, comprende normalizar las matrices de frecuencia de transición a las matrices de probabilidad de transición según ecuaciones representadas posteriormente (1)-(3).
Según una realización de la invención en el método, que se da a conocer en cualquiera de las realizaciones anteriores, la(s) segunda(s) secuencia(s) se procesa(n) a partir de segunda información real que comprende el concepto discretizando y cuantificando la segunda información para representar la segunda información en forma de la(s) segunda(s) secuencia(s).
Según una realización de la invención el método, que se da a conocer en cualquiera de las realizaciones anteriores, se usa para un reconocimiento de patrones en relación con por ejemplo un reconocimiento de voz o un reconocimiento de imagen. El algoritmo usado que ejecuta el método toma un flujo de información dado en forma discreta, cuantificada. La información puede crearse mediante cualquier procedimiento con variación en el tiempo, por ejemplo, señales audiovisuales, o puede ser variable sólo espacialmente, por ejemplo una imagen fija.
Según una realización de la invención un producto de programa informático, que recibe una primera secuencia que comprende símbolos de primera secuencia en relación con el concepto y una etiqueta asociada con la primera secuencia, obtiene matrices de probabilidad de transición a partir de matrices de frecuencia de transición que representan datos de frecuencia de incidencia de transiciones entre los símbolos de primera secuencia a diferentes distancias en la primera secuencia y aprende las matrices de probabilidad de transición para cada etiqueta y cada distancia para obtener una función de activación que determina el concepto que se produce en una segunda secuencia.
Según una realización de la invención un aparato, que recibe una primera secuencia que comprende símbolos de primera secuencia en relación con el concepto y una etiqueta asociada con la primera secuencia, obtiene matrices de probabilidad de transición a partir de matrices de frecuencia de transición que representan datos de frecuencia de incidencia de transiciones entre los símbolos de primera secuencia a diferentes distancias en la primera secuencia y aprende las matrices de probabilidad de transición para cada etiqueta y cada distancia para obtener una función de activación que determina el concepto que se produce en una segunda secuencia.
El método según las realizaciones de la invención puede realizarse en un aparato, por ejemplo un sistema informático, un portátil o un teléfono móvil, en el que un software ejecuta el procedimiento para descubrir y reconocer patrones.
10
15
20
25
30
35
40
45
50
E09799660
08-05-2015
En segundo lugar, el procedimiento para descubrir y reconocer patrones puede ejecutarse mediante un procesador programado (por ejemplo un chip de procesador de señal digital (DSP)), que está adaptado para realizar el procedimiento para descubrir y reconocer patrones.
El algoritmo que ejecuta el método según las realizaciones de la invención aprende estadísticas recopilando evidencias de secuencias reales, construye modelos estadísticos para esas secuencias y los aplica en el descubrimiento y la clasificación de patrones.
Las estadísticas se basan en la frecuencia de los pares de símbolos de secuencia hallados en diferentes distancias espaciales en casos espaciales o retardos en casos temporales. En el caso de secuencias de tiempo los pares de símbolos de secuencia pueden interpretarse como transiciones de estado y sus frecuencias relativas correspondientes pueden normalizarse para producir correspondientes probabilidades transicionales. El número de incidencias de los diferentes pares de símbolos de secuencia pueden recopilarse para formar una matriz de frecuencia o una tabla. Cada distancia temporal (retardo) o espacial creará una matriz o una tabla propia. De manera correspondiente, pueden crearse estadísticas asociativas entre dos secuencias diferentes.
Las estadísticas de transición están vinculadas a la presencia de una entrada multimodal (una etiqueta) de modo que cada etiqueta indica un concepto (patrón) en la serie de tiempo que se asocia con la misma. Después del entrenamiento del modelo, puede reconocerse un concepto desconocido que es uno de los aprendidos anteriormente, a partir de una nueva secuencia. El algoritmo está adaptado especialmente para el reconocimiento de patrones en condiciones en las que las secuencias están corrompidas con altos niveles de distorsión y ruido, y condiciones en las que las dependencias de eventos se distribuyen por el tiempo o espacio, de modo que los eventos adyacentes no pueden considerarse de manera fiable como dependientes entre sí.
Una diferencia entre el método según las realizaciones de la invención y la cadena de Markov es que el método según las realizaciones de la invención recopila evidencia estadística a partir de una secuencia contando en primer lugar el número de todos los pares de indicadores hallados a diferentes distancias y a continuación realiza dos normalizaciones diferentes (ecuaciones (1) y (2) en la descripción detallada), combina estas dos representaciones estadísticas antes de la tercera normalización realizada para derivar el conjunto final de matrices de activación.
Sólo una de las representaciones derivadas, la matriz de transición de estado del retardo uno, es equivalente a la representación conocida por el método de la cadena de Markov. En otras dos representaciones usadas en la derivación de las matrices de activación el tratamiento de la evidencia estadística difiere considerablemente de los conocidos anteriormente.
Otra diferencia es que la cadena de Markov normalmente no utiliza estadísticas por retardos mayores de uno y cuando las usa, las estadísticas pueden derivarse de la matriz de transición de retardo uno mediante una simple multiplicación de matrices (ecuación de Chapman-Kolmogorov). En el método según las realizaciones de la invención las estadísticas por retardos mayores se toman directamente de la secuencia y no se aproximan (estiman) mediante una multiplicación de matrices.
La tercera diferencia entre el método según las realizaciones de la invención y la cadena de Markov es que el método según las realizaciones de la invención utiliza en paralelo dos representaciones diferentes para cada concepto (ecuación (2)) y todas las matrices de activación obtenidas para pares de indicadores de distancias diferentes (ecuación (4)). Por tanto, el patrón de activación combinado no sólo depende del estado actual o anterior sino de todos los eventos anteriores en la secuencia descrita por el conjunto de matrices de activación.
Las ventajas del método según las realizaciones de la invención se obtienen cuando se trata de datos en los que una perturbación ha destruido por completo o corrompido gravemente la información original en una ventana temporal o espacial limitada. La información original puede recuperarse (corregirse) sólo cuando un modelo puede utilizar la información disponible en las proximidades, y aún más, cuando el modelo puede realizar asociaciones apropiadas basándose en la información no corrompida en las proximidades.
Breve descripción de los dibujos
A continuación, se describirán los aspectos de la invención en más detalle con referencia a realizaciones a modo de ejemplo según los dibujos adjuntos, en los que
la figura 1 ilustra un diagrama de flujo general a modo de ejemplo del método para descubrir y reconocer patrones según una realización ventajosa de la invención,
la figura 2A ilustra un diagrama de flujo a modo de ejemplo del método para un descubrimiento de patrones según una realización ventajosa de la invención,
5
10
15
20
25
30
35
40
45
E09799660
08-05-2015
la figura 2B ilustra un diagrama de flujo a modo de ejemplo del método para un reconocimiento de patrones según una realización ventajosa de la invención,
la figura 3 ilustra una vista de la activación de las representaciones de palabras en una expresión vocal en función del tiempo sin el filtrado de mediana de la activación,
la figura 4 ilustra una vista de la activación de las representaciones de palabras en una expresión vocal en función del tiempo con el filtrado de mediana de la activación y
la figura 5 ilustra una vista de la curva de aprendizaje característica del algoritmo.
Descripción detallada
La figura 1 representa un diagrama de flujo general que describe un método 100 para descubrir y reconocer patrones según la realización de la invención.
En primer lugar en la etapa 110 se recopilan datos, por ejemplo expresiones vocales que comprenden varias palabras en un procedimiento de reconocimiento de voz.
Los datos recopilados se procesan durante la etapa 120 de modo que a partir de los datos procesados pueden hallarse regularidades estadísticas (patrones) y crearse modelos estadísticos para los patrones hallados. En la fase de aprendizaje una etiqueta simultánea, externa indica cuál del conjunto de patrones (que se reconocerán posteriormente) está presente en algún lugar en la secuencia real.
Finalmente, los modelos estadísticos de los patrones se comparan con datos reales nuevos, no vistos anteriormente, para descubrir similitudes entre los modelos estadísticos creados de los patrones y un patrón real en la etapa 130.
La figura 2A da a conocer, mediante un ejemplo solamente, un diagrama de flujo que describe un método 200 de descubrimiento según la realización de la invención en más detalle.
Durante el inicio del método en la etapa 205, se enciende un ordenador y/o una aplicación que ejecuta el método y se proporcionan las fases necesarias antes de un procedimiento de aprendizaje de patrones, descubrimiento y reconocimiento, tales como la definición de la configuración de aplicación y la inicialización de diferentes variables y parámetros.
En este caso, un usuario define la configuración, las variables y los parámetros en vista del aprendizaje, descubrimiento y reconocimiento de patrones.
A continuación, en la etapa 210, la información usada en el procedimiento de aprendizaje (entrenamiento), tal como expresiones vocales que comprenden una o más palabras pronunciadas por un ser humano, se introduce en un software de descubrimiento y reconocimiento de patrones a través de un receptor, por ejemplo un micrófono, y una unidad de procesamiento de señales que puede modificar la señal de audio recibida para obtener una forma apropiada para el software de descubrimiento y reconocimiento de patrones.
En la etapa 215 se discretiza y cuantifica la información recibida (muestra), y después, en la etapa 220, se representa la información discreta y cuantificada en forma de secuencia o secuencias 1D.
Entonces, en la etapa 225, algún evento (patrón), que se asocia con la(s) secuencia(s) se especifica mediante una etiqueta, que puede ser por ejemplo un número o letras.
Así, la entrada en el sistema consiste en una serie de tiempo de elementos discretos o información espacial muestreada para formar secuencias 1D, y en la fase de entrenamiento, etiquetas que especifican algún evento o patrón asociado con las secuencias. En algunos casos una modalidad de información puede proporcionar una etiqueta para otra modalidad. Los elementos básicos de las secuencias se denominan indicadores y en el caso más sencillo pueden hacer referencia a elementos en un libro de códigos de cuantificación vectorial o pueden producirse mediante cualquier tipo de discretización de series de tiempo o imágenes. En un caso más complejo pueden hacer referencia a una representación de nivel superior de información, por ejemplo eventos o elementos posibles que reflejan propiedades cualitativas claras. Un ejemplo podría ser modelar mercados bursátiles y procedimientos econométricos complejos. La otra fuente de información (posiblemente otra fuente de modalidad) se representa mediante un conjunto de denominadas etiquetas de concepto c.
Las etiquetas son normalmente valores de número entero que representan salidas invariables de otro procedimiento que se asocian a la entrada de serie de tiempo (por ejemplo un procedimiento de categorización realizado en otra
10
15
20
25
30
35
40
45
E09799660
08-05-2015
modalidad como la percepción visual o táctil en caso de reconocimiento de voz, o algún otro grupo de eventos definidos manualmente que pretenden asociarse con la serie de tiempo).
El mecanismo puede funcionar también en sentido inverso; un evento acústico puede servir como etiqueta para aprender patrones visuales. Una modalidad puede formar etiquetas para otras modalidades para ayudar en el aprendizaje. Más generalmente, el método permite la construcción de asociaciones estadísticas entre modalidades diferentes. Éste es uno de los temas clave para modelar y entender la formación y el aprendizaje de los significados (por parte de medios y seres humanos).
En la etapa 230, cuando el concepto (etiqueta) se ha activado y se ha representado la secuencia, el algoritmo empieza a recopilar datos de frecuencia de la incidencia de pares de indicadores (transiciones) en la secuencia a una distancia I.
El algoritmo almacena los datos de frecuencia recopilados de la incidencia de pares de indicadores en una tabla de histograma o una matriz T (matriz de frecuencia de transición) en la etapa 235. Los indicadores originales pueden usarse como referencias para T, cuando es necesario el número de incidencias del correspondiente par de indicadores.
Durante la siguiente etapa 240 el histograma recopilado en T se usa entonces para producir otra representación P.
La estructura principal del algoritmo es una matriz Pl,c de tamaño Nq x Nq, donde Nq es el tamaño del libro de códigos, que se asemeja a las matrices de probabilidad de transición pero no contiene probabilidades bien definidas sino en su lugar una especie de sumas de probabilidades acumulativas. Mantiene un registro de probabilidades de transición normalizadas del indicador a[t-I] al indicador a[t] con la presencia simultánea del concepto c, donde l, c, t c Z, e l es un elemento del conjunto l = {I1, l2, l3,..., ln} y c es un elemento del conjunto c = {1, 2, 3,...,Nc}. Dicho de otro modo, Nc es el número total de conceptos introducidos en el sistema. Si se define Nl = ||/||, hay un total de NP = Nl*Nc instancias de P matrices, una para cada concepto con un retardo específico. Una matriz Tl,c es de otro modo similar a Pl,c excepto porque mantiene un registro de las frecuencias de transición en lugar de probabilidades normalizadas del indicador a[t-l] al indicador a[t] en presencia del concepto c.
Como los valores de P no son probabilidades clásicas en el intervalo entre 0 y 1 debido a un procedimiento de normalización de tres fases, los valores de P se denominarán valores de activación y P se denominará matriz de activación. Los valores de activación almacenados en P se calcularán usando la información de frecuencia almacenada en T.
A continuación, se representa cómo se proporciona el entrenamiento en el método. Para simplificar la notación, los elementos de las matrices Pl,c y Tl,c se designan en forma de P(ai,aj|l,c) y T(ai,aj|l,c), donde las dos primeras variables ai y aj definen los índices de elemento de matriz de los indicadores (transición de ai a aj o aparición conjunta de ai y aj), mientras que l define el retardo y c define el concepto.
La entrada consiste en secuencias de entrenamiento S = {s1,s2,...,sn} y conceptos relacionados con secuencia V = {v1,v2,...,vn}, donde cada vi = {c1,c2,..,cn}, v ∈ c. Todas las transiciones en la secuencia si que se producen en los retardos I se actualizan a las matrices de frecuencia de transición Tl,c, donde c es un elemento de vi asociado con si. Este procedimiento se repite para todas las S en el material de entrenamiento.
El siguiente ejemplo de pseudocódigo ilustra el procedimiento de recopilación de las frecuencias de transición:
para i = 1:longitud{S}
s = S(i);
v = V(i)
para retardo = 1:longitud(l)
para t = 1:longitud(s)
para c = 1:longitud(v)
T(s[t-retardo],s[t] |retardo,c) = T(s[t-retardo],s[t]retardo,c) +1;
fin
5
10
15
25
30
35
E09799660
08-05-2015
fin
fin
fin
En la etapa 240, como todas las transiciones que se producen en el material de entrenamiento se suman a y almacenan en las matrices de frecuencia de transición T, las matrices se normalizan a matrices de probabilidad de transición P’ normalizando la probabilidad de transición de cada indicador a todos los demás indicadores ∑xPr(ai,ax) =1 porque
imagen1
donde Nq es el tamaño de libro de códigos, es decir, el número de elementos únicos, en la serie de tiempo.
La probabilidad de que se produzca una transición específica durante la presencia de una etiqueta en lugar de todas las demás transiciones se suma de manera acumulativa a P’l,c:
imagen2
Esto mejora el valor de aquellas transiciones que son muy comunes en presencia del concepto. Se observará que ahora la matriz ya no es una matriz de probabilidad de transición bien definida en el sentido de que las probabilidades del siguiente estado no se suman para dar uno. Por tanto, los valores de P se denominan a partir de ahora valores de activación (específicos del concepto) y los resultados del procedimiento de reconocimiento se denominan activaciones de concepto.
Finalmente, se incorpora una probabilidad de que se produzca una transición durante la presencia de un concepto ck en lugar de cualquier otro concepto a la matriz de activación final P porque
imagen3
Dicho de otro modo, la probabilidad acumulativa de una transición de ai a aj en caso de que la etiqueta c se divide entre la suma de probabilidades de la misma transición que se produce durante todas las posibles etiquetas c. Si una transición pasa a ser igualmente probable para todos los conceptos, no conteniendo por tanto valor de información, tendría una probabilidad de 1/Nc. Por tanto, en cada elemento en todas las matrices se ha restado 1/Nc de su valor para tener una activación de cero para un caso completamente aleatorio y un valor negativo para transiciones que se producen con más frecuencia durante otros conceptos. La resta de 1/Nc mencionada anteriormente no es una etapa necesaria, sino que hace que el procedimiento sea más conveniente.
Cuando ha finalizado el entrenamiento, el método termina en la etapa 245.
La figura 2B ilustra, mediante un ejemplo solamente, un diagrama de flujo que describe un método 260 para reconocer patrones según la realización de la invención
El inicio del procedimiento de reconocimiento en la etapa 265, es similar al inicio del procedimiento de descubrimiento.
En la etapa 270, se introduce segunda información, datos de entrada reales, en el sistema y la segunda información se procesa discretizando y cuantificando para presentar los datos de entrada reales en forma de secuencia o secuencias que tienen patrones durante las etapas 275 y 280.
A continuación, en la etapa 285, se determina un concepto a partir de los datos de entrada reales estudiando las transiciones de la(s) secuencia(s). Las transiciones tienen probabilidades de transición P en relación con cada distancia y cada etiqueta. Estas probabilidades se estiman durante la fase de aprendizaje. Las probabilidades se
5
10
15
20
25
30
35
40
45
E09799660
08-05-2015
combinan para crear una función de activación A y se reconocerá el concepto que tiene el nivel de activación más alto.
Por tanto, el nivel de activación del concepto ci en el momento t dadas las secuencias de entrada reales puede expresarse como
imagen4
cuando sólo se incluye el historial hacia atrás de la secuencia de entrada.
Cuando se completa el reconocimiento de patrones, el método finaliza en la etapa 290.
También es posible tener un procedimiento de reconocimiento bidireccional incluyendo P(s[t],s[t+l]|ld,ci) valores de activación en la suma en la ecuación (4) si se conocen de antemano los siguientes indicadores hasta el mayor retardo max(l) en la secuencia. Esto mejora la localización del evento reconocido, puesto que el valor pico de la curva de activación se centra en un punto en el que hay un mayor soporte estadístico para el concepto específico, que se distribuye simétricamente alrededor de ese punto en cuanto a probabilidades transicionales.
La ecuación (4) proporciona una estimación de activación local para cada candidato de concepto aunque en muchas aplicaciones resulta útil examinar la salida de activación en una ventana temporal mayor puesto que los eventos que están reconociéndose se dispersan por varias tramas de tiempo posteriores. Una posibilidad para hacer esto es, en primer lugar, aplicar un filtro de mediana o paso bajo a las curvas de activación en una ventana temporal mayor. Entonces, en cada una de estas curvas de activación temporales relacionadas con conceptos se busca una subsecuencia de longitud Li ∈ [Lmin, Lmax] que tiene una suma acumulativa máxima de valores de activación. Después de hallar estas subsecuencias para cada modelo de concepto c, la subsecuencia i con la suma acumulativa más alta define la hipótesis de concepto ci.
Lmin establece un límite temporal mínimo para la información que se incluye en el procedimiento de decisión de reconocimiento y debería ser al menos tan larga como el evento más corto posible que está reconociéndose. De manera similar, Lmax define un límite superior temporal para la integración de información y debería ser al menos tan larga como el evento más largo posible que está reconociéndose. Sin embargo, tener valores incluso más grandes para Lmax puede ser beneficioso en varias situaciones, puesto que el contexto de un evento contiene a menudo pistas para el propio evento y las estadísticas introducidas en las matrices de probabilidad de transición tienen en cuenta esta información.
Se realizan sumas (combinación lineal) en las ecuaciones presentadas anteriormente (2) y (4) ponderando factores con un valor uno. Sin embargo, es posible usar factores de ponderación α que tienen valores diferentes de uno. Estos valores pueden determinarse basándose en algún criterio adicional, por ejemplo basándose de manera iterativa en un éxito de reconocimiento de patrones.
Además, también es posible ejecutar todo el algoritmo en paralelo para varios flujos de entrada cuantificados de manera sincronizada con el fin de incorporar varias fuentes de información. Esto transforma las matrices de frecuencia y activación en la forma Tψ(ai,aj|l,c) y Pψ(ai,aj|l,c), donde ψ designa el número del flujo de entrada que está procesándose. El entrenamiento se realiza de manera similar a la condición de flujo único con el fin de construir matrices de concepto separadas para cada concepto en cada retardo y para cada flujo. En la fase de prueba la salida de probabilidad de todos los flujos se combina para tener una probabilidad de un concepto ci en el momento t de
imagen5
donde ωψ es un factor de ponderación definido para cada flujo de entrada.
En las figuras 3 y 4 se muestra un ejemplo de resultado en relación con el método descrito para reconocer patrones.
El algoritmo de matriz de concepto se aplicó a un experimento de aprendizaje de palabras no supervisado. El objetivo fue aprender 11 palabras clave diferentes a partir de un corpus que contenía 4000 expresiones vocales pronunciadas por cuatro hablantes en inglés británico (dos hombres y dos mujeres, 1000 expresiones vocales cada uno). Cada expresión vocal contiene de una a dos palabras clave y viene con una metaetiqueta que simula la presencia de estas palabras clave en otra modalidad. Se consigue una precisión de reconocimiento del 100%
10
15
20
25
30
E09799660
08-05-2015
cuando se dedican aproximadamente 3000 expresiones vocales para el entrenamiento y las 1000 restantes para las pruebas.
El material de voz se cuantificó obteniendo un flujo de índices de cuantificación vectorial (VQ) (longitud de trama de 10 ms, tamaño de libro de códigos Nc = 150) con un algoritmo de agrupamiento de k-medias. La distancia euclidiana de vectores MFCC estáticos se usó como medida de distancia. El entrenamiento se realizó con una expresión vocal cada vez con su etiqueta de concepto asociada. En la fase de prueba sólo se usó el flujo VQ de una expresión vocal como entrada y el sistema tenía que reconocer qué palabra clave (etiqueta de concepto) se ha introducido en la expresión vocal. Las curvas de activación se sometieron a un filtro de mediana con formación de ventanas de 150 ms y Lmin se estableció en 350 ms y Lmax en 450 ms.
La figura 3 muestra la activación de las representaciones de concepto (o palabra) interior en la expresión vocal “Papá se acerca” (“Daddy comes closer”) en función del tiempo sin el filtrado de mediana de la activación. En la parte superior de la figura 3 se muestra la actividad de cada concepto en función del tiempo mostrando curvas separadas con valores de probabilidad y en la parte inferior están las mejores sumas acumulativas de las subsecuencias halladas para cada concepto. Los límites de la subsecuencia del concepto ganador se indican con flechas.
La figura 4 muestra el mismo procedimiento con el filtrado de mediana. Puede verse a partir de la figura que la palabra clave correcta “papá” (“daddy”) se reconoce con un margen claro respecto a otros candidatos de palabras. Además, el filtrado de mediana integra información por una ventana temporal mayor y por tanto mejora la diferencia entre conceptos que reciben un soporte continuo de la entrada y aquéllos que sólo hallan aleatoriamente alguna estructura familiar en la misma. En la parte superior se encuentra la actividad de cada concepto en función del tiempo mostrando curvas separadas con valores de probabilidad y en la parte inferior se muestran las mejores sumas acumulativas de las subsecuencias halladas para cada concepto. Los límites de la subsecuencia del concepto ganador se indican con flechas.
La figura 5 muestra la curva de aprendizaje característica del algoritmo en función del número de expresiones vocales entrenadas. La curva de aprendizaje revela que la tasa de reconocimiento aumenta muy rápidamente después de sólo algunas muestras y consigue una precisión del 100% a las 3000 expresiones vocales. Las primeras 500 expresiones vocales se muestran en detalle en la parte derecha inferior.
La invención se explicó anteriormente con referencia a las realizaciones mencionadas anteriormente y se han mostrado las diversas ventajas de la invención. Resulta evidente que la invención no está limitada solamente a estas realizaciones, sino que comprende todas las posibles realizaciones dentro del alcance de las siguientes reivindicaciones de patente.

Claims (9)

  1. 5
    10
    15
    25
    30
    35
    REIVINDICACIONES
    1. Método (200) para reconocer un concepto en una señal, por ejemplo una señal de voz, mediante un aparato, comprendiendo el método:
    recibir (210), mediante un receptor del aparato, una primera señal,
    muestrear (215, 220, 225), mediante el aparato, la primera señal para formar una primera secuencia de símbolos unidimensional a partir de la primera señal recibida, por ejemplo usando cuantificación vectorial,
    especificar la presencia de un concepto en la primera secuencia mediante una etiqueta de concepto, para cada etiqueta de concepto ck, variando k desde 1 hasta Nc, y para cada retardo ld dado, variando d desde 1 hasta Nl, donde un retardo ld indica una distancia de d elementos en la secuencia de símbolos:
    obtener (230, 235), mediante el aparato, una matriz de frecuencia de transición T(ai, aj|ld, ck) de tamaño Nq x Nq, donde Nq es el número de posibles símbolos, incrementando el elemento de matriz en la posición i,j siempre que los símbolos ai y aj aparezcan en conjunto en la primera secuencia con el retardo ld en presencia de la etiqueta de concepto ck,
    obtener (240), mediante el aparato, una matriz de probabilidad de transición P’(ai, aj|ld, ck) normalizando la matriz de frecuencia de transición T mediante todas las posibles transiciones
    imagen1
    obtener, mediante el aparato, una matriz de probabilidad de etiqueta P(ai, aj|ld, ck) mediante
    imagen2
    donde
    imagen3
    recibir (270), mediante el receptor del aparato, una segunda señal, y
    reconocer (280, 285), mediante el aparato, la presencia de un concepto en la posición t en una segunda secuencia de símbolos, que se forma a partir de la segunda señal recibida, como la etiqueta de concepto ck que maximiza el valor de
    imagen4
    siendo i desde 1 hasta Nc.
  2. 2.
    Método según la reivindicación 1, que comprende además sumar las probabilidades de suma obtenidas en una ventana temporal que tiene una longitud que corresponde a una duración esperada del patrón que va a reconocerse para detectar la etiqueta de valor máximo.
  3. 3.
    Método según cualquier reivindicación anterior, en el que el resultado del reconocimiento se procesa mediante un filtrado de mediana o de paso bajo.
  4. 4.
    Método según cualquier reivindicación anterior, en el que una longitud de un filtro de mediana o paso bajo se estima mediante una longitud del patrón.
  5. 5.
    Método según cualquier reivindicación anterior, que comprende además almacenar (235) los datos de frecuencia recopilados de la incidencia de las transiciones en la primera secuencia en la matriz de frecuencia de transición T.
    10
  6. 6.
    Método según cualquier reivindicación anterior, en el que la segunda señal se discretiza y cuantifica (275) para representarla en forma de segunda secuencia.
  7. 7.
    Método según cualquier reivindicación anterior, que se usa para un reconocimiento de voz o un reconocimiento de imagen.
  8. 8.
    Producto de programa informático configurado para ejecutar el método según cualquiera de las reivindicaciones 1-7, cuando el producto de programa informático se ejecuta mediante un procesador.
  9. 9.
    Aparato configurado para ejecutar el método según cualquiera de las reivindicaciones 1-7.
    11
ES09799660.7T 2008-12-31 2009-12-28 Método para descubrir y reconocer patrones Active ES2536560T3 (es)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
FI20086260A FI20086260L (fi) 2008-12-31 2008-12-31 Menetelmä hahmon löytämiseksi ja tunnistamiseksi
FI20086260 2008-12-31
PCT/FI2009/051041 WO2010076386A2 (en) 2008-12-31 2009-12-28 Method for a pattern discovery and recognition

Publications (1)

Publication Number Publication Date
ES2536560T3 true ES2536560T3 (es) 2015-05-26

Family

ID=40240655

Family Applications (1)

Application Number Title Priority Date Filing Date
ES09799660.7T Active ES2536560T3 (es) 2008-12-31 2009-12-28 Método para descubrir y reconocer patrones

Country Status (7)

Country Link
US (1) US8560469B2 (es)
EP (1) EP2382587B1 (es)
JP (1) JP5611232B2 (es)
CN (1) CN102308307B (es)
ES (1) ES2536560T3 (es)
FI (1) FI20086260L (es)
WO (1) WO2010076386A2 (es)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10068050B2 (en) * 2013-10-30 2018-09-04 Vahagn Gurzadyan Revealing somatic sequences in human genome via Kolmogorov-Arnold technique
CN111126103B (zh) * 2018-10-30 2023-09-26 百度在线网络技术(北京)有限公司 用户人生阶段状态的判断方法和装置
CN116226514A (zh) * 2022-12-27 2023-06-06 西北工业大学 一种用于社交网络用户行为序列间的可迁移性度量方法
CN116340723B (zh) * 2023-05-22 2023-08-01 安徽中科大国祯信息科技有限责任公司 基于大数据的乡村水污染快速溯源方法及系统

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CA2081406C (en) 1991-12-23 1997-09-16 Chinmoy Bhusan Bose Method and apparatus for connected and degraded text recognition
MX9706407A (es) * 1995-03-07 1997-11-29 British Telecomm Reconocimiento del lenguaje.
US5617509A (en) 1995-03-29 1997-04-01 Motorola, Inc. Method, apparatus, and radio optimizing Hidden Markov Model speech recognition
US5924066A (en) 1997-09-26 1999-07-13 U S West, Inc. System and method for classifying a speech signal
US6006186A (en) * 1997-10-16 1999-12-21 Sony Corporation Method and apparatus for a parameter sharing speech recognition system
US20010044719A1 (en) * 1999-07-02 2001-11-22 Mitsubishi Electric Research Laboratories, Inc. Method and system for recognizing, indexing, and searching acoustic signals
US6681207B2 (en) * 2001-01-12 2004-01-20 Qualcomm Incorporated System and method for lossy compression of voice recognition models
CN1295674C (zh) * 2002-03-27 2007-01-17 诺基亚有限公司 模式识别
US20030212535A1 (en) * 2002-05-09 2003-11-13 Nagendra Goel Method and apparatus for simulating network jitter and packet loss
US7873185B2 (en) 2005-08-03 2011-01-18 Siemens Medical Solutions Usa, Inc. Method for detection and tracking of deformable objects

Also Published As

Publication number Publication date
JP5611232B2 (ja) 2014-10-22
EP2382587B1 (en) 2015-02-18
FI20086260A0 (fi) 2008-12-31
CN102308307A (zh) 2012-01-04
US8560469B2 (en) 2013-10-15
FI20086260A7 (fi) 2010-09-02
EP2382587A2 (en) 2011-11-02
CN102308307B (zh) 2014-03-12
US20120023047A1 (en) 2012-01-26
WO2010076386A2 (en) 2010-07-08
FI20086260L (fi) 2010-09-02
WO2010076386A3 (en) 2010-09-16
JP2012514228A (ja) 2012-06-21

Similar Documents

Publication Publication Date Title
JP6198872B2 (ja) 聴覚注意手がかりを用いた音声の音節/母音/音素の境界の検出
Chung et al. A recurrent latent variable model for sequential data
CN105702251B (zh) 基于Top-k加强音频词袋模型的语音情感识别方法
CN111341294B (zh) 将文本转换为指定风格语音的方法
US20200090642A1 (en) Method and apparatus with speech recognition
Seo et al. A maximum a posterior-based reconstruction approach to speech bandwidth expansion in noise
ES2536560T3 (es) Método para descubrir y reconocer patrones
CN117497008A (zh) 基于声门振动序列动态建模的语音情感识别方法和工具
WO2016181474A1 (ja) パターン認識装置、パターン認識方法およびプログラム
Birla A robust unsupervised pattern discovery and clustering of speech signals
Rahman et al. Dynamic thresholding on speech segmentation
US12211496B2 (en) Method and apparatus with utterance time estimation
JP6220733B2 (ja) 音声分類装置、音声分類方法、プログラム
Dey et al. Formant based bangla vowel perceptual space classification using support vector machine and K-nearest neighbor method
McInnes et al. Unsupervised extraction of recurring words from infant-directed speech
Räsänen et al. A noise robust method for pattern discovery in quantized time series: the concept matrix approach.
Pham et al. End-to-end Visual-guided Audio Source Separation with Enhanced Losses
Abdulbaqi Speech-based activity recognition for medical teamwork
Thakur et al. Directional embedding based semi-supervised framework for bird vocalization segmentation
Thasleema et al. Wavelet transform based consonant-vowel (CV) classification using support vector machines
Naik Gaonkar et al. A parallel computing approach to CNN-based QbE-STD using kernel-based matching
Anggraini et al. Phonics Recognition Using Machine Learning with MFCC Extraction
JP6313062B2 (ja) パターン認識装置、パターン認識方法およびプログラム
HK1249652A1 (zh) 声学模型训练方法、语音识别方法、装置、设备及介质
Sadaghiani New method for mathematical modelling of human visual speech.