ES2608613A1 - Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora. - Google Patents

Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora. Download PDF

Info

Publication number
ES2608613A1
ES2608613A1 ES201600805A ES201600805A ES2608613A1 ES 2608613 A1 ES2608613 A1 ES 2608613A1 ES 201600805 A ES201600805 A ES 201600805A ES 201600805 A ES201600805 A ES 201600805A ES 2608613 A1 ES2608613 A1 ES 2608613A1
Authority
ES
Spain
Prior art keywords
species
acoustic
transformation
markov model
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
ES201600805A
Other languages
English (en)
Other versions
ES2608613B2 (es
Inventor
Carlos Manuel TRAVIESO GONZÁLEZ
David De La Cruz SÁNCHEZ RODRÍGUEZ
Juan José NODA ARENCIBIA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de las Palmas de Gran Canaria
Original Assignee
Universidad de las Palmas de Gran Canaria
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de las Palmas de Gran Canaria filed Critical Universidad de las Palmas de Gran Canaria
Priority to ES201600805A priority Critical patent/ES2608613B2/es
Publication of ES2608613A1 publication Critical patent/ES2608613A1/es
Application granted granted Critical
Publication of ES2608613B2 publication Critical patent/ES2608613B2/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Catching Or Destruction (AREA)
  • Machine Translation (AREA)

Abstract

La presente invención se refiere a un procedimiento para el reconocimiento y censo automatizado de reptiles a través de la transformación usando modelos ocultos de Markov de la fusión de las características en diferentes dominios de sus emisiones de señales acústicas permitiendo la identificación de la especie y el seguimiento específico de individuos dentro de una misma especie. Esta metodología emplea una concatenación de características temporales y espectrales para ser automáticamente reconocidas por medio de un sistema inteligente de reconocimiento de patrones.

Description

DESCRIPCIÓN
Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.
5
Objeto de la invención
La presente invención se refiere a un procedimiento para el reconocimiento y censo automatizado de reptiles a través de la hiperdimensionalidad de la transformación de sus emisiones de señales acústicas permitiendo la identificación de la especie y el seguimiento 10 específico de individuos dentro de una misma especie. Las señales bio-acústicas que producen los reptiles son generadas de diversas formas: por excitación de la laringe, expulsando aire a través de su nariz o boca, y agitando o rascando partes corporales entre otros mecanismos.
Antecedentes de la invención 15
Actualmente, el empleo de técnicas bio-acústicas para el estudio y seguimiento <le las especies animales dentro de su hábitat suponen una de las herramientas más importantes para los biólogos y conservacionistas. El avance tecnológico experimentado en los sensores acústicos y los medios de grabación digitales permiten el censo e identificación de especies de 20 forma remota evitando técnicas invasivas que alteran los ecosistemas o suponen la presencia física del biólogo en el área de estudio. Los datos recopilados permiten el seguimiento de animales evitando el marcado físico de los mismos y proporcionan a los investigadores información sobre los indicadores biológicos de la zona. La presencia o no de determinadas especies y su número pueden ser empleados para determinad la salud de un ecosistema, 25 detectando la presencia de contaminación, el estado de calidad de las aguas, cambios climáticos o incluso alteraciones en la radiación ultravioleta.
Existen numerosos estudios de las características espectro-temporales de especies, en los cuales se intentan analizar los parámetros en frecuencia y tiempo de las señales acústicas o 30 vocalizaciones producidas por los animales con objeto de identificar patrones en sus comunicaciones y sus iteraciones sociales. En ellos en general, el procedimiento consiste en recopilar horas de grabaciones sonoras por medio de sensores o micrófonos situados en el hábitat de estudio, las cuales son escuchadas y analizadas espectro-temporalmente por un biólogo para determinar la presencia de una determinada especie en el área que se está 35 investigando. Sin embargo, esté procedimiento es lento debido al gran número de horas de grabación que pueden haber sido recopiladas y a la necesidad de tener que contar con un biólogo experto en bio-acústica familiarizado con la especie animal a la que se desea realizar el seguimiento. En los últimos años se ha realizado un esfuerzo con la intención de automatizar esté procedimiento por medio de sistemas inteligentes empleado técnicas de reconocimiento 40 automático. Los estudios se han centrado en especies con amplía producción sonora como los pájaros, ranas y ballenas, donde existen varias investigaciones prometedoras que tratan de resolver éste problema. En ellas se aplican técnicas empleadas en el reconocimiento del habla humana por medio de sistemas expertos que reconocen con más o menos éxito la especie objeto de estudio. Por el contrario, los reptiles al considerarse mudos o con poca producción 45 sonora nunca han sido objetos de este tipo de investigaciones. Sin embargo, los reptiles entre ellos los cocodrilos, gecos, serpientes y tortugas, son capaces de producir sonidos bio-acústicos que son específicas de la especie. Los principales estudios en reconocimiento acústico se han centrado en los sonidos generados por los pájaros ejemplo de ello lo podemos encontrar en los siguientes artículos: 50
i) Harmä, Automatic identification of bird species based on sinusoidal modeling of syllables, in: Acoustics, Speech, and Signal Processing 2003. Proceedings (ICASSP'03). 2003 IEEE International Conference on, Vol. 5, IEEE, 2003, pp. V-545.
ii) S. Fagerlund, Bird species recognition using support vector machines, EURASIP 5 journal on Applied Signal Processing 2007 (1) (2007) 64-64.
iii) Lee, Chang-Hsing, Chin-Chuan Han, and Ching-Chien Chuang. "Automatic classification of bird species from their sounds using two-dimensional cepstral coefficients." Audio, Speech, and Language Processing, IEEE Transactions on 16.8 10 (2008): 1541-1550.
iv) Jančovič, Peter, and Münevver Köküer. "Automatic detection and recognition of tonal bird sounds in noisy environments." EURASIP Journal on Advances in Signal Processing 2011.1 (2011): 982936. 15
v) Graciarena, Martín, et al. "Acoustic front-end optimization for bird species recognition." Acoustics Speech and Signal Processing (ICASSP), 2010 IEEE International Conference on. IEEE, 2010.
20
vi) Graciarena, Martín, et al. "Bird species recognition combining acoustic and sequence modeling." Acoustics, Speech and Signal Processing (ICASSP), 2011 IEEE International Conference on. IEEE, 2011.
vii) Lopes, Marcelo T., et al. "Automatic bird species identification for large number of 25 species." Multimedia (ISM), 2011 IEEE International Symposium on. IEEE, 2011.
viii) Mporas, Iosif, et al. "Automated Acoustic Classification of Bird Species from Real-Field Recordings." Tools with Artificial Intelligence (ICT A 1), 2012 IEEE 24th International Conference on. Vol. l. IEEE, 2012. 30
ix) Juang, Chia-Feng, and Tai-Mou Chen. "Birdsong recognition using prediction-based recurrent neural fuzzy networks." Neurocomputing 71.1 (2007): 121-130.
Las técnicas clásicas de reconocimiento automático acústico han sido empleadas para el 35 reconocimiento de acústico de patrones, de personas y animales, corno en:
x) R. Bardelim, Algorithmic analysis of Complex Audio Scenes. Universitat Bonn. PhD Thesis, 2008
40
xi) H. Xing, P.C. Loizou, Frequency Shift Detection of Speech with GMMs and SVMs, IEEE workshop on Signal Processing Systems, (2002) 215-219
Además, se han tratado de emplear del mismo modo técnicas clásicas de reconocimiento automático acústico sobre los insectos, murciélagos y ranas, ejemplos de ello pueden 45 encontrarse en los siguientes artículos:
xii) K. Riede, Acoustic monitoring of orthoptera and its potential for conservation, Journal of Insect Conservation 2 (3-4) ( 1998) 217-223.
50
xiii) T. Ganchev, l. Potamitis, N. Fakotakis, Acoustic monitoring of singing insects, in: Acoustics, Speech and Signal Processing, 2007. ICASSP 2007. IEEE International Conference on, Vol. 4, IEEE, 2007, pp. IV-721.
xiv) Z. Leqing, Z. Zhen, lnsect sound recognition based on sbc and hmm, in: Intelligent 5 Computation Technology and Automation (ICICTA),2010 International Conference on, Vol. 2, IEEE, 2010, pp. 544-548.
xv) D. Chesmore, Automated bioacoustic identification of species, Anais da Academia Brasileira de Ciencias 76 (2) (2004) 436-440. 10
xvi) J. Pinhas, V. Soroker, A. Hetzroni, A. Mizrach, M. Teicher, J. Goldberger, Automatic acoustic detection of the red palm weevil, computers and electronics in agriculture 63 (2) (2008) 131-139.
15
xvii) A. E. Chaves, C. M. Travieso, A. Camacho, J. B. Alonso, Katydids acoustic classification on verification approach based on mfcc and hmm, in: Intelligent Engineering Systems (INES), 2012 IEEE 16th International Conference on, IEEE, 2012, pp. 561-566.
20
xviii) S. Kaloudis, D. Anastopoulos, C. P. Yialouris, N. A. Lorentzos, A. B. Sideridis, Insect identification expert system for forest protection, Expert Systems with Applications 28 (3) (2005) 445-452.
xix) A. Henriquez, J. B. Alonso, C. M. Travieso, B. Rodríguez-Herrera, F. Bolanos, P. 25 Alpízar, K. Lopez-de Ipina, P. Henriquez, An automatic acoustic bat identification system based on the audible spectrum, Expert Systems with Applications 41 (11) (2014) 5451-5465.
xx) G. Grigg, A. Taylor, H. Me Callum, G. Watson, Monitoring frog communities: an 30 application of machine learning, in: Proceedings of Eighth Innovative Applications of Artificial Intelligence Conference, Portland Oregon, 1996, pp. 1564-1569.
xxi) C.-H. Lee, C.-H. Chou, C.-C. Han, R.-Z. Huang, Automatic recognition of animal vocalizations using averaged mfcc and linear discriminant analysis, Pattern 35 Recognition Letters 27 (2) (2006) 93-101.
xxii) T. S. Brandes, Feature vector se1ection and use with hidden markov models to identify frequency-modulated bioacoustic signals amidst noise, Audio, Speech, and Language Processing, IEEE Transactions on 16 (6) (2008) 1173-1180. 40
xxiii) C.-J. Huang, Y.-J. Yang, D.-X. Yang, Y.-J. Chen, Frog classification using machine learning techniques, Expert Systems with Applications 36 (2) (2009) 3737-3743.
xxiv) M. A. Acevedo, C. J. Corrada-Bravo, H. Corrada-Bravo, L. J. Villanueva-Rivera, T. M. 45 Aide, Automated classification of bird and amphibian calls using machine learning: A comparison of methods, Ecological Informatics 4 (4) (2009) 206-214.
xxv) N. C. Han, S. V. Muniandy, J. Dayou, Acoustic classification of australian anurans based on hybrid spectral-entropy approach, Applied Acoustics 72 (9) (2011) 639-645. 50
xxvi) W.-P. Chen, S.-S. Chen, C.-C. Lin, Y.-Z. Chen, W.-C. Lin, Automatic recognition of frog calls using a multi-stage average spectrum, Computers & Mathematics with Applications 64 (5) (2012) 1270-1281.
xxvii) C. L. T. Yuan, D. A. Ramli, Frog sound identification system for frog species 5 recognition, in: Context-Aware Systems and Applications, Springer, 2013, pp. 41-50.
xxviii) H. Jaafar, D. A. Ramli, B. A. Rosdi, S. Shahrudin, Frog identification system based on local means k-nearest neighbors with fuzzy distance weighting, in: The 8th International Conference on Robotic, Vision, Signal Processing & Power Applications, 10 Springer, 2014, pp. 153-159.
xxix) C. Bedoya, C. Isaza, J. M. Daza, J. D. Lopez, Automatic recognition of anuran species based on syllable identification, Ecological Informatics 24 {2014) 200--209.
15
xxx) J. Xie, M. Towsey, A. Truskinger, P. Eichinski, J. Zhang, P. Roe, Acoustic classification of australian anurans using syllable features, in: Intelligent Sensors, Sensor Networks and Information Processing (ISSNIP), 2015 IEEE Tenth International Conference on, IEEE, 2015, pp. 1-6.
20
Otros ejemplos de reconocimiento vocalizaciones bio-acústicas se pueden encontrar en la identificación automática de mamíferos marinos donde destacan los estudios sobre las ballenas. Las siguientes publicaciones son ejemplo de ello:
xxxi) Mouy, Xavier, Mohammed Bahoura, and Yvan Simard. "Automatic recognition of fin 25 and blue whale calls for real-time monitoring in the St. Lawrence." The Journal of the Acoustical Society of America 126.6 (2009): 2918-2928.
xxxii) Dugan, Peter J., et al. "North Atlantic right whale acoustic signal processing: Part l. Comparison of machine learning recognition algorithms." Applications and Technology 30 Conference (LISAT). 2010 Long Island Systems. IEEE, 2010
xxxiii) Baumgartner, Mark F., and Sarah E. Mussoline. "A generalized baleen whale call detection and classification system." The Journal of the Acoustical Society of America 129.5 (2011): 2889-2902. 35
xxxiv) Seekings, Paul, and John Potter. "Classification of marine acoustic signals using Wavelets & Neural Networks." Proc. of 8th Western Pacific Acoustics Conf.(Wespac8). 2003.
40
Existen varias patentes relacionadas con la identificación bio-acústica de especies las cuales se centran de manera genérica en la recolección y comparación de datos y parámetros sonoros basada en sus vocalizaciones. Pero todas ellas se centran principalmente en la identificación de pájaros y ninguna de ellas contempla la identificación acústica de reptiles, ni tienen en cuenta sus especificidades bio-acústicas. Además, solo contemplan la posibilidad de identificar 45 especies no sujetos individuales, subfamilias o género dentro de una determinada especie. Ejemplo de ello se puede encontrar en las siguientes patentes:
xxxv) WO 2005024782 A1 (Wildlife Acoustics Inc, Ian Agranat) "Method and apparatus for automatically identifying animal species from their vocalizations". 50
xxxvi) US 8599647 B2 (Wildlife Acoustics, Inc.) "Method for listening to ultrasonic animal sounds".
xxxvii) US 7963254 B2 (Pariff Llc) "Method and apparatus for the automatic identification of birds by their vocalizations". 5
xxxviii) US 20130282379 A1 (Tom Stephenson, Stephen Travis POPE) "Method and apparatus for analyzing animal vocalizations, extracting identification characteristics, and using databases of these characteristics for identifying the species of vocalizing animals". 10
xxxix) US 20040107104 A1 (Schaphorst Richard A.) "Method and apparatus for automated identification of animal sounds".
xl) US 8457962 82 (Lawrence P. Jones) "Remote audio surveillance for detection and 15 analysis of wildlife sounds".
En cuanto a los reptiles, los dispersos estudios se centran en el análisis espectro-temporal de las características acústicas de los reptiles, pero ninguno de ellos hace uso de estas características para el reconocimiento automatizado de estas especies. Además, estos 20 principalmente se centran en los cocodrilos y los gecos que son las especies más comunicativas entre los reptiles.
xli) Vergne, A. L., M. B. Pritz, and N. Mathevon. "Acoustic communication in crocodilians: from behaviour to brain." Biological Reviews 84.3 (2009): 391-411. 25
xlii) Wang, Xianyan, et al. "Acoustic signals of Chinese alligators (Alligator sinensis): social communication." The Journal of the Acoustical Society of America 121.5 (2007): 2984-2989.
30
xliii) Ferrara, Camila R., Richard C. Vogt, and Renata S. Sousa-Lima. "Turtle vocalizations as the first evidence of posthatching parental care in chelonians." Journal of Comparative Psychology 127.1 (2013): 24.
xliv) Labra, Antonieta, et al. Acoustic features of the weeping lizard's distress call. Copeia, 35 2013, vol. 2013, no 2, p. 206-212.
Por tanto, se puede observar que no hay constancia de la identificación automatizada de reptiles por medio de su producción sonora, tanto de la especie a la que pertenece como al seguimiento individualizado de un espécimen en concreto. La presente invención tiene por 40 objeto el reconocimiento específico de la especie, familia, subfamilia y género a la que pertenece un determinado reptil en base a sus características de emisión bio-acústica y mediante el hiperdimensionamiento de la transformación de la fusión de sus características acústicas en los dominios ceptrales y temporales. Gracias a este paso, esta solución no ha sido hallada en el estado de la técnica, a diferencia de las vocalizaciones realizadas por otras 45 especies animales que poseen cuerdas vocales. Esta propuesta reconocería automáticamente vocalizaciones y emisiones bio-acústicas de cualquier naturaleza en reptiles. La invención, por tanto, tendría potenciales aplicaciones en la detección, identificación y monitorización del grupo de animales reptiles (Reptilia) o sauropsida. Permitiendo así el control de las poblaciones, lo que tiene a su vez aplicaciones en el control de plagas o especies invasivas, en la 50 conservación de especies, estudios biológicos de comportamiento animal, cambios de las
condiciones ambientales, etc. Incluso en la detección de posibles patologías o plagas que pudieran afectar a este grupo animal. La invención por lo tanto abre un amplio abanico de posibilidades de aplicaciones en el ámbito biológico o de conservación ambiental. Por ello, su análisis y detección es de suma importancia en los tiempos actuales y futuros.
5
Cabe concluir tras estos antecedentes, que los estudios que se han desarrollado hasta el momento y que han tenido como parámetro característico los sonidos producidos por los reptiles, han sido utilizados básicamente para el estudio del comportamiento biológico de la especie, para caracterizar los parámetros acústicos fundamentales de sus llamadas, establecer su neurología o estudiar la implicación de las mismas en su comportamiento social. También 10 los antecedentes muestran trabajo específico para diferentes especies de animales, o bien sistemas generales basados en un sistema clásico de reconocimiento de patrones, sin particularidades sobre cómo mejorar el reconocimiento según la especie o la aplicación. El método propuesto, a diferencia de lo observado en el estado de la técnica, permite utilizar sus parámetros acústicos verbales y no verbales para posibilitar el reconocimiento de las especies 15 por medio de un módulo que aumenta la hiperdimensionalidad de la transformación de las características acústicas aplicado a sistemas inteligentes. Esto presenta la ventaja de no ser invasivo, pues con un sistema de micrófonos remoto se puede captar y analizar la señal acústica de los especímenes. Además, permite el seguimiento y detección de estas especies en condiciones de visibilidad limitada. 20
Sumario de la invención
La presente invención se refiere a un método para la identificación y censo de especies de reptiles a partir de la hiperdimensionalidad de la transformación de su producción sonora 25 siguiendo los siguientes cinco pasos:
i) Pre-procesado de la señal acústica enfatizando las regiones que contienen mayor información.
30
ii) Segmentación automática de las llamadas y sonidos verbales o no verbales detectados en la señal acústica, separando las distintas emisiones sonoras que pueden pertenecer a diferentes especies o especímenes en la señal de audio.
iii) Fusión paramétrica de las características extraídas en frecuencia y tiempo de cada sonido 35 segmentado de las llamadas o vocalizaciones para obtener una representación completa de diferentes dominios de la fuente sonora.
iv) Transformación de las características fusionadas a partir de generar una hiperdimensionalidad de las mismas, creando un dominio de representación del modelo de 40 Markov mas discriminativo.
v) Clasificación e identificación de la especie o individuo por medio de un algoritmo de aprendizaje automatizado.
45
Descripción de las figuras
La figura 1 detalla de forma esquemática el diagrama de bloques del sistema desarrollado.
La figura 2 muestra la forma del espectrograma de las emisiones sonoras de los reptiles. 50
a) Crotalus atrox.
b) Gekko gecko.
c) Alligator mississippiensis. 5
d) Chelonoides nigra.
La figura 3 representa de forma esquemática la segmentación de las vocalizaciones.
10
a) Cálculo de la transformada rápida de Fourier (FFT)
b) Localización del punto de mayor energía del espectrograma
c) Se repite el procedimiento hasta el final del espectrograma. 15
La figura 4 detalla de forma esquemática el proceso de extracción de características espectrales.
a) Cálculo de la transformada rápida de Fourier (FFT). 20
b) Filtrado por medio de un banco de filtros triangulares Mel.
c) Transformada del Coseno Discreto (DCT).
25
d) Se retienen los 14 primeros coeficientes de la OCT.
Descripción detallada de una realización preferida de la invención 30
Aunque la invención se describe en términos de una realización específica preferida, será fácilmente evidente para los expertos en esta técnica que se pueden hacer diversas modificaciones, redisposiciones y reemplazos. El alcance de la invención está definido por las reivindicaciones adjuntas a la misma. 35
La invención propuesta consiste en un método que aplica varios subprocesos hasta llegar a la identificación inequívoca de la especie a la que pertenece el réptil por medio de sistemas inteligentes. El primero, realiza un pre-procesado de la señal (i). A continuación, se realiza una segmentación de las emisiones acústicas contenidas en la grabación de audio por medio de un 40 análisis automático de su espectrograma (ii). Sobre los segmentos de audio se extraen características en el dominio del tiempo y la frecuencia para caracterizar cada sonido verbal o no verbal y se fusionan todas las características para tener una robusta y única representación de la fuente sonora. (iii). Se aplicará una transformación del modelo de Markov para generar una mayor dimensionalidad y nueva representación de características, sobre la representación 45 fusionada. (iv). Los parámetros transformados se envían a un algoritmo clasificador de patrones para realizar la identificación de la especie (v).
A continuación, se describen en detalle los subprocesos enumerados previamente.
50
(i) El pre-procesado de la señal consiste en la conversión de estéreo a mono del audio procedente de las grabaciones sonoras realizando la media entre los dos canales y se filtra la señal paso bajo con frecuencia de corte de 18 kHz, debido a que las emisiones de los reptiles se concentran fundamentalmente en bajas frecuencias. A continuación, se aplica un filtro de pre-énfasis para igualar la energía del espectro definido por la ecuación Y(n) = 5 X(n) - 0.95*X(n-1), donde X(n) es la señal sonora e Y(n) la salida del filtro. El filtro de pre-énfasis permite aumentar la contribución de las altas frecuencias en la identificación del espécimen.
(ii) Una vez pre-procesada la señal se procede a la segmentación de sonidos vocales o no 10 vocales de forma automatizada realizando un estudio del espectrograma de la señal. Para ello se emplea una versión especialmente modificada del algoritmo de Härmä para la obtención de los segmentos. Para ello el espectrograma se recorre aplicando una ventana de Hamming de duración 11.6 ms. y solapamiento del 45%. En cada paso de la ventana se localiza el punto de mayor energía del espectrograma y se toma la señal a izquierda y 15 derecha de ese punto hasta que la energía cae a 20 dB decibelios, repitiendo el proceso a cada paso de la ventana. A continuación, se aplica un supresor inteligente de muestras incorrectas para eliminar automáticamente aquellos segmentos que no contienen información relevante para la identificación. Para ello, se ha aplicado el algoritmo de alineamiento temporal dinámico en inglés, Dynamic Time Warping (DTW), utilizando como 20 intervalo de confianza la media más 1.8 veces la desviación estándar. Este diseño, que no se había utilizado con anterioridad en la detección de animales, impide que sonidos del entorno natural interfieran en el proceso de clasificación aumentando la tasa de éxito en el reconocimiento.
25
(iii) Una vez obtenidas las distintas emisiones acústicas se extraen sobre cada una de ellos los coeficientes de caracterización espectrales MFCC y LFCC, en inglés ''Mel and Lineal Frequencial Cepstral Coeflcients'', para obtener información de todo el espectro; y se obtienen parámetros temporales como la longitud temporal del sonido y su entropía.
30
A continuación, se fusiona el conjunto de parámetros extraídos por cada sonido; creando un único vector que caracteriza tanto en frecuencia como en tiempo cada una de las llamadas. Se toman 14 coeficientes por cada una de las características, formando por tanto un vector de 28 coeficientes por cada segmento, modelando así la información tanto de las altas como de las bajas frecuencias de los sonidos producidos por los reptiles. 35
(iv) Se aplica una transformación mediante el uso de los modelos ocultos de Markov, para generar una mayor dimensionalidad de la anterior fusión parametrizada. Este nuevo espacio de representación tendrá un mayor discriminante y mejorará el porcentaje de éxito del reconocimiento, sobre los sistemas clásicos que no usan este tipo de 40 hiperdimensionamiento.
La transformación permitirá pasar del vector obtenido de la fusión paramétrica a un vector de mucha mayor dimensión, adaptado a un espacio de representación que dependerá del número de estados y del número de símbolos por estados del modelo oculto de Markov 45 (MOM). Serán a estos vectores representados a los que se le aplicará el clasificador SVM para obtener un resultado de reconocimiento.
Teniendo en cuenta la nomenclatura usada en la descripción del clasificador MOM, se interpreta P(X│λ) como la probabilidad de que un vector de características X (que es el 50 resultado de la fusión paramétrica) haya sido creado por el modelo de Markov λ, definido
por el número de estados y los símbolos por estado. Entonces el espacio adaptado para el mapeo mencionado de vectores de la fusión queda definido como el gradiente del logaritmo de dicha probabilidad:
5
Donde cada componente de UX es la derivada con respecto a un determinado parámetro del MOM y especifica consecuentemente la medida en la que cada parámetro contribuye al vector de la fusión paramétrica. En este caso se ha utilizado solo la derivada respecto a la matriz de probabilidad de emisión de símbolos, . Que indica la probabilidad de 10 emitir un símbolo vk estando en
imagen1
el estado j. Donde N es el número de estados y M el número de símbolos por estado.
Se obtiene entonces la expresión de transformación del modelo de Markov siguiendo la 15 expresión:
Siendo δ la función delta de Dirac y la matriz gamma Υt (i) un indicativo de la probabilidad de estar en el estado i en un instante t. El numerador de la expresión anterior indica el 20 número de veces que se usado cada símbolo en cada estado.
(v) Los vectores se envían a un sistema de clasificación basado en una máquina de soporte de vectores SVM, en inglés "Support Vector Machine", de identificación multi-clase aplicando la estrategia "One VsOne" que ha sido previamente entrenado con los audios de las especies de reptiles que se desea identificar. A la salida del clasificador se obtiene el 25 reconocimiento o detección de las especies o individuos en los que se desee realizar el estudio, censo o seguimiento. La máquina de soporte de vectores ha sido configurada empleando un núcleo de tipo Gaussiano, K(x, x') = exp (Υ║x - x'║), con un valor de γ = 0.52 y un margen blando de parámetro C = 20. La transformación del modelo de Markov permite una mejor separación del espacio muestra! en la entrada del SVM separando de 30 forma más eficiente las distintas clases y, por tanto, incrementando los límites de decisión del mismo facilitando el reconocimiento. Este diseño es, por tanto, más eficaz que los diseños clásicos al permitir una diferenciación más óptima de los distintos sonidos. Los resultados experimentales dan como resultado tasas de acierto por encima del 99% en la identificación de la especie a la que pertenece el reptil. 35

Claims (1)

  1. REIVINDICACIONES
    1. Método para la identificación y clasificación automática de especímenes animales pertenecientes al grupo Reptilia (reptiles o sauropsidas) por medio de la transformación del modelo de Markov de la fusión paramétrica de las características de sus emisiones bio-5 acústicas de sonidos verbales y no verbales, usando un sistema inteligente de reconocimiento de patrones y un sistema de supresión inteligente de sonidos o segmentos incorrectos. El método también identifica individuo, especie y género de cada reptil. Los sonidos detectados se hacen pasar por un supresor inteligente de segmentos, para descartar los sonidos procedentes del entorno y a todos aquellos que contengan poca o nula información para la identificación. El 10 reconocimiento taxonómico de cada reptil se produce al aplicar la transformación del modelo de Markov de la fusión de información de parámetros espectrales y temporales, que caracterizan las emisiones acústicas de estos especímenes en frecuencia y tiempo. En este caso, los sonidos de los reptiles son caracterizados por medio de:
    15
    (i) La transformación del modelo de Markov de la fusión paramétrica de sus características a un espacio de mayor dimensionalidad.
    La transformación se ha calculado mediante la derivada respecto a la matriz de probabilidad de emisión de símbolos, ; 20 que indica la
    imagen1
    probabilidad de emitir un símbolo vk estando en el estado j. Donde N es el número de estados y M el número de símbolos por estado. Se obtiene entonces la expresión de transformación del modelo de Markov siguiendo la expresión:
    25
    Siendo δ la función delta de Dirac y la matriz gamma Υt (i) un indicativo de la probabilidad de estar en el estado i en un instante t. El numerador de la expresión anterior indica el número de veces que se usa cada símbolo en cada estado. 30
    (ii) La fusión paramétrica se obtiene a partir de los coeficientes MFCC y LFCC, en inglés, "Mel and Lineal Frequencial Cepstral Coeficients", para obtener información tanto de las bajas como de las altas frecuencias de las señales acústicas del reptil; y de los parámetros temporales de las emisiones bio-acústicas con características discriminantes como la 35 entropía y la duración del sonido:
    Fusión paramétrica = {Parámetros_MFCC U Parámetros_LFCC U Entropía U Duración_del_sonido}
    40
    Con el nuevo espacio de representacion de mayor dimensionalidad de la transformación del modelo de Markov de la fusión de parámetros, se clasifica e identifica la especie o individuo por medio de un algoritmo de aprendizaje automatizado.
ES201600805A 2016-09-16 2016-09-16 Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora. Active ES2608613B2 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201600805A ES2608613B2 (es) 2016-09-16 2016-09-16 Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201600805A ES2608613B2 (es) 2016-09-16 2016-09-16 Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.

Publications (2)

Publication Number Publication Date
ES2608613A1 true ES2608613A1 (es) 2017-04-12
ES2608613B2 ES2608613B2 (es) 2018-04-02

Family

ID=58493160

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201600805A Active ES2608613B2 (es) 2016-09-16 2016-09-16 Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.

Country Status (1)

Country Link
ES (1) ES2608613B2 (es)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050049877A1 (en) * 2003-08-28 2005-03-03 Wildlife Acoustics, Inc. Method and apparatus for automatically identifying animal species from their vocalizations
US20070129936A1 (en) * 2005-12-02 2007-06-07 Microsoft Corporation Conditional model for natural language understanding
US20150269933A1 (en) * 2014-03-24 2015-09-24 Microsoft Corporation Mixed speech recognition

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050049877A1 (en) * 2003-08-28 2005-03-03 Wildlife Acoustics, Inc. Method and apparatus for automatically identifying animal species from their vocalizations
US20070129936A1 (en) * 2005-12-02 2007-06-07 Microsoft Corporation Conditional model for natural language understanding
US20150269933A1 (en) * 2014-03-24 2015-09-24 Microsoft Corporation Mixed speech recognition

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
Noda Arencibia Juan J et al. AUTOMATIC CLASSIFICATION OF FROGS CALLS BASED ON FUSION OF FEATURES AND SVM. 20/08/2015, Páginas 59 - 63 ISBN 978-1-4673-7947-2 ; ISBN 1-4673-7947-6, (DOI: doi:10.1109/IC3.2015.7346653) Todo el documento. *
Noda Juan J et al. METHODOLOGY FOR AUTOMATIC BIOACOUSTIC CLASSIFICATION OF ANURANS BASED ON FEATURE FUSION. 29/12/2015, Vol. 50, Páginas 100 - 106 ISSN 0957-4174, (DOI: doi:10.1016/j.eswa.2015.12.020) Todo el documento, *

Also Published As

Publication number Publication date
ES2608613B2 (es) 2018-04-02

Similar Documents

Publication Publication Date Title
Kong et al. DCASE 2018 challenge surrey cross-task convolutional neural network baseline
Mitra et al. Hybrid convolutional neural networks for articulatory and acoustic information based speech recognition
Cai et al. Sensor network for the monitoring of ecosystem: Bird species recognition
Alonso et al. Automatic anuran identification using noise removal and audio activity detection
De Oliveira et al. Bird acoustic activity detection based on morphological filtering of the spectrogram
Pace et al. Subunit definition and analysis for humpback whale call classification
Lee et al. Automatic recognition of bird songs using cepstral coefficients
Badino et al. Integrating articulatory data in deep neural network-based acoustic modeling
Brandes Feature vector selection and use with hidden Markov models to identify frequency-modulated bioacoustic signals amidst noise
Noda et al. Methodology for automatic bioacoustic classification of anurans based on feature fusion
Xie et al. Adaptive frequency scaled wavelet packet decomposition for frog call classification
Ting Yuan et al. Frog sound identification system for frog species recognition
Ji et al. Discrimination of individual tigers (Panthera tigris) from long distance roars
Rai et al. An automatic classification of bird species using audio feature extraction and support vector machines
CN115048984A (zh) 一种基于深度学习的母猪发情声识别方法
Xie et al. Audio-only bird species automated identification method with limited training data based on multi-channel deep convolutional neural networks
Murugaiya et al. Probability enhanced entropy (PEE) novel feature for improved bird sound classification
Trawicki et al. Automatic song-type classification and speaker identification of Norwegian ortolan bunting (Emberiza hortulana) vocalizations
Xie et al. High accuracy individual identification model of crested ibis (Nipponia Nippon) based on autoencoder with self-attention
ES2608613B2 (es) Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.
Wanare et al. Human emotion recognition from speech
Islam et al. Houston toad and other chorusing amphibian species call detection using deep learning architectures
Zhang et al. A novel insect sound recognition algorithm based on mfcc and cnn
Mane et al. Identification & Detection System for Animals from their Vocalization
Fagerlund Studies on bird vocalization detection and classification of species

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2608613

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20180402