ES2608613B2 - Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora. - Google Patents

Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora. Download PDF

Info

Publication number
ES2608613B2
ES2608613B2 ES201600805A ES201600805A ES2608613B2 ES 2608613 B2 ES2608613 B2 ES 2608613B2 ES 201600805 A ES201600805 A ES 201600805A ES 201600805 A ES201600805 A ES 201600805A ES 2608613 B2 ES2608613 B2 ES 2608613B2
Authority
ES
Spain
Prior art keywords
species
sounds
identification
markov model
fusion
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES201600805A
Other languages
English (en)
Other versions
ES2608613A1 (es
Inventor
Carlos Manuel TRAVIESO GONZÁLEZ
David De La Cruz SÁNCHEZ RODRÍGUEZ
Juan José NODA ARENCIBIA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Universidad de las Palmas de Gran Canaria
Original Assignee
Universidad de las Palmas de Gran Canaria
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Universidad de las Palmas de Gran Canaria filed Critical Universidad de las Palmas de Gran Canaria
Priority to ES201600805A priority Critical patent/ES2608613B2/es
Publication of ES2608613A1 publication Critical patent/ES2608613A1/es
Application granted granted Critical
Publication of ES2608613B2 publication Critical patent/ES2608613B2/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Catching Or Destruction (AREA)

Abstract

La presente invención se refiere a un procedimiento para el reconocimiento y censo automatizado de reptiles a través de la transformación usando modelos ocultos de Markov de la fusión de las características en diferentes dominios de sus emisiones de señales acústicas permitiendo la identificación de la especie y el seguimiento específico de individuos dentro de una misma especie. Esta metodología emplea una concatenación de características temporales y espectrales para ser automáticamente reconocidas por medio de un sistema inteligente de reconocimiento de patrones.

Description

Metodología para el reconocimiento automatizado de reptiles mediante su producción sonora. 5 Objeto de la invención La presente invención se refiere a un procedimiento para el reconocimiento y censo automatizado de reptiles a través de la hiperdimensionalidad de la transformación de sus emisiones de señales acústicas permitiendo la identificación de la especie y el seguimiento específico de individuos dentro de una misma especie. Las señales bio-acústicas que 10 producen los reptiles son generadas de diversas formas: por excitación de la laringe, expulsando aire a través de su nariz o boca, y agitando o rascando partes corporales entre otros mecanismos. Antecedentes de la invención 15 Actualmente, el empleo de técnicas bio-acústicas para el estudio y seguimiento de las especies animales dentro de su hábitat suponen una de las herramientas más importantes para los biólogos y conservacionistas. El avance tecnológico experimentado en los sensores acústicos y los medios de grabación digitales permiten el censo e identificación de especies de forma remota evitando técnicas invasivas que alteran los ecosistemas o suponen la 20 presencia física del biólogo en el área de estudio. Los datos recopilados permiten el seguimiento de animales evitando el marcado físico de los mismos y proporcionan a los investigadores información sobre los indicadores biológicos de la zona. La presencia o no de determinadas especies y su número pueden ser empleados para determinad la salud de un ecosistema, detectando la presencia de contaminación, el estado de calidad de las aguas, 25 cambios climáticos o incluso alteraciones en la radiación ultravioleta. Existen numerosos estudios de las caracteristicas espectro-temporales de especies, en los cuales se intentan analizar los parámetros en frecuencia y tiempo de las señales acústicas o vocalizaciones producidas por los animales con objeto de identificar patrones en sus comunicaciones y sus iteraciones sociales. En ellos en general, el procedimiento consiste en 30 recopilar horas de grabaciones sonoras por medio de sensores o micrófonos situados en el hábitat de estudio, las cuales son escuchadas y analizadas espectro-temporalmente por un biólogo para detenninar la presencia de una detenninada especie en el área que se está investigando. Sin embargo, esté procedimiento es lento debido al gran número de horas de grabación que pueden haber sido recopiladas y a la necesidad de tener que contar con un biólogo experto en bio-acústica familiarizado con la especie animal a la que se desea realizar 5 el seguimiento. En los últimos años se ha realizado un esfuerzo con la intención de automatizar esté procedimiento por medio de sistemas inteligentes empleado técnicas de reconocimiento automático. Los estudios se han centrado en especies con amplía producción sonora como los pájaros, ranas y ballenas, donde existen varias investigaciones prometedoras que tratan de resolver éste problema. En ellas se aplican técnicas empleadas en el 10 reconocimiento del habla humana por medio de sistemas expertos que reconocen con más o menos éxito la especie objeto de estudio. Por el contrario, los reptiles al considerarse mudos o con poca producción sonora nunca han sido objetos de este tipo de investigaciones. Sin embargo, los reptiles entre ellos los cocodrilos, gecos, serpientes y tortugas, son capaces de producir sonidos bio-acústicos que son específicas de la especie. Los principales estudios en 15 reconocimiento acústico se han centrado en los sonidos generados por los pájaros ejemplo de ello lo podemos encontrar en los siguientes artículos: i) Harma, Automatic identification of bird species based on sinusoidal modeling of syllables, in: Acoustics, Speech, and Signal Processing 2003. Proceedings (ICASSP'03). 2003 IEEE Intemational Conference on, Vol. 5, IEEE, 2003, pp. V-20 545. 25 ii) S. Fagerlund, Bird species recognition using support vector machines, EURASIP journal on Applied Signal Processing 2007 (1) (2007) 64-64. iii) Lee, Chang-Hsing, Chin-Chuan Han, and Ching-Chien Chuang. "Automatic c\assification of bird species from their sounds using two-dimensional cepstral coefficients." Audio, Speech, and Language Processing, IEEE Transactions on 16.8 (2008): 1541-1550. iv) Jancovic, Peter, and Münevver K6küer. "Automatic detection and recognition of tonal bird sounds in noisy environments." EURASIP Journal on Advances in Signal Processing 2011.1 (2011): 982936. 30 v) Graciarena, Martin, et al. "Acoustic front-end optimization for bird species recognition." Acoustics Speech and Signal Processing (ICASSP), 2010 IEEE Intemational Conference on. IEEE, 2010. vi) Graciarena, Martin, et al. "Bird species recognition combining acoustic and sequence modeling." Acoustics, Speech and Signal Processing (ICASSP), 2011 IEEE Intemational Conference on. IEEE, 2011. vii) Lopes, Marcelo T., et al. "Automatic bird species identification for large number of 5 species." Multimedia (ISM), 2011 IEEE Intemational Symposium on. IEEE, 2011. viii) Mporas, Iosif, et al. "Automated Acoustic Classification ofBird Species from Real-Field Recordings." Tools with Artificial lntelligence (lCTAl), 2012 IEEE 24th Intemational Conference on. Vol. 1. IEEE, 2012. ix) Juang, Chia-Feng, and Tai-Mou Chen. "Birdsong recognition using prediction-based 10 recurrent neural fuzzy networks." Neurocomputing 71.1 (2007): 121-130. Las técnicas clásicas de reconocimiento automático acústico han sido empleadas para el reconocimiento de acústico de patrones, de personas y animales, como en: x) R. Bardelim, AIgorithmic analysis ofComplex Audio Scenes. Universitiit Bonn. PhD 15 Thesis, 2008 xi) H. Xing, P.e. Loizou, Frequency Shift Detection ofSpeech with GMMs and SVMs, IEEE workshop on Signal Processing Systems, (2002) 215-219 Además, se han tratado de emplear del mismo modo técnicas clásicas de reconocimiento automático acústico sobre los insectos, murciélagos y ranas, ejemplos de ello pueden 20 encontrarse en los siguientes artículos: 25 xii) K. Riede, Acoustic monitoring of orthoptera and its potential for conservation, Joumal of Insect Conservation 2 (3-4) (1998) 217-223. xiii) T. Ganchev, 1. Potamitis, N. Fakotakis, Acoustic monitoring of singing insects, in: Acoustics, Speech and Signal Processing, 2007. ICASSP 2007. IEEE Intemational Conference on, Vol. 4, IEEE, 2007, pp. IV-nI. xiv) Z. Leqing, Z. Zhen, Insect sound recognition based on sbc and hmm, in: lntelligent Computation Techno10gy and Automation (IClCTA),2010 Intemational Conference on, Vol. 2, IEEE, 2010, pp. 544-548. xv) D. Chesmore, Automated bioacoustic identification of species, Anais da Academia 30 Brasileira de Ciencias 76 (2) (2004) 436--440. 5 lO xvi) J. Pinhas, V. Soroker, A. Hetzroni, A. Mizrach, M. Teicher, J. Goldberger, Automatic acoustic detection of the red palm weevil, computers and electronics in agriculture 63 (2) (2008) 131-139. xvii) A. E. Chaves, e. M. Travieso, A. Camacho, J. B. Alonso, Katydids acoustic classification on verification approach based on mfcc and hmm, in: Intelligent Engineering Systems (lNES), 2012 IEEE 16th Intemational Conference on, IEEE, 2012,pp.561-566. xviii) S. Kaloudis, D. Anastopoulos, e. P. Yialouris, N. A. Lorentzos, A. B. Sideridis, lnsect identification expert system for forest protection, Expert Systems with Applications 28 (3) (2005) 445-452. xix) A. Henriquez, J. B. Alonso, e. M. Travieso, B. Rodríguez-Herrera, F. Bolanos, P. Alpízar, K. Lopez-de Ipina, P. Henriquez, An automatic acoustic bat identification system based on the audible spectrum, Expert Systems with Applications 41 (11) (2014) 5451-5465. 15 xx) G. Grigg, A. Taylor, H. Mc Callum, G. Watson, Monitoring frog communities: an 20 application of machine learning, in: Proceedings of Eighth Innovative Applications of Artificial Intelligence Conference, Portland Oregon, 1996, pp. 1564-1569. xxi) C.-H. Lee, C.-H. Chou, C.-e. Han, R.-Z. Huang, Automatic recognition of animal vocalizations using averaged mfcc and linear discriminant analysis, Pattem Recognition Letters 27 (2) (2006) 93-101. xxii) T. S. Brandes, Feature vector selection and use with hidden markov models to identify frequency-modulated bioacoustic signals amidst noise, Audio, Speech, and Language Processing, IEEE Transactions on 16 (6) (2008) 1173-1180. xxiii) C.-J. Huang, Y.-J. Yang, D.-X. Yang, Y.-J. Chen, Frog cIassification using 25 machine leaming techniques, Expert Systems with Applications 36 (2) (2009) 3737-3743. 30 xxiv) M. A. Acevedo, C. J. Corrada-Bravo, H. Corrada-Bravo, L. J. Villanueva-Rivera, T. M. Aide, Automated cIassification of bird and amphibian calls using machine learning: A comparison of methods, Ecological Informatics 4 (4) (2009) 206-214. 5 xxv) N. C. Han, S. V. Muniandy, J. Dayou, Acoustic classification of australian anurans based on hybrid spectral-entropy approach, Applied Acoustics 72 (9) (2011) 639-645. xxvi) W.-P. Chen, S.-S. Chen, C.-C. Lin, Y.-Z. Chen, W.-C. Lin, Automatic recognition of frog calls using a multi-stage average spectrum, Computers & Mathematics with Applications 64 (5) (2012) 1270-1281. xxvii) C. L. T. Yuan, D. A. Ramli, Frog sound identification system for frog species recognition, in: Context-Aware Systems and Applications, Springer, 2013, pp. 41-50. 10 xxviii) H. Jaafar, D. A. Ramli, B. A. Rosdi, S. Shahrudin, Frog identification system based on local means k-nearest neighbors with fuzzy distance weighting, in: The 8th Intemational Conference on Robotic, Vision, Signal Processing & Power Applications, Springer, 2014, pp. 153-159. xxix) C. Bedoya, C. Isaza, J. M. Daza, J. D. Lopez, Automatic recognition of anuran 15 species based on syllable identification, Ecological Infonnatics 24 (2014) 200-209. xxx) 1. Xie, M. Towsey, A. Truskinger, P. Eichinski, J. Zhang, P. Roe, Acoustic classification of australian anurans using syllable features, in: Intelligent Sensors, Sensor Networks and lnformation Processing (lSSNIP), 2015 IEEE Tenth Intemational Conference on, IEEE, 2015, pp. 1-6. 20 Otros ejemplos de reconocimiento vocalizaciones bio-acústicas se pueden encontrar en la identificación automática de mamíferos marinos donde destacan los estudios sobre las ballenas. Las siguientes publicaciones son ejemplo de ello: xxxi) Mouy, Xavier, Mohammed Bahoura, and Yvan Simard. "Automatic recognition offin and blue whale calls for real-time monitoring in the St. Lawrence." 25 The Journal ofthe Acoustical Society of America 126.6 (2009): 2918-2928. xxxii) Dugan, Peter J., et al. "North Atlantic right whale acoustic signal processing: Part 1. Comparison of machine leaming recognition algorithms." Applications and Technology Conference (LISA T), 2010 Long 1sland Systems. IEEE, 20 10 xxxiii) Baumgartner, Mark F., and Sarah E. Mussoline. "A generalized baleen whale 30 call detection and classification system." The Journal of the Acoustical Society of America 129.5 (2011): 2889-2902. xxxiv) Seekings, Paul, and John Potter. "Classification of marine acoustic signals using Wavelets & Neural Networks." Proc. of 8th Western Pacific Acoustics Conf(Wespac8).2003. Existen varias patentes relacionadas con la identificación bio-acústica de especies las cuales 5 se centran de manera genérica en la recolección y comparación de datos y parámetros sonoros basada en sus vocalizaciones. Pero todas ellas se centran principalmente en la identificación de pájaros y ninguna de ellas contempla la identificación acústica de reptiles, ni tienen en cuenta sus especificidades bio-acústicas. Además, solo contemplan la posibilidad de identificar especies no sujetos individuales, subfamilias o género dentro de una determinada 10 especie. Ejemplo de ello se puede encontrar en las siguientes patentes: xxxv) WO 2005024782 Al (Wildlife Acoustics Inc, lan Agranat) "Method and apparatus for automatically identifying animal species from their vocalizations". xxxvi) US 8599647 82 (Wildlife Acoustics, lnc.) "Method for listening to ultrasonic animal sounds". 15 xxxvii) US 7963254 82 (Pariff Llc) "Method and apparatus for the automatic 20 identification of birds by their vocalizations". xxxviii) US 20130282379 Al (Tom Stephenson, Stephen Travis POPE) "Method and apparatus for analyzing animal vocalizations, extracting identification characteristics, and using databases ofthese characteristics for identifying the species ofvocalizing animals". xxxix) US 20040107104 Al (Schaphorst Richard A.) "Method and apparatus for automated identification of animal sounds". xl) US 8457962 82 (Lawrence P. Jones) "Remote audio surveillance for detection and analysis of wildlife sounds". 25 En cuanto a los reptiles, los dispersos estudios se centran en el análisis espectro-temporal de las caracteristicas acústicas de los reptiles, pero ninguno de ellos hace uso de estas características para el reconocimiento automatizado de estas especies. Además, estos principalmente se centran en los cocodrilos y los gecos que son las especies más comunicativas entre los reptiles. 30 xli) Vergne, A. L., M. B. Pritz, and N. Mathevon. "Acoustic cornmunication in crocodilians: from behaviour to brain." Biological Reviews 84.3 (2009): 391-411. 5 xlii) Wang, Xi an yan, et al. "Acoustic signals of Chinese alligators (Alligator sinensis): social communication." The Joumal ofthe Acoustical Society of America 121.5 (2007): 2984-2989. xliii) Ferrara, Camila R., Richard C. Vogt, and Renata S. Sousa-Lima. "Turtle vocalizations as the fust evidence of posthatching parental care in chelonians." Joumal ofComparative Psychology 127.1 (2013): 24. xliv) Labra, Antonieta, et al. Acoustic features ofthe weeping lizard's distress callo Copeia, 2013, vol. 2013, no 2, p. 206-212. 10 Por tanto, se puede observar que no hay constancia de la identificación automatizada de reptiles por medio de su producción sonora, tanto de la especie a la que pertenece como al seguimiento individualizado de un espécimen en concreto. La presente invención tiene por objeto el reconocimiento específico de la especie, familia, subfamilia y género a la que pertenece un determinado reptil en base a sus caracteristicas de emisión bio-acústica y 15 mediante el hiperdimensionamiento de la transformación de la fusión de sus características acústicas en los dominios ceptrales y temporales. Gracias a este paso, esta solución no ha sido hallada en el estado de la técnica, a diferencia de las vocalizaciones realizadas por otras especies animales que poseen cuerdas vocales. Esta propuesta reconocería automáticamente vocalizaciones y emisiones bio-acústicas de cualquier naturaleza en reptiles. La invención, 20 por tanto, tendría potenciales aplicaciones en la detección, identificación y monitorización del grupo de animales reptiles (Reptilia) o sauropsida. Permitiendo así el control de las poblaciones, lo que tiene a su vez aplicaciones en el control de plagas o especies invasivas, en la conservación de especies, estudios biológicos de comportamiento animal, cambios de las condiciones ambientales, etc. Incluso en la detección de posibles patologías o plagas que 25 pudieran afectar a este grupo animal. La invención por lo tanto abre un amplio abanico de posibilidades de aplicaciones en el ámbito biológico o de conservación ambiental. Por ello, su análisis y detección es de suma importancia en los tiempos actuales y futuros. Cabe concluir tras estos antecedentes, que los estudios que se han desarrollado hasta el momento y que han tenido como parámetro característico los sonidos producidos por los 30 reptiles, han sido utilizados básicamente para el estudio del comportamiento biológíco de la especie, para caracterizar los parámetros acústicos fundamentales de sus llamadas, establecer su neurología o estudiar la implicación de las mismas en su comportamiento social. También los antecedentes muestran trabajo específico para diferentes especies de animales, o bien sistemas generales basados en un sistema clásico de reconocimiento de patrones, sin particularidades sobre cómo mejorar el reconocimiento según la especie o la aplicación. El método propuesto, a diferencia de lo observado en el estado de la técnica, pennite utilizar 5 sus parámetros acústicos verbales y no verbales para posibilitar el reconocimiento de las especies por medio de un módulo que aumenta la hiperdimensionalidad de la transfonnación de las características acústicas aplicado a sistemas inteligentes. Esto presenta la ventaja de no ser invasivo, pues con un sistema de micrófonos remoto se puede captar y analizar la señal acústica de los especímenes. Además, pennite el seguimiento y detección de estas especies lOen condiciones de visibilidad limitada. Sumario de la invención La presente invención se refiere a un método para la identificación y censo de especies de reptiles a partir de la hiperdimensionalidad de la transfonnación de su producción sonora 15 siguiendo los siguientes cinco pasos: i) Pre-procesado de la señal acústica enfatizando las regiones que contienen mayor infonnación. ii) Segmentación automática de las llamadas y sonidos verbales o no verbales detectados en la señal acústica, separando las distintas emisiones sonoras que pueden pertenecer a 20 diferentes especies o especímenes en la señal de audio. iii) Fusión paramétríca de las características extraídas en frecuencia y tiempo de cada sonido segmentado de las llamadas o vocalizaciones para obtener una representación completa de diferentes dominios de la fuente sonora. iv) Transfonnación de las características fusionadas a partir de generar una 25 hiperdimensionalidad de las mismas, creando un dominio de representación del modelo de Markov más discriminativo. v) Clasificación e identificación de la especie o individuo por medio de un algoritmo de aprendizaje automatizado. 30 Descripción de las figuras La figura 1 detalla de fonna esquemática el diagrama de bloques del sistema desarrollado. La figura 2 muestra la fonna del espectrograma de las emisiones sonoras de los reptiles. a) Crotalus atrox. b) Gekko gecko. 5 c) Alligator mississippiensis. d) Chelonoides nigra. La figura 3 representa de fonna esquemática la segmentación de las vocalizaciones. a) Cálculo de la transfonnada rápida de Fourier (FFT) b) Localización del punto de mayor energía del espectrograma 10 c) Se repite el procedimiento hasta el final del espectrograma. La figura 4 detalla de fonna esquemática el proceso de extracción de caracteristicas espectrales. a) Cálculo de la transfonnada rápida de Fourier (FFT). b) Filtrado por medio de un banco de filtros triangulares Me\. 15 c) Transfonnada del Coseno Discreto (DCT). d) Se retienen los 14 primeros coeficientes de la DCT. Descripción detaUada de una realización preferida de la invención Aunque la invención se describe en ténninos de una realización específica preferida, será 20 fácilmente evidente para los expertos en esta técnica que se pueden hacer diversas modificaciones, redisposiciones y reemplazos. El alcance de la invención está definido por las reivindicaciones adjuntas a la misma. La invención propuesta consiste en un método que aplica varios subprocesos hasta llegar a la identificación inequívoca de la especie a la que pertenece el réptil por medio de sistemas 25 inteligentes. El primero, realiza un pre-procesado de la señal (i). A continuación, se realiza una segmentación de las emisiones acústicas contenidas en la grabación de audio por medio de un análisis automático de su espectrograma (ii). Sobre los segmentos de audio se extraen caracteristicas en el dominio del tiempo y la frecuencia para caracterizar cada sonido verbal o no verbal y se fusionan todas las características para tener una robusta y única representación de la fuente sonora. (iii). Se aplicará una transformación del modelo de Markov para generar una mayor dimensionalidad y nueva representación de características, sobre la representación fusionada. (iv). Los parámetros transformados se envían a un 5 algorítmo clasificador de patrones para realizar la identificación de la especie (v). 10 15 20 25 30 A continuación, se describen en detalle los subprocesos enumerados previamente. (i) El pre-procesado de la señal consiste en la conversión de estéreo a mono del audio procedente de las grabaciones sonoras realizando la media entre los dos canales y se filtra la señal paso bajo con frecuencia de corte de 18 kHz, debido a que las emisiones (ii) (iii) de los reptiles se concentran fundamentalmente en bajas frecuencias. A continuación, se aplica un filtro de pre-énfasis para igualar la energía del espectro definido por la ecuación yen) = X(n) -0.95*X(n-l), donde X(n) es la señal sonora e yen) la salida del filtro. El filtro de pre-énfasis permite aumentar la contribución de las altas frecuencias en la identificación del espécimen. Una vez pre-procesada la señal se procede a la segmentación de sonidos vocales o no vocales de forma automatizada realizando un estudio del espectrograma de la señal. Para ello se emplea una versión especialmente modificada del algoritmo de Harma para la obtención de los segmentos. Para ello el espectrograma se recorre aplicando una ventana de Hamming de duración 11.6 ms. y solapamiento del 45%. En cada paso de la ventana se localiza el punto de mayor energía del espectrograma y se toma la señal a izquierda y derecha de ese punto hasta que la energía cae a 20 dB decibelios, repitiendo el proceso a cada paso de la ventana. A continuación, se aplica un supresor inteligente de muestras incorrectas para eliminar automáticamente aquellos segmentos que no contienen información relevante para la identificación. Para ello, se ha aplicado el algoritmo de alineamiento temporal dinámico en inglés, Dynamic Time Warping (DTW), utilizando como intervalo de confianza la media más 1.8 veces la desviación estándar. Este diseño, que no se había utilizado con anterioridad en la detección de animales, impide que sonidos del entorno natural interfieran en el proceso de clasificación aumentando la tasa de éxito en el reconocimiento. Una vez obtenidas las distintas emisiones acústicas se extraen sobre cada una de ellos los coeficientes de caracterización espectrales MFCC y LFCC, en inglés "Mel and Lineal Frequencial Cepstral Coeficients", para obtener información de todo el 5 (iv) lO 15 20 25 30 espectro; y se obtienen parámetros temporales como la longitud temporal del sonido y su entropía. A continuación, se fusiona el conjunto de parámetros extraídos por cada sonido; creando un único vector que caracteriza tanto en frecuencia como en tiempo cada una de las llamadas. Se toman 14 coeficientes por cada una de las características, formando por tanto un vector de 28 coeficientes por cada segmento, modelando así la información tanto de las altas como de las bajas frecuencias de los sonidos producidos por los reptiles. Se aplica una transformación mediante el uso de los modelos ocultos de Markov, para generar una mayor dimensionalidad de la anteríor fusión parametrízada. Este nuevo espacio de representación tendrá un mayor discriminante y mejorará el porcentaje de éxito del reconocimiento, sobre los sistemas clásicos que no usan este tipo de hiperdimensionamiento. La transformación permitirá pasar del vector obtenido de la fusión paramétríca a un vector de mucha mayor dimensión, adaptado a un espacio de representación que dependerá del número de estados y del número de símbolos por estados del modelo oculto de Markov (MOM). Serán a estos vectores representados a los que se le aplicará el clasificador SVM para obtener un resultado de reconocimiento. Teniendo en cuenta la nomenclatura usada en la descripción del clasificador MOM, se interpreta P(X¡ 2) como la probabilidad de que un vector de características X (que es el resultado de la fusión paramétríca) haya sido creado por el modelo de Markov 2, definido por el número de estados y los símbolos por estado. Entonces el espacio adaptado para el mapeo mencionado de vectores de la fusión queda definido como el gradiente dellogarítmo de dicha probabilidad: Ux = Ve log P(XIA) Donde cada componente de Ux es la derívada con respecto a un determinado parámetro del MOM y especifica consecuentemente la medida en la que cada parámetro contribuye al vector de la fusión paramétríca. En este caso se ha utilizado solo la derivada respecto a la matriz de probabilidad de emisión de símbolos, {bj (Vk) 11SkSM} . . Que indica la probabilidad de emitir un símbolo Vk estando en lSJSN el estado j. Donde N es el número de estados y M el número de símbolos por estado. 5 10 (v) 15 20 25 Se obtiene entonces la expresión de transformación del modelo de Markov siguiendo la expresión: donde 1 ~ k ~ M, 1 ~ i ~ N Siendo J la función delta de Dimc y la matriz gamma y, (i) un indicativo de la probabilidad de estar en el estado i en un instante t. El numerador de la expresión anterior indica el número de veces que se usado cada símbolo en cada estado. Los vectores se envían a un sistema de clasificación basado en una máquina de soporte de vectores SYM, en inglés "Support Vector Machine", de identificación multi-clase aplicando la estrategia "OneYsOne" que ha sido previamente entrenado con los audios de las especies de reptiles que se desea identificar. A la salida del clasificador se obtiene el reconocimiento o detección de las especies o individuos en los que se desee realizar el estudio, censo o seguimiento. La máquina de soporte de vectores ha sido configurada empleando un núcleo de tipo Gaussiano, K (x, x') = exp (Yllx -x' ID, con un valor de y = 0.52 Y un margen blando de parámetro e = 20. La transformación del modelo de Markov permite una mejor separación del espacio muestral en la entrada del SVM separando de forma más eficiente las distintas clases y, por tanto, incrementando los límites de decisión del mismo facilitando el reconocimiento. Este diseño es, por tanto, más eficaz que los diseños clásicos al permitir una diferenciación más óptima de los distintos sonidos. Los resultados experimentales dan como resultado tasas de acierto por encima del 99% en la identificación de la especie a la que pertenece el reptil.

Claims (1)

  1. REIVINDICACIONES 1.-Método para la identificación y clasificación automática de especímenes animales 5 pertenecientes al grupo Reptilia (reptiles o sauropsidas) por medio de la transformación del modelo de Markov de la fusión paramétrica de las características de sus emisiones bio-acústicas de sonidos verbales y no verbales, usando un sistema inteligente de reconocimiento de patrones y un sistema de supresión inteligente de sonidos o segmentos incorrectos. Por tanto, el método permite la identificación taxonómica de las especies por medio de los 10 sonidos no verbales, es decir aquellos no producidos por medio de cuerdas vocales, por ejemplo, los producidos por fricción de distintas partes corporales. El método también identifica individuo, especie y género de cada reptil. Los sonidos detectados se hacen pasar por un supresor inteligente de segmentos, para descartar los sonidos procedentes del entorno y a todos aquellos que contengan poca o nula información para la identificación. El sistema 15 inteligente de supresión del ruido ambiental permite una óptima identificación de los especímenes en entornos ruidosos, permitiendo su implantación en equipos de campo al suprimir la necesidad de la intervención humana en la selección de los sonidos que serán procesados por el sistema de entrenamiento como se ha realizado hasta ahora por el estado de la técnica. Finalmente, el reconocimiento taxonómico de cada reptil se produce al aplicar 20 la transformación del modelo de Markov de la fusión de información de parámetros espectrales y temporales, que caracterizan las emisiones acústicas de estos especímenes en frecuencia y tiempo. En este caso, los sonidos verbales y no verbales procedentes de los reptiles son caracterizados por medio de La transformación del modelo de Markov de la fusión paramétrica de sus características a un espacio de mayor dimensionalidad lo que 25 facilita la identificación taxonómica con un mayor grado de acierto que técnicas previas. La particular transformación se ha calculado mediante la derivada del modelo de Markov resultante de parametrizarlo con la fusión de los parámetros ceptrales y temporales de los sonidos del grupo de Reptilia, siendo derivado con respecto a la matriz de probabilidad de emisión de símbolos, (bj (Vk) 11 <kSM} . ; que indica la probabilidad de emitir un símbolo -lSJSN 30 Vk estando en el estado j, como forma de hiperdimensionar las emisiones sonoras del grupo de Reptilia a otro espacio de representación más discriminante. Donde N es el número de estados y M el número de símbolos por estado. Se obtiene entonces la expresión de transformación del modelo de Markov siguiendo la expresión: donde 1 ::; k ::; M, 1 ::; i ::; N 5 Siendo O la función delta de Dirac y la matriz gamma y/ (i) un indicativo de la probabilidad de estar en el estado i en un instante t. El numerador de la expresión anterior indica el número de veces que se usa cada símbolo en cada estado. Con el nuevo espacio de representación de mayor dimensionalidad de la transformación del modelo de Markov de la fusión de parámetros, se clasifica e identifica la especie o individuo 10 por medio de un algoritmo de aprendizaje automatizado.
ES201600805A 2016-09-16 2016-09-16 Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora. Active ES2608613B2 (es)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ES201600805A ES2608613B2 (es) 2016-09-16 2016-09-16 Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ES201600805A ES2608613B2 (es) 2016-09-16 2016-09-16 Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.

Publications (2)

Publication Number Publication Date
ES2608613A1 ES2608613A1 (es) 2017-04-12
ES2608613B2 true ES2608613B2 (es) 2018-04-02

Family

ID=58493160

Family Applications (1)

Application Number Title Priority Date Filing Date
ES201600805A Active ES2608613B2 (es) 2016-09-16 2016-09-16 Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.

Country Status (1)

Country Link
ES (1) ES2608613B2 (es)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7454334B2 (en) * 2003-08-28 2008-11-18 Wildlife Acoustics, Inc. Method and apparatus for automatically identifying animal species from their vocalizations
US8442828B2 (en) * 2005-12-02 2013-05-14 Microsoft Corporation Conditional model for natural language understanding
US9390712B2 (en) * 2014-03-24 2016-07-12 Microsoft Technology Licensing, Llc. Mixed speech recognition

Also Published As

Publication number Publication date
ES2608613A1 (es) 2017-04-12

Similar Documents

Publication Publication Date Title
Cai et al. Sensor network for the monitoring of ecosystem: Bird species recognition
Alonso et al. Automatic anuran identification using noise removal and audio activity detection
Mitra et al. Hybrid convolutional neural networks for articulatory and acoustic information based speech recognition
Kong et al. DCASE 2018 challenge surrey cross-task convolutional neural network baseline
De Oliveira et al. Bird acoustic activity detection based on morphological filtering of the spectrogram
Amoh et al. DeepCough: A deep convolutional neural network in a wearable cough detection system
Badino et al. Integrating articulatory data in deep neural network-based acoustic modeling
CN101976564A (zh) 昆虫声音识别方法
Brandes Feature vector selection and use with hidden Markov models to identify frequency-modulated bioacoustic signals amidst noise
Ji et al. Discrimination of individual tigers (Panthera tigris) from long distance roars
Zhao et al. DNN-HMM based acoustic model for continuous pig cough sound recognition
Oswald et al. Detection and classification methods for animal sounds
ES2608613B2 (es) Metodología para el reconocimiento automatizado de reptiles mediante la transformación del modelo de Markov de la fusión paramétrica de características de su producción sonora.
Wanare et al. Human emotion recognition from speech
Clemins et al. Application of speech recognition to African elephant (Loxodonta Africana) vocalizations
Zhang et al. A novel insect sound recognition algorithm based on mfcc and cnn
Pillai et al. A deep learning based evaluation of articulation disorder and learning assistive system for autistic children
Fagerlund Studies on bird vocalization detection and classification of species
Jaumard-Hakoun et al. Capturing, analyzing, and transmitting intangible cultural heritage with the i-Treasures project
Larsson Optimizing text-independent speaker recognition using an LSTM neural network
Estrebou et al. Voice recognition based on probabilistic SOM
Schneider et al. Towards a Robust Analysis and Classification of Dog Barking
Xie et al. Feature extraction based on bandpass filtering for frog call classification
Bhor et al. Automated Bird Species Identification using Audio Signal Processing and Neural Network
Noda et al. Automatic classification of pinnipeds based on their vocalizations and fusion of cepstral features

Legal Events

Date Code Title Description
FG2A Definitive protection

Ref document number: 2608613

Country of ref document: ES

Kind code of ref document: B2

Effective date: 20180402