DE10129720A1 - Lautverarbeitungsvorrichtung und -verfahren - Google Patents

Lautverarbeitungsvorrichtung und -verfahren

Info

Publication number
DE10129720A1
DE10129720A1 DE2001129720 DE10129720A DE10129720A1 DE 10129720 A1 DE10129720 A1 DE 10129720A1 DE 2001129720 DE2001129720 DE 2001129720 DE 10129720 A DE10129720 A DE 10129720A DE 10129720 A1 DE10129720 A1 DE 10129720A1
Authority
DE
Germany
Prior art keywords
sound
classification
signal
sound processing
sounds
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE2001129720
Other languages
English (en)
Other versions
DE10129720B4 (de
Inventor
Gerhard Manteuffel
Peter-Christian Schoen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
FORSCHUNGSINSTITUT fur DIE BIOLOGIE LANDWIRTSCHAFTLICHER NUTZTIERE
Original Assignee
FORSCHUNGSINSTITUT fur DIE BIOLOGIE LANDWIRTSCHAFTLICHER NUTZTIERE
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by FORSCHUNGSINSTITUT fur DIE BIOLOGIE LANDWIRTSCHAFTLICHER NUTZTIERE filed Critical FORSCHUNGSINSTITUT fur DIE BIOLOGIE LANDWIRTSCHAFTLICHER NUTZTIERE
Priority to DE2001129720 priority Critical patent/DE10129720B4/de
Publication of DE10129720A1 publication Critical patent/DE10129720A1/de
Application granted granted Critical
Publication of DE10129720B4 publication Critical patent/DE10129720B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques
    • G10L17/26Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Die Erfindung besteht in einer Lautverarbeitungsvorrichtung mit DOLLAR A - einem Tonsignaleingang für ein einem oder mehreren Lauten entsprechendes Tonsignal, DOLLAR A - einer Analyseeinrichtung (20) für Tonsignale, ausgebildet für ein Tonsignal charakteristische Merkmale zu extrahieren, insbesondere eine vorgegebene Anzahl charakteristischer Koeffizienten zu bilden und DOLLAR A - einer Klassifikationseinheit (24, 26), die ausgebildet ist, jedes Tonsignal anhand der charakteristischen Merkmale insbesondere anhand der charakteristischen Koeffizienten zu klassifizieren, d. h. einer Klasse von Lauten zuzuordnen, wobei die Klassifikationseinheit ausgebildet ist, zu jedem Zeitpunkt während des Betriebs der Lautverarbeitungseinrichtung ein von der Klassifikation des einem aufgenommenen Laut zugeordneten Tonsignals zum jeweiligen Zeitpunkt abhängiges Klassifikationssignal für den entsprechenden Laut auszugeben.

Description

  • Die Erfindung betrifft eine Vorrichtung und ein Verfahren zum Verarbeiten von Lauten, insbesondere von Tierlauten.
  • Ein System zur automatischen Verarbeitung von Wildtieren stammender akustischer Daten ist aus der Europäischen Patentanmeldung 0 629 996 bekannt. Dieses System umfasst hintereinander geschaltete Module zur Digitalisierung von Daten, zur Segmentation von Daten, zur Merkmalsextraktion, zur Verarbeitung und zur Klassifikation. Das Merkmalsextraktionsmodul bestimmt beispielsweise Cepstrum- Koeffizienten, lineare Vorhersage-Koeffizienten oder Korreletions-Koeffizienten. Das Klassifikationsmodul basiert auf einem mehrschichtigen, vollvernetzten feedforward Perzeptron, also einem neuronalen Netz. Aufgabe dieses Systems ist es, Laute unterschiedlicher Tiere voneinander zu unterscheiden, indem aufgenommene Laute bestimmten Tierarten zugeordnet werden. Entsprechend wird das neuronale Netz trainiert.
  • Im Unterschied zum Stand der Technik liegt der Erfindung die Aufgabe zu Grunde, Laute einer Spezies, insbesondere Laute von Nutztieren, dahingehend zu analysieren, dass Aufschlüsse über das Befinden oder den Gesundheitszustand des lautgebenden Wesens gewonnen werden. Es geht also nicht darum, Laute nach ihrer Herkunft zu unterscheiden, sondern Lautäußerungen einer Spezies bzw. eines Wesens hinsichtlich der Befindlichkeit des lautgebenden Wesens zu differenzieren, beispielsweise dahingehend, ob sich das lautgebende Wesen gerade in einer Stresssituation befindet, oder in einem entspannten Zustand.
  • Ein wesentlicher Beitrag zur Lösung dieser Aufgabe besteht in der der Erfindung zu Grunde liegenden Erkenntnis, dass aus den Lautäußerungen insbesondere einer Tierart auf das Befinden des Tieres oder einer Mehrzahl von Tieren geschlossen werden kann. Basierend auf dieser Erkenntnis besteht die Lösung der Aufgabe weiterhin in einer Lautverarbeitungsvorrichtung, die einen Tonsignaleingang für einem oder mehreren Lauten entsprechendes Tonsignal umfasst, sowie weiterhin eine Analyseeinrichtung für Tonsignale, die ausgebildet ist für ein Tonsignal charakteristische Merkmale zu extrahieren, insbesondere eine vorgegebene Anzahl charakteristischer Koeffizienten zu bilden und einer Klassifikationseinheit oder Zuordnungseinheit, die ausgebildet ist jedes Tonsignal anhand der charakteristischen Merkmale insbesondere anhand der charakteristischen Koeffizienten zu klassifizieren, d. h. einer Klasse von Lauten zuzuordnen, wobei die Klassifikationseinheit weiterhin ausgebildet ist, zu jedem Zeitpunkt während des Betriebes der Lautverarbeitungseinrichtung einen von der Klassifikation des einem aufgenommenen Laut zugeordneten Tonsignals zum jeweiligen Zeitpunkt abhängiges Klassifikationssignal für den entsprechenden Laut auszugeben.
  • Im Gegensatz zu dem aus der EP 0 629 996 bekannten Stand der Technik werden bei der vorliegenden Erfindung also nicht Lautäußerungen verschiedener Spezies für jede Spezies einzeln gezählt, sondern jeder Laut wird unmittelbar und sofort einer Befindlichkeits-Kategorie für eine jeweilige Spezies zugeordnet, beispielsweise "Stress" oder "Nicht-Stress" und die entsprechende Kategorie durch ein Klassifikationssignal unmittelbar angezeigt. Das Anzeigen des Klassifikationssignals kann beispielsweise darin bestehen, dass eine Leuchtanzeige immer dann zum Leuchten angesteuert wird, wenn ein Laut der Kategorie "Stress" zugeordnet wird, während die Anzeige ausgeschaltet bleibt, wenn Lautäußerungen der Kategorie "Nicht- Stress" zugeordnet werden.
  • Die Klassifikationseinheit oder Zuordnungseinheit ist somit ausgebildet, Lautäußerungen nicht nach ihrer Herkunft zu klassifizieren, sondern nach ihrer Qualität, z. B. nach Befindlichkeitskategorien insbesondere für eine Spezies. Dieser qualitative Unterschied gegenüber dem Stand der Technik beruht auf der erfindungswesentlichen Erkenntnis, dass eine solche Klassifikation oder Kategorisierung möglich ist.
  • Um Laute einer Mehrzahl von Lebewesen derart auswerten zu können, dass die Befindlichkeit einer Gruppe von Wesen unmittelbar zur Anzeige gebracht werden kann, wird eine Lautverarbeitungsvorrichtung bevorzugt, die eine Auswerteeinheit umfasst, welche mit der Klassifikationseinheit verbunden und ausgebildet ist, das Verhältnis von Lauten einer Klasse zu Lauten einer anderen Klasse für eine jeweils vorgegebene Zeiteinheit oder zu jedem Zeitpunkt zu bilden und ein entsprechendes Quotientensignal auszugeben. Das Quotientensignal ist dabei von der Art, dass der Anteil von Stress-Lauten zu Nicht-Stress-Lauten beispielsweise in Form von "60% Stress" oder "40% Nicht-Stress" angegeben wird. Bei dieser Lautverarbeitungsvorrichtung wird für jeden Laut eine eindeutige Zuordnung zu den Kategorien "Stress" oder "Nicht-Stress" getroffen, sodass sich der genannte Quotient entweder auf Lautäußerungen mehrerer Tiere zu einem Zeitpunkt oder über einen Zeitraum bezieht, oder auf verschiedene Lautäußerungen, die ein Tier zu verschiedenen Zeitpunkten abgibt.
  • Weiterhin wird eine Lautverarbeitungsvorrichtung bevorzugt, die einen Speicher umfasst, der mit der Klassifikationseinheit und/oder der Auswerteeinheit verbunden und ausgebildet ist, die Klassifikationssignale bzw. die Quotientensignale chronologisch zu speichern. Damit ist die Lautverarbeitungsvorrichtung insbesondere geeignet, beispielsweise zur Überwachung von Tiertransporten eingesetzt zu werden, um nach Ende des Tiertransportes durch Auslesen des Speichers festzustellen, ob die Tiere gelitten haben oder nicht. Gleiches gilt für die Überwachung der Stallhaltung von Tieren, oder die Stressbelastung der Tiere bei der Schlachtung.
  • Besonders bevorzugt wird eine Lautverarbeitungsvorrichtung, bei der die Analyseeinrichtung ausgebildet ist, für jedes Tonsignal eine Menge linearer Vorhersage- Koeffizienten zu bilden und als Merkmalsvektor zusammengefasst auszugeben. Die Klassifikationseinheit ist vorzugsweise als neuronales Netz ausgebildet und zwar besonders bevorzugt als Kohonennetzwerk, welches die aus den linearen Vorhersagekoeffizienten gebildeten Merkmalsvektoren als Eingabevektoren verarbeitet. Ein solches Kohonennetzwerk aber auch andere neuronale Netzwerke, wie beispielsweise ein alternativ in Frage kommendes Perzeptoren-Netzwerk, werden mit Trainingslauten trainiert, die den zu ermittelnden Kategorien wie beispielsweise "Stress" oder "Nicht-Stress" zugeordnet sind. Das bei der erfindungsgemäßen Lautverarbeitungsvorrichtung eingesetzte neuronale Netzwerk unterscheidet sich somit von dem aus der EP 0 629 996 bekannten neuronalen Netzwerk schon allein dadurch, dass das neuronale Netzwerk bei der erfindungsgemäßen Lautverarbeitungsvorrichtung mit Trainingslauten trainiert ist, welche sich in ihrer Qualität unterscheiden, während das aus der EP 0 629 996 bekannte neuronale Netzwerk mit solchen Signalen trainiert ist, welche ihrer Herkunft nach unterschiedlich sind.
  • Vorzugsweise umfasst die Lautverarbeitungsvorrichtung mehrere Tonsignaleingänge. Jedem dieser Tonsignaleingänge ist vorzugsweise ein Eingangsverstärker und ein Eingangsfilter nachgeschaltet, mit dem jedes Tonsignal für eine Analyse durch die Analysevorrichtung durch verstärken und filtern aufbereitet wird und als aufbereitetes Tonsignal an die Analyseeinrichtung weitergegeben wird.
  • Insbesondere für die bereits erwähnte Überwachung von Tiertransporten oder der Tierhaltung in Ställen oder zu anderen Zwecken ist die Lautverarbeitungsvorrichtung vorzugsweise als autarke Einheit mit integrierter Energieversorgung und einem festen, gegen unbefugten Zugriff zu sicherndem Gehäuse ausgebildet. Dabei ist vorzugsweise in die als autarke Einheit ausgebildete Lautverarbeitungsvorrichtung ein Mikrofon integriert oder zumindest ein Mikrofoneingang. Eine solche autarke Einheit ist geeignet, über einen längeren Zeitraum das Auftreten von Stresslauten zu registrieren, ggf. in einer dem vorgenannten Quotientensignal entsprechend aufbereiteten Form um so die Kontrolle der Qualität der Tierhaltung zu ermöglichen. Damit ist es erstmals möglich, auch solche bisher nicht zu kontrollierenden Einflussfaktoren auf die Tierproduktion, wie beispielsweise das Wohlbefinden der Tiere, zu kontrollieren. Diese Einflussgröße ist bekanntermaßen beispielsweise für die Fleischqualität höchst relevant, da diese durch Stresshormone beeinträchtigt wird. Die Erfindung ermöglicht es somit, dem Verbraucher die von ihm gewünschte Sicherheit bezüglich der Fleischqualität und der Qualität der Tierhaltung zu geben.
  • Die der Erfindung zu Grunde liegende Aufgabe, insbesondere die Echtzeit-Analyse von Tierlauten hinsichtlich ihrer Qualität, wird auch durch ein Lautverarbeitungsverfahren gelöst, welches die Schritte umfasst:
    • - Aufnehmen eines Lautes als Tonsignal
    • - Analysieren des Tonsignals und Extrahieren von für das Tonsignal charakteristischen Merkmalen, insbesondere charakteristischer Koeffizienten
    • - Klassifizieren des Tonsignals anhand der charakteristischen Merkmale bzw. der charakteristischen Koeffizienten durch Zuordnen der Merkmale bzw. Koeffizienten eines Tonsignals zu einer von mehreren Klassen von Lauten
    • - Ausgeben eines Klassifikations- oder Zuordnungssignals für das Tonsignal in Abhängigkeit von der Klasse, der das Tonsignal zugeordnet wurde.
  • Der Schritt des Analysierens schließt vorzugsweise das Bilden linearer Vorhersage- Koeffizienten für das Tonsignal ein, die vorzugsweise zu einem Koeffizienten oder Merkmalsvektor zusammengefasst werden.
  • Das Klassifizieren erfolgt vorzugsweise unter Anwendung eines neuronalen Netzes, insbesondere unter Anwendung eines Perzeptrons oder Kohonen-Verfahrens. Das entsprechende neuronale Netz wird dazu vorzugsweise mit vorgegebenen Trainingslauten unterschiedlicher Qualität trainiert.
  • Weitere bevorzugte Verfahrensschritte betreffen einen Auswertungsschritt, bei dem das Verhältnis von einer Klasse von Lauten zu einer anderen Klasse von Lauten gebildet und ein entsprechendes Quotientensignal erzeugt wird sowie zusätzlich oder alternativ einen Schritt des chronologischen Speicherns von Klassifikations- und/oder Quotientensignalen.
  • Die Erfindung soll nun an einem Ausführungsbeispiel anhand der Figuren näher erläutert werden. Von den Figuren zeigen Fig. 1 ein Blockschaltbild einer erfindungsgemäßen Lautverarbeitungsvorrichtung und
  • Fig. 2 eine diagrammatische Darstellung eines Verfahrens zum Betreiben der Vorrichtung aus Fig. 1.
  • Fig. 1 zeigt die Komponenten einer Lautverarbeitungsvorrichtung, die sich vorzugsweise in einem Gehäuse befinden, welches gegen Zugriff gesichert werden kann. Damit die Lautverarbeitungseinrichtung autark operieren kann, befindet sich in dem Gehäuse eine in Fig. 1 nicht dargestellte Energieversorgungseinheit, beispielsweise eine Batterie.
  • Die Komponenten der in Fig. 1 dargestellten Lautverarbeitungsvorrichtung 10 sind ein Mikrofon 12, welches ein analoges Eingangssignal liefert, das an eine Soundkarte 14 weitergeleitet wird, in der das analoge Eingangssignal digitalisiert wird, sodass ein Digitalsignal mit einer Samplingfrequenz von in dem Ausführungsbeispiel 22.050 Hz mit 16 Bit Auflösung entsteht.
  • Ausgangsseitig ist die Soundkarte mit einer Signalaufbereitungseinheit 16 verbunden, welche das Digitalsignal empfängt und nach einem Fensterungsalgorithmus in Zeitfenster von in dem Ausführungsbeispiel 46,4 ms Dauer einteilt. Ausgangsseitig gibt die Aufbereitungseinheit 16 jedes Signalfenster auf eine Aufnahmeschwellwerteinheit 18, die ausgebildet ist, solche Signalfenster, in denen das Signal eine unter einem Schwellwert liegende Amplitude hat, von der weiteren Verarbeitung auszunehmen. Signalfenster, in denen das Signal eine größere als durch den Schwellwert vorgegebene Amplitude hat, werden ausgangsseitig normiert und auf eine LPC-Modellierungseinheit 20 gegeben. Mit der Normierung der Signalfenster wird erreicht, dass vom Mikrofon weit entfernte Laute genauso behandelt werden, wie Laute dicht am Mikrofon. Gleichzeitig wird eine Leuchtanzeige 22, beispielsweise eine LED so angesteuert, dass diese leuchtet, wenn Signalfenster an die LPC-Modellierungseinheit 20 weitergeleitet werden, und dass die Anzeige erlischt, wenn Signalfenster von der Weiterverarbeitung ausgeblendet werden. Diese Leuchtanzeige 22 zeigt somit an, ob Lautsignale für die Weiterverarbeitung aufgenommen werden, oder ob keine Tonsignalverarbeitung und damit -aufnahme erfolgt.
  • Die LPC-Modellierungseinheit 20 ist eine Analyseeinrichtung, welche einen Algorithmus zur Bestimmung linearer Vorhersagekoeffizienten auf das entsprechende Signalfenster anwendet und auf diese Weise einen Satz linearer Vorhersagekoeffizienten für dieses Signalfenster bildet (LPC: Linear Prediction Coding = lineare Vorhersagenkodierung). Die LPC-Modellierungseinheit oder Analyseeinrichtung 20 bildet aus den linearen Vorhersagekoeffizienten für jedes Signalfenster einen Merkmalsvektor, der ausgangsseitig an eine Klassifikationseinheit 24 weitergeleitet wird.
  • Die Klassifikationseinheit 24 wird im Wesentlichen von einem neuronalen Netz gebildet, welches als Kohonen-Netz oder auch als Perzeptron ausgebildet sein kann. Bei einem derartigen neuronalen Netz wird auf an sich bekannte Art und Weise jeder eingehende Merkmalsvektor so verarbeitet, dass sich über den Grad seiner Ähnlichkeit mit zuvor aufgenommenen Merkmalsvektoren eine Zuordnung zu diesen zuvor aufgenommenen Merkmalsvektoren und damit eine Klassifikation des jeweils aktuellen Merkmalsvektor erzielen lässt.
  • Je nach Ausbildung des neuronalen Netzes ergibt sich eine den Grad der Ähnlichkeit des aktuellen Merkmalsvektors mit dem oder den Vergleichsvektoren kennzeichnende Größe. Für diese Größe kann ein Schwellwert vorgesehen sein, mit dem die Zugehörigkeit eines aktuellen Merkmalsvektors zu einer durch die Vergleichsvektoren oder durch den Vergleichsvektor definierten Klasse eindeutig definiert ist. Dies ist in Fig. 1 durch eine Klassifikationsschwellwerteinheit 26 dargestellt, die durchaus als Unterbestandteil der Klassifikationseinheit 24 betrachtet werden kann.
  • Die Klassifikationsschwellwerteeinheit 26 gibt ein der eindeutigen Klassifikation des jeweiligen Signalfensters und damit des entsprechenden Lautes zugeordnetes Klassifikationssignal aus. Wenn die Klassifikationseinheit 24 mit Merkmalsvektoren trainiert wurde, die solchen Lauten entsprechen, wie sie bei Stress eines Tieres ausgestoßen werden, zeigt das Klassifikationssignal, ob ein aktueller Laut der Klasse "Stress" oder "Nicht-Stress" zuzuordnen ist. Das Klassifikationssignal wird einerseits in einem Speicher 28 gespeichert, der vorzugsweise als LIFO-Speicher ausgebildet ist, also ein last in - first out Speicher, in dem eine Folge von Klassifikationssignalen entsprechend einer Folge von Signalfenstern abgelegt ist und ein jeweils aktuelles Klassifikationssignal zur Folge hat, dass das jeweils älteste Klassifikationssignal aus dem Speicher fällt, falls der Speicher gefüllt ist. Der Speicher 28ist mit einer Anzeige 30 verbunden, die anzeigt, bis zu welchem Grad der Speicher 28 mit Klassifikationssignalen der Klasse "Stress" gefüllt ist. Die Anzeige 30 fungiert als Quotientenanzeige und kann auch durch einen Quotienten- und/oder Klassifikationsspeicher ersetzt werden, sodass der prozentuale Anteil der Zeit mit Stresslautgebung bezogen auf ein vorgegebenes Messzeitfenster protokolliert wird.
  • Außerdem ist die Klassifikationseinheit 24 mit der Schwellwerteinheit 26 auch mit einer zweiten Leuchtanzeige 34 verbunden, die eingeschaltet wird, wenn ein aktueller Laut einer jeweils interessierenden Klasse, beispielsweise der Klasse "Stress" zugeordnet wird und ansonsten ausgeschaltet bleibt. Die Ansteuerung der zweiten Leuchtanzeige 34 erfolgt somit in Abhängigkeit des Klassifikationssignals, welches von der aus Schwellwerteinheit 26 und neuronalen Netz 24 bestehenden Klassifikationseinheit stammt.
  • In Fig. 2 ist ein Verfahren zum Betreiben der Vorrichtung aus Fig. 1 diagrammhaft dargestellt.
  • Fig. 2 ist insbesondere zu entnehmen, dass sich das Verfahren zum Betreiben der Vorrichtung aus Fig. 1 in zwei wesentliche Phasen gliedert, nämlich in eine Trainingsphase und in eine anschließende Klassifikationsphase.
  • In der Trainingsphase wird die Vorrichtung aus Fig. 1 mit bekannten Lauten beaufschlagt, die mit bekannten Verhaltenssituationen einer interessierenden Spezies, beispielsweise mit Stressverhalten einhergehen. Für die bekannten Laute wird nach entsprechender Signalaufbereitung wie sie zuvor beschrieben wurde, eine LPC-Analyse durchgeführt, die für jeden Laut zu einem Satz linearer Vorhersagekoeffizienten führt, die als Merkmalsvektoren, insbesondere als Referenzvektoren auf ein neuronales Netz gegeben werden und dieses trainieren. Das neuronale Netz kann z. B. als Perzeptron oder als Kohonen-Netz ausgebildet sein. Durch die von den linearen Vorhersagekoeffizienten bestimmten Vergleichsvektoren bilden sich in der Repräsentation z. B. eines Kohonen-Netzes bestimmte Bereiche aus, die für bestimmte Verhaltenssituationen charakteristischen Lauten zugeordnet sind. Zur eindeutigen Zuordnung dieser Bereiche z. B. in der Kohonen-Repräsentation wird dem Kohonen-Netz mit jedem Trainingslaut auch die dazugehörige Verhaltenssituation, beispielsweise "Stress" oder "Nicht-Stress" aufgegeben, sodass jede für bestimmte Laute charakteristische Region in der Kohonen-Darstellung mit dem dazugehörigen Verhalten verknüpft ist. Dies ist in Fig. 2 als "Labeln des Netzes" bezeichnet.
  • Das Ergebnis dieser Trainingsphase ist ein gelabeltes Netz, in dem Regionen z. B. in der Kohonen-Darstellung durch Referenzvektoren definiert und bestimmten Verhaltenssituationen zugeordnet sind. Nach Abschluss der Trainingsphase kann die Vorrichtung aus Fig. 1 beispielsweise in einem Stall oder in einem Tiertransportfahrzeug zur Klassifikation bis dahin unbekannter Laute eingesetzt werden.
  • Dies geschieht in der Klassifikationsphase. In dieser werden der Vorrichtung unbekannte Laute zugeführt und auf gleiche Weise wie zuvor die bekannten Laute einer LPC-Analyse unterzogen um so einen Vektor linearer Vorhersagekoeffizienten für jeden Laut zu erhalten. Ein solcher Merkmalsvektor wird zur Klassifikation auf das gelabeltes Netz gegeben. Das Netz ordnet den Merkmalsvektor des unbekannten Lautes in an sich bekannter Weise einer der zuvor in der Trainingsphase definierten Region zu und liefert als Ausgangswert die Verhaltenssituation, die dieser Region zugeordnet ist, beispielsweise "Stress" oder "Nicht-Stress". Auf diese Weise wird ein eindeutiges Klassifikationssignal für die unbekannten Laute geliefert und kann in der zuvor geschilderten Weise angezeigt oder gespeichert werden (Fig. 1).

Claims (20)

1. Lautverarbeitungsvorrichtung mit
einem Tonsignaleingang für ein einem oder mehreren Lauten entsprechendes Tonsignal,
einer Analyseeinrichtung (20) für Tonsignale, ausgebildet für ein Tonsignal charakteristische Merkmale zu extrahieren, insbesondere eine vorgegebene Anzahl charakteristischer Koeffizienten zu bilden und
einer Klassifikationseinheit (24, 26), die ausgebildet ist, jedes Tonsignal anhand der charakteristischen Merkmale insbesondere anhand der charakteristischen Koeffizienten zu klassifizieren, d. h. einer Klasse von Lauten zuzuordnen, dadurch gekennzeichnet, dass die Klassifikationseinheit ausgebildet ist, zu jedem Zeitpunkt während des Betriebs der Lautverarbeitungseinrichtung ein von der Klassifikation des einem aufgenommenen Laut zugeordneten Tonsignals zum jeweiligen Zeitpunkt abhängiges Klassifikationssignal für den entsprechenden Laut auszugeben.
2. Lautverarbeitungsvorrichtung nach Anspruch 1, gekennzeichnet durch eine Auswerteeinheit, die mit der Klassifikationseinheit (24, 26) verbunden und ausgebildet ist, das Verhältnis von Lauten einer Klasse zu Lauten einer anderen Klasse für eine vorgegebene Zeiteinheit oder zu jedem Zeitpunkt zu bilden und ein entsprechendes Quotientensignal auszugeben.
3. Lautverarbeitungsvorrichtung nach Anspruch 1 oder 2, gekennzeichnet durch einen Speicher (28), der mit der Klassifikationseinheit und/oder Auswerteeinheit verbunden und ausgebildet ist, die Klassifikationssignale und/oder die Quotientensignale chronologisch zu speichern.
4. Lautverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, dass die Analyseeinrichtung ausgebildet ist, für jedes Tonsignal eine Menge linearer Vorhersage-Koeffizienten zu bilden und als Merkmalsvektor zusammengefasst auszugeben.
5. Lautverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Klassifikationseinheit als neuronales Netzwerk ausgebildet ist.
6. Lautverarbeitungsvorrichtung nach Anspruch 5, dadurch gekennzeichnet, dass das neuronale Netzwerk als Kohonen-Netzwerk ausgebildet ist.
7. Lautverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 6, gekennzeichnet durch mehrere Tonsignaleingänge.
8. Lautverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 7, gekennzeichnet durch mindestens einen Eingangsverstärker und Eingangsfilter, der dem Tonsignaleingang oder den Tonsignaleingängen nachgeschaltet und der Analyseeinrichtung vorgeschaltet sowie ausgebildet ist, ein Tonsignal für eine Analyse durch die Analysevorrichtung durch Verstärken und Filtern aufzubereiten.
9. Lautverarbeitungsvorrichtung nach einem der Ansprüche 1 bis 8, gekennzeichnet durch eine Ausbildung als autarke Einheit mit integrierter Energieversorgung und einem festen, gegen unbefugten Zugriff zu sicherndes Gehäuse.
10. Lautverarbeitungsvorrichtung nach Anspruch 9, gekennzeichnet durch ein integriertes Mikrofon.
11. Lautverarbeitungsvorrichtung nach Anspruch 9, gekennzeichnet durch einen integrierten Mikrofoneingang.
12. Lautverarbeitungsverfahren, gekennzeichnet durch die Schritte:
1. Aufnehmen eines Lautes als Tonsignal
- Analysieren des Tonsignals und Extrahieren von für das Tonsignal charakteristischen Merkmalen, insbesondere charakteristischen Koeffizienten
- Klassifizieren des Tonsignals anhand dercharakteristischen Merkmale bzw. der charakteristischen Koeffizienten, durch Zuordnen der Merkmale bzw. Koeffizienten eines Tonsignals zu einer von mehreren Klassen von Lauten
- Ausgeben eines Klassifikations- oder Zuordnungssignals für das Tonsignal in Abhängigkeit von der Klasse, der das Tonsignal zugeordnet wurde.
13. Lautverarbeitungsverfahren nach Anspruch 12, dadurch gekennzeichnet, dass der Schritt des Analysierens des Tonsignals das Bilden linearer Vorhersagekoeffizienten für das Tonsignal einschließt.
14. Lautverarbeitungsverfahren nach Anspruch 13, dadurch gekennzeichnet, dass der Schritt des Analysierens des Tonsignals das Zusammenfassen der linearen Vorhersagekoeffizienten zu einem Koeffizienten-Vektor einschließt.
15. Lautverarbeitungsverfahren nach einem der Ansprüche 12 bis 14, dadurch gekennzeichnet, dass das Klassifizieren unter Anwendung eines neuronalen Netzes erfolgt.
16. Lautverarbeitungsverfahren nach Anspruch 15, gekennzeichnet durch einen Schritt des Trainierens des neuronalen Netzes mittels vorgegebener Trainingslaute.
17. Lautverarbeitungsverfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, dass das Klassifizieren unter Anwendung eines Kohonen-Verfahrens erfolgt.
18. Lautverarbeitungsverfahren nach Anspruch 14 und 17, dadurch gekennzeichnet, dass die Koeffizienten-Vektoren als Eingabevektoren für das neuronale Netz behandelt werden.
19. Lautverarbeitungsverfahren nach einem der Ansprüche 12 bis 17, gekennzeichnet durch einen Auswertungsschritt, bei dem das Verhältnis von einer Klasse von Lauten zu einer anderen Klasse von Lauten gebildet und ein entsprechendes Quotientensignal erzeugt wird.
20. Lautverarbeitungsverfahren nach einem der Ansprüche, gekennzeichnet durch einen Schritt des chronologischen Speicherns von Klassifikations- und/oder Quotientensignalen.
DE2001129720 2001-06-15 2001-06-15 Lautverarbeitungsvorrichtung und -verfahren Expired - Lifetime DE10129720B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2001129720 DE10129720B4 (de) 2001-06-15 2001-06-15 Lautverarbeitungsvorrichtung und -verfahren

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001129720 DE10129720B4 (de) 2001-06-15 2001-06-15 Lautverarbeitungsvorrichtung und -verfahren

Publications (2)

Publication Number Publication Date
DE10129720A1 true DE10129720A1 (de) 2003-01-02
DE10129720B4 DE10129720B4 (de) 2004-02-19

Family

ID=7688821

Family Applications (1)

Application Number Title Priority Date Filing Date
DE2001129720 Expired - Lifetime DE10129720B4 (de) 2001-06-15 2001-06-15 Lautverarbeitungsvorrichtung und -verfahren

Country Status (1)

Country Link
DE (1) DE10129720B4 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202012010238U1 (de) 2012-10-26 2014-01-29 Big Dutchman Pig Equipment Gmbh Anordnung zur Überwachung und Steuerung der Haltung von Sauen und deren Ferkel, Abferkelbox und Aktoreinheit

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0629996A2 (de) * 1993-06-15 1994-12-21 Ontario Hydro Automatisches intelligentes Überwachungssystem
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0629996A2 (de) * 1993-06-15 1994-12-21 Ontario Hydro Automatisches intelligentes Überwachungssystem
DE19533541C1 (de) * 1995-09-11 1997-03-27 Daimler Benz Aerospace Ag Verfahren zur automatischen Steuerung eines oder mehrerer Geräte durch Sprachkommandos oder per Sprachdialog im Echtzeitbetrieb und Vorrichtung zum Ausführen des Verfahrens

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202012010238U1 (de) 2012-10-26 2014-01-29 Big Dutchman Pig Equipment Gmbh Anordnung zur Überwachung und Steuerung der Haltung von Sauen und deren Ferkel, Abferkelbox und Aktoreinheit
DE102013221266A1 (de) 2012-10-26 2014-04-30 Big Dutchman Pig Equipment Gmbh Anordnung und Verfahren zur Überwachung und Steuerung der Haltung von Sauen und deren Ferkel, Abferkelbox und Aktoreinheit
DE102013221266B4 (de) * 2012-10-26 2017-12-07 Big Dutchman International Gmbh Anordnung und Verfahren zur Überwachung und Steuerung der Haltung von Sauen und deren Ferkel, Abferkelbox und Aktoreinheit

Also Published As

Publication number Publication date
DE10129720B4 (de) 2004-02-19

Similar Documents

Publication Publication Date Title
EP1405222B1 (de) Verfahren und vorrichtung zum erzeugen eines fingerabdrucks und verfahren und vorrichtung zum identifizieren eines audiosignals
DE60023517T2 (de) Klassifizierung von schallquellen
EP1368805B1 (de) Verfahren und vorrichtung zum charakterisieren eines signals und verfahren und vorrichtung zum erzeugen eines indexierten signals
DE60108373T2 (de) Verfahren zur Detektion von Emotionen in Sprachsignalen unter Verwendung von Sprecheridentifikation
EP0862161B1 (de) Verfahren zur Spracherkennung mit Sprachmodellanpassung
DE69626115T2 (de) Signalqualitätsbewertung
DE69414752T2 (de) Sprecherunabhängiges Erkennungssystem für isolierte Wörter unter Verwendung eines neuronalen Netzes
WO2017001607A1 (de) Verfahren und vorrichtung zum erzeugen einer datenbank
DE10134471A1 (de) Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals
WO2005111598A1 (de) Vorrichtung und verfahren zur beurteilung einer güteklasse eines zu prüfenden objekts
DE3750365T2 (de) Sprecheridentifizierung.
WO2005122136A1 (de) Vorrichtung und verfahren zum bestimmen eines akkordtyps, der einem testsignal zugrunde liegt
DE3878895T2 (de) Verfahren und einrichtung zur spracherkennung.
DE2021126C3 (de) Spracherkennungs anordnung
EP1519301A2 (de) Vorrichtung zur klassifikation physiologischer Ereignisse
DE69025932T2 (de) Einrichtung und verfahren zum erzeugen von stabilisierten darstellungen von wellen
DE10129720B4 (de) Lautverarbeitungsvorrichtung und -verfahren
DE4325404C2 (de) Verfahren zum Ermitteln und Klassifizieren von Störgeräuschtypen
DE102022205730A1 (de) Konzept zum Auswählen von Audioausschnitten von Bremsquietschgeräuschen in einem Fahrzeug
DE102019205895A1 (de) Verfahren zum Analysieren eines zeitlich veränderlichen Signals
WO2008095827A1 (de) Digitales verfahren zur authentifizierung einer person und anordnung zu dessen durchführung
DE10012145C2 (de) Verfahren und Vorrichtung zur akustischen Erkennung erkrankungsbedingter physikalischer Veränderungen des Stimmbildapparates
EP1406244B1 (de) Voice Activity Detection auf Basis von unüberwacht trainierten Clusterverfahren
DE19824353A1 (de) Vorrichtung zur Verifizierung von Signalen
DE112018006332B4 (de) Vorrichtung und Verfahren zur Trennung akustischer Signale

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R071 Expiry of right