DE102012103552A1 - Audiosystem und verfahren zur verwendung von adaptiver intelligenz, um den informationsgehalt von audiosignalen zu unterscheiden und eine signalverarbeitungsfunktion zu steuern - Google Patents

Audiosystem und verfahren zur verwendung von adaptiver intelligenz, um den informationsgehalt von audiosignalen zu unterscheiden und eine signalverarbeitungsfunktion zu steuern Download PDF

Info

Publication number
DE102012103552A1
DE102012103552A1 DE102012103552A DE102012103552A DE102012103552A1 DE 102012103552 A1 DE102012103552 A1 DE 102012103552A1 DE 102012103552 A DE102012103552 A DE 102012103552A DE 102012103552 A DE102012103552 A DE 102012103552A DE 102012103552 A1 DE102012103552 A1 DE 102012103552A1
Authority
DE
Germany
Prior art keywords
frame
audio signal
parameter
parameters
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102012103552A
Other languages
English (en)
Inventor
Keith L. Chapman
Stanley J. Cotey
Zhiyun Kuang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fender Musical Instruments Corp
Original Assignee
Fender Musical Instruments Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fender Musical Instruments Corp filed Critical Fender Musical Instruments Corp
Publication of DE102012103552A1 publication Critical patent/DE102012103552A1/de
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • G10H3/18Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means using a string, e.g. electric guitar
    • G10H3/186Means for processing the signal picked up from the strings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Auxiliary Devices For Music (AREA)
  • Stereophonic System (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Ein Audiosystem weist einen Signalprozessor auf, der zum Empfangen eines Audiosignals von einem Musikinstrument oder von Gesang gekoppelt ist. Ein Zeitbereichsprozessor empfängt das Audiosignal und erzeugt Zeitbereichsparameter des Audiosignals. Ein Frequenzbereichsprozessor empfängt das Audiosignal und erzeugt Frequenzbereichsparameter des Audiosignals. Das Audiosignal wird abgetastet und der Zeitbereichsprozessor und der Frequenzbereichsprozessor verarbeiten eine Vielzahl von Rahmen des abgetasteten Audiosignals. Der Zeitbereichsprozessor detektiert den Beginn einer Note des abgetasteten Audiosignals. Eine Signaturdatenbank weist Signaturdatensätze mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparameter auf. Ein Erkennungsdetektor vergleicht die Zeitbereichsparameter und Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank. Die Steuerparameter des passenden Signaturrs.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft im Allgemeinen Audiosysteme und insbesondere ein Audiosystem und ein Verfahren zur Verwendung von adaptiver Intelligenz, um den dynamischen Inhalt eines durch ein Musikinstrument erzeugten Audiosignals zu unterscheiden und eine Signalprozessfunktion, die dem Audiosignal zugeordnet ist, zu steuern.
  • Hintergrund der Erfindung
  • Audioklangsysteme werden üblicherweise verwendet, um Signale zu verstärken und hörbaren Klang wiederzugeben. Eine Klangerzeugungsquelle, wie z. B. ein Musikinstrument, ein Mikrophon, ein Multimediaplayer oder eine andere elektronische Vorrichtung, erzeugt ein elektrisches Audiosignal. Das Audiosignal wird zu einem Audioverstärker geleitet, der die Amplitude steuert und eine andere Signalverarbeitung am Audiosignal durchführt. Der Audioverstärker kann Filtern, Modulation, Verzerrungsverbesserung oder -verringerung, Klangeffekte und andere Signalverarbeitungsfunktonen durchführen, um die Tonqualität und Frequenzeigenschaften des Audiosignals zu verbessern. Das verstärkte Audiosignal wird zu einem Lautsprecher gesendet, um das elektrische Signal in hörbaren Klang umzuwandeln und die Klangerzeugungsquelle mit durch die Signalverarbeitungsfunktion eingeführten Verbesserungen wiederzugeben.
  • Musikinstrumente waren in der Gesellschaft immer sehr populär, wobei sie Unterhaltung, gesellschaftliches Zusammenspiel, Selbstdarstellung und ein Geschäft und eine Quelle für Lebensunterhalt für viele Leute bereitstellen. Saiteninstrumente sind aufgrund ihrer aktiven Spielbarkeit, Klangeigenschaften und Tragbarkeit besonders populär. Saiteninstrumente sind unterhaltsam und dennoch anspruchsvoll zu spielen, weisen großartige Klangqualitäten auf und sind leicht von einem Ort zum anderen zu bewegen.
  • In einem Beispiel kann die Klangerzeugungsquelle eine elektrische Gitarre oder eine elektrische Bassgitarre sein, die ein gut bekanntes Musikinstrument ist. Die Gitarre weist einen Audioausgang auf, der mit einem Audioverstärker verbunden wird. Der Ausgang des Audioverstärkers wird mit einem Lautsprecher verbunden, um hörbare Musikklänge zu erzeugen. In einigen Fällen sind der Audioverstärker und der Lautsprecher separate Einheiten. In anderen Systemen sind die Einheiten in ein tragbares Gehäuse integriert.
  • Die elektrische Gitarre erfordert typischerweise einen Audioverstärker, damit sie funktioniert. Andere Gitarren verwenden den Verstärker, um den Klang zu verbessern. Der Gitarrenaudioverstärker schafft Merkmale wie z. B. Verstärkung, Filterung, Tonentzerrung und Klangeffekte. Der Benutzer stellt die Knöpfe an der Frontplatte des Audioverstärkers ein, um die gewünschte Lautstärke, die gewünschte Akustik und die gewünschten Klangeffekte auszuwählen.
  • Die meisten, wenn nicht alle Audioverstärker sind jedoch in den Merkmalen, die sie jeweils bereitstellen können, begrenzt. Verstärker der Oberklasse stellen mehr Klangwiedergabe mit hoher Qualität und eine Vielfalt von Signalverarbeitungsoptionen bereit, sind jedoch im Allgemeinen teuer und schwierig zu transportiern. Der Lautsprecher ist in der hochwertigen Ausrüstung typischerweise eine vom Verstärker separate Einheit. Ein billiger Verstärker kann erschwinglicher und tragbar sein, aber begrenzte Klangverbesserungsmerkmale aufweisen. Es gibt wenig Verstärker für den billigen bis mittleren Verbrauchermarkt, die volle Merkmale, leichte Transportierbarkeit und niedrige Kosten bereitstellen.
  • Bei der Audiowiedergabe ist es üblich, eine Vielfalt von Signalverarbeitungstechniken in Abhängigkeit von der Musik und vom Spielstil zu verwenden, um eine bessere Klangqualität, Spielbarkeit zu erreichen und anderweitig die Kreativität des Künstlers sowie den Genuss und die Anerkennung der Komposition durch den Zuhörer zu verbessern. Gitarrenspieler verwenden beispielsweise eine große Auswahl von Audioverstärkereinstellungen und Klangeffekten für verschiedene Musikstile. Bassspieler verwenden verschiedene Kompressoren und Entzerrungseinstellungen, um die Klangqualität zu verbessern. Sänger verwenden verschiedene Hall- und Entzerrungseinstellungen in Abhängigkeit vom Liedtext und von der Melodie des Liedes. Musikproduzenten verwenden Nachverarbeitungseffekte, um die Komposition zu verbessern. Für Heim- und Autoklangsysteme kann der Benutzer verschiedene Hall- und Entzerrungsvorgaben wählen, um die Wiedergabe von klassischer oder Rockmusik zu optimieren.
  • Audioverstärker und eine andere Signalverarbeitungsausrüstung, z. B. ein zweckgebundener Verstärker, eine Pedalklaviatur oder ein Soundrack, werden typischerweise mit Frontplattenschaltern und -steuerknöpfen gesteuert. Um den Verarbeitungsanforderungen für verschiedene Musikstile Rechnung zu tragen, hört der Benutzer die gewünschten Funktionen wie z. B. Verstärkung, Filterung, Tonentzerrung und Klangeffekte an und wählt diese manuell durch Einstellen der Schalterpositionen und Drehen der Steuerknöpfe aus. Wenn sich Spielstile ändern oder zu einer anderen Melodie übergegangen wird, muss der Benutzer vorübergehend die Wiedergabe unterbrechen, um Einstellungen am Audioverstärker oder einer anderen Signalverarbeitungsausrüstung vorzunehmen. In einigen digitalen oder analogen Instrumenten kann der Benutzer bevorzugte Einstellungen als Vorgaben konfigurieren und speichern und dann später die gespeicherten Einstellungen oder Werksvorgaben für das Instrument manuell auswählen.
  • In professionellen Anwendungen kann ein Techniker Einstellungen am Audioverstärker oder an einer anderen Signalverarbeitungsausrüstung durchführen, während der Künstler darbietet, aber die Synchronisation zwischen dem Künstler und dem Techniker ist gewöhnlich geringer als ideal. Wenn der Künstler den Angriff an den Saiten oder den Stimmgehalt ändert oder eine neue Komposition beginnt, muss der Techniker die Künstlerhandlung vorhersehen und dementsprechend manuelle Einstellungen am Audioverstärker durchführen. In den meisten, wenn nicht allen Fällen wird der Audioverstärker selten auf die musikalischen Klänge optimiert, zumindest nicht auf notenweiser Basis.
  • Zusammenfassung der Erfindung
  • Es existiert ein Bedarf am dynamischen Steuern eines Audioverstärkers oder einer anderen Signalverarbeitungsausrüstung in Echtzeit. Folglich ist die vorliegende Erfindung in einem Ausführungsbeispiel ein Audiosystem mit einem Signalprozessor, der zum Empfangen eines Audiosignals gekoppelt ist. Der dynamische Inhalt des Audiosignals steuert den Betrieb des Signalprozessors.
  • In einem weiteren Ausführungsbeispiel ist die vorliegende Erfindung ein Verfahren zum Steuern eines Audiosystems mit den Schritten des Bereitstellens eines Signalprozessors, der zum Empfangen eines Audiosignals ausgelegt ist, und des Steuerns des Betriebs des Signalprozessors unter Verwendung des dynamischen Inhalts des Audiosignals.
  • In einem weiteren Ausführungsbeispiel ist die vorliegende Erfindung ein Audiosystem mit einem Signalprozessor, der zum Empfangen eines Audiosignals gekoppelt ist. Ein Zeitbereichsprozessor empfängt das Audiosignal und erzeugt Zeitbereichsparameter des Audiosignals. Ein Frequenzbereichsprozessor empfängt das Audiosignal und erzeugt Frequenzbereichsparameter des Audiosignals. Eine Signaturdatenbank umfasst eine Vielzahl von Signaturdatensätzen mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparameter. Ein Erkennungsdetektor vergleicht die Zeitbereichsparameter und Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank. Die Steuerparameter des passenden Signaturdatensatzes steuern den Betrieb des Signalprozessors.
  • In einem weiteren Ausführungsbeispiel ist die vorliegende Erfindung ein Verfahren zum Steuern eines Audiosystems mit den Schritten des Bereitstellens eines Signalprozessors, der zum Empfangen eines Audiosignals ausgelegt ist, des Erzeugens von Zeitbereichsparametern des Audiosignals, des Erzeugens von Frequenzbereichsparametern des Audiosignals, des Vorsehens einer Signaturdatenbank mit einer Vielzahl von Signaturdatensätzen mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparametern, des Vergleichens der Zeitbereichsparameter und der Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank und des Steuerns des Betriebs des Signalprozessors auf der Basis der Steuerparameter des passenden Signaturdatensatzes.
  • Kurzbeschreibung der Zeichnungen
  • 1 stellt eine Audioklangquelle dar, die ein Audiosignal erzeugt und das Audiosignal durch eine Signalverarbeitungsausrüstung zu einem Lautsprecher leitet;
  • 2 stellt eine Gitarre dar, die mit einem Audioklangsystem verbunden ist;
  • 3 stellt eine Vorderansicht des Audiosystemgehäuses mit einem Frontbedienfeld dar;
  • 4 stellt ein weiteres Detail des Fronbedienfeldes des Audiosystems dar;
  • 5 stellt einen Audioverstärker und einen Lautsprecher in separaten Gehäusen dar;
  • 6 stellt ein Blockdiagramm des Audioverstärkers mit adaptiver Intelligenzsteuerung dar;
  • 7a7b stellen Wellenformdiagramme des Audiosignals dar;
  • 8 stellt ein Blockdiagramm des Frequenzbereichs- und des Zeitbereichsanalyseblocks dar;
  • 9a9b stellen Zeitsequenzrahmen des abgetasteten Audiosignals dar;
  • 10 stellt ein Blockdiagramm des Zeitbereichsanalyseblocks dar;
  • 11 stellt ein Blockdiagramm des Zeitbereichs-Energiepegel-Isolationsblocks in Frequenzbändern dar;
  • 12 stellt ein Blockdiagramm des Zeitbereichs-Notendetektorblocks dar;
  • 13 stellt ein Blockdiagramm des Zeitbereichseinsatzdetektors dar;
  • 14 stellt ein weiteres Ausführungsbeispiel des Zeitbereichseinsatzdetektors dar;
  • 15 stellt ein Blockdiagramm des Frequenzbereichsanalyseblocks dar;
  • 16 stellt ein Blockdiagramm des Frequenzbereichs-Notendetektorblocks dar;
  • 17 stellt ein Blockdiagramm der Energiepegelisolation in Frequenzintervallbereichen dar;
  • 18 stellt ein Blockdiagramm des Frequenzbereichseinsatzdetektors dar;
  • 19 stellt ein weiteres Ausführungsbeispiel des Frequenzbereichseinsatzdetektors dar;
  • 20 stellt die Notensignaturdatenbank mit Parameterwerten, Gewichtungswerten und Steuerparametern dar;
  • 21 stellt eine Computerschnittstelle zur Notensignaturdatenbank dar;
  • 22 stellt einen Erkennungsdetektor für die Laufzeitmatrix und die Notensignaturdatenbank dar;
  • 23 stellt ein Ausführungsbeispiel dar, wobei die adaptive Intelligenzsteuerung mit einer separaten Signalverarbeitungsausrüstung, einem separaten Audioverstärker und einem separaten Lautsprecher implementiert wird;
  • 24 stellt die Signalverarbeitungsausrüstung als Computer implementiert dar;
  • 25 stellt ein Blockdiagramm der Signalverarbeitungsfunktion innerhalb des Computers dar;
  • 26 stellt die Signalverarbeitungsausrüstung als Pedalklaviatur implementiert dar;
  • 27 stellt die Signalverarbeitungsausrüstung als Signalverarbeitungsgehäuse implementiert dar;
  • 28 stellt eine Stimmklangquelle dar, die zu einem Audioverstärker und einem Lautsprecher geleitet wird;
  • 29 stellt ein Blockdiagramm des Audioverstärkers mit adaptiver Intelligenzsteuerung auf einer rahmenweisen Basis dar;
  • 30 stellt ein Blockdiagramm des Frequenzbereichs- und Zeitbereichsanalyseblocks auf einer rahmenweisen Basis dar;
  • 31a31b stellen Zeitsequenzrahmen des abgetasteten Audiosignals dar;
  • 32 stellt ein Blockdiagramm des Zeitbereichsanalyseblocks dar;
  • 33 stellt ein Blockdiagramm des Zeitbereichs-Energiepegel-Isolationsblocks in Frequenzbändern dar;
  • 34 stellt ein Blockdiagramm des Frequenzbereichsanalyseblocks dar;
  • 35 stellt die Rahmensignaturdatenbank mit einem Parameterwert, Gewichtungswerten und Steuerparametern dar;
  • 36 stellt eine Computerschnittstelle zur Rahmensignaturdatenbank dar; und
  • 37 stellt einen Erkennungsdetektor für die Laufzeitmatrix und die Rahmensignaturdatenbank dar.
  • Ausführliche Beschreibung der Zeichnungen
  • Die vorliegende Erfindung wird in einem oder mehreren Ausführungsbeispielen in der folgenden Beschreibung mit Bezug auf die Figuren beschrieben, in denen gleiche Ziffern dieselben oder ähnliche Elemente darstellen. Obwohl die Erfindung hinsichtlich der besten Art zum Erreichen der Ziele der Erfindung beschrieben wird, ist für den Fachmann auf dem Gebiet zu erkennen, dass sie Alternativen, Modifikationen und Äquivalente abdecken soll, die innerhalb des Gedankens und Schutzbereichs der Erfindung enthalten sein können, wie durch die beigefügten Ansprüche und ihre Äquivalente definiert, wie durch die folgende Offenbarung und die folgenden Zeichnungen unterstützt.
  • Mit Bezug auf 1 umfasst ein Audioklangsystem 10 eine Audioklangquelle 12, die elektrische Signale erzeugt, die Klanginhalt darstellen. Die Audioklangquelle 12 kann ein Musikinstrument, ein Audiomikrophon, ein Multimediaplayer oder eine andere Vorrichtung sein, die in der Lage ist, elektrische Signale zu erzeugen, die Klanginhalt darstellen. Das Musikinstrument kann eine elektrische Gitarre, eine Bassgitarre, eine Violine, ein Horn, ein Blechblasinstrument, Trommeln, ein Blasinstrument, ein Saiteninstrument, ein Klavier, ein elektrisches Keyboard und ein Schlagzeug sein, um nur einige zu nennen. Die elektrischen Signale von der Audioklangquelle 12 werden durch ein Audiokabel 14 zu einer Signalverarbeitungsausrüstung 16 zur Signalaufbereitung und Leistungsverstärkung geleitet. Die Signalverarbeitungsausrüstung 16 kann ein Audioverstärker, ein Computer, eine Pedalklaviatur, ein Signalverarbeitungsgehäuse oder eine andere Ausrüstung sein, die in der Lage ist, Signalverarbeitungsfunktionen an dem Audiosignal durchzuführen. Die Signalverarbeitungsfunktion kann Verstärkung, Filterung, Entzerrung, Klangeffekte und vom Benutzer definierte Module, die den Leistungspegel einstellen und die Signaleigenschaften des Audiosignals verbessern, umfassen. Das signalaufbereitete Audiosignal wird durch ein Audiokabel 17 zu einem Lautsprecher 18 geleitet, um den Klanginhalt der Audioklangquelle 12 mit den durch die Signalverarbeitungsausrüstung 16 in das Audiosignal eingeführten Verbesserungen wiederzugeben.
  • 2 zeigt ein Musikinstrument als Audioklangquelle 12, in diesem Fall eine elektrische Gitarre 20. Ein oder mehrere Tonabnehmer 22 sind unter den Saiten 24 der elektrischen Gitarre 20 angebracht und wandeln die Saitenbewegung oder -vibration in elektrische Signale um, die die beabsichtigten Töne von den vibrierenden Saiten darstellen. Die elektrischen Signale von der Gitarre 20 werden durch ein Audiokabel 26 zu einer Audioeingangsbuchse am Frontbedienfeld 30 des Audiosystems 32 für die Signalverarbeitung und Leistungsverstärkung geleitet. Das Audiosystem 32 umfasst einen Audioverstärker und Lautsprecher, die gemeinsam innerhalb des Gehäuses 34 angeordnet sind. Die durch den Audioverstärker vorgesehene Signalaufbereitung kann Verstärkung, Filterung, Entzerrung, Klangeffekte, vom Benutzer definierte Module und andere Signalverarbeitungsfunktionen umfassen, die den Leistungspegel einstellen und die Signaleigenschaften des Audiosignals verbessern. Das signalaufbereitete Audio wird innerhalb des Audiosystems 32 zum Lautsprecher geleitet. Die Leistungsverstärkung erhöht oder verringert den Leistungspegel und die Signalstärke des Audiosignals, um den Lautsprecher anzusteuern und den Klanginhalt, der durch die vibrierenden Saiten 24 der elektrischen Gitarre 20 beabsichtigt ist, mit den durch den Audioverstärker in das Audiosignal eingeführten Verbesserungen wiederzugeben. Das Frontbedienfeld 30 umfasst eine Anzeige und Steuerknöpfe, um dem Benutzer zu ermöglichen, verschiedene Einstellungen des Audiosystems 32 zu überwachen und manuell zu steuern.
  • 3 zeigt eine Vorderansicht des Audiosystems 32. Als anfängliche Beobachtung sind der Formfaktor und die Aufstandsfläche des Audiosystems 32 für die tragbare Verwendung und leichte Transportfähigkeit ausgelegt. Das Audiosystem 32 misst etwa 13 Zoll in der Höhe, 15 Zoll in der Breite und 7 Zoll in der Tiefe und wiegt etwa 16 Pfund. Ein Tragegriff oder Riemen 40 ist vorgesehen, um die Merkmale der Tragbarkeit und des leichten Transports zu unterstützen. Das Audiosystem 32 weist ein Gehäuse 42 auf, das durch einen gefalteten Aluminiumeinbaurahmen, einen Holzschrank, eine schwarze Vinylabdeckung, ein Frontbedienfeld und eine Gewebebespannung über dem Lautsprecherbereich 44 definiert ist. Das Frontbedienfeld 30 weist Verbindungen für den Audioeingang, einen Kopfhörer, Steuertasten und -knöpfe, eine Flüssigkristallanzeige (LCD) und digitale Musikinstrumentschnittstellen-(MIDI)Eingangs/Ausgangs-(E/A) Buchsen auf:
    Ein weiteres Detail des Frontbedienfeldes 30 des Audiosystems 32 ist in 4 gezeigt. Die externen Merkmale des Audiosystems 32 umfassen eine Audioeingangsbuchse 50 zum Aufnehmen des Audiokabels 26 von der Gitarre 20 oder anderen Musikinstrumenten, eine Kopfhörerbuchse 52 zum Verbinden mit externen Kopfhörern, ein programmierbares Bedienfeld 54, Steuerknöpfe 56 und MIDI-E/A-Buchsen 58. Die Steuerknöpfe 56 sind zusätzlich zum programmierbaren Bedienfeld 54 für Audiosteuerfunktionen vorgesehen, auf die häufig vom Benutzer zugegriffen wird. In einem Ausführungsbeispiel sehen die Steuerknöpfe 56 eine Benutzersteuerung der Lautstärke und des Tons vor. Zusätzliche Steuerknöpfe 56 können den Frequenzgang, die Entzerrung und andere Klangsteuerfunktionen steuern.
  • Das programmierbare Bedienfeld 54 umfasst eine LCD 60, Funktionsmodustasten 62, Auswahltasten 64 und einen Einstellknopf oder ein Datenrad 66. Die Funktionsmodustasten 62 und Auswahltasten 64 sind Elastomerkautschukblöcke für weiche Berührung und lange Lebensdauer. Alternativ können die Tasten harter Kunststoff mit mikroelektronischen Schaltern mit taktischer Rückkopplung sein. Das Audiosystem 32 ist vollständig programmierbar, menügesteuert und verwendet eine Software zum Konfigurieren und Steuern der Klangwiedergabemerkmale. Die Kombination der Funktionsmodustasten 62, der Auswahltasten 64 und des Datenrades 66 sieht eine Steuerung für die Benutzerschnittstelle über die verschiedenen Betriebsarten, einen Zugriff auf Menüs zum Auswählen und Bearbeiten von Funktionen und eine Konfiguration des Audiosystems 32 vor. Das programmierbare Bedienfeld 54 des Audiosystems 32 kann auch LEDs als Indikatoren für Sync/Abgriff, Tempo, Speichern, Aufzeichnen und Leistungsfunktionen umfassen.
  • Im Allgemeinen ist das programmierbare Bedienfeld 54 die Benutzerschnittstelle für die vollständig programmierbare, menügesteuerte Konfiguration und die Steuerung der elektrischen Funktionen innerhalb des Audiosystems 32. Die LCD 60 ändert sich mit den Benutzerauswahlen, um viele verschiedene Konfigurations- und Betriebsmenüs und -optionen bereitzustellen. Die Betriebsarten können Start und Selbsttest, Wiedergabe, Bearbeitung, Dienstprogramm, Speichern und Tuner umfassen. In einer Betriebsart zeigt die LCD 60 den Wiedergabemodus des Audiosystems 32. In einer anderen Betriebsart zeigt die LCD 60 die MIDI-Datenübertragung im Prozess an. In einer anderen Betriebsart zeigt die LCD 60 eine Vorgabeeinstellung und Vorgaben an. In noch einer anderen Betriebsart zeigt die LCD 60 einen Abstimmungsesser an.
  • Wenn man sich 5 zuwendet, kann das Audiosystem auch mit einem Audioverstärker, der innerhalb eines ersten Gehäuses 70 enthalten ist, und einem Lautsprecher, der innerhalb eines zweiten separaten Gehäuses 72 aufgenommen ist, implementiert werden. In diesem Fall ist das Audiokabel 26 von der Gitarre 20 zur Audioeingangsbuchse 74 geleitet, die mit dem Audioverstärker innerhalb des Gehäuses 70 zur Leistungsverstärkung und Signalverarbeitung verbunden ist. Steuerknöpfe 76 am Frontbedienfeld 78 des Gehäuses 70 ermöglichen dem Benutzer, verschiedene Einstellungen des Audioverstärkers zu überwachen und manuell zu steuern. Das Gehäuse 70 ist durch das Audiokabel 80 mit dem Gehäuse 72 elektrisch verbunden, um das verstärkte und aufbereitete Audiosignal zu den Lautsprechern 82 zu leiten.
  • Bei der Audiowiedergabe ist es üblich, eine Vielfalt von Signalverarbeitungstechniken in Abhängigkeit vom Inhalt der Audioquelle zu verwenden, z. B. Darbietung oder Wiedergabestil, um eine bessere Klangqualität, Spielbarkeit zu erreichen und die Kreativität des Künstlers sowie den Genuss und die Anerkennung der Komposition durch den Zuhörer anderweitig zu verbessern. Bassspieler verwenden beispielsweise verschiedene Kompressoren und Entzerrungseinstellungen, um die Klangqualität zu verbessern. Sänger verwenden verschiedene Hall- und Entzerrungseinstellungen in Abhängigkeit vom Liedtext und von der Melodie des Liedes. Musikproduzenten verwenden Nachverarbeitungseffekte, um die Komposition zu verbessern. Für Heim- und Autoklangsysteme kann der Benutzer verschiedene Hall- und Entzerrungsvorgaben wählen, um die Wiedergabe von klassischer oder Rockmusik zu optimieren.
  • 6 ist ein Blockdiagramm des Audioverstärkers 90, der in Abhängigkeit von der Audiosystemkonfiguration innerhalb des Audiosystems 32 oder innerhalb des Audioverstärkergehäuses 70 enthalten ist. Der Audioverstärker 90 empfängt Audiosignale von der Gitarre 20 durch das Audiokabel 26. Der Audioverstärker 90 führt eine Verstärkung und andere Signalverarbeitungsfunktionen wie z. B. Entzerrung, Filterung, Klangeffekte und vom Benutzer definierte Module am Audiosignal durch, um den Leistungspegel einzustellen und die Signaleigenschaften für die Hörerfahrung anderweitig zu verbessern.
  • Um den Signalverarbeitungsanforderungen gemäß dem dynamischen Inhalt der Audioquelle Rechnung zu tragen, verwendet der Audioverstärker 90 ein Merkmal dynamischer adaptiver Intelligenz, das Frequenzbereichsanalyse und Zeitbereichsanalyse des Audiosignals auf rahmenweiser Basis beinhaltet und den Betrieb der Signalverarbeitungsfunktionen und Einstellungen innerhalb des Audioverstärkers automatisch und adaptiv steuert, um eine optimale Klangwiedergabe zu erreichen. Jeder Rahmen enthält eine vorbestimmte Anzahl von Abtastwerten des Audiosignals, z. B. 32–1024 Abtastwerte pro Rahmen. Jeder ankommende Rahmen des Audiosignals wird auf einer rahmenweisen Basis detektiert und analysiert, um seinen Zeitbereichs- und Frequenzbereichsinhalt und seine Charakteristiken zu bestimmen. Die ankommenden Rahmen des Audiosignals werden mit einer Datenbank von festgelegten oder gelernten Notensignaturen verglichen, um eine beste Übereinstimmung oder engste Korrelation des ankommenden Rahmens mit der Datenbank von Notensignaturen zu bestimmen. Die Notensignaturen von der Datenbank enthalten Steuerparameter, um die Signalverarbeitungskomponenten des Audioverstärkers 90 zu konfigurieren. Die am besten passende Notensignatur steuert den Audioverstärker 90 in Echtzeit, um kontinuierlich und automatisch Einstellungen an den Signalverarbeitungsfunktionen für eine optimale Klangwiedergabe durchzuführen. Auf der Basis der Notensignatur kann beispielsweise die Verstärkung des Audiosignals für diesen speziellen Rahmen des Audiosignals automatisch erhöht oder verringert werden. Vorgaben und Klangeffekte können für die gespielte Note automatisch eingeschaltet oder entfernt werden. Der nächste Rahmen in der Sequenz kann derselben Note zugeordnet sein, die mit derselben Notensignatur in der Datenbank übereinstimmt, oder der nächste Rahmen in der Sequenz kann einer anderen Note zugeordnet sein, die mit einer anderen entsprechenden Notensignatur in der Datenbank übereinstimmt. Jeder Rahmen des Audiosignals wird erkannt und mit einer Notensignatur verglichen, die wiederum den Betrieb der Signalverarbeitungsfunktion innerhalb des Audioverstärkers 90 für optimale Klangwiedergabe steuert. Die Signalverarbeitungsfunktion des Audioverstärkers 90 wird gemäß der am besten passenden Notensignatur entsprechend jedem individuellen ankommenden Rahmen des Audiosignals eingestellt, um seine Wiedergabe zu verbessern.
  • Das Merkmal adaptiver Intelligenz des Audioverstärkers 90 kann Attribute jeder Note des Audiosignals lernen und Einstellungen auf der Basis einer Benutzerrückkopplung durchführen. Wenn beispielsweise der Benutzer mehr oder weniger Verstärkung oder Entzerrung oder die Einführung eines speziellen Klangeffekts für eine gegebene Note wünscht, dann baut der Audioverstärker diese Benutzervorlieben in die Steuerparameter der Signalverarbeitungsfunktion ein, um die optimale Klangwiedergabe zu erreichen. Die Datenbank von Notensignaturen mit korrelierten Steuerparametern führt Echtzeiteinstellungen an der Signalverarbeitungsfunktion durch. Der Benutzer kann Audiomodule, Effekte und Einstellungen definieren, die in die Datenbank des Audioverstärkers 90 integriert werden. Mit adaptiver Intelligenz kann der Audioverstärker 90 Tonmodule und -einstellungen detektieren und automatisch auf das Audiosignal auf der Basis der vorliegenden Notensignatur anwenden. Der Audioverstärker 90 kann zwischen ähnlichen passenden Notensignaturen nach Bedarf interpolieren, um die beste Wahl für die momentane Signalverarbeitungsfunktion auszuwählen.
  • Mit Fortsetzung mit 6 weist der Audioverstärker 90 einen Signalverarbeitungspfad für das Audiosignal mit einem Vorfilterblock 92, einem Voreffektblock 94, einem Block 96 für nicht-lineare Effekte, vom Benutzer definierten Modulen 98, einem Nacheffektblock 100, einem Nachfilterblock 102 und einem Leistungsverstärkungsblock 104 auf. Der Vorfilterblock 92 und der Nachfilterblock 102 sehen verschiedene Filterfunktionen wie z. B. Tiefpassfilterung und Bandpassfilterung des Audiosignals vor. Die Vorfilterung und Nachfilterung können Tonentzerrungsfunktionen über verschiedene Frequenzbereiche umfassen, um die Pegel von spezifischen Frequenzen zu verstärken oder zu dämpfen, ohne sich auf benachbarte Frequenzen auszuwirken, wie z. B. Bassfrequenzeinstellung und Höhenfrequenzeinstellung. Die Tonentzerrung kann beispielsweise stufenweise Entzerrung, um alle Frequenzen über oder unter einer Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, Glockenentzerrung, um einen schmalen Bereich von Frequenzen um eine Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, graphische Entzerrung oder Parameterentzerrung verwenden. Der Voreffektblock 94 und der Nacheffektblock 100 führen Klangeffekte in das Audiosignal ein, wie z. B. Hall, Verzögerungen, Mehrfachüberlagerung, Wah, automatische Lautstärke, Phasenschieber, Brummunterdrücker, Rauschsperre, Vibrato, Tonhöhenverschiebung, Tremolo und dynamische Kompression. Der Block 96 für nicht-lineare Effekte führt nicht-lineare Effekte in das Audiosignal ein, wie z. B. m-Modellierung, Verzerrung, Übersteuerung, Unschärfe und Modulation. Der Block 98 für vom Benutzer definierte Module ermöglicht dem Benutzer, individuell angepasste Signalverarbeitungsfunktionen zu definieren, wie z. B. Hinzufügen von Begleitinstrumenten, Gesang, und Synthesizeroptionen. Der Leistungsverstärkerblock 104 sieht eine Leistungsverstärkung oder -dämpfung des Audiosignals vor. Das Audiosignal nach der Signalverarbeitung wird zu den Lautsprechern im Audiosystem 32 oder zu den Lautsprechern 82 im Gehäuse 72 geleitet.
  • Der Vorfilterblock 92, der Voreffektblock 94, der Block 96 für nicht-lineare Effekte, die vom Benutzer definierten Module 98, der Nacheffektblock 100, der Nachfilterblock 102 und der Leistungsverstärkungsblock 104 innerhalb des Audioverstärkers 90 sind mit dem Frontbedienfeld 30 in 4 oder dem Frontbedienfeld 78 in 5 auswahlbar und steuerbar. Durch Drehen der Knöpfe 76 am Frontbedienfeld 78 oder unter Verwendung der LCD 60, der Funktionsmodustasten 62, der Auswahltasten 64 und des Einstellknopfs oder des Datenrades 66 des programmierbaren Bedienfeldes 54 kann der Benutzer den Betrieb der Signalverarbeitungsfunktionen innerhalb des Audioverstärkers 90 direkt steuern.
  • Das Audiosignal kann von einer Vielfalt von Audioquellen stammen, wie z. B. Musikinstrumenten oder Gesang. Das Instrument kann eine elektrische Gitarre, eine Bassgitarre, eine Violine, ein Horn, ein Blechblasinstrument, Trommeln, ein Blasinstrument, ein Klavier, ein elektrisches Keyboard, ein Schlagzeug oder andere Instrumente sein, die in der Lage sind, elektrische Signale zu erzeugen, die Klanginhalt darstellen. Das Audiosignal kann von einem Audiomikrophon stammen, das von einem Mann oder einer Frau mit Stimmbereichen bedient wird, einschließlich Sopran, Mezzosopran, Alt, Tenor, Bariton und Bass. In der vorliegenden Erörterung ist das Instrument eine Gitarre 20, insbesondere eine elektrische Bassgitarre. Wenn die Saiten 24 der Bassgitarre 20 mit dem Finger des Musikers oder einem Gitarrenplektron angeregt werden, beginnt die Saite eine starke Vibration oder Schwingung, die vom Tonabnehmer 22 detektiert wird. Die Saitenvibration dämpft sich über die Zeit ab und kehrt in einen stationären Zustand zurück, wobei angenommen wird, dass die Saite nicht erneut angeregt wird, bevor die Vibration aufhört. Die anfängliche Anregung der Saiten 24 ist als Einsatzphase bekannt. Der Einsatzphase folgt eine Haltephase, während der die Saitenvibration relativ stark bleibt. Eine Abklingphase folgt der Haltephase, wenn sich die Saitenvibration abdämpft, und schließlich eine Freigabephase, wenn die Saite in einen stationären Zustand zurückkehrt. Der Tonabnehmer 22 wandelt Saitenschwingungen während der Einsatzphase, der Haltephase, der Abklingphase und der Freigabephase in ein elektrisches Signal, d. h. das analoge Audiosignal, mit einer anfänglichen und dann abfallenden Amplitude mit einer Grundfrequenz und Oberwellen der Grundfrequenz um. 7a7b stellen Amplitudengänge des Audiosignals im Zeitbereich entsprechend der Einsatzphase und Haltephase und in Abhängigkeit von der Figur der Abklingphase und Freigabephase der Saiten 24 in verschiedenen Spielmodi dar. In 7b beginnt die nächste Einsatzphase vor der Vollendung der vorherigen Abklingphase oder sogar dem Beginn der Freigabephase.
  • Der Künstler kann eine Vielfalt von Spielstilen verwenden, wenn er die Bassgitarre 20 spielt. Der Künstler kann beispielsweise seine Hand nahe dem Halstonabnehmer oder dem Stegtonabnehmer anordnen und die Saiten 24 mit Fingerzupfen anregen, was als ”Fingersatzstil” bekannt ist, für modernen Pop, Rhythm and Blues und Avantgarde-Stile. Der Künstler kann die Saiten 24 mit den Fingern oder der Handfläche schlagen, was als ”Schlagstil” bekannt ist, für modernen Jazz, Funk, Rhythm and Blues und Rockstile. Der Künstler kann die Saiten 24 mit dem Daumen anregen, was als ”Daumenstil” bekannt ist, für Motown Rhythm and Blues. Der Künstler kann die Saiten 24 mit zwei Händen abgreifen, wobei jede Hand Noten abgreift, was als ”Abgriffstil” bekannt ist, für Avantgarde- und Modern-Jazz-Stile. In anderen Spielstilen ist es bekannt, dass Künstler Fingersatzzubehörteile wie z. B. ein Plektron oder einen Stab verwenden. In jedem Fall vibrieren die Saiten 24 mit einer speziellen Amplitude und Frequenz und erzeugen ein eindeutiges Audiosignal gemäß den Saitenvibrationsphasen, wie z. B. in 7a und 7b gezeigt.
  • 6 stellt ferner die dynamische adaptive Intelligenzsteuerung des Audioverstärkers 90 dar. Ein Hauptzweck des Merkmals adaptiver Intelligenz des Audioverstärkers 90 besteht darin, die Frequenzbereichscharakteristiken und Zeitbereichscharakteristiken des Audiosignals auf einer rahmenweisen Basis zu detektieren und zu isolieren und diese Informationen zu verwenden, um den Betrieb der Signalverarbeitungsfunktion des Verstärkers zu steuern. Das Audiosignal vom Audiokabel 26 wird zum Frequenzbereichs- und Zeitbereichs-Analyseblock 110 geleitet. Die Ausgabe des Blocks 110 wird zum Notensignaturblock 112 geleitet und die Ausgabe des Blocks 112 wird zum Block 114 für die adaptive Intelligenzsteuerung geleitet. Die Funktionen der Blöcke 110, 112 und 114 werden der Reihe nach erörtert.
  • 8 stellt ein weiteres Detail des Frequenzbereichs- und Zeitbereichsanalyseblocks 110 dar, einschließlich des Audioabtastblocks 116, des Frequenzbereichsanalyseblocks 120 und des Zeitbereichsanalyseblocks 122. Das analoge Audiosignal wird an den Audioabtastblock 116 übergeben. Der Audioabtastblock 116 tastet das analoge Audiosignal, z. B. 32 bis 1024 Abtastwerte pro Sekunde, unter Verwendung eines Analog-Digital-(A/D)Wandlers ab. Das abgetastete Audiosignal 118 wird in eine Reihe von zeitlich fortschreitenden Rahmen (Rahmen 1 bis Rahmen n) gegliedert, die jeweils eine vorbestimmte Anzahl von Abtastwerten des Audiosignals enthalten. 9a zeigt den Rahmen 1, der 64 Abtastwerte des Audiosignals 118 in der Zeitsequenz enthält, den Rahmen 2, der die nächsten 64 Abtastwerte des Audiosignals 118 in der Zeitsequenz enthält, den Rahmen 3, der die nächsten 64 Abtastwerte des Audiosignals 118 in der Zeitsequenz enthält, und so weiter bis zum Rahmen n, der 64 Abtastwerte des Audiosignals 118 in der Zeitsequenz enthält. 9b zeigt überlappende Fenster 119 von Rahmen 1-n, die bei der Zeitbereich-Frequenzbereich-Umwandlung verwendet werden, wie in 15 beschrieben. Die Rahmen 1-n des abgetasteten Audiosignals 118 werden zum Frequenzbereichsanalyseblock 120 und Zeitbereichsanalyseblock 122 geleitet.
  • 10 stellt ein weiteres Detail des Zeitbereichsanalyseblocks 122 mit dem Energiepegelisolationsblock 124 dar, der den Energiepegel jedes Rahmens des abgetasteten Audiosignals 118 in mehrere Frequenzbänder isoliert. In 11 verarbeitet der Energiepegelisolationsblock 124 jeden Rahmen des abgetasteten Audiosignals 118 in der Zeitsequenz durch das Filterfrequenzband 130130c, um spezifische Frequenzen des Audiosignals zu trennen und zu isolieren. Die Filterfrequenzbänder 130a130c können spezifische Frequenzbänder im Audiobereich von 100–10000 Hz isolieren. In einem Ausführungsbeispiel ist das Filterfrequenzband 130a ein Bandpassfilter mit einem Durchlassbereich, der bei 100 Hz zentriert ist, das Filterfrequenzband 130b ist ein Bandpassfilter mit einem Durchlassbereich, der bei 500 Hz zentriert ist, und das Filterfrequenzband 130c ist ein Bandpassfilter mit einem Durchlassbereich, der bei 1000 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 130a enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 100 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 130b enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 500 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 130c enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 1000 Hz zentriert ist. Die Ausgabe von anderen Filterfrequenzbändern enthält jeweils den Energiepegel des abgetasteten Audiosignals 118 für ein spezifisches Band. Ein Spitzendetektor 132a überwacht und speichert Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 100 Hz zentriert sind. Ein Spitzendetektor 132b überwacht und speichert Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 500 Hz zentriert sind. Ein Spitzendetektor 132c überwacht und speichert Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 1000 Hz zentriert sind. Ein Glättungsfilter 134a entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 100 Hz zentriert sind. Ein Glättungsfilter 134b entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 500 Hz zentriert sind. Ein Glättungsfilter 134c entfernt störende Komponenten der Spitzenenergiepegel und stabilisiert anderweitig das abgetastete Audiosignal 118, die bei 1000 Hz zentriert sind. Die Ausgabe der Glättungsfilter 134a134c ist die Energiepegelfunktion E(m,n) für jedes Frequenzband 1-m in jedem Rahmen n des abgetasteten Audiosignals 118.
  • Der Zeitbereichsanalyseblock 122 von 8 umfasst auch einen Notendetektorblock 125, wie in 10 gezeigt. Der Block 125 detektiert den Beginn jeder Note und sorgt für die Gliederung des abgetasteten Audiosignals in diskrete Segmente, wobei jedes Segment mit dem Beginn der Note beginnt, eine Vielzahl von Rahmen des abgetasteten Audiosignals umfasst und mit dem Beginn der nächsten Note abschließt. Im vorliegenden Ausführungsbeispiel entspricht jedes diskrete Segment des abgetasteten Audiosignals einer einzelnen Note von Musik. Der Notendetektorblock 125 ordnet die Einsatzphase der Saiten 24 als Beginn einer Note zu. Das heißt, die Einsatzphase der vibrierenden Saite 24 an der Gitarre 20 fällt mit der Detektion einer spezifischen Note zusammen. Für andere Instrumente ist die Notendetektion einer anderen physikalischen Handlung durch den Künstler zugeordnet, z. B. Drücken der Taste eines Klaviers oder eines elektrischen Keyboards, Anregen der Saite einer Harfe, Ausatmen von Luft in ein Horn, während eine oder mehrere Tasten am Horn gedrückt werden, oder Schlagen der Fläche einer Trommel mit einem Trommelstock. In jedem Fall überwacht der Notendetektorblock 125 den dynamischen Zeitbereichsinhalt des abgetasteten Audiosignals 118 und identifiziert den Beginn einer Note.
  • 12 zeigt ein weiteres Detail des Notendetektorblocks 125 mit dem Einsatzdetektor 136. Sobald die Energiepegelfunktion E(m,n) für jedes Frequenzband 1-m des abgetasteten Audiosignals 118 bestimmt ist, werden die Energiepegel 1-m eines Rahmens n-1 im Block 138 des Einsatzdetektors 136 gespeichert; wie in 13 gezeigt. Die Energiepegel von Frequenzbändern 1-m für den nächsten Rahmen n des abgetasteten Audiosignals 118, wie durch die Filterfrequenzbänder 130a130c, Spitzendetektoren 132a132c und Glättungsfilter 134a134c bestimmt, werden im Block 140 des Einsatzdetektors 136 gespeichert. Der Differenzblock 142 bestimmt eine Differenz zwischen den Energiepegeln von entsprechenden Bändern des gegenwärtigen Rahmens n und des vorherigen Rahmens n-1. Der Energiepegel des Frequenzbandes 1 für den Rahmen n-1 wird beispielsweise vom Energiepegel des Frequenzbandes 1 für den Rahmen n subtrahiert. Der Energiepegel des Frequenzbandes 2 für den Rahmen n-1 wird vom Energiepegel des Frequenzbandes 2 für den Rahmen n subtrahiert. Der Energiepegel des Frequenzbandes m für den Rahmen n-1 wird vom Energiepegel des Frequenzbandes m für den Rahmen n subtrahiert. Die Differenz der Energiepegel für jedes Frequenzband 1-m des Rahmens n und Rahmens n-1 werden im Summierer 144 summiert.
  • Der Summierer 144 akkumuliert die Differenz der Energiepegel E(m,n) jedes Frequenzbandes 1-m des Rahmens n und des Rahmens n-1. Der Beginn einer Note tritt auf, wenn der Gesamtbetrag der Differenzen der Energiepegel E(m,n) über die ganzen überwachten Frequenzbänder 1-m für das abgetastete Audiosignal 118 einen vorbestimmten Schwellenwert überschreitet. Ein Vergleicher 146 vergleicht die Ausgabe des Summierers 144 mit einem Schwellenwert 148. Wenn die Ausgabe des Summierers 144 größer ist als der Schwellenwert 148, dann überschreitet die Akkumulation von Differenzen der Energiepegel E(m,n) über das ganze Frequenzspektrum für das abgetastete Audiosignal 118 den Schwellenwert 148 und der Beginn einer Note wird im momentanen Rahmen n detektiert. Wenn die Ausgabe des Summierers 144 geringer ist als der Schwellenwert 148, dann wird kein Beginn einer Note detektiert.
  • Beim Abschluss jedes Rahmens hat der Einsatzdetektor 136 identifiziert, ob der momentane Rahmen den Beginn einer Note enthält oder ob der momentane Rahmen keinen Beginn einer Note enthält. Auf der Basis der Summierung von Differenzen von Energiepegeln E(m,n) des abgetasteten Audiosignals 118 über das ganze Spektrum von Frequenzbändern 1-m, die den Schwellenwert 148 überschreitet, kann der Einsatzdetektor 136 beispielsweise den Rahmen 1 von 9a als den Beginn einer Note enthaltend identifiziert haben, während der Rahmen 2 und Rahmen 3 von 9a keinen Beginn einer Note aufweisen. 7a stellt den Beginn einer Note am Punkt 150 im Rahmen 1 (auf der Basis der Energiepegel E(m,n) des abgetasteten Audiosignals innerhalb der Frequenzbänder 1-m) und keinen Beginn einer Note im Rahmen 2 oder Rahmen 3 dar. 7a weist eine weitere Beginndetektion einer Note am Punkt 152 auf. 7b zeigt Beginndetektionen einer Note an den Punkten 154, 156 und 158.
  • 14 stellt ein weiteres Ausführungsbeispiel des Einsatzdetektors 136 als die Energiepegel E(m,n) mit dem Summierer 160 direkt summierend dar. Der Summierer 160 akkumuliert die Energiepegel E(m,n) des Rahmens n in jedem Frequenzband 1-m für das abgetastete Audiosignal 118. Der Beginn einer Note tritt auf, wenn der Gesamtbetrag der Energiepegel E(m,n) über die ganzen überwachten Frequenzbänder 1-m für das abgetastete Audiosignal 118 einen vorbestimmten Schwellenwert überschreitet. Ein Vergleicher 162 vergleicht die Ausgabe des Summierers 160 mit einem Schwellenwert 164. Wenn die Ausgabe des Summierers 160 größer ist als der Schwellenwert 164, dann überschreitet die Akkumulation der Energiepegel E(m,n) über das ganze Frequenzspektrum für das abgetastete Audiosignal 118 den Schwellenwert 164 und der Beginn einer Note wird im momentanen Rahmen n detektiert. Wenn die Ausgabe des Summierers 160 geringer ist als der Schwellenwert 164, dann wird kein Beginn einer Note detektiert.
  • Am Abschluss jedes Rahmens hat der Einsatzdetektor 136 identifiziert, ob der momentane Rahmen den Beginn einer Note enthält oder ob der momentane Rahmen keinen Beginn einer Note enthält. Auf der Basis der Summierung von Energiepegeln E(m,n) des abgetasteten Audiosignals 118 innerhalb der Frequenzbänder 1-m, die den Schwellenwert 164 überschreitet, kann der Einsatzdetektor 136 beispielsweise den Rahmen 1 von 9a als den Beginn einer Note enthaltend identifiziert haben, während der Rahmen 2 und Rahmen 3 von 9a keinen Beginn einer Note aufweisen.
  • Die Gleichung (1) stellt eine weitere Darstellung der Beginndetektion einer Note bereit. g(m,n) = max(0,[E(m,n)/E(m,n-1)] – 1) (1) wobei: g(m,n) eine Maximumfunktion von Energiepegeln Ober n Rahmen von
    m Frequenzbändern ist,
    E(m,n) der Energiepegel des Rahmens n des Frequenzbandes m ist
    E(m,n-1) der Energiepegel des Rahmens n-1 des Frequenzbandes m ist.
  • Die Funktion g(m,n) weist einen Wert für jedes Frequenzband 1-m und jeden Rahmen 1-n auf. Wenn das Verhältnis von E(m,n)/E(m,n-1), d. h. der Energiepegel des Bandes m im Rahmen n zum Energiepegel des Bandes m im Rahmen n-1, geringer ist als eins, dann ist [E(m,n)/E(m,n-1)] – 1 negativ. Der Energiepegel des Bandes m im Rahmen n ist nicht größer als der Energiepegel des Bandes m im Rahmen n-1. Die Funktion g(m,n) ist null, was auf keine Einleitung der Einsatzphase und daher keine Detektion des Beginns einer Note hinweist. Wenn das Verhältnis von E(m,n)/E(m,n-1), d. h. der Energiepegel des Bandes m im Rahmen n zum Energiepegel des Bandes m im Rahmen n-1, größer ist als eins (beispielsweise ein Wert von zwei), dann ist [E(m,n)/E(m,n-1)] – 1 positiv, d. h. ein Wert von eins. Der Energiepegel des Bandes m im Rahmen n ist größer als der Energiepegel des Bandes m im Rahmen n-1. Die Funktion g(m,n) ist der positive Wert von [E(m,n)/E(m,n-1)] – 1, der auf die Einleitung der Einsatzphase und eine mögliche Detektion des Beginns einer Note hinweist.
  • Wenn man zu 12 zurückkehrt, leitet der Einsatzdetektor 136 die Beginndetektion einer Note zum Stillegatter 166, zum Wiederholungsgatter 168 und zum Geräuschgatter 170. Nicht jede Beginndetektion einer Note ist wahr. Das Stillegatter 166 überwacht die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note. Wenn die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note aufgrund von Stille niedrig sind, z. B. –45 dB, dann werden die Energiepegel E(m,n) des abgetasteten Audiosignals 118, die den Beginn einer Note ausgelöst haben, als unecht betrachtet und ausgemustert. Der Künstler kann beispielsweise versehentlich eine oder mehrere der Saiten 24 berührt haben, ohne absichtlich eine Note oder einen Akkord zu spielen. Die Energiepegel E(m,n) des abgetasteten Audiosignals 118, die sich aus dem versehentlichen Kontakt ergeben, können ausgereicht haben, um den Beginn einer Note zu detektieren, da jedoch das Spielen nicht fortfährt, d. h. die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note auf Stille hinweisen, wird die Beginndetektion ausgemustert.
  • Das Wiederholungsgatter 168 überwacht die Anzahl von Beginndetektionen, die innerhalb eines Zeitraums auftreten. Wenn mehrere Anfänge einer Note innerhalb einer Wiederholungsdetektions-Zeitperiode, z. B. 50 Millisekunden (ms), detektiert werden, dann wird nur die erste Beginndetektion aufgezeichnet. Das heißt, irgendein anschließender Beginn einer Note, der nach der ersten Beginndetektion innerhalb der Wiederholungsdetektions-Zeitperiode detektiert wird, wird ausgemustert.
  • Das Geräuschgatter 170 überwacht die Energiepegel E(m,n) des abgetasteten Audiosignals 118 um die Beginndetektion einer Note. Wenn die Energiepegel E(m,n) des abgetasteten Audiosignals 118 um die Beginndetektion einer Note im Allgemeinen im geräuscharmen Bereich liegen, z. B. die Energiepegel E(m,n) –90 dB sind, dann wird die Beginndetektion als fragwürdig betrachtet und als unzuverlässig ausgemustert.
  • Der Zeitbereichsanalyseblock 122 von 8 umfasst auch einen Notenspitzeneinsatzblock 172, wie in 10 gezeigt. Der Block 172 verwendet die Energiefunktion E(m,n), um die Zeit von der Beginndetektion einer Note bis zum Spitzenenergiepegel der Note während der Einsatzphase oder Haltephase der Saitenvibration vor dem Abfall der Energiepegel über alle Frequenzbänder 1-m, d. h. eine Summierung von Frequenzbändern 1-m, zu bestimmen. Die Beginndetektion einer Note wird durch den Einsatzdetektor 136 bestimmt. Der Spitzenenergiepegel ist der Maximalwert der Energiefunktion E(m,n) während der Einsatzphase oder Haltephase der Saitenvibration vor dem Abfall der Energiepegel über alle Frequenzbänder 1-m. Die Spitzenenergiepegel werden rahmenweise in den Spitzendetektoren 132a132c überwacht. Der Spitzenenergiepegel kann im gleichen Rahmen wie die Beginndetektion oder in einem nachfolgenden Rahmen auftreten. Der Notenspitzeneinsatz ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Der Notenspitzenfreigabeblock 176 verwendet die Energiefunktion E(m,n), um die Zeit von der Beginndetektion einer Note bis zu einem niedrigeren Energiepegel während der Abklingphase oder Freigabephase der Note über alle Frequenzbänder 1-m, d. h. eine Summierung von Frequenzbändern 1-m, zu bestimmen. Die Beginndetektion einer Note wird durch den Einsatzdetektor 136 bestimmt. Die niedrigeren Energiepegel werden rahmenweise in den Spitzendetektoren 132a132c überwacht. In einem Ausführungsbeispiel ist der niedrigere Energiepegel –3 dB vom Spitzenenergiepegel über alle Frequenzbänder 1-m. Die Notenspitzenfreigabe ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Lautzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Ein Mehrband-Spitzeneinsatzblock 178 verwendet die Energiefunktion E(m,n), um die Zeit von der Beginndetektion einer Note bis zum Spitzenenergiepegel der Note während der Einsatzphase oder Haltephase der Saitenvibration vor dem Abfall der Energiepegel für jedes spezifische Frequenzband 1-m zu bestimmen. Die Beginndetektion einer Note wird durch den Einsatzdetektor 136 bestimmt. Der Spitzenenergiepegel ist der Maximalwert während der Einsatzphase oder Haltephase der Saitenvibration vor dem Abfall der Energiepegel in jedem spezifischen Frequenzband 1-m. Der Spitzenenergiepegel wird rahmenweise in den Spitzendetektoren 132a132c überwacht. Der Spitzenenergiepegel kann im gleichen Rahmen wie die Beginndetektion oder in einem nachfolgenden Rahmen auftreten. Der Mehrband-Spitzeneinsatz ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für jedes Frequenzband 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Ein Mehrband-Spitzenfreigabeblock 180 verwendet die Energiefunktion E(m,n), um die Zeit von der Beginndetektion einer Note bis zu einem niedrigeren Energiepegel während der Abklingphase oder Freigabephase der Note in jedem spezifischen Frequenzband 1-m zu bestimmen. Die Beginndetektion einer Note wird durch den Einsatzdetektor 136 bestimmt. Der niedrigere Energiepegel wird rahmenweise in den Spitzendetektoren 132a132c überwacht. In einem Ausführungsbeispiel ist der niedrigere Energiepegel –3 dB vom Spitzenenergiepegel in jedem Frequenzband 1-m. Die Mehrband-Spitzenfreigabe ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für jedes Frequenzband 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Der Schlagdetektor 182 überwacht die Energiefunktion E(m,n) in jedem Rahmen 1-n über Frequenzbänder 1-m, um das Auftreten eines Schlagstilereignisses zu bestimmen, d. h. der Künstler hat die Saiten 24 mit seinen Fingern oder seiner Handfläche geschlagen. Ein Schlagereignis ist durch eine scharfe Spitze im Energiepegel während eines Rahmens in der Einsatzphase der Note gekennzeichnet. Ein Schlagereignis verursacht beispielsweise eine Spitze von 6 dB im Energiepegel über und oberhalb des Energiepegels im nächsten Rahmen in der Einsatzphase. Die Spitze von 6 dB im Energiepegel wird als Schlagereignis interpretiert. Der Schlagdetektor ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Der Tempodetektor 184 überwacht die Energiefunktion E(m,n) in jedem Rahmen 1-n über Frequenzbänder 1-m, um das Zeitintervall zwischen der Beginndetektion von benachbarten Noten, d. h. die Dauer jeder Note, zu bestimmen. Der Tempodetektor ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Der Frequenzbereichsanalyseblock 120 in 8 umfasst einen STFT-Block 185, wie in 15 gezeigt. Der Block 185 führt eine Zeitbereich-Frequenzbereich-Umwandlung auf einer rahmenweisen Basis des abgetasteten Audiosignals 118 unter Verwendung einer Kurzzeit-Fourier-Transformation (STFT) mit konstanten Überlappungsadditionen (COLA) oder einer anderen schnellen Fourier-Transformation (FFT) durch. Die COLA-STFT 185 führt eine Zeitbereich-Frequenzbereich-Umwandlung unter Verwendung von Überlappungsanalysefenstern 119 durch, wie in 9b gezeigt. Die Abtastfenster 119 überlappen um eine vorbestimmte Anzahl von Abtastwerten des Audiosignals, die als Sprunggröße bekannt ist, für zusätzliche Abtastpunkte in der COLA-STFT-Analyse, um sicherzustellen, dass die Daten in aufeinander folgenden Rahmen gleich gewichtet werden. Gleichung (2) liefert ein allgemeines Format der Zeitbereich-Frequenzbereich-Umwandlung am abgetasteten Audiosignal 118.
    Figure 00260001
    wobei: Xm, das Audiosignal im Frequenzbereich ist
    x(n) das Audioeingangssignal des m-ten Rahmens ist
    m die aktuelle Nummer des Rahmens ist
    k der Frequenzintervallbereich ist
    N die STFT-Größe ist.
  • Der Frequenzbereichsanalyseblock 120 von 8 umfasst auch einen Notendetektorblock 186, wie in 15 gezeigt. Sobald das abgetastete Audiosignal 118 sich im Frequenzbereich befindet, detektiert der Block 186 den Beginn jeder Note und sorgt für die Gliederung des abgetasteten Audiosignals in diskrete Segmente, wobei jedes Segment mit dem Beginn der Note beginnt, eine Vielzahl von Rahmen des abgetasteten Audiosignals umfasst und mit dem Beginn der nächsten Note abschließt. Im vorliegenden Ausführungsbeispiel entspricht jedes diskrete Segment des abgetasteten Audiosignals 118 einer einzelnen Note von Musik. Der Notendetektorblock 186 ordnet die Einsatzphase der Saite 24 als Beginn einer Note zu. Das heißt, die Einsatzphase der vibrierenden Saite 24 an der Gitarre 20 fällt mit der Detektion einer spezifischen Note zusammen. Für andere Instrumente ist die Notendetektion einer anderen physikalischen Handlung durch den Künstler zugeordnet, z. B. Drücken der Taste eines Klaviers oder eines elektronischen Keyboards, Anregen der Saite einer Harfe, Ausatmen von Luft in ein Horn, während eine oder mehrere Tasten am Horn gedrückt werden, oder Schlagen der Fläche einer Trommel mit einem Trommelstock. In jedem Fall überwacht der Notendetektorblock 186 den dynamischen Frequenzbereichsgehalt des abgetasteten Audiosignals 118 und identifiziert den Beginn einer Note.
  • 16 zeigt ein weiteres Detail des Frequenzbereichs-Notendetektorblocks 186 mit dem Energiepegelisolationsblock 187, der den Energiepegel jedes Rahmens des abgetasteten Audiosignals 118 in mehrere Frequenzintervallbereiche isoliert.
  • In 17 verarbeitet der Energiepegel-Isolationsblock 187 jeden Rahmen des abgetasteten Audiosignals 118 hinsichtlich des Frequenzbereichs durch Filterfrequenzintervallbereiche 188a188c, um spezifische Frequenzen des Audiosignals zu trennen und zu isolieren. Die Filterfrequenzintervallbereiche 188a188c können spezifische Frequenzbänder im Audiobereich von 100–10000 Hz isolieren. In einem Ausführungsbeispiel ist der Filterfrequenzintervallbereich 188a bei 100 Hz zentriert, der Filterfrequenzintervallbereich 188b ist bei 500 Hz zentriert und der Filterfrequenzintervallbereich 188c ist bei 1000 Hz zentriert. Die Ausgabe des Filterfrequenzintervallbereichs 188a enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 100 Hz zentriert ist. Die Ausgabe des Filterfrequenzintervallbereichs 188b enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 500 Hz zentriert ist. Die Ausgabe des Filterfrequenzintervallbereichs 188c enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 1000 Hz zentriert ist. Die Ausgabe von anderen Filterfrequenzintervallbereichen enthält jeweils den Energiepegel des abgetasteten Audiosignals 118 für ein gegebenes spezifisches Band. Der Spitzendetektor 189a überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 100 Hz zentriert sind. Der Spitzendetektor 189b überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 500 Hz zentriert sind. Der Spitzendetektor 189c überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 1000 Hz zentriert sind. Das Glättungsfilter 190a entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 100 Hz zentriert sind. Das Glättungsfilter 190b entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 500 Hz zentriert sind. Das Glättungsfilter 190c entfernt störende Komponenten der Spitzenenergiepegel und stabilisiert anderweitig das abgetastete Audiosignal 118, die bei 1000 Hz zentriert sind. Die Ausgabe der Glättungsfilter 190a190c ist die Energiepegelfunktion E(m,n) für jeden Rahmen n in jedem Frequenzintervallbereich 1-m des abgetasteten Audiosignals 118.
  • Die Energiepegel E(m,n) eines Rahmens n-1 werden im Block 191 des Einsatzdetektors 192 gespeichert, wie in 18 gezeigt. Die Energiepegel jedes Frequenzintervallbereichs 1-m für den nächsten Rahmen n des abgetasteten Audiosignals 118, wie durch die Filterfrequenzintervallbereiche 188a188c, die Spitzendetektoren 189a189c und die Glättungsfilter 190a190c bestimmt, werden im Block 193 des Einsatzdetektors 192 gespeichert. Der Differenzblock 194 bestimmt eine Differenz zwischen den Energiepegeln von entsprechenden Intervallbereichen des vorliegenden Rahmens n und des vorherigen Rahmens n-1. Der Energiepegel des Frequenzintervallbereichs 1 für den Rahmen n-1 wird beispielsweise vom Energiepegel des Frequenzintervallbereichs 1 für den Rahmen n subtrahiert. Der Energiepegel des Frequenzintervallbereichs 2 für den Rahmen n-1 wird vom Energiepegel des Frequenzintervallbereichs 2 für den Rahmen n subtrahiert. Der Energiepegel des Frequenzintervallbereichs m für den Rahmen n-1 wird vom Energiepegel des Frequenzintervallbereichs m für den Rahmen n subtrahiert. Die Differenz der Energiepegel für jeden Frequenzintervallbereich 1-m des Rahmens n und Rahmens n-1 werden im Summierer 195 summiert.
  • Der Summierer 195 akkumuliert die Differenz der Energiepegel E(m,n) jedes Frequenzintervallbereichs 1-m des Rahmens n und des Rahmens n-1. Der Beginn einer Note tritt auf, wenn der Gesamtbetrag der Differenzen der Energiepegel E(m,n) über die ganzen überwachten Frequenzintervallbereiche 1-m für das abgetastete Audiosignal 118 einen vorbestimmten Schwellenwert überschreitet. Ein Vergleicher 196 vergleicht die Ausgabe des Summierers 195 mit einem Schwellenwert 197. Wenn die Ausgabe des Summierers 195 größer ist als der Schwellenwert 197, dann überschreitet die Akkumulation von Differenzen der Energiepegel E(m,n) über das ganze Frequenzspektrum für das abgetastete Audiosignal 118 den Schwellenwert 197 und der Beginn einer Note wird im momentanen Rahmen n detektiert. Wenn die Ausgabe des Summierers 195 geringer ist als der Schwellenwert 197, dann wird kein Beginn einer Note detektiert.
  • Am Abschluss jedes Rahmens hat der Einsatzdetektor 192 identifiziert, ob der momentane Rahmen den Beginn einer Note enthält oder ob der momentane Rahmen keinen Beginn einer Note enthält. Auf der Basis der Summierung von Differenzen der Energiepegel E(m,n) des abgetasteten Audiosignals 118 über das ganze Spektrum von Frequenzintervallbereichen 1-m, die den Schwellenwert 197 überschreiten, kann der Einsatzdetektor 192 beispielsweise den Rahmen 1 von 9a als den Beginn einer Note enthaltend identifiziert haben, während der Rahmen 2 und Rahmen 3 von 9a keinen Beginn einer Note aufweisen. 7a stellt den Beginn einer Note am Punkt 150 im Rahmen 1 (auf der Basis der Energiepegel E(m,n) des abgetasteten Audiosignals innerhalb der Frequenzintervallbereiche 1-m) und keinen Beginn einer Note im Rahmen 2 oder Rahmen 3 dar. 7a weist eine weitere Beginndetektion einer Note am Punkt 152 auf. 7b zeigt Beginndetektionen einer Note an den Punkten 154, 156 und 158.
  • 19 stellt ein weiteres Ausführungsbeispiel des Einsatzdetektors 192 als die Energiepegel E(m,n) mit dem Summierer 198 direkt summierend dar. Der Summierer 198 akkumuliert die Energiepegel E(m,n) jedes Rahmens 1-n und jedes Frequenzintervallbereichs 1-m für das abgetastete Audiosignal 118. Der Beginn einer Note tritt auf, wenn der Gesamtbetrag der Energiepegel E(m,n) über die ganzen überwachten Frequenzintervallbereiche 1-m für das abgetastete Audiosignal 118 einen vorbestimmten Schwellenwert überschreitet. Der Vergleicher 199 vergleicht die Ausgabe des Summierers 198 mit einem Schwellenwert 200. Wenn die Ausgabe des Summierers 198 größer ist als der Schwellenwert 200, dann überschreitet die Akkumulation von Energiepegeln E(m,n) über das ganze Frequenzspektrum für das abgetastete Audiosignal 118 den Schwellenwert 200 und der Beginn einer Note wird im momentanen Rahmen n detektiert. Wenn die Ausgabe des Summierers 198 geringer ist als der Schwellenwert 200, dann wird kein Beginn einer Note detektiert.
  • Am Abschluss des Rahmens hat der Einsatzdetektor 192 identifiziert, ob der momentane Rahmen den Beginn einer Note enthält oder ob der momentane Rahmen keinen Beginn einer Note enthält. Auf der Basis der Summierung von Energiepegeln E(m,n) des abgetasteten Audiosignals 118 innerhalb der Frequenzintervallbereiche 1-m, die den Schwellenwert 200 überschreitet, kann der Einsatzdetektor 192 beispielsweise den Rahmen 1 von 9a als den Beginn einer Note enthaltend identifiziert haben, während der Rahmen 2 und Rahmen 3 von 9a keinen Beginn einer Note aufweisen.
  • Wenn man zu 16 zurückkehrt, leitet der Einsatzdetektor 192 die Beginndetektion einer Note zum Stillegatter 201, zum Wiederholungsgatter 202 und zum Geräuschgatter 203. Nicht jede Beginndetektion einer Note ist wahr. Das Stillegatter 201 überwacht die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note. Wenn die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note aufgrund von Stille niedrig sind, z. B. –45 dB, dann werden die Energiepegel E(m,n) des abgetasteten Audiosignals 118, die den Beginn einer Note ausgelöst haben, als unecht betrachtet und ausgemustert. Der Künstler kann beispielsweise versehentlich eine oder mehrere der Saiten 24 berührt haben, ohne absichtlich eine Note oder einen Akkord zu spielen. Die Energiepegel E(m,n) des abgetasteten Audiosignals 118, die sich aus dem versehentlichen Kontakt ergeben, können ausgereicht haben, um den Beginn einer Note zu detektieren, da jedoch das Spielen nicht fortfährt, d. h. die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note auf Stille hinweisen, wird die Beginndetektion ausgemustert.
  • Die Gleichung (1) stellt eine weitere Darstellung der Beginndetektion einer Note bereit. Die Funktion g(m,n) weist einen Wert für jeden Frequenzintervallbereich 1-m und jeden Rahmen 1-n auf. Wenn das Verhältnis von E(m,n)/E(m,n-1), d. h. der Energiepegel des Intervallbereichs m im Rahmen n zum Energiepegel des Intervallbereichs m im Rahmen n-1, geringer ist als eins, dann ist [E(m,n)/E(m,n-1)] – 1 negativ. Der Energiepegel des Intervallbereichs m im Rahmen n ist nicht größer als der Energiepegel des Intervallbereichs m im Rahmen n-1. Die Funktion g(m,n) ist null, was auf keine Einleitung der Einsatzphase und daher keine Detektion des Beginns einer Note hinweist. Wenn das Verhältnis von E(m,n)/E(m,n-1), d. h. der Energiepegel des Intervallbereichs m im Rahmen n zum Energiepegel des Intervallbereichs m im Rahmen n-1, größer ist als eins (beispielsweise ein Wert von zwei), dann ist [E(m,n)/E(m,n-1)] – 1 positiv, d. h. ein Wert von eins. Der Energiepegel des Intervallbereichs m im Rahmen n ist größer als der Energiepegel des Intervallbereichs m im Rahmen n-1. Die Funktion g(m,n) ist der positive Wert von [E(m,n)/E(m,n-1)] – 1, der auf die Einleitung der Einsatzphase und eine mögliche Detektion des Beginns einer Note hinweist.
  • Das Wiederholungsgatter 202 überwacht die Anzahl von Beginndetektionen, die innerhalb eines Zeitraums auftreten. Wenn mehrere Anfänge einer Note innerhalb der Wiederholungsdetektions-Zeitperiode, z. B. 50 ms, detektiert werden, dann wird nur die erste Beginndetektion aufgezeichnet. Das heißt, irgendein anschließender Beginn einer Note, der nach der ersten Beginndetektion innerhalb der Wiederholungsdetektions-Zeitperiode detektiert wird, wird ausgemustert.
  • Das Geräuschgatter 203 überwacht die Energiepegel E(m,n) des abgetasteten Audiosignals 118 um die Beginndetektion einer Note. Wenn die Energiepegel E(m,n) des abgetasteten Audiosignals 118 um die Beginndetektion einer Note im Allgemeinen im geräuscharmen Bereich liegen, z. B. die Energiepegel E(m,n) –90 dB sind, dann wird die Beginndetektion als fragwürdig betrachtet und als unzuverlässig ausgemustert.
  • Wenn man zu 15 zurückkehrt, bestimmt der Oberwelleneinsatzverhältnisblock 204 ein Verhältnis der Energiepegel von verschiedenen Frequenzoberwellen im abgetasteten Frequenzbereich-Audiosignal 118 während der Einsatzphase oder Haltephase der Note auf einer rahmenweisen Basis. Alternativ überwacht das Oberwelleneinsatzverhältnis eine Grundfrequenz und Oberwelle der Grundfrequenz. In einem Ausführungsbeispiel wird, um einen Schlagstil zu überwachen, der Frequenzbereichsenergiepegel des abgetasteten Audiosignals 118 bei der Grundfrequenz von 200 Hz des Schlags und der Oberwelle von 4000 Hz der Grundfrequenz während der Einsatzphase der Note gemessen. Das Verhältnis der Frequenzbereichsenergiepegel 4000/200 Hz während der Einsatzphase der Note für jeden Rahmen 1-n ist das Oberwelleneinsatzverhältnis. Andere Frequenzoberwellenverhältnisse in der Einsatzphase der Note können auf einer rahmenweisen Basis überwacht werden. Der Block 204 bestimmt die Änderungsrate der Energiepegel im Oberwellenverhältnis, d. h. wie schnell die Energiepegel zunehmen oder abnehmen, relativ zu jedem Rahmen während der Einsatzphase der Note. Das Oberwelleneinsatzverhältnis ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Der Oberwellenfreigabeverhältnisblock 205 bestimmt ein Verhältnis der Energiepegel von verschiedenen Frequenzoberwellen des abgetasteten Frequenzbereichs-Audiosignals 118 während der Abklingphase oder Freigabephase der Note auf einer rahmenweisen Basis. Alternativ überwacht das Oberwellenfreigabeverhältnis eine Grundfrequenz und Oberwelle der Grundfrequenz. In einem Ausführungsbeispiel wird, um einen Schlagstil zu überwachen, der Frequenzbereichsenergiepegel des abgetasteten Audiosignals 118 bei der Grundfrequenz von 200 Hz des Schlags und der Oberwelle von 4000 Hz der Grundfrequenz während der Freigabephase der Note gemessen. Das Verhältnis der Frequenzbereichsenergiepegel 4000/200 Hz während der Freigabephase der Note für jeden Rahmen 1-n ist das Oberwellenfreigabeverhältnis. Andere Frequenzoberwellenverhältnisse in der Freigabephase der Note können auf einer rahmenweisen Basis überwacht werden. Der Block 205 bestimmt die Änderungsrate der Energiepegel im Oberwellenverhältnis, d. h. wie schnell die Energiepegel zunehmen oder abnehmen, relativ zu jedem Rahmen während der Freigabephase der Note. Das Oberwellenfreigabeverhältnis ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Ein Leer- und Dämpfungsfaktorblock 206 überwacht die Energiepegel des abgetasteten Frequenzbereichs-Audiosignals auf das Auftreten eines leeren Zustandes oder Dämpfungszustandes der Saiten 24. Ein Dämpfungszustand der Saiten 24 tritt auf, wenn der Künstler kontinuierlich seine Finger gegen die Saiten drückt, gewöhnlich nahe dem Steg der Gitarre 20. Der Fingerdruck auf die Saiten 24 dämpft oder schwächt die Saitenschwingung schnell ab. Ein leerer Zustand ist die Abwesenheit eines Dämpfungszustandes, d. h. kein Fingerdruck oder andere künstliche Dämpfung von Saiten 24, so dass die Saitenvibration natürlich abklingt.
  • Im Dämpfungszustand ist die Haltephase und Abklingphase der Note aufgrund der induzierten Dämpfung signifikant kürzer als ein natürliches Abklingen im leeren Zustand. Ein Fehlen eines Hochfrequenzgehalts und eine schnelle Abnahme der Frequenzbereichsenergiepegel des abgetasteten Audiosignals 118 weist auf den Dämpfungszustand hin. Ein Hochfrequenzwert und ein natürliches Abklingen der Frequenzbereichsenergiepegel des abgetasteten Audiosignals 118 weist auf den leeren Zustand hin. Der Leer- und Dämpfungsfaktor ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Ein Hals- und Stegfaktorblock 207 überwacht die Energiepegel des abgetasteten Frequenzbereichs-Audiosignals 118 auf das Auftreten von Halsspiel oder Stegspiel durch den Künstler. Halsspiel von Saiten 24 tritt auf, wenn der Künstler die Saiten nahe dem Hals der Gitarre 20 anregt. Das Stegspiel von Saiten 24 tritt auf, wenn der Künstler die Saiten nahe dem Steg der Gitarre 20 anregt. Wenn er nahe dem Hals spielt, tritt eine erste Frequenzkerbe um 100 Hz in der Frequenzbereichsantwort des abgetasteten Audiosignals 118 auf. Wenn er nahe dem Steg spielt, tritt eine erste Frequenzkerbe um 500 Hz in der Frequenzbereichsantwort des abgetasteten Audiosignals 118 auf. Das Auftreten und der Ort einer ersten Kerbe im Frequenzgang deutet auf Halsspiel oder Stegspiel hin. Der Hals- und Stegfaktor ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Ein Tonhöhendetektorblock 208 überwacht die Energiepegel des abgetasteten Frequenzbereichs-Audiosignals 118, um die Tonhöhe der Note zu bestimmen. Der Block 208 zeichnet die Grundfrequenz der Tonhöhe auf. Der Tonhöhendetektor ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.
  • Die Laufzeitmatrix 174 enthält die im Frequenzbereichsanalyseblock 120 bestimmten Frequenzbereichsparameter und die im Zeitbereichsanalyseblock 122 bestimmten Zeitbereichsparameter. Jeder Zeitbereichsparameter und Frequenzbereichsparameter ist ein numerischer Parameterwert PVn,j, der in der Laufzeitmatrix 174 auf rahmenweiser Basis gespeichert wird, wobei n der Rahmen ist und j der Parameter ist. Der Notenspitzeneinsatzparameter weist beispielsweise den Wert PV1,1 im Rahmen 1, den Wert PV2,1 im Rahmen 2 und den Wert PVn,1 im Rahmen n auf; der Notenspitzenfreigabeparameter weist den Wert PV1,2 im Rahmen 1, den Wert PV2,2 im Rahmen 2 und den Wert PVn,2 im Rahmen n auf; der Mehrband-Spitzeneinsatzparameter weist den Wert PV1,3 im Rahmen 1, den Wert PV2,3 im Rahmen 2 und den Wert PVn,3 im Rahmen n auf; und so weiter. Tabelle 1 zeigt die Laufzeitmatrix 174 mit den Zeitbereichs- und Frequenzbereichsparameterwerten PVn,j, die während der Laufzeitanalyse erzeugt werden. Die Zeitbereichs- und Frequenzbereichsparameterwerte PVn,j sind für spezifische Noten charakteristisch und daher beim Unterscheiden zwischen Noten nützlich.
    Parameter Rahmen 1 Rahmen 2 ... Rahmen n
    Notenspitzeneinsatz PV1,1 PV2,1 PVn,1
    Notenspitzenfreigabe PV1,2 PV2,2 PVn,2
    Mehrband-Spitzeneinsatz PV1,3 PV2,3 PVn,3
    Mehrband-Spitzenfreigabe PV1,4 PV2,4 PVn,4
    Schlagdetektor PV1,5 PV2,5 PVn,5
    Tempodetektor PV1,6 PV2,6 PVn,6
    Oberwelleneinsatzverhältnis PV1,7 PV2,7 PVn,7
    Oberwellenfreigabeverhältnis PV1,8 PV2,8 PVn,8
    Leer- und Dämpfungsfaktor PV1,9 PV2,9 PVn,9
    Hals- und Stegfaktor PV1,10 PV2,10 PVn,10
    Tonhöhendetektor PV1,11 PV2,11 PVn,11
    Tabelle 1 – Laufzeitmatrix 174 mit Zeitbereichsparametern und Frequenzbereichsparametern aus der Laufzeitanalyse
  • Tabelle 2 zeigt einen Rahmen der Laufzeitmatrix 174, wobei den Zeitbereichs- und Frequenzbereichsparametern, die durch den Frequenzbereichsanalyseblock 120 und den Zeitbereichsanalyseblock 122 erzeugt werden, numerische Musterwerte für ein Audiosignal, das von einem Fingersatzstil stammt, zugewiesen sind. Die Laufzeitmatrix 174 enthält Zeitbereichs- und Frequenzbereichsparameterwerte PVn,j für andere Rahmen des Audiosignals, die vom Fingersatzstil stammen, gemäß Tabelle 1.
    Parameter Rahmenwert
    Notenspitzeneinsatz 28
    Notenspitzenfreigabe 196
    Mehrband-Spitzeneinsatz 31, 36, 33
    Mehrband-Spitzenfreigabe 193, 177, 122
    Schlagdetektor 0
    Tempodetektor 42
    Oberwelleneinsatzverhältnis 0,26
    Oberwellenfreigabeverhältnis 0,85
    Leer- und Dämpfungsfaktor 0,19
    Hals- und Stegfaktor 207
    Tonhöhendetektor 53
    Tabelle 2 – Zeitbereichs- und Frequenzbereichsparameter aus der Laufzeitanalyse eines Rahmens des Fingersatzstils
  • Tabelle 3 zeigt einen Rahmen der Laufzeitmatrix 174, wobei den Zeitbereichs- und Frequenzbereichsparametern, die durch den Frequenzbereichsanalyseblock 120 und den Zeitbereichsanalyseblock 122 erzeugt werden, numerische Musterwerte für ein Audiosignal, das von einem Schlagstil stammt, zugewiesen sind. Die Laufzeitmatrix 174 enthält Zeitbereichs- und Frequenzbereichsparameterwerte PVn,j für andere Rahmen des Audiosignals, die vom Schlagstil stammen, gemäß Tabelle 1.
    Parameter Rahmenwert
    Notenspitzeneinsatz 6
    Notenspitzenfreigabe 33
    Mehrband-Spitzeneinsatz 6, 4, 7
    Mehrband-Spitzenfreigabe 32, 29, 20
    Schlagdetektor 1
    Tempodetektor 110
    Oberwelleneinsatzverhältnis 0,90
    Oberwellenfreigabeverhältnis 0,24
    Leer- und Dämpfungsfaktor 0,76
    Hals- und Stegfaktor 881
    Tonhöhendetektor 479
    Tabelle 3 – Zeitbereichsparameter und Frequenzbereichsparameter aus der Laufzeitanalyse von einem Rahmen des Schlagstils
  • Mit Rückkehr zu 6 wird die Datenbank 112 in einer Speicherkomponente des Audioverstärkers 90 unterhalten und enthält eine Vielzahl von Notensignaturdatensätzen 1, 2, 3, ... i, wobei jeder Notensignaturdatensatz Zeitbereichsparameter und Frequenzbereichsparameter aufweist, die der Laufzeitmatrix 174 entsprechen. Außerdem enthalten die Notensignaturdatensätze 1-i Gewichtungsfaktoren 1, 2, 3, ... j für jeden Zeitbereichs- und Frequenzbereichsparameter und eine Vielzahl von Steuerparametern 1, 2, 3, ... k.
  • 20 zeigt die Datenbank 112 mit Zeitbereichs- und Frequenzbereichsparametern 1-j für jeden Notensignaturdatensatz 1-i, Gewichtungsfaktoren 1-j für jeden Notensignaturdatensatz 1-i und Steuerparametern 1-k für jeden Notensignaturdatensatz 1-i. Jeder Notensignaturdatensatz i ist durch die Parameter 1-j und zugehörige Gewichte 1-j definiert, die für die Note, die der Notensignatur i zugeordnet ist, charakteristisch sind, und werden verwendet, um einen ankommenden Rahmen aus der Laufzeitmatrix 174 als mit der Notensignatur i am besten übereinstimmend oder am engsten korreliert zu identifizieren. Sobald der ankommende Rahmen aus der Laufzeitmatrix 174 mit einer speziellen Notensignatur i abgeglichen ist, verwendet die adaptive Intelligenzsteuerung 114 die Steuerparameter 1-k der passenden Notensignatur, um den Betriebszustand der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 einzustellen. In einem passenden Notensignaturdatensatz i legt beispielsweise der Steuerparameter i,1 den Betriebszustand des Vorfilterblocks 92 fest; der Steuerparameter i,2 legt den Betriebszustand des Voreffektblocks 94 fest; der Steuerparameter i,3 legt den Betriebszustand des Blocks 96 für nicht-lineare Effekte fest; der Steuerparameter i,4 legt den Betriebszustand der vom Benutzer definierten Module 98 fest; der Steuerparameter i,5 legt den Betriebszustand des Nacheffektblocks 100 fest; der Steuerparameter i,6 legt den Betriebszustand des Nachfilterblocks 102 fest; und der Steuerparameter i,7 legt den Betriebszustand des Leistungsverstärkungsblocks 104 fest.
  • Die Zeitbereichsparameter und Frequenzbereichsparameter 1-j in der Notensignaturdatenbank 112 enthalten Werte, die vom Hersteller vorgegeben sind oder vom Benutzer eingegeben werden oder über die Zeit durch Spielen eines Instruments gelernt werden. Das Werk oder der Hersteller des Audioverstärkers 90 kann anfänglich die Werte der Zeitbereichs- und Frequenzbereichsparameter 1-j sowie Gewichtungsfaktoren 1-j und Steuerparameter 1-k vorgeben. Der Benutzer kann die Zeitbereichs- und Frequenzbereichsparameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k für jede Notensignatur 1-i in der Datenbank 112 direkt unter Verwendung des Computers 209 mit dem Benutzerschnittstellenbildschirm oder der Benutzerschnittstellenanzeige 210, siehe 21, ändern. Die Werte für die Zeitbereichs- und Frequenzbereichsparameter 1-j, de Gewichtungsfaktoren 1-j und die Steuerparameter 1-k werden auf dem Schnittstellenbildschirm 210 dargestellt, um dem Benutzer zu ermöglichen, aktualisierte Werte einzugeben.
  • In einem anderen Ausführungsbeispiel können Zeitbereichs- und Frequenzbereichsparameter 1-j, Gewichtungsfaktoren 1-j und Steuerparameter 1-k durch den Künstler, der Gitarre 20 spielt, gelernt werden. Der Künstler setzt den Audioverstärker 90 in einen Lernmodus. Der Künstler spielt wiederholt dieselbe Note auf der Gitarre 20. Der Künstler greift beispielsweise eine spezielle Note oder schlägt eine spezielle Note viele Male wiederholt. Die Frequenzbereichsanalyse 120 und die Zeitbereichsanalyse 122 von 8 erzeugen eine Laufzeitmatrix 174 mit zugehörigen Frequenzbereichs- und Zeitbereichsparametern 1-j jedes Mal, wenn dieselbe Note gespielt wird. Eine Reihe von Frequenzbereichs- und Zeitbereichsparametern 1-j für dieselbe Note wird angesammelt und in der Datenbank 112 gespeichert.
  • Wenn die Note wiederholt gespielt wird, kann der Künstler manuell Einstellungen am Audioverstärker 90 über das Frontbedienfeld 78 durchführen. Der Audioverstärker 90 lernt die Steuerparameter 1-k, die der Note zugeordnet sind, durch die Einstellungen der Signalverarbeitungsblöcke 92104, wie vom Künstler manuell eingestellt. Der Künstler schlägt beispielsweise eine Note auf der Bassgitarre 20. Frequenzbereichsparameter und Zeitbereichsparameter für die geschlagene Note werden rahmenweise in der Datenbank 112 gespeichert. Der Künstler stellt die Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 durch Frontplattenbedienelemente 78 manuell ein, erhöht z. B. die Verstärkung des Audiosignals im Verstärkungsblock 104 oder wählt einen Klangeffekt im Voreffektblock 94 aus. Die Einstellungen der Signalverarbeitungsblöcke 92104, wie durch den Künstler manuell eingestellt, werden als Steuerparameter 1-k für die gelernte Notensignatur in der Datenbank 112 gespeichert. Der Künstler schlägt dieselbe Note auf der Bassgitarre 20. Frequenzbereichsparameter und Zeitbereichsparameter für dieselbe geschlagene Note werden mit den vorherigen Frequenzbereichs- und Zeitbereichsparametern 1-j in der Datenbank 112 gesammelt. Der Künstler stellt die Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 durch Frontplattenbedienelemente 78 manuell ein, z. B. stellt er die Entzerrung des Audiosignals im Vorfilterblock 92 ein oder wählt einen Klangeffekt im Block 96 für nicht-lineare Effekte aus. Die Einstellungen der Signalverarbeitungsblöcke 92104, wie durch den Künstler manuell eingestellt, werden als Steuerparameter 1-k für die gelernte Notensignatur in der Datenbank 112 gesammelt. Der Prozess fährt für den Lernmodus mit wiederholten Schlägen derselben Note und manuellen Einstellungen der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 durch die Frontplattenbedienelemente 78 fort. Wenn der Lernmodus vollendet ist, wird der Notensignaturdatensatz in der Datenbank 112 mit den Notensignaturparametern, die ein Mittelwert der Frequenzbereichsparameter und Zeitbereichsparameter, die in der Datenbank 112 gesammelt sind, und ein Mittelwert der Steuerparameter 1-k, die von den manuellen Einstellungen der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 genommen sind und in der Datenbank 112 gesammelt sind, sind, definiert. In einem Ausführungsbeispiel ist der Mittelwert ein quadratischer Mittelwert der Reihe von gesammelten Frequenzbereichs- und Zeitbereichsparametern 1-j und der gesammelten Steuerparameter 1-k in der Datenbank 112.
  • Gewichtungsfaktoren 1-j können durch Überwachen der gelernten Zeitbereichs- und Frequenzbereichsparameter 1-j und Erhöhen oder Verringern der Gewichtungsfaktoren auf der Basis der Nähe oder statistischen Korrelation des Vergleichs gelernt werden. Wenn ein spezieller Parameter eine konsistente statistische Korrelation aufweist, dann kann der Gewichtungsfaktor für diesen Parameter erhöht werden. Wenn ein spezieller Parameter eine unterschiedliche statistische Korrelation aufweist, dann kann der Gewichtungsfaktor für diesen Parameter verringert werden.
  • Sobald die Parameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k der Notensignaturen 1-i für die Datenbank 112 festgelegt sind, können die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 auf einer rahmenweisen Basis mit jeder Notensignatur 1-i verglichen werden, um eine beste Übereinstimmung oder engste Korrelation zu finden. In einem normalen Spielmodus spielt der Künstler Gitarre 20, um eine Sequenz von Noten entsprechend der gespielten Melodie zu erzeugen. Für jede Note wird die Laufzeitmatrix 174 auf einer rahmenweisen Basis mit Zeitbereichsparametern und Frequenzbereichsparametern, die aus einer Laufzeitanalyse des Audiosignals bestimmt werden, wie in 619 beschrieben, belegt.
  • Der Vergleich zwischen der Laufzeitmatrix 174 und den Notensignaturen 1-i in der Datenbank 112 kann in einer Vielfalt von Implementierungen durchgeführt werden. Die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 714 werden beispielsweise einzeln in der Zeitsequenz mit Parametern 1-j für jede Notensignatur 1-i in der Datenbank 112 verglichen. Die beste Übereinstimmung oder engste Korrelation wird für jeden Rahmen der Laufzeitmatrix 174 bestimmt. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern.
  • In einem weiteren Beispiel werden die Zeitbereichs- und Frequenzbereichsparameter 1-j in einer vorbestimmten Anzahl von Rahmen einer Note, weniger als alle Rahmen einer Note, in der Laufzeitmatrix 174 mit Parametern 1-j für jede Notensignatur 1-i in der Datenbank 112 verglichen. In einem Ausführungsbeispiel werden die Zeitbereichs- und Frequenzbereichsparameter 1-j in den ersten zehn Rahmen jeder Note in der Laufzeitmatrix 174, wie durch die Beginndetektion der Note bestimmt, mit Parametern 1-j für jede Notensignatur 1-i verglichen. Ein Mittelwert des Vergleichs zwischen Zeitbereichs- und Frequenzbereichsparametern 1-j in jedem der ersten zehn Rahmen jeder Note in der Laufzeitmatrix 174 und Parametern 1-j für jede Notensignatur 1-i bestimmt eine beste Übereinstimmung oder engste Korrelation, um die Rahmen in der Laufzeitmatrix 174 als eine spezielle Note zu identifizieren, die einer Notensignatur i zugeordnet ist. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern.
  • In einem erläuternden Zahlenbeispiel des Parametervergleichsprozesses, um eine beste Übereinstimmung oder engste Korrelation zwischen den Zeitbereichs- und Frequenzbereichsparametern 1-j für jeden Rahmen in der Laufzeitmatrix 174 und Parametern 1-j für jede Notensignatur 1-i zu bestimmen, zeigt Tabelle 4 Zeitbereichs- und Frequenzbereichsparameter 1-j mit Musterparameterwerten für die Notensignatur 1 (Fingersatzstilnote) der Datenbank 112. Tabelle 5 zeigt Zeitbereichs- und Frequenzbereichsparameter 1-j mit Musterparameterwerten für die Notensignatur 2 (Schlagstilnote) der Datenbank 112.
    Parameter Wert Gewichtung
    Notenspitzeneinsatz 30 0,83
    Notenspitzenfreigabe 200 0,67
    Mehrband-Spitzeneinsatz 30, 35, 33 0,72
    Mehrband-Spitzenfreigabe 200, 180, 120 0,45
    Schlagdetektor 0 1,00
    Tempodetektor 50 0,38
    Oberwelleneinsatzverhältnis 0,25 0,88
    Oberwellenfreigabeverhältnis 0,80 0,61
    Leer- und Dämpfungsfaktor 0,15 0,70
    Hals- und Stegfaktor 200 0,69
    Tonhöhendetektor 50 0,40
    Tabelle 4 – Zeitbereichsparameter und Frequenzbereichsparameter für die Notensignatur 1 (Fingersatzstil)
    Parameter Wert Gewichtung
    Notenspitzeneinsatz 5 0,80
    Notenspitzenfreigabe 40 0,71
    Mehrband-Spitzeneinsatz 5, 4, 5 0,65
    Mehrband-Spitzenfreigabe 30, 25, 23 0,35
    Schlagdetektor 1 1,00
    Tempodetektor 100 0,27
    Oberwelleneinsatzverhältnis 0,85 0,92
    Oberwellenfreigabeverhältnis 0,20 0,69
    Leer- und Dämpfungsfaktor 0,65 0,74
    Hals- und Stegfaktor 1000 0,80
    Tonhöhendetektor 500 0,57
    Tabelle 5 – Zeitbereichsparameter und Frequenzbereichsparameter in der Notensignatur 2 (Schlagstil)
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j für einen Rahmen in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i werden auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. Der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 weist beispielsweise einen Wert von 28 auf (siehe Tabelle 2) und der Notenspitzeneinsatzparameter in der Notensignatur 1 weist einen Wert von 30 auf (siehe Tabelle 4). 22 zeigt einen Erkennungsdetektor 211 mit dem Vergleichsblock 212 zum Bestimmen der Differenz zwischen den Zeitbereichs- und Frequenzbereichsparametern 1-j für einen Rahmen in der Laufzeitmatrix 174 und den Parametern 1-j in der Notensignatur i. Die Differenz 30-28 zwischen dem Rahmen 1 und der Notensignatur 1 wird im Erkennungsspeicher 213 gespeichert. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 196 auf (siehe Tabelle 2) und der Notenspitzenfreigabeparameter in der Notensignatur 1 weist einen Wert von 200 auf (siehe Tabelle 4). Der Vergleichsblock 212 bestimmt die Differenz 200-196 und speichert die Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 1 und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 1 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 1 zu bestimmen.
  • Als nächstes weist der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 einen Wert von 28 auf (siehe Tabelle 2) und der Notenspitzeneinsatzparameter in der Notensignatur 2 weist einen Wert von 5 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die Differenz 5-28 und speichert die Differenz zwischen dem Rahmen 1 und der Notensignatur 2 im Erkennungsspeicher 213. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 196 auf (siehe Tabelle 2) und der Notenspitzenfreigabeparameter in der Notensignatur 2 weist einen Wert von 40 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die Differenz 40-196 und speichert die Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 2 und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j in der Laufzeitmatrix 174 für den Rahmen 1 und den Parametern 1-j der Notensignatur 2 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j in der Laufzeitmatrix 174 für den Rahmen 1 und den Parametern 1-j der Notensignatur 2 zu bestimmen.
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-in den restlichen Notensignaturen 3-i in der Datenbank 112 verglichen, wie für die Notensignaturen 1 und 2 beschrieben. Die minimale Gesamtdifferenz zwischen den Parametern 1-j in der Laufzeitmatrix 174 für den Rahmen 1 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 für den Rahmen 1 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Notensignatur 1 ausgerichtet. Der Rahmen 1 der Laufzeitmatrix 174 wird als Rahmen einer Fingersatzstilnote identifiziert.
  • Mit den Zeitbereichsparametern und Frequenzbereichsparametern 1-j des Rahmens 1 in der Laufzeitmatrix 174, die von einer gespielten Note erzeugt werden, die mit der Notensignatur 1 übereinstimmt, verwendet der Block 114 zur adaptiven Intelligenzsteuerung von 6 die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur 1 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern. Der Steuerparameter 1,1, der Steuerparameter 1,2 bis zum Steuerparameter 1,k unter der Notensignatur 1 weisen jeweils einen Zahlenwert auf, z. B. 1–10. Der Steuerparameter 1,1 weist beispielsweise einen Wert 5 auf und legt den Betriebszustand des Vorfilterblocks 92 so fest, dass er eine Tiefpassfilterfunktion mit 200 Hz aufweist; der Steuerparameter 1,2 weist einen Wert 7 auf und legt den Betriebszustand des Voreffektblocks 94 fest, um einen Hallklangeffekt einzuschalten; der Steuerparameter 1,3 weist einen Wert 9 auf und legt den Betriebszustand des Blocks 96 für nicht-lineare Effekte fest, um eine Verzerrung einzuführen; der Steuerparameter 1,4 weist einen Wert 1 auf und legt den Betriebszustand der vom Benutzer definierten Module 98 fest, um eine Trommelbegleitung hinzuzufügen; der Steuerparameter 1,5 weist einen Wert 3 auf und legt den Betriebszustand des Nacheffektblocks 100 fest, um einen Brummunterdrückerklangeffekt einzuschalten; der Steuerparameter 1,6 weist einen Wert 4 auf und legt den Betriebszustand des Nachfilterblocks 102 fest, um eine Glockenentzerrung zu ermöglichen; und der Steuerparameter 1,7 weist einen Wert 8 auf und legt den Betriebszustand des Leistungsverstärkungsblocks 104 fest, um die Verstärkung um 3 dB zu erhöhen. Das Audiosignal wird durch den Vorfilterblock 92, den Voreffektblock 94, den Block 96 für nicht-lineare Effekte, die vom Benutzer definierten Module 98, den Nacheffektblock 100, den Nachfilterblock 102 und den Leistungsverstärkungsblock 104 verarbeitet, die jeweils arbeiten, wie durch den Steuerparameter 1,1, den Steuerparameter 1,2 bis zum Steuerparameter 1,k der Notensignatur 1 festgelegt. Das verbesserte Audiosignal wird zum Lautsprecher im Gehäuse 24 oder zum Lautsprecher 82 im Gehäuse 72 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.
  • Als nächstes werden die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 1 und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i zu bestimmen. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 2 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j des Rahmens 2 in der Laufzeitmatrix 174 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Notensignatur 1 ausgerichtet. Der Rahmen 2 der Laufzeitmatrix 174 wird als weiterer Rahmen für eine Fingersatzstilnote identifiziert. Der Block 114 für die adaptive Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur 1 zugeordnet sind, um den Betrieb der. Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 174 fort.
  • In einem weiteren Zahlenbeispiel weist der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 einen Wert von 6 auf (siehe Tabelle 3) und der Notenspitzeneinsatzparameter in der Notensignatur 1 weist einen Wert von 30 auf (siehe Tabelle 4). Die Differenz 30-6 zwischen dem Rahmen 1 und der Notensignatur 1 wird im Erkennungsspeicher 213 gespeichert. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 33 auf (siehe Tabelle 3) und der Notenspitzenfreigabeparameter in der Notensignatur 1 weist einen Wert von 200 auf (siehe Tabelle 4). Der Vergleichsblock 212 bestimmt die Differenz 200-33 und speichert die Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 1 und speichert die Differenz im Erkennungsspeicher 213. Die Differenz zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 174 und den Parametern 1-j der Notensignatur 1 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 1 zu bestimmen.
  • Als nächstes weist der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 einen Wert von 6 auf (siehe Tabelle 3) und der Notenspitzeneinsatzparameter in der Notensignatur 2 weist einen Wert von 5 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die Differenz 5-6 und speichert die Differenz im Erkennungsspeicher 213. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 33 auf (siehe Tabelle 3) und der Notenspitzenfreigabeparameter in der Notensignatur 2 weist einen Wert von 40 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die Differenz 40-33 und speichert die Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 2 und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 2 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 2 zu bestimmen.
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-in den restlichen Notensignaturen 3-i in der Datenbank 112 verglichen, wie für die Notensignaturen 1 und 2 beschrieben. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 1 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 1 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs und Frequenzbereichsparameter 1-j des Rahmens 1 in der Laufzeitmatrix 174 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Notensignatur 2 ausgerichtet. Der Rahmen 1 der Laufzeitmatrix 174 wird als Rahmen einer Schlagstilnote identifiziert.
  • Mit den Zeitbereichsparametern und Frequenzbereichsparametern 1-j des Rahmens 1 in der Laufzeitmatrix 174, die von einer gespielten Note erzeugt werden, die mit der Notensignatur 2 übereinstimmt, verwendet der Block 114 zur adaptiven Intelligenzsteuerung von 6 die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur 2 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern.
  • Das Audiosignal wird durch den Vorfilterblock 92, den Voreffektblock 94, den Block 96 für nicht-lineare Effekte, die vom Benutzer definierten Module 98, den Nacheffektblock 100, den Nachfilterblock 102 und den Leistungsverstärkungsblock 104 verarbeitet, die jeweils arbeiten, wie durch den Steuerparameter 2,1, den Steuerparameter 2,2 bis zum Steuerparameter 2,k der Notensignatur 2 festgelegt. Das verbesserte Audiosignal wird zum Lautsprecher im Gehäuse 24 oder zum Lautsprecher 82 im Gehäuse 72 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i werden auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur i und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i zu bestimmen. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 2 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j des Rahmens 2 in der Laufzeitmatrix 174 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Notensignatur 2 ausgerichtet. Der Rahmen 2 der Laufzeitmatrix 174 wird als weiterer Rahmen einer Schlagstilnote identifiziert. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur 2 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 174 fort.
  • In einem weiteren Ausführungsbeispiel werden die Zeitbereichs- und Frequenzbereichsparameter 1-j für einen Rahmen in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i auf einer Basis nacheinander verglichen und die gewichteten Differenzen werden aufgezeichnet. Der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 weist beispielsweise einen Wert von 28 auf (siehe Tabelle 2) und der Notenspitzeneinsatzparameter in der Notensignatur 1 weist einen Wert von 30 auf (siehe Tabelle 4). Der Vergleichsblock 212 bestimmt die gewichtete Differenz (30-28)·Gewicht 1,1 und speichert die gewichtete Differenz im Erkennungsspeicher 213. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 196 auf (siehe Tabelle 2) und der Notenspitzenfreigabeparameter in der Notensignatur 1 weist einen Wert von 200 auf (siehe Tabelle 4). Der Vergleichsblock 212 bestimmt die gewichtete Differenz (200-196)·Gewicht 1,2 und speichert die gewichtete Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 1, wie durch das Gewicht 1,j bestimmt, und speichert die gewichtete Differenz im Erkennungsspeicher 213. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens und den Parametern 1-j der Notensignatur 1 werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 1 zu bestimmen.
  • Als nächstes weist der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 einen Wert von 28 auf (siehe Tabelle 2) und der Notenspitzeneinsatzparameter in der Notensignatur 2 weist einen Wert von 5 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die gewichtete Differenz (5-28)·Gewicht 2,1 und speichert die gewichtete Differenz im Erkennungsspeicher 213. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 196 auf (siehe Tabelle 2) und der Notenspitzenfreigabeparameter in der Notensignatur 2 weist einen Wert von 40 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die gewichtete Differenz (40-196)·Gewicht 2,2 und speichert die gewichtete Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 2 durch das Gewicht 2,j und speichert die gewichtete Differenz im Erkennungsspeicher 213. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 174 und den Parametern 1-j der Notensignatur 2 werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 2 zu bestimmen.
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-j in den restlichen Notensignaturen 3-i in der Datenbank 112 verglichen, wie für die Notensignaturen 1 und 2 beschrieben. Die minimale gewichtete Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 1 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 1 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen gewichteten Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern.
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i werden auf einer Basis nacheinander verglichen und die gewichteten Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 212 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur i durch das Gewicht i,j und speichert die gewichtete Differenz im Erkennungsspeicher 213. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i zu bestimmen. Die minimale gewichtete Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 2 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen gewichteten Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 174 fort.
  • In einem weiteren Ausführungsbeispiel wird eine Wahrscheinlichkeit für die Korrelation zwischen entsprechenden Parametern in der Laufzeitmatrix 174 und den Notensignaturen 1-i bestimmt. Mit anderen Worten, eine Wahrscheinlichkeit für die Korrelation wird als Prozentsatz, dass ein gegebener Parameter in der Laufzeitmatrix 174 wahrscheinlich derselbe wie der entsprechende Parameter in der Notensignatur i ist, bestimmt. Der Prozentsatz ist eine Wahrscheinlichkeit für eine Übereinstimmung. Wie vorstehend beschrieben, werden die Zeitbereichsparameter und Frequenzbereichsparameter in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert. Für jeden Rahmen n jedes Parameters j in der Laufzeitmatrix 174 wird durch Pn,j = [Pn1, Pn2, ... Pnj] dargestellt.
  • Eine nach Wahrscheinlichkeit geordnete Liste R wird zwischen jedem Rahmen n jedes Parameters j in der Laufzeitmatrix 174 und jedem Parameter j jeder Notensignatur i bestimmt. Der Wahrscheinlichkeitswert ri kann durch eine Analyse des quadratischen Mittelwerts für das Pn,j und die Notensignaturdatenbank Si,j in Gleichung (3) bestimmt werden:
    Figure 00500001
  • Der Wahrscheinlichkeitswert R ist (1-ri) × 100%. Der Gesamtrangordnungswert für Pn,j und die Notendatenbank Si,j ist in Gleichung (4) gegeben. R = [(1-r1) × 100%(1-r2) × 100%(1-ri) × 100%] (4)
  • In einigen Fällen identifiziert der Vergleichsprozess zwei oder mehr Notensignaturen, die nahe der gespielten Note liegen. Die gespielte Note kann beispielsweise eine Wahrscheinlichkeit von 52%, dass sie mit der Notensignatur 1 übereinstimmt, und eine Wahrscheinlichkeit von 48%, dass sie mit der Notensignatur 2 übereinstimmt, aufweisen. In diesem Fall wird eine Interpolation zwischen dem Steuerparameter 1,1, dem Steuerparameter 1,2 bis zum Steuerparameter 1,k und dem Steuerparameter 2,1, dem Steuerparameter 2,2 bis zum Steuerparameter 2,k, die durch die Wahrscheinlichkeit der Übereinstimmung gewichtet werden, durchgeführt. Der effektive Nettosteuerparameter 1 ist 0,52·Steuerparameter 1,1 + 0,48·Steuerparameter 2,1. Der effektive Nettosteuerparameter 2 ist 0,52·Steuerparameter 1,2 + 0,48·Steuerparameter 2,2. Der effektive Nettosteuerparameter k ist 0,52·Steuerparameter 1,k + 0,48·Steuerparameter 2,k. Die effektiven Nettosteuerparameter 1-k steuern den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90. Das Audiosignal wird durch den Vorfilterblock 92, den Voreffektblock 94, den Block 96 für nicht-lineare Effekte, die vom Benutzer definierten Module 98, den Nacheffektblock 100, den Nachfilterblock 102 und den Leistungsverstärkungsblock 104 verarbeitet, die jeweils arbeiten, wie durch die effektiven Nettosteuerparameter 1-k festgelegt. Das Audiosignal wird zum Lautsprecher im Gehäuse 24 oder zum Lautsprecher 82 im Gehäuse 72 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.
  • Die in 6-22 beschriebene adaptive Intelligenzsteuerung ist auf andere Musikinstrumente anwendbar, die Noten mit einer anderen Einsatzphase, gefolgt von einer Haltephase, Abklingphase und Freigabephase, erzeugen. Das Audiosignal kann beispielsweise von einem Saitenmusikinstrument, wie z. B. einer Violine, einer Geige, einer Harfe, einer Mandoline, einer Bratsche, einem Banjo, einem Cello stammen, um nur einige zu nennen. Das Audiosignal kann von Schlaginstrumenten wie z. B. Trommeln, Glocken, Glockenspielen, Zymbeln, einem Klavier, einem Tamburin, einem Xylophon und dergleichen stammen. Das Audiosignal wird durch den Zeitbereichsanalyseblock 122 und den Frequenzbereichsanalyseblock 120 auf einer rahmenweisen Basis verarbeitet, um die gespielte Note zu isolieren und ihre Eigenschaften zu bestimmen. Jeder im Zeitbereich und Frequenzbereich analysierte Rahmen wird mit Notensignaturen 1-i in der Datenbank 112 verglichen, um den Typ der Note zu identifizieren und die geeigneten Steuerparameter 1-k zu bestimmen. Die Signalverarbeitungsfunktionen im Audioverstärker 90 werden gemäß den Steuerparametern 1-k der passenden Notensignatur festgelegt, um das Audiosignal in Echtzeit mit verbesserten Eigenschaften wiederzugeben, die durch den dynamischen Inhalt des Audiosignals bestimmt sind.
  • Die Signalverarbeitungsfunktionen können einer anderen Ausrüstung als einem zweckgebundenen Audioverstärker zugeordnet sein. 23 zeigt ein Musikinstrument 214, das ein Audiosignal erzeugt, das zur Ausrüstung 215 geleitet wird. Die Ausrüstung 215 führt die Signalverarbeitungsfunktionen am Audiosignal durch. Das signalaufbereitete Audiosignal wird zum Audioverstärker 216 zur Leistungsverstärkung oder -dämpfung des Audiosignals geleitet. Das Audiosignal wird dann zum Lautsprecher 217 geleitet, um den Klanginhalt des Musikinstruments 214 mit den Verbesserungen, die durch die Signalverarbeitungsausrüstung 215 in das Audiosignal eingeführt werden, wiederzugeben.
  • In einem Ausführungsbeispiel ist die Signalverarbeitungsausrüstung 215 ein Computer 218, wie in 24 gezeigt. Der Computer 218 enthält Digitalsignal-Verarbeitungskomponenten und eine Software zum Implementieren der Signalverarbeitungsfunktion. 25 ist ein Blockdiagramm der Signalverarbeitungsfunktion 220, die innerhalb des Computers 218 enthalten ist, einschließlich eines Vorfilterblocks 222, eines Voreffektblocks 224, eines Blocks 226 für nicht-lineare Effekte, vom Benutzer definierten Modulen 228, eines Nacheffektblocks 230 und eines Nachfilterblocks 232. Der Vorfilterblock 222 und der Nachfilterblock 232 sehen verschiedene Filterfunktionen vor, wie z. B. Tiefpassfilterung und Bandpassfilterung des Audiosignals. Die Vorfilterung und Nachfilterung können Tonentzerrungsfunktionen über verschiedene Frequenzbereiche umfassen, um die Pegel von spezifischen Frequenzen zu verstärken oder zu dämpfen, ohne benachbarte Frequenzen zu beeinflussen, wie z. B. Bassfrequenzeinstellung und Höhenfrequenzeinstellung. Die Tonentzerrung kann beispielsweise eine stufenweise Entzerrung, um alle Frequenzen über oder unter einer Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, eine Glockenentzerrung, um einen schmalen Bereich von Frequenzen um eine Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, eine graphische Entzerrung oder eine Parameterentzerrung verwenden. Der Voreffektblock 224 und der Nacheffektblock 230 führen Klangeffekte in das Audiosignal ein, wie z. B. Hall, Verzögerungen, Mehrfachüberlagerung, Wah, automatische Lautstärke, Phasenschieber, Brummunterdrücker, Rauschsperre, Vibrato, Tonhöhenverschiebung, graphische Entzerrung, Tremolo und dynamische Kompression. Der Block 226 für nicht-lineare Effekte führt nicht-lineare Effekte in das Audiosignal ein, wie z. B. m-Modellierung, Verzerrung, Übersteuerung, Unschärfe und Modulation. Der Block 228 der vom Benutzer definierten Module ermöglicht dem Benutzer, individuell angepasste Signalverarbeitungsfunktionen zu definieren, wie z. B. Hinzufügen von Begleitinstrumenten, Gesang und Synthesizeroptionen. Das Audiosignal nach der Signalverarbeitung wird zum Audioverstärker 216 und zum Lautsprecher 217 geleitet.
  • Der Vorfilterblock 222, der Voreffektblock 224, der Block 226 für nicht-lineare Effekte, die vom Benutzer definierten Module 228, der Nacheffektblock 230 und der Nachfilterblock 232 innerhalb der Signalverarbeitungsfunktion sind mit dem Frontbedienfeld 234, d. h. durch die Computertastatur oder ein externes Steuersignal für den Computer 218, auswahlbar und steuerbar.
  • Um den Signalverarbeitungsanforderungen für den dynamischen Inhalt der Audioquelle Rechnung zu tragen, verwendet der Computer 218 ein Merkmal dynamischer adaptiver Intelligenz, das eine Frequenzbereichsanalyse und Zeitbereichsanalyse des Audiosignals auf einer rahmenweisen Basis beinhaltet und den Betrieb der Signalverarbeitungsfunktionen und Einstellungen innerhalb des Computers automatisch und adaptiv steuert, um eine optimale Klangwiedergabe zu erreichen. Das Audiosignal vom Musikinstrument 214 wird zum Frequenzbereichs- und Zeitbereichsanalyseblock 240 geleitet. Die Ausgabe des Blocks 240 wird zum Notensignaturblock 242 geleitet und die Ausgabe des Blocks 242 wird zum Block 244 zur adaptiven Intelligenzsteuerung geleitet.
  • Die Funktionen der Blöcke 240, 242 und 244 entsprechen den Blöcken 110, 112 bzw. 114, wie in 619 beschrieben. Die Blöcke 240244 führen eine Echtzeit-Frequenzbereichsanalyse und -Zeitbereichsanalyse des Audiosignals auf einer rahmenweisen Basis durch. Jeder ankommende Rahmen des Audiosignals wird detektiert und analysiert, um seinen Zeitbereichs- und Frequenzbereichsgehalt und seine Zeitbereichs- und Frequenzbereichscharakteristiken zu bestimmen. Der ankommende Rahmen wird mit einer Datenbank von festgelegten oder gelernten Notensignaturen verglichen, um eine beste Übereinstimmung oder engste Korrelation des ankommenden Rahmens mit der Datenbank von Notensignaturen zu bestimmen. Die am besten passende Notensignatur von der Datenbank enthält die Steuerkonfiguration der Signalverarbeitungsblöcke 222232. Die am besten passende Notensignatur steuert den Betrieb der Signalverarbeitungsblöcke 222232 in Echtzeit auf einer rahmenweisen Basis, um kontinuierlich und automatisch Einstellungen an den Signalverarbeitungsfunktionen für eine optimale Klangwiedergabe vorzunehmen, wie in 619 beschrieben. Auf der Basis der Steuerparameter 1-k der passenden Notensignatur kann beispielsweise die Verstärkung des Audiosignals automatisch für diese spezielle Note erhöht oder verringert werden. Vorgaben und Klangeffekte können automatisch für die gespielte Note eingeschaltet oder entfernt werden. Der nächste Rahmen in der Sequenz kann derselben Note zugeordnet sein, die mit derselben Notensignatur in der Datenbank übereinstimmt, oder der nächste Rahmen in der Sequenz kann einer anderen Note zugeordnet sein, die mit einer anderen entsprechenden Notensignatur in der Datenbank übereinstimmt. Jeder Rahmen wird erkannt und mit einer Notensignatur verglichen, die Steuerparameter 1-k enthält, um den Betrieb der Signalverarbeitungsblöcke 222232 innerhalb des Audioverstärkers 220 für eine optimale Klangwiedergabe zu steuern. Die Signalverarbeitungsblöcke 222232 werden gemäß der am besten passenden Notensignatur entsprechend jedem individuellen ankommenden Rahmen eingestellt, um ihre Wiedergabe zu verbessern.
  • 26 zeigt ein weiteres Ausführungsbeispiel der Signalverarbeitungsausrüstung 215 als Pedalklaviatur oder Tonmaschine 246. Die Pedalklaviatur 246 enthält Signalverarbeitungsblöcke, wie für 25 und mit Bezug auf 622 beschrieben. Die Pedalklaviatur 246 verwendet ein Merkmal dynamischer adaptiver Intelligenz, das eine Frequenzbereichsanalyse und Zeitbereichsanalyse des Audiosignals auf einer rahmenweisen Basis beinhaltet und automatisch und adaptiv den Betrieb der Signalverarbeitungsfunktionen und Einstellungen innerhalb der Pedalklaviatur steuert, um eine optimale Klangwiedergabe zu erreichen. Jeder ankommende Rahmen des Audiosignals wird detektiert und analysiert, um seinen Zeitbereichs- und Frequenzbereichsinhalt und seine Zeitbereichs- und Frequenzbereichscharakteristiken zu bestimmen. Der ankommende Rahmen wird mit einer Datenbank von festgelegten oder gelernten Notensignaturen verglichen, um eine beste Übereinstimmung oder engste Korrelation des ankommenden Rahmens mit der Datenbank von Notensignaturen zu bestimmen. Die am besten passende Notensignatur enthält Steuerparameter 1-k, die den Betrieb der Signalverarbeitungsblöcke in Echtzeit auf einer rahmenweisen Basis steuern, um kontinuierlich und automatisch Einstellungen an den Signalverarbeitungsfunktionen für eine optimale Klangwiedergabe vorzunehmen.
  • 27 zeigt ein weiteres Ausführungsbeispiel der Signalverarbeitungsausrüstung 215 als Signalverarbeitungsgehäuse 248. Das Signalverarbeitungsgehäuse 248 enthält Signalverarbeitungsblöcke, wie für 25 und mit Bezug auf 622 beschrieben. Das Signalverarbeitungsgehäuse 248 verwendet ein Merkmal dynamischer adaptiver Intelligenz, das eine Frequenzbereichsanalyse und Zeitbereichsanalyse des Audiosignals auf einer rahmenweisen Basis beinhaltet und automatisch und adaptiv den Betrieb der Signalverarbeitungsfunktionen und Einstellungen innerhalb des Signalverarbeitungsgehäuses steuert, um eine optimale Klangwiedergabe zu erreichen. Jeder ankommende Rahmen des Audiosignals wird detektiert und analysiert, um seinen Zeitbereichs- und Frequenzbereichsinhalt und seine Zeitbereichs- und Frequenzbereichscharakteristiken zu bestimmen. Der ankommende Rahmen wird mit einer Datenbank von festgelegten oder gelernten Notensignaturen verglichen, um eine beste Übereinstimmung oder engste Korrelation des ankommenden Rahmens mit der Datenbank von Notensignaturen zu bestimmen. Die am besten passende Notensignatur enthält Steuerparameter 1-k, die den Betrieb der Signalverarbeitungsblöcke in Echtzeit auf einer rahmenweisen Basis steuern, um kontinuierlich und automatisch Einstellungen an den Signalverarbeitungsfunktionen für eine optimale Klangwiedergabe vorzunehmen.
  • Einige Ausführungsbeispiele der Audioquelle 12 werden auf einer rahmenweisen Basis besser charakterisiert, d. h. keine klare oder zuverlässig detektierbare Abgrenzung zwischen den Noten. Das Audiosignal von Stimmmustern kann beispielsweise für eine rahmenweise Analyse besser geeignet sein, ohne den Beginn einer Note zu detektieren. 28 zeigt die Audioquelle 12 als Mikrophon 250 dargestellt, das von einem Mann oder einer Frau mit Stimmbereichen, einschließlich Sopran, Mezzosopran, Alt, Tenor, Bariton und Bass, bedient wird. Das Mikrophon 250 ist durch ein Audiokabel 252 mit einem Audiosystem mit einem Audioverstärker, der innerhalb eines ersten Gehäuses 254 enthalten ist, und einem Lautsprecher, der innerhalb eines zweiten separaten Gehäuses 256 aufgenommen ist, verbunden. Das Audiokabel 252 vom Mikrophon 250 wird zur Audioeingangsbuchse 258 geleitet, die mit dem Audioverstärker innerhalb des Gehäuses 254 für die Leistungsverstärkung und Signalverarbeitung verbunden ist. Steuerknöpfe 260 am Frontbedienfeld 262 des Gehäuses 254 ermöglichen dem Benutzer, verschiedene Einstellungen des Audioverstärkers zu überwachen und manuell zu steuern. Das Gehäuse 254 ist durch ein Audiokabel 264 mit dem Gehäuse 256 elektrisch verbunden, um das verstärkte und aufbereitete Audiosignal zu den Lautsprechern 266 zu leiten.
  • 29 ist ein Blockdiagramm des Audioverstärkers 270, der innerhalb des Gehäuses 254 enthalten ist. Der Audioverstärker 270 empfängt Audiosignale vom Mikrophon 250 durch das Audiokabel 252. Der Audioverstärker 270 führt eine Verstärkung und andere Signalverarbeitungsfunktionen, wie z. B. Entzerrung, Filterung, Klangeffekte und vom Benutzer definierte Module, am Audiosignal durch, um den Leistungspegel einzustellen und anderweitig die Signaleigenschaften für die Hörerfahrung zu verbessern.
  • Der Audioverstärker 270 weist einen Signalverarbeitungspfad für das Audiosignal auf, einschließlich eines Vorfilterblocks 272, eines Voreffektblocks 274, eines Block 276 für nicht-lineare Effekte, vom Benutzer definierten Modulen 278, eines Nacheffektblock 280, eines Nachfilterblocks 282 und eines Leistungsverstärkungsblocks 284. Der Vorfilterblock 272 und der Nachfilterblock 282 sehen verschiedene Filterfunktionen wie z. B. Tiefpassfilterung und Bandpassfilterung des Audiosignals vor. Die Vorfilterung und Nachfilterung können Tonentzerrungsfunktionen über verschiedene Frequenzbereiche umfassen, um die Pegel von spezifischen Frequenzen zu verstärken oder zu dämpfen, ohne sich auf benachbarte Frequenzen auszuwirken, wie z. B. Bassfrequenzeinstellung und Höhenfrequenzeinstellung. Die Tonentzerrung kann beispielsweise eine stufenweise Entzerrung, um alle Frequenzen über oder unter einer Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, eine Glockenentzerrung, um einen schmalen Bereich von Frequenzen um eine Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, eine graphische Entzerrung oder eine Parameterentzerrung verwenden. Der Voreffektblock 274 und der Nacheffektblock 280 führen Klangeffekte in das Audiosignal ein, wie z. B. Hall, Verzögerungen, Mehrfachüberlagerung, Wah, automatische Lautstärke, Phasenschieber, Brummunterdrücker, Rauschsperre, Vibrato, Tonhöhenverschiebung, graphische Entzerrung, Tremolo und dynamische Kompression. Der Block 276 für nicht-lineare Effekte führt nicht-lineare Effekte in das Audiosignal ein, wie z. B. m-Modellierung, Verzerrung, Übersteuerung, Unschärfe und Modulation. Der Block 278 für vom Benutzer definierte Module ermöglicht dem Benutzer, individuell angepasste Signalverarbeitungsfunktionen zu definieren, wie z. B. Hinzufügen von Begleitinstrumenten, Gesang und Synthesizeroptionen. Der Leistungsverstärkerblock 284 sieht eine Leistungsverstärkung oder -dämpfung des Audiosignals vor. Das Audiosignal nach der Signalverarbeitung wird zu den Lautsprechern 266 im Gehäuse 256 geleitet.
  • Der Vorfilterblock 272, der Voreffektblock 274, der Block 276 für nicht-lineare Effekte, die vom Benutzer definierten Module 278, der Nacheffektblock 280, der Nachfilterblock 282 und der Leistungsverstärkungsblock 284 innerhalb des Audioverstärkers 270 sind mit dem Frontbedienfeld 262 auswahlbar und steuerbar. Durch Drehen der Knöpfe 260 am Frontbedienfeld 262 kann der Benutzer den Betrieb der Signalverarbeitungsfunktionen innerhalb des Audioverstärkers 270 direkt steuern.
  • 29 stellt ferner die dynamische adaptive Intelligenzsteuerung des Audioverstärkers 270 dar. Ein Hauptzweck des Merkmals der adaptiven Intelligenz des Audioverstärkers 270 besteht darin, die Frequenzbereichscharakteristiken und Zeitbereichscharakteristiken des Audiosignals auf einer rahmenweisen Basis zu detektieren und zu isolieren und diese Informationen zu verwenden, um den Betrieb der Signalverarbeitungsblöcke 272284 des Verstärkers zu steuern. Das Audiosignal vom Audiokabel 252 wird zum Frequenzbereichs- und Zeitbereichsanalyseblock 290 geleitet. Die Ausgabe des Blocks 290 wird zum Rahmensignaturblock 292 geleitet und die Ausgabe des Blocks 292 wird zum Block 294 zur adaptiven Intelligenzsteuerung geleitet. Die Funktionen der Blöcke 290, 292 und 294 werden der Reihe nach erörtert.
  • 30 stellt ein weiteres Detail des Frequenzbereichs- und Zeitbereichsanalyseblocks 290 dar, einschließlich des Audioabtastblocks 296, des Frequenzbereichsanalyseblocks 300 und des Zeitbereichsanalyseblocks 302. Das analoge Audiosignal wird an den Audioabtastblock 296 übergeben. Der Audioabtastblock 296 tastet das analoge Audiosignal, z. B. 512 bis 1024 Abtastwerte pro Sekunde, unter Verwendung eines A/D-Wandlers ab. Das abgetastete Audiosignal 298 wird in eine Reihe von zeitlich fortschreitenden Rahmen (Rahmen 1 bis Rahmen n) gegliedert, die jeweils eine vorbestimmte Anzahl von Abtastwerten des Audiosignals enthalten. 31a zeigt den Rahmen 1, der 1024 Abtastwerte des Audiosignals 298 in der Zeitsequenz enthält, den Rahmen 2, der die nächsten 1024 Abtastwerte des Audiosignals 298 in der Zeitsequenz enthält, den Rahmen 3, der die nächsten 1024 Abtastwerte des Audiosignals 298 in der Zeitsequenz enthält, und so weiter bis zum Rahmen n, der 1024 Abtastwerte des Audiosignals 298 in der Zeitsequenz enthält. 31b zeigt überlappende Fenster 299 von Rahmen 1-n, die bei der Zeitbereich-Frequenzbereich-Umwandlung verwendet werden, wie in 34 beschrieben. Das abgetastete Audiosignal 298 wird zum Frequenzbereichsanalyseblock 300 und Zeitbereichsanalyseblock 302 geleitet.
  • 32 stellt ein weiteres Detail des Zeitbereichsanalyseblocks 302 mit dem Energiepegelisolationsblock 304 dar, der den Energiepegel jedes Rahmens des abgetasteten Audiosignals 298 in mehrere Frequenzbänder isoliert. In 33 verarbeitet der Energiepegelisolationsblock 304 jeden Rahmen des abgetasteten Audiosignals 298 in der Zeitsequenz durch das Filterfrequenzband 310a310c, um spezifische Frequenzen des Audiosignals zu trennen und zu isolieren. Die Filterfrequenzbänder 310a310c können spezifische Frequenzbänder im Audiobereich von 100–10000 Hz isolieren. In einem Ausführungsbeispiel ist das Filterfrequenzband 310a ein Bandpassfilter mit einem Durchlassbereich, der bei 100 Hz zentriert ist, das Filterfrequenzband 310b ist ein Bandpassfilter mit einem Durchlassbereich, der bei 500 Hz zentriert ist, und das Filterfrequenzband 310c ist ein Bandpassfilter mit einem Durchlassbereich, der bei 1000 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 310a enthält den Energiepegel des abgetasteten Audiosignals 298, der bei 100 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 310b enthält den Energiepegel des abgetasteten Audiosignals 298, der bei 500 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 310c enthält den Energiepegel des abgetasteten Audiosignals 298, der bei 1000 Hz zentriert ist. Die Ausgabe von anderen Filterfrequenzbändern enthält jeweils den Energiepegel des abgetasteten Audiosignals 298 für ein gegebenes spezifisches Band. Ein Spitzendetektor 312a überwacht und speichert Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 100 Hz zentriert sind. Ein Spitzendetektor 312b überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 500 Hz zentriert sind. Ein Spitzendetektor 312c überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 1000 Hz zentriert sind. Ein Glättungsfilter 314a entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 100 Hz zentriert sind. Ein Glättungsfilter 314b entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 500 Hz zentriert sind. Ein Glättungsfilter 314c entfernt störende Komponenten der Spitzenenergiepegel und stabilisiert anderweitig das abgetastete Audiosignal 298, die bei 1000 Hz zentriert sind. Die Ausgabe der Glättungsfilter 314a314c ist die Energiepegelfunktion E(m,n) für jeden Rahmen n in jedem Frequenzband 1-m des abgetasteten Audiosignals 298.
  • Ein Zeitbereichsanalyseblock 302 von 26 umfasst auch einen Übergangsdetektorblock 322, wie in 32 gezeigt. Der Block 322 verwendet die Energiefunktion E(m,n), um schnelle oder signifikante vorübergehende Änderungen der Energiepegel über die Zeit zu verfolgen, die auf eine Änderung des Klanginhalts hinweisen. Der Übergangsdetektor ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.
  • Ein Vibratodetektorblock 326 verwendet die Energiefunktion E(m,n), um Änderungen der Amplitude der Energiepegel über die Zeit zu verfolgen, die auf eine Amplitudenmodulation hinweisen, die mit dem Vibratoeffekt verbunden ist. Der Vibratodetektor ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.
  • Der Frequenzbereichsanalyseblock 300 in 26 umfasst einen STFT-Block 338, wie in 34 gezeigt. Der Block 338 führt eine Zeitbereich-Frequenzbereich-Umwandlung auf einer rahmenweisen Basis des abgetasteten Audiosignals 118 unter Verwendung einer COLA-STFT oder einer anderen FFT durch. Die COLA-STFT 338 führt eine Zeitbereich-Frequenzbereich-Umwandlung unter Verwendung von Überlappungsanalysefenstern 299 durch, wie in 31b gezeigt. Die Abtastfenster 299 überlappen um eine vorbestimmte Anzahl von Abtastwerten des Audiosignals, die als Sprunggröße bekannt ist, für zusätzliche Abtastpunkte in der COLA-STFT-Analyse, um sicherzustellen, dass die Daten in aufeinander folgenden Rahmen gleich gewichtet werden. Gleichung (2) liefert ein allgemeines Format der Zeitbereich-Frequenzbereich-Umwandlung am abgetasteten Audiosignal 298.
  • Sobald das abgetastete Audiosignal 298 sich im Frequenzbereich befindet, verwendet ein Vokal-”a”-Formantblock 340 das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”a” im abgetasteten Audiosignal 298 zu bestimmen. Jeder Vokal weist eine Frequenzfestlegung auf. Der Vokal ”a” kommt im Bereich von 800–1200 Hz und in keinem anderen Frequenzbereich vor. Der Vokal-”a”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”a”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.
  • Ein Vokal-”e”-Formantblock 342 verwendet das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”e” im abgetasteten Audiosignal 298 zu bestimmen. Der Vokal ”e” kommt im Bereich von 400–600 Hz und auch im Frequenzbereich von 2200–2600 vor. Der Vokal-”e”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”e”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.
  • Ein Vokal-”i”-Formantblock 344 verwendet das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”i” im abgetasteten Audiosignal 298 zu bestimmen. Der Vokal ”i” kommt im Bereich von 200–400 Hz und auch im Frequenzbereich von 3000–3500 vor. Der Vokal-”i”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”i”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.
  • Ein Vokal-”o”-Formantblock 346 verwendet das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”o” abgetasteten Audiosignal 298 zu bestimmen. Der Vokal ”o” kommt im Bereich von 400–600 Hz und in keinem anderen Frequenzbereich vor. Der Vokal-”o”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”o”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.
  • Ein Vokal-”u”-Formantblock 348 verwendet das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”u” im abgetasteten Audiosignal 298 zu bestimmen. Der Vokal ”u” kommt im Bereich von 200–400 Hz und in keinem anderen Frequenzbereich vor. Der Vokal-”u”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”u”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.
  • Ein Obertondetektorblock 350 verwendet das abgetastete Frequenzbereichs-Audiosignal, um eine Resonanz einer höheren Oberwelle oder einen Oberton der Grundtonart zu detektieren, die den Eindruck von gleichzeitigen Tönen gibt. Der Obertondetektor ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.
  • Die Laufzeitmatrix 324 enthält die Zeitbereichsparameter, die im Zeitbereichsanalyseblock 302 bestimmt werden, und die Frequenzbereichsparameter, die im Frequenzbereichsanalyseblock 300 bestimmt werden. Jeder Zeitbereichsparameter und Frequenzbereichsparameter ist ein numerischer Parameterwert PVn,j, der in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert wird, wobei n der Rahmen ist und j der Parameter ist, ähnlich zu Tabelle 1. Die Zeitbereichs- und Frequenzbereichsparameterwerte Pn,j sind für spezifische Rahmen charakteristisch und daher beim Unterscheiden zwischen Rahmen nützlich.
  • Mit Rückkehr zu 29 wird die Datenbank 292 in einer Speicherkomponente des Audioverstärkers 270 unterhalten und enthält eine Vielzahl von Rahmensignaturdatensätzen 1, 2, 3, ... i, wobei jede Rahmensignatur Zeitbereichsparameter und Frequenzbereichsparameter aufweist, die der Laufzeitmatrix 324 entsprechen. Außerdem enthalten die Rahmensignaturdatensätze 1-i Gewichtungsfaktoren 1, 2, 3, ... j für jeden Zeitbereichs- und Frequenzbereichsparameter und eine Vielzahl von Steuerparametern 1, 2, 3, ... k.
  • 35 zeigt die Datenbank 292 mit Zeitbereichs- und Frequenzbereichsparametern 1-j für jede Rahmensignatur 1-i, Gewichtungsfaktoren 1-j für jede Rahmensignatur 1-i und Steuerparametern 1-k für jede Rahmensignatur 1-i. Jeder Rahmensignaturdatensatz i ist durch die Parameter 1-j und zugehörige Gewichte 1-j definiert, die für die Rahmensignatur charakteristisch sind, und wird verwendet, um einen ankommenden Rahmen aus der Laufzeitmatrix 324 als mit der Rahmensignatur i an besten übereinstimmend oder am engsten korreliert zu identifizieren. Sobald der ankommende Rahmen aus der Laufzeitmatrix 324 mit einer speziellen Rahmensignatur i abgeglichen ist, verwendet die adaptive Intelligenzsteuerung 294 die Steuerparameter 1-k für die passende Rahmensignatur, um den Betriebszustand der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 einzustellen. In einem passenden Rahmensignaturdatensatz i legt beispielsweise der Steuerparameter i,1 den Betriebszustand des Vorfilterblock 272 fest; der Steuerparameter i,2 legt den Betriebszustand des Voreffektblocks 274 fest; der Steuerparameter i,3 legt den Betriebszustand des Blocks 276 für nicht-lineare Effekte fest; der Steuerparameter i,4 legt den Betriebszustand der vom Benutzer definierten Module 278 fest; der Steuerparameter i,5 legt den Betriebszustand des Nacheffektblocks 280 fest; der Steuerparameter i,6 legt den Betriebszustand des Nachfilterblocks 282 fest; und der Steuerparameter i,7 legt den Betriebszustand des Leistungsverstärkungsblocks 284 fest.
  • Die Zeitbereichsparameter und Frequenzbereichsparameter in der Rahmensignaturdatenbank 292 enthalten Werte, die vom Hersteller vorgegeben sind oder vom Benutzer eingegeben werden oder über die Zeit durch Spielen eines Instruments gelernt werden. Das Werk oder der Hersteller des Audioverstärkers 270 kann anfänglich die Werte der Zeitbereichs- und Frequenzbereichsparameter 1-j sowie Gewichtungsfaktoren 1-j und Steuerparameter 1-k vorgeben. Der Benutzer kann die Zeitbereichs- und Frequenzbereichsparameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k für jede Rahmensignatur 1-i in der Datenbank 292 direkt unter Verwendung des Computers 352 mit dem Benutzerschnittstellenbildschirm oder der Benutzerschnittstellenanzeige 354, siehe 36, ändern. Die Werte für die Zeitbereichs- und Frequenzbereichsparameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k werden auf dem Schnittstellenbildschirm 354 dargestellt, um dem Benutzer zu ermöglichen, aktualisierte Werte einzugeben.
  • In einem anderen Ausführungsbeispiel können Zeitbereichs- und Frequenzbereichsparameter 1-j, Gewichtungsfaktoren 1-j und Steuerparameter 1-k durch den Künstler, der in das Mikrophon 250 singt, gelernt werden. Der Künstler setzt den Audioverstärker 270 in einen Lernmodus. Der Künstler singt wiederholt in das Mikrophon 250. Die Frequenzbereichsanalyse 300 und die Zeitbereichsanalyse 302 von 30 erzeugen eine Laufzeitmatrix 324 mit zugehörigen Frequenzbereichsparametern und Zeitbereichsparametern für jeden Rahmen 1-n, wie in 31a definiert. Die Frequenzbereichsparameter und Zeitbereichsparameter für jeden Rahmen 1-n werden in der Datenbank 292 gesammelt und gespeichert.
  • Der Künstler kann manuelle Einstellungen am Audioverstärker 270 über das Frontbedienfeld 262 durchführen. Der Audioverstärker 270 lernt die Steuerparameter 1-k, die dem Rahmen zugeordnet sind, durch die Einstellungen der Signalverarbeitungsblöcke 272284, wie durch den Künstler manuell eingestellt. Wenn der Lernmodus vollendet ist, werden die Rahmensignaturdatensätze in der Datenbank 292 mit den Rahmensignaturparametern definiert, die ein Mittelwert der Frequenzbereichsparameter und der Zeitbereichsparameter, die in der Datenbank 292 gesammelt sind, und ein Mittelwert der Steuerparameter 1-k, die von den manuellen Einstellungen der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 in der Datenbank 292 genommen sind, sind. In einem Ausführungsbeispiel ist der Mittelwert ein quadratischer Mittelwert der Reihe von gesammelten Frequenzbereichs- und Zeitbereichsparametern 1-j und gesammelten Steuerparametern 1-k in der Datenbank 292.
  • Gewichtungsfaktoren 1-j können durch Überwachen der gelernten Zeitbereichs- und Frequenzbereichsparameter 1-j und Erhöhen oder Verringern der Gewichtungsfaktoren auf der Basis der Nähe oder statistischen Korrelation des Vergleichs gelernt werden. Wenn ein spezieller Parameter eine konsistente statistische Korrelation aufweist, dann kann der Gewichtungsfaktor für diesen Parameter erhöht werden. Wenn ein spezieller Parameter eine unterschiedliche statistische verschiedenartige Korrelation aufweist, dann kann der Gewichtungsfaktor für diesen Parameter verringert werden.
  • Sobald die Parameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k der Rahmensignaturen 1-i für die Datenbank 292 festgelegt sind, können die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 324 auf einer rahmenweisen Basis mit jeder Rahmensignatur 1-i verglichen werden, um eine beste Übereinstimmung oder engste Korrelation zu finden. In einem normalen Wiedergabemodus singt der Künstler einen Liedtext, um ein Audiosignal mit einer Zeitsequenz von Rahmen zu erzeugen. Für jeden Rahmen wird die Laufzeitmatrix 324 mit Zeitbereichsparametern und Frequenzbereichsparametern belegt, die aus einer Zeitbereichsanalyse und Frequenzbereichsanalyse des Audiosignals bestimmt werden, wie in 2934 beschrieben.
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 1 in der Laufzeitmatrix 324 und die Parameter 1-j in jeder Rahmensignatur 1-i werden auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. 37 zeigt einen Erkennungsdetektor 356 mit einem Vergleichsblock 358 zum Bestimmen der Differenz zwischen den Zeitbereichs- und Frequenzbereichsparametern 1-j für einen Rahmen in der Laufzeitmatrix 324 und den Parametern 1-j in jeder Rahmensignatur 1-i. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 358 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur 1 und speichert die Differenz im Erkennungsspeicher 360. Die Differenzen zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur 1 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 1 zu bestimmen.
  • Als nächstes bestimmt der Vergleichsblock 358 für jeden Parameter des Rahmens 1 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur 2 und speichert die Differenz im Erkennungsspeicher 360. Die Differenzen zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur 2 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 2 zu bestimmen.
  • Die Zeitbereichsparameter und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 324 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-j in den restlichen Rahmensignaturen 3-i in der Datenbank 292 verglichen, wie für die Rahmensignaturen 1 und 2 beschrieben. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 1 der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation und der Rahmen, der dem Rahmen 1 der Laufzeitmatrix 324 zugeordnet ist, wird mit der Rahmensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j des Rahmens 1 in der Laufzeitmatrix 324 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Rahmensignatur 1 ausgerichtet.
  • Mit den Zeitbereichsparametern und Frequenzbereichsparametern 1-j des Rahmens 1 in der Laufzeitmatrix 324, die an die Rahmensignatur 1 angepasst sind, verwendet der Block 294 zur adaptiven Intelligenzsteuerung von 29 die Steuerparameter 1-k, die der passenden Rahmensignatur 1 in der Datenbank 292 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 zu steuern. Das Audiosignal wird durch den Vorfilterblock 272, den Voreffektblock 274, den Block 276 für nicht-lineare Effekte, die vom Benutzer definierten Module 278, den Nacheffektblock 280, den Nachfilterblock 282 und den Leistungsverstärkungsblock 284 verarbeitet, die jeweils arbeiten, wie durch den Steuerparameter 1,1, den Steuerparameter 1,2 bis zum Steuerparameter 1,k der Rahmensignatur 1 festgelegt. Das verbesserte Audiosignal wird zum Lautsprecher 266 im Gehäuse 256 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 324 und die Parameter 1-j in jeder Rahmensignatur 1-i werden auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 358 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur i und speichert die Differenz im Erkennungsspeicher 360. Die Differenzen zwischen den Parametern 1-j des Rahmens 2 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur i werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Rahmensignatur i zu bestimmen. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation und der Rahmen, der dem Rahmen 1 der Laufzeitmatrix 324 zugeordnet ist, wird mit der Rahmensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j des Rahmens 2 in der Laufzeitmatrix 324 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Rahmensignatur 2 ausgerichtet. Der Block 294 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k, die der passenden Rahmensignatur 2 in der Datenbank 292 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 324 fort.
  • In einem weiteren Ausführungsbeispiel werden die Zeitbereichs- und Frequenzbereichsparameter 1-j für einen Rahmen in der Laufzeitmatrix 324 und die Parameter 1-j in jeder Rahmensignatur 1-i auf einer Basis nacheinander verglichen und die gewichteten Differenzen werden aufgezeichnet. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 358 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur 1, wie durch das Gewicht 1,j bestimmt, und speichert die gewichtete Differenz im Erkennungsspeicher 360. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur 1 werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 1 zu bestimmen.
  • Als nächstes bestimmt der Vergleichsblock 358 für jeden Parameter des Rahmens 1 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur 2 durch das Gewicht 2,j und speichert die gewichtete Differenz im Erkennungsspeicher 360. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 2 werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 2 zu bestimmen.
  • Die Zeitbereichsparameter und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 324 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-j in den restlichen Rahmensignaturen 3-i in der Datenbank 292 verglichen, wie für die Rahmensignaturen 1 und 2 beschrieben. Die minimale gewichtete Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation und der Rahmen, der dem Rahmen 1 der Laufzeitmatrix 324 zugeordnet ist, wird mit der Rahmensignatur mit der minimalen gewichteten Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. Der Block 294 zum Steuern der adaptiven Intelligenz verwendet die Steuerparameter 1-k in der Datenbank 292, die der passenden Rahmensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 zu steuern.
  • Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 324 und die Parameter 1-j in jeder Rahmensignatur 1-i werden auf einer Basis nacheinander verglichen und die gewichteten Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 358 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur i durch das Gewicht i,j und speichert die gewichtete Differenz im Erkennungsspeicher 360. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 2 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur i werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Rahmensignatur i zu bestimmen. Die minimale gewichtete Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation und der Rahmen, der dem Rahmen 1 der Laufzeitmatrix 324 zugeordnet ist, wird mit der Rahmensignatur mit der minimalen gewichteten Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. Der Block 294 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 292, die der passenden Rahmensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 324 fort.
  • In einem weiteren Ausführungsbeispiel wird eine Wahrscheinlichkeit für die Korrelation zwischen entsprechenden Parametern in der Laufzeitmatrix 324 und den Rahmensignaturen 1-i bestimmt. Mit anderen Worten, eine Wahrscheinlichkeit für die Korrelation wird als Prozentsatz, dass ein gegebener Parameter in der Laufzeitmatrix 324 wahrscheinlich derselbe wie der entsprechende Parameter in der Rahmensignatur i ist, bestimmt. Der Prozentsatz ist eine Wahrscheinlichkeit für eine Übereinstimmung. Wie vorstehend beschrieben, werden die Zeitbereichsparameter und Frequenzbereichsparameter in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert. Für jeden Rahmen n jedes Parameters j in der Laufzeitmatrix 174 wird durch Pn,j = [Pn1, Pn2, ... Pnj] dargestellt.
  • Eine nach Wahrscheinlichkeit geordnete Liste R wird zwischen jedem Rahmen n jedes Parameters j in der Laufzeitmatrix 174 und jedem Parameter j jeder Rahmensignatur i bestimmt. Der Wahrscheinlichkeitswert ri kann durch eine Analyse des quadratischen Mittelwerts für das Pn,j und die Rahmensignaturdatenbank Si,j in Gleichung (3) bestimmt werden. Der Wahrscheinlichkeitswert R ist (1-ri) × 100%. Der Gesamtrangordnungswert für Pn,j und die Rahmendatenbank Si,j ist in Gleichung (4) gegeben.
  • In einigen Fällen identifiziert der Vergleichsprozess zwei oder mehr Rahmensignaturen, die nahe dem vorliegenden Rahmen liegen. Ein Rahmen in der Laufzeitmatrix 324 kann beispielsweise eine Wahrscheinlichkeit von 52%, dass er mit der Rahmensignatur 1 übereinstimmt, und eine Wahrscheinlichkeit von 48%, dass er mit der Rahmensignatur 2 übereinstimmt, aufweisen. In diesem Fall wird eine Interpolation zwischen dem Steuerparameter 1,1, dem Steuerparameter 1,2 bis zum Steuerparameter 1,k und dem Steuerparameter 2,1, dem Steuerparameter 2,2 bis zum Steuerparameter 2,k, die durch die Wahrscheinlichkeit der Übereinstimmung gewichtet werden, durchgeführt. Der effektive Nettosteuerparameter 1 ist 0,52·Steuerparameter 1,1 + 0,48·Steuerparameter 2,1. Der effektive Nettosteuerparameter 2 ist 0,52·Steuerparameter 1,2 + 0,48·Steuerparameter 2,2. Der effektive Nettosteuerparameter k ist 0,52·Steuerparameter 1,k + 0,48·Steuerparameter 2,k. Die effektiven Nettosteuerparameter 1-k steuern den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270. Das Audiosignal wird durch den Vorfilterblock 272, den Voreffektblock 274, den Block 276 für nicht-lineare Effekte, die vom Benutzer definierten Module 278, den Nacheffektblock 280, den Nachfilterblock 282 und den Leistungsverstärkungsblock 284 verarbeitet, die jeweils arbeiten, wie durch die effektiven Nettosteuerparameter 1-k festgelegt. Das Audiosignal wird zum Lautsprecher 266 im Gehäuse 256 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.
  • Obwohl ein oder mehrere Ausführungsbeispiele der vorliegenden Erfindung im Einzelnen dargestellt wurden, erkennt der Fachmann, dass Modifikationen und Anpassungen an diesen Ausführungsbeispielen vorgenommen werden können, ohne vom Schutzbereich der vorliegenden Erfindung, wie in den folgenden Ansprüchen dargelegt, abzuweichen.

Claims (17)

  1. Audiosystem mit einem Signalprozessor, der zum Empfangen eines Audiosignals gekoppelt ist, wobei der dynamische Inhalt des Audiosignals den Betrieb des Signalprozessors steuert.
  2. Audiosystem nach Anspruch 1, das ferner umfasst: einen Zeitbereichsprozessor, der zum Empfangen des Audiosignals und zum Erzeugen von Zeitbereichsparametern des Audiosignals gekoppelt ist; einen Frequenzbereichsprozessor, der zum Empfangen des Audiosignals und zum Erzeugen von Frequenzbereichsparametern des Audiosignals gekoppelt ist; eine Signaturdatenbank mit einer Vielzahl von Signaturdatensätzen mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparametern; und einen Erkennungsdetektor zum Vergleichen der Zeitbereichsparameter und Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank, wobei die Steuerparameter des passenden Signaturdatensatzes den Betrieb des Signalprozessors steuern.
  3. Audiosystem nach Anspruch 1, wobei der Signalprozessor ein Vorfilter, Voreffekte, nicht-lineare Effekte, ein vom Benutzer definiertes Modul, Nacheffekte, ein Nachfilter oder eine Leistungsverstärkung umfasst.
  4. Audiosystem nach Anspruch 1, wobei das Audiosignal abgetastet wird und der Zeitbereichsprozessor und der Frequenzbereichsprozessor eine Vielzahl von Rahmen des abgetasteten Audiosignals verarbeiten.
  5. Audiosystem nach Anspruch 1, wobei der Zeitbereichsprozessor oder der Frequenzbereichsprozessor den Beginn einer Note des abgetasteten Audiosignals detektiert.
  6. Audiosystem nach Anspruch 1, wobei die Zeitbereichsparameter einen Notenspitzeneinsatzparameter, einen Notenspitzenfreigabeparameter, einen Mehrband-Spitzeneinsatzparameter, einen Mehrband-Spitzenfreigabeparameter, einen Schlagdetektorparameter, einen Tempodetektorparameter, einen Übergangsdetektorparameter oder einen Vibratodetektorparameter umfassen.
  7. Audiosystem nach Anspruch 1, wobei die Frequenzbereichsparameter einen Oberwellen-Einsatzverhältnisparameter, einen Oberwellen-Freigabeverhältnisparameter, einen Leer- und Dämpfungsfaktorparameter, einen Hals- und Stegfaktorparameter, einen Tonhöhendetektorparameter, einen Vokalformantparameter oder einen Obertondetektorparameter umfassen.
  8. Audiosystem nach Anspruch 1, wobei das Audiosignal durch eine Gitarre erzeugt wird.
  9. Audiosystem nach Anspruch 1, wobei das Audiosignal durch Gesang erzeugt wird.
  10. Verfahren zum Steuern eines Audiosystems, das umfasst: Vorsehen eines Signalprozessors, der zum Empfangen eines Audiosignals ausgelegt ist; und Steuern des Betriebs des Signalprozessors unter Verwendung des dynamischen Inhalts des Audiosignals.
  11. Verfahren nach Anspruch 10, das ferner umfasst: Erzeugen von Zeitbereichsparametern des Audiosignals; Erzeugen von Frequenzbereichsparametern des Audiosignals; Vorsehen einer Signaturdatenbank mit einer Vielzahl von Signaturdatensätzen mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparametern; Vergleichen der Zeitbereichsparameter und Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank; und Steuern des Betriebs des Signalprozessors auf der Basis der Steuerparameter des passenden Signaturdatensatzes.
  12. Verfahren nach Anspruch 10, wobei der Signalprozessor ein Vorfilter, Voreffekte, nicht-lineare Effekte, ein vom Benutzer definiertes Modul, Nacheffekte, ein Nachfilter oder eine Leistungsverstärkung umfasst.
  13. Verfahren nach Anspruch 10, das ferner umfasst: Abtasten des Audiosignals; und Erzeugen der Zeitbereichsparameter und Frequenzbereichsparameter auf der Basis einer Vielzahl von Rahmen des abgetasteten Audiosignals.
  14. Verfahren nach Anspruch 10, das ferner das Detektieren eines Beginns einer Note des abgetasteten Audiosignals umfasst.
  15. Verfahren nach Anspruch 10, wobei die Zeitbereichsparameter einen Notenspitzeneinsatzparameter, einen Notenspitzenfreigabeparameter, einen Mehrband-Spitzeneinsatzparameter, einen Mehrband-Spitzenfreigabeparameter, einen Schlagdetektorparameter, einen Tempodetektorparameter, einen Übergangsdetektorparameter oder einen Vibratodetektorparameter umfassen.
  16. Verfahren nach Anspruch 10, wobei die Frequenzbereichsparameter einen Oberwellen-Einsatzverhältnisparameter, einen Oberwellen-Freigabeverhältnisparameter, einen Leer- und Dämpfungsfaktorparameter, einen Hals- und Stegfaktorparameter, einen Tonhöhendetektorparameter, einen Vokalformantparameter oder einen Obertondetektorparameter umfassen.
  17. Verfahren nach Anspruch 10, das ferner das Erzeugen des Audiosignals mit einer Gitarre oder mit Gesang umfasst.
DE102012103552A 2011-05-17 2012-04-23 Audiosystem und verfahren zur verwendung von adaptiver intelligenz, um den informationsgehalt von audiosignalen zu unterscheiden und eine signalverarbeitungsfunktion zu steuern Ceased DE102012103552A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/109,665 2011-05-17
US13/109,665 US20120294457A1 (en) 2011-05-17 2011-05-17 Audio System and Method of Using Adaptive Intelligence to Distinguish Information Content of Audio Signals and Control Signal Processing Function

Publications (1)

Publication Number Publication Date
DE102012103552A1 true DE102012103552A1 (de) 2012-11-22

Family

ID=46261570

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012103552A Ceased DE102012103552A1 (de) 2011-05-17 2012-04-23 Audiosystem und verfahren zur verwendung von adaptiver intelligenz, um den informationsgehalt von audiosignalen zu unterscheiden und eine signalverarbeitungsfunktion zu steuern

Country Status (4)

Country Link
US (1) US20120294457A1 (de)
CN (1) CN102790932B (de)
DE (1) DE102012103552A1 (de)
GB (1) GB2491000B (de)

Families Citing this family (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8309834B2 (en) * 2010-04-12 2012-11-13 Apple Inc. Polyphonic note detection
US9196235B2 (en) * 2010-07-28 2015-11-24 Ernie Ball, Inc. Musical instrument switching system
JP5703003B2 (ja) * 2010-12-07 2015-04-15 ローランド株式会社 ピッチシフト装置
US8586847B2 (en) * 2011-12-02 2013-11-19 The Echo Nest Corporation Musical fingerprinting based on onset intervals
EP2602787B1 (de) * 2011-12-09 2017-03-29 Yamaha Corporation Signalverarbeitungsvorrichtung
US10194239B2 (en) * 2012-11-06 2019-01-29 Nokia Technologies Oy Multi-resolution audio signals
JP6048151B2 (ja) * 2013-01-08 2016-12-21 カシオ計算機株式会社 電子弦楽器、楽音生成方法及びプログラム
JP6127519B2 (ja) * 2013-01-08 2017-05-17 カシオ計算機株式会社 楽音制御装置、楽音制御方法及びプログラム
US10939201B2 (en) 2013-02-22 2021-03-02 Texas Instruments Incorporated Robust estimation of sound source localization
EP2770498A1 (de) * 2013-02-26 2014-08-27 Harman International Industries Ltd. Verfahren zum Abrufen von Verarbeitungseigenschaften und Audioverarbeitungssystem
CN104078050A (zh) 2013-03-26 2014-10-01 杜比实验室特许公司 用于音频分类和音频处理的设备和方法
US9372925B2 (en) 2013-09-19 2016-06-21 Microsoft Technology Licensing, Llc Combining audio samples by automatically adjusting sample characteristics
US9798974B2 (en) * 2013-09-19 2017-10-24 Microsoft Technology Licensing, Llc Recommending audio sample combinations
CN103646656B (zh) * 2013-11-29 2016-05-04 腾讯科技(成都)有限公司 音效处理方法、装置、插件管理器及音效插件
EP3230976B1 (de) 2014-12-11 2021-02-24 Uberchord UG (haftungsbeschränkt) Verfahren und anlage zur verarbeitung einer sequenz von signalen für mehrstimmige notenerkennung
US20170024495A1 (en) * 2015-07-21 2017-01-26 Positive Grid LLC Method of modeling characteristics of a musical instrument
US9711121B1 (en) * 2015-12-28 2017-07-18 Berggram Development Oy Latency enhanced note recognition method in gaming
US9640157B1 (en) * 2015-12-28 2017-05-02 Berggram Development Oy Latency enhanced note recognition method
US20170372697A1 (en) * 2016-06-22 2017-12-28 Elwha Llc Systems and methods for rule-based user control of audio rendering
US10984768B2 (en) * 2016-11-04 2021-04-20 International Business Machines Corporation Detecting vibrato bar technique for string instruments
CN108806655B (zh) * 2017-04-26 2022-01-07 微软技术许可有限责任公司 歌曲的自动生成
US10056061B1 (en) * 2017-05-02 2018-08-21 Harman International Industries, Incorporated Guitar feedback emulation
WO2019046414A1 (en) * 2017-08-29 2019-03-07 Worcester Polytechnic Institute ELECTRONIC MUSIC INSTRUMENT INTERFACE
US11443724B2 (en) * 2018-07-31 2022-09-13 Mediawave Intelligent Communication Method of synchronizing electronic interactive device
CN113994421A (zh) * 2019-06-24 2022-01-28 雅马哈株式会社 信号处理装置、弦乐器、信号处理方法及程序
JP7475988B2 (ja) * 2020-06-26 2024-04-30 ローランド株式会社 効果装置および効果処理プログラム
CN112133267B (zh) * 2020-09-04 2024-02-13 腾讯音乐娱乐科技(深圳)有限公司 音频效果处理的方法、设备及存储介质
US20220303669A1 (en) * 2021-03-16 2022-09-22 Cherry Creek Door & Window Company, Inc. Instrument speaker cabinet with active and passive radiator speakers
CN116095568A (zh) * 2022-09-08 2023-05-09 瑞声科技(南京)有限公司 一种音频播放方法、车载音响系统及存储介质
CN115862676A (zh) * 2023-02-22 2023-03-28 南方电网数字电网研究院有限公司 基于深度学习的语音叠音检测方法、装置和计算机设备

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6539395B1 (en) * 2000-03-22 2003-03-25 Mood Logic, Inc. Method for creating a database for comparing music
US6740802B1 (en) * 2000-09-06 2004-05-25 Bernard H. Browne, Jr. Instant musician, recording artist and composer
US6673995B2 (en) * 2000-11-06 2004-01-06 Matsushita Electric Industrial Co., Ltd. Musical signal processing apparatus
DE10117870B4 (de) * 2001-04-10 2005-06-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Überführen eines Musiksignals in eine Noten-basierte Beschreibung und Verfahren und Vorrichtung zum Referenzieren eines Musiksignals in einer Datenbank
US20020159607A1 (en) * 2001-04-26 2002-10-31 Ford Jeremy M. Method for using source content information to automatically optimize audio signal
EP1410380B1 (de) * 2001-07-20 2010-04-28 Gracenote, Inc. Automatische identifizierung von klangaufzeichnungen
US6476308B1 (en) * 2001-08-17 2002-11-05 Hewlett-Packard Company Method and apparatus for classifying a musical piece containing plural notes
US7471988B2 (en) * 2001-09-11 2008-12-30 Thomas Licensing Method and apparatus for automatic equalization mode activation
JP2005526349A (ja) * 2002-05-16 2005-09-02 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 信号処理方法及び構成
US7518055B2 (en) * 2007-03-01 2009-04-14 Zartarian Michael G System and method for intelligent equalization
US7323629B2 (en) * 2003-07-16 2008-01-29 Univ Iowa State Res Found Inc Real time music recognition and display system
US7002069B2 (en) * 2004-03-09 2006-02-21 Motorola, Inc. Balancing MIDI instrument volume levels
US20050251273A1 (en) * 2004-05-05 2005-11-10 Motorola, Inc. Dynamic audio control circuit and method
AU2005299410B2 (en) * 2004-10-26 2011-04-07 Dolby Laboratories Licensing Corporation Calculating and adjusting the perceived loudness and/or the perceived spectral balance of an audio signal
US7598447B2 (en) * 2004-10-29 2009-10-06 Zenph Studios, Inc. Methods, systems and computer program products for detecting musical notes in an audio signal
CN100371925C (zh) * 2005-05-25 2008-02-27 南京航空航天大学 一种基于声音信号特征的机床类型的判别法
KR101249024B1 (ko) * 2005-06-01 2013-03-29 코닌클리케 필립스 일렉트로닉스 엔.브이. 콘텐트 아이템의 특성을 결정하기 위한 방법 및 전자 디바이스
US7516074B2 (en) * 2005-09-01 2009-04-07 Auditude, Inc. Extraction and matching of characteristic fingerprints from audio signals
US7774078B2 (en) * 2005-09-16 2010-08-10 Sony Corporation Method and apparatus for audio data analysis in an audio player
KR100677622B1 (ko) * 2005-12-02 2007-02-02 삼성전자주식회사 오디오 파일의 이퀄라이저 설정 방법 및 이를 이용한오디오 파일 재생 방법
WO2008051347A2 (en) * 2006-10-20 2008-05-02 Dolby Laboratories Licensing Corporation Audio dynamics processing using a reset
US8521314B2 (en) * 2006-11-01 2013-08-27 Dolby Laboratories Licensing Corporation Hierarchical control path with constraints for audio dynamics processing
WO2008101130A2 (en) * 2007-02-14 2008-08-21 Museami, Inc. Music-based search engine
US8426715B2 (en) * 2007-12-17 2013-04-23 Microsoft Corporation Client-side audio signal mixing on low computational power player using beat metadata
US20090290725A1 (en) * 2008-05-22 2009-11-26 Apple Inc. Automatic equalizer adjustment setting for playback of media assets
US20100158260A1 (en) * 2008-12-24 2010-06-24 Plantronics, Inc. Dynamic audio mode switching
WO2010138311A1 (en) * 2009-05-26 2010-12-02 Dolby Laboratories Licensing Corporation Equalization profiles for dynamic equalization of audio data
US8290769B2 (en) * 2009-06-30 2012-10-16 Museami, Inc. Vocal and instrumental audio effects
US9031243B2 (en) * 2009-09-28 2015-05-12 iZotope, Inc. Automatic labeling and control of audio algorithms by audio recognition
CN102044242B (zh) * 2009-10-15 2012-01-25 华为技术有限公司 语音激活检测方法、装置和电子设备

Also Published As

Publication number Publication date
CN102790932B (zh) 2015-10-07
GB2491000B (en) 2013-10-09
US20120294457A1 (en) 2012-11-22
GB2491000A (en) 2012-11-21
GB201206893D0 (en) 2012-06-06
CN102790932A (zh) 2012-11-21

Similar Documents

Publication Publication Date Title
DE102012103552A1 (de) Audiosystem und verfahren zur verwendung von adaptiver intelligenz, um den informationsgehalt von audiosignalen zu unterscheiden und eine signalverarbeitungsfunktion zu steuern
DE102012103553A1 (de) Audiosystem und verfahren zur verwendung von adaptiver intelligenz, um den informationsgehalt von audiosignalen in verbraucheraudio zu unterscheiden und eine signalverarbeitungsfunktion zu steuern
CN1174368C (zh) 修改复合波形的泛音含量的方法
Cuesta et al. Analysis of intonation in unison choir singing
DE102011003976B3 (de) Eingabeschnittstelle zur Erzeugung von Steuersignalen durch akustische Gesten
US9515630B2 (en) Musical dynamics alteration of sounds
Herbst Historical development, sound aesthetics and production techniques of the distorted electric guitar in metal music
JP2002529773A5 (de)
US7851688B2 (en) Portable sound processing device
Lehtonen et al. Analysis and modeling of piano sustain-pedal effects
EP1885156B1 (de) Hörhilfe mit einem Audiosignalerzeuger
Elmosnino Audio production principles: Practical studio applications
CN112927713B (zh) 音频特征点的检测方法、装置和计算机存储介质
Pedersen et al. The Recording, Mixing, and Mastering Reference Handbook
Jensen et al. Binary decision tree classification of musical sounds
Jasiński et al. On the Audibility of Electric Guitar Tonewood
Jensen et al. Hybrid perception
Tsumoto et al. The effect of harmonic overtones in relation to “sharpness” for perception of brightness of distorted guitar timbre
Lehtonen Analysis, perception, and synthesis of the piano sound
US11024273B2 (en) Method and apparatus for performing melody detection
Jarl Preferences for Guitar and Bass Mid-range Attributes in Metal Music
KR20240153287A (ko) 소스 분리에 기반한 가상 저음 강화
Cant et al. Mask Optimisation for Neural Network Monaural Source Separation
CN112185325A (zh) 音频播放风格调节方法、装置、电子设备及存储介质
Choudhury et al. In Search of Musicality: Can Fractals Show the Way?

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final