DE102012103552A1 - AUDIO SYSTEM AND METHOD FOR USING ADAPTIVE INTELLIGENCE TO DISTINCT THE INFORMATION CONTENT OF AUDIO SIGNALS AND TO CONTROL A SIGNAL PROCESSING FUNCTION - Google Patents

AUDIO SYSTEM AND METHOD FOR USING ADAPTIVE INTELLIGENCE TO DISTINCT THE INFORMATION CONTENT OF AUDIO SIGNALS AND TO CONTROL A SIGNAL PROCESSING FUNCTION Download PDF

Info

Publication number
DE102012103552A1
DE102012103552A1 DE102012103552A DE102012103552A DE102012103552A1 DE 102012103552 A1 DE102012103552 A1 DE 102012103552A1 DE 102012103552 A DE102012103552 A DE 102012103552A DE 102012103552 A DE102012103552 A DE 102012103552A DE 102012103552 A1 DE102012103552 A1 DE 102012103552A1
Authority
DE
Germany
Prior art keywords
frame
audio signal
parameter
parameters
note
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102012103552A
Other languages
German (de)
Inventor
Keith L. Chapman
Stanley J. Cotey
Zhiyun Kuang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fender Musical Instruments Corp
Original Assignee
Fender Musical Instruments Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fender Musical Instruments Corp filed Critical Fender Musical Instruments Corp
Publication of DE102012103552A1 publication Critical patent/DE102012103552A1/en
Ceased legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/02Means for controlling the tone frequencies, e.g. attack or decay; Means for producing special musical effects, e.g. vibratos or glissandos
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H3/00Instruments in which the tones are generated by electromechanical means
    • G10H3/12Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument
    • G10H3/14Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means
    • G10H3/18Instruments in which the tones are generated by electromechanical means using mechanical resonant generators, e.g. strings or percussive instruments, the tones of which are picked up by electromechanical transducers, the electrical signals being further manipulated or amplified and subsequently converted to sound by a loudspeaker or equivalent instrument using mechanically actuated vibrators with pick-up means using a string, e.g. electric guitar
    • G10H3/186Means for processing the signal picked up from the strings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/307Frequency adjustment, e.g. tone control
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/056Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction or identification of individual instrumental parts, e.g. melody, chords, bass; Identification or separation of instrumental parts by their characteristic voices or timbres
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/145Sound library, i.e. involving the specific use of a musical database as a sound bank or wavetable; indexing, interfacing, protocols or processing therefor
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/01Aspects of volume control, not necessarily automatic, in sound systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/03Synergistic effects of band splitting and sub-band processing

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Tone Control, Compression And Expansion, Limiting Amplitude (AREA)
  • Stereophonic System (AREA)
  • Auxiliary Devices For Music (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

Ein Audiosystem weist einen Signalprozessor auf, der zum Empfangen eines Audiosignals von einem Musikinstrument oder von Gesang gekoppelt ist. Ein Zeitbereichsprozessor empfängt das Audiosignal und erzeugt Zeitbereichsparameter des Audiosignals. Ein Frequenzbereichsprozessor empfängt das Audiosignal und erzeugt Frequenzbereichsparameter des Audiosignals. Das Audiosignal wird abgetastet und der Zeitbereichsprozessor und der Frequenzbereichsprozessor verarbeiten eine Vielzahl von Rahmen des abgetasteten Audiosignals. Der Zeitbereichsprozessor detektiert den Beginn einer Note des abgetasteten Audiosignals. Eine Signaturdatenbank weist Signaturdatensätze mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparameter auf. Ein Erkennungsdetektor vergleicht die Zeitbereichsparameter und Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank. Die Steuerparameter des passenden Signaturrs.An audio system has a signal processor coupled to receive an audio signal from a musical instrument or vocals. A time domain processor receives the audio signal and generates time domain parameters of the audio signal. A frequency domain processor receives the audio signal and generates frequency domain parameters of the audio signal. The audio signal is sampled and the time domain processor and frequency domain processor process a plurality of frames of the sampled audio signal. The time domain processor detects the start of a note of the sampled audio signal. A signature database has signature data records, each with time domain parameters and frequency domain parameters and control parameters. A detection detector compares the time domain parameters and frequency domain parameters of the audio signal with a signature data record of the signature database. The control parameters of the matching signature.

Description

Gebiet der ErfindungField of the invention

Die vorliegende Erfindung betrifft im Allgemeinen Audiosysteme und insbesondere ein Audiosystem und ein Verfahren zur Verwendung von adaptiver Intelligenz, um den dynamischen Inhalt eines durch ein Musikinstrument erzeugten Audiosignals zu unterscheiden und eine Signalprozessfunktion, die dem Audiosignal zugeordnet ist, zu steuern.The present invention relates generally to audio systems and, more particularly, to an audio system and method for using adaptive intelligence to distinguish the dynamic content of an audio signal generated by a musical instrument and to control a signal processing function associated with the audio signal.

Hintergrund der ErfindungBackground of the invention

Audioklangsysteme werden üblicherweise verwendet, um Signale zu verstärken und hörbaren Klang wiederzugeben. Eine Klangerzeugungsquelle, wie z. B. ein Musikinstrument, ein Mikrophon, ein Multimediaplayer oder eine andere elektronische Vorrichtung, erzeugt ein elektrisches Audiosignal. Das Audiosignal wird zu einem Audioverstärker geleitet, der die Amplitude steuert und eine andere Signalverarbeitung am Audiosignal durchführt. Der Audioverstärker kann Filtern, Modulation, Verzerrungsverbesserung oder -verringerung, Klangeffekte und andere Signalverarbeitungsfunktonen durchführen, um die Tonqualität und Frequenzeigenschaften des Audiosignals zu verbessern. Das verstärkte Audiosignal wird zu einem Lautsprecher gesendet, um das elektrische Signal in hörbaren Klang umzuwandeln und die Klangerzeugungsquelle mit durch die Signalverarbeitungsfunktion eingeführten Verbesserungen wiederzugeben.Audio sound systems are commonly used to amplify signals and reproduce audible sound. A sound generation source, such as. As a musical instrument, a microphone, a multimedia player or other electronic device, generates an electrical audio signal. The audio signal is routed to an audio amplifier, which controls the amplitude and performs another signal processing on the audio signal. The audio amplifier may perform filtering, modulation, distortion enhancement or reduction, sound effects, and other signal processing functions to improve the audio quality and frequency characteristics of the audio signal. The amplified audio signal is sent to a speaker to convert the electrical signal into audible sound and to reproduce the sound generating source with enhancements introduced by the signal processing function.

Musikinstrumente waren in der Gesellschaft immer sehr populär, wobei sie Unterhaltung, gesellschaftliches Zusammenspiel, Selbstdarstellung und ein Geschäft und eine Quelle für Lebensunterhalt für viele Leute bereitstellen. Saiteninstrumente sind aufgrund ihrer aktiven Spielbarkeit, Klangeigenschaften und Tragbarkeit besonders populär. Saiteninstrumente sind unterhaltsam und dennoch anspruchsvoll zu spielen, weisen großartige Klangqualitäten auf und sind leicht von einem Ort zum anderen zu bewegen.Musical instruments have always been very popular in society, providing entertainment, social interaction, self-expression, and a business and livelihood for many people. Stringed instruments are particularly popular because of their active playability, sound characteristics and portability. Stringed instruments are entertaining yet challenging to play, have great sound qualities and are easy to move from one place to another.

In einem Beispiel kann die Klangerzeugungsquelle eine elektrische Gitarre oder eine elektrische Bassgitarre sein, die ein gut bekanntes Musikinstrument ist. Die Gitarre weist einen Audioausgang auf, der mit einem Audioverstärker verbunden wird. Der Ausgang des Audioverstärkers wird mit einem Lautsprecher verbunden, um hörbare Musikklänge zu erzeugen. In einigen Fällen sind der Audioverstärker und der Lautsprecher separate Einheiten. In anderen Systemen sind die Einheiten in ein tragbares Gehäuse integriert.In one example, the sound generation source may be an electric guitar or electric bass guitar, which is a well-known musical instrument. The guitar has an audio output that connects to an audio amplifier. The output of the audio amplifier is connected to a speaker to produce audible music sounds. In some cases, the audio amplifier and speaker are separate units. In other systems, the units are integrated into a portable housing.

Die elektrische Gitarre erfordert typischerweise einen Audioverstärker, damit sie funktioniert. Andere Gitarren verwenden den Verstärker, um den Klang zu verbessern. Der Gitarrenaudioverstärker schafft Merkmale wie z. B. Verstärkung, Filterung, Tonentzerrung und Klangeffekte. Der Benutzer stellt die Knöpfe an der Frontplatte des Audioverstärkers ein, um die gewünschte Lautstärke, die gewünschte Akustik und die gewünschten Klangeffekte auszuwählen.The electric guitar typically requires an audio amplifier for it to work. Other guitars use the amp to enhance the sound. The guitar audio amplifier creates features such as. Amplification, filtering, tone equalization and sound effects. The user adjusts the knobs on the front panel of the audio amplifier to select the desired volume, acoustics and sound effects.

Die meisten, wenn nicht alle Audioverstärker sind jedoch in den Merkmalen, die sie jeweils bereitstellen können, begrenzt. Verstärker der Oberklasse stellen mehr Klangwiedergabe mit hoher Qualität und eine Vielfalt von Signalverarbeitungsoptionen bereit, sind jedoch im Allgemeinen teuer und schwierig zu transportiern. Der Lautsprecher ist in der hochwertigen Ausrüstung typischerweise eine vom Verstärker separate Einheit. Ein billiger Verstärker kann erschwinglicher und tragbar sein, aber begrenzte Klangverbesserungsmerkmale aufweisen. Es gibt wenig Verstärker für den billigen bis mittleren Verbrauchermarkt, die volle Merkmale, leichte Transportierbarkeit und niedrige Kosten bereitstellen.However, most if not all audio amplifiers are limited in the features they can each provide. High end amplifiers provide more high quality sound reproduction and a variety of signal processing options, but are generally expensive and difficult to transport. The speaker in the high quality equipment is typically a separate unit from the amplifier. A cheap amplifier can be more affordable and portable, but has limited sound enhancement features. There are few amplifiers for the low to medium consumer market that provide full features, easy portability and low cost.

Bei der Audiowiedergabe ist es üblich, eine Vielfalt von Signalverarbeitungstechniken in Abhängigkeit von der Musik und vom Spielstil zu verwenden, um eine bessere Klangqualität, Spielbarkeit zu erreichen und anderweitig die Kreativität des Künstlers sowie den Genuss und die Anerkennung der Komposition durch den Zuhörer zu verbessern. Gitarrenspieler verwenden beispielsweise eine große Auswahl von Audioverstärkereinstellungen und Klangeffekten für verschiedene Musikstile. Bassspieler verwenden verschiedene Kompressoren und Entzerrungseinstellungen, um die Klangqualität zu verbessern. Sänger verwenden verschiedene Hall- und Entzerrungseinstellungen in Abhängigkeit vom Liedtext und von der Melodie des Liedes. Musikproduzenten verwenden Nachverarbeitungseffekte, um die Komposition zu verbessern. Für Heim- und Autoklangsysteme kann der Benutzer verschiedene Hall- und Entzerrungsvorgaben wählen, um die Wiedergabe von klassischer oder Rockmusik zu optimieren.In audio playback, it is common to use a variety of signal processing techniques depending on the music and style of play to achieve better sound quality, playability, and otherwise enhance the creativity of the artist as well as enjoyment and recognition of the composition by the listener. For example, guitar players use a wide variety of audio amplifier settings and sound effects for different styles of music. Bass players use different compressors and equalization settings to improve the sound quality. Singers use different reverb and equalization settings depending on the lyrics and melody of the song. Music producers use post-processing effects to improve the composition. For home and car sound systems, the user can choose different reverb and equalization presets to optimize the performance of classical or rock music.

Audioverstärker und eine andere Signalverarbeitungsausrüstung, z. B. ein zweckgebundener Verstärker, eine Pedalklaviatur oder ein Soundrack, werden typischerweise mit Frontplattenschaltern und -steuerknöpfen gesteuert. Um den Verarbeitungsanforderungen für verschiedene Musikstile Rechnung zu tragen, hört der Benutzer die gewünschten Funktionen wie z. B. Verstärkung, Filterung, Tonentzerrung und Klangeffekte an und wählt diese manuell durch Einstellen der Schalterpositionen und Drehen der Steuerknöpfe aus. Wenn sich Spielstile ändern oder zu einer anderen Melodie übergegangen wird, muss der Benutzer vorübergehend die Wiedergabe unterbrechen, um Einstellungen am Audioverstärker oder einer anderen Signalverarbeitungsausrüstung vorzunehmen. In einigen digitalen oder analogen Instrumenten kann der Benutzer bevorzugte Einstellungen als Vorgaben konfigurieren und speichern und dann später die gespeicherten Einstellungen oder Werksvorgaben für das Instrument manuell auswählen.Audio amplifiers and other signal processing equipment, e.g. As a dedicated amplifier, a pedal keyboard or a soundtrack, are typically front panel switches and - Controlled control buttons. To accommodate the processing requirements for different styles of music, the user hears the desired functions, e.g. Amplification, filtering, tone equalization, and sound effects, and selects them manually by adjusting the switch positions and rotating the control knobs. If playing styles change or change to a different tune, the user must temporarily pause the playback to make adjustments to the audio amplifier or other signal processing equipment. In some digital or analog instruments, the user can configure and save preferred settings as defaults and then later manually select the stored settings or factory default settings for the instrument.

In professionellen Anwendungen kann ein Techniker Einstellungen am Audioverstärker oder an einer anderen Signalverarbeitungsausrüstung durchführen, während der Künstler darbietet, aber die Synchronisation zwischen dem Künstler und dem Techniker ist gewöhnlich geringer als ideal. Wenn der Künstler den Angriff an den Saiten oder den Stimmgehalt ändert oder eine neue Komposition beginnt, muss der Techniker die Künstlerhandlung vorhersehen und dementsprechend manuelle Einstellungen am Audioverstärker durchführen. In den meisten, wenn nicht allen Fällen wird der Audioverstärker selten auf die musikalischen Klänge optimiert, zumindest nicht auf notenweiser Basis.In professional applications, a technician can make adjustments to the audio amplifier or other signal processing equipment while the artist performs, but the synchronization between the artist and the technician is usually less than ideal. If the artist changes the attack on the strings or the vocal part or starts a new composition, the technician has to anticipate the act of the artist and make manual adjustments to the audio amplifier accordingly. In most, if not all cases, the audio amplifier is rarely optimized for the musical sounds, at least not on a note-by-note basis.

Zusammenfassung der ErfindungSummary of the invention

Es existiert ein Bedarf am dynamischen Steuern eines Audioverstärkers oder einer anderen Signalverarbeitungsausrüstung in Echtzeit. Folglich ist die vorliegende Erfindung in einem Ausführungsbeispiel ein Audiosystem mit einem Signalprozessor, der zum Empfangen eines Audiosignals gekoppelt ist. Der dynamische Inhalt des Audiosignals steuert den Betrieb des Signalprozessors.There is a need for dynamically controlling an audio amplifier or other signal processing equipment in real time. Thus, in one embodiment, the present invention is an audio system having a signal processor coupled to receive an audio signal. The dynamic content of the audio signal controls the operation of the signal processor.

In einem weiteren Ausführungsbeispiel ist die vorliegende Erfindung ein Verfahren zum Steuern eines Audiosystems mit den Schritten des Bereitstellens eines Signalprozessors, der zum Empfangen eines Audiosignals ausgelegt ist, und des Steuerns des Betriebs des Signalprozessors unter Verwendung des dynamischen Inhalts des Audiosignals.In another embodiment, the present invention is a method of controlling an audio system comprising the steps of providing a signal processor configured to receive an audio signal and controlling the operation of the signal processor using the dynamic content of the audio signal.

In einem weiteren Ausführungsbeispiel ist die vorliegende Erfindung ein Audiosystem mit einem Signalprozessor, der zum Empfangen eines Audiosignals gekoppelt ist. Ein Zeitbereichsprozessor empfängt das Audiosignal und erzeugt Zeitbereichsparameter des Audiosignals. Ein Frequenzbereichsprozessor empfängt das Audiosignal und erzeugt Frequenzbereichsparameter des Audiosignals. Eine Signaturdatenbank umfasst eine Vielzahl von Signaturdatensätzen mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparameter. Ein Erkennungsdetektor vergleicht die Zeitbereichsparameter und Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank. Die Steuerparameter des passenden Signaturdatensatzes steuern den Betrieb des Signalprozessors.In another embodiment, the present invention is an audio system having a signal processor coupled to receive an audio signal. A time domain processor receives the audio signal and generates time domain parameters of the audio signal. A frequency domain processor receives the audio signal and generates frequency domain parameters of the audio signal. A signature database comprises a plurality of signature data records, each having time domain parameters and frequency domain parameters and control parameters. A recognition detector compares the time domain parameters and frequency domain parameters of the audio signal with a signature data set of the signature database. The control parameters of the matching signature data set control the operation of the signal processor.

In einem weiteren Ausführungsbeispiel ist die vorliegende Erfindung ein Verfahren zum Steuern eines Audiosystems mit den Schritten des Bereitstellens eines Signalprozessors, der zum Empfangen eines Audiosignals ausgelegt ist, des Erzeugens von Zeitbereichsparametern des Audiosignals, des Erzeugens von Frequenzbereichsparametern des Audiosignals, des Vorsehens einer Signaturdatenbank mit einer Vielzahl von Signaturdatensätzen mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparametern, des Vergleichens der Zeitbereichsparameter und der Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank und des Steuerns des Betriebs des Signalprozessors auf der Basis der Steuerparameter des passenden Signaturdatensatzes.In another embodiment, the present invention is a method of controlling an audio system comprising the steps of providing a signal processor adapted to receive an audio signal, generating time domain parameters of the audio signal, generating frequency domain parameters of the audio signal, providing a signature database with a A plurality of signature data sets each having time domain parameters and frequency domain parameters and control parameters, comparing the time domain parameters and the frequency domain parameters of the audio signal with a signature database of the signature database and controlling the operation of the signal processor based on the control parameters of the matching signature data set.

Kurzbeschreibung der ZeichnungenBrief description of the drawings

1 stellt eine Audioklangquelle dar, die ein Audiosignal erzeugt und das Audiosignal durch eine Signalverarbeitungsausrüstung zu einem Lautsprecher leitet; 1 represents an audio sound source which generates an audio signal and passes the audio signal to a speaker through signal processing equipment;

2 stellt eine Gitarre dar, die mit einem Audioklangsystem verbunden ist; 2 Fig. 10 illustrates a guitar connected to an audio sound system;

3 stellt eine Vorderansicht des Audiosystemgehäuses mit einem Frontbedienfeld dar; 3 illustrates a front view of the audio system housing with a front panel;

4 stellt ein weiteres Detail des Fronbedienfeldes des Audiosystems dar; 4 represents another detail of the front panel of the audio system;

5 stellt einen Audioverstärker und einen Lautsprecher in separaten Gehäusen dar; 5 illustrates an audio amplifier and speaker in separate housings;

6 stellt ein Blockdiagramm des Audioverstärkers mit adaptiver Intelligenzsteuerung dar; 6 FIG. 12 is a block diagram of the adaptive intelligence control audio amplifier; FIG.

7a7b stellen Wellenformdiagramme des Audiosignals dar; 7a - 7b represent waveform diagrams of the audio signal;

8 stellt ein Blockdiagramm des Frequenzbereichs- und des Zeitbereichsanalyseblocks dar; 8th Fig. 12 is a block diagram of the frequency domain and time domain analysis block;

9a9b stellen Zeitsequenzrahmen des abgetasteten Audiosignals dar; 9a - 9b represent time sequence frames of the sampled audio signal;

10 stellt ein Blockdiagramm des Zeitbereichsanalyseblocks dar; 10 Fig. 12 is a block diagram of the time domain analysis block;

11 stellt ein Blockdiagramm des Zeitbereichs-Energiepegel-Isolationsblocks in Frequenzbändern dar; 11 FIG. 12 illustrates a block diagram of the time domain energy level isolation block in frequency bands; FIG.

12 stellt ein Blockdiagramm des Zeitbereichs-Notendetektorblocks dar; 12 Fig. 12 is a block diagram of the time domain not detector block;

13 stellt ein Blockdiagramm des Zeitbereichseinsatzdetektors dar; 13 Fig. 12 is a block diagram of the time domain insert detector;

14 stellt ein weiteres Ausführungsbeispiel des Zeitbereichseinsatzdetektors dar; 14 illustrates another embodiment of the time domain insert detector;

15 stellt ein Blockdiagramm des Frequenzbereichsanalyseblocks dar; 15 Fig. 10 is a block diagram of the frequency domain analysis block;

16 stellt ein Blockdiagramm des Frequenzbereichs-Notendetektorblocks dar; 16 Fig. 10 is a block diagram of the frequency domain not detector block;

17 stellt ein Blockdiagramm der Energiepegelisolation in Frequenzintervallbereichen dar; 17 FIG. 12 is a block diagram of energy level isolation in frequency interval ranges; FIG.

18 stellt ein Blockdiagramm des Frequenzbereichseinsatzdetektors dar; 18 Fig. 10 is a block diagram of the frequency domain insert detector;

19 stellt ein weiteres Ausführungsbeispiel des Frequenzbereichseinsatzdetektors dar; 19 illustrates another embodiment of the frequency domain insert detector;

20 stellt die Notensignaturdatenbank mit Parameterwerten, Gewichtungswerten und Steuerparametern dar; 20 represents the note signature database with parameter values, weighting values and control parameters;

21 stellt eine Computerschnittstelle zur Notensignaturdatenbank dar; 21 represents a computer interface to the note signature database;

22 stellt einen Erkennungsdetektor für die Laufzeitmatrix und die Notensignaturdatenbank dar; 22 represents a recognition detector for the runtime matrix and the note signature database;

23 stellt ein Ausführungsbeispiel dar, wobei die adaptive Intelligenzsteuerung mit einer separaten Signalverarbeitungsausrüstung, einem separaten Audioverstärker und einem separaten Lautsprecher implementiert wird; 23 FIG. 12 illustrates an embodiment wherein the adaptive intelligence controller is implemented with separate signal processing equipment, a separate audio amplifier, and a separate speaker;

24 stellt die Signalverarbeitungsausrüstung als Computer implementiert dar; 24 represents the signal processing equipment implemented as a computer;

25 stellt ein Blockdiagramm der Signalverarbeitungsfunktion innerhalb des Computers dar; 25 Fig. 12 is a block diagram of the signal processing function within the computer;

26 stellt die Signalverarbeitungsausrüstung als Pedalklaviatur implementiert dar; 26 represents the signal processing equipment implemented as a pedal keyboard;

27 stellt die Signalverarbeitungsausrüstung als Signalverarbeitungsgehäuse implementiert dar; 27 depicts the signal processing equipment implemented as a signal processor housing;

28 stellt eine Stimmklangquelle dar, die zu einem Audioverstärker und einem Lautsprecher geleitet wird; 28 represents a vocal sound source which is routed to an audio amplifier and a speaker;

29 stellt ein Blockdiagramm des Audioverstärkers mit adaptiver Intelligenzsteuerung auf einer rahmenweisen Basis dar; 29 FIG. 12 illustrates a block diagram of the adaptive intelligence control audio amplifier on a frame by frame basis; FIG.

30 stellt ein Blockdiagramm des Frequenzbereichs- und Zeitbereichsanalyseblocks auf einer rahmenweisen Basis dar; 30 FIG. 12 illustrates a block diagram of the frequency domain and time domain analysis block on a frame by frame basis; FIG.

31a31b stellen Zeitsequenzrahmen des abgetasteten Audiosignals dar; 31a - 31b represent time sequence frames of the sampled audio signal;

32 stellt ein Blockdiagramm des Zeitbereichsanalyseblocks dar; 32 Fig. 12 is a block diagram of the time domain analysis block;

33 stellt ein Blockdiagramm des Zeitbereichs-Energiepegel-Isolationsblocks in Frequenzbändern dar; 33 FIG. 12 illustrates a block diagram of the time domain energy level isolation block in frequency bands; FIG.

34 stellt ein Blockdiagramm des Frequenzbereichsanalyseblocks dar; 34 Fig. 10 is a block diagram of the frequency domain analysis block;

35 stellt die Rahmensignaturdatenbank mit einem Parameterwert, Gewichtungswerten und Steuerparametern dar; 35 represents the frame signature database with a parameter value, weighting values and control parameters;

36 stellt eine Computerschnittstelle zur Rahmensignaturdatenbank dar; und 36 represents a computer interface to the frame signature database; and

37 stellt einen Erkennungsdetektor für die Laufzeitmatrix und die Rahmensignaturdatenbank dar. 37 represents a recognition detector for the runtime matrix and the frame signature database.

Ausführliche Beschreibung der ZeichnungenDetailed description of the drawings

Die vorliegende Erfindung wird in einem oder mehreren Ausführungsbeispielen in der folgenden Beschreibung mit Bezug auf die Figuren beschrieben, in denen gleiche Ziffern dieselben oder ähnliche Elemente darstellen. Obwohl die Erfindung hinsichtlich der besten Art zum Erreichen der Ziele der Erfindung beschrieben wird, ist für den Fachmann auf dem Gebiet zu erkennen, dass sie Alternativen, Modifikationen und Äquivalente abdecken soll, die innerhalb des Gedankens und Schutzbereichs der Erfindung enthalten sein können, wie durch die beigefügten Ansprüche und ihre Äquivalente definiert, wie durch die folgende Offenbarung und die folgenden Zeichnungen unterstützt.The present invention will be described in one or more embodiments in the following description with reference to the figures in which like numerals represent the same or similar elements. Although the invention is described in terms of the best mode for achieving the objects of the invention, it will be apparent to those skilled in the art that it is intended to cover alternatives, modifications and equivalents which may be included within the spirit and scope of the invention as by defines the appended claims and their equivalents as supported by the following disclosure and drawings.

Mit Bezug auf 1 umfasst ein Audioklangsystem 10 eine Audioklangquelle 12, die elektrische Signale erzeugt, die Klanginhalt darstellen. Die Audioklangquelle 12 kann ein Musikinstrument, ein Audiomikrophon, ein Multimediaplayer oder eine andere Vorrichtung sein, die in der Lage ist, elektrische Signale zu erzeugen, die Klanginhalt darstellen. Das Musikinstrument kann eine elektrische Gitarre, eine Bassgitarre, eine Violine, ein Horn, ein Blechblasinstrument, Trommeln, ein Blasinstrument, ein Saiteninstrument, ein Klavier, ein elektrisches Keyboard und ein Schlagzeug sein, um nur einige zu nennen. Die elektrischen Signale von der Audioklangquelle 12 werden durch ein Audiokabel 14 zu einer Signalverarbeitungsausrüstung 16 zur Signalaufbereitung und Leistungsverstärkung geleitet. Die Signalverarbeitungsausrüstung 16 kann ein Audioverstärker, ein Computer, eine Pedalklaviatur, ein Signalverarbeitungsgehäuse oder eine andere Ausrüstung sein, die in der Lage ist, Signalverarbeitungsfunktionen an dem Audiosignal durchzuführen. Die Signalverarbeitungsfunktion kann Verstärkung, Filterung, Entzerrung, Klangeffekte und vom Benutzer definierte Module, die den Leistungspegel einstellen und die Signaleigenschaften des Audiosignals verbessern, umfassen. Das signalaufbereitete Audiosignal wird durch ein Audiokabel 17 zu einem Lautsprecher 18 geleitet, um den Klanginhalt der Audioklangquelle 12 mit den durch die Signalverarbeitungsausrüstung 16 in das Audiosignal eingeführten Verbesserungen wiederzugeben.Regarding 1 includes an audio sound system 10 an audio sound source 12 which generates electrical signals that represent sound content. The audio sound source 12 may be a musical instrument, an audio microphone, a multimedia player, or other device capable of producing electrical signals that represent sound content. The musical instrument may be an electric guitar, a bass guitar, a violin, a horn, a brass instrument, drums, a wind instrument, a string instrument, a piano, an electric keyboard, and drums, to name but a few. The electrical signals from the audio sound source 12 be through an audio cable 14 to a signal processing equipment 16 directed to signal conditioning and power amplification. The signal processing equipment 16 may be an audio amplifier, a computer, a pedal keyboard, a signal processing cabinet, or other equipment capable of performing signal processing functions on the audio signal. The signal processing function may include amplification, filtering, equalization, sound effects, and user-defined modules that adjust the power level and enhance the signal characteristics of the audio signal. The signal-processed audio signal is through an audio cable 17 to a speaker 18 directed to the sound content of the audio sound source 12 with those through the signal processing equipment 16 to reproduce the improvements introduced in the audio signal.

2 zeigt ein Musikinstrument als Audioklangquelle 12, in diesem Fall eine elektrische Gitarre 20. Ein oder mehrere Tonabnehmer 22 sind unter den Saiten 24 der elektrischen Gitarre 20 angebracht und wandeln die Saitenbewegung oder -vibration in elektrische Signale um, die die beabsichtigten Töne von den vibrierenden Saiten darstellen. Die elektrischen Signale von der Gitarre 20 werden durch ein Audiokabel 26 zu einer Audioeingangsbuchse am Frontbedienfeld 30 des Audiosystems 32 für die Signalverarbeitung und Leistungsverstärkung geleitet. Das Audiosystem 32 umfasst einen Audioverstärker und Lautsprecher, die gemeinsam innerhalb des Gehäuses 34 angeordnet sind. Die durch den Audioverstärker vorgesehene Signalaufbereitung kann Verstärkung, Filterung, Entzerrung, Klangeffekte, vom Benutzer definierte Module und andere Signalverarbeitungsfunktionen umfassen, die den Leistungspegel einstellen und die Signaleigenschaften des Audiosignals verbessern. Das signalaufbereitete Audio wird innerhalb des Audiosystems 32 zum Lautsprecher geleitet. Die Leistungsverstärkung erhöht oder verringert den Leistungspegel und die Signalstärke des Audiosignals, um den Lautsprecher anzusteuern und den Klanginhalt, der durch die vibrierenden Saiten 24 der elektrischen Gitarre 20 beabsichtigt ist, mit den durch den Audioverstärker in das Audiosignal eingeführten Verbesserungen wiederzugeben. Das Frontbedienfeld 30 umfasst eine Anzeige und Steuerknöpfe, um dem Benutzer zu ermöglichen, verschiedene Einstellungen des Audiosystems 32 zu überwachen und manuell zu steuern. 2 shows a musical instrument as an audio sound source 12 , in this case an electric guitar 20 , One or more pickups 22 are under the strings 24 the electric guitar 20 and convert the string movement or vibration into electrical signals representing the intended sounds from the vibrating strings. The electrical signals from the guitar 20 be through an audio cable 26 to an audio input jack on the front panel 30 of the audio system 32 directed for signal processing and power amplification. The audio system 32 includes an audio amplifier and speakers that work together inside the case 34 are arranged. The signal conditioning provided by the audio amplifier may include amplification, filtering, equalization, sound effects, user defined modules, and other signal processing functions that adjust the power level and improve the signal characteristics of the audio signal. The signal-processed audio is within the audio system 32 directed to the speaker. The power gain increases or decreases the power level and signal strength of the audio signal to drive the speaker and the sound content produced by the vibrating strings 24 the electric guitar 20 is intended to play with the improvements introduced by the audio amplifier into the audio signal. The front panel 30 includes a display and control buttons to allow the user to adjust various settings of the audio system 32 to monitor and manually control.

3 zeigt eine Vorderansicht des Audiosystems 32. Als anfängliche Beobachtung sind der Formfaktor und die Aufstandsfläche des Audiosystems 32 für die tragbare Verwendung und leichte Transportfähigkeit ausgelegt. Das Audiosystem 32 misst etwa 13 Zoll in der Höhe, 15 Zoll in der Breite und 7 Zoll in der Tiefe und wiegt etwa 16 Pfund. Ein Tragegriff oder Riemen 40 ist vorgesehen, um die Merkmale der Tragbarkeit und des leichten Transports zu unterstützen. Das Audiosystem 32 weist ein Gehäuse 42 auf, das durch einen gefalteten Aluminiumeinbaurahmen, einen Holzschrank, eine schwarze Vinylabdeckung, ein Frontbedienfeld und eine Gewebebespannung über dem Lautsprecherbereich 44 definiert ist. Das Frontbedienfeld 30 weist Verbindungen für den Audioeingang, einen Kopfhörer, Steuertasten und -knöpfe, eine Flüssigkristallanzeige (LCD) und digitale Musikinstrumentschnittstellen-(MIDI)Eingangs/Ausgangs-(E/A) Buchsen auf:
Ein weiteres Detail des Frontbedienfeldes 30 des Audiosystems 32 ist in 4 gezeigt. Die externen Merkmale des Audiosystems 32 umfassen eine Audioeingangsbuchse 50 zum Aufnehmen des Audiokabels 26 von der Gitarre 20 oder anderen Musikinstrumenten, eine Kopfhörerbuchse 52 zum Verbinden mit externen Kopfhörern, ein programmierbares Bedienfeld 54, Steuerknöpfe 56 und MIDI-E/A-Buchsen 58. Die Steuerknöpfe 56 sind zusätzlich zum programmierbaren Bedienfeld 54 für Audiosteuerfunktionen vorgesehen, auf die häufig vom Benutzer zugegriffen wird. In einem Ausführungsbeispiel sehen die Steuerknöpfe 56 eine Benutzersteuerung der Lautstärke und des Tons vor. Zusätzliche Steuerknöpfe 56 können den Frequenzgang, die Entzerrung und andere Klangsteuerfunktionen steuern.
3 shows a front view of the audio system 32 , As an initial observation, the form factor and the footprint of the audio system 32 designed for portable use and easy transport. The audio system 32 measures about 13 inches in height, 15 inches in width, and 7 inches in depth, and weighs about 16 pounds. A carrying handle or strap 40 is intended to support the characteristics of portability and ease of transport. The audio system 32 has a housing 42 by a folded aluminum frame, a wooden cabinet, a black vinyl cover, a front panel and a fabric tension over the speaker area 44 is defined. The front panel 30 has audio input connections, headphones, control buttons and buttons, liquid crystal display (LCD) and digital musical instrument interface (MIDI) input / output (I / O) jacks:
Another detail of the front panel 30 of the audio system 32 is in 4 shown. The external features of the audio system 32 include an audio input jack 50 to record the audio cable 26 from the guitar 20 or other musical instruments, a headphone jack 52 For connecting to external headphones, a programmable control panel 54 , Control buttons 56 and MIDI I / O jacks 58 , The control buttons 56 are in addition to the programmable control panel 54 intended for audio control functions that are frequently accessed by the user. In one embodiment, the control buttons see 56 a user control of volume and sound. Additional control buttons 56 can control the frequency response, equalization and other sound control functions.

Das programmierbare Bedienfeld 54 umfasst eine LCD 60, Funktionsmodustasten 62, Auswahltasten 64 und einen Einstellknopf oder ein Datenrad 66. Die Funktionsmodustasten 62 und Auswahltasten 64 sind Elastomerkautschukblöcke für weiche Berührung und lange Lebensdauer. Alternativ können die Tasten harter Kunststoff mit mikroelektronischen Schaltern mit taktischer Rückkopplung sein. Das Audiosystem 32 ist vollständig programmierbar, menügesteuert und verwendet eine Software zum Konfigurieren und Steuern der Klangwiedergabemerkmale. Die Kombination der Funktionsmodustasten 62, der Auswahltasten 64 und des Datenrades 66 sieht eine Steuerung für die Benutzerschnittstelle über die verschiedenen Betriebsarten, einen Zugriff auf Menüs zum Auswählen und Bearbeiten von Funktionen und eine Konfiguration des Audiosystems 32 vor. Das programmierbare Bedienfeld 54 des Audiosystems 32 kann auch LEDs als Indikatoren für Sync/Abgriff, Tempo, Speichern, Aufzeichnen und Leistungsfunktionen umfassen.The programmable control panel 54 includes an LCD 60 , Function mode keys 62 , Selection keys 64 and a knob or dial 66 , The function mode keys 62 and selection buttons 64 are elastomeric rubber blocks for soft touch and long life. Alternatively, the keys may be hard plastic with microelectronic switches with tactical feedback. The audio system 32 is fully programmable, menu driven, and uses software to configure and control the sound reproduction features. The combination of the function mode keys 62 , the selection buttons 64 and the data wheel 66 provides user interface control over the various modes of operation, access to menus for selecting and editing functions, and configuration of the audio system 32 in front. The programmable control panel 54 of the audio system 32 can also include LEDs as indicators for sync / tapping, tempo, storage, recording and performance features.

Im Allgemeinen ist das programmierbare Bedienfeld 54 die Benutzerschnittstelle für die vollständig programmierbare, menügesteuerte Konfiguration und die Steuerung der elektrischen Funktionen innerhalb des Audiosystems 32. Die LCD 60 ändert sich mit den Benutzerauswahlen, um viele verschiedene Konfigurations- und Betriebsmenüs und -optionen bereitzustellen. Die Betriebsarten können Start und Selbsttest, Wiedergabe, Bearbeitung, Dienstprogramm, Speichern und Tuner umfassen. In einer Betriebsart zeigt die LCD 60 den Wiedergabemodus des Audiosystems 32. In einer anderen Betriebsart zeigt die LCD 60 die MIDI-Datenübertragung im Prozess an. In einer anderen Betriebsart zeigt die LCD 60 eine Vorgabeeinstellung und Vorgaben an. In noch einer anderen Betriebsart zeigt die LCD 60 einen Abstimmungsesser an.In general, the programmable control panel 54 the user interface for fully programmable, menu driven configuration and control of electrical functions within the audio system 32 , The LCD 60 changes with user selections to provide many different configuration and operation menus and options. The modes may include startup and self-test, playback, edit, utility, save, and tuner. In one operating mode, the LCD shows 60 the playback mode of the audio system 32 , In another mode, the LCD will show 60 the MIDI data transfer in the process. In another mode, the LCD will show 60 a default setting and preferences. In yet another mode, the LCD shows 60 a voting knife.

Wenn man sich 5 zuwendet, kann das Audiosystem auch mit einem Audioverstärker, der innerhalb eines ersten Gehäuses 70 enthalten ist, und einem Lautsprecher, der innerhalb eines zweiten separaten Gehäuses 72 aufgenommen ist, implementiert werden. In diesem Fall ist das Audiokabel 26 von der Gitarre 20 zur Audioeingangsbuchse 74 geleitet, die mit dem Audioverstärker innerhalb des Gehäuses 70 zur Leistungsverstärkung und Signalverarbeitung verbunden ist. Steuerknöpfe 76 am Frontbedienfeld 78 des Gehäuses 70 ermöglichen dem Benutzer, verschiedene Einstellungen des Audioverstärkers zu überwachen und manuell zu steuern. Das Gehäuse 70 ist durch das Audiokabel 80 mit dem Gehäuse 72 elektrisch verbunden, um das verstärkte und aufbereitete Audiosignal zu den Lautsprechern 82 zu leiten.If you 5 The audio system can also use an audio amplifier inside a first housing 70 is included, and a speaker inside a second separate housing 72 is implemented. In this case, the audio cable is 26 from the guitar 20 to the audio input jack 74 which are connected to the audio amplifier inside the case 70 for power amplification and signal processing. control buttons 76 at the front panel 78 of the housing 70 allow the user to monitor and manually control various settings of the audio amplifier. The housing 70 is through the audio cable 80 with the housing 72 electrically connected to the amplified and conditioned audio signal to the speakers 82 to lead.

Bei der Audiowiedergabe ist es üblich, eine Vielfalt von Signalverarbeitungstechniken in Abhängigkeit vom Inhalt der Audioquelle zu verwenden, z. B. Darbietung oder Wiedergabestil, um eine bessere Klangqualität, Spielbarkeit zu erreichen und die Kreativität des Künstlers sowie den Genuss und die Anerkennung der Komposition durch den Zuhörer anderweitig zu verbessern. Bassspieler verwenden beispielsweise verschiedene Kompressoren und Entzerrungseinstellungen, um die Klangqualität zu verbessern. Sänger verwenden verschiedene Hall- und Entzerrungseinstellungen in Abhängigkeit vom Liedtext und von der Melodie des Liedes. Musikproduzenten verwenden Nachverarbeitungseffekte, um die Komposition zu verbessern. Für Heim- und Autoklangsysteme kann der Benutzer verschiedene Hall- und Entzerrungsvorgaben wählen, um die Wiedergabe von klassischer oder Rockmusik zu optimieren.In audio playback, it is common to use a variety of signal processing techniques depending on the content of the audio source, e.g. Performance or style of play to achieve better sound quality, playability, and otherwise enhance the artist's creativity and enjoyment and appreciation of the composition by the listener. For example, bass players use different compressors and equalization settings to improve the sound quality. Singers use different reverb and equalization settings depending on the lyrics and melody of the song. Music producers use post-processing effects to improve the composition. For home and car sound systems, the user can choose different reverb and equalization presets to optimize the performance of classical or rock music.

6 ist ein Blockdiagramm des Audioverstärkers 90, der in Abhängigkeit von der Audiosystemkonfiguration innerhalb des Audiosystems 32 oder innerhalb des Audioverstärkergehäuses 70 enthalten ist. Der Audioverstärker 90 empfängt Audiosignale von der Gitarre 20 durch das Audiokabel 26. Der Audioverstärker 90 führt eine Verstärkung und andere Signalverarbeitungsfunktionen wie z. B. Entzerrung, Filterung, Klangeffekte und vom Benutzer definierte Module am Audiosignal durch, um den Leistungspegel einzustellen und die Signaleigenschaften für die Hörerfahrung anderweitig zu verbessern. 6 is a block diagram of the audio amplifier 90 which depends on the audio system configuration within the audio system 32 or within the audio amplifier enclosure 70 is included. The audio amplifier 90 receives audio signals from the guitar 20 through the audio cable 26 , The audio amplifier 90 carries a gain and other signal processing functions such. B. equalization, filtering, sound effects and user-defined modules on the audio signal to adjust the power level and otherwise improve the signal characteristics for the listening experience.

Um den Signalverarbeitungsanforderungen gemäß dem dynamischen Inhalt der Audioquelle Rechnung zu tragen, verwendet der Audioverstärker 90 ein Merkmal dynamischer adaptiver Intelligenz, das Frequenzbereichsanalyse und Zeitbereichsanalyse des Audiosignals auf rahmenweiser Basis beinhaltet und den Betrieb der Signalverarbeitungsfunktionen und Einstellungen innerhalb des Audioverstärkers automatisch und adaptiv steuert, um eine optimale Klangwiedergabe zu erreichen. Jeder Rahmen enthält eine vorbestimmte Anzahl von Abtastwerten des Audiosignals, z. B. 32–1024 Abtastwerte pro Rahmen. Jeder ankommende Rahmen des Audiosignals wird auf einer rahmenweisen Basis detektiert und analysiert, um seinen Zeitbereichs- und Frequenzbereichsinhalt und seine Charakteristiken zu bestimmen. Die ankommenden Rahmen des Audiosignals werden mit einer Datenbank von festgelegten oder gelernten Notensignaturen verglichen, um eine beste Übereinstimmung oder engste Korrelation des ankommenden Rahmens mit der Datenbank von Notensignaturen zu bestimmen. Die Notensignaturen von der Datenbank enthalten Steuerparameter, um die Signalverarbeitungskomponenten des Audioverstärkers 90 zu konfigurieren. Die am besten passende Notensignatur steuert den Audioverstärker 90 in Echtzeit, um kontinuierlich und automatisch Einstellungen an den Signalverarbeitungsfunktionen für eine optimale Klangwiedergabe durchzuführen. Auf der Basis der Notensignatur kann beispielsweise die Verstärkung des Audiosignals für diesen speziellen Rahmen des Audiosignals automatisch erhöht oder verringert werden. Vorgaben und Klangeffekte können für die gespielte Note automatisch eingeschaltet oder entfernt werden. Der nächste Rahmen in der Sequenz kann derselben Note zugeordnet sein, die mit derselben Notensignatur in der Datenbank übereinstimmt, oder der nächste Rahmen in der Sequenz kann einer anderen Note zugeordnet sein, die mit einer anderen entsprechenden Notensignatur in der Datenbank übereinstimmt. Jeder Rahmen des Audiosignals wird erkannt und mit einer Notensignatur verglichen, die wiederum den Betrieb der Signalverarbeitungsfunktion innerhalb des Audioverstärkers 90 für optimale Klangwiedergabe steuert. Die Signalverarbeitungsfunktion des Audioverstärkers 90 wird gemäß der am besten passenden Notensignatur entsprechend jedem individuellen ankommenden Rahmen des Audiosignals eingestellt, um seine Wiedergabe zu verbessern.To accommodate the signal processing requirements according to the dynamic content of the audio source, the audio amplifier uses 90 a feature of dynamic adaptive intelligence that Includes frequency domain analysis and time domain analysis of the audio signal on a frame by frame basis, and automatically and adaptively controls the operation of the signal processing functions and settings within the audio amplifier for optimal sound reproduction. Each frame contains a predetermined number of samples of the audio signal, e.g. B. 32-1024 samples per frame. Each incoming frame of the audio signal is detected on a frame-by-frame basis and analyzed to determine its time domain and frequency domain content and characteristics. The incoming frames of the audio signal are compared to a database of fixed or learned note signatures to determine a best match or closest correlation of the incoming frame with the database of note signatures. The note signatures from the database contain control parameters to the signal processing components of the audio amplifier 90 to configure. The most suitable note signature controls the audio amplifier 90 in real-time to continuously and automatically adjust the signal processing functions for optimal sound reproduction. For example, based on the note signature, the gain of the audio signal for that particular frame of the audio signal may be automatically increased or decreased. Presets and sound effects can be automatically turned on or removed for the note being played. The next frame in the sequence may be associated with the same note that matches the same note signature in the database, or the next frame in the sequence may be associated with a different note that matches another corresponding note signature in the database. Each frame of the audio signal is detected and compared with a note signature, which in turn controls the operation of the signal processing function within the audio amplifier 90 for optimal sound reproduction controls. The signal processing function of the audio amplifier 90 is set according to the most appropriate note signature corresponding to each individual incoming frame of the audio signal to improve its reproduction.

Das Merkmal adaptiver Intelligenz des Audioverstärkers 90 kann Attribute jeder Note des Audiosignals lernen und Einstellungen auf der Basis einer Benutzerrückkopplung durchführen. Wenn beispielsweise der Benutzer mehr oder weniger Verstärkung oder Entzerrung oder die Einführung eines speziellen Klangeffekts für eine gegebene Note wünscht, dann baut der Audioverstärker diese Benutzervorlieben in die Steuerparameter der Signalverarbeitungsfunktion ein, um die optimale Klangwiedergabe zu erreichen. Die Datenbank von Notensignaturen mit korrelierten Steuerparametern führt Echtzeiteinstellungen an der Signalverarbeitungsfunktion durch. Der Benutzer kann Audiomodule, Effekte und Einstellungen definieren, die in die Datenbank des Audioverstärkers 90 integriert werden. Mit adaptiver Intelligenz kann der Audioverstärker 90 Tonmodule und -einstellungen detektieren und automatisch auf das Audiosignal auf der Basis der vorliegenden Notensignatur anwenden. Der Audioverstärker 90 kann zwischen ähnlichen passenden Notensignaturen nach Bedarf interpolieren, um die beste Wahl für die momentane Signalverarbeitungsfunktion auszuwählen.The feature of adaptive intelligence of the audio amplifier 90 can learn attributes of each note of the audio signal and make adjustments based on user feedback. For example, if the user desires more or less gain or equalization or the introduction of a particular sound effect for a given note, then the audio amplifier incorporates these user preferences into the control parameters of the signal processing function to achieve optimal sound reproduction. The database of note signatures with correlated control parameters performs real-time adjustments to the signal processing function. The user can define audio modules, effects and settings in the database of the audio amplifier 90 to get integrated. With adaptive intelligence, the audio amplifier can 90 Detect sound modules and settings and automatically apply to the audio signal based on the existing note signature. The audio amplifier 90 can interpolate between similar matching note signatures as needed to select the best choice for the current signal processing function.

Mit Fortsetzung mit 6 weist der Audioverstärker 90 einen Signalverarbeitungspfad für das Audiosignal mit einem Vorfilterblock 92, einem Voreffektblock 94, einem Block 96 für nicht-lineare Effekte, vom Benutzer definierten Modulen 98, einem Nacheffektblock 100, einem Nachfilterblock 102 und einem Leistungsverstärkungsblock 104 auf. Der Vorfilterblock 92 und der Nachfilterblock 102 sehen verschiedene Filterfunktionen wie z. B. Tiefpassfilterung und Bandpassfilterung des Audiosignals vor. Die Vorfilterung und Nachfilterung können Tonentzerrungsfunktionen über verschiedene Frequenzbereiche umfassen, um die Pegel von spezifischen Frequenzen zu verstärken oder zu dämpfen, ohne sich auf benachbarte Frequenzen auszuwirken, wie z. B. Bassfrequenzeinstellung und Höhenfrequenzeinstellung. Die Tonentzerrung kann beispielsweise stufenweise Entzerrung, um alle Frequenzen über oder unter einer Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, Glockenentzerrung, um einen schmalen Bereich von Frequenzen um eine Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, graphische Entzerrung oder Parameterentzerrung verwenden. Der Voreffektblock 94 und der Nacheffektblock 100 führen Klangeffekte in das Audiosignal ein, wie z. B. Hall, Verzögerungen, Mehrfachüberlagerung, Wah, automatische Lautstärke, Phasenschieber, Brummunterdrücker, Rauschsperre, Vibrato, Tonhöhenverschiebung, Tremolo und dynamische Kompression. Der Block 96 für nicht-lineare Effekte führt nicht-lineare Effekte in das Audiosignal ein, wie z. B. m-Modellierung, Verzerrung, Übersteuerung, Unschärfe und Modulation. Der Block 98 für vom Benutzer definierte Module ermöglicht dem Benutzer, individuell angepasste Signalverarbeitungsfunktionen zu definieren, wie z. B. Hinzufügen von Begleitinstrumenten, Gesang, und Synthesizeroptionen. Der Leistungsverstärkerblock 104 sieht eine Leistungsverstärkung oder -dämpfung des Audiosignals vor. Das Audiosignal nach der Signalverarbeitung wird zu den Lautsprechern im Audiosystem 32 oder zu den Lautsprechern 82 im Gehäuse 72 geleitet.With continued with 6 has the audio amplifier 90 a signal processing path for the audio signal with a pre-filter block 92 , a pre-effect block 94 a block 96 for non-linear effects, user-defined modules 98 , a after effect block 100 , a postfilter block 102 and a power amplification block 104 on. The pre-filter block 92 and the postfilter block 102 see different filter functions such. B. low pass filtering and bandpass filtering of the audio signal before. The prefiltering and postfiltering may include tone equalization functions over various frequency ranges to enhance or attenuate the levels of specific frequencies without affecting adjacent frequencies, such as, for example: B. Bass frequency adjustment and Höhenfrequenzeinstellung. Tone equalization may, for example, use stepwise equalization to amplify or attenuate all frequencies above or below a target or fundamental frequency, bell equalization to amplify or attenuate a narrow range of frequencies around a target or fundamental frequency, graphic equalization or parameter equalization. The pre-effect block 94 and the after effect block 100 introduce sound effects into the audio signal, such as For example, reverb, delays, multiple overlays, wah, auto volume, phase shifter, humming suppressor, squelch, vibrato, pitch shift, tremolo, and dynamic compression. The block 96 for nonlinear effects, non-linear effects introduce into the audio signal, such as: M modeling, distortion, clipping, blur, and modulation. The block 98 for user defined modules allows the user to define custom signal processing functions, such as: B. adding accompaniment instruments, vocals, and synthesizer options. The power amplifier block 104 provides power amplification or attenuation of the audio signal. The audio signal after signal processing becomes the speakers in the audio system 32 or to the speakers 82 in the case 72 directed.

Der Vorfilterblock 92, der Voreffektblock 94, der Block 96 für nicht-lineare Effekte, die vom Benutzer definierten Module 98, der Nacheffektblock 100, der Nachfilterblock 102 und der Leistungsverstärkungsblock 104 innerhalb des Audioverstärkers 90 sind mit dem Frontbedienfeld 30 in 4 oder dem Frontbedienfeld 78 in 5 auswahlbar und steuerbar. Durch Drehen der Knöpfe 76 am Frontbedienfeld 78 oder unter Verwendung der LCD 60, der Funktionsmodustasten 62, der Auswahltasten 64 und des Einstellknopfs oder des Datenrades 66 des programmierbaren Bedienfeldes 54 kann der Benutzer den Betrieb der Signalverarbeitungsfunktionen innerhalb des Audioverstärkers 90 direkt steuern.The pre-filter block 92 , the pre-effect block 94 , the block 96 for non-linear effects, the user-defined modules 98 , the after effect block 100 , the post filter block 102 and the power amplification block 104 within the audio amplifier 90 are with the front panel 30 in 4 or the front panel 78 in 5 selectable and controllable. By turning the buttons 76 at the front panel 78 or under Using the LCD 60 , the function mode keys 62 , the selection buttons 64 and the adjustment knob or dial 66 of the programmable control panel 54 the user can control the operation of the signal processing functions within the audio amplifier 90 direct control.

Das Audiosignal kann von einer Vielfalt von Audioquellen stammen, wie z. B. Musikinstrumenten oder Gesang. Das Instrument kann eine elektrische Gitarre, eine Bassgitarre, eine Violine, ein Horn, ein Blechblasinstrument, Trommeln, ein Blasinstrument, ein Klavier, ein elektrisches Keyboard, ein Schlagzeug oder andere Instrumente sein, die in der Lage sind, elektrische Signale zu erzeugen, die Klanginhalt darstellen. Das Audiosignal kann von einem Audiomikrophon stammen, das von einem Mann oder einer Frau mit Stimmbereichen bedient wird, einschließlich Sopran, Mezzosopran, Alt, Tenor, Bariton und Bass. In der vorliegenden Erörterung ist das Instrument eine Gitarre 20, insbesondere eine elektrische Bassgitarre. Wenn die Saiten 24 der Bassgitarre 20 mit dem Finger des Musikers oder einem Gitarrenplektron angeregt werden, beginnt die Saite eine starke Vibration oder Schwingung, die vom Tonabnehmer 22 detektiert wird. Die Saitenvibration dämpft sich über die Zeit ab und kehrt in einen stationären Zustand zurück, wobei angenommen wird, dass die Saite nicht erneut angeregt wird, bevor die Vibration aufhört. Die anfängliche Anregung der Saiten 24 ist als Einsatzphase bekannt. Der Einsatzphase folgt eine Haltephase, während der die Saitenvibration relativ stark bleibt. Eine Abklingphase folgt der Haltephase, wenn sich die Saitenvibration abdämpft, und schließlich eine Freigabephase, wenn die Saite in einen stationären Zustand zurückkehrt. Der Tonabnehmer 22 wandelt Saitenschwingungen während der Einsatzphase, der Haltephase, der Abklingphase und der Freigabephase in ein elektrisches Signal, d. h. das analoge Audiosignal, mit einer anfänglichen und dann abfallenden Amplitude mit einer Grundfrequenz und Oberwellen der Grundfrequenz um. 7a7b stellen Amplitudengänge des Audiosignals im Zeitbereich entsprechend der Einsatzphase und Haltephase und in Abhängigkeit von der Figur der Abklingphase und Freigabephase der Saiten 24 in verschiedenen Spielmodi dar. In 7b beginnt die nächste Einsatzphase vor der Vollendung der vorherigen Abklingphase oder sogar dem Beginn der Freigabephase.The audio signal can come from a variety of audio sources, such. B. musical instruments or singing. The instrument may be an electric guitar, a bass guitar, a violin, a horn, a brass instrument, drums, a wind instrument, a piano, an electric keyboard, a drum kit, or other instruments capable of producing electrical signals that Represent sound content. The audio signal may come from an audio microphone operated by a man or woman with vocal ranges, including soprano, mezzo soprano, alto, tenor, baritone and bass. In the present discussion, the instrument is a guitar 20 , especially an electric bass guitar. When the strings 24 the bass guitar 20 With the finger of the musician or a guitar pick, the string starts a strong vibration or vibration coming from the pickup 22 is detected. The string vibration attenuates over time and returns to a steady state, assuming that the string is not re-excited before the vibration ceases. The initial stimulation of the strings 24 is known as the deployment phase. The deployment phase is followed by a hold phase during which the string vibration remains relatively strong. A decay phase follows the hold phase as the string vibration dampens, and finally a release phase as the string returns to a steady state. The pickup 22 converts string vibrations during the insertion phase, the holding phase, the decay phase and the release phase into an electrical signal, ie the analog audio signal, with an initial and then falling amplitude with a fundamental frequency and harmonics of the fundamental frequency. 7a - 7b represent amplitude responses of the audio signal in the time domain according to the use phase and holding phase and in dependence on the figure of the decay phase and release phase of the strings 24 in different game modes. In 7b The next deployment phase will begin before the completion of the previous cooldown or even the start of the release phase.

Der Künstler kann eine Vielfalt von Spielstilen verwenden, wenn er die Bassgitarre 20 spielt. Der Künstler kann beispielsweise seine Hand nahe dem Halstonabnehmer oder dem Stegtonabnehmer anordnen und die Saiten 24 mit Fingerzupfen anregen, was als ”Fingersatzstil” bekannt ist, für modernen Pop, Rhythm and Blues und Avantgarde-Stile. Der Künstler kann die Saiten 24 mit den Fingern oder der Handfläche schlagen, was als ”Schlagstil” bekannt ist, für modernen Jazz, Funk, Rhythm and Blues und Rockstile. Der Künstler kann die Saiten 24 mit dem Daumen anregen, was als ”Daumenstil” bekannt ist, für Motown Rhythm and Blues. Der Künstler kann die Saiten 24 mit zwei Händen abgreifen, wobei jede Hand Noten abgreift, was als ”Abgriffstil” bekannt ist, für Avantgarde- und Modern-Jazz-Stile. In anderen Spielstilen ist es bekannt, dass Künstler Fingersatzzubehörteile wie z. B. ein Plektron oder einen Stab verwenden. In jedem Fall vibrieren die Saiten 24 mit einer speziellen Amplitude und Frequenz und erzeugen ein eindeutiges Audiosignal gemäß den Saitenvibrationsphasen, wie z. B. in 7a und 7b gezeigt.The artist can use a variety of playing styles when playing the bass guitar 20 plays. For example, the artist can arrange his hand near the neck pickup or bridge pickup and the strings 24 with finger plucking, which is known as "fingering style", for modern pop, rhythm and blues and avant-garde styles. The artist can do the strings 24 Beat your fingers or palm with what is known as "stroke style" for modern jazz, funk, rhythm and blues, and rock styles. The artist can do the strings 24 stimulate with the thumb, which is known as "thumb style", for Motown Rhythm and Blues. The artist can do the strings 24 with two hands, each hand picking off notes known as the "tap style" for avant-garde and modern jazz styles. In other game styles it is known that artists fingering accessories such. B. use a plectrum or a rod. In any case, the strings vibrate 24 with a specific amplitude and frequency and generate a unique audio signal according to the string vibration phases, such. In 7a and 7b shown.

6 stellt ferner die dynamische adaptive Intelligenzsteuerung des Audioverstärkers 90 dar. Ein Hauptzweck des Merkmals adaptiver Intelligenz des Audioverstärkers 90 besteht darin, die Frequenzbereichscharakteristiken und Zeitbereichscharakteristiken des Audiosignals auf einer rahmenweisen Basis zu detektieren und zu isolieren und diese Informationen zu verwenden, um den Betrieb der Signalverarbeitungsfunktion des Verstärkers zu steuern. Das Audiosignal vom Audiokabel 26 wird zum Frequenzbereichs- und Zeitbereichs-Analyseblock 110 geleitet. Die Ausgabe des Blocks 110 wird zum Notensignaturblock 112 geleitet und die Ausgabe des Blocks 112 wird zum Block 114 für die adaptive Intelligenzsteuerung geleitet. Die Funktionen der Blöcke 110, 112 und 114 werden der Reihe nach erörtert. 6 further provides the dynamic adaptive intelligence control of the audio amplifier 90 A main purpose of the feature of adaptive intelligence of the audio amplifier 90 consists of detecting and isolating the frequency domain characteristics and time domain characteristics of the audio signal on a frame by frame basis and using this information to control the operation of the amplifier's signal processing function. The audio signal from the audio cable 26 becomes the frequency domain and time domain analysis block 110 directed. The output of the block 110 becomes the note signature block 112 passed and the output of the block 112 becomes the block 114 directed for adaptive intelligence control. The functions of the blocks 110 . 112 and 114 are discussed in turn.

8 stellt ein weiteres Detail des Frequenzbereichs- und Zeitbereichsanalyseblocks 110 dar, einschließlich des Audioabtastblocks 116, des Frequenzbereichsanalyseblocks 120 und des Zeitbereichsanalyseblocks 122. Das analoge Audiosignal wird an den Audioabtastblock 116 übergeben. Der Audioabtastblock 116 tastet das analoge Audiosignal, z. B. 32 bis 1024 Abtastwerte pro Sekunde, unter Verwendung eines Analog-Digital-(A/D)Wandlers ab. Das abgetastete Audiosignal 118 wird in eine Reihe von zeitlich fortschreitenden Rahmen (Rahmen 1 bis Rahmen n) gegliedert, die jeweils eine vorbestimmte Anzahl von Abtastwerten des Audiosignals enthalten. 9a zeigt den Rahmen 1, der 64 Abtastwerte des Audiosignals 118 in der Zeitsequenz enthält, den Rahmen 2, der die nächsten 64 Abtastwerte des Audiosignals 118 in der Zeitsequenz enthält, den Rahmen 3, der die nächsten 64 Abtastwerte des Audiosignals 118 in der Zeitsequenz enthält, und so weiter bis zum Rahmen n, der 64 Abtastwerte des Audiosignals 118 in der Zeitsequenz enthält. 9b zeigt überlappende Fenster 119 von Rahmen 1-n, die bei der Zeitbereich-Frequenzbereich-Umwandlung verwendet werden, wie in 15 beschrieben. Die Rahmen 1-n des abgetasteten Audiosignals 118 werden zum Frequenzbereichsanalyseblock 120 und Zeitbereichsanalyseblock 122 geleitet. 8th represents another detail of the frequency domain and time domain analysis block 110 including the audio sample block 116 , the frequency domain analysis block 120 and the time domain analysis block 122 , The analog audio signal is sent to the audio sampling block 116 to hand over. The audio sampling block 116 samples the analog audio signal, eg. 32 to 1024 samples per second, using an analog-to-digital (A / D) converter. The sampled audio signal 118 is divided into a series of temporally progressive frames (frame 1 to frame n) each containing a predetermined number of samples of the audio signal. 9a shows the frame 1, the 64 samples of the audio signal 118 in the time sequence, frame 2 contains the next 64 samples of the audio signal 118 in the time sequence, the frame 3 containing the next 64 samples of the audio signal 118 in the time sequence, and so on up to the frame n, of the 64 samples of the audio signal 118 in the time sequence contains. 9b shows overlapping windows 119 of frames 1-n used in the time domain frequency domain conversion as in 15 described. The frames 1-n of the sampled audio signal 118 become the frequency domain analysis block 120 and time domain analysis block 122 directed.

10 stellt ein weiteres Detail des Zeitbereichsanalyseblocks 122 mit dem Energiepegelisolationsblock 124 dar, der den Energiepegel jedes Rahmens des abgetasteten Audiosignals 118 in mehrere Frequenzbänder isoliert. In 11 verarbeitet der Energiepegelisolationsblock 124 jeden Rahmen des abgetasteten Audiosignals 118 in der Zeitsequenz durch das Filterfrequenzband 130130c, um spezifische Frequenzen des Audiosignals zu trennen und zu isolieren. Die Filterfrequenzbänder 130a130c können spezifische Frequenzbänder im Audiobereich von 100–10000 Hz isolieren. In einem Ausführungsbeispiel ist das Filterfrequenzband 130a ein Bandpassfilter mit einem Durchlassbereich, der bei 100 Hz zentriert ist, das Filterfrequenzband 130b ist ein Bandpassfilter mit einem Durchlassbereich, der bei 500 Hz zentriert ist, und das Filterfrequenzband 130c ist ein Bandpassfilter mit einem Durchlassbereich, der bei 1000 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 130a enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 100 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 130b enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 500 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 130c enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 1000 Hz zentriert ist. Die Ausgabe von anderen Filterfrequenzbändern enthält jeweils den Energiepegel des abgetasteten Audiosignals 118 für ein spezifisches Band. Ein Spitzendetektor 132a überwacht und speichert Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 100 Hz zentriert sind. Ein Spitzendetektor 132b überwacht und speichert Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 500 Hz zentriert sind. Ein Spitzendetektor 132c überwacht und speichert Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 1000 Hz zentriert sind. Ein Glättungsfilter 134a entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 100 Hz zentriert sind. Ein Glättungsfilter 134b entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 500 Hz zentriert sind. Ein Glättungsfilter 134c entfernt störende Komponenten der Spitzenenergiepegel und stabilisiert anderweitig das abgetastete Audiosignal 118, die bei 1000 Hz zentriert sind. Die Ausgabe der Glättungsfilter 134a134c ist die Energiepegelfunktion E(m,n) für jedes Frequenzband 1-m in jedem Rahmen n des abgetasteten Audiosignals 118. 10 represents another detail of the time domain analysis block 122 with the energy level insulation block 124 representing the energy level of each frame of the sampled audio signal 118 isolated in several frequency bands. In 11 processes the energy level isolation block 124 every frame of the sampled audio signal 118 in the time sequence through the filter frequency band 130 - 130c to separate and isolate specific frequencies of the audio signal. The filter frequency bands 130a - 130c can isolate specific frequency bands in the audio range of 100-10000 Hz. In one embodiment, the filter frequency band is 130a a bandpass filter having a passband centered at 100 Hz, the filter frequency band 130b is a bandpass filter with a passband centered at 500 Hz and the filter frequency band 130c is a bandpass filter with a passband centered at 1000 Hz. The output of the filter frequency band 130a contains the energy level of the sampled audio signal 118 which is centered at 100 Hz. The output of the filter frequency band 130b contains the energy level of the sampled audio signal 118 which is centered at 500 Hz. The output of the filter frequency band 130c contains the energy level of the sampled audio signal 118 which is centered at 1000 Hz. The output of other filter frequency bands each contains the energy level of the sampled audio signal 118 for a specific band. A top detector 132a monitors and stores peak energy levels of the sampled audio signal 118 that are centered at 100 Hz. A top detector 132b monitors and stores peak energy levels of the sampled audio signal 118 that are centered at 500 Hz. A top detector 132c monitors and stores peak energy levels of the sampled audio signal 118 that are centered at 1000 Hz. A smoothing filter 134a removes interfering components and otherwise stabilizes the peak energy levels of the sampled audio signal 118 that are centered at 100 Hz. A smoothing filter 134b removes interfering components and otherwise stabilizes the peak energy levels of the sampled audio signal 118 that are centered at 500 Hz. A smoothing filter 134c Removes interfering components of the peak power levels and otherwise stabilizes the sampled audio signal 118 that are centered at 1000 Hz. The output of the smoothing filters 134a - 134c is the energy level function E (m, n) for each frequency band 1-m in each frame n of the sampled audio signal 118 ,

Der Zeitbereichsanalyseblock 122 von 8 umfasst auch einen Notendetektorblock 125, wie in 10 gezeigt. Der Block 125 detektiert den Beginn jeder Note und sorgt für die Gliederung des abgetasteten Audiosignals in diskrete Segmente, wobei jedes Segment mit dem Beginn der Note beginnt, eine Vielzahl von Rahmen des abgetasteten Audiosignals umfasst und mit dem Beginn der nächsten Note abschließt. Im vorliegenden Ausführungsbeispiel entspricht jedes diskrete Segment des abgetasteten Audiosignals einer einzelnen Note von Musik. Der Notendetektorblock 125 ordnet die Einsatzphase der Saiten 24 als Beginn einer Note zu. Das heißt, die Einsatzphase der vibrierenden Saite 24 an der Gitarre 20 fällt mit der Detektion einer spezifischen Note zusammen. Für andere Instrumente ist die Notendetektion einer anderen physikalischen Handlung durch den Künstler zugeordnet, z. B. Drücken der Taste eines Klaviers oder eines elektrischen Keyboards, Anregen der Saite einer Harfe, Ausatmen von Luft in ein Horn, während eine oder mehrere Tasten am Horn gedrückt werden, oder Schlagen der Fläche einer Trommel mit einem Trommelstock. In jedem Fall überwacht der Notendetektorblock 125 den dynamischen Zeitbereichsinhalt des abgetasteten Audiosignals 118 und identifiziert den Beginn einer Note.The time domain analysis block 122 from 8th also includes a distress detector block 125 , as in 10 shown. The block 125 detects the beginning of each note and divides the sampled audio signal into discrete segments, each segment beginning with the beginning of the note, comprising a plurality of frames of the sampled audio signal and terminating with the beginning of the next note. In the present embodiment, each discrete segment of the sampled audio signal corresponds to a single note of music. The distress detector block 125 arranges the deployment phase of the strings 24 as the beginning of a note too. That is, the deployment phase of the vibrating string 24 on the guitar 20 coincides with the detection of a specific note. For other instruments, the emergency detection is associated with another physical act by the artist, e.g. Pressing the key of a piano or an electric keyboard, exciting the string of a harp, exhaling air into a horn while pressing one or more keys on the horn, or hitting the surface of a drum with a drumstick. In any case, the distress detector block monitors 125 the dynamic time domain content of the sampled audio signal 118 and identifies the beginning of a note.

12 zeigt ein weiteres Detail des Notendetektorblocks 125 mit dem Einsatzdetektor 136. Sobald die Energiepegelfunktion E(m,n) für jedes Frequenzband 1-m des abgetasteten Audiosignals 118 bestimmt ist, werden die Energiepegel 1-m eines Rahmens n-1 im Block 138 des Einsatzdetektors 136 gespeichert; wie in 13 gezeigt. Die Energiepegel von Frequenzbändern 1-m für den nächsten Rahmen n des abgetasteten Audiosignals 118, wie durch die Filterfrequenzbänder 130a130c, Spitzendetektoren 132a132c und Glättungsfilter 134a134c bestimmt, werden im Block 140 des Einsatzdetektors 136 gespeichert. Der Differenzblock 142 bestimmt eine Differenz zwischen den Energiepegeln von entsprechenden Bändern des gegenwärtigen Rahmens n und des vorherigen Rahmens n-1. Der Energiepegel des Frequenzbandes 1 für den Rahmen n-1 wird beispielsweise vom Energiepegel des Frequenzbandes 1 für den Rahmen n subtrahiert. Der Energiepegel des Frequenzbandes 2 für den Rahmen n-1 wird vom Energiepegel des Frequenzbandes 2 für den Rahmen n subtrahiert. Der Energiepegel des Frequenzbandes m für den Rahmen n-1 wird vom Energiepegel des Frequenzbandes m für den Rahmen n subtrahiert. Die Differenz der Energiepegel für jedes Frequenzband 1-m des Rahmens n und Rahmens n-1 werden im Summierer 144 summiert. 12 shows another detail of the distress detector block 125 with the deployment detector 136 , Once the energy level function E (m, n) for each frequency band 1-m of the sampled audio signal 118 is determined, the energy levels 1-m of a frame n-1 in the block 138 of the deployment detector 136 saved; as in 13 shown. The energy levels of frequency bands 1-m for the next frame n of the sampled audio signal 118 as through the filter frequency bands 130a - 130c , Top detectors 132a - 132c and smoothing filters 134a - 134c certainly, be in the block 140 of the deployment detector 136 saved. The difference block 142 determines a difference between the energy levels of respective bands of the current frame n and the previous frame n-1. The energy level of the frequency band 1 for the frame n-1 is subtracted, for example, from the energy level of the frequency band 1 for the frame n. The energy level of the frequency band 2 for the frame n-1 is subtracted from the energy level of the frequency band 2 for the frame n. The energy level of the frequency band m for the frame n-1 is subtracted from the energy level of the frequency band m for the frame n. The difference of the energy levels for each frequency band 1-m of the frame n and frame n-1 will be in the summer 144 summed.

Der Summierer 144 akkumuliert die Differenz der Energiepegel E(m,n) jedes Frequenzbandes 1-m des Rahmens n und des Rahmens n-1. Der Beginn einer Note tritt auf, wenn der Gesamtbetrag der Differenzen der Energiepegel E(m,n) über die ganzen überwachten Frequenzbänder 1-m für das abgetastete Audiosignal 118 einen vorbestimmten Schwellenwert überschreitet. Ein Vergleicher 146 vergleicht die Ausgabe des Summierers 144 mit einem Schwellenwert 148. Wenn die Ausgabe des Summierers 144 größer ist als der Schwellenwert 148, dann überschreitet die Akkumulation von Differenzen der Energiepegel E(m,n) über das ganze Frequenzspektrum für das abgetastete Audiosignal 118 den Schwellenwert 148 und der Beginn einer Note wird im momentanen Rahmen n detektiert. Wenn die Ausgabe des Summierers 144 geringer ist als der Schwellenwert 148, dann wird kein Beginn einer Note detektiert.The summer 144 It accumulates the difference of the energy levels E (m, n) of each frequency band 1-m of the frame n and the frame n-1. The beginning of a note occurs when the total amount of differences in energy levels E (m, n) over the entire monitored frequency bands 1-m for the sampled audio signal 118 exceeds a predetermined threshold. A comparator 146 compares the output of the summer 144 with a threshold 148 , If the output of the summer 144 is greater than the threshold 148 , then the accumulation of differences exceeds the energy level E (m, n) over the entire frequency spectrum for the sampled audio signal 118 the threshold 148 and the beginning of a Note is detected in the current frame n. If the output of the summer 144 is less than the threshold 148 , then no beginning of a note is detected.

Beim Abschluss jedes Rahmens hat der Einsatzdetektor 136 identifiziert, ob der momentane Rahmen den Beginn einer Note enthält oder ob der momentane Rahmen keinen Beginn einer Note enthält. Auf der Basis der Summierung von Differenzen von Energiepegeln E(m,n) des abgetasteten Audiosignals 118 über das ganze Spektrum von Frequenzbändern 1-m, die den Schwellenwert 148 überschreitet, kann der Einsatzdetektor 136 beispielsweise den Rahmen 1 von 9a als den Beginn einer Note enthaltend identifiziert haben, während der Rahmen 2 und Rahmen 3 von 9a keinen Beginn einer Note aufweisen. 7a stellt den Beginn einer Note am Punkt 150 im Rahmen 1 (auf der Basis der Energiepegel E(m,n) des abgetasteten Audiosignals innerhalb der Frequenzbänder 1-m) und keinen Beginn einer Note im Rahmen 2 oder Rahmen 3 dar. 7a weist eine weitere Beginndetektion einer Note am Punkt 152 auf. 7b zeigt Beginndetektionen einer Note an den Punkten 154, 156 und 158.At the conclusion of each frame has the deployment detector 136 identifies whether the current frame contains the beginning of a note or whether the current frame does not contain a beginning of a note. On the basis of the summation of differences of energy levels E (m, n) of the sampled audio signal 118 across the whole spectrum of frequency bands 1-m, which exceeds the threshold 148 exceeds, the deployment detector 136 for example, the frame 1 of 9a as having identified the beginning of a note while frame 2 and frame 3 of 9a have no beginning of a grade. 7a represents the beginning of a note at the point 150 in frame 1 (based on the energy levels E (m, n) of the sampled audio signal within the frequency bands 1-m) and no beginning of a note in frame 2 or frame 3. 7a indicates another beginning detection of a note at the point 152 on. 7b shows start detections of a note at the points 154 . 156 and 158 ,

14 stellt ein weiteres Ausführungsbeispiel des Einsatzdetektors 136 als die Energiepegel E(m,n) mit dem Summierer 160 direkt summierend dar. Der Summierer 160 akkumuliert die Energiepegel E(m,n) des Rahmens n in jedem Frequenzband 1-m für das abgetastete Audiosignal 118. Der Beginn einer Note tritt auf, wenn der Gesamtbetrag der Energiepegel E(m,n) über die ganzen überwachten Frequenzbänder 1-m für das abgetastete Audiosignal 118 einen vorbestimmten Schwellenwert überschreitet. Ein Vergleicher 162 vergleicht die Ausgabe des Summierers 160 mit einem Schwellenwert 164. Wenn die Ausgabe des Summierers 160 größer ist als der Schwellenwert 164, dann überschreitet die Akkumulation der Energiepegel E(m,n) über das ganze Frequenzspektrum für das abgetastete Audiosignal 118 den Schwellenwert 164 und der Beginn einer Note wird im momentanen Rahmen n detektiert. Wenn die Ausgabe des Summierers 160 geringer ist als der Schwellenwert 164, dann wird kein Beginn einer Note detektiert. 14 represents a further embodiment of the deployment detector 136 as the energy levels E (m, n) with the summer 160 summing up directly. The summer 160 It accumulates the energy levels E (m, n) of the frame n in each frequency band 1-m for the sampled audio signal 118 , The beginning of a note occurs when the total amount of energy levels E (m, n) over the entire monitored frequency bands 1-m for the sampled audio signal 118 exceeds a predetermined threshold. A comparator 162 compares the output of the summer 160 with a threshold 164 , If the output of the summer 160 is greater than the threshold 164 , then the accumulation exceeds the energy level E (m, n) over the entire frequency spectrum for the sampled audio signal 118 the threshold 164 and the beginning of a note is detected in the current frame n. If the output of the summer 160 is less than the threshold 164 , then no beginning of a note is detected.

Am Abschluss jedes Rahmens hat der Einsatzdetektor 136 identifiziert, ob der momentane Rahmen den Beginn einer Note enthält oder ob der momentane Rahmen keinen Beginn einer Note enthält. Auf der Basis der Summierung von Energiepegeln E(m,n) des abgetasteten Audiosignals 118 innerhalb der Frequenzbänder 1-m, die den Schwellenwert 164 überschreitet, kann der Einsatzdetektor 136 beispielsweise den Rahmen 1 von 9a als den Beginn einer Note enthaltend identifiziert haben, während der Rahmen 2 und Rahmen 3 von 9a keinen Beginn einer Note aufweisen.At the conclusion of each frame has the deployment detector 136 identifies whether the current frame contains the beginning of a note or whether the current frame does not contain a beginning of a note. On the basis of the summation of energy levels E (m, n) of the sampled audio signal 118 within the frequency bands 1-m, which is the threshold 164 exceeds, the deployment detector 136 for example, the frame 1 of 9a as having identified the beginning of a note while frame 2 and frame 3 of 9a have no beginning of a grade.

Die Gleichung (1) stellt eine weitere Darstellung der Beginndetektion einer Note bereit. g(m,n) = max(0,[E(m,n)/E(m,n-1)] – 1) (1) wobei: g(m,n) eine Maximumfunktion von Energiepegeln Ober n Rahmen von
m Frequenzbändern ist,
E(m,n) der Energiepegel des Rahmens n des Frequenzbandes m ist
E(m,n-1) der Energiepegel des Rahmens n-1 des Frequenzbandes m ist.
Equation (1) provides another illustration of the beginning detection of a note. g (m, n) = max (0, [E (m, n) / E (m, n-1)] - 1) (1) where: g (m, n) is a maximum function of energy levels above n frames of
m is frequency bands,
E (m, n) is the energy level of the frame n of the frequency band m
E (m, n-1) is the energy level of the frame n-1 of the frequency band m.

Die Funktion g(m,n) weist einen Wert für jedes Frequenzband 1-m und jeden Rahmen 1-n auf. Wenn das Verhältnis von E(m,n)/E(m,n-1), d. h. der Energiepegel des Bandes m im Rahmen n zum Energiepegel des Bandes m im Rahmen n-1, geringer ist als eins, dann ist [E(m,n)/E(m,n-1)] – 1 negativ. Der Energiepegel des Bandes m im Rahmen n ist nicht größer als der Energiepegel des Bandes m im Rahmen n-1. Die Funktion g(m,n) ist null, was auf keine Einleitung der Einsatzphase und daher keine Detektion des Beginns einer Note hinweist. Wenn das Verhältnis von E(m,n)/E(m,n-1), d. h. der Energiepegel des Bandes m im Rahmen n zum Energiepegel des Bandes m im Rahmen n-1, größer ist als eins (beispielsweise ein Wert von zwei), dann ist [E(m,n)/E(m,n-1)] – 1 positiv, d. h. ein Wert von eins. Der Energiepegel des Bandes m im Rahmen n ist größer als der Energiepegel des Bandes m im Rahmen n-1. Die Funktion g(m,n) ist der positive Wert von [E(m,n)/E(m,n-1)] – 1, der auf die Einleitung der Einsatzphase und eine mögliche Detektion des Beginns einer Note hinweist.The function g (m, n) has a value for each frequency band 1-m and each frame 1-n. When the ratio of E (m, n) / E (m, n-1), i. H. the energy level of the band m in the frame n to the energy level of the band m in the frame n-1 is less than one, then [E (m, n) / E (m, n-1)] -1 is negative. The energy level of band m in frame n is not greater than the energy level of band m in frame n-1. The function g (m, n) is zero, indicating no initiation of the insert phase and therefore no detection of the beginning of a note. When the ratio of E (m, n) / E (m, n-1), i. H. the energy level of the band m in the frame n to the energy level of the band m in the frame n-1 is greater than one (for example, a value of two), then [E (m, n) / E (m, n-1)] - 1 positive, d. H. a value of one. The energy level of band m in frame n is greater than the energy level of band m in frame n-1. The function g (m, n) is the positive value of [E (m, n) / E (m, n-1)] - 1, which indicates the initiation of the insertion phase and a possible detection of the beginning of a note.

Wenn man zu 12 zurückkehrt, leitet der Einsatzdetektor 136 die Beginndetektion einer Note zum Stillegatter 166, zum Wiederholungsgatter 168 und zum Geräuschgatter 170. Nicht jede Beginndetektion einer Note ist wahr. Das Stillegatter 166 überwacht die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note. Wenn die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note aufgrund von Stille niedrig sind, z. B. –45 dB, dann werden die Energiepegel E(m,n) des abgetasteten Audiosignals 118, die den Beginn einer Note ausgelöst haben, als unecht betrachtet und ausgemustert. Der Künstler kann beispielsweise versehentlich eine oder mehrere der Saiten 24 berührt haben, ohne absichtlich eine Note oder einen Akkord zu spielen. Die Energiepegel E(m,n) des abgetasteten Audiosignals 118, die sich aus dem versehentlichen Kontakt ergeben, können ausgereicht haben, um den Beginn einer Note zu detektieren, da jedoch das Spielen nicht fortfährt, d. h. die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note auf Stille hinweisen, wird die Beginndetektion ausgemustert.If you are too 12 returns, the deployment detector directs 136 the beginning detection of a note to the silence gate 166 , to the repeat gate 168 and to the noise gate 170 , Not every beginning detection of a note is true. The silence gate 166 monitors the energy levels E (m, n) of the sampled audio signal 118 after the beginning detection of a note. When the energy levels E (m, n) of the sampled audio signal 118 are low after the start detection of a note due to silence, e.g. For example, -45 dB, then the energy levels E (m, n) of the sampled audio signal 118 that have triggered the beginning of a note, considered as phony and retired. For example, the artist may mistakenly choose one or more of the strings 24 have touched without deliberately playing a note or a chord. The energy level E (m, n) of the sampled audio signal 118 that may have resulted from the accidental contact may have been sufficient to detect the beginning of a note, however, since playing does not continue, ie the energy levels E (m, n) of the sampled audio signal 118 after the beginning detection of a note indicates silence, the start detection is retired.

Das Wiederholungsgatter 168 überwacht die Anzahl von Beginndetektionen, die innerhalb eines Zeitraums auftreten. Wenn mehrere Anfänge einer Note innerhalb einer Wiederholungsdetektions-Zeitperiode, z. B. 50 Millisekunden (ms), detektiert werden, dann wird nur die erste Beginndetektion aufgezeichnet. Das heißt, irgendein anschließender Beginn einer Note, der nach der ersten Beginndetektion innerhalb der Wiederholungsdetektions-Zeitperiode detektiert wird, wird ausgemustert.The repeat gate 168 monitors the number of start detections that occur within a time period. If multiple starts of a note within a repeat detection time period, e.g. B. 50 milliseconds (ms), are detected, then only the first start detection is recorded. That is, any subsequent start of a note detected after the first start detection within the repeat detection period is discarded.

Das Geräuschgatter 170 überwacht die Energiepegel E(m,n) des abgetasteten Audiosignals 118 um die Beginndetektion einer Note. Wenn die Energiepegel E(m,n) des abgetasteten Audiosignals 118 um die Beginndetektion einer Note im Allgemeinen im geräuscharmen Bereich liegen, z. B. die Energiepegel E(m,n) –90 dB sind, dann wird die Beginndetektion als fragwürdig betrachtet und als unzuverlässig ausgemustert.The noise gate 170 monitors the energy levels E (m, n) of the sampled audio signal 118 around the beginning detection of a note. When the energy levels E (m, n) of the sampled audio signal 118 to the beginning detection of a note are generally in the quiet area, z. For example, if the energy levels E (m, n) are -90 dB, then the onset detection is considered questionable and rejected as unreliable.

Der Zeitbereichsanalyseblock 122 von 8 umfasst auch einen Notenspitzeneinsatzblock 172, wie in 10 gezeigt. Der Block 172 verwendet die Energiefunktion E(m,n), um die Zeit von der Beginndetektion einer Note bis zum Spitzenenergiepegel der Note während der Einsatzphase oder Haltephase der Saitenvibration vor dem Abfall der Energiepegel über alle Frequenzbänder 1-m, d. h. eine Summierung von Frequenzbändern 1-m, zu bestimmen. Die Beginndetektion einer Note wird durch den Einsatzdetektor 136 bestimmt. Der Spitzenenergiepegel ist der Maximalwert der Energiefunktion E(m,n) während der Einsatzphase oder Haltephase der Saitenvibration vor dem Abfall der Energiepegel über alle Frequenzbänder 1-m. Die Spitzenenergiepegel werden rahmenweise in den Spitzendetektoren 132a132c überwacht. Der Spitzenenergiepegel kann im gleichen Rahmen wie die Beginndetektion oder in einem nachfolgenden Rahmen auftreten. Der Notenspitzeneinsatz ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.The time domain analysis block 122 from 8th also includes a note tip insert block 172 , as in 10 shown. The block 172 uses the energy function E (m, n) to calculate the time from the beginning detection of a note to the peak energy level of the note during the use phase or holding phase of the string vibration before the energy level drops across all frequency bands 1-m, ie a summation of frequency bands 1-m to determine. The beginning detection of a note is by the mission detector 136 certainly. The peak energy level is the maximum value of the energy function E (m, n) during the insertion phase or holding phase of the string vibration before the energy level drops across all frequency bands 1-m. The peak energy levels are framed in the peak detectors 132a - 132c supervised. The peak energy level may occur in the same frame as the start detection or in a subsequent frame. The headset is a time domain parameter or time domain characteristic of each frame n for all frequency bands 1-m and is considered to be the value in the runtime matrix 174 stored on a frame by frame basis.

Der Notenspitzenfreigabeblock 176 verwendet die Energiefunktion E(m,n), um die Zeit von der Beginndetektion einer Note bis zu einem niedrigeren Energiepegel während der Abklingphase oder Freigabephase der Note über alle Frequenzbänder 1-m, d. h. eine Summierung von Frequenzbändern 1-m, zu bestimmen. Die Beginndetektion einer Note wird durch den Einsatzdetektor 136 bestimmt. Die niedrigeren Energiepegel werden rahmenweise in den Spitzendetektoren 132a132c überwacht. In einem Ausführungsbeispiel ist der niedrigere Energiepegel –3 dB vom Spitzenenergiepegel über alle Frequenzbänder 1-m. Die Notenspitzenfreigabe ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Lautzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.The music head release block 176 uses the energy function E (m, n) to determine the time from the beginning detection of a note to a lower energy level during the decay phase or release phase of the note over all frequency bands 1-m, ie a summation of frequency bands 1-m. The beginning detection of a note is by the mission detector 136 certainly. The lower energy levels are frame by frame in the peak detectors 132a - 132c supervised. In one embodiment, the lower energy level is -3 dB from the peak energy level over all frequency bands 1-m. The note spike release is a time domain parameter or time domain characteristic of each frame n for all frequency bands 1-m and is used as the value in the phone time matrix 174 stored on a frame by frame basis.

Ein Mehrband-Spitzeneinsatzblock 178 verwendet die Energiefunktion E(m,n), um die Zeit von der Beginndetektion einer Note bis zum Spitzenenergiepegel der Note während der Einsatzphase oder Haltephase der Saitenvibration vor dem Abfall der Energiepegel für jedes spezifische Frequenzband 1-m zu bestimmen. Die Beginndetektion einer Note wird durch den Einsatzdetektor 136 bestimmt. Der Spitzenenergiepegel ist der Maximalwert während der Einsatzphase oder Haltephase der Saitenvibration vor dem Abfall der Energiepegel in jedem spezifischen Frequenzband 1-m. Der Spitzenenergiepegel wird rahmenweise in den Spitzendetektoren 132a132c überwacht. Der Spitzenenergiepegel kann im gleichen Rahmen wie die Beginndetektion oder in einem nachfolgenden Rahmen auftreten. Der Mehrband-Spitzeneinsatz ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für jedes Frequenzband 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.A multi-band tip insert block 178 uses the energy function E (m, n) to determine the time from the beginning detection of a note to the peak energy level of the note during the use phase or holding phase of the string vibration before the energy level drops for each specific frequency band 1-m. The beginning detection of a note is by the mission detector 136 certainly. The peak power level is the maximum value during the use phase or holding phase of the string vibration before the energy level drops in each specific frequency band 1-m. The peak energy level is frame-by-frame in the peak detectors 132a - 132c supervised. The peak energy level may occur in the same frame as the start detection or in a subsequent frame. The multi-band peak use is a time domain parameter or time domain characteristic of each frame n for each frequency band 1-m and is taken as the value in the runtime matrix 174 stored on a frame by frame basis.

Ein Mehrband-Spitzenfreigabeblock 180 verwendet die Energiefunktion E(m,n), um die Zeit von der Beginndetektion einer Note bis zu einem niedrigeren Energiepegel während der Abklingphase oder Freigabephase der Note in jedem spezifischen Frequenzband 1-m zu bestimmen. Die Beginndetektion einer Note wird durch den Einsatzdetektor 136 bestimmt. Der niedrigere Energiepegel wird rahmenweise in den Spitzendetektoren 132a132c überwacht. In einem Ausführungsbeispiel ist der niedrigere Energiepegel –3 dB vom Spitzenenergiepegel in jedem Frequenzband 1-m. Die Mehrband-Spitzenfreigabe ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für jedes Frequenzband 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.A multi-band tip release block 180 uses the energy function E (m, n) to determine the time from the beginning detection of a note to a lower energy level during the decay phase or release phase of the note in each specific frequency band 1-m. The beginning detection of a note is by the mission detector 136 certainly. The lower energy level is frame-by-frame in the peak detectors 132a - 132c supervised. In one embodiment, the lower energy level is -3 dB from the peak energy level in each frequency band 1-m. The multi-band peak enable is a time domain parameter or time domain characteristic of each frame n for each frequency band 1-m and is taken as the value in the runtime matrix 174 stored on a frame by frame basis.

Der Schlagdetektor 182 überwacht die Energiefunktion E(m,n) in jedem Rahmen 1-n über Frequenzbänder 1-m, um das Auftreten eines Schlagstilereignisses zu bestimmen, d. h. der Künstler hat die Saiten 24 mit seinen Fingern oder seiner Handfläche geschlagen. Ein Schlagereignis ist durch eine scharfe Spitze im Energiepegel während eines Rahmens in der Einsatzphase der Note gekennzeichnet. Ein Schlagereignis verursacht beispielsweise eine Spitze von 6 dB im Energiepegel über und oberhalb des Energiepegels im nächsten Rahmen in der Einsatzphase. Die Spitze von 6 dB im Energiepegel wird als Schlagereignis interpretiert. Der Schlagdetektor ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.The shock detector 182 monitors the energy function E (m, n) in each frame 1-n over frequency bands 1-m to determine the occurrence of a beat style event, ie the artist has the strings 24 beaten with his fingers or his palm. A hit event is by a sharp spike in the Energy level during a frame marked in the use phase of the note. For example, an impact event causes a peak of 6 dB in the energy level above and above the energy level in the next frame in the deployment phase. The peak of 6 dB in the energy level is interpreted as a beating event. The beat detector is a time domain parameter or time domain characteristic of each frame n for all frequency bands 1-m and is considered to be the value in the runtime matrix 174 stored on a frame by frame basis.

Der Tempodetektor 184 überwacht die Energiefunktion E(m,n) in jedem Rahmen 1-n über Frequenzbänder 1-m, um das Zeitintervall zwischen der Beginndetektion von benachbarten Noten, d. h. die Dauer jeder Note, zu bestimmen. Der Tempodetektor ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.The tempo detector 184 monitors the energy function E (m, n) in each frame 1-n over frequency bands 1-m to determine the time interval between the beginning detection of adjacent notes, ie the duration of each note. The tempo detector is a time domain parameter or time domain characteristic of each frame n for all frequency bands 1-m and is considered to be the value in the runtime matrix 174 stored on a frame by frame basis.

Der Frequenzbereichsanalyseblock 120 in 8 umfasst einen STFT-Block 185, wie in 15 gezeigt. Der Block 185 führt eine Zeitbereich-Frequenzbereich-Umwandlung auf einer rahmenweisen Basis des abgetasteten Audiosignals 118 unter Verwendung einer Kurzzeit-Fourier-Transformation (STFT) mit konstanten Überlappungsadditionen (COLA) oder einer anderen schnellen Fourier-Transformation (FFT) durch. Die COLA-STFT 185 führt eine Zeitbereich-Frequenzbereich-Umwandlung unter Verwendung von Überlappungsanalysefenstern 119 durch, wie in 9b gezeigt. Die Abtastfenster 119 überlappen um eine vorbestimmte Anzahl von Abtastwerten des Audiosignals, die als Sprunggröße bekannt ist, für zusätzliche Abtastpunkte in der COLA-STFT-Analyse, um sicherzustellen, dass die Daten in aufeinander folgenden Rahmen gleich gewichtet werden. Gleichung (2) liefert ein allgemeines Format der Zeitbereich-Frequenzbereich-Umwandlung am abgetasteten Audiosignal 118.

Figure 00260001
wobei: Xm, das Audiosignal im Frequenzbereich ist
x(n) das Audioeingangssignal des m-ten Rahmens ist
m die aktuelle Nummer des Rahmens ist
k der Frequenzintervallbereich ist
N die STFT-Größe ist.The frequency domain analysis block 120 in 8th includes an STFT block 185 , as in 15 shown. The block 185 performs a time domain frequency domain conversion on a frame by frame basis of the sampled audio signal 118 using a short-time Fourier transform (STFT) with constant overlap addition (COLA) or another fast Fourier transform (FFT). The COLA-STFT 185 performs a time domain frequency domain conversion using overlap analysis windows 119 through, as in 9b shown. The sampling windows 119 overlap by a predetermined number of samples of the audio signal, known as a hop size, for additional sample points in the COLA-STFT analysis to ensure that the data is weighted equally in successive frames. Equation (2) provides a general format of the time domain frequency domain conversion on the sampled audio signal 118 ,
Figure 00260001
where: X m is the audio signal in the frequency domain
x (n) is the audio input signal of the mth frame
m is the current number of the frame
k is the frequency interval range
N is the STFT size.

Der Frequenzbereichsanalyseblock 120 von 8 umfasst auch einen Notendetektorblock 186, wie in 15 gezeigt. Sobald das abgetastete Audiosignal 118 sich im Frequenzbereich befindet, detektiert der Block 186 den Beginn jeder Note und sorgt für die Gliederung des abgetasteten Audiosignals in diskrete Segmente, wobei jedes Segment mit dem Beginn der Note beginnt, eine Vielzahl von Rahmen des abgetasteten Audiosignals umfasst und mit dem Beginn der nächsten Note abschließt. Im vorliegenden Ausführungsbeispiel entspricht jedes diskrete Segment des abgetasteten Audiosignals 118 einer einzelnen Note von Musik. Der Notendetektorblock 186 ordnet die Einsatzphase der Saite 24 als Beginn einer Note zu. Das heißt, die Einsatzphase der vibrierenden Saite 24 an der Gitarre 20 fällt mit der Detektion einer spezifischen Note zusammen. Für andere Instrumente ist die Notendetektion einer anderen physikalischen Handlung durch den Künstler zugeordnet, z. B. Drücken der Taste eines Klaviers oder eines elektronischen Keyboards, Anregen der Saite einer Harfe, Ausatmen von Luft in ein Horn, während eine oder mehrere Tasten am Horn gedrückt werden, oder Schlagen der Fläche einer Trommel mit einem Trommelstock. In jedem Fall überwacht der Notendetektorblock 186 den dynamischen Frequenzbereichsgehalt des abgetasteten Audiosignals 118 und identifiziert den Beginn einer Note.The frequency domain analysis block 120 from 8th also includes a distress detector block 186 , as in 15 shown. Once the sampled audio signal 118 is in the frequency range, the block detects 186 the beginning of each note, and arranging the sampled audio signal into discrete segments, each segment beginning with the beginning of the note, comprising a plurality of frames of the sampled audio signal and terminating with the beginning of the next note. In the present embodiment, each discrete segment corresponds to the sampled audio signal 118 a single note of music. The distress detector block 186 arranges the deployment phase of the string 24 as the beginning of a note too. That is, the deployment phase of the vibrating string 24 on the guitar 20 coincides with the detection of a specific note. For other instruments, the emergency detection is associated with another physical act by the artist, e.g. Pressing the key of a piano or an electronic keyboard, exciting the string of a harp, exhaling air into a horn while pressing one or more keys on the horn, or hitting the surface of a drum with a drumstick. In any case, the distress detector block monitors 186 the dynamic frequency domain content of the sampled audio signal 118 and identifies the beginning of a note.

16 zeigt ein weiteres Detail des Frequenzbereichs-Notendetektorblocks 186 mit dem Energiepegelisolationsblock 187, der den Energiepegel jedes Rahmens des abgetasteten Audiosignals 118 in mehrere Frequenzintervallbereiche isoliert. 16 shows another detail of the frequency domain distress detector block 186 with the energy level insulation block 187 representing the energy level of each frame of the sampled audio signal 118 isolated in several frequency interval ranges.

In 17 verarbeitet der Energiepegel-Isolationsblock 187 jeden Rahmen des abgetasteten Audiosignals 118 hinsichtlich des Frequenzbereichs durch Filterfrequenzintervallbereiche 188a188c, um spezifische Frequenzen des Audiosignals zu trennen und zu isolieren. Die Filterfrequenzintervallbereiche 188a188c können spezifische Frequenzbänder im Audiobereich von 100–10000 Hz isolieren. In einem Ausführungsbeispiel ist der Filterfrequenzintervallbereich 188a bei 100 Hz zentriert, der Filterfrequenzintervallbereich 188b ist bei 500 Hz zentriert und der Filterfrequenzintervallbereich 188c ist bei 1000 Hz zentriert. Die Ausgabe des Filterfrequenzintervallbereichs 188a enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 100 Hz zentriert ist. Die Ausgabe des Filterfrequenzintervallbereichs 188b enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 500 Hz zentriert ist. Die Ausgabe des Filterfrequenzintervallbereichs 188c enthält den Energiepegel des abgetasteten Audiosignals 118, der bei 1000 Hz zentriert ist. Die Ausgabe von anderen Filterfrequenzintervallbereichen enthält jeweils den Energiepegel des abgetasteten Audiosignals 118 für ein gegebenes spezifisches Band. Der Spitzendetektor 189a überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 100 Hz zentriert sind. Der Spitzendetektor 189b überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 500 Hz zentriert sind. Der Spitzendetektor 189c überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 1000 Hz zentriert sind. Das Glättungsfilter 190a entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 100 Hz zentriert sind. Das Glättungsfilter 190b entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 118, die bei 500 Hz zentriert sind. Das Glättungsfilter 190c entfernt störende Komponenten der Spitzenenergiepegel und stabilisiert anderweitig das abgetastete Audiosignal 118, die bei 1000 Hz zentriert sind. Die Ausgabe der Glättungsfilter 190a190c ist die Energiepegelfunktion E(m,n) für jeden Rahmen n in jedem Frequenzintervallbereich 1-m des abgetasteten Audiosignals 118.In 17 processes the energy level isolation block 187 every frame of the sampled audio signal 118 in terms of the frequency range through filter frequency interval ranges 188a - 188c to separate and isolate specific frequencies of the audio signal. The filter frequency interval ranges 188a - 188c can isolate specific frequency bands in the audio range of 100-10000 Hz. In one embodiment, the filter frequency interval range is 188a centered at 100 Hz, the filter frequency interval range 188b is centered at 500 Hz and the filter frequency interval range 188c is centered at 1000 Hz. The edition of the Filter frequency interval range 188a contains the energy level of the sampled audio signal 118 which is centered at 100 Hz. The output of the filter frequency interval range 188b contains the energy level of the sampled audio signal 118 which is centered at 500 Hz. The output of the filter frequency interval range 188c contains the energy level of the sampled audio signal 118 which is centered at 1000 Hz. The output of other filter frequency interval ranges each contains the energy level of the sampled audio signal 118 for a given specific band. The top detector 189a monitors and stores the peak energy levels of the sampled audio signal 118 that are centered at 100 Hz. The top detector 189b monitors and stores the peak energy levels of the sampled audio signal 118 that are centered at 500 Hz. The top detector 189c monitors and stores the peak energy levels of the sampled audio signal 118 that are centered at 1000 Hz. The smoothing filter 190a removes interfering components and otherwise stabilizes the peak energy levels of the sampled audio signal 118 that are centered at 100 Hz. The smoothing filter 190b removes interfering components and otherwise stabilizes the peak energy levels of the sampled audio signal 118 that are centered at 500 Hz. The smoothing filter 190c Removes interfering components of the peak power levels and otherwise stabilizes the sampled audio signal 118 that are centered at 1000 Hz. The output of the smoothing filters 190a - 190c is the energy level function E (m, n) for each frame n in each frequency interval range 1-m of the sampled audio signal 118 ,

Die Energiepegel E(m,n) eines Rahmens n-1 werden im Block 191 des Einsatzdetektors 192 gespeichert, wie in 18 gezeigt. Die Energiepegel jedes Frequenzintervallbereichs 1-m für den nächsten Rahmen n des abgetasteten Audiosignals 118, wie durch die Filterfrequenzintervallbereiche 188a188c, die Spitzendetektoren 189a189c und die Glättungsfilter 190a190c bestimmt, werden im Block 193 des Einsatzdetektors 192 gespeichert. Der Differenzblock 194 bestimmt eine Differenz zwischen den Energiepegeln von entsprechenden Intervallbereichen des vorliegenden Rahmens n und des vorherigen Rahmens n-1. Der Energiepegel des Frequenzintervallbereichs 1 für den Rahmen n-1 wird beispielsweise vom Energiepegel des Frequenzintervallbereichs 1 für den Rahmen n subtrahiert. Der Energiepegel des Frequenzintervallbereichs 2 für den Rahmen n-1 wird vom Energiepegel des Frequenzintervallbereichs 2 für den Rahmen n subtrahiert. Der Energiepegel des Frequenzintervallbereichs m für den Rahmen n-1 wird vom Energiepegel des Frequenzintervallbereichs m für den Rahmen n subtrahiert. Die Differenz der Energiepegel für jeden Frequenzintervallbereich 1-m des Rahmens n und Rahmens n-1 werden im Summierer 195 summiert.The energy levels E (m, n) of a frame n-1 are in the block 191 of the deployment detector 192 stored as in 18 shown. The energy levels of each frequency interval range 1-m for the next frame n of the sampled audio signal 118 as through the filter frequency interval ranges 188a - 188c , the top detectors 189a - 189c and the smoothing filters 190a - 190c certainly, be in the block 193 of the deployment detector 192 saved. The difference block 194 determines a difference between the energy levels of respective interval areas of the present frame n and the previous frame n-1. For example, the energy level of the frequency interval range 1 for the frame n-1 is subtracted from the energy level of the frequency interval range 1 for the frame n. The energy level of the frequency interval range 2 for the frame n-1 is subtracted from the energy level of the frequency interval range 2 for the frame n. The energy level of the frequency interval range m for the frame n-1 is subtracted from the energy level of the frequency interval range m for the frame n. The difference of the energy levels for each frequency interval range 1-m of frame n and frame n-1 will be in the summer 195 summed.

Der Summierer 195 akkumuliert die Differenz der Energiepegel E(m,n) jedes Frequenzintervallbereichs 1-m des Rahmens n und des Rahmens n-1. Der Beginn einer Note tritt auf, wenn der Gesamtbetrag der Differenzen der Energiepegel E(m,n) über die ganzen überwachten Frequenzintervallbereiche 1-m für das abgetastete Audiosignal 118 einen vorbestimmten Schwellenwert überschreitet. Ein Vergleicher 196 vergleicht die Ausgabe des Summierers 195 mit einem Schwellenwert 197. Wenn die Ausgabe des Summierers 195 größer ist als der Schwellenwert 197, dann überschreitet die Akkumulation von Differenzen der Energiepegel E(m,n) über das ganze Frequenzspektrum für das abgetastete Audiosignal 118 den Schwellenwert 197 und der Beginn einer Note wird im momentanen Rahmen n detektiert. Wenn die Ausgabe des Summierers 195 geringer ist als der Schwellenwert 197, dann wird kein Beginn einer Note detektiert.The summer 195 It accumulates the difference of the energy levels E (m, n) of each frequency interval range 1-m of the frame n and the frame n-1. The beginning of a note occurs when the total amount of differences in energy levels E (m, n) over the entire monitored frequency interval ranges 1-m for the sampled audio signal 118 exceeds a predetermined threshold. A comparator 196 compares the output of the summer 195 with a threshold 197 , If the output of the summer 195 is greater than the threshold 197 , then the accumulation of differences exceeds the energy level E (m, n) over the entire frequency spectrum for the sampled audio signal 118 the threshold 197 and the beginning of a note is detected in the current frame n. If the output of the summer 195 is less than the threshold 197 , then no beginning of a note is detected.

Am Abschluss jedes Rahmens hat der Einsatzdetektor 192 identifiziert, ob der momentane Rahmen den Beginn einer Note enthält oder ob der momentane Rahmen keinen Beginn einer Note enthält. Auf der Basis der Summierung von Differenzen der Energiepegel E(m,n) des abgetasteten Audiosignals 118 über das ganze Spektrum von Frequenzintervallbereichen 1-m, die den Schwellenwert 197 überschreiten, kann der Einsatzdetektor 192 beispielsweise den Rahmen 1 von 9a als den Beginn einer Note enthaltend identifiziert haben, während der Rahmen 2 und Rahmen 3 von 9a keinen Beginn einer Note aufweisen. 7a stellt den Beginn einer Note am Punkt 150 im Rahmen 1 (auf der Basis der Energiepegel E(m,n) des abgetasteten Audiosignals innerhalb der Frequenzintervallbereiche 1-m) und keinen Beginn einer Note im Rahmen 2 oder Rahmen 3 dar. 7a weist eine weitere Beginndetektion einer Note am Punkt 152 auf. 7b zeigt Beginndetektionen einer Note an den Punkten 154, 156 und 158.At the conclusion of each frame has the deployment detector 192 identifies whether the current frame contains the beginning of a note or whether the current frame does not contain a beginning of a note. On the basis of the summation of differences of the energy levels E (m, n) of the sampled audio signal 118 across the whole spectrum of frequency interval ranges 1-m, which is the threshold 197 can exceed the deployment detector 192 for example, the frame 1 of 9a as having identified the beginning of a note while frame 2 and frame 3 of 9a have no beginning of a grade. 7a represents the beginning of a note at the point 150 in frame 1 (based on the energy levels E (m, n) of the sampled audio signal within the frequency interval ranges 1-m) and no beginning of a note in frame 2 or frame 3. 7a indicates another beginning detection of a note at the point 152 on. 7b shows start detections of a note at the points 154 . 156 and 158 ,

19 stellt ein weiteres Ausführungsbeispiel des Einsatzdetektors 192 als die Energiepegel E(m,n) mit dem Summierer 198 direkt summierend dar. Der Summierer 198 akkumuliert die Energiepegel E(m,n) jedes Rahmens 1-n und jedes Frequenzintervallbereichs 1-m für das abgetastete Audiosignal 118. Der Beginn einer Note tritt auf, wenn der Gesamtbetrag der Energiepegel E(m,n) über die ganzen überwachten Frequenzintervallbereiche 1-m für das abgetastete Audiosignal 118 einen vorbestimmten Schwellenwert überschreitet. Der Vergleicher 199 vergleicht die Ausgabe des Summierers 198 mit einem Schwellenwert 200. Wenn die Ausgabe des Summierers 198 größer ist als der Schwellenwert 200, dann überschreitet die Akkumulation von Energiepegeln E(m,n) über das ganze Frequenzspektrum für das abgetastete Audiosignal 118 den Schwellenwert 200 und der Beginn einer Note wird im momentanen Rahmen n detektiert. Wenn die Ausgabe des Summierers 198 geringer ist als der Schwellenwert 200, dann wird kein Beginn einer Note detektiert. 19 represents a further embodiment of the deployment detector 192 as the energy levels E (m, n) with the summer 198 summing up directly. The summer 198 It accumulates the energy levels E (m, n) of each frame 1-n and each frequency interval range 1-m for the sampled audio signal 118 , The beginning of a note occurs when the total amount of energy levels E (m, n) over the entire monitored frequency interval ranges 1-m for the sampled audio signal 118 exceeds a predetermined threshold. The comparator 199 compares the output of the summer 198 with a threshold 200 , If the output of the summer 198 is greater than the threshold 200 , then the accumulation of energy levels E (m, n) over the entire frequency spectrum for the sampled audio signal exceeds 118 the threshold 200 and the beginning of a note is detected in the current frame n. If the output of the summer 198 is less than the threshold 200 , then no beginning of a note is detected.

Am Abschluss des Rahmens hat der Einsatzdetektor 192 identifiziert, ob der momentane Rahmen den Beginn einer Note enthält oder ob der momentane Rahmen keinen Beginn einer Note enthält. Auf der Basis der Summierung von Energiepegeln E(m,n) des abgetasteten Audiosignals 118 innerhalb der Frequenzintervallbereiche 1-m, die den Schwellenwert 200 überschreitet, kann der Einsatzdetektor 192 beispielsweise den Rahmen 1 von 9a als den Beginn einer Note enthaltend identifiziert haben, während der Rahmen 2 und Rahmen 3 von 9a keinen Beginn einer Note aufweisen.At the conclusion of the frame has the deployment detector 192 identifies whether the current frame contains the beginning of a note or whether the current frame does not contain a beginning of a note. On the basis of the summation of energy levels E (m, n) of the sampled audio signal 118 within the frequency interval ranges 1-m, which is the threshold 200 exceeds, the deployment detector 192 for example, the frame 1 of 9a as having identified the beginning of a note while frame 2 and frame 3 of 9a have no beginning of a grade.

Wenn man zu 16 zurückkehrt, leitet der Einsatzdetektor 192 die Beginndetektion einer Note zum Stillegatter 201, zum Wiederholungsgatter 202 und zum Geräuschgatter 203. Nicht jede Beginndetektion einer Note ist wahr. Das Stillegatter 201 überwacht die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note. Wenn die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note aufgrund von Stille niedrig sind, z. B. –45 dB, dann werden die Energiepegel E(m,n) des abgetasteten Audiosignals 118, die den Beginn einer Note ausgelöst haben, als unecht betrachtet und ausgemustert. Der Künstler kann beispielsweise versehentlich eine oder mehrere der Saiten 24 berührt haben, ohne absichtlich eine Note oder einen Akkord zu spielen. Die Energiepegel E(m,n) des abgetasteten Audiosignals 118, die sich aus dem versehentlichen Kontakt ergeben, können ausgereicht haben, um den Beginn einer Note zu detektieren, da jedoch das Spielen nicht fortfährt, d. h. die Energiepegel E(m,n) des abgetasteten Audiosignals 118 nach der Beginndetektion einer Note auf Stille hinweisen, wird die Beginndetektion ausgemustert.If you are too 16 returns, the deployment detector directs 192 the beginning detection of a note to the silence gate 201 , to the repeat gate 202 and to the noise gate 203 , Not every beginning detection of a note is true. The silence gate 201 monitors the energy levels E (m, n) of the sampled audio signal 118 after the beginning detection of a note. When the energy levels E (m, n) of the sampled audio signal 118 are low after the start detection of a note due to silence, e.g. For example, -45 dB, then the energy levels E (m, n) of the sampled audio signal 118 that have triggered the beginning of a note, considered as phony and retired. For example, the artist may mistakenly choose one or more of the strings 24 have touched without deliberately playing a note or a chord. The energy levels E (m, n) of the sampled audio signal 118 that may have resulted from the accidental contact may have been sufficient to detect the beginning of a note, however, since playing does not continue, ie the energy levels E (m, n) of the sampled audio signal 118 after the beginning detection of a note indicates silence, the start detection is retired.

Die Gleichung (1) stellt eine weitere Darstellung der Beginndetektion einer Note bereit. Die Funktion g(m,n) weist einen Wert für jeden Frequenzintervallbereich 1-m und jeden Rahmen 1-n auf. Wenn das Verhältnis von E(m,n)/E(m,n-1), d. h. der Energiepegel des Intervallbereichs m im Rahmen n zum Energiepegel des Intervallbereichs m im Rahmen n-1, geringer ist als eins, dann ist [E(m,n)/E(m,n-1)] – 1 negativ. Der Energiepegel des Intervallbereichs m im Rahmen n ist nicht größer als der Energiepegel des Intervallbereichs m im Rahmen n-1. Die Funktion g(m,n) ist null, was auf keine Einleitung der Einsatzphase und daher keine Detektion des Beginns einer Note hinweist. Wenn das Verhältnis von E(m,n)/E(m,n-1), d. h. der Energiepegel des Intervallbereichs m im Rahmen n zum Energiepegel des Intervallbereichs m im Rahmen n-1, größer ist als eins (beispielsweise ein Wert von zwei), dann ist [E(m,n)/E(m,n-1)] – 1 positiv, d. h. ein Wert von eins. Der Energiepegel des Intervallbereichs m im Rahmen n ist größer als der Energiepegel des Intervallbereichs m im Rahmen n-1. Die Funktion g(m,n) ist der positive Wert von [E(m,n)/E(m,n-1)] – 1, der auf die Einleitung der Einsatzphase und eine mögliche Detektion des Beginns einer Note hinweist.Equation (1) provides another illustration of the beginning detection of a note. The function g (m, n) has a value for each frequency interval range 1-m and every frame 1-n. When the ratio of E (m, n) / E (m, n-1), i. H. the energy level of the interval range m in the frame n to the energy level of the interval range m in the frame n-1 is less than one, then [E (m, n) / E (m, n-1)] -1 is negative. The energy level of the interval range m in frame n is not greater than the energy level of the interval range m in frame n-1. The function g (m, n) is zero, indicating no initiation of the insert phase and therefore no detection of the beginning of a note. When the ratio of E (m, n) / E (m, n-1), i. H. the energy level of the interval range m in the frame n to the energy level of the interval range m in the frame n-1 is greater than one (for example, a value of two), then [E (m, n) / E (m, n-1)] - 1 positive, d. H. a value of one. The energy level of the interval range m in frame n is greater than the energy level of the interval range m in frame n-1. The function g (m, n) is the positive value of [E (m, n) / E (m, n-1)] - 1, which indicates the initiation of the insertion phase and a possible detection of the beginning of a note.

Das Wiederholungsgatter 202 überwacht die Anzahl von Beginndetektionen, die innerhalb eines Zeitraums auftreten. Wenn mehrere Anfänge einer Note innerhalb der Wiederholungsdetektions-Zeitperiode, z. B. 50 ms, detektiert werden, dann wird nur die erste Beginndetektion aufgezeichnet. Das heißt, irgendein anschließender Beginn einer Note, der nach der ersten Beginndetektion innerhalb der Wiederholungsdetektions-Zeitperiode detektiert wird, wird ausgemustert.The repeat gate 202 monitors the number of start detections that occur within a time period. If multiple starts of a note within the repeat detection time period, e.g. B. 50 ms, are detected, then only the first start detection is recorded. That is, any subsequent start of a note detected after the first start detection within the repeat detection period is discarded.

Das Geräuschgatter 203 überwacht die Energiepegel E(m,n) des abgetasteten Audiosignals 118 um die Beginndetektion einer Note. Wenn die Energiepegel E(m,n) des abgetasteten Audiosignals 118 um die Beginndetektion einer Note im Allgemeinen im geräuscharmen Bereich liegen, z. B. die Energiepegel E(m,n) –90 dB sind, dann wird die Beginndetektion als fragwürdig betrachtet und als unzuverlässig ausgemustert.The noise gate 203 monitors the energy levels E (m, n) of the sampled audio signal 118 around the beginning detection of a note. When the energy levels E (m, n) of the sampled audio signal 118 to the beginning detection of a note are generally in the quiet area, z. For example, if the energy levels E (m, n) are -90 dB, then the onset detection is considered questionable and rejected as unreliable.

Wenn man zu 15 zurückkehrt, bestimmt der Oberwelleneinsatzverhältnisblock 204 ein Verhältnis der Energiepegel von verschiedenen Frequenzoberwellen im abgetasteten Frequenzbereich-Audiosignal 118 während der Einsatzphase oder Haltephase der Note auf einer rahmenweisen Basis. Alternativ überwacht das Oberwelleneinsatzverhältnis eine Grundfrequenz und Oberwelle der Grundfrequenz. In einem Ausführungsbeispiel wird, um einen Schlagstil zu überwachen, der Frequenzbereichsenergiepegel des abgetasteten Audiosignals 118 bei der Grundfrequenz von 200 Hz des Schlags und der Oberwelle von 4000 Hz der Grundfrequenz während der Einsatzphase der Note gemessen. Das Verhältnis der Frequenzbereichsenergiepegel 4000/200 Hz während der Einsatzphase der Note für jeden Rahmen 1-n ist das Oberwelleneinsatzverhältnis. Andere Frequenzoberwellenverhältnisse in der Einsatzphase der Note können auf einer rahmenweisen Basis überwacht werden. Der Block 204 bestimmt die Änderungsrate der Energiepegel im Oberwellenverhältnis, d. h. wie schnell die Energiepegel zunehmen oder abnehmen, relativ zu jedem Rahmen während der Einsatzphase der Note. Das Oberwelleneinsatzverhältnis ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.If you are too 15 returns, determines the harmonic ratio block 204 a ratio of the energy levels of different frequency harmonics in the sampled frequency domain audio signal 118 during the mission phase or holding phase of the note on a frame by frame basis. Alternatively, the harmonic ratio monitors a fundamental frequency and harmonic of the fundamental frequency. In one embodiment, to monitor a beat style, the frequency domain energy level of the sampled audio signal 118 at the fundamental frequency of 200 Hz of the beat and the harmonic of 4000 Hz of the fundamental frequency measured during the use phase of the note. The ratio of the frequency domain power levels 4000/200 Hz during the use phase of the note for each frame 1-n is the harmonic ratio. Other frequency harmonics ratios in the mission phase of the note may be monitored on a frame by frame basis. The block 204 determines the rate of change of energy levels in harmonic ratio, ie, how fast the energy levels increase or decrease relative to each frame during the use phase of the note. The harmonic ratio is a frequency domain parameter or a Frequency domain characteristic of each frame n and is used as a value in the runtime matrix 174 stored on a frame by frame basis.

Der Oberwellenfreigabeverhältnisblock 205 bestimmt ein Verhältnis der Energiepegel von verschiedenen Frequenzoberwellen des abgetasteten Frequenzbereichs-Audiosignals 118 während der Abklingphase oder Freigabephase der Note auf einer rahmenweisen Basis. Alternativ überwacht das Oberwellenfreigabeverhältnis eine Grundfrequenz und Oberwelle der Grundfrequenz. In einem Ausführungsbeispiel wird, um einen Schlagstil zu überwachen, der Frequenzbereichsenergiepegel des abgetasteten Audiosignals 118 bei der Grundfrequenz von 200 Hz des Schlags und der Oberwelle von 4000 Hz der Grundfrequenz während der Freigabephase der Note gemessen. Das Verhältnis der Frequenzbereichsenergiepegel 4000/200 Hz während der Freigabephase der Note für jeden Rahmen 1-n ist das Oberwellenfreigabeverhältnis. Andere Frequenzoberwellenverhältnisse in der Freigabephase der Note können auf einer rahmenweisen Basis überwacht werden. Der Block 205 bestimmt die Änderungsrate der Energiepegel im Oberwellenverhältnis, d. h. wie schnell die Energiepegel zunehmen oder abnehmen, relativ zu jedem Rahmen während der Freigabephase der Note. Das Oberwellenfreigabeverhältnis ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.The harmonic release ratio block 205 determines a ratio of the energy levels of different frequency harmonics of the sampled frequency domain audio signal 118 during the decay phase or release phase of the note on a frame by frame basis. Alternatively, the harmonic release ratio monitors a fundamental frequency and harmonic of the fundamental frequency. In one embodiment, to monitor a beat style, the frequency domain energy level of the sampled audio signal 118 at the fundamental frequency of 200 Hz of the beat and the harmonic of 4000 Hz of the fundamental frequency measured during the release phase of the note. The ratio of the frequency domain energy levels 4000/200 Hz during the release phase of the note for each frame 1-n is the harmonic release ratio. Other frequency harmonic ratios in the release phase of the note may be monitored on a frame by frame basis. The block 205 determines the rate of change of energy levels in harmonic ratio, ie how fast the energy levels increase or decrease, relative to each frame during the release phase of the note. The harmonic release ratio is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be the value in the runtime matrix 174 stored on a frame by frame basis.

Ein Leer- und Dämpfungsfaktorblock 206 überwacht die Energiepegel des abgetasteten Frequenzbereichs-Audiosignals auf das Auftreten eines leeren Zustandes oder Dämpfungszustandes der Saiten 24. Ein Dämpfungszustand der Saiten 24 tritt auf, wenn der Künstler kontinuierlich seine Finger gegen die Saiten drückt, gewöhnlich nahe dem Steg der Gitarre 20. Der Fingerdruck auf die Saiten 24 dämpft oder schwächt die Saitenschwingung schnell ab. Ein leerer Zustand ist die Abwesenheit eines Dämpfungszustandes, d. h. kein Fingerdruck oder andere künstliche Dämpfung von Saiten 24, so dass die Saitenvibration natürlich abklingt.An empty and damping factor block 206 monitors the energy levels of the sampled frequency domain audio signal for the occurrence of an empty or attenuated condition of the strings 24 , A damping state of the strings 24 occurs when the artist continually presses his fingers against the strings, usually near the bridge of the guitar 20 , The finger pressure on the strings 24 dampens or weakens the string vibration quickly. An empty state is the absence of a damping state, ie no finger pressure or other artificial damping of strings 24 so that the string vibration naturally fades away.

Im Dämpfungszustand ist die Haltephase und Abklingphase der Note aufgrund der induzierten Dämpfung signifikant kürzer als ein natürliches Abklingen im leeren Zustand. Ein Fehlen eines Hochfrequenzgehalts und eine schnelle Abnahme der Frequenzbereichsenergiepegel des abgetasteten Audiosignals 118 weist auf den Dämpfungszustand hin. Ein Hochfrequenzwert und ein natürliches Abklingen der Frequenzbereichsenergiepegel des abgetasteten Audiosignals 118 weist auf den leeren Zustand hin. Der Leer- und Dämpfungsfaktor ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.In the attenuation state, the sustain phase and decay phase of the note is significantly shorter due to the induced attenuation than natural decay in the empty state. A lack of high frequency content and a rapid decrease in the frequency domain energy levels of the sampled audio signal 118 indicates the damping condition. A high frequency value and a natural decay of the frequency domain energy levels of the sampled audio signal 118 indicates the empty state. The blanking and attenuation factor is a frequency domain parameter or frequency domain characteristic of each frame n and is taken as the value in the runtime matrix 174 stored on a frame by frame basis.

Ein Hals- und Stegfaktorblock 207 überwacht die Energiepegel des abgetasteten Frequenzbereichs-Audiosignals 118 auf das Auftreten von Halsspiel oder Stegspiel durch den Künstler. Halsspiel von Saiten 24 tritt auf, wenn der Künstler die Saiten nahe dem Hals der Gitarre 20 anregt. Das Stegspiel von Saiten 24 tritt auf, wenn der Künstler die Saiten nahe dem Steg der Gitarre 20 anregt. Wenn er nahe dem Hals spielt, tritt eine erste Frequenzkerbe um 100 Hz in der Frequenzbereichsantwort des abgetasteten Audiosignals 118 auf. Wenn er nahe dem Steg spielt, tritt eine erste Frequenzkerbe um 500 Hz in der Frequenzbereichsantwort des abgetasteten Audiosignals 118 auf. Das Auftreten und der Ort einer ersten Kerbe im Frequenzgang deutet auf Halsspiel oder Stegspiel hin. Der Hals- und Stegfaktor ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.A neck and bridge factor block 207 monitors the energy levels of the sampled frequency domain audio signal 118 on the appearance of Halsspiel or bridge play by the artist. Half play of strings 24 occurs when the artist pulls the strings near the neck of the guitar 20 stimulates. The bridge play of strings 24 occurs when the artist strings the strings near the bridge of the guitar 20 stimulates. When playing near the neck, a first frequency notch occurs around 100 Hz in the frequency domain response of the sampled audio signal 118 on. When playing near the land, a first frequency notch occurs around 500 Hz in the frequency domain response of the sampled audio signal 118 on. The appearance and location of a first notch in the frequency response indicates halftime or bridge play. The neck and land factor is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be the value in the runtime matrix 174 stored on a frame by frame basis.

Ein Tonhöhendetektorblock 208 überwacht die Energiepegel des abgetasteten Frequenzbereichs-Audiosignals 118, um die Tonhöhe der Note zu bestimmen. Der Block 208 zeichnet die Grundfrequenz der Tonhöhe auf. Der Tonhöhendetektor ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert.A pitch detector block 208 monitors the energy levels of the sampled frequency domain audio signal 118 to determine the pitch of the note. The block 208 Records the fundamental frequency of the pitch. The pitch detector is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be a value in the runtime matrix 174 stored on a frame by frame basis.

Die Laufzeitmatrix 174 enthält die im Frequenzbereichsanalyseblock 120 bestimmten Frequenzbereichsparameter und die im Zeitbereichsanalyseblock 122 bestimmten Zeitbereichsparameter. Jeder Zeitbereichsparameter und Frequenzbereichsparameter ist ein numerischer Parameterwert PVn,j, der in der Laufzeitmatrix 174 auf rahmenweiser Basis gespeichert wird, wobei n der Rahmen ist und j der Parameter ist. Der Notenspitzeneinsatzparameter weist beispielsweise den Wert PV1,1 im Rahmen 1, den Wert PV2,1 im Rahmen 2 und den Wert PVn,1 im Rahmen n auf; der Notenspitzenfreigabeparameter weist den Wert PV1,2 im Rahmen 1, den Wert PV2,2 im Rahmen 2 und den Wert PVn,2 im Rahmen n auf; der Mehrband-Spitzeneinsatzparameter weist den Wert PV1,3 im Rahmen 1, den Wert PV2,3 im Rahmen 2 und den Wert PVn,3 im Rahmen n auf; und so weiter. Tabelle 1 zeigt die Laufzeitmatrix 174 mit den Zeitbereichs- und Frequenzbereichsparameterwerten PVn,j, die während der Laufzeitanalyse erzeugt werden. Die Zeitbereichs- und Frequenzbereichsparameterwerte PVn,j sind für spezifische Noten charakteristisch und daher beim Unterscheiden zwischen Noten nützlich. Parameter Rahmen 1 Rahmen 2 ... Rahmen n Notenspitzeneinsatz PV1,1 PV2,1 PVn,1 Notenspitzenfreigabe PV1,2 PV2,2 PVn,2 Mehrband-Spitzeneinsatz PV1,3 PV2,3 PVn,3 Mehrband-Spitzenfreigabe PV1,4 PV2,4 PVn,4 Schlagdetektor PV1,5 PV2,5 PVn,5 Tempodetektor PV1,6 PV2,6 PVn,6 Oberwelleneinsatzverhältnis PV1,7 PV2,7 PVn,7 Oberwellenfreigabeverhältnis PV1,8 PV2,8 PVn,8 Leer- und Dämpfungsfaktor PV1,9 PV2,9 PVn,9 Hals- und Stegfaktor PV1,10 PV2,10 PVn,10 Tonhöhendetektor PV1,11 PV2,11 PVn,11 Tabelle 1 – Laufzeitmatrix 174 mit Zeitbereichsparametern und Frequenzbereichsparametern aus der Laufzeitanalyse The runtime matrix 174 contains the in the frequency domain analysis block 120 certain frequency domain parameters and those in the time domain analysis block 122 certain time domain parameters. Each time domain parameter and frequency domain parameter is a numerical parameter value PVn, j, which is in the runtime matrix 174 is stored on a frame by frame basis, where n is the frame and j is the parameter. For example, the headset parameter has the value PV1,1 in frame 1, the value PV2,1 in frame 2, and the value PVn, 1 in frame n; the note peak enable parameter has the value PV1,2 in frame 1, the value PV2,2 in frame 2 and the value PVn, 2 in frame n; the multi-band peak usage parameter has the value PV1,3 in frame 1, the value PV2,3 in frame 2, and the value PVn, 3 in frame n; and so on. Table 1 shows the runtime matrix 174 with the time domain and frequency domain parameter values PVn, j generated during runtime analysis. The time domain and frequency domain parameter values PVn, j are characteristic of specific notes and therefore useful in distinguishing between notes. parameter Frame 1 Frame 2 ... Frame n Note lace PV1,1 PV2,1 PVn, 1 Note tip release PV1,2 PV2,2 PV n, 2 Multiband lace PV1,3 PV2,3 PV n, 3 Multiband peak release PV1,4 PV2,4 PV n, 4 beat detector PV1,5 PV2,5 PV n, 5 speed detector PV1,6 PV2,6 PVn, 6 Harmonic use ratio PV1,7 PV2,7 PVn, 7 Harmonic release ratio PV1,8 PV2,8 PVn, 8 Empty and damping factor PV1,9 PV2,9 PV n, 9 Neck and bridge factor PV1,10 PV2,10 PV n, 10 pitch detector PV1,11 PV2,11 PV n, 11 Table 1 - Runtime matrix 174 with time domain parameters and frequency domain parameters from the runtime analysis

Tabelle 2 zeigt einen Rahmen der Laufzeitmatrix 174, wobei den Zeitbereichs- und Frequenzbereichsparametern, die durch den Frequenzbereichsanalyseblock 120 und den Zeitbereichsanalyseblock 122 erzeugt werden, numerische Musterwerte für ein Audiosignal, das von einem Fingersatzstil stammt, zugewiesen sind. Die Laufzeitmatrix 174 enthält Zeitbereichs- und Frequenzbereichsparameterwerte PVn,j für andere Rahmen des Audiosignals, die vom Fingersatzstil stammen, gemäß Tabelle 1. Parameter Rahmenwert Notenspitzeneinsatz 28 Notenspitzenfreigabe 196 Mehrband-Spitzeneinsatz 31, 36, 33 Mehrband-Spitzenfreigabe 193, 177, 122 Schlagdetektor 0 Tempodetektor 42 Oberwelleneinsatzverhältnis 0,26 Oberwellenfreigabeverhältnis 0,85 Leer- und Dämpfungsfaktor 0,19 Hals- und Stegfaktor 207 Tonhöhendetektor 53 Tabelle 2 – Zeitbereichs- und Frequenzbereichsparameter aus der Laufzeitanalyse eines Rahmens des Fingersatzstils Table 2 shows a frame of the runtime matrix 174 wherein the time domain and frequency domain parameters provided by the frequency domain analysis block 120 and the time domain analysis block 122 numerical pattern values for an audio signal derived from a fingering style are assigned. The runtime matrix 174 contains time domain and frequency domain parameter values PVn, j for other frames of the audio signal that originate from fingering style, according to Table 1. parameter frame value Note lace 28 Note tip release 196 Multiband lace 31, 36, 33 Multiband peak release 193, 177, 122 beat detector 0 speed detector 42 Harmonic use ratio 0.26 Harmonic release ratio 0.85 Empty and damping factor 0.19 Neck and bridge factor 207 pitch detector 53 Table 2 - Time domain and frequency domain parameters from the runtime analysis of a fingering style frame

Tabelle 3 zeigt einen Rahmen der Laufzeitmatrix 174, wobei den Zeitbereichs- und Frequenzbereichsparametern, die durch den Frequenzbereichsanalyseblock 120 und den Zeitbereichsanalyseblock 122 erzeugt werden, numerische Musterwerte für ein Audiosignal, das von einem Schlagstil stammt, zugewiesen sind. Die Laufzeitmatrix 174 enthält Zeitbereichs- und Frequenzbereichsparameterwerte PVn,j für andere Rahmen des Audiosignals, die vom Schlagstil stammen, gemäß Tabelle 1. Parameter Rahmenwert Notenspitzeneinsatz 6 Notenspitzenfreigabe 33 Mehrband-Spitzeneinsatz 6, 4, 7 Mehrband-Spitzenfreigabe 32, 29, 20 Schlagdetektor 1 Tempodetektor 110 Oberwelleneinsatzverhältnis 0,90 Oberwellenfreigabeverhältnis 0,24 Leer- und Dämpfungsfaktor 0,76 Hals- und Stegfaktor 881 Tonhöhendetektor 479 Tabelle 3 – Zeitbereichsparameter und Frequenzbereichsparameter aus der Laufzeitanalyse von einem Rahmen des Schlagstils Table 3 shows a frame of the runtime matrix 174 wherein the time domain and frequency domain parameters provided by the frequency domain analysis block 120 and the time domain analysis block 122 generated numerical pattern values for an audio signal originating from a style of beat. The runtime matrix 174 contains time domain and frequency domain parameter values PVn, j for other frames of the audio signal derived from the beat style, according to Table 1. parameter frame value Note lace 6 Note tip release 33 Multiband lace 6, 4, 7 Multiband peak release 32, 29, 20 beat detector 1 speed detector 110 Harmonic use ratio 0.90 Harmonic release ratio 0.24 Empty and damping factor 0.76 Neck and bridge factor 881 pitch detector 479 Table 3 - Time domain parameters and frequency domain parameters from the runtime analysis of a beat style frame

Mit Rückkehr zu 6 wird die Datenbank 112 in einer Speicherkomponente des Audioverstärkers 90 unterhalten und enthält eine Vielzahl von Notensignaturdatensätzen 1, 2, 3, ... i, wobei jeder Notensignaturdatensatz Zeitbereichsparameter und Frequenzbereichsparameter aufweist, die der Laufzeitmatrix 174 entsprechen. Außerdem enthalten die Notensignaturdatensätze 1-i Gewichtungsfaktoren 1, 2, 3, ... j für jeden Zeitbereichs- und Frequenzbereichsparameter und eine Vielzahl von Steuerparametern 1, 2, 3, ... k.With return to 6 becomes the database 112 in a memory component of the audio amplifier 90 and contains a plurality of note signature records 1, 2, 3, ... i, each note signature record having time domain parameters and frequency domain parameters corresponding to the runtime matrix 174 correspond. In addition, the note signature records 1-i include weighting factors 1, 2, 3, ... j for each time domain and frequency domain parameter and a plurality of control parameters 1, 2, 3, ... k.

20 zeigt die Datenbank 112 mit Zeitbereichs- und Frequenzbereichsparametern 1-j für jeden Notensignaturdatensatz 1-i, Gewichtungsfaktoren 1-j für jeden Notensignaturdatensatz 1-i und Steuerparametern 1-k für jeden Notensignaturdatensatz 1-i. Jeder Notensignaturdatensatz i ist durch die Parameter 1-j und zugehörige Gewichte 1-j definiert, die für die Note, die der Notensignatur i zugeordnet ist, charakteristisch sind, und werden verwendet, um einen ankommenden Rahmen aus der Laufzeitmatrix 174 als mit der Notensignatur i am besten übereinstimmend oder am engsten korreliert zu identifizieren. Sobald der ankommende Rahmen aus der Laufzeitmatrix 174 mit einer speziellen Notensignatur i abgeglichen ist, verwendet die adaptive Intelligenzsteuerung 114 die Steuerparameter 1-k der passenden Notensignatur, um den Betriebszustand der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 einzustellen. In einem passenden Notensignaturdatensatz i legt beispielsweise der Steuerparameter i,1 den Betriebszustand des Vorfilterblocks 92 fest; der Steuerparameter i,2 legt den Betriebszustand des Voreffektblocks 94 fest; der Steuerparameter i,3 legt den Betriebszustand des Blocks 96 für nicht-lineare Effekte fest; der Steuerparameter i,4 legt den Betriebszustand der vom Benutzer definierten Module 98 fest; der Steuerparameter i,5 legt den Betriebszustand des Nacheffektblocks 100 fest; der Steuerparameter i,6 legt den Betriebszustand des Nachfilterblocks 102 fest; und der Steuerparameter i,7 legt den Betriebszustand des Leistungsverstärkungsblocks 104 fest. 20 shows the database 112 with time domain and frequency domain parameters 1-j for each note signature dataset 1-i, weighting factors 1-j for each note signature dataset 1-i and control parameters 1-k for each note signature dataset 1-i. Each note signature data set i is defined by the parameters 1-j and associated weights 1-j characteristic of the note associated with note signature i, and is used to form an incoming frame from the runtime matrix 174 to identify with the note signature i as best matching or closest correlated. Once the incoming frame from the runtime matrix 174 matched with a special note signature i, uses adaptive intelligence control 114 the control parameters 1-k of the appropriate note signature to the operating state of the signal processing blocks 92 - 104 of the audio amplifier 90 adjust. In a suitable note signature data set i, for example, the control parameter i, 1 sets the operating state of the pre-filter block 92 firmly; the control parameter i, 2 defines the operating state of the pre-effect block 94 firmly; the control parameter i, 3 sets the operating state of the block 96 for non-linear effects; the control parameter i, 4 defines the operating state of the modules defined by the user 98 firmly; the control parameter i, 5 defines the operating state of the after-effect block 100 firmly; the control parameter i, 6 sets the operating state of the postfilter block 102 firmly; and the control parameter i, 7 sets the operating state of the power amplification block 104 firmly.

Die Zeitbereichsparameter und Frequenzbereichsparameter 1-j in der Notensignaturdatenbank 112 enthalten Werte, die vom Hersteller vorgegeben sind oder vom Benutzer eingegeben werden oder über die Zeit durch Spielen eines Instruments gelernt werden. Das Werk oder der Hersteller des Audioverstärkers 90 kann anfänglich die Werte der Zeitbereichs- und Frequenzbereichsparameter 1-j sowie Gewichtungsfaktoren 1-j und Steuerparameter 1-k vorgeben. Der Benutzer kann die Zeitbereichs- und Frequenzbereichsparameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k für jede Notensignatur 1-i in der Datenbank 112 direkt unter Verwendung des Computers 209 mit dem Benutzerschnittstellenbildschirm oder der Benutzerschnittstellenanzeige 210, siehe 21, ändern. Die Werte für die Zeitbereichs- und Frequenzbereichsparameter 1-j, de Gewichtungsfaktoren 1-j und die Steuerparameter 1-k werden auf dem Schnittstellenbildschirm 210 dargestellt, um dem Benutzer zu ermöglichen, aktualisierte Werte einzugeben.The time domain parameters and frequency domain parameters 1-j in the note signature database 112 contain values specified by the manufacturer or entered by the user or learned over time by playing an instrument. The factory or the manufacturer of the audio amplifier 90 may initially set the values of the time domain and frequency domain parameters 1-j and weighting factors 1-j and control parameters 1-k. The user may set the time domain and frequency domain parameters 1-j, the weighting factors 1-j and the control parameters 1-k for each note signature 1-i in the database 112 directly using the computer 209 with the user interface screen or user interface display 210 , please refer 21 , to change. The values for the time domain and frequency domain parameters 1-j, de weighting factors 1-j and the control parameters 1-k are displayed on the interface screen 210 to allow the user to enter updated values.

In einem anderen Ausführungsbeispiel können Zeitbereichs- und Frequenzbereichsparameter 1-j, Gewichtungsfaktoren 1-j und Steuerparameter 1-k durch den Künstler, der Gitarre 20 spielt, gelernt werden. Der Künstler setzt den Audioverstärker 90 in einen Lernmodus. Der Künstler spielt wiederholt dieselbe Note auf der Gitarre 20. Der Künstler greift beispielsweise eine spezielle Note oder schlägt eine spezielle Note viele Male wiederholt. Die Frequenzbereichsanalyse 120 und die Zeitbereichsanalyse 122 von 8 erzeugen eine Laufzeitmatrix 174 mit zugehörigen Frequenzbereichs- und Zeitbereichsparametern 1-j jedes Mal, wenn dieselbe Note gespielt wird. Eine Reihe von Frequenzbereichs- und Zeitbereichsparametern 1-j für dieselbe Note wird angesammelt und in der Datenbank 112 gespeichert.In another embodiment, time domain and frequency domain parameters 1-j, weighting factors 1-j and control parameters 1-k may be used by the artist, the guitar 20 plays, be learned. The artist puts the audio amplifier 90 into a learning mode. The artist repeatedly plays the same note on the guitar 20 , For example, the artist takes a special note or beats a special note many times. The frequency domain analysis 120 and the time domain analysis 122 from 8th generate a runtime matrix 174 with associated frequency domain and time domain parameters 1-j each time the same note is played. A series of frequency domain and time domain parameters 1-j for the same note are accumulated and stored in the database 112 saved.

Wenn die Note wiederholt gespielt wird, kann der Künstler manuell Einstellungen am Audioverstärker 90 über das Frontbedienfeld 78 durchführen. Der Audioverstärker 90 lernt die Steuerparameter 1-k, die der Note zugeordnet sind, durch die Einstellungen der Signalverarbeitungsblöcke 92104, wie vom Künstler manuell eingestellt. Der Künstler schlägt beispielsweise eine Note auf der Bassgitarre 20. Frequenzbereichsparameter und Zeitbereichsparameter für die geschlagene Note werden rahmenweise in der Datenbank 112 gespeichert. Der Künstler stellt die Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 durch Frontplattenbedienelemente 78 manuell ein, erhöht z. B. die Verstärkung des Audiosignals im Verstärkungsblock 104 oder wählt einen Klangeffekt im Voreffektblock 94 aus. Die Einstellungen der Signalverarbeitungsblöcke 92104, wie durch den Künstler manuell eingestellt, werden als Steuerparameter 1-k für die gelernte Notensignatur in der Datenbank 112 gespeichert. Der Künstler schlägt dieselbe Note auf der Bassgitarre 20. Frequenzbereichsparameter und Zeitbereichsparameter für dieselbe geschlagene Note werden mit den vorherigen Frequenzbereichs- und Zeitbereichsparametern 1-j in der Datenbank 112 gesammelt. Der Künstler stellt die Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 durch Frontplattenbedienelemente 78 manuell ein, z. B. stellt er die Entzerrung des Audiosignals im Vorfilterblock 92 ein oder wählt einen Klangeffekt im Block 96 für nicht-lineare Effekte aus. Die Einstellungen der Signalverarbeitungsblöcke 92104, wie durch den Künstler manuell eingestellt, werden als Steuerparameter 1-k für die gelernte Notensignatur in der Datenbank 112 gesammelt. Der Prozess fährt für den Lernmodus mit wiederholten Schlägen derselben Note und manuellen Einstellungen der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 durch die Frontplattenbedienelemente 78 fort. Wenn der Lernmodus vollendet ist, wird der Notensignaturdatensatz in der Datenbank 112 mit den Notensignaturparametern, die ein Mittelwert der Frequenzbereichsparameter und Zeitbereichsparameter, die in der Datenbank 112 gesammelt sind, und ein Mittelwert der Steuerparameter 1-k, die von den manuellen Einstellungen der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 genommen sind und in der Datenbank 112 gesammelt sind, sind, definiert. In einem Ausführungsbeispiel ist der Mittelwert ein quadratischer Mittelwert der Reihe von gesammelten Frequenzbereichs- und Zeitbereichsparametern 1-j und der gesammelten Steuerparameter 1-k in der Datenbank 112.If the note is played repeatedly, the artist can manually adjust settings on the audio amplifier 90 via the front panel 78 carry out. The audio amplifier 90 learns the control parameters 1-k associated with the note through the settings of the signal processing blocks 92 - 104 as manually set by the artist. For example, the artist beats a note on the bass guitar 20 , Frequency domain parameters and time domain parameters for the beaten note are entered frame by frame in the database 112 saved. The artist puts the signal processing blocks 92 - 104 of the audio amplifier 90 by Front panel controls 78 manually, increases z. B. the gain of the audio signal in the gain block 104 or choose a sound effect in the pre-effect block 94 out. The settings of the signal processing blocks 92 - 104 , as manually set by the artist, are used as control parameters 1-k for the learned note signature in the database 112 saved. The artist hits the same note on the bass guitar 20 , Frequency domain parameters and time domain parameters for the same beat note will be in the database with the previous frequency domain and time domain parameters 1-j 112 collected. The artist puts the signal processing blocks 92 - 104 of the audio amplifier 90 through front panel controls 78 manually on, z. B. he provides the equalization of the audio signal in the pre-filter block 92 or select a sound effect in the block 96 for non-linear effects. The settings of the signal processing blocks 92 - 104 , as manually set by the artist, are used as control parameters 1-k for the learned note signature in the database 112 collected. The process travels to repeat-hit learning mode of the same note and manual adjustments to the signal processing blocks 92 - 104 of the audio amplifier 90 through the front panel controls 78 continued. When the learn mode is completed, the note signature record will be in the database 112 using the note signature parameters, which are an average of the frequency domain parameters and time domain parameters stored in the database 112 are collected, and an average of the control parameters 1-k, that of the manual settings of the signal processing blocks 92 - 104 of the audio amplifier 90 are taken and in the database 112 are collected, are defined. In one embodiment, the mean is a root mean square of the series of collected frequency domain and time domain parameters 1-j and the collected control parameter 1-k in the database 112 ,

Gewichtungsfaktoren 1-j können durch Überwachen der gelernten Zeitbereichs- und Frequenzbereichsparameter 1-j und Erhöhen oder Verringern der Gewichtungsfaktoren auf der Basis der Nähe oder statistischen Korrelation des Vergleichs gelernt werden. Wenn ein spezieller Parameter eine konsistente statistische Korrelation aufweist, dann kann der Gewichtungsfaktor für diesen Parameter erhöht werden. Wenn ein spezieller Parameter eine unterschiedliche statistische Korrelation aufweist, dann kann der Gewichtungsfaktor für diesen Parameter verringert werden.Weighting factors 1-j may be learned by monitoring the learned time domain and frequency domain parameters 1-j and increasing or decreasing the weighting factors based on the proximity or statistical correlation of the comparison. If a particular parameter has a consistent statistical correlation, then the weighting factor for that parameter can be increased. If a particular parameter has a different statistical correlation, then the weighting factor for that parameter can be reduced.

Sobald die Parameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k der Notensignaturen 1-i für die Datenbank 112 festgelegt sind, können die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 auf einer rahmenweisen Basis mit jeder Notensignatur 1-i verglichen werden, um eine beste Übereinstimmung oder engste Korrelation zu finden. In einem normalen Spielmodus spielt der Künstler Gitarre 20, um eine Sequenz von Noten entsprechend der gespielten Melodie zu erzeugen. Für jede Note wird die Laufzeitmatrix 174 auf einer rahmenweisen Basis mit Zeitbereichsparametern und Frequenzbereichsparametern, die aus einer Laufzeitanalyse des Audiosignals bestimmt werden, wie in 619 beschrieben, belegt.Once the parameters 1-j, the weighting factors 1-j and the control parameters 1-k of the note signatures 1-i for the database 112 are fixed, the time domain and frequency domain parameters 1-j in the runtime matrix 174 on a frame by frame basis with each note signature 1-i to find a best match or closest correlation. In a normal game mode, the artist plays the guitar 20 to create a sequence of notes according to the melody being played. For each note, the runtime matrix becomes 174 on a frame by frame basis with time domain parameters and frequency domain parameters determined from a runtime analysis of the audio signal, as in 6 - 19 described, occupied.

Der Vergleich zwischen der Laufzeitmatrix 174 und den Notensignaturen 1-i in der Datenbank 112 kann in einer Vielfalt von Implementierungen durchgeführt werden. Die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 714 werden beispielsweise einzeln in der Zeitsequenz mit Parametern 1-j für jede Notensignatur 1-i in der Datenbank 112 verglichen. Die beste Übereinstimmung oder engste Korrelation wird für jeden Rahmen der Laufzeitmatrix 174 bestimmt. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern.The comparison between the runtime matrix 174 and the note signatures 1-i in the database 112 can be done in a variety of implementations. The time domain and frequency domain parameters 1-j in the runtime matrix 714 for example, in the time sequence with parameters 1-j for each note signature 1-i in the database individually 112 compared. The best match or closest correlation is for each frame of the runtime matrix 174 certainly. The block 114 for adaptive intelligence control uses the control parameters 1-k in the database 112 associated with the appropriate note signature to the operation of the signal processing blocks 92 - 104 of the audio amplifier 90 to control.

In einem weiteren Beispiel werden die Zeitbereichs- und Frequenzbereichsparameter 1-j in einer vorbestimmten Anzahl von Rahmen einer Note, weniger als alle Rahmen einer Note, in der Laufzeitmatrix 174 mit Parametern 1-j für jede Notensignatur 1-i in der Datenbank 112 verglichen. In einem Ausführungsbeispiel werden die Zeitbereichs- und Frequenzbereichsparameter 1-j in den ersten zehn Rahmen jeder Note in der Laufzeitmatrix 174, wie durch die Beginndetektion der Note bestimmt, mit Parametern 1-j für jede Notensignatur 1-i verglichen. Ein Mittelwert des Vergleichs zwischen Zeitbereichs- und Frequenzbereichsparametern 1-j in jedem der ersten zehn Rahmen jeder Note in der Laufzeitmatrix 174 und Parametern 1-j für jede Notensignatur 1-i bestimmt eine beste Übereinstimmung oder engste Korrelation, um die Rahmen in der Laufzeitmatrix 174 als eine spezielle Note zu identifizieren, die einer Notensignatur i zugeordnet ist. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern.In another example, the time domain and frequency domain parameters 1-j in a predetermined number of frames of a note, less than all frames of a note, in the runtime matrix 174 with parameters 1-j for each note signature 1-i in the database 112 compared. In one embodiment, the time domain and frequency domain parameters 1-j in the first ten frames of each note in the runtime matrix 174 as determined by the beginning detection of the note, compared with parameters 1-j for each note signature 1-i. An average of the comparison between time domain and frequency domain parameters 1-j in each of the first ten frames of each note in the runtime matrix 174 and parameters 1-j for each note signature 1-i determines a best match or closest correlation to the frames in the runtime matrix 174 to identify as a special note associated with a note signature i. The block 114 for adaptive intelligence control uses the control parameters 1-k in the database 112 associated with the appropriate note signature to the operation of the signal processing blocks 92 - 104 of the audio amplifier 90 to control.

In einem erläuternden Zahlenbeispiel des Parametervergleichsprozesses, um eine beste Übereinstimmung oder engste Korrelation zwischen den Zeitbereichs- und Frequenzbereichsparametern 1-j für jeden Rahmen in der Laufzeitmatrix 174 und Parametern 1-j für jede Notensignatur 1-i zu bestimmen, zeigt Tabelle 4 Zeitbereichs- und Frequenzbereichsparameter 1-j mit Musterparameterwerten für die Notensignatur 1 (Fingersatzstilnote) der Datenbank 112. Tabelle 5 zeigt Zeitbereichs- und Frequenzbereichsparameter 1-j mit Musterparameterwerten für die Notensignatur 2 (Schlagstilnote) der Datenbank 112. Parameter Wert Gewichtung Notenspitzeneinsatz 30 0,83 Notenspitzenfreigabe 200 0,67 Mehrband-Spitzeneinsatz 30, 35, 33 0,72 Mehrband-Spitzenfreigabe 200, 180, 120 0,45 Schlagdetektor 0 1,00 Tempodetektor 50 0,38 Oberwelleneinsatzverhältnis 0,25 0,88 Oberwellenfreigabeverhältnis 0,80 0,61 Leer- und Dämpfungsfaktor 0,15 0,70 Hals- und Stegfaktor 200 0,69 Tonhöhendetektor 50 0,40 Tabelle 4 – Zeitbereichsparameter und Frequenzbereichsparameter für die Notensignatur 1 (Fingersatzstil) Parameter Wert Gewichtung Notenspitzeneinsatz 5 0,80 Notenspitzenfreigabe 40 0,71 Mehrband-Spitzeneinsatz 5, 4, 5 0,65 Mehrband-Spitzenfreigabe 30, 25, 23 0,35 Schlagdetektor 1 1,00 Tempodetektor 100 0,27 Oberwelleneinsatzverhältnis 0,85 0,92 Oberwellenfreigabeverhältnis 0,20 0,69 Leer- und Dämpfungsfaktor 0,65 0,74 Hals- und Stegfaktor 1000 0,80 Tonhöhendetektor 500 0,57 Tabelle 5 – Zeitbereichsparameter und Frequenzbereichsparameter in der Notensignatur 2 (Schlagstil) In an illustrative numerical example of the parameter comparison process, for a best match or closest correlation between the time domain and frequency domain parameters 1-j for each frame in the runtime matrix 174 and to determine parameters 1-j for each note signature 1-i, is shown in Table 4 Time domain and frequency domain parameters 1-j with sample parameter values for the note signature 1 (fingering style note) of the database 112 , Table 5 shows the time domain and frequency domain parameters 1-j with sample parameter values for the signature 2 (beat style note) of the database 112 , parameter value weighting Note lace 30 0.83 Note tip release 200 0.67 Multiband lace 30, 35, 33 0.72 Multiband peak release 200, 180, 120 0.45 beat detector 0 1.00 speed detector 50 0.38 Harmonic use ratio 0.25 0.88 Harmonic release ratio 0.80 0.61 Empty and damping factor 0.15 0.70 Neck and bridge factor 200 0.69 pitch detector 50 0.40 Table 4 - Time domain parameters and frequency domain parameters for note signature 1 (fingering style) parameter value weighting Note lace 5 0.80 Note tip release 40 0.71 Multiband lace 5, 4, 5 0.65 Multiband peak release 30, 25, 23 0.35 beat detector 1 1.00 speed detector 100 0.27 Harmonic use ratio 0.85 0.92 Harmonic release ratio 0.20 0.69 Empty and damping factor 0.65 0.74 Neck and bridge factor 1000 0.80 pitch detector 500 0.57 Table 5 - Time Range Parameters and Frequency Domain Parameters in the Note Signature 2 (Beat Style)

Die Zeitbereichs- und Frequenzbereichsparameter 1-j für einen Rahmen in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i werden auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. Der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 weist beispielsweise einen Wert von 28 auf (siehe Tabelle 2) und der Notenspitzeneinsatzparameter in der Notensignatur 1 weist einen Wert von 30 auf (siehe Tabelle 4). 22 zeigt einen Erkennungsdetektor 211 mit dem Vergleichsblock 212 zum Bestimmen der Differenz zwischen den Zeitbereichs- und Frequenzbereichsparametern 1-j für einen Rahmen in der Laufzeitmatrix 174 und den Parametern 1-j in der Notensignatur i. Die Differenz 30-28 zwischen dem Rahmen 1 und der Notensignatur 1 wird im Erkennungsspeicher 213 gespeichert. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 196 auf (siehe Tabelle 2) und der Notenspitzenfreigabeparameter in der Notensignatur 1 weist einen Wert von 200 auf (siehe Tabelle 4). Der Vergleichsblock 212 bestimmt die Differenz 200-196 und speichert die Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 1 und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 1 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 1 zu bestimmen.The time domain and frequency domain parameters 1-j for a frame in the runtime matrix 174 and the parameters 1-j in all the note signatures 1-i are successively compared on a basis and the differences are recorded. The headset usage parameter of frame 1 in the runtime matrix 174 for example, has a value of 28 (see Table 2), and the note-point usage parameter in note signature 1 has a value of 30 (see Table 4). 22 shows a recognition detector 211 with the comparison block 212 for determining the difference between the time domain and frequency domain parameters 1-j for a frame in the runtime matrix 174 and the parameters 1-j in the note signature i. The difference 30-28 between the frame 1 and the note signature 1 is in the recognition memory 213 saved. The note peak enable parameter of frame 1 in the runtime matrix 174 has a value of 196 (see Table 2) and the note-point enable parameter in note signature 1 has a value of 200 (see Table 4). The comparison block 212 determines the difference 200-196 and stores the difference in the recognition memory 213 , For each parameter of frame 1, the comparison block determines 212 the difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature 1 and stores the difference in the recognition memory 213 , The differences between the parameters 1-j of the frame 1 and the parameters 1-j of the note signature 1 are summed to determine a total difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the note signature 1.

Als nächstes weist der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 einen Wert von 28 auf (siehe Tabelle 2) und der Notenspitzeneinsatzparameter in der Notensignatur 2 weist einen Wert von 5 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die Differenz 5-28 und speichert die Differenz zwischen dem Rahmen 1 und der Notensignatur 2 im Erkennungsspeicher 213. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 196 auf (siehe Tabelle 2) und der Notenspitzenfreigabeparameter in der Notensignatur 2 weist einen Wert von 40 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die Differenz 40-196 und speichert die Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 2 und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j in der Laufzeitmatrix 174 für den Rahmen 1 und den Parametern 1-j der Notensignatur 2 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j in der Laufzeitmatrix 174 für den Rahmen 1 und den Parametern 1-j der Notensignatur 2 zu bestimmen. Next, the note peak usage parameter of frame 1 in the runtime matrix 174 a value of 28 on (see Table 2) and the note-point use parameter in the note signature 2 has a value of 5 (see Table 5). The comparison block 212 determines the difference 5-28 and stores the difference between the frame 1 and the note signature 2 in the recognition memory 213 , The note peak enable parameter of frame 1 in the runtime matrix 174 has a value of 196 (see Table 2) and the note-point enable parameter in note signature 2 has a value of 40 (see Table 5). The comparison block 212 determines the difference 40-196 and stores the difference in the recognition memory 213 , For each parameter of frame 1, the comparison block determines 212 the difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature 2 and stores the difference in the recognition memory 213 , The differences between the parameters 1-j in the runtime matrix 174 for the frame 1 and the parameters 1-j of the note signature 2 are summed to give an overall difference value between the parameters 1-j in the runtime matrix 174 for the frame 1 and the parameters 1-j of the note signature 2 to determine.

Die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-in den restlichen Notensignaturen 3-i in der Datenbank 112 verglichen, wie für die Notensignaturen 1 und 2 beschrieben. Die minimale Gesamtdifferenz zwischen den Parametern 1-j in der Laufzeitmatrix 174 für den Rahmen 1 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 für den Rahmen 1 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Notensignatur 1 ausgerichtet. Der Rahmen 1 der Laufzeitmatrix 174 wird als Rahmen einer Fingersatzstilnote identifiziert.The time domain and frequency domain parameters 1-j in the runtime matrix 174 for frame 1, with the time domain and frequency domain parameters 1-in the remaining note signatures 3-i in the database 112 compared as described for the note signatures 1 and 2. The minimum total difference between the parameters 1-j in the runtime matrix 174 for the frame 1 and the parameters 1-j of the note signatures 1-i is the best match or closest correlation. In this case, the time domain and frequency domain parameters are 1-j in the runtime matrix 174 for the frame 1 is more closely aligned with the time domain and frequency domain parameters 1-j in the note signature 1. The frame 1 of the runtime matrix 174 is identified as the frame of a fingering style note.

Mit den Zeitbereichsparametern und Frequenzbereichsparametern 1-j des Rahmens 1 in der Laufzeitmatrix 174, die von einer gespielten Note erzeugt werden, die mit der Notensignatur 1 übereinstimmt, verwendet der Block 114 zur adaptiven Intelligenzsteuerung von 6 die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur 1 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern. Der Steuerparameter 1,1, der Steuerparameter 1,2 bis zum Steuerparameter 1,k unter der Notensignatur 1 weisen jeweils einen Zahlenwert auf, z. B. 1–10. Der Steuerparameter 1,1 weist beispielsweise einen Wert 5 auf und legt den Betriebszustand des Vorfilterblocks 92 so fest, dass er eine Tiefpassfilterfunktion mit 200 Hz aufweist; der Steuerparameter 1,2 weist einen Wert 7 auf und legt den Betriebszustand des Voreffektblocks 94 fest, um einen Hallklangeffekt einzuschalten; der Steuerparameter 1,3 weist einen Wert 9 auf und legt den Betriebszustand des Blocks 96 für nicht-lineare Effekte fest, um eine Verzerrung einzuführen; der Steuerparameter 1,4 weist einen Wert 1 auf und legt den Betriebszustand der vom Benutzer definierten Module 98 fest, um eine Trommelbegleitung hinzuzufügen; der Steuerparameter 1,5 weist einen Wert 3 auf und legt den Betriebszustand des Nacheffektblocks 100 fest, um einen Brummunterdrückerklangeffekt einzuschalten; der Steuerparameter 1,6 weist einen Wert 4 auf und legt den Betriebszustand des Nachfilterblocks 102 fest, um eine Glockenentzerrung zu ermöglichen; und der Steuerparameter 1,7 weist einen Wert 8 auf und legt den Betriebszustand des Leistungsverstärkungsblocks 104 fest, um die Verstärkung um 3 dB zu erhöhen. Das Audiosignal wird durch den Vorfilterblock 92, den Voreffektblock 94, den Block 96 für nicht-lineare Effekte, die vom Benutzer definierten Module 98, den Nacheffektblock 100, den Nachfilterblock 102 und den Leistungsverstärkungsblock 104 verarbeitet, die jeweils arbeiten, wie durch den Steuerparameter 1,1, den Steuerparameter 1,2 bis zum Steuerparameter 1,k der Notensignatur 1 festgelegt. Das verbesserte Audiosignal wird zum Lautsprecher im Gehäuse 24 oder zum Lautsprecher 82 im Gehäuse 72 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.With the time domain parameters and frequency domain parameters 1-j of frame 1 in the runtime matrix 174 that are generated by a played note that matches the note signature 1 uses the block 114 for adaptive intelligence control of 6 the control parameters 1-k in the database 112 associated with the appropriate note signature 1 for the operation of the signal processing blocks 92 - 104 of the audio amplifier 90 to control. The control parameter 1,1, the control parameter 1,2 to the control parameter 1, k under the note signature 1 each have a numerical value, z. Eg 1-10. The control parameter 1,1 has, for example, a value of 5 and sets the operating state of the pre-filter block 92 so strong that it has a 200 Hz low pass filter function; the control parameter 1,2 has a value of 7 and sets the operating state of the pre-effect block 94 fixed to turn on a reverberant sound effect; the control parameter 1,3 has a value of 9 and defines the operating state of the block 96 for non-linear effects, to introduce distortion; the control parameter 1.4 has a value of 1 and defines the operating state of the modules defined by the user 98 fixed to add a drum accompaniment; control parameter 1.5 has a value of 3 and defines the operating state of the after-effect block 100 to turn on a buzzer sound effect; the control parameter 1.6 has a value 4 and defines the operating state of the postfilter block 102 firm to allow a bell equalization; and the control parameter 1.7 has a value of 8 and sets the operating state of the power amplification block 104 fixed to increase the gain by 3 dB. The audio signal is passed through the pre-filter block 92 , the pre-effect block 94 , the block 96 for non-linear effects, the user-defined modules 98 , the after effect block 100 , the postfilter block 102 and the power amplification block 104 processed, each working as determined by the control parameter 1,1, the control parameter 1,2 to the control parameter 1, k of the note signature 1. The improved audio signal becomes the speaker in the case 24 or to the speaker 82 in the case 72 directed. The listener hears the reproduced audio signal in real time with characteristics determined by the dynamic content of the audio signal.

Als nächstes werden die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 1 und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i zu bestimmen. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 2 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j des Rahmens 2 in der Laufzeitmatrix 174 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Notensignatur 1 ausgerichtet. Der Rahmen 2 der Laufzeitmatrix 174 wird als weiterer Rahmen für eine Fingersatzstilnote identifiziert. Der Block 114 für die adaptive Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur 1 zugeordnet sind, um den Betrieb der. Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 174 fort.Next, the time domain and frequency domain parameters 1-j for the frame 2 in the runtime matrix 174 and the parameters 1-j in all the note signatures 1-i are successively compared on a basis and the differences are recorded. For each parameter 1-j of frame 2, the comparison block determines 212 the difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature 1 and stores the difference in the recognition memory 213 , The differences between the parameters 1-j of the frame 2 and the parameters 1-j of the note signature i are summed to determine a total difference value between the parameters 1-j of the frame 2 and the parameters 1-j of the note signature i. The minimum total difference between the parameters 1-j of frame 2 of the runtime matrix 174 and the parameters 1-j of the note signatures 1-i is the best match or closest correlation. The frame 2 of the runtime matrix 174 is identified with the note signature with the minimum total difference between corresponding parameters. In this case, the time domain and frequency domain parameters 1-j of frame 2 are in the runtime matrix 174 more closely aligned to the time domain and frequency domain parameters 1-j in the note signature 1. The frame 2 of the runtime matrix 174 will serve as another framework for identified a fingering style note. The block 114 for adaptive intelligence control uses the control parameter 1-k in the database 112 that are associated with the appropriate note signature 1 to the operation of the. Signal processing blocks 92 - 104 of the audio amplifier 90 to control. The process continues for each frame n of the runtime matrix 174 continued.

In einem weiteren Zahlenbeispiel weist der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 einen Wert von 6 auf (siehe Tabelle 3) und der Notenspitzeneinsatzparameter in der Notensignatur 1 weist einen Wert von 30 auf (siehe Tabelle 4). Die Differenz 30-6 zwischen dem Rahmen 1 und der Notensignatur 1 wird im Erkennungsspeicher 213 gespeichert. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 33 auf (siehe Tabelle 3) und der Notenspitzenfreigabeparameter in der Notensignatur 1 weist einen Wert von 200 auf (siehe Tabelle 4). Der Vergleichsblock 212 bestimmt die Differenz 200-33 und speichert die Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 1 und speichert die Differenz im Erkennungsspeicher 213. Die Differenz zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 174 und den Parametern 1-j der Notensignatur 1 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 1 zu bestimmen.In another numerical example, the note peak usage parameter of frame 1 in the runtime matrix 174 a value of 6 (see Table 3) and the note-point use parameter in note signature 1 has a value of 30 (see Table 4). The difference 30-6 between the frame 1 and the note signature 1 is in the recognition memory 213 saved. The note peak enable parameter of frame 1 in the runtime matrix 174 has a value of 33 (see Table 3) and the note-point enable parameter in note signature 1 has a value of 200 (see Table 4). The comparison block 212 determines the difference 200-33 and stores the difference in the recognition memory 213 , For each parameter of frame 1, the comparison block determines 212 the difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature 1 and stores the difference in the recognition memory 213 , The difference between the parameters 1-j of frame 1 in the runtime matrix 174 and the parameters 1-j of the note signature 1 are summed to determine an overall difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the note signature 1.

Als nächstes weist der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 einen Wert von 6 auf (siehe Tabelle 3) und der Notenspitzeneinsatzparameter in der Notensignatur 2 weist einen Wert von 5 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die Differenz 5-6 und speichert die Differenz im Erkennungsspeicher 213. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 33 auf (siehe Tabelle 3) und der Notenspitzenfreigabeparameter in der Notensignatur 2 weist einen Wert von 40 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die Differenz 40-33 und speichert die Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 2 und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 2 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 2 zu bestimmen.Next, the note peak usage parameter of frame 1 in the runtime matrix 174 a value of 6 (see Table 3) and the note-point usage parameter in note signature 2 has a value of 5 (see Table 5). The comparison block 212 determines the difference 5-6 and stores the difference in the recognition memory 213 , The note peak enable parameter of frame 1 in the runtime matrix 174 has a value of 33 (see Table 3) and the note-point enable parameter in note signature 2 has a value of 40 (see Table 5). The comparison block 212 determines the difference 40-33 and stores the difference in the recognition memory 213 , For each parameter of frame 1, the comparison block determines 212 the difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature 2 and stores the difference in the recognition memory 213 , The differences between the parameters 1-j of the frame 1 and the parameters 1-j of the note signature 2 are summed to determine an overall difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the note signature 2.

Die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-in den restlichen Notensignaturen 3-i in der Datenbank 112 verglichen, wie für die Notensignaturen 1 und 2 beschrieben. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 1 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 1 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs und Frequenzbereichsparameter 1-j des Rahmens 1 in der Laufzeitmatrix 174 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Notensignatur 2 ausgerichtet. Der Rahmen 1 der Laufzeitmatrix 174 wird als Rahmen einer Schlagstilnote identifiziert.The time domain and frequency domain parameters 1-j in the runtime matrix 174 for frame 1, with the time domain and frequency domain parameters 1-in the remaining note signatures 3-i in the database 112 compared as described for the note signatures 1 and 2. The minimum total difference between the parameters 1-j of frame 1 of the runtime matrix 174 and the parameters 1-j of the note signatures 1-i is the best match or closest correlation. The frame 1 of the runtime matrix 174 is identified with the note signature with the minimum total difference between corresponding parameters. In this case, the time domain and frequency domain parameters are 1-j of frame 1 in the runtime matrix 174 more closely aligned with the time domain and frequency domain parameters 1-j in the note signature 2. The frame 1 of the runtime matrix 174 is identified as the frame of a beat style note.

Mit den Zeitbereichsparametern und Frequenzbereichsparametern 1-j des Rahmens 1 in der Laufzeitmatrix 174, die von einer gespielten Note erzeugt werden, die mit der Notensignatur 2 übereinstimmt, verwendet der Block 114 zur adaptiven Intelligenzsteuerung von 6 die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur 2 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern.With the time domain parameters and frequency domain parameters 1-j of frame 1 in the runtime matrix 174 that are generated by a played note that matches the note signature 2 uses the block 114 for adaptive intelligence control of 6 the control parameters 1-k in the database 112 associated with the appropriate note signature 2 for the operation of the signal processing blocks 92 - 104 of the audio amplifier 90 to control.

Das Audiosignal wird durch den Vorfilterblock 92, den Voreffektblock 94, den Block 96 für nicht-lineare Effekte, die vom Benutzer definierten Module 98, den Nacheffektblock 100, den Nachfilterblock 102 und den Leistungsverstärkungsblock 104 verarbeitet, die jeweils arbeiten, wie durch den Steuerparameter 2,1, den Steuerparameter 2,2 bis zum Steuerparameter 2,k der Notensignatur 2 festgelegt. Das verbesserte Audiosignal wird zum Lautsprecher im Gehäuse 24 oder zum Lautsprecher 82 im Gehäuse 72 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.The audio signal is passed through the pre-filter block 92 , the pre-effect block 94 , the block 96 for non-linear effects, the user-defined modules 98 , the after effect block 100 , the postfilter block 102 and the power amplification block 104 processed, each of which, as determined by the control parameter 2.1, the control parameter 2.2 to the control parameter 2, k of the note signature 2. The improved audio signal becomes the speaker in the case 24 or to the speaker 82 in the case 72 directed. The listener hears the reproduced audio signal in real time with characteristics determined by the dynamic content of the audio signal.

Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i werden auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 212 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur i und speichert die Differenz im Erkennungsspeicher 213. Die Differenzen zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i zu bestimmen. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 2 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j des Rahmens 2 in der Laufzeitmatrix 174 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Notensignatur 2 ausgerichtet. Der Rahmen 2 der Laufzeitmatrix 174 wird als weiterer Rahmen einer Schlagstilnote identifiziert. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur 2 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 174 fort.The time domain and frequency domain parameters 1-j for frame 2 in the runtime matrix 174 and the parameters 1-j in all the note signatures 1-i are successively compared on a basis and the differences are recorded. For each parameter 1-j of frame 2, the comparison block determines 212 the difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature i and stores the difference in the recognition memory 213 , The differences between the parameters 1-j of the frame 2 and the parameters 1-j of the note signature i are summed to determine a total difference value between the parameters 1-j of the frame 2 and the parameters 1-j of the note signature i. The minimum total difference between the parameters 1-j of frame 2 of the runtime matrix 174 and the parameters 1-j of the note signatures 1-i is the best match or closest correlation. The frame 2 of the runtime matrix 174 is identified with the note signature with the minimum total difference between corresponding parameters. In this case, the time domain and frequency domain parameters 1-j of frame 2 are in the runtime matrix 174 more closely aligned with the time domain and frequency domain parameters 1-j in the note signature 2. The frame 2 of the runtime matrix 174 is identified as another frame of a beat style note. The block 114 for adaptive intelligence control uses the control parameters 1-k in the database 112 associated with the appropriate note signature 2 for the operation of the signal processing blocks 92 - 104 of the audio amplifier 90 to control. The process continues for each frame n of the runtime matrix 174 continued.

In einem weiteren Ausführungsbeispiel werden die Zeitbereichs- und Frequenzbereichsparameter 1-j für einen Rahmen in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i auf einer Basis nacheinander verglichen und die gewichteten Differenzen werden aufgezeichnet. Der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 weist beispielsweise einen Wert von 28 auf (siehe Tabelle 2) und der Notenspitzeneinsatzparameter in der Notensignatur 1 weist einen Wert von 30 auf (siehe Tabelle 4). Der Vergleichsblock 212 bestimmt die gewichtete Differenz (30-28)·Gewicht 1,1 und speichert die gewichtete Differenz im Erkennungsspeicher 213. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 196 auf (siehe Tabelle 2) und der Notenspitzenfreigabeparameter in der Notensignatur 1 weist einen Wert von 200 auf (siehe Tabelle 4). Der Vergleichsblock 212 bestimmt die gewichtete Differenz (200-196)·Gewicht 1,2 und speichert die gewichtete Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 1, wie durch das Gewicht 1,j bestimmt, und speichert die gewichtete Differenz im Erkennungsspeicher 213. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens und den Parametern 1-j der Notensignatur 1 werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 1 zu bestimmen.In another embodiment, the time domain and frequency domain parameters 1-j for a frame in the runtime matrix 174 and the parameters 1-j in all note signatures 1-i are compared on a sequential basis and the weighted differences are recorded. The headset usage parameter of frame 1 in the runtime matrix 174 for example, has a value of 28 (see Table 2), and the note-point usage parameter in note signature 1 has a value of 30 (see Table 4). The comparison block 212 determines the weighted difference (30-28) x weight 1.1 and stores the weighted difference in the recognition memory 213 , The note peak enable parameter of frame 1 in the runtime matrix 174 has a value of 196 (see Table 2) and the note-point enable parameter in note signature 1 has a value of 200 (see Table 4). The comparison block 212 determines the weighted difference (200-196) x weight 1,2 and stores the weighted difference in the recognition memory 213 , For each parameter of frame 1, the comparison block determines 212 the weighted difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature 1, as determined by the weight 1, j, and stores the weighted difference in the recognition memory 213 , The weighted differences between the parameters 1-j of the frame and the parameters 1-j of the note signature 1 are summed to determine a total weighted difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the note signature 1.

Als nächstes weist der Notenspitzeneinsatzparameter des Rahmens 1 in der Laufzeitmatrix 174 einen Wert von 28 auf (siehe Tabelle 2) und der Notenspitzeneinsatzparameter in der Notensignatur 2 weist einen Wert von 5 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die gewichtete Differenz (5-28)·Gewicht 2,1 und speichert die gewichtete Differenz im Erkennungsspeicher 213. Der Notenspitzenfreigabeparameter des Rahmens 1 in der Laufzeitmatrix 174 weist einen Wert von 196 auf (siehe Tabelle 2) und der Notenspitzenfreigabeparameter in der Notensignatur 2 weist einen Wert von 40 auf (siehe Tabelle 5). Der Vergleichsblock 212 bestimmt die gewichtete Differenz (40-196)·Gewicht 2,2 und speichert die gewichtete Differenz im Erkennungsspeicher 213. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 212 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur 2 durch das Gewicht 2,j und speichert die gewichtete Differenz im Erkennungsspeicher 213. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 174 und den Parametern 1-j der Notensignatur 2 werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Notensignatur 2 zu bestimmen.Next, the note peak usage parameter of frame 1 in the runtime matrix 174 a value of 28 on (see Table 2) and the note-point use parameter in the note signature 2 has a value of 5 (see Table 5). The comparison block 212 determines the weighted difference (5-28) x weight 2,1 and stores the weighted difference in the recognition memory 213 , The note peak enable parameter of frame 1 in the runtime matrix 174 has a value of 196 (see Table 2) and the note-point enable parameter in note signature 2 has a value of 40 (see Table 5). The comparison block 212 determines the weighted difference (40-196) x weight 2,2 and stores the weighted difference in the recognition memory 213 , For each parameter of frame 1, the comparison block determines 212 the weighted difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature 2 by the weight 2, j and stores the weighted difference in the recognition memory 213 , The weighted differences between the parameters 1-j of frame 1 in the runtime matrix 174 and the parameters 1-j of the note signature 2 are summed to determine a total weighted difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the note signature 2.

Die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 174 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-j in den restlichen Notensignaturen 3-i in der Datenbank 112 verglichen, wie für die Notensignaturen 1 und 2 beschrieben. Die minimale gewichtete Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 1 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 1 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen gewichteten Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern.The time domain and frequency domain parameters 1-j in the runtime matrix 174 for frame 1, with the time domain and frequency domain parameters 1-j in the remaining note signatures 3-i in the database 112 compared as described for the note signatures 1 and 2. The minimum weighted total difference between the parameters 1-j of frame 1 of the runtime matrix 174 and the parameters 1-j of the note signatures 1-i is the best match or closest correlation. The frame 1 of the runtime matrix 174 is identified with the note signature with the minimum weighted total difference between corresponding parameters. The block 114 for adaptive intelligence control uses the control parameters 1-k in the database 112 associated with the appropriate note signature to the operation of the signal processing blocks 92 - 104 of the audio amplifier 90 to control.

Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 174 und die Parameter 1-j in allen Notensignaturen 1-i werden auf einer Basis nacheinander verglichen und die gewichteten Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 212 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 174 und dem Parameterwert in der Notensignatur i durch das Gewicht i,j und speichert die gewichtete Differenz im Erkennungsspeicher 213. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Notensignatur i zu bestimmen. Die minimale gewichtete Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 174 und den Parametern 1-j der Notensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation. Der Rahmen 2 der Laufzeitmatrix 174 wird mit der Notensignatur mit der minimalen gewichteten Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. Der Block 114 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 112, die der passenden Notensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 174 fort.The time domain and frequency domain parameters 1-j for frame 2 in the runtime matrix 174 and the parameters 1-j in all the note signatures 1-i are successively compared on a basis and the weighted differences are recorded. For each parameter 1-j of frame 2, the comparison block determines 212 the weighted difference between the parameter value in the runtime matrix 174 and the parameter value in the note signature i by the weight i, j and stores the weighted difference in the recognition memory 213 , The weighted differences between the Parameters 1-j of the frame 2 and the parameters 1-j of the note signature i are summed to determine a total weighted difference value between the parameters 1-j of the frame 2 and the parameters 1-j of the note signature i. The minimum weighted total difference between the parameters 1-j of frame 2 of the runtime matrix 174 and the parameters 1-j of the note signatures 1-i is the best match or closest correlation. The frame 2 of the runtime matrix 174 is identified with the note signature with the minimum weighted total difference between corresponding parameters. The block 114 for adaptive intelligence control uses the control parameters 1-k in the database 112 associated with the appropriate note signature to the operation of the signal processing blocks 92 - 104 of the audio amplifier 90 to control. The process continues for each frame n of the runtime matrix 174 continued.

In einem weiteren Ausführungsbeispiel wird eine Wahrscheinlichkeit für die Korrelation zwischen entsprechenden Parametern in der Laufzeitmatrix 174 und den Notensignaturen 1-i bestimmt. Mit anderen Worten, eine Wahrscheinlichkeit für die Korrelation wird als Prozentsatz, dass ein gegebener Parameter in der Laufzeitmatrix 174 wahrscheinlich derselbe wie der entsprechende Parameter in der Notensignatur i ist, bestimmt. Der Prozentsatz ist eine Wahrscheinlichkeit für eine Übereinstimmung. Wie vorstehend beschrieben, werden die Zeitbereichsparameter und Frequenzbereichsparameter in der Laufzeitmatrix 174 auf einer rahmenweisen Basis gespeichert. Für jeden Rahmen n jedes Parameters j in der Laufzeitmatrix 174 wird durch Pn,j = [Pn1, Pn2, ... Pnj] dargestellt.In a further embodiment, a probability for the correlation between corresponding parameters in the runtime matrix 174 and the note signatures 1-i. In other words, a probability of correlation is expressed as a percentage that is a given parameter in the runtime matrix 174 probably the same as the corresponding parameter in the note signature i. The percentage is a probability of a match. As described above, the time domain parameters and frequency domain parameters in the runtime matrix become 174 stored on a frame by frame basis. For every frame n of each parameter j in the runtime matrix 174 is represented by Pn, j = [Pn1, Pn2, ... Pnj].

Eine nach Wahrscheinlichkeit geordnete Liste R wird zwischen jedem Rahmen n jedes Parameters j in der Laufzeitmatrix 174 und jedem Parameter j jeder Notensignatur i bestimmt. Der Wahrscheinlichkeitswert ri kann durch eine Analyse des quadratischen Mittelwerts für das Pn,j und die Notensignaturdatenbank Si,j in Gleichung (3) bestimmt werden:

Figure 00500001
A probability-ordered list R is placed between each frame n of each parameter j in the runtime matrix 174 and each parameter j of each note signature i. The probability value r i can be determined by an analysis of the root-mean-squared value for the Pn, j and the note signature database Si, j in equation (3):
Figure 00500001

Der Wahrscheinlichkeitswert R ist (1-ri) × 100%. Der Gesamtrangordnungswert für Pn,j und die Notendatenbank Si,j ist in Gleichung (4) gegeben. R = [(1-r1) × 100%(1-r2) × 100%(1-ri) × 100%] (4) The probability value R is (1-r i ) × 100%. The total rank order value for Pn, j and the score database S i, j is given in Equation (4). R = [(1-r 1 ) x 100% (1-r 2 ) x 100% (1-r i ) x 100%] (4)

In einigen Fällen identifiziert der Vergleichsprozess zwei oder mehr Notensignaturen, die nahe der gespielten Note liegen. Die gespielte Note kann beispielsweise eine Wahrscheinlichkeit von 52%, dass sie mit der Notensignatur 1 übereinstimmt, und eine Wahrscheinlichkeit von 48%, dass sie mit der Notensignatur 2 übereinstimmt, aufweisen. In diesem Fall wird eine Interpolation zwischen dem Steuerparameter 1,1, dem Steuerparameter 1,2 bis zum Steuerparameter 1,k und dem Steuerparameter 2,1, dem Steuerparameter 2,2 bis zum Steuerparameter 2,k, die durch die Wahrscheinlichkeit der Übereinstimmung gewichtet werden, durchgeführt. Der effektive Nettosteuerparameter 1 ist 0,52·Steuerparameter 1,1 + 0,48·Steuerparameter 2,1. Der effektive Nettosteuerparameter 2 ist 0,52·Steuerparameter 1,2 + 0,48·Steuerparameter 2,2. Der effektive Nettosteuerparameter k ist 0,52·Steuerparameter 1,k + 0,48·Steuerparameter 2,k. Die effektiven Nettosteuerparameter 1-k steuern den Betrieb der Signalverarbeitungsblöcke 92104 des Audioverstärkers 90. Das Audiosignal wird durch den Vorfilterblock 92, den Voreffektblock 94, den Block 96 für nicht-lineare Effekte, die vom Benutzer definierten Module 98, den Nacheffektblock 100, den Nachfilterblock 102 und den Leistungsverstärkungsblock 104 verarbeitet, die jeweils arbeiten, wie durch die effektiven Nettosteuerparameter 1-k festgelegt. Das Audiosignal wird zum Lautsprecher im Gehäuse 24 oder zum Lautsprecher 82 im Gehäuse 72 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.In some cases, the comparison process identifies two or more note signatures that are close to the note being played. For example, the played note may have a probability of 52% matching the note signature 1 and a 48% chance that it matches the note signature 2. In this case, an interpolation between the control parameter 1,1, the control parameter 1,2 to the control parameter 1, k and the control parameter 2,1, the control parameter 2,2 to the control parameter 2, k, which is weighted by the probability of coincidence be performed. The net effective control parameter 1 is 0.52 · control parameters 1.1 + 0.48 · control parameters 2.1. The net effective control parameter 2 is 0.52 · control parameter 1.2 + 0.48 · control parameter 2.2. The net effective control parameter k is 0.52 · control parameters 1, k + 0.48 · control parameters 2, k. The net effective control parameters 1-k control the operation of the signal processing blocks 92 - 104 of the audio amplifier 90 , The audio signal is passed through the pre-filter block 92 , the pre-effect block 94 , the block 96 for non-linear effects, the user-defined modules 98 , the after effect block 100 , the postfilter block 102 and the power amplification block 104 each working as determined by the net effective control parameters 1-k. The audio signal becomes the speaker in the case 24 or to the speaker 82 in the case 72 directed. The listener hears the reproduced audio signal in real time with characteristics determined by the dynamic content of the audio signal.

Die in 6-22 beschriebene adaptive Intelligenzsteuerung ist auf andere Musikinstrumente anwendbar, die Noten mit einer anderen Einsatzphase, gefolgt von einer Haltephase, Abklingphase und Freigabephase, erzeugen. Das Audiosignal kann beispielsweise von einem Saitenmusikinstrument, wie z. B. einer Violine, einer Geige, einer Harfe, einer Mandoline, einer Bratsche, einem Banjo, einem Cello stammen, um nur einige zu nennen. Das Audiosignal kann von Schlaginstrumenten wie z. B. Trommeln, Glocken, Glockenspielen, Zymbeln, einem Klavier, einem Tamburin, einem Xylophon und dergleichen stammen. Das Audiosignal wird durch den Zeitbereichsanalyseblock 122 und den Frequenzbereichsanalyseblock 120 auf einer rahmenweisen Basis verarbeitet, um die gespielte Note zu isolieren und ihre Eigenschaften zu bestimmen. Jeder im Zeitbereich und Frequenzbereich analysierte Rahmen wird mit Notensignaturen 1-i in der Datenbank 112 verglichen, um den Typ der Note zu identifizieren und die geeigneten Steuerparameter 1-k zu bestimmen. Die Signalverarbeitungsfunktionen im Audioverstärker 90 werden gemäß den Steuerparametern 1-k der passenden Notensignatur festgelegt, um das Audiosignal in Echtzeit mit verbesserten Eigenschaften wiederzugeben, die durch den dynamischen Inhalt des Audiosignals bestimmt sind.In the 6 - 22 The adaptive intelligence control described above is applicable to other musical instruments that produce notes with a different deployment phase followed by a hold phase, decay phase, and release phase. The audio signal may, for example, from a stringed musical instrument, such as. A violin, a violin, a harp, a mandolin, a viola, a banjo, a cello, just to name a few. The audio signal may be from percussion instruments such. Drums, bells, glockenspiels, cymbals, a piano, a tambourine, a xylophone and the like. The audio signal is passed through the time domain analysis block 122 and the frequency domain analysis block 120 processed on a frame by frame basis to isolate the played note and determine its characteristics. Each frame analyzed in the time domain and frequency domain will be in the database with note signatures 1-i 112 to identify the type of note and to determine the appropriate control parameters 1-k. The Signal processing functions in the audio amplifier 90 are set in accordance with the control parameters 1-k of the appropriate note signature to reproduce the audio signal in real time with improved characteristics determined by the dynamic content of the audio signal.

Die Signalverarbeitungsfunktionen können einer anderen Ausrüstung als einem zweckgebundenen Audioverstärker zugeordnet sein. 23 zeigt ein Musikinstrument 214, das ein Audiosignal erzeugt, das zur Ausrüstung 215 geleitet wird. Die Ausrüstung 215 führt die Signalverarbeitungsfunktionen am Audiosignal durch. Das signalaufbereitete Audiosignal wird zum Audioverstärker 216 zur Leistungsverstärkung oder -dämpfung des Audiosignals geleitet. Das Audiosignal wird dann zum Lautsprecher 217 geleitet, um den Klanginhalt des Musikinstruments 214 mit den Verbesserungen, die durch die Signalverarbeitungsausrüstung 215 in das Audiosignal eingeführt werden, wiederzugeben.The signal processing functions may be associated with equipment other than a dedicated audio amplifier. 23 shows a musical instrument 214 which generates an audio signal that goes with the equipment 215 is directed. Equipment 215 performs the signal processing functions on the audio signal. The signal-processed audio signal becomes the audio amplifier 216 for power amplification or attenuation of the audio signal. The audio signal then becomes the loudspeaker 217 directed to the sound content of the musical instrument 214 with the improvements made by the signal processing equipment 215 be introduced into the audio signal to play.

In einem Ausführungsbeispiel ist die Signalverarbeitungsausrüstung 215 ein Computer 218, wie in 24 gezeigt. Der Computer 218 enthält Digitalsignal-Verarbeitungskomponenten und eine Software zum Implementieren der Signalverarbeitungsfunktion. 25 ist ein Blockdiagramm der Signalverarbeitungsfunktion 220, die innerhalb des Computers 218 enthalten ist, einschließlich eines Vorfilterblocks 222, eines Voreffektblocks 224, eines Blocks 226 für nicht-lineare Effekte, vom Benutzer definierten Modulen 228, eines Nacheffektblocks 230 und eines Nachfilterblocks 232. Der Vorfilterblock 222 und der Nachfilterblock 232 sehen verschiedene Filterfunktionen vor, wie z. B. Tiefpassfilterung und Bandpassfilterung des Audiosignals. Die Vorfilterung und Nachfilterung können Tonentzerrungsfunktionen über verschiedene Frequenzbereiche umfassen, um die Pegel von spezifischen Frequenzen zu verstärken oder zu dämpfen, ohne benachbarte Frequenzen zu beeinflussen, wie z. B. Bassfrequenzeinstellung und Höhenfrequenzeinstellung. Die Tonentzerrung kann beispielsweise eine stufenweise Entzerrung, um alle Frequenzen über oder unter einer Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, eine Glockenentzerrung, um einen schmalen Bereich von Frequenzen um eine Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, eine graphische Entzerrung oder eine Parameterentzerrung verwenden. Der Voreffektblock 224 und der Nacheffektblock 230 führen Klangeffekte in das Audiosignal ein, wie z. B. Hall, Verzögerungen, Mehrfachüberlagerung, Wah, automatische Lautstärke, Phasenschieber, Brummunterdrücker, Rauschsperre, Vibrato, Tonhöhenverschiebung, graphische Entzerrung, Tremolo und dynamische Kompression. Der Block 226 für nicht-lineare Effekte führt nicht-lineare Effekte in das Audiosignal ein, wie z. B. m-Modellierung, Verzerrung, Übersteuerung, Unschärfe und Modulation. Der Block 228 der vom Benutzer definierten Module ermöglicht dem Benutzer, individuell angepasste Signalverarbeitungsfunktionen zu definieren, wie z. B. Hinzufügen von Begleitinstrumenten, Gesang und Synthesizeroptionen. Das Audiosignal nach der Signalverarbeitung wird zum Audioverstärker 216 und zum Lautsprecher 217 geleitet.In one embodiment, the signal processing equipment is 215 a computer 218 , as in 24 shown. The computer 218 includes digital signal processing components and software for implementing the signal processing function. 25 is a block diagram of the signal processing function 220 that are inside the computer 218 including a pre-filter block 222 , a pre-effect block 224 , one block 226 for non-linear effects, user-defined modules 228 , a post-effect block 230 and a postfilter block 232 , The pre-filter block 222 and the postfilter block 232 provide different filter functions, such as B. low pass filtering and bandpass filtering of the audio signal. The prefiltering and post-filtering may include tone equalization functions over different frequency ranges to enhance or attenuate the levels of specific frequencies without affecting adjacent frequencies, such as: B. Bass frequency adjustment and Höhenfrequenzeinstellung. Tone equalization may include, for example, step equalization to amplify or attenuate all frequencies above or below a target or fundamental frequency, bell equalization to amplify or attenuate a narrow range of frequencies by a target or fundamental frequency, graphic equalization, or the like use a parameter equalization. The pre-effect block 224 and the after effect block 230 introduce sound effects into the audio signal, such as For example, reverb, delays, multiple overlays, wah, auto volume, phase shifter, humming suppressor, squelch, vibrato, pitch shifting, graphic equalization, tremolo, and dynamic compression. The block 226 for nonlinear effects, non-linear effects introduce into the audio signal, such as: M modeling, distortion, clipping, blur, and modulation. The block 228 The user-defined modules allow the user to define customized signal processing functions, such as: B. Addition of accompaniment instruments, vocals and synthesizer options. The audio signal after signal processing becomes the audio amplifier 216 and to the speaker 217 directed.

Der Vorfilterblock 222, der Voreffektblock 224, der Block 226 für nicht-lineare Effekte, die vom Benutzer definierten Module 228, der Nacheffektblock 230 und der Nachfilterblock 232 innerhalb der Signalverarbeitungsfunktion sind mit dem Frontbedienfeld 234, d. h. durch die Computertastatur oder ein externes Steuersignal für den Computer 218, auswahlbar und steuerbar.The pre-filter block 222 , the pre-effect block 224 , the block 226 for non-linear effects, the user-defined modules 228 , the after effect block 230 and the postfilter block 232 within the signal processing function are with the front panel 234 ie by the computer keyboard or an external control signal for the computer 218 , selectable and controllable.

Um den Signalverarbeitungsanforderungen für den dynamischen Inhalt der Audioquelle Rechnung zu tragen, verwendet der Computer 218 ein Merkmal dynamischer adaptiver Intelligenz, das eine Frequenzbereichsanalyse und Zeitbereichsanalyse des Audiosignals auf einer rahmenweisen Basis beinhaltet und den Betrieb der Signalverarbeitungsfunktionen und Einstellungen innerhalb des Computers automatisch und adaptiv steuert, um eine optimale Klangwiedergabe zu erreichen. Das Audiosignal vom Musikinstrument 214 wird zum Frequenzbereichs- und Zeitbereichsanalyseblock 240 geleitet. Die Ausgabe des Blocks 240 wird zum Notensignaturblock 242 geleitet und die Ausgabe des Blocks 242 wird zum Block 244 zur adaptiven Intelligenzsteuerung geleitet.To accommodate the signal processing requirements for the dynamic content of the audio source, the computer uses 218 a dynamic adaptive intelligence feature that includes frequency domain analysis and time domain analysis of the audio signal on a frame by frame basis and automatically and adaptively controls the operation of the signal processing functions and settings within the computer to achieve optimal sound reproduction. The audio signal from the musical instrument 214 becomes the frequency domain and time domain analysis block 240 directed. The output of the block 240 becomes the note signature block 242 passed and the output of the block 242 becomes the block 244 directed to adaptive intelligence control.

Die Funktionen der Blöcke 240, 242 und 244 entsprechen den Blöcken 110, 112 bzw. 114, wie in 619 beschrieben. Die Blöcke 240244 führen eine Echtzeit-Frequenzbereichsanalyse und -Zeitbereichsanalyse des Audiosignals auf einer rahmenweisen Basis durch. Jeder ankommende Rahmen des Audiosignals wird detektiert und analysiert, um seinen Zeitbereichs- und Frequenzbereichsgehalt und seine Zeitbereichs- und Frequenzbereichscharakteristiken zu bestimmen. Der ankommende Rahmen wird mit einer Datenbank von festgelegten oder gelernten Notensignaturen verglichen, um eine beste Übereinstimmung oder engste Korrelation des ankommenden Rahmens mit der Datenbank von Notensignaturen zu bestimmen. Die am besten passende Notensignatur von der Datenbank enthält die Steuerkonfiguration der Signalverarbeitungsblöcke 222232. Die am besten passende Notensignatur steuert den Betrieb der Signalverarbeitungsblöcke 222232 in Echtzeit auf einer rahmenweisen Basis, um kontinuierlich und automatisch Einstellungen an den Signalverarbeitungsfunktionen für eine optimale Klangwiedergabe vorzunehmen, wie in 619 beschrieben. Auf der Basis der Steuerparameter 1-k der passenden Notensignatur kann beispielsweise die Verstärkung des Audiosignals automatisch für diese spezielle Note erhöht oder verringert werden. Vorgaben und Klangeffekte können automatisch für die gespielte Note eingeschaltet oder entfernt werden. Der nächste Rahmen in der Sequenz kann derselben Note zugeordnet sein, die mit derselben Notensignatur in der Datenbank übereinstimmt, oder der nächste Rahmen in der Sequenz kann einer anderen Note zugeordnet sein, die mit einer anderen entsprechenden Notensignatur in der Datenbank übereinstimmt. Jeder Rahmen wird erkannt und mit einer Notensignatur verglichen, die Steuerparameter 1-k enthält, um den Betrieb der Signalverarbeitungsblöcke 222232 innerhalb des Audioverstärkers 220 für eine optimale Klangwiedergabe zu steuern. Die Signalverarbeitungsblöcke 222232 werden gemäß der am besten passenden Notensignatur entsprechend jedem individuellen ankommenden Rahmen eingestellt, um ihre Wiedergabe zu verbessern.The functions of the blocks 240 . 242 and 244 correspond to the blocks 110 . 112 respectively. 114 , as in 6 - 19 described. The blocks 240 - 244 perform real-time frequency domain analysis and time domain analysis of the audio signal on a frame by frame basis. Each incoming frame of the audio signal is detected and analyzed to determine its time domain and frequency domain content and its time domain and frequency domain characteristics. The incoming frame is compared to a database of fixed or learned note signatures to determine a best match or closest correlation of the incoming frame with the database of note signatures. The most appropriate note signature from the database contains the control configuration of the signal processing blocks 222 - 232 , The most appropriate note signature controls the operation of the signal processing blocks 222 - 232 in real time on a frame by frame basis to continuously and automatically adjust the signal processing functions for optimal sound reproduction, as in 6 - 19 described. For example, based on the control parameter 1-k of the appropriate note signature, the gain of the audio signal can be automatically increased or decreased for that particular note. Presets and sound effects can be automatically turned on or removed for the note being played. The next frame in the sequence may be associated with the same note that matches the same note signature in the database, or the next frame in the sequence may be associated with a different note that matches another corresponding note signature in the database. Each frame is recognized and compared to a note signature containing control parameters 1-k to the operation of the signal processing blocks 222 - 232 within the audio amplifier 220 to control for optimal sound reproduction. The signal processing blocks 222 - 232 are set according to the most appropriate note signature corresponding to each individual incoming frame to improve their reproduction.

26 zeigt ein weiteres Ausführungsbeispiel der Signalverarbeitungsausrüstung 215 als Pedalklaviatur oder Tonmaschine 246. Die Pedalklaviatur 246 enthält Signalverarbeitungsblöcke, wie für 25 und mit Bezug auf 622 beschrieben. Die Pedalklaviatur 246 verwendet ein Merkmal dynamischer adaptiver Intelligenz, das eine Frequenzbereichsanalyse und Zeitbereichsanalyse des Audiosignals auf einer rahmenweisen Basis beinhaltet und automatisch und adaptiv den Betrieb der Signalverarbeitungsfunktionen und Einstellungen innerhalb der Pedalklaviatur steuert, um eine optimale Klangwiedergabe zu erreichen. Jeder ankommende Rahmen des Audiosignals wird detektiert und analysiert, um seinen Zeitbereichs- und Frequenzbereichsinhalt und seine Zeitbereichs- und Frequenzbereichscharakteristiken zu bestimmen. Der ankommende Rahmen wird mit einer Datenbank von festgelegten oder gelernten Notensignaturen verglichen, um eine beste Übereinstimmung oder engste Korrelation des ankommenden Rahmens mit der Datenbank von Notensignaturen zu bestimmen. Die am besten passende Notensignatur enthält Steuerparameter 1-k, die den Betrieb der Signalverarbeitungsblöcke in Echtzeit auf einer rahmenweisen Basis steuern, um kontinuierlich und automatisch Einstellungen an den Signalverarbeitungsfunktionen für eine optimale Klangwiedergabe vorzunehmen. 26 shows another embodiment of the signal processing equipment 215 as a pedal keyboard or sound machine 246 , The pedal keyboard 246 contains signal processing blocks, as for 25 and with reference to 6 - 22 described. The pedal keyboard 246 employs a dynamic adaptive intelligence feature that includes frequency domain analysis and time domain analysis of the audio signal on a frame by frame basis and automatically and adaptively controls the operation of the signal processing functions and settings within the pedal keyboard for optimum sound reproduction. Each incoming frame of the audio signal is detected and analyzed to determine its time domain and frequency domain content and its time domain and frequency domain characteristics. The incoming frame is compared to a database of fixed or learned note signatures to determine a best match or closest correlation of the incoming frame with the database of note signatures. The most suitable note signature contains control parameters 1-k that control the operation of the signal processing blocks in real time on a frame-by-frame basis to continuously and automatically adjust the signal processing functions for optimal sound reproduction.

27 zeigt ein weiteres Ausführungsbeispiel der Signalverarbeitungsausrüstung 215 als Signalverarbeitungsgehäuse 248. Das Signalverarbeitungsgehäuse 248 enthält Signalverarbeitungsblöcke, wie für 25 und mit Bezug auf 622 beschrieben. Das Signalverarbeitungsgehäuse 248 verwendet ein Merkmal dynamischer adaptiver Intelligenz, das eine Frequenzbereichsanalyse und Zeitbereichsanalyse des Audiosignals auf einer rahmenweisen Basis beinhaltet und automatisch und adaptiv den Betrieb der Signalverarbeitungsfunktionen und Einstellungen innerhalb des Signalverarbeitungsgehäuses steuert, um eine optimale Klangwiedergabe zu erreichen. Jeder ankommende Rahmen des Audiosignals wird detektiert und analysiert, um seinen Zeitbereichs- und Frequenzbereichsinhalt und seine Zeitbereichs- und Frequenzbereichscharakteristiken zu bestimmen. Der ankommende Rahmen wird mit einer Datenbank von festgelegten oder gelernten Notensignaturen verglichen, um eine beste Übereinstimmung oder engste Korrelation des ankommenden Rahmens mit der Datenbank von Notensignaturen zu bestimmen. Die am besten passende Notensignatur enthält Steuerparameter 1-k, die den Betrieb der Signalverarbeitungsblöcke in Echtzeit auf einer rahmenweisen Basis steuern, um kontinuierlich und automatisch Einstellungen an den Signalverarbeitungsfunktionen für eine optimale Klangwiedergabe vorzunehmen. 27 shows another embodiment of the signal processing equipment 215 as signal processing housing 248 , The signal processing housing 248 contains signal processing blocks, as for 25 and with reference to 6 - 22 described. The signal processing housing 248 uses a dynamic adaptive intelligence feature that includes frequency domain analysis and time domain analysis of the audio signal on a frame-by-frame basis and automatically and adaptively controls the operation of the signal processing functions and settings within the signal processing housing to achieve optimal sound reproduction. Each incoming frame of the audio signal is detected and analyzed to determine its time domain and frequency domain content and its time domain and frequency domain characteristics. The incoming frame is compared to a database of fixed or learned note signatures to determine a best match or closest correlation of the incoming frame with the database of note signatures. The most suitable note signature contains control parameters 1-k that control the operation of the signal processing blocks in real time on a frame-by-frame basis to continuously and automatically adjust the signal processing functions for optimal sound reproduction.

Einige Ausführungsbeispiele der Audioquelle 12 werden auf einer rahmenweisen Basis besser charakterisiert, d. h. keine klare oder zuverlässig detektierbare Abgrenzung zwischen den Noten. Das Audiosignal von Stimmmustern kann beispielsweise für eine rahmenweise Analyse besser geeignet sein, ohne den Beginn einer Note zu detektieren. 28 zeigt die Audioquelle 12 als Mikrophon 250 dargestellt, das von einem Mann oder einer Frau mit Stimmbereichen, einschließlich Sopran, Mezzosopran, Alt, Tenor, Bariton und Bass, bedient wird. Das Mikrophon 250 ist durch ein Audiokabel 252 mit einem Audiosystem mit einem Audioverstärker, der innerhalb eines ersten Gehäuses 254 enthalten ist, und einem Lautsprecher, der innerhalb eines zweiten separaten Gehäuses 256 aufgenommen ist, verbunden. Das Audiokabel 252 vom Mikrophon 250 wird zur Audioeingangsbuchse 258 geleitet, die mit dem Audioverstärker innerhalb des Gehäuses 254 für die Leistungsverstärkung und Signalverarbeitung verbunden ist. Steuerknöpfe 260 am Frontbedienfeld 262 des Gehäuses 254 ermöglichen dem Benutzer, verschiedene Einstellungen des Audioverstärkers zu überwachen und manuell zu steuern. Das Gehäuse 254 ist durch ein Audiokabel 264 mit dem Gehäuse 256 elektrisch verbunden, um das verstärkte und aufbereitete Audiosignal zu den Lautsprechern 266 zu leiten.Some embodiments of the audio source 12 are better characterized on a frame by frame basis, ie no clear or reliably detectable demarcation between the notes. For example, the audio signal of voice samples may be better suited for frame-by-frame analysis without detecting the beginning of a note. 28 shows the audio source 12 as a microphone 250 presented by a man or woman with vocal ranges including soprano, mezzo soprano, alto, tenor, baritone and bass. The microphone 250 is through an audio cable 252 with an audio system with an audio amplifier inside a first case 254 is included, and a speaker inside a second separate housing 256 recorded, connected. The audio cable 252 from the microphone 250 becomes the audio input jack 258 which are connected to the audio amplifier inside the case 254 for power amplification and signal processing. control buttons 260 at the front panel 262 of the housing 254 allow the user to monitor and manually control various settings of the audio amplifier. The housing 254 is through an audio cable 264 with the housing 256 electrically connected to the amplified and conditioned audio signal to the speakers 266 to lead.

29 ist ein Blockdiagramm des Audioverstärkers 270, der innerhalb des Gehäuses 254 enthalten ist. Der Audioverstärker 270 empfängt Audiosignale vom Mikrophon 250 durch das Audiokabel 252. Der Audioverstärker 270 führt eine Verstärkung und andere Signalverarbeitungsfunktionen, wie z. B. Entzerrung, Filterung, Klangeffekte und vom Benutzer definierte Module, am Audiosignal durch, um den Leistungspegel einzustellen und anderweitig die Signaleigenschaften für die Hörerfahrung zu verbessern. 29 is a block diagram of the audio amplifier 270 inside the case 254 is included. The audio amplifier 270 receives audio signals from the microphone 250 through the audio cable 252 , The audio amplifier 270 performs a gain and other signal processing functions, such as. B. equalization, filtering, sound effects and user-defined modules, the audio signal through to adjust the power level and otherwise improve the signal characteristics for the listening experience.

Der Audioverstärker 270 weist einen Signalverarbeitungspfad für das Audiosignal auf, einschließlich eines Vorfilterblocks 272, eines Voreffektblocks 274, eines Block 276 für nicht-lineare Effekte, vom Benutzer definierten Modulen 278, eines Nacheffektblock 280, eines Nachfilterblocks 282 und eines Leistungsverstärkungsblocks 284. Der Vorfilterblock 272 und der Nachfilterblock 282 sehen verschiedene Filterfunktionen wie z. B. Tiefpassfilterung und Bandpassfilterung des Audiosignals vor. Die Vorfilterung und Nachfilterung können Tonentzerrungsfunktionen über verschiedene Frequenzbereiche umfassen, um die Pegel von spezifischen Frequenzen zu verstärken oder zu dämpfen, ohne sich auf benachbarte Frequenzen auszuwirken, wie z. B. Bassfrequenzeinstellung und Höhenfrequenzeinstellung. Die Tonentzerrung kann beispielsweise eine stufenweise Entzerrung, um alle Frequenzen über oder unter einer Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, eine Glockenentzerrung, um einen schmalen Bereich von Frequenzen um eine Ziel- oder Grundfrequenz zu verstärken oder zu dämpfen, eine graphische Entzerrung oder eine Parameterentzerrung verwenden. Der Voreffektblock 274 und der Nacheffektblock 280 führen Klangeffekte in das Audiosignal ein, wie z. B. Hall, Verzögerungen, Mehrfachüberlagerung, Wah, automatische Lautstärke, Phasenschieber, Brummunterdrücker, Rauschsperre, Vibrato, Tonhöhenverschiebung, graphische Entzerrung, Tremolo und dynamische Kompression. Der Block 276 für nicht-lineare Effekte führt nicht-lineare Effekte in das Audiosignal ein, wie z. B. m-Modellierung, Verzerrung, Übersteuerung, Unschärfe und Modulation. Der Block 278 für vom Benutzer definierte Module ermöglicht dem Benutzer, individuell angepasste Signalverarbeitungsfunktionen zu definieren, wie z. B. Hinzufügen von Begleitinstrumenten, Gesang und Synthesizeroptionen. Der Leistungsverstärkerblock 284 sieht eine Leistungsverstärkung oder -dämpfung des Audiosignals vor. Das Audiosignal nach der Signalverarbeitung wird zu den Lautsprechern 266 im Gehäuse 256 geleitet. The audio amplifier 270 has a signal processing path for the audio signal including a pre-filter block 272 , a pre-effect block 274 , a block 276 for non-linear effects, user-defined modules 278 , a post-effect block 280 , a postfilter block 282 and a power amplification block 284 , The pre-filter block 272 and the postfilter block 282 see different filter functions such. B. low pass filtering and bandpass filtering of the audio signal before. The prefiltering and postfiltering may include tone equalization functions over various frequency ranges to enhance or attenuate the levels of specific frequencies without affecting adjacent frequencies, such as, for example: B. Bass frequency adjustment and Höhenfrequenzeinstellung. Tone equalization may include, for example, step equalization to amplify or attenuate all frequencies above or below a target or fundamental frequency, bell equalization to amplify or attenuate a narrow range of frequencies by a target or fundamental frequency, graphic equalization, or the like use a parameter equalization. The pre-effect block 274 and the after effect block 280 introduce sound effects into the audio signal, such as For example, reverb, delays, multiple overlays, wah, auto volume, phase shifter, humming suppressor, squelch, vibrato, pitch shifting, graphic equalization, tremolo, and dynamic compression. The block 276 for nonlinear effects, non-linear effects introduce into the audio signal, such as: M modeling, distortion, clipping, blur, and modulation. The block 278 for user defined modules allows the user to define custom signal processing functions, such as: B. Addition of accompaniment instruments, vocals and synthesizer options. The power amplifier block 284 provides power amplification or attenuation of the audio signal. The audio signal after signal processing becomes the speakers 266 in the case 256 directed.

Der Vorfilterblock 272, der Voreffektblock 274, der Block 276 für nicht-lineare Effekte, die vom Benutzer definierten Module 278, der Nacheffektblock 280, der Nachfilterblock 282 und der Leistungsverstärkungsblock 284 innerhalb des Audioverstärkers 270 sind mit dem Frontbedienfeld 262 auswahlbar und steuerbar. Durch Drehen der Knöpfe 260 am Frontbedienfeld 262 kann der Benutzer den Betrieb der Signalverarbeitungsfunktionen innerhalb des Audioverstärkers 270 direkt steuern.The pre-filter block 272 , the pre-effect block 274 , the block 276 for non-linear effects, the user-defined modules 278 , the after effect block 280 , the post filter block 282 and the power amplification block 284 within the audio amplifier 270 are with the front panel 262 selectable and controllable. By turning the buttons 260 at the front panel 262 the user can control the operation of the signal processing functions within the audio amplifier 270 direct control.

29 stellt ferner die dynamische adaptive Intelligenzsteuerung des Audioverstärkers 270 dar. Ein Hauptzweck des Merkmals der adaptiven Intelligenz des Audioverstärkers 270 besteht darin, die Frequenzbereichscharakteristiken und Zeitbereichscharakteristiken des Audiosignals auf einer rahmenweisen Basis zu detektieren und zu isolieren und diese Informationen zu verwenden, um den Betrieb der Signalverarbeitungsblöcke 272284 des Verstärkers zu steuern. Das Audiosignal vom Audiokabel 252 wird zum Frequenzbereichs- und Zeitbereichsanalyseblock 290 geleitet. Die Ausgabe des Blocks 290 wird zum Rahmensignaturblock 292 geleitet und die Ausgabe des Blocks 292 wird zum Block 294 zur adaptiven Intelligenzsteuerung geleitet. Die Funktionen der Blöcke 290, 292 und 294 werden der Reihe nach erörtert. 29 further provides the dynamic adaptive intelligence control of the audio amplifier 270 A main purpose of the adaptive intelligence feature of the audio amplifier 270 consists in detecting and isolating the frequency domain characteristics and time domain characteristics of the audio signal on a frame by frame basis and using this information to control the operation of the signal processing blocks 272 - 284 to control the amplifier. The audio signal from the audio cable 252 becomes the frequency domain and time domain analysis block 290 directed. The output of the block 290 becomes the frame signature block 292 passed and the output of the block 292 becomes the block 294 directed to adaptive intelligence control. The functions of the blocks 290 . 292 and 294 are discussed in turn.

30 stellt ein weiteres Detail des Frequenzbereichs- und Zeitbereichsanalyseblocks 290 dar, einschließlich des Audioabtastblocks 296, des Frequenzbereichsanalyseblocks 300 und des Zeitbereichsanalyseblocks 302. Das analoge Audiosignal wird an den Audioabtastblock 296 übergeben. Der Audioabtastblock 296 tastet das analoge Audiosignal, z. B. 512 bis 1024 Abtastwerte pro Sekunde, unter Verwendung eines A/D-Wandlers ab. Das abgetastete Audiosignal 298 wird in eine Reihe von zeitlich fortschreitenden Rahmen (Rahmen 1 bis Rahmen n) gegliedert, die jeweils eine vorbestimmte Anzahl von Abtastwerten des Audiosignals enthalten. 31a zeigt den Rahmen 1, der 1024 Abtastwerte des Audiosignals 298 in der Zeitsequenz enthält, den Rahmen 2, der die nächsten 1024 Abtastwerte des Audiosignals 298 in der Zeitsequenz enthält, den Rahmen 3, der die nächsten 1024 Abtastwerte des Audiosignals 298 in der Zeitsequenz enthält, und so weiter bis zum Rahmen n, der 1024 Abtastwerte des Audiosignals 298 in der Zeitsequenz enthält. 31b zeigt überlappende Fenster 299 von Rahmen 1-n, die bei der Zeitbereich-Frequenzbereich-Umwandlung verwendet werden, wie in 34 beschrieben. Das abgetastete Audiosignal 298 wird zum Frequenzbereichsanalyseblock 300 und Zeitbereichsanalyseblock 302 geleitet. 30 represents another detail of the frequency domain and time domain analysis block 290 including the audio sample block 296 , the frequency domain analysis block 300 and the time domain analysis block 302 , The analog audio signal is sent to the audio sampling block 296 to hand over. The audio sampling block 296 samples the analog audio signal, eg. From 512 to 1024 samples per second, using an A / D converter. The sampled audio signal 298 is divided into a series of temporally progressive frames (frame 1 to frame n) each containing a predetermined number of samples of the audio signal. 31a shows the frame 1, the 1024 samples of the audio signal 298 in the time sequence, the frame 2 containing the next 1024 samples of the audio signal 298 in the time sequence, the frame 3 containing the next 1024 samples of the audio signal 298 in the time sequence, and so on until frame n, contains 1024 samples of the audio signal 298 in the time sequence contains. 31b shows overlapping windows 299 of frames 1-n used in the time domain frequency domain conversion as in 34 described. The sampled audio signal 298 becomes the frequency domain analysis block 300 and time domain analysis block 302 directed.

32 stellt ein weiteres Detail des Zeitbereichsanalyseblocks 302 mit dem Energiepegelisolationsblock 304 dar, der den Energiepegel jedes Rahmens des abgetasteten Audiosignals 298 in mehrere Frequenzbänder isoliert. In 33 verarbeitet der Energiepegelisolationsblock 304 jeden Rahmen des abgetasteten Audiosignals 298 in der Zeitsequenz durch das Filterfrequenzband 310a310c, um spezifische Frequenzen des Audiosignals zu trennen und zu isolieren. Die Filterfrequenzbänder 310a310c können spezifische Frequenzbänder im Audiobereich von 100–10000 Hz isolieren. In einem Ausführungsbeispiel ist das Filterfrequenzband 310a ein Bandpassfilter mit einem Durchlassbereich, der bei 100 Hz zentriert ist, das Filterfrequenzband 310b ist ein Bandpassfilter mit einem Durchlassbereich, der bei 500 Hz zentriert ist, und das Filterfrequenzband 310c ist ein Bandpassfilter mit einem Durchlassbereich, der bei 1000 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 310a enthält den Energiepegel des abgetasteten Audiosignals 298, der bei 100 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 310b enthält den Energiepegel des abgetasteten Audiosignals 298, der bei 500 Hz zentriert ist. Die Ausgabe des Filterfrequenzbandes 310c enthält den Energiepegel des abgetasteten Audiosignals 298, der bei 1000 Hz zentriert ist. Die Ausgabe von anderen Filterfrequenzbändern enthält jeweils den Energiepegel des abgetasteten Audiosignals 298 für ein gegebenes spezifisches Band. Ein Spitzendetektor 312a überwacht und speichert Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 100 Hz zentriert sind. Ein Spitzendetektor 312b überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 500 Hz zentriert sind. Ein Spitzendetektor 312c überwacht und speichert die Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 1000 Hz zentriert sind. Ein Glättungsfilter 314a entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 100 Hz zentriert sind. Ein Glättungsfilter 314b entfernt störende Komponenten und stabilisiert anderweitig die Spitzenenergiepegel des abgetasteten Audiosignals 298, die bei 500 Hz zentriert sind. Ein Glättungsfilter 314c entfernt störende Komponenten der Spitzenenergiepegel und stabilisiert anderweitig das abgetastete Audiosignal 298, die bei 1000 Hz zentriert sind. Die Ausgabe der Glättungsfilter 314a314c ist die Energiepegelfunktion E(m,n) für jeden Rahmen n in jedem Frequenzband 1-m des abgetasteten Audiosignals 298. 32 represents another detail of the time domain analysis block 302 with the energy level insulation block 304 representing the energy level of each frame of the sampled audio signal 298 isolated in several frequency bands. In 33 processes the energy level isolation block 304 every frame of the sampled audio signal 298 in the time sequence through the filter frequency band 310a - 310c to separate and isolate specific frequencies of the audio signal. The filter frequency bands 310a - 310c can isolate specific frequency bands in the audio range of 100-10000 Hz. In one embodiment, the filter frequency band is 310a a bandpass filter having a passband centered at 100 Hz, the filter frequency band 310b is a bandpass filter with a passband centered at 500 Hz and the filter frequency band 310c is a bandpass filter with a passband centered at 1000 Hz. The output of the filter frequency band 310a contains the energy level of the sampled audio signal 298 centering at 100 Hz is. The output of the filter frequency band 310b contains the energy level of the sampled audio signal 298 which is centered at 500 Hz. The output of the filter frequency band 310c contains the energy level of the sampled audio signal 298 which is centered at 1000 Hz. The output of other filter frequency bands each contains the energy level of the sampled audio signal 298 for a given specific band. A top detector 312a monitors and stores peak energy levels of the sampled audio signal 298 that are centered at 100 Hz. A top detector 312b monitors and stores the peak energy levels of the sampled audio signal 298 that are centered at 500 Hz. A top detector 312c monitors and stores the peak energy levels of the sampled audio signal 298 that are centered at 1000 Hz. A smoothing filter 314a removes interfering components and otherwise stabilizes the peak energy levels of the sampled audio signal 298 that are centered at 100 Hz. A smoothing filter 314b removes interfering components and otherwise stabilizes the peak energy levels of the sampled audio signal 298 that are centered at 500 Hz. A smoothing filter 314c Removes interfering components of the peak power levels and otherwise stabilizes the sampled audio signal 298 that are centered at 1000 Hz. The output of the smoothing filters 314a - 314c For example, the energy level function E (m, n) for each frame n in each frequency band is 1-m of the sampled audio signal 298 ,

Ein Zeitbereichsanalyseblock 302 von 26 umfasst auch einen Übergangsdetektorblock 322, wie in 32 gezeigt. Der Block 322 verwendet die Energiefunktion E(m,n), um schnelle oder signifikante vorübergehende Änderungen der Energiepegel über die Zeit zu verfolgen, die auf eine Änderung des Klanginhalts hinweisen. Der Übergangsdetektor ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.A time domain analysis block 302 from 26 also includes a transition detector block 322 , as in 32 shown. The block 322 uses the energy function E (m, n) to track rapid or significant transient changes in energy levels over time, indicating a change in sound content. The transition detector is a time domain parameter or time domain characteristic of each frame n for all frequency bands 1-m and is considered to be the value in the runtime matrix 324 stored on a frame by frame basis.

Ein Vibratodetektorblock 326 verwendet die Energiefunktion E(m,n), um Änderungen der Amplitude der Energiepegel über die Zeit zu verfolgen, die auf eine Amplitudenmodulation hinweisen, die mit dem Vibratoeffekt verbunden ist. Der Vibratodetektor ist ein Zeitbereichsparameter oder eine Zeitbereichscharakteristik jedes Rahmens n für alle Frequenzbänder 1-m und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.A vibrato detector block 326 uses the energy function E (m, n) to track changes in the amplitude of the energy levels over time, indicating an amplitude modulation associated with the vibrato effect. The vibrato detector is a time domain parameter or time domain characteristic of each frame n for all frequency bands 1-m and is considered to be the value in the runtime matrix 324 stored on a frame by frame basis.

Der Frequenzbereichsanalyseblock 300 in 26 umfasst einen STFT-Block 338, wie in 34 gezeigt. Der Block 338 führt eine Zeitbereich-Frequenzbereich-Umwandlung auf einer rahmenweisen Basis des abgetasteten Audiosignals 118 unter Verwendung einer COLA-STFT oder einer anderen FFT durch. Die COLA-STFT 338 führt eine Zeitbereich-Frequenzbereich-Umwandlung unter Verwendung von Überlappungsanalysefenstern 299 durch, wie in 31b gezeigt. Die Abtastfenster 299 überlappen um eine vorbestimmte Anzahl von Abtastwerten des Audiosignals, die als Sprunggröße bekannt ist, für zusätzliche Abtastpunkte in der COLA-STFT-Analyse, um sicherzustellen, dass die Daten in aufeinander folgenden Rahmen gleich gewichtet werden. Gleichung (2) liefert ein allgemeines Format der Zeitbereich-Frequenzbereich-Umwandlung am abgetasteten Audiosignal 298.The frequency domain analysis block 300 in 26 includes an STFT block 338 , as in 34 shown. The block 338 performs a time domain frequency domain conversion on a frame by frame basis of the sampled audio signal 118 using a COLA-STFT or another FFT. The COLA-STFT 338 performs a time domain frequency domain conversion using overlap analysis windows 299 through, as in 31b shown. The sampling windows 299 overlap by a predetermined number of samples of the audio signal, known as a hop size, for additional sample points in the COLA-STFT analysis to ensure that the data is weighted equally in successive frames. Equation (2) provides a general format of the time domain frequency domain conversion on the sampled audio signal 298 ,

Sobald das abgetastete Audiosignal 298 sich im Frequenzbereich befindet, verwendet ein Vokal-”a”-Formantblock 340 das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”a” im abgetasteten Audiosignal 298 zu bestimmen. Jeder Vokal weist eine Frequenzfestlegung auf. Der Vokal ”a” kommt im Bereich von 800–1200 Hz und in keinem anderen Frequenzbereich vor. Der Vokal-”a”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”a”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.Once the sampled audio signal 298 is in the frequency domain, uses a vowel "a" formatter block 340 the sampled frequency domain audio signal to indicate the occurrence of the vowel "a" in the sampled audio signal 298 to determine. Each vowel has a frequency setting. The vowel "a" occurs in the range of 800-1200 Hz and in no other frequency range. The vowel "a" form parameter is the value one when the vowel is in the sampled audio signal 298 exists, and the value is null if the vowel does not exist. The vowel "a" form is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be a value in the runtime matrix 324 stored on a frame by frame basis.

Ein Vokal-”e”-Formantblock 342 verwendet das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”e” im abgetasteten Audiosignal 298 zu bestimmen. Der Vokal ”e” kommt im Bereich von 400–600 Hz und auch im Frequenzbereich von 2200–2600 vor. Der Vokal-”e”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”e”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.A vowel "e" formatter block 342 uses the sampled frequency domain audio signal to detect the occurrence of the vowel "e" in the sampled audio signal 298 to determine. The vowel "e" occurs in the range of 400-600 Hz and also in the frequency range of 2200-2600. The vowel "e" form parameter is the value one when the vowel is in the sampled audio signal 298 exists, and the value is null if the vowel does not exist. The vowel "e" form is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be a value in the runtime matrix 324 stored on a frame by frame basis.

Ein Vokal-”i”-Formantblock 344 verwendet das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”i” im abgetasteten Audiosignal 298 zu bestimmen. Der Vokal ”i” kommt im Bereich von 200–400 Hz und auch im Frequenzbereich von 3000–3500 vor. Der Vokal-”i”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”i”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.A vocal "i" formatter block 344 uses the sampled frequency domain audio signal to detect the occurrence of the vowel "i" in the sampled audio signal 298 to determine. The vowel "i" occurs in the range of 200-400 Hz and also in the frequency range of 3000-3500. The vowel "i" form parameter is the value one when the vowel is in the sampled audio signal 298 exists, and the value is null if the vowel is not is available. The vowel "i" form is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be a value in the runtime matrix 324 stored on a frame by frame basis.

Ein Vokal-”o”-Formantblock 346 verwendet das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”o” abgetasteten Audiosignal 298 zu bestimmen. Der Vokal ”o” kommt im Bereich von 400–600 Hz und in keinem anderen Frequenzbereich vor. Der Vokal-”o”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”o”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.A vowel "o" formatter block 346 uses the sampled frequency domain audio signal to detect an occurrence of the vocal "o" sampled audio signal 298 to determine. The vowel "o" occurs in the range of 400-600 Hz and in no other frequency range. The vowel "o" form parameter is the value one when the vowel is in the sampled audio signal 298 exists, and the value is null if the vowel does not exist. The vowel "o" form is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be a value in the runtime matrix 324 stored on a frame by frame basis.

Ein Vokal-”u”-Formantblock 348 verwendet das abgetastete Frequenzbereichs-Audiosignal, um ein Auftreten des Vokals ”u” im abgetasteten Audiosignal 298 zu bestimmen. Der Vokal ”u” kommt im Bereich von 200–400 Hz und in keinem anderen Frequenzbereich vor. Der Vokal-”u”-Formantparameter ist der Wert eins, wenn der Vokal im abgetasteten Audiosignal 298 vorhanden ist, und der Wert null, wenn der Vokal nicht vorhanden ist. Der Vokal ”u”-Formant ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.A vowel "u" formatter block 348 uses the sampled frequency domain audio signal to detect the occurrence of the vowel "u" in the sampled audio signal 298 to determine. The vowel "u" occurs in the range of 200-400 Hz and in no other frequency range. The vowel "u" form parameter is the value one when the vowel is in the sampled audio signal 298 exists, and the value is null if the vowel does not exist. The vowel "u" form is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be a value in the runtime matrix 324 stored on a frame by frame basis.

Ein Obertondetektorblock 350 verwendet das abgetastete Frequenzbereichs-Audiosignal, um eine Resonanz einer höheren Oberwelle oder einen Oberton der Grundtonart zu detektieren, die den Eindruck von gleichzeitigen Tönen gibt. Der Obertondetektor ist ein Frequenzbereichsparameter oder eine Frequenzbereichscharakteristik jedes Rahmens n und wird als Wert in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert.An overtone detector block 350 uses the sampled frequency domain audio signal to detect a higher harmonic resonance or an overtone of the fundamental, giving the impression of simultaneous sounds. The overtone detector is a frequency domain parameter or frequency domain characteristic of each frame n and is considered to be a value in the runtime matrix 324 stored on a frame by frame basis.

Die Laufzeitmatrix 324 enthält die Zeitbereichsparameter, die im Zeitbereichsanalyseblock 302 bestimmt werden, und die Frequenzbereichsparameter, die im Frequenzbereichsanalyseblock 300 bestimmt werden. Jeder Zeitbereichsparameter und Frequenzbereichsparameter ist ein numerischer Parameterwert PVn,j, der in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert wird, wobei n der Rahmen ist und j der Parameter ist, ähnlich zu Tabelle 1. Die Zeitbereichs- und Frequenzbereichsparameterwerte Pn,j sind für spezifische Rahmen charakteristisch und daher beim Unterscheiden zwischen Rahmen nützlich.The runtime matrix 324 contains the time range parameters that are in the time domain analysis block 302 be determined, and the frequency domain parameters included in the frequency domain analysis block 300 be determined. Each time domain parameter and frequency domain parameter is a numerical parameter value PVn, j, which is in the runtime matrix 324 is stored on a frame by frame, where n is the frame and j is the parameter, similar to Table 1. The time domain and frequency domain parameter values Pn, j are characteristic of specific frames and therefore useful in distinguishing between frames.

Mit Rückkehr zu 29 wird die Datenbank 292 in einer Speicherkomponente des Audioverstärkers 270 unterhalten und enthält eine Vielzahl von Rahmensignaturdatensätzen 1, 2, 3, ... i, wobei jede Rahmensignatur Zeitbereichsparameter und Frequenzbereichsparameter aufweist, die der Laufzeitmatrix 324 entsprechen. Außerdem enthalten die Rahmensignaturdatensätze 1-i Gewichtungsfaktoren 1, 2, 3, ... j für jeden Zeitbereichs- und Frequenzbereichsparameter und eine Vielzahl von Steuerparametern 1, 2, 3, ... k.With return to 29 becomes the database 292 in a memory component of the audio amplifier 270 and contains a plurality of frame signature records 1, 2, 3, ... i, each frame signature having time domain parameters and frequency domain parameters corresponding to the runtime matrix 324 correspond. In addition, the frame signature records 1-i include weighting factors 1, 2, 3, ... j for each time domain and frequency domain parameter and a plurality of control parameters 1, 2, 3, ... k.

35 zeigt die Datenbank 292 mit Zeitbereichs- und Frequenzbereichsparametern 1-j für jede Rahmensignatur 1-i, Gewichtungsfaktoren 1-j für jede Rahmensignatur 1-i und Steuerparametern 1-k für jede Rahmensignatur 1-i. Jeder Rahmensignaturdatensatz i ist durch die Parameter 1-j und zugehörige Gewichte 1-j definiert, die für die Rahmensignatur charakteristisch sind, und wird verwendet, um einen ankommenden Rahmen aus der Laufzeitmatrix 324 als mit der Rahmensignatur i an besten übereinstimmend oder am engsten korreliert zu identifizieren. Sobald der ankommende Rahmen aus der Laufzeitmatrix 324 mit einer speziellen Rahmensignatur i abgeglichen ist, verwendet die adaptive Intelligenzsteuerung 294 die Steuerparameter 1-k für die passende Rahmensignatur, um den Betriebszustand der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 einzustellen. In einem passenden Rahmensignaturdatensatz i legt beispielsweise der Steuerparameter i,1 den Betriebszustand des Vorfilterblock 272 fest; der Steuerparameter i,2 legt den Betriebszustand des Voreffektblocks 274 fest; der Steuerparameter i,3 legt den Betriebszustand des Blocks 276 für nicht-lineare Effekte fest; der Steuerparameter i,4 legt den Betriebszustand der vom Benutzer definierten Module 278 fest; der Steuerparameter i,5 legt den Betriebszustand des Nacheffektblocks 280 fest; der Steuerparameter i,6 legt den Betriebszustand des Nachfilterblocks 282 fest; und der Steuerparameter i,7 legt den Betriebszustand des Leistungsverstärkungsblocks 284 fest. 35 shows the database 292 with time domain and frequency domain parameters 1-j for each frame signature 1-i, weighting factors 1-j for each frame signature 1-i and control parameters 1-k for each frame signature 1-i. Each frame signature record i is defined by the parameters 1-j and associated weights 1-j characteristic of the frame signature, and is used to form an incoming frame from the runtime matrix 324 to identify with the frame signature i as best matching or closest correlated. Once the incoming frame from the runtime matrix 324 is matched with a special frame signature i, uses adaptive intelligence control 294 the control parameters 1-k for the appropriate frame signature, the operating state of the signal processing blocks 272 - 284 of the audio amplifier 270 adjust. In a suitable frame signature data set i, for example, the control parameter i, 1 sets the operating state of the pre-filter block 272 firmly; the control parameter i, 2 defines the operating state of the pre-effect block 274 firmly; the control parameter i, 3 sets the operating state of the block 276 for non-linear effects; the control parameter i, 4 defines the operating state of the modules defined by the user 278 firmly; the control parameter i, 5 defines the operating state of the after-effect block 280 firmly; the control parameter i, 6 sets the operating state of the postfilter block 282 firmly; and the control parameter i, 7 sets the operating state of the power amplification block 284 firmly.

Die Zeitbereichsparameter und Frequenzbereichsparameter in der Rahmensignaturdatenbank 292 enthalten Werte, die vom Hersteller vorgegeben sind oder vom Benutzer eingegeben werden oder über die Zeit durch Spielen eines Instruments gelernt werden. Das Werk oder der Hersteller des Audioverstärkers 270 kann anfänglich die Werte der Zeitbereichs- und Frequenzbereichsparameter 1-j sowie Gewichtungsfaktoren 1-j und Steuerparameter 1-k vorgeben. Der Benutzer kann die Zeitbereichs- und Frequenzbereichsparameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k für jede Rahmensignatur 1-i in der Datenbank 292 direkt unter Verwendung des Computers 352 mit dem Benutzerschnittstellenbildschirm oder der Benutzerschnittstellenanzeige 354, siehe 36, ändern. Die Werte für die Zeitbereichs- und Frequenzbereichsparameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k werden auf dem Schnittstellenbildschirm 354 dargestellt, um dem Benutzer zu ermöglichen, aktualisierte Werte einzugeben.The time domain parameters and frequency domain parameters in the frame signature database 292 contain values specified by the manufacturer or entered by the user or learned over time by playing an instrument. The factory or the manufacturer of the audio amplifier 270 may initially set the values of the time domain and frequency domain parameters 1-j and weighting factors 1-j and control parameters 1-k. The user can change the time range and Frequency domain parameters 1-j, the weighting factors 1-j and the control parameters 1-k for each frame signature 1-i in the database 292 directly using the computer 352 with the user interface screen or user interface display 354 , please refer 36 , to change. The values for the time domain and frequency domain parameters 1-j, the weighting factors 1-j and the control parameters 1-k are displayed on the interface screen 354 to allow the user to enter updated values.

In einem anderen Ausführungsbeispiel können Zeitbereichs- und Frequenzbereichsparameter 1-j, Gewichtungsfaktoren 1-j und Steuerparameter 1-k durch den Künstler, der in das Mikrophon 250 singt, gelernt werden. Der Künstler setzt den Audioverstärker 270 in einen Lernmodus. Der Künstler singt wiederholt in das Mikrophon 250. Die Frequenzbereichsanalyse 300 und die Zeitbereichsanalyse 302 von 30 erzeugen eine Laufzeitmatrix 324 mit zugehörigen Frequenzbereichsparametern und Zeitbereichsparametern für jeden Rahmen 1-n, wie in 31a definiert. Die Frequenzbereichsparameter und Zeitbereichsparameter für jeden Rahmen 1-n werden in der Datenbank 292 gesammelt und gespeichert.In another embodiment, time domain and frequency domain parameters 1-j, weighting factors 1-j, and control parameters 1-k may be input by the artist into the microphone 250 sings, be learned. The artist puts the audio amplifier 270 into a learning mode. The artist sings repeatedly in the microphone 250 , The frequency domain analysis 300 and the time domain analysis 302 from 30 generate a runtime matrix 324 with associated frequency domain parameters and time domain parameters for each frame 1-n, as in 31a Are defined. The frequency domain parameters and time domain parameters for each frame 1-n are in the database 292 collected and saved.

Der Künstler kann manuelle Einstellungen am Audioverstärker 270 über das Frontbedienfeld 262 durchführen. Der Audioverstärker 270 lernt die Steuerparameter 1-k, die dem Rahmen zugeordnet sind, durch die Einstellungen der Signalverarbeitungsblöcke 272284, wie durch den Künstler manuell eingestellt. Wenn der Lernmodus vollendet ist, werden die Rahmensignaturdatensätze in der Datenbank 292 mit den Rahmensignaturparametern definiert, die ein Mittelwert der Frequenzbereichsparameter und der Zeitbereichsparameter, die in der Datenbank 292 gesammelt sind, und ein Mittelwert der Steuerparameter 1-k, die von den manuellen Einstellungen der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 in der Datenbank 292 genommen sind, sind. In einem Ausführungsbeispiel ist der Mittelwert ein quadratischer Mittelwert der Reihe von gesammelten Frequenzbereichs- und Zeitbereichsparametern 1-j und gesammelten Steuerparametern 1-k in der Datenbank 292.The artist can manual settings on the audio amplifier 270 via the front panel 262 carry out. The audio amplifier 270 learns the control parameters 1-k associated with the frame through the settings of the signal processing blocks 272 - 284 as manually set by the artist. When the learn mode is completed, the frame signature records will be in the database 292 defined with the frame signature parameters, which are an average of the frequency domain parameters and the time domain parameters stored in the database 292 are collected, and an average of the control parameters 1-k, that of the manual settings of the signal processing blocks 272 - 284 of the audio amplifier 270 in the database 292 are taken. In one embodiment, the mean is a root mean square of the series of collected frequency domain and time domain parameters 1-j and collected control parameters 1-k in the database 292 ,

Gewichtungsfaktoren 1-j können durch Überwachen der gelernten Zeitbereichs- und Frequenzbereichsparameter 1-j und Erhöhen oder Verringern der Gewichtungsfaktoren auf der Basis der Nähe oder statistischen Korrelation des Vergleichs gelernt werden. Wenn ein spezieller Parameter eine konsistente statistische Korrelation aufweist, dann kann der Gewichtungsfaktor für diesen Parameter erhöht werden. Wenn ein spezieller Parameter eine unterschiedliche statistische verschiedenartige Korrelation aufweist, dann kann der Gewichtungsfaktor für diesen Parameter verringert werden.Weighting factors 1-j may be learned by monitoring the learned time domain and frequency domain parameters 1-j and increasing or decreasing the weighting factors based on the proximity or statistical correlation of the comparison. If a particular parameter has a consistent statistical correlation, then the weighting factor for that parameter can be increased. If a particular parameter has a different statistical miscellaneous correlation then the weighting factor for that parameter can be reduced.

Sobald die Parameter 1-j, die Gewichtungsfaktoren 1-j und die Steuerparameter 1-k der Rahmensignaturen 1-i für die Datenbank 292 festgelegt sind, können die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 324 auf einer rahmenweisen Basis mit jeder Rahmensignatur 1-i verglichen werden, um eine beste Übereinstimmung oder engste Korrelation zu finden. In einem normalen Wiedergabemodus singt der Künstler einen Liedtext, um ein Audiosignal mit einer Zeitsequenz von Rahmen zu erzeugen. Für jeden Rahmen wird die Laufzeitmatrix 324 mit Zeitbereichsparametern und Frequenzbereichsparametern belegt, die aus einer Zeitbereichsanalyse und Frequenzbereichsanalyse des Audiosignals bestimmt werden, wie in 2934 beschrieben.Once the parameters 1-j, the weighting factors 1-j and the control parameters 1-k of the frame signatures 1-i for the database 292 are fixed, the time domain and frequency domain parameters 1-j in the runtime matrix 324 are compared on a frame-by-frame basis with each frame signature 1-i to find a best match or closest correlation. In a normal playback mode, the artist sings a lyrics text to produce an audio signal with a time sequence of frames. For each frame, the runtime matrix becomes 324 is occupied by time domain parameters and frequency domain parameters determined from a time domain analysis and frequency domain analysis of the audio signal, as in 29 - 34 described.

Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 1 in der Laufzeitmatrix 324 und die Parameter 1-j in jeder Rahmensignatur 1-i werden auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. 37 zeigt einen Erkennungsdetektor 356 mit einem Vergleichsblock 358 zum Bestimmen der Differenz zwischen den Zeitbereichs- und Frequenzbereichsparametern 1-j für einen Rahmen in der Laufzeitmatrix 324 und den Parametern 1-j in jeder Rahmensignatur 1-i. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 358 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur 1 und speichert die Differenz im Erkennungsspeicher 360. Die Differenzen zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur 1 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 1 zu bestimmen.The time domain and frequency domain parameters 1-j for frame 1 in the runtime matrix 324 and the parameters 1-j in each frame signature 1-i are successively compared on a basis and the differences are recorded. 37 shows a recognition detector 356 with a comparison block 358 for determining the difference between the time domain and frequency domain parameters 1-j for a frame in the runtime matrix 324 and the parameters 1-j in each frame signature 1-i. For each parameter of frame 1, the comparison block determines 358 the difference between the parameter value in the runtime matrix 324 and the parameter value in the frame signature 1 and stores the difference in the recognition memory 360 , The differences between the parameters 1-j of frame 1 in the runtime matrix 324 and the parameters 1-j of the frame signature 1 are summed to determine an overall difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the frame signature 1.

Als nächstes bestimmt der Vergleichsblock 358 für jeden Parameter des Rahmens 1 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur 2 und speichert die Differenz im Erkennungsspeicher 360. Die Differenzen zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur 2 werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 2 zu bestimmen.Next, the comparison block determines 358 for each parameter of frame 1, the difference between the parameter value in the runtime matrix 324 and the parameter value in the frame signature 2, and stores the difference in the recognition memory 360 , The differences between the parameters 1-j of frame 1 in the runtime matrix 324 and the parameters 1-j of the frame signature 2 are summed to determine an overall difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the frame signature 2.

Die Zeitbereichsparameter und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 324 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-j in den restlichen Rahmensignaturen 3-i in der Datenbank 292 verglichen, wie für die Rahmensignaturen 1 und 2 beschrieben. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 1 der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation und der Rahmen, der dem Rahmen 1 der Laufzeitmatrix 324 zugeordnet ist, wird mit der Rahmensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j des Rahmens 1 in der Laufzeitmatrix 324 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Rahmensignatur 1 ausgerichtet.The time domain parameters and frequency domain parameters 1-j in the runtime matrix 324 for frame 1, with the time domain and frequency domain parameters 1-j in the remaining frame signatures 3-i in the database 292 compared as described for the frame signatures 1 and 2. The minimum total difference between the parameters 1-j of frame 1 of the runtime matrix 324 and the parameters 1- j of the frame signatures 1-i is the best match or closest correlation and the frame that corresponds to frame 1 of the runtime matrix 324 is associated with the frame signature with the minimum total difference between corresponding parameters. In this case, the time domain and frequency domain parameters 1-j of frame 1 are in the runtime matrix 324 more closely aligned to the time domain and frequency domain parameters 1-j in the frame signature 1.

Mit den Zeitbereichsparametern und Frequenzbereichsparametern 1-j des Rahmens 1 in der Laufzeitmatrix 324, die an die Rahmensignatur 1 angepasst sind, verwendet der Block 294 zur adaptiven Intelligenzsteuerung von 29 die Steuerparameter 1-k, die der passenden Rahmensignatur 1 in der Datenbank 292 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 zu steuern. Das Audiosignal wird durch den Vorfilterblock 272, den Voreffektblock 274, den Block 276 für nicht-lineare Effekte, die vom Benutzer definierten Module 278, den Nacheffektblock 280, den Nachfilterblock 282 und den Leistungsverstärkungsblock 284 verarbeitet, die jeweils arbeiten, wie durch den Steuerparameter 1,1, den Steuerparameter 1,2 bis zum Steuerparameter 1,k der Rahmensignatur 1 festgelegt. Das verbesserte Audiosignal wird zum Lautsprecher 266 im Gehäuse 256 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.With the time domain parameters and frequency domain parameters 1-j of frame 1 in the runtime matrix 324 that match the frame signature 1 uses the block 294 for adaptive intelligence control of 29 the control parameters 1-k, the matching frame signature 1 in the database 292 are assigned to the operation of the signal processing blocks 272 - 284 of the audio amplifier 270 to control. The audio signal is passed through the pre-filter block 272 , the pre-effect block 274 , the block 276 for non-linear effects, the user-defined modules 278 , the after effect block 280 , the postfilter block 282 and the power amplification block 284 processed, each of which, as determined by the control parameter 1,1, the control parameter 1,2 to the control parameter 1, k of the frame signature 1. The improved audio signal becomes the speaker 266 in the case 256 directed. The listener hears the reproduced audio signal in real time with characteristics determined by the dynamic content of the audio signal.

Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 324 und die Parameter 1-j in jeder Rahmensignatur 1-i werden auf einer Basis nacheinander verglichen und die Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 358 die Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur i und speichert die Differenz im Erkennungsspeicher 360. Die Differenzen zwischen den Parametern 1-j des Rahmens 2 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur i werden summiert, um einen Gesamtdifferenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Rahmensignatur i zu bestimmen. Die minimale Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation und der Rahmen, der dem Rahmen 1 der Laufzeitmatrix 324 zugeordnet ist, wird mit der Rahmensignatur mit der minimalen Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. In diesem Fall sind die Zeitbereichs- und Frequenzbereichsparameter 1-j des Rahmens 2 in der Laufzeitmatrix 324 enger auf die Zeitbereichs- und Frequenzbereichsparameter 1-j in der Rahmensignatur 2 ausgerichtet. Der Block 294 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k, die der passenden Rahmensignatur 2 in der Datenbank 292 zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 324 fort.The time domain and frequency domain parameters 1-j for frame 2 in the runtime matrix 324 and the parameters 1-j in each frame signature 1-i are successively compared on a basis and the differences are recorded. For each parameter 1-j of frame 2, the comparison block determines 358 the difference between the parameter value in the runtime matrix 324 and the parameter value in the frame signature i and stores the difference in the recognition memory 360 , The differences between the parameters 1-j of frame 2 in the runtime matrix 324 and the parameters 1-j of the frame signature i are summed to determine a total difference value between the parameters 1-j of the frame 2 and the parameters 1-j of the frame signature i. The minimum total difference between the parameters 1-j of frame 2 of the runtime matrix 324 and the parameters 1-j of the frame signatures 1-i is the best match or closest correlation and the frame corresponding to frame 1 of the runtime matrix 324 is associated with the frame signature with the minimum total difference between corresponding parameters. In this case, the time domain and frequency domain parameters 1-j of frame 2 are in the runtime matrix 324 more closely aligned with the time domain and frequency domain parameters 1-j in the frame signature 2. The block 294 for adaptive intelligence control, the control parameter 1-k uses the appropriate frame signature 2 in the database 292 are assigned to the operation of the signal processing blocks 272 - 284 of the audio amplifier 270 to control. The process continues for each frame n of the runtime matrix 324 continued.

In einem weiteren Ausführungsbeispiel werden die Zeitbereichs- und Frequenzbereichsparameter 1-j für einen Rahmen in der Laufzeitmatrix 324 und die Parameter 1-j in jeder Rahmensignatur 1-i auf einer Basis nacheinander verglichen und die gewichteten Differenzen werden aufgezeichnet. Für jeden Parameter des Rahmens 1 bestimmt der Vergleichsblock 358 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur 1, wie durch das Gewicht 1,j bestimmt, und speichert die gewichtete Differenz im Erkennungsspeicher 360. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur 1 werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 1 zu bestimmen.In another embodiment, the time domain and frequency domain parameters 1-j for a frame in the runtime matrix 324 and the parameters 1-j in each frame signature 1-i are successively compared on a basis and the weighted differences are recorded. For each parameter of frame 1, the comparison block determines 358 the weighted difference between the parameter value in the runtime matrix 324 and the parameter value in the frame signature 1, as determined by the weight 1, j, and stores the weighted difference in the recognition memory 360 , The weighted differences between the parameters 1-j of frame 1 in the runtime matrix 324 and the parameters 1-j of the frame signature 1 are summed to determine a total weighted difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the frame signature 1.

Als nächstes bestimmt der Vergleichsblock 358 für jeden Parameter des Rahmens 1 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur 2 durch das Gewicht 2,j und speichert die gewichtete Differenz im Erkennungsspeicher 360. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 2 werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 1 und den Parametern 1-j der Rahmensignatur 2 zu bestimmen.Next, the comparison block determines 358 for each parameter of frame 1, the weighted difference between the parameter value in the runtime matrix 324 and the parameter value in the frame signature 2 by the weight 2, j and stores the weighted difference in the recognition memory 360 , The weighted differences between the parameters 1-j of the frame 1 and the parameters 1-j of the frame signature 2 are summed to determine a total weighted difference value between the parameters 1-j of the frame 1 and the parameters 1-j of the frame signature 2.

Die Zeitbereichsparameter und Frequenzbereichsparameter 1-j in der Laufzeitmatrix 324 für den Rahmen 1 werden mit den Zeitbereichs- und Frequenzbereichsparametern 1-j in den restlichen Rahmensignaturen 3-i in der Datenbank 292 verglichen, wie für die Rahmensignaturen 1 und 2 beschrieben. Die minimale gewichtete Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 1 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation und der Rahmen, der dem Rahmen 1 der Laufzeitmatrix 324 zugeordnet ist, wird mit der Rahmensignatur mit der minimalen gewichteten Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. Der Block 294 zum Steuern der adaptiven Intelligenz verwendet die Steuerparameter 1-k in der Datenbank 292, die der passenden Rahmensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 zu steuern.The time domain parameters and frequency domain parameters 1-j in the runtime matrix 324 for frame 1, with the time domain and frequency domain parameters 1-j in the remaining frame signatures 3-i in the database 292 compared as described for the frame signatures 1 and 2. The minimum weighted total difference between the parameters 1-j of frame 1 in the runtime matrix 324 and the parameters 1-j of the frame signatures 1-i is the best match or closest correlation and the frame corresponding to frame 1 of the runtime matrix 324 is associated with the frame signature with the minimum weighted total difference between corresponding parameters. The block 294 for controlling the adaptive intelligence uses the control parameters 1-k in the database 292 associated with the appropriate frame signature for the operation of the signal processing blocks 272 - 284 of the audio amplifier 270 to control.

Die Zeitbereichs- und Frequenzbereichsparameter 1-j für den Rahmen 2 in der Laufzeitmatrix 324 und die Parameter 1-j in jeder Rahmensignatur 1-i werden auf einer Basis nacheinander verglichen und die gewichteten Differenzen werden aufgezeichnet. Für jeden Parameter 1-j des Rahmens 2 bestimmt der Vergleichsblock 358 die gewichtete Differenz zwischen dem Parameterwert in der Laufzeitmatrix 324 und dem Parameterwert in der Rahmensignatur i durch das Gewicht i,j und speichert die gewichtete Differenz im Erkennungsspeicher 360. Die gewichteten Differenzen zwischen den Parametern 1-j des Rahmens 2 in der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignatur i werden summiert, um einen gesamten gewichteten Differenzwert zwischen den Parametern 1-j des Rahmens 2 und den Parametern 1-j der Rahmensignatur i zu bestimmen. Die minimale gewichtete Gesamtdifferenz zwischen den Parametern 1-j des Rahmens 2 der Laufzeitmatrix 324 und den Parametern 1-j der Rahmensignaturen 1-i ist die beste Übereinstimmung oder engste Korrelation und der Rahmen, der dem Rahmen 1 der Laufzeitmatrix 324 zugeordnet ist, wird mit der Rahmensignatur mit der minimalen gewichteten Gesamtdifferenz zwischen entsprechenden Parametern identifiziert. Der Block 294 zur adaptiven Intelligenzsteuerung verwendet die Steuerparameter 1-k in der Datenbank 292, die der passenden Rahmensignatur zugeordnet sind, um den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270 zu steuern. Der Prozess fährt für jeden Rahmen n der Laufzeitmatrix 324 fort.The time domain and frequency domain parameters 1-j for frame 2 in the runtime matrix 324 and the parameters 1-j in each frame signature 1-i are successively compared on a basis and the weighted differences are recorded. For each parameter 1-j of frame 2, the comparison block determines 358 the weighted difference between the parameter value in the runtime matrix 324 and the parameter value in the frame signature i by the weight i, j and stores the weighted difference in the recognition memory 360 , The weighted differences between the parameters 1-j of frame 2 in the runtime matrix 324 and the parameters 1-j of the frame signature i are summed to determine a total weighted difference value between the parameters 1-j of the frame 2 and the parameters 1-j of the frame signature i. The minimum weighted total difference between the parameters 1-j of frame 2 of the runtime matrix 324 and the parameters 1-j of the frame signatures 1-i is the best match or closest correlation and the frame corresponding to frame 1 of the runtime matrix 324 is associated with the frame signature with the minimum weighted total difference between corresponding parameters. The block 294 for adaptive intelligence control uses the control parameters 1-k in the database 292 associated with the appropriate frame signature for the operation of the signal processing blocks 272 - 284 of the audio amplifier 270 to control. The process continues for each frame n of the runtime matrix 324 continued.

In einem weiteren Ausführungsbeispiel wird eine Wahrscheinlichkeit für die Korrelation zwischen entsprechenden Parametern in der Laufzeitmatrix 324 und den Rahmensignaturen 1-i bestimmt. Mit anderen Worten, eine Wahrscheinlichkeit für die Korrelation wird als Prozentsatz, dass ein gegebener Parameter in der Laufzeitmatrix 324 wahrscheinlich derselbe wie der entsprechende Parameter in der Rahmensignatur i ist, bestimmt. Der Prozentsatz ist eine Wahrscheinlichkeit für eine Übereinstimmung. Wie vorstehend beschrieben, werden die Zeitbereichsparameter und Frequenzbereichsparameter in der Laufzeitmatrix 324 auf einer rahmenweisen Basis gespeichert. Für jeden Rahmen n jedes Parameters j in der Laufzeitmatrix 174 wird durch Pn,j = [Pn1, Pn2, ... Pnj] dargestellt.In a further embodiment, a probability for the correlation between corresponding parameters in the runtime matrix 324 and the frame signatures 1-i. In other words, a probability of correlation is expressed as a percentage that is a given parameter in the runtime matrix 324 probably the same as the corresponding parameter in the frame signature i. The percentage is a probability of a match. As described above, the time domain parameters and frequency domain parameters in the runtime matrix become 324 stored on a frame by frame basis. For every frame n of each parameter j in the runtime matrix 174 is represented by Pn, j = [Pn1, Pn2, ... Pnj].

Eine nach Wahrscheinlichkeit geordnete Liste R wird zwischen jedem Rahmen n jedes Parameters j in der Laufzeitmatrix 174 und jedem Parameter j jeder Rahmensignatur i bestimmt. Der Wahrscheinlichkeitswert ri kann durch eine Analyse des quadratischen Mittelwerts für das Pn,j und die Rahmensignaturdatenbank Si,j in Gleichung (3) bestimmt werden. Der Wahrscheinlichkeitswert R ist (1-ri) × 100%. Der Gesamtrangordnungswert für Pn,j und die Rahmendatenbank Si,j ist in Gleichung (4) gegeben.A probability-ordered list R is placed between each frame n of each parameter j in the runtime matrix 174 and each parameter j of each frame signature i. The probability value r i can be determined by an analysis of the root-mean-squared value for the Pn, j and the frame signature database Si, j in equation (3). The probability value R is (1-r i ) × 100%. The total rank order value for Pn, j and the frame database Si, j is given in Equation (4).

In einigen Fällen identifiziert der Vergleichsprozess zwei oder mehr Rahmensignaturen, die nahe dem vorliegenden Rahmen liegen. Ein Rahmen in der Laufzeitmatrix 324 kann beispielsweise eine Wahrscheinlichkeit von 52%, dass er mit der Rahmensignatur 1 übereinstimmt, und eine Wahrscheinlichkeit von 48%, dass er mit der Rahmensignatur 2 übereinstimmt, aufweisen. In diesem Fall wird eine Interpolation zwischen dem Steuerparameter 1,1, dem Steuerparameter 1,2 bis zum Steuerparameter 1,k und dem Steuerparameter 2,1, dem Steuerparameter 2,2 bis zum Steuerparameter 2,k, die durch die Wahrscheinlichkeit der Übereinstimmung gewichtet werden, durchgeführt. Der effektive Nettosteuerparameter 1 ist 0,52·Steuerparameter 1,1 + 0,48·Steuerparameter 2,1. Der effektive Nettosteuerparameter 2 ist 0,52·Steuerparameter 1,2 + 0,48·Steuerparameter 2,2. Der effektive Nettosteuerparameter k ist 0,52·Steuerparameter 1,k + 0,48·Steuerparameter 2,k. Die effektiven Nettosteuerparameter 1-k steuern den Betrieb der Signalverarbeitungsblöcke 272284 des Audioverstärkers 270. Das Audiosignal wird durch den Vorfilterblock 272, den Voreffektblock 274, den Block 276 für nicht-lineare Effekte, die vom Benutzer definierten Module 278, den Nacheffektblock 280, den Nachfilterblock 282 und den Leistungsverstärkungsblock 284 verarbeitet, die jeweils arbeiten, wie durch die effektiven Nettosteuerparameter 1-k festgelegt. Das Audiosignal wird zum Lautsprecher 266 im Gehäuse 256 geleitet. Der Zuhörer hört das wiedergegebene Audiosignal in Echtzeit mit Eigenschaften, die durch den dynamischen Inhalt des Audiosignals bestimmt sind, verbessert.In some cases, the comparison process identifies two or more frame signatures that are close to the present frame. A frame in the runtime matrix 324 For example, a probability of 52% that it matches the frame signature 1 and a probability of 48% that it matches the frame signature 2 may have. In this case, an interpolation between the control parameter 1,1, the control parameter 1,2 to the control parameter 1, k and the control parameter 2,1, the control parameter 2,2 to the control parameter 2, k, which is weighted by the probability of coincidence be performed. The net effective control parameter 1 is 0.52 · control parameters 1.1 + 0.48 · control parameters 2.1. The net effective control parameter 2 is 0.52 · control parameter 1.2 + 0.48 · control parameter 2.2. The net effective control parameter k is 0.52 · control parameters 1, k + 0.48 · control parameters 2, k. The net effective control parameters 1-k control the operation of the signal processing blocks 272 - 284 of the audio amplifier 270 , The audio signal is passed through the pre-filter block 272 , the pre-effect block 274 , the block 276 for non-linear effects, the user-defined modules 278 , the after effect block 280 , the postfilter block 282 and the power amplification block 284 each working as determined by the net effective control parameters 1-k. The audio signal becomes the speaker 266 in the case 256 directed. The listener hears the reproduced audio signal in real time with characteristics determined by the dynamic content of the audio signal.

Obwohl ein oder mehrere Ausführungsbeispiele der vorliegenden Erfindung im Einzelnen dargestellt wurden, erkennt der Fachmann, dass Modifikationen und Anpassungen an diesen Ausführungsbeispielen vorgenommen werden können, ohne vom Schutzbereich der vorliegenden Erfindung, wie in den folgenden Ansprüchen dargelegt, abzuweichen.Although one or more embodiments of the present invention have been shown in detail, those skilled in the art will recognize that modifications and adaptations may be made to these embodiments without departing from the scope of the present invention as set forth in the following claims.

Claims (17)

Audiosystem mit einem Signalprozessor, der zum Empfangen eines Audiosignals gekoppelt ist, wobei der dynamische Inhalt des Audiosignals den Betrieb des Signalprozessors steuert.An audio system comprising a signal processor coupled to receive an audio signal, wherein the dynamic content of the audio signal controls the operation of the signal processor. Audiosystem nach Anspruch 1, das ferner umfasst: einen Zeitbereichsprozessor, der zum Empfangen des Audiosignals und zum Erzeugen von Zeitbereichsparametern des Audiosignals gekoppelt ist; einen Frequenzbereichsprozessor, der zum Empfangen des Audiosignals und zum Erzeugen von Frequenzbereichsparametern des Audiosignals gekoppelt ist; eine Signaturdatenbank mit einer Vielzahl von Signaturdatensätzen mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparametern; und einen Erkennungsdetektor zum Vergleichen der Zeitbereichsparameter und Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank, wobei die Steuerparameter des passenden Signaturdatensatzes den Betrieb des Signalprozessors steuern. The audio system of claim 1, further comprising: a time domain processor coupled to receive the audio signal and to generate time domain parameters of the audio signal; a frequency domain processor coupled to receive the audio signal and to generate frequency domain parameters of the audio signal; a signature database having a plurality of signature records each having time domain parameters and frequency domain parameters and control parameters; and a recognition detector for comparing the time domain parameters and frequency domain parameters of the audio signal with a signature data set of the signature database, the control parameters of the matching signature data set controlling the operation of the signal processor. Audiosystem nach Anspruch 1, wobei der Signalprozessor ein Vorfilter, Voreffekte, nicht-lineare Effekte, ein vom Benutzer definiertes Modul, Nacheffekte, ein Nachfilter oder eine Leistungsverstärkung umfasst.The audio system of claim 1, wherein the signal processor comprises a pre-filter, pre-effects, non-linear effects, a user-defined module, post-effects, a post-filter or a power gain. Audiosystem nach Anspruch 1, wobei das Audiosignal abgetastet wird und der Zeitbereichsprozessor und der Frequenzbereichsprozessor eine Vielzahl von Rahmen des abgetasteten Audiosignals verarbeiten.The audio system of claim 1, wherein the audio signal is sampled and the time domain processor and the frequency domain processor process a plurality of frames of the sampled audio signal. Audiosystem nach Anspruch 1, wobei der Zeitbereichsprozessor oder der Frequenzbereichsprozessor den Beginn einer Note des abgetasteten Audiosignals detektiert.The audio system of claim 1, wherein the time domain processor or the frequency domain processor detects the beginning of a note of the sampled audio signal. Audiosystem nach Anspruch 1, wobei die Zeitbereichsparameter einen Notenspitzeneinsatzparameter, einen Notenspitzenfreigabeparameter, einen Mehrband-Spitzeneinsatzparameter, einen Mehrband-Spitzenfreigabeparameter, einen Schlagdetektorparameter, einen Tempodetektorparameter, einen Übergangsdetektorparameter oder einen Vibratodetektorparameter umfassen.The audio system of claim 1, wherein the time domain parameters include a headset parameter, a note head enable parameter, a multiband peak set parameter, a multiband peak enable parameter, a beat detector parameter, a tempo detector parameter, a transition detector parameter, or a vibrato detector parameter. Audiosystem nach Anspruch 1, wobei die Frequenzbereichsparameter einen Oberwellen-Einsatzverhältnisparameter, einen Oberwellen-Freigabeverhältnisparameter, einen Leer- und Dämpfungsfaktorparameter, einen Hals- und Stegfaktorparameter, einen Tonhöhendetektorparameter, einen Vokalformantparameter oder einen Obertondetektorparameter umfassen.The audio system of claim 1, wherein the frequency domain parameters include a harmonic insertion ratio parameter, a harmonic release ratio parameter, an empty and attenuation factor parameter, a neck and bridge factor parameter, a pitch detector parameter, a vocal deformant parameter, or an overtone detector parameter. Audiosystem nach Anspruch 1, wobei das Audiosignal durch eine Gitarre erzeugt wird.The audio system of claim 1, wherein the audio signal is generated by a guitar. Audiosystem nach Anspruch 1, wobei das Audiosignal durch Gesang erzeugt wird.The audio system of claim 1, wherein the audio signal is generated by vocals. Verfahren zum Steuern eines Audiosystems, das umfasst: Vorsehen eines Signalprozessors, der zum Empfangen eines Audiosignals ausgelegt ist; und Steuern des Betriebs des Signalprozessors unter Verwendung des dynamischen Inhalts des Audiosignals.A method of controlling an audio system, comprising: Providing a signal processor adapted to receive an audio signal; and Controlling the operation of the signal processor using the dynamic content of the audio signal. Verfahren nach Anspruch 10, das ferner umfasst: Erzeugen von Zeitbereichsparametern des Audiosignals; Erzeugen von Frequenzbereichsparametern des Audiosignals; Vorsehen einer Signaturdatenbank mit einer Vielzahl von Signaturdatensätzen mit jeweils Zeitbereichsparametern und Frequenzbereichsparametern und Steuerparametern; Vergleichen der Zeitbereichsparameter und Frequenzbereichsparameter des Audiosignals mit einem Signaturdatensatz der Signaturdatenbank; und Steuern des Betriebs des Signalprozessors auf der Basis der Steuerparameter des passenden Signaturdatensatzes.The method of claim 10, further comprising: Generating time domain parameters of the audio signal; Generating frequency domain parameters of the audio signal; Providing a signature database having a plurality of signature records each having time domain parameters and frequency domain parameters and control parameters; Comparing the time domain parameters and frequency domain parameters of the audio signal with a signature data set of the signature database; and Controlling the operation of the signal processor based on the control parameters of the matching signature data set. Verfahren nach Anspruch 10, wobei der Signalprozessor ein Vorfilter, Voreffekte, nicht-lineare Effekte, ein vom Benutzer definiertes Modul, Nacheffekte, ein Nachfilter oder eine Leistungsverstärkung umfasst.The method of claim 10, wherein the signal processor comprises a pre-filter, pre-effects, non-linear effects, a user-defined module, post-effects, a post-filter or a power gain. Verfahren nach Anspruch 10, das ferner umfasst: Abtasten des Audiosignals; und Erzeugen der Zeitbereichsparameter und Frequenzbereichsparameter auf der Basis einer Vielzahl von Rahmen des abgetasteten Audiosignals.The method of claim 10, further comprising: Sampling the audio signal; and Generating the time domain parameters and frequency domain parameters based on a plurality of frames of the sampled audio signal. Verfahren nach Anspruch 10, das ferner das Detektieren eines Beginns einer Note des abgetasteten Audiosignals umfasst.The method of claim 10, further comprising detecting a beginning of a note of the sampled audio signal. Verfahren nach Anspruch 10, wobei die Zeitbereichsparameter einen Notenspitzeneinsatzparameter, einen Notenspitzenfreigabeparameter, einen Mehrband-Spitzeneinsatzparameter, einen Mehrband-Spitzenfreigabeparameter, einen Schlagdetektorparameter, einen Tempodetektorparameter, einen Übergangsdetektorparameter oder einen Vibratodetektorparameter umfassen. The method of claim 10, wherein the time domain parameters include a headset parameter, a note head enable parameter, a multiband peak-set parameter, a multiband peak-enable parameter, a beat detector parameter, a tempo detector parameter, a transition detector parameter, or a vibrato-detector parameter. Verfahren nach Anspruch 10, wobei die Frequenzbereichsparameter einen Oberwellen-Einsatzverhältnisparameter, einen Oberwellen-Freigabeverhältnisparameter, einen Leer- und Dämpfungsfaktorparameter, einen Hals- und Stegfaktorparameter, einen Tonhöhendetektorparameter, einen Vokalformantparameter oder einen Obertondetektorparameter umfassen.The method of claim 10, wherein the frequency domain parameters include a harmonic duty cycle parameter, a harmonic clearance ratio parameter, an empty and attenuation factor parameter, a throat and bridge factor parameter, a pitch detector parameter, a vocal deformant parameter, or an overtone detector parameter. Verfahren nach Anspruch 10, das ferner das Erzeugen des Audiosignals mit einer Gitarre oder mit Gesang umfasst.The method of claim 10, further comprising generating the audio signal with a guitar or vocals.
DE102012103552A 2011-05-17 2012-04-23 AUDIO SYSTEM AND METHOD FOR USING ADAPTIVE INTELLIGENCE TO DISTINCT THE INFORMATION CONTENT OF AUDIO SIGNALS AND TO CONTROL A SIGNAL PROCESSING FUNCTION Ceased DE102012103552A1 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/109,665 2011-05-17
US13/109,665 US20120294457A1 (en) 2011-05-17 2011-05-17 Audio System and Method of Using Adaptive Intelligence to Distinguish Information Content of Audio Signals and Control Signal Processing Function

Publications (1)

Publication Number Publication Date
DE102012103552A1 true DE102012103552A1 (en) 2012-11-22

Family

ID=46261570

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012103552A Ceased DE102012103552A1 (en) 2011-05-17 2012-04-23 AUDIO SYSTEM AND METHOD FOR USING ADAPTIVE INTELLIGENCE TO DISTINCT THE INFORMATION CONTENT OF AUDIO SIGNALS AND TO CONTROL A SIGNAL PROCESSING FUNCTION

Country Status (4)

Country Link
US (1) US20120294457A1 (en)
CN (1) CN102790932B (en)
DE (1) DE102012103552A1 (en)
GB (1) GB2491000B (en)

Families Citing this family (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8309834B2 (en) * 2010-04-12 2012-11-13 Apple Inc. Polyphonic note detection
US9196235B2 (en) * 2010-07-28 2015-11-24 Ernie Ball, Inc. Musical instrument switching system
JP5703003B2 (en) * 2010-12-07 2015-04-15 ローランド株式会社 Pitch shift device
US8586847B2 (en) * 2011-12-02 2013-11-19 The Echo Nest Corporation Musical fingerprinting based on onset intervals
US9099069B2 (en) * 2011-12-09 2015-08-04 Yamaha Corporation Signal processing device
US10194239B2 (en) * 2012-11-06 2019-01-29 Nokia Technologies Oy Multi-resolution audio signals
JP6048151B2 (en) * 2013-01-08 2016-12-21 カシオ計算機株式会社 Electronic stringed instrument, musical sound generation method and program
JP6127519B2 (en) * 2013-01-08 2017-05-17 カシオ計算機株式会社 Musical sound control device, musical sound control method and program
US10939201B2 (en) 2013-02-22 2021-03-02 Texas Instruments Incorporated Robust estimation of sound source localization
EP2770498A1 (en) * 2013-02-26 2014-08-27 Harman International Industries Ltd. Method of retrieving processing properties and audio processing system
CN104078050A (en) 2013-03-26 2014-10-01 杜比实验室特许公司 Device and method for audio classification and audio processing
US9798974B2 (en) * 2013-09-19 2017-10-24 Microsoft Technology Licensing, Llc Recommending audio sample combinations
US9372925B2 (en) 2013-09-19 2016-06-21 Microsoft Technology Licensing, Llc Combining audio samples by automatically adjusting sample characteristics
CN103646656B (en) * 2013-11-29 2016-05-04 腾讯科技(成都)有限公司 Sound effect treatment method, device, plugin manager and audio plug-in unit
CN107210029B (en) * 2014-12-11 2020-07-17 优博肖德Ug公司 Method and apparatus for processing a series of signals for polyphonic note recognition
US20170024495A1 (en) * 2015-07-21 2017-01-26 Positive Grid LLC Method of modeling characteristics of a musical instrument
US9640157B1 (en) * 2015-12-28 2017-05-02 Berggram Development Oy Latency enhanced note recognition method
US9711121B1 (en) * 2015-12-28 2017-07-18 Berggram Development Oy Latency enhanced note recognition method in gaming
US20170372697A1 (en) * 2016-06-22 2017-12-28 Elwha Llc Systems and methods for rule-based user control of audio rendering
US10984768B2 (en) * 2016-11-04 2021-04-20 International Business Machines Corporation Detecting vibrato bar technique for string instruments
CN108806655B (en) * 2017-04-26 2022-01-07 微软技术许可有限责任公司 Automatic generation of songs
US10056061B1 (en) * 2017-05-02 2018-08-21 Harman International Industries, Incorporated Guitar feedback emulation
WO2019046414A1 (en) * 2017-08-29 2019-03-07 Worcester Polytechnic Institute Musical instrument electronic interface
US11443724B2 (en) * 2018-07-31 2022-09-13 Mediawave Intelligent Communication Method of synchronizing electronic interactive device
JP7475988B2 (en) * 2020-06-26 2024-04-30 ローランド株式会社 Effects device and effects processing program
CN112133267B (en) * 2020-09-04 2024-02-13 腾讯音乐娱乐科技(深圳)有限公司 Audio effect processing method, device and storage medium
US20220303669A1 (en) * 2021-03-16 2022-09-22 Cherry Creek Door & Window Company, Inc. Instrument speaker cabinet with active and passive radiator speakers
CN115862676A (en) * 2023-02-22 2023-03-28 南方电网数字电网研究院有限公司 Voice superposition detection method and device based on deep learning and computer equipment

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6539395B1 (en) * 2000-03-22 2003-03-25 Mood Logic, Inc. Method for creating a database for comparing music
US6740802B1 (en) * 2000-09-06 2004-05-25 Bernard H. Browne, Jr. Instant musician, recording artist and composer
US6673995B2 (en) * 2000-11-06 2004-01-06 Matsushita Electric Industrial Co., Ltd. Musical signal processing apparatus
DE10117870B4 (en) * 2001-04-10 2005-06-09 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Method and apparatus for transferring a music signal into a score-based description and method and apparatus for referencing a music signal in a database
US20020159607A1 (en) * 2001-04-26 2002-10-31 Ford Jeremy M. Method for using source content information to automatically optimize audio signal
US7328153B2 (en) * 2001-07-20 2008-02-05 Gracenote, Inc. Automatic identification of sound recordings
US6476308B1 (en) * 2001-08-17 2002-11-05 Hewlett-Packard Company Method and apparatus for classifying a musical piece containing plural notes
BR0212418A (en) * 2001-09-11 2004-08-03 Thomson Licensing Sa Method and apparatus for activating automatic equalization mode
EP1506550A2 (en) * 2002-05-16 2005-02-16 Koninklijke Philips Electronics N.V. Signal processing method and arrangement
US7518055B2 (en) * 2007-03-01 2009-04-14 Zartarian Michael G System and method for intelligent equalization
US7323629B2 (en) * 2003-07-16 2008-01-29 Univ Iowa State Res Found Inc Real time music recognition and display system
US7002069B2 (en) * 2004-03-09 2006-02-21 Motorola, Inc. Balancing MIDI instrument volume levels
US20050251273A1 (en) * 2004-05-05 2005-11-10 Motorola, Inc. Dynamic audio control circuit and method
BRPI0518278B1 (en) * 2004-10-26 2018-04-24 Dolby Laboratories Licensing Corporation METHOD AND APPARATUS FOR CONTROLING A PARTICULAR SOUND FEATURE OF AN AUDIO SIGNAL
US7598447B2 (en) * 2004-10-29 2009-10-06 Zenph Studios, Inc. Methods, systems and computer program products for detecting musical notes in an audio signal
CN100371925C (en) * 2005-05-25 2008-02-27 南京航空航天大学 Discrimination method of machine tool type based on voice signal property
CN101189610B (en) * 2005-06-01 2011-12-14 皇家飞利浦电子股份有限公司 Method and electronic device for determining a characteristic of a content item
US7516074B2 (en) * 2005-09-01 2009-04-07 Auditude, Inc. Extraction and matching of characteristic fingerprints from audio signals
US7774078B2 (en) * 2005-09-16 2010-08-10 Sony Corporation Method and apparatus for audio data analysis in an audio player
KR100677622B1 (en) * 2005-12-02 2007-02-02 삼성전자주식회사 Method for equalizer setting of audio file and method for reproducing audio file using thereof
WO2008051347A2 (en) * 2006-10-20 2008-05-02 Dolby Laboratories Licensing Corporation Audio dynamics processing using a reset
US8521314B2 (en) * 2006-11-01 2013-08-27 Dolby Laboratories Licensing Corporation Hierarchical control path with constraints for audio dynamics processing
JP2010521021A (en) * 2007-02-14 2010-06-17 ミューズアミ, インコーポレイテッド Song-based search engine
US8426715B2 (en) * 2007-12-17 2013-04-23 Microsoft Corporation Client-side audio signal mixing on low computational power player using beat metadata
US20090290725A1 (en) * 2008-05-22 2009-11-26 Apple Inc. Automatic equalizer adjustment setting for playback of media assets
US20100158260A1 (en) * 2008-12-24 2010-06-24 Plantronics, Inc. Dynamic audio mode switching
WO2010138311A1 (en) * 2009-05-26 2010-12-02 Dolby Laboratories Licensing Corporation Equalization profiles for dynamic equalization of audio data
US8290769B2 (en) * 2009-06-30 2012-10-16 Museami, Inc. Vocal and instrumental audio effects
US9031243B2 (en) * 2009-09-28 2015-05-12 iZotope, Inc. Automatic labeling and control of audio algorithms by audio recognition
CN102044242B (en) * 2009-10-15 2012-01-25 华为技术有限公司 Method, device and electronic equipment for voice activation detection

Also Published As

Publication number Publication date
CN102790932B (en) 2015-10-07
GB2491000B (en) 2013-10-09
US20120294457A1 (en) 2012-11-22
GB201206893D0 (en) 2012-06-06
GB2491000A (en) 2012-11-21
CN102790932A (en) 2012-11-21

Similar Documents

Publication Publication Date Title
DE102012103552A1 (en) AUDIO SYSTEM AND METHOD FOR USING ADAPTIVE INTELLIGENCE TO DISTINCT THE INFORMATION CONTENT OF AUDIO SIGNALS AND TO CONTROL A SIGNAL PROCESSING FUNCTION
DE102012103553A1 (en) AUDIO SYSTEM AND METHOD FOR USING ADAPTIVE INTELLIGENCE TO DISTINCT THE INFORMATION CONTENT OF AUDIOSIGNALS IN CONSUMER AUDIO AND TO CONTROL A SIGNAL PROCESSING FUNCTION
CN1174368C (en) Method of modifying harmonic content of complex waveform
Cuesta et al. Analysis of intonation in unison choir singing
DE102011003976B3 (en) Sound input device for use in e.g. music instrument input interface in electric guitar, has classifier interrupting output of sound signal over sound signal output during presence of condition for period of sound signal passages
Herbst Historical development, sound aesthetics and production techniques of the distorted electric guitar in metal music
US9515630B2 (en) Musical dynamics alteration of sounds
JP2002529773A5 (en)
US7851688B2 (en) Portable sound processing device
Lehtonen et al. Analysis and modeling of piano sustain-pedal effects
Herbst et al. Guitar profiling technology in metal music production: public reception, capability, consequences and perspectives
EP1885156B1 (en) Hearing-aid with audio signal generator
CN112927713B (en) Audio feature point detection method, device and computer storage medium
Pedersen et al. The Recording, Mixing, and Mastering Reference Handbook
Elmosnino Audio production principles: Practical studio applications
Jensen et al. Binary decision tree classification of musical sounds
Jasiński et al. On the Audibility of Electric Guitar Tonewood
Jensen et al. Hybrid perception
Proscia et al. A timbral and a musical performance analysis of saxophone multiphonic morphings
US11024273B2 (en) Method and apparatus for performing melody detection
Lehtonen Analysis, perception, and synthesis of the piano sound
Cant et al. Mask Optimisation for Neural Network Monaural Source Separation
Ranjan et al. Segregation of Speech and Music Signals for Aiding the Hearing Impaired
CN112185325A (en) Audio playing style adjusting method and device, electronic equipment and storage medium
Mohamad Estimating Performance Parameters from Electric Guitar Recordings

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final