DE102006028330A1 - Verfahren zum Transponieren eines Audio Signals - Google Patents

Verfahren zum Transponieren eines Audio Signals Download PDF

Info

Publication number
DE102006028330A1
DE102006028330A1 DE102006028330A DE102006028330A DE102006028330A1 DE 102006028330 A1 DE102006028330 A1 DE 102006028330A1 DE 102006028330 A DE102006028330 A DE 102006028330A DE 102006028330 A DE102006028330 A DE 102006028330A DE 102006028330 A1 DE102006028330 A1 DE 102006028330A1
Authority
DE
Germany
Prior art keywords
audio signal
sound
memory
pitch
frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102006028330A
Other languages
English (en)
Inventor
Roman Koller
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Individual
Original Assignee
Individual
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Individual filed Critical Individual
Priority to DE102006028330A priority Critical patent/DE102006028330A1/de
Publication of DE102006028330A1 publication Critical patent/DE102006028330A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/18Selecting circuits
    • G10H1/20Selecting circuits for transposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/066Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for pitch analysis as part of wider processing for musical purposes, e.g. transcription, musical performance evaluation; Pitch recognition, e.g. in polyphonic sounds; Estimation or use of missing fundamental
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/245Ensemble, i.e. adding one or more voices, also instrumental voices
    • G10H2210/261Duet, i.e. automatic generation of a second voice, descant or counter melody, e.g. of a second harmonically interdependent voice by a single voice harmonizer or automatic composition algorithm, e.g. for fugue, canon or round composition, which may be substantially independent in contour and rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2250/00Aspects of algorithms or signal processing methods without intrinsic musical character, yet specifically adapted for or used in electrophonic musical processing
    • G10H2250/131Mathematical functions for musical analysis, processing, synthesis or composition
    • G10H2250/215Transforms, i.e. mathematical transforms into domains appropriate for musical signal processing, coding or compression
    • G10H2250/235Fourier transform; Discrete Fourier Transform [DFT]; Fast Fourier Transform [FFT]

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zum Transponieren oder Stimmen eines Audiosignals unter Verwendung eines Verfahrens, bei dem bei Änderung der Wiedergabegeschwindigkeit die Tonlage des Audiosignals sich entsprechend der Änderung der Wiedergabegeschwindigkeit mit ändert, sowie unter Verwendung eines Verfahrens, bei dem bei Änderung der Wiedergabegeschwindigkeit die Tonlage des Audiosignals sich nicht ändert, wobei durch alternierend verwendete Speicherbereiche die Tonhöhe des Audiosignals, mittels der genannten Verfahren zu einer gegebenen Wiedergabegeschwindigkeit gesteuert, verändert werden kann. Für die Zusammenfassung wird Fig. 3 vorgeschlagen.

Description

  • Die Erfindung betrifft ein Verfahren zum Transponieren eines Audio Signals. Vorzugsweise anzuwenden an Wiedergabegeräten oder auch in Echtzeit. Neben der Anwendung zum Transponieren eignet sich das Verfahren auch sehr gut zum elektronischen Nachstimmen von Audiosignalen, z.B. einer E-Gitarre.
  • Anwendungen zum Transponieren sind z.B. Begleitmusikquellen für Gesang, oder auch Schlagzeugbegleitung, usw. Wird die Echtzeit Transponierung z.B. um eine ganze Oktave vorgenommen, dann kann auch ein live Gesang (Echtzeit) durch automatisch erzeugtes Mitsingen der gleichen, nur um eine Oktave versetzten Stimme einen sehr interessanten Effekt ergeben, vor allem wenn beide Oktaven mit unterschiedlichen Filtercharakteristiken noch optimiert werden, usw. Somit mit vorliegender Erfindung z.B. erstmals ein Mikrofon realisiert werden kann, mit dem eine einzelne Person in Oktaven oder in Chören singen kann.
  • Eine Weiterbildung der Erfindung, auf die später näher eingegangen wird, betrifft das Veredeln (Klonen) von Stimmen und Klängen, bei der das bevorzugte Transponier- und Stimmverfahren benutzt wird. Für diese Art des Veredelns von Klängen, das über das bekannte einfache sampeln weit hinaus geht, wird um allgemeinsten Schutz angesucht, auch unabhängig davon, wie die dazu benötigte Transponierung des Audio Signals vorgenommen wird. Mit einem solchen Klangveredelungsverfahren kann eine Stimme klingen wie Caruso, oder die Callas und eine übliche Geige wie eine Stradivari, Amati, Guarneri oder eine Stainer. Eine jede im Original mehr als 1000.000 Euro wert.
  • Stand der Technik: Der Stand der Technik mit seinen Veröffentlichungen und Produkten kennt zweierlei Verfahren, welche der Erfindung betreffend des Verfahrens zum Transponieren am nächsten sind:
    • a) Verfahren, bei denen sich mit Änderung der Wiedergabegeschwindigkeit eines auf einer Tonkonserve, oder in einem Speicher gespeicherten und für die Wiedergabe ausgelesenen (oder rekonstruierten, vgl. MP3, etc.) Tonträgers auch die Tonlage (Tonhöhe) mit ändert;
    • b) und Verfahren, bei denen sich mit Änderung der Wiedergabegeschwindigkeit eines auf einer Tonkonserve, oder in einem Speicher gespeicherten und für die Wiedergabe ausgelesenen (oder rekonstruierten, vgl. MP3, etc.) Tonträgers die Tonlage (Tonhöhe) nicht ändert, vgl. auch das sogen. Phase Voicing.
  • Beide Verfahren beziehen sich auf die Wiedergabe einer Tonkonserve, d.h. auf eine Aufzeichnung, wobei jeweils die Wiedergabegeschwindigkeit gegenüber der bei der Aufzeichnung verwendeten, verändert wird.
  • Im Unterschied zu b) betrifft hier die technische Aufgabenstellung die Vorgabe, daß die Tonlage (Tonhöhe) der wiedergegebenen Tonkonserve, oder gegebenenfalls auch eines in Echtzeit wiedergegebenen Audiosignals, gesteuert variiert werden soll, z.B. zum Zwecke des Transponierens, oder des Nachstimmens, etc., und zwar ohne daß dadurch die Wiedergabegeschwindigkeit, in Bezug auf das in der Tonlage veränderte Ursprungssignal sich ändert.
  • Die Echtzeit Anwendbarkeit betrifft dabei die Eigenschaft dieses Transponierverfahrens, daß das in seiner Tonlage (Tonhöhe) veränderte Audiosignal entweder in einem Echtzeitereignis entsteht (wie z.B. beim Singen oder beim Spielen eine Instrumentes), bzw. durch den Transponiervorgang in seiner Wiedergabegeschwindigkeit nicht beeinflußt wird, falls es von einer Konserve wiedergegeben wird.
  • Die Lösung der gestellten technischen Aufgabe erfolgt nach Anspruch 1, mit Ausführungsbeispielen und Weiterbildungsvarianten nach den Unteransprüchen.
  • Dabei ist es unerheblich, ob die beiden obenstehend angegebenen Verfahren a) und b) eng miteinander verzahnt abgearbeitet werden, oder das Verfahren b) dem Verfahren a) nur angehängt ist.
  • In beiden Fällen wird durch Abweichung der Wiedergabegeschwindigkeit von der Aufzeichnungsgeschwindigkeit die Tonlage (bzw. Tonhöhe) nachgestimmt, indem ein Eingangspufferspeicher (RAM in 1 oder SP3 und SP4 in 2) vorgesehen ist, welcher bei der Aufzeichnung die Tonlage durch Änderung der Wiedergabegeschwindigkeit verändert und dabei die aufgezeichneten Audiosignaldaten in einen, in der Tonlage von der Geschwindigkeit unabhängigen Audiospeicher (SP1/SP2) einschreibt. Dieser Audiospeicher ist dann der eigentliche für die Wiedergabe verwendete Speicher, bei dem die Tonlage des wiedergegebenen Audiosignals durch eine Geschwindigkeitsänderung nicht verändert wird. Wie nachfolgend noch erläutert wird, eignet sich dieses Verfahren auch besonders für eine Echtzeit Anwendung.
  • Soll das Verfahren ein Echtzeit Signal transponieren oder (stimmen, etc.), vgl. 2 und 3, dann wird bei der Wiedergabe des Audiospeichers (SP1, SP2) eine Wiedergabegeschwindigkeit (vgl. auch tnom, erläutert zu in 3) gewählt, wie sie der Aufzeichnungsgeschwindigkeit des Eingangspufferspeichers (RAM in 1 oder SP3 und SP4 in 2) entspricht (vgl. auch SP4rec und SP3rec).
  • Soll das Verfahren eine Konserve (RAM, 1) wiedergeben, dann kann die Wiedergabegeschwindigkeit der Konserve unmittelbar gegenüber ihre nominale Geschwindigkeit so verändert werden, daß sich die gewünschte Veränderung der Tonlage ergibt, wobei dieses in der Tonlage veränderte Audiosignal dann vom Audiospeichers (SP1, SP2) aufgezeichnet, und mit einer Geschwindigkeit wieder gegeben wird, wie sie der nominalen Geschwindigkeit der Konserve entspräche, bzw. gegebenenfalls die Wiedergabe durch weitere Synchronsignale geregelt wird. Z.B. entsprechend einem Meßverfahren nach DE 41 43 257 C2 zur Anpassung des wiedergegebenen Rhythmus an den Vorgaben eines Benutzers (z.B. über Tap Input) bzw. an die Synchronsignale eines weiteren im Verbund geschalteten Instrumentes, Audioquelle oder auch einer Aufzeichnungseinrichtung, usw.
  • Nachfolgend werden unter Bezugnahme auf 1 bis 8 einige Ausführungsbeispiele besprochen. In 1 ist dabei das Audio Signal von einer Konserve (z.B. von einem RAM) wieder gegeben, wobei das digitale Audiosignal durch ein Taktsignal ausgelesen wird, in 2 hingegen, wird ein Audio Signal eines Echtzeiterreignisses transponiert, d.h. es gibt zu dem Audio Signal keinen Transporttakt.
  • Zu 1: Als Signalquelle sei hier ein Arbeitsspeicher RAM vorgesehen, in welchem das wiederzugebende Audiosignal digital gespeichert ist und durch einen mit Stellgröße einstellbaren Ausgabetakt ausgelesen und dabei in den Audiospeicher SP1, SP2 eingeschrieben wird, um es über diesen Audiospeicher SP1, SP2 bei gleichbleibender Tonhöhe und durch Stellgröße verstellbarer Wiedergabegeschwindigkeit wiederzugeben. Um bis auf eine geringe Durchlaufverzögerung (SP2play, dito SP1play) eine Echtzeit Transponierung des vom Arbeitsspeicher RAM wiedergegebenen Audiosignales zu realisieren, ist diese Speicheranordnung doppelt vorhanden (SP1 und SP2), wobei die beiden Speicher SP1 und SP2 als gemeinsamer Bestandteil des Audiospeichers in ihrer zueinander komplementär gesteuerten Schreib- Lesefunktion alternierend umgeschaltet werden, indem die Speicher jeweils abwechselnd beschrieben und gelesen werden, bzw. die beiden Speicherbereiche SP1 und SP2 des Audiospeichers sich alternierend abwechselnd im Aufnahmemodus und Wiedergabemodus befinden.
  • D.h. während ein Speicher innerhalb eines kurzen Zeitintervalls tnom jeweils beschrieben wird, wird der andere gelesen, dito umgekehrt für das jeweils nachfolgende Zeitintervalls tnom. Dabei wird das Audiosignal in solche aufeinanderfolgende Zeitabschnitte tnom (t nominal) eingeteilt und entsprechend dieser Zeitabschnitte tnom aus dem Arbeitsspeicher RAM jeweils ausgelesen und für jeden aufeinanderfolgenden Zeitabschnitt tnom abwechselnd in die Speicherbereiche SP1/SP2 des Audiospeichers eingeschrieben, dito komplementär dazu gesteuert, abwechselnd von den Speicherbereichen SP1/SP2 des Audiospeichers wiedergegeben. Wobei immer gerade aus dem Speicherbereich (aus SP1/SP2) gelesen wird, in welchem nicht gerade eingeschrieben wird, dito immer gerade der Speicherbereich (aus SP2/SP1) beschrieben wird, der nicht gerade die Wiedergabe vornimmt.
  • Somit sowohl das Einschreiben, als auch die Wiedergabe des Audiosignals durch den Audiospeicher SP1/SP2 innerhalb des aufeinanderfolgend kurzen Zeitintervalls tnom lückenlos erfolgt, bzw. das Übergeben des Audiosignals vom Eingangspufferspeichers (vom RAM in 1 oder von SP3/SP4 in 2) in den Audiospeicher SP1/SP2 zwar gleichfalls lückenlos erfolgt, jedoch entsprechend der höheren Geschwindigkeit bei dieser Übergabe (über die Dauer von tnom gemessen) eine Pause P innerhalb eines jeden Zeitabschnittes tnom auftritt, die jedoch nicht weiter störend ist, da tnom als Durchgangsverzögerung ohnehin mit einem entsprechend vernachlässigbaren kleinen Wert definiert wird.
  • Die Dauer der Zeitabschnitte tnom hängt von der zulässigen Verzögerung ab, mit der das Audiosignal das erläuterte Speicherverfahren maximal durchlaufen darf. Bei einem simplen CD Player ist dies unkritisch. Soll das Wiedergabegerät z.B. nach dem Rhythmus einer MP3 Datei extern synchronisiert werden, wie z.B. bei einem Gerät nach der DE 41 43 257 C2 , oder zum elektronischen Nachstimmen eines in Echtzeit wieder gegebenen Audio Signals (z.B. einer E-Gitarre), oder zur Klangveredelung von in Echtzeit gespielten Instrumenten, dito auch Gesang, dann sind die Zeiten entsprechend kurz zu wählen. D.h. angemessen kürzer als dies von der Reaktionszeit zur Tonauslösung noch akzeptiert werden kann und entsprechend angemessen länger als dies den niedrigsten Frequenzen der tiefen Töne entspricht (damit diese bei den erläuterten Wiedergabegeschwindigkeitsänderungen nicht unter gehen).
  • Wird die Wiedergabe synchronisiert, dann können die einzelnen Zeitabschnitte tnom (oder jeweils Vielfache davon) der Synchronisation angepaßt werden (Option). Wobei das Verhältnis der Zeiten t_rec/t_play, welches die Zeiten für die Aufnahme (rec) und die Wiedergabe (play) des Audiospeichers SP1, SP2 betrifft (mit t_play = tnom, vgl. 3), bei der Veränderung der Dauer eines Zeitabschnittes tnom entsprechend der gewünschten Tonlagenveränderung (das Verhältnis t_rec/t_play) konstant zu halten ist. D.h. wird, bedingt durch eine Synchronisation, der Wiedergabezeitabschnitt tnom (entspricht = t_play) verändert, dann muß der Aufnahmezeitabschnitt t_rec dazu passend mit verändert werden, um der gewünschten Transponierung zu entsprechen. Bei einer Veränderung der Wiedergabegeschwindigkeit können die Zeitabschnitte tnom auch konstant gehalten werden, oder paarweise (auch als Vielfaches) mit verändert werden, je nach Erfordernis der Anwendung.
  • Weitere Optionen sind, das Umschaltsignal für die alternierende Umschaltung der Speicherverwendung von SP1/SP2 (entsprechend der Dauer von tnom), weiterhin mit der Übernahme der Werte zur Steuerung zur jeweiligen Änderung der Aufnahme-/Wiedergabezeit der Audiospeicher SP1, SP2 zu synchronisieren, bzw. gegebenenfalls auch mit den Nulldurchgängen des Audiosignales zu synchronisieren, so daß der Umschaltzeitpunkt tnom jeweils mit den Nulldurchgängen des Audio Signals zusammen fällt (Option).
  • Weitere Details zu 1: Die (elektronische) Umschaltung S-in (am Speichereingang) und S-out (am Speicherausgang) symbolisieren den Multiplexer Betrieb für die alternierende Umschaltung nach aufeinanderfolgenden Zeitabschnitten (tnom) des Audiosignals (vgl. 3), welche den verfahrenstechnischen Prozeß betrifft, hier die Speicherzugriffe, der das Verfahren abarbeiteten Software des verwendeten Signalprozessors DSP. Es ist evident, daß eine solche Verfahrenssteuerung auch über eine Realisierung erfolgen könnte, bei der die dargestellten Speicher Hardeware mäßig verschaltet sind, anstelle daß ausschließlich durch Software auf einen gemeinsamen Arbeitsspeicher (hier mit den Speicherbereichen RAM, SP1, SP2 in 1, bzw. SP1, SP2 und SP3, SP4 in 2) zugegriffen wird.
  • 3 veranschaulicht die ständige, zueinander komplementär vorgenommene alternierende Umschaltung vom Aufnahmemodus in den Wiedergabemodus, dito umgekehrt, der beiden Speicherbereiche SP1/SP2 des Audiospeichers.
    • • Die in ihren Eigenschaften, "Beschreiben mit beliebiger Geschwindigkeit des Audiosignals, dito Wiedergabe mit beliebiger Geschwindigkeit bei unveränderter Tonlage (Tonhöhe) identischen Speicherbereiche SP1/SP2 (1) des Audiospeichers, bzw. gegebenenfalls Speicherbereiche eines (gemeinsamen) Arbeitsspeichers, geben das Audiosignal jeweils in alternierender Umschaltung auf den Wiedergabebetrieb (play) in aufeinanderfolgenden Zeitabschnitten tnom wieder, wobei der jeweils andere Speicher, bzw. Speicherbereich (aus SP1 und SP2), der sich jeweils nicht gerade im Wiedergabebetrieb (play) befindet, im Aufnahmemodus (rec) sich jeweils befindet.
  • Dabei soll bei diesem Beispiel die Tonlage des nach aufeinanderfolgenden Zeitabschnitten (tnom) wiedergegebenen Audiosignals gegenüber dem auf der Konserve (bezogen auf die Soll Geschwindigkeit) gespeicherten, hoch gesetzt werden, was jeweils durch Hochsetzung beim Überschreiben des Arbeitsspeichers RAM in den Audiospeicher SP1, SP2 innerhalb der einzelnen Zeitabschnitte (tnom) für die über die Dauer dieser Zeitabschnitte (tnom) alternierend umgeschalteten Speicher, bzw. Speicherbereiche (SP1/SP2) erfolgt. Da diese Speicherbereiche (SP1/SP2) des Audiospeichers wechselseitig beschrieben und gelesen werden, wird das aufgezeichnete, sowie wiedergegebene Audio Signal über diese einzelnen Zeitabschnitte (tnom) sowohl bei der Aufzeichnung, als auch bei der Wiedergabe nahtlos zusammengesetzt.
  • Dieses nach aufeinanderfolgenden Zeitabschnitten (tnom) zerlegte, bzw. wiedergegebene Audiosignal wird daher durch wechselseitiges Beschreiben und Lesen der Speicherbereiche (SP1/SP2) des Audiospeichers, nachfolgend auch als wechselseitiges Umschalten vom Aufnahmemodus in den Wiedergabemodus bezeichnet, in den Audiospeicher eingeschrieben und wieder ausgelesen, somit über einen Zeitabschnitt (tnom) die Speicheranordnung als Pufferspeicher arbeitet, wobei zu einem aktuell aufgezeichneten Zeitabschnitt (tnom), jeweils der im vorherigen Zeitabschnitt aufgezeichnete Zeitabschnitt aktuell wiedergegeben wird, mit einer dem Zeitabschnitt (tnom) entsprechenden Durchlaufverzögerung der Speicheranordnung.
  • Dabei wird das von der Konserve (hier vom Arbeitsspeicher RAM) gegenüber der Sollwiedergabegeschwindigkeit mit überhöhter Geschwindigkeit ausgelesene und während eines Zeitabschnittes tnom jeweils in den betreffenden Speicherbereich (aus SP1/SP2) des Audiospeichers eingeschriebene Audiosignal jeweils während des nachfolgenden Zeitabschnittes (tnom) zu dem eine alternierender Umschaltung von Aufnahmemodus und Wiedergabemodus für die Speicherbereiche (komplementär) jeweils erfolgt, wieder gegeben.
  • Wobei wegen der überhöhten Geschwindigkeit des Audiosignals bei der Übernahme von der Konserve (hier vom Arbeitsspeicher RAM) in den sich jeweils im Aufnahmemodus befindenden Speicherbereich des Audiospeichers (aus SP1/SP2), nach Beendigung eines Zeitabschnittes tnom jeweils der Einschreibvorgang in den betreffenden Bereich des Audiospeichers (aus SP1/SP2) um eine Pausenzeit P früher beendet ist, als die Wiedergabe (im jeweils anderen Speicherbereich aus SP2/SP1) tnom noch andauert, vgl. SP1(rec) + P, SP2(rec) + P, SP1(rec) + P, usw. Die Wiedergabe der Zeitabschnitte tnom erfolgt aufeinanderfolgend ohne Pause mit der (gegenüber der Aufnahme langsameren) Soll Wiedergabegeschwindigkeit, vgl. SP2(play), SP1(play), SP2(play) ... usw.
  • Dabei ist evident, daß das RAM auch einem FIFO Pufferspeicher eines mechanischen CD-ROM Laufwerkes entsprechen kann, dessen Wiedergabegeschwindigkeit dem nach dieser beschriebenen Steuerung geregelt ist, somit die Pausen P unterstützt durch einen solchen FIFO Pufferspeicher auch bei mechanischen Laufwerken realisiert werden können.
  • Um das Audio Signal zunächst vom einem Musterdatenträger auf die niedrigste Tonlage (Tonhöhe) zu bringen, wird es (bei der Speicherung auf den Datenträger, bzw. Aufbereitung der Wiedergabedatei, etc.) mit einer möglichst langsamen Wiedergabegeschwindigkeit zunächst komplett in sich geschlossen in einen Recorderspeicher eingelesen, aus dem es dann wieder gleichfalls komplett geschlossen, mit der Soll Wiedergabegeschwindigkeit ausgelesen wird, ohne daß sich die Tonlage (Tonhöhe) gegenüber der wesentlich langsameren Aufzeichnung dabei ändert.
  • Die weiteren Eintragungen in 3 betreffen die nachfolgend erläuterte Variante nach 2.
  • Soll anstelle einer Konserve, eine Echtzeitverarbeitung des Audiosignals erfolgen, d.h. wir haben keinen Einfluß auf die Geschwindigkeit des Ablaufes des im Audiosignal enthaltenen Frequenz Spektrums, dann wird entsprechend 2 vorgegangen.
  • In 2 entfällt der für die Speicherbereiche des Audiospeichers SP1/SP2 gemeinsam genutzte Konservenspeicher (RAM, oder FIFO, etc.), dafür bekommt jeder Speicherbereich SP1 und SP2 des Audiospeichers jeweils gesondert einen weiteren Speicherbereich SP3, SP4 als Eingangspufferspeicher vorgeschaltet. Es ist evident, daß sämtliche in 1 und 2 dargestellten Speicher (SP1, SP2, mit RAM, bzw. auch SP3, SP4) die Speicherplätze eines gemeinsamen RAMs betreffen können, welches z.B. einem Signalprozessor (DSP) zugehörig ist, mit dessen Programm die Speicherabläufe gemäß dem beschriebenen Verfahren realisiert sind. Die hier getroffene separate Darstellung dient nur dem besseren Verständnis des Verfahrensablaufes.
  • In 3 sind die Aufzeichnungszeiten SP3(rec) und SP4(rec), dito Wiedergabezeiten SP3(play), SP4(play) der beiden Eingangspufferspeicher, bzw. Speicherbereiche SP3 und SP4 mit eingezeichnet. Die Wiedergabezeiten SP3(play), SP4(play) entsprechen jeweils exakt den Aufzeichungszeiten der bereits besprochenen Audiospeicher Bereiche SP1 und SP2, da der Inhalt der Eingangspufferspeicher Bereiche SP3 und SP4 auf die Audiospeicher Bereiche SR1 und SP2 zum Erhalt einer höheren Tonlage mit einer entsprechend schnelleren Wiedergabegeschwindigkeit, die jedoch nicht die endgültige Wiedergabegeschwindigkeit des Audiosignals beeinflußt, übertragen wird. Die beiden Eingangspufferspeicher Bereiche SP3/SP4 sind in den Multipiexervorgang der alternierenden Umschaltung so eingebunden, daß der einem Audiospeicher Bereich SP1/SP2 jeweils vorgeschaltete Eingangspufferspeicher Bereich SP3/SP4 auf Wiedergabe geschaltet ist, währen der eigentliche Audiospeicher Bereich SP1/SP2 den ihm zugeordneten Zeitabschnitt tnom gerade aufzeichnet, dito der Eingangspufferspeicher Bereich SP3/SP4 jeweils auf Aufzeichnung geschaltet ist, wenn der eigentliche Audiospeicher Bereich SP1/SP2 den ihm zugeordneten Zeitabschnitt tnom gerade wieder gibt. Davon ausgehend, daß nur die Tonlage (Tonhöhe) und nicht die Wiedergabegeschwindigkeit des Audiosignals sich verändern soll, sind die Aufnahmezeiten (SP3rec, SP4rec) der Eingangspufferspeicher Bereiche SP3/SP4 an die Wiedergabezeiten (SP1play, SP2play) der Audiospeicher Bereiche SP1/SP2 übereinstimmend angepaßt.
  • Soll die Wiedergabezeit (SP1play, SP2play) der Audiospeicher Bereiche SP1/SP2 verändert werden (z.B. in Anpassung an eine externe Synchronisation der Geschwindigkeit des Echtzeit Audio Quellensignals an Audio-In in 2.), dann werden die Wiedergabezeiten (SP3rec, SP4rec) der Eingangspufferspeicher Bereiche SP3/SP4 in Übereinstimmung mit den Aufnahmezeiten (SP1rec, SP2rec) der Audiospeicher entsprechend mit verändert, um der gewünschten Transponierung (Änderung der Tonlage) zu entsprechen.
  • Das gleiche gilt bei einer Generierung des Audiosignals von einer Konserve nach 1, wobei dann die Wiedergabegeschwindigkeit des RAMs (als Konserve), unter Einhaltung einer entsprechenden Pause P, entsprechend mit verändert wird. Wobei die Aufnahmezeiten der entsprechenden Zeitabschnitte (SP1rec + P, SP2rec + P), der Synchronisation der Wiedergabezeitabschnitte (SPplay, SP2play der Audiospeicher Bereiche SP1/SP2) entsprechend mit verändert sind, um der gewünschten Transponierung (Änderung der Tonlage) zu entsprechen.
  • Die hier genannten Zeiten, bzw. Zeitabschnitte des Audiosignals entsprechen jeweils dem Verhältnis der betreffenden Aufnahme- und Wiedergabegeschwindigkeiten zueinander (SP2rec/SP2play, SP1rec/SP1play), wobei SP2play und SP1play jeweils den Wiedergabezeiten der komplementär zueinander alternierend geschalteten Wiedergabemodi der Audiospeicher Bereiche SP1/SP2 entsprechend der Zeitabschnitte tnom entsprechen, mit den jeweils zugehörigen zeitlichen Abschnitten des Audiosignals, wie es unmittelbar im vorherigen Zeitabschnitt tnom in den Aufnahmemodi der Audiospeicher Bereiche SP1/SP2 jeweils aufgenommen wurde (SP1rec, SP2rec).
  • Dabei können die tnom entsprechenden Zeitabschnitte jeweils proportional zum Verhältnis der betreffenden Aufnahme- und Wiedergabegeschwindigkeiten verändert werden, oder auch gegenüber den Wiedergabegeschwindigkeiten unverändert gelassen werden. Der Bezug der voran gehenden Erläuterung auf die absoluten Werte der Zeitabschnitte erleichtert allerdings das Verständnis. Maßgebend sind jedoch die beim bevorzugten Speichertransfer eingehaltenen Geschwindigkeiten des Audiosignals.
  • Anwendung an Musikinstrumenten:
  • Bei der Anwendung zum elektronischen Nachstimmen eines durch ein praktisch stimmloses akustisches Instrument erzeugten Audiosignals, z.B. eines von einer E-Gitarre erzeugten Schwingungssignals der Saiten, wird beispielsweise ein Signalprozessor (DSP) verwendet, dem das Audiosignal vom Tonabnehmer der Saiten zugeführt wird, um es in der gewünschten Weise in der Tonlage um einen geringen Anteil höher zu setzen, welcher der gewünschten Stimmung entspricht. Die Saiten sind dann um den Abgleichbereich tiefer gestimmt und werden in ihrem Ton dann entsprechend höher gesetzt. D.h. bei diesem Verfahren wird der wiedergegebene Ton ausschließlich elektronisch wieder gegeben, die direkte Tonerzeugung an der E-Gitarre selbst, soll akustisch möglichst gar nicht wahrgenommen werden.
  • Beim elektronischen Stimmen der Gitarre wird dies wie üblich Saite für Saite vorgenommen, wobei hier allerdings nur die Saite (die dem Gerät angegeben wurde oder vom Gerät detektiert wurde) angeschlagen werden muß, dabei wird die Abweichung von der Sollfrequenz gemessen, und der Meßwert dazu verwendet, um den Faktor, um den die Saitenschwingung bei ihrer elektronischen Verstärkung nach dem bevorzugten Verfahren Frequenz mäßig hoch zu setzen ist (ohne die Hüllkurve dabei zu verändern) festzustellen.
  • Wird das Verfahren zur Wiedergabe einer Konserve verwendet, dann ist die Kombination von einstellbarer Wiedergabegeschwindigkeit und einstellbarer Tonlage (zum Transponieren) vor allem auch von Vorteil, wenn die Konserve als Begleitmusik beim Spielen eines Instrumentes oder für Gesang, etc.) benutzt wird. Z.B. in Verbindung mit einer Synchronisation nach der DE 41 43 257 C2 . Dabei können in dem Audiosignal auch Bezugssignale mit kodiert sein, z.B. als Frequenzkodierung des Audiosignals auf einer weiteren Spur, oder als unmittelbare digitale Kodierung, deren Frequenzen bei der Dekodierung allerdings mit umgeschaltet werden müßten. Mit diesen Bezugssignalen erfolgt dann entsprechend der DE 41 43 257 C2 die Synchronisierung. Eine weitere sehr gute Kombination als Lernhilfe ist die Verwendung der 40 41 766 C2 , wobei die Steuerung der Anzeigemittel dann im Audiosignal als (weitere) Bezugssignale kodiert sein können.
  • Synchronisation:
  • Eine weitere sehr gute Anwendung ist, die Verwendung zur Speicherung komplexer Schlagzeug Rhythmen, oder anderer rhythmischer Instrumente. Diese können dann synchronisiert durch eine Klopfkissen Eingabe, vgl. die Patentschrift DE 41 43 257 C2 (vom gleichen Anmelder), generiert werden, bei der ein gegebenenfalls vorgenommenes Auslassens der Synchronsignaleingabe über ein Zeitraster festgestellt wird und der Synchronisationstakt entsprechend einem Ablaufprogramm automatisch intern weiter generiert wird (vgl. dazu auch die weitere Patentschrift 40 41 766 C2 vom gleichen Anmelder). Bei dieser Anwendung wird das live Signal (welches der oder die Musiker mit ihren Instrumenten erzeugt bzw. erzeugen) auf die jeweils gespielte Tonart analysiert, was sich durch Programme geringer Komplexität realisieren läßt, wobei die jeweils fest gestellte Tonart dann automatisch die richtige Transponierung des Schlagzeuges durch das bevorzugte Verfahren einstellt. Somit sich das Timing über das Klopfkissen synchronisieren läßt und die Tonlage automatisch dem Spiel angepaßt wird. Der Wechsel der Tonlage soll jedoch nur zu vorgesehenen Zeitpunkten, dem Spiel des wiedergegebenen Schlagzeug Rhythmus entsprechend erfolgen können, weshalb wir hier gleichfalls Bezugssignale vorsehen, die im Zeitraster des wiedergegebenen Audiosignals kodiert sind, und welche die Zeitpunkte markieren, zu denen die automatische Umschaltung auf eine jeweils erkannte Tonart erfolgen kann (wenn sie dem aktuellen Spiel entsprechend dekodiert wird), um dem Rhythmus der Perkussion in einer zulässigen Tonfolge zu folgen.
  • Die Bezugssignalkodierung wird dann einfach durch eine eigene Audiosignalspur (Kanal) vorgenommen, damit die Bezugssignale bei Änderung der Wiedergabezeiten sich automatisch proportional zeitlich verschieben damit das Timing bei geändertem Tempo aufrecht erhalten bleibt.
  • Anwendung Chorerzeugung:
    • und beliebig rauf und runter transponieren.
  • Es ist evident, daß wir mit dem hier vorgestellten Verfahren die Transponierung eines Quellentones, der z.B. einem Gesang entspricht, auch simultan mehrfach mit unterschiedlichen Frequenzen vornehmen können. Wird z.B. ein "c" als Oberstimme gesungen, dann kann durch Transponierung das darunter liegende "a" und "f" noch abgeleitet werden. So erhalten wir den F-Dur Akkord in seiner Grundstellung. Ebenso könnten wird nach dem "c" ein "d" singen und daraus gleichfalls das darunter liegende "a" und "f" durch Transponierung aus dem Gesang ableiten.
  • Um das Verfahren so anwenden zu können, daß wir nicht nur beliebig rauf transponieren können, sondern in Echtzeit auch runter transponieren können, werden vor der Durchführung der zu 2 und 3 erläuterten Verfahrensprozedur aus dem Audiosignal noch jeweils ganze Grundschwingungen (entsprechend den Nulldurchgängen des Audiosignals) heraus genommen, z.B. jede zweite um eine Oktave tiefer zu kommen, oder für jeweils vier Schwingungen jeweils drei heraus genommen, um zwei Oktaven tiefer zu kommen, etc. Wobei für jede herausgenommene Grundschwingung, die verbleibende zeitlich so weit gespreizt wird, daß sich zwar die Tonlage nach unten verändert, die Geschwindigkeit des Audiosignals jedoch nicht (d.h. das Timing erhalten bleibt). Um die Hüllkurve weiterhin exakt unverändert zu erhalten, wird gegebenenfalls entsprechend interpoliert.
  • Aus einem derart nach unten transponierten Audiosignal kann dann unter Benutzung des erläuterten Verfahrens durch angepaßtes stufenloses hoch setzen der Auslesegeschwindigkeit des Eingangspufferspeichers SP3/SP4 bei der Übernahme der Audiodaten vom Eingangspufferspeicher SP3/SP4 auf den Audiospeicher SP1/SP2, das gewünschte Transformationsverhältnis eingestellt (adressiert) werden.
  • Bei dieser Anwendung bezieht sich das Transformationsverhältnis jeweils auf die direkt gesungene Oberstimme, bei diesem Beispiel sind das "c" und "d", zu denen die in der Tonlage darunter liegenden Chortöne "a" und "f" durch Transponierung automatisch erzeugt werden. Welche Chortöne jeweils automatisch durch Transponieren erzeugt werden sollen, können wir z.B. durch ein zum Gesang gespieltes Keyboard (z.B. über ein MIDI Ausgangssignal) oder auch durch eine direkte Frequenz-/Midi Umsetzung bestimmen, wobei die in Tonadressen (zu Bezeichnung eines Tones) eines MIDI Signals umgesetzten Frequenzen ihren Ursprung z.B. bei schwächeren Sängern haben, die durch die bessere Sänger, welche z.B. die Oberstimme des Chores singen, unterstützt werden können. Auf diese Weise kann das Klangvolumen eines einzelnen Sängers oder eines Chores massiv gestützt werden.
  • Wird die Chorerzeugung aus der live gesungenen Stimme (d.h. inklusive Text!) durch ein Tasteninstrument gesteuert, dann kann der Keyboard Spieler auch noch zusätzlich zu seinem Melodiespiel einen bestimmten Tastenbereich für diese Chorerzeugung belegen, wobei über ein MIDI-Interface die Keyboard Daten in das Gerät für die Erzeugung der Chorstimmen zugeführt sind, an dem auch das Mikrofon des Sängers angeschlossen ist.
  • Neben dem live Spiel eines Keyboards, oder eines anderen Instrumentes zur Auswahl automatisch hinzugefügter Chornoten für den Gesang, kann die Adressierung der Chortöne über die Folge von durch Filtermittel erkannter Töne der Oberstimme vorgenommen werden, wobei ja nicht die einzelnen Töne, sondern nur das Transformationsverhältnis als "Notenablaufprogramm" fortgeschaltet wird, d.h. solange sich das Transformationsverhältnis der erzeugten Chorstimmen nicht ändert, ist der Vorgang unproblematisch. Erst wenn das Transformationsverhältnis sich ändert, könnte ein Synchronisationsfehler entstehen. Somit in der Regel bei Gesang der zeitliche Spielraum zur automatischen Fortschaltung (gemäß einem Musical Train System) ausreichend wäre, ansonsten es auch möglich ist, mittels Tastendruck am Mikrofon ein Zeitfenster zu starten, in welchem der betreffende zu erkennende Oberton, zu dem ein neues Transformationsverhältnis eingestellt werden soll, erkannt werden soll. Weiters ist es natürlich auch möglich diese Zeitfenster von einem vernetzten Instrument auszugeben, usw. Wobei die Musiker auch über einen Cursor an einem Bildschirm ein Notenbild zum Zwecke des genauen Timings abspielen können, usw.
  • Klonen von Stimmen und Instrumententönen:
  • Eine weitere Anwendungsmöglichkeit betrifft das Klonen von Instrumententönen und von menschlichen Stimmen.
  • Dabei ist es ausreichend für einen einzigen sauberen Ton (fT_sample), der z.B. gesungen wird, oder mit einer Geige gespielt wird, ein Muster von z.B. 1000 Varianten unterschiedlicher Interpretationsmöglichkeiten (IP) zu samplen, um eine Funktionstabelle Oberwellen = f(IP) zu erstellen. Dabei ist IP eine von einem Interpretationsdekoder gelieferte Adresse, welche in Echtzeit jeweils anzeigt, welches zu dem sauberen Bezugston unter Berücksichtigung seiner Hüllkurve jeweils zugehörige Oberwellenspektrum auszuwählen ist, um dem Musterton zu entsprechen.
  • In besonderer Weiterbildung ist hier vorgesehen, den akustischen Originalton des Instrumentes (oder Sängers, etc.) bei der Klangverformung mit einzubeziehen, wobei jene Oberwellen, die in der Originalstimme unerwünscht sind, durch Aufaddieren gegenphasiger Oberwellen kompensiert werden, dito die erwünschten Oberwellen verstärkt oder wenn in der Originalstimme nicht vorhanden, zusätzlich eingespeist werden. Dieses Verfahren, der Mitverwendung des Originalton des Instrumentes (oder Sängers, etc.) bei der ansonsten synthetischen Klangerzeugung hat den großen Vorteil, daß die Übergänge, die mangels Leistungsfähigkeit des Interpretationsdekoders nicht ausreichend stufenlos synthetisch erzeugt werden, nur die Oberwellen betrifft, welche einen Klang oder einer Stimme die Farbe geben, und nicht den für eine Artikulation (beim Sprechen) maßgebenden grundsätzlichen Verlauf, dito die Hüllkurve des Audiosignals im wesentlichen durch den Sänger selbst bestimmt wird.
  • Das erfindungsgemäße Verfahren für die Transponierung kann dabei in zweierlei Hinsicht benutzt werden, einmal die von Sängern oder Musikern (Geigern), etc. in der Tonhöhe nicht ganz sauber wiedergegebenen Töne auf saubere Töne nachzuziehen, dito ein dazu passende Oberwellenspektrum hinzu zu addieren, und weiters auch umgekehrt, um zu Frequenz mäßig weniger sauber wiedergegebenen Originaltönen, das gespeicherte Oberwellenspektrum sauber wieder gegebener Töne Frequenz mäßig passend zum Originalton nachzuziehen. Im ersten Fall, würde durch die unterschiedliche Frequenzlage der akustisch wiedergegebenen Töne und der daraus synthetisch erzeugten, bzw. abgeleiteten Töne, eine Schwebung auftreten, wenn wir beides (akustische und synthetische Töne) gemeinsam wiedergeben, weshalb, bei dem Beispiel der E-Gitarre, das Instrument selbst ohne Klangformer möglichst leise sein sollte. Im zweiten Fall, kann das synthetisch erzeugte (gespeicherte) und an die genaue Frequenzlage (Tonlage) der akustischen Original Interpretation angepaßte Signal, als gleichphasig und gegenphasig hinzuzufügende Oberwellen, direkt an der Erzeugung (Monitor Lautsprecher für den Interpreten) des Originaltones akustisch mit eingespeist werden, z.B. durch einen in den Resonanzboden (Resonanzkörper) einer Geige oder einer Gitarre oder in ein Klavier, etc., eingebauten Lautsprecher. Dabei kann gegebenenfalls die Grundwelle auch als Mit- oder Gegenkopplung (Gegenphasig) mit eingespeist werden (z.B. um die Attack Phase zu beeinflußen), usw.
  • Gerade bei dem zuletzt genannten Verfahren, bei dem die Frequenzlage eines gesamplten Audiosignals (z.B. auch nur dessen Oberwellen, etc.) unter Benutzung des erfindungsgemäßen Verfahrens an die vorgegebene Frequenzlage eines weiteren, einem Originalton entsprechenden Audiosignal (hier z.B. das als Echtzeiterreignis entstehende Audiosignal eines Gesangs oder einer Violine) angepaßt wird, ist es bei dieser Anpassung erforderlich, die Hüllkurvencharakteristik des gesamplten Audiosignals nicht zu verändern und zwar deshalb, weil der Hüllkurvencharakteristik (d.h. dem Verlauf der Hüllkurve entsprechend), bei der Echtzeit Wiedergabe des originalen Audiosignals, der Großteil des der Klangfarbe entsprechenden Oberwellenspektrums während der Erzeugung des Tones entspricht.
  • Die Hüllkurve des Audiosignals entspricht der Amplitutenänderung der summierten Frequenzen. Durch diese Amplitudenänderung werden je nach Intensität (vgl. Intonation eines Klavieres) und je nach Geschwindigkeit der Änderung, unterschiedliche Oberwellen erzeugt. So ist z.B. nur bei Markenklavieren (das sind heute Steinway und Bösendorfer) eine von der Anschlagsintensität besonders stark abhängige Klangfarbenänderung (gemäß der Intonation) eines Tones möglich, der weiterhin auch noch durch die Geschwindigkeit, mit der die Töne gespielt werden, eingefärbt werden kann, (weshalb Weltklasse Pianisten bei wichtigen Konzerten auch gerne ihre Klaviere mitnehmen würden). Beim Streichen einer Geige sind diese Effekte noch gravierender.
  • Das durch das aktuelle Spiel eines akustischen Instrumentes variierte Oberwellenspektrum kann zweierlei Hauptursachen zugeordnet werden:
    • – der Hüllkurvenänderung, wie sie in etwa einer Verstärkungsänderung eines Tones, d.h. der Lautstärkevariation entspricht, kann als Amplitudenmodulation aufgefaßt werden und ist abhängig von der Geschwindigkeit einer Lautstärkeänderung.
    • – Nebenfrequenzen, wie sie durch Änderung der Tonhöhe auftreten, entsprechen hingegen einer Frequenzmodulation. Bei Streichinstrumenten, bei denen eine Saitenverkürzung während der Tondauer die Schwingungsbäuche der Frequenzen längs der Saite verschiebt, tritt auch noch eine ausgeprägte Phasenmodulation auf. Auch diese Nebenfrequenzen, welche den Klang eines Instrumentes während der Tonhöhenvariation charakterisieren, sind abhängig von der Geschwindigkeit einer Tonänderung.
    • ⌦ Vergleichbar mit dem Amplitudenverlauf, kann aus dem Frequenzverlauf über die Zeitachse gleichfalls eine Art "Hüllkurve" gebildet werden. Alle Maßnahmen die nachfolgend für die Hüllkurve der AM (Verstärkungsschwankung) im Zusammenhang mit dem bereits angesprochenen Interpretationsdekoder angegeben werden, können für die "Hüllkurve" des Frequenzverlaufs (einer FM entsprechend), bei der die Amplitudenwerte (über einen Zeitmaßstab) den jeweiligen Frequenzen der Grundwelle (des Grundtones) entsprechen, gleichfalls realisiert werden.
  • D.h. vereinfacht gesehen, die Bandbreite des Oberwellenspektrums ist von der spielweise des Instrumentes stark abgängig und bei der Violine das Berufsgeheimnis eines jeden Konzertgeigers. Das gleiche gilt auch für Blasinstrumente, wie Klarinette, usw.
  • Mit dem bereits angesprochenen Interpretationsdekoder soll dieses Berufsgeheimnis nun dekodiert werden.
  • Die Frequenzmessung (FFT) des Interpretationsdekoders dekodiert jeweils aus dem Originalton Audiosignal den vom instrument erzeugten aktuellen Grundton zur Feststellung seiner Abweichung vom gesamplten Ton (fT_sample), der für die Korrektur des Originaltons verwendet werden soll. Dabei kann gegebenenfalls der gesamplte Ton (fT_sample) in eine Tonskala (geraster) zerlegt werden, dito erfolgt dann die Zerlegung des Meßergebnisses der Frequenzmessung des Interpretationsdekoders für die Zuordnung, usw.
  • Die Feststellung der Grundwelle eines gespielten Tones in Betrag und Frequenz, gegebenenfalls auch der Phase, bzw. gegebenenfalls auch von gleichzeitig gespielten mehreren Tönen, kann z.B. durch eine FFT erfolgen, oder vergleichbaren Techniken. Dabei erhalten wir das Meßergebnis als Adressen, die jeweils die aktuelle Tonhöhe des akustischen Instrumentes anzeigen, welche in Relation zur Tonhöhe des in kompletten Interpretationsumfang gespeicherten (gesamplten) Mustertones fT_sample bewertet ist, um das Transformationsverhältnis bei der Übertragung der Daten aus dem Eingangspufferspeicher SP3/SP4 in den Audiospeicher (SP1, SP2) so einzustellen, daß der generierte Mustertones fT_sample der Grundwelle des gespielten Tones ständig entspricht. Dabei können (als Option) die Daten für die Frequenzänderung (in Bezug auf Hub, und Änderungsgeschwindigkeit) für die Adressierung der dem Mustertones fT_sample zugehörigen Klangmuster mit bewertet werden.
  • Ändert der akustisch erzeugte Originalton des Audiosignals in der Frequenz seinen Grundton, dann wird er durch das ständige Nachstimmen mit dem bevorzugten Verfahren, auf ein dem Gundton des Mustertones fT_sample entsprechendes Frequenz Spektrum gehalten. Wobei die Hüllkurve dem Oberwellenanteil des akustisch erzeugten Originaltones entsprechend dabei jedoch nicht verändert wird.
  • Mit dem Interpretationsdekoder wird weiterhin vor allem die Hüllkurve detektiert und in Bezug auf Amplitude und Verlauf der Amplitude bewertet. Zu dem Musterton fT_sample sind eine Vielzahl von Oberwellen Korrekturen gespeichert, wie sie zu den unterschiedlichsten Hüllkurvenmustern des Musterton fT_sample auftreten können, wobei dies auch für unterschiedliche Amplitudenwerte der Hüllkurven erfolgt. Das Verfahren arbeitet dabei nach einer Näherungsmethode, welches bei Nichtauffinden eines Hüllkurvenmusters, dann das Oberwellenspektrum mit der nächst besseren (d.h. ähnlichen) Hüllkurvencharakteristik adressiert.
  • Wie wichtig es ist, bei der Anpassung des Frequenzspektrums die Hüllkurve nicht zu verändern (was die vorliegende Erfindung hier leistet), kann am Beispiel eines Klaviers ersehen werden, indem ein besonders tiefer Ton und ein besonders hoher Ton bis zum Ausklingen jeweils einmalig angeschlagen werden. Beide Töne klingen in etwa nach der gleichen Hüllkurve mit gleicher Dauer aus.
  • In einer Variante wird bei diesem Verfahren (für diese Weiterbildungsanwendung) das Transponierverfahren gleich mehrmals angewendet:
    • a) Einmal wird das Echtzeit Audiosignal der zu verbessernden Tonquelle unter Beibehaltung der Hüllkurve (und gemäß der gemessenen Frequenzabweichung der Grundwelle) so transponiert, daß es in seiner Tonlage in Bezug auf den Grundton dem Mustertones fT_sample entspricht. Es ist evident, daß auch mehrere Mustertöne, z.B. für jede Oktave eine, vorgesehen sein können, usw., die dann allerdings ein entsprechend großes Speichervolumen für die Abspeicherung der Hüllkurvenmuster der Oberwellen benötigen würden. Im Prinzip könnte auch für jeden Ton der Tonleiter das Hüllkurvenmusters eines solcher Mustertones fT_sample gespeichert sein. Durch die Transponierung/Stimmung erfolgt dann die Anpassung an beliebig viele Zwischentöne (z.B. bei der Violine, oder vor allem auch Gesang, etc.).
  • Das vorliegende Verfahren erfüllt hier den Zweck, daß der in Echtzeit vorhandene Ton eines Audiosignals (z.B. eines Mikrofones) mit noch brauchbarer Durchgangsverzögerung exakt an einen Musterton fT_sample in der Frequenzlage unter Beibehaltung der Hüllkurvencharakteristik angepaßt werden kann. Somit das Adressierverfahren zur Adressierung des dem aktuellen Audiosignal jeweils zugehörigen Oberwellenspektrums vom Interpretationsdekoder abgearbeitet werden kann (das jedoch von der Art des Instrumentes abhängig ist).
    • b) Nach erfolgter Adressierung des dem aktuellen Audiosignal jeweils zugehörigen Oberwellenspektrums erfolgt die Transponierung des adressierten Oberwellenspektrums in Anpassung an das Frequenzspektrum des Echtzeit Audiosignals der zu verbessernden Tonquelle.
  • Adressierverfahren des Speichermusters zum Erhalt der jeweils richtigen Oberwellen:
  • Es wird unterschieden, zwischen einem Instrument mit einer ausgeprägten Attack Phase und dem Ausklingen des angeschlagenen Tones, und einem Instrument, bei dem der anhaltende Ton in seiner Intensität variiert werden kann (Saiteninstrumente, Blasinstrumente, auch Orgel, etc.).
  • Im ersten Fall ist es einfach: Es wird die Intensität des angeschlagenen Tones gemessen (z.B. über einen Tonabnehmer oder eine Grundwellenfilterung/FFT, etc.), und über die Intensität die richtige Hüllkurvenform zum Erhalt des Oberwellenspektrums zum Aufaddieren (für erwünschte Oberwellen), dito Kompensieren (unerwünschter Oberwellen) adressiert.
  • Im zweiten Fall wird Anstieg und Verlauf der Hüllkurve des andauernden Tones in folgender Weise im Detail mit bewertet:
    Es ist in der Musterdatei des Mustertones fT_sample durch Lernen an einem wertvollen Musterinstrument, eine nach Rasterwerten abgestufte Intensitätsskala (a0, a1 ... an, Lautstärke) der Hüllkurve vorgesehen, bei der zu jedem Skalenwert (Amplitudenwert a0, a1 an der Hüllkurve), jeweils als weitere Unterteilung, eine nach Anstiegswerten abgestufte weitere Tabelle vorgesehen ist. Beispiel: a0, a1, a2 ... an mit Anstiegswerten:
    Figure 00210001
  • Diese zu jedem Rasterwert der Amplitude a0 ... an weiterhin gespeicherte Wertereihe der Anstiege d0, d1 ... dn enthält für jeden einzelnen Anstiegswert wiederum eine Adressengruppe, welche der Anstiegsänderung, d.h. der zweiten Ableitung und deren Frequenzspektren (f1, f2, f3) zur Erfassung der diesen Spektren entsprechenden Welligkeit (der Oberwellen) entsprechen.
  • Dabei führt der Interpretationsdekoder folgende Messungen und Bewertungen am Echtzeit Audiosignal (z.B. eines Mikrofones, etc.) durch:
    • a) wie bereits angegeben, erfolgt die ständige Feststellung der Frequenz Grundwelle, um das Transformationsverhältnis bei der Übertragung der Daten aus dem Eingangspufferspeicher SP3/SP4 in den Audiospeicher (SP1, SP2) zur gewünschten Anpassung des Frequenzspektrums einstellen zu können;
    • b) es erfolgt die ständige Abtastung der Hüllkurve zur Messung ihrer Amplitude a0 ... an. Mit dem unter der Adresse von a0 ... an erhaltenen Werten wird der unter c) gemessene zugehörige Anstiegswert d0 ... dn = f(a0 ... an) adressiert;
    • c) dabei erfolgt die ständige Abtastung der Hüllkurve zu Messung des Anstieges d0 ... dn. Mit dem unter der Adresse von d0 ... dn = f(a0 ... an) erhaltenen Werten, vergleiche obige Tabelle, wird ein unter dieser Bedingung gesampltes Oberwellenspektrum zur Korrektur des Echtzeit Audiosignals adressiert, oder
    • d) es wird der Anstieg der Hüllkurvenwerte d0 ... dn = f(a0 ... an) zur Bildung der zweiten Ableitung nochmals differenziert und mit den erhaltenen Werten f1 ... fn, vgl. obige Tabelle, wird ein weiteres (unter dieser Bedingung) gesampltes Oberwellenspektrum zur Korrektur des Echtzeit Audiosignals adressiert.
  • Es ist evident, daß gegebenenfalls das Verfahren durch Weglassen der Verfeinerungsschritte, z.B. des Schrittes d, gegebenenfalls vereinfacht werden kann. f1 ... fn steht hier für Funktionswerte die durch dieses Verfahren ermittelt werden, gegebenenfalls noch unter Quantisierung gemessener Frequenzspektren. Bzw. kann auch noch eine Zeitfenster Messung vorgesehen sein, die einzelne Verfeinerungsschritte ermöglicht, oder abschaltet.
  • Das gleiche Verfahren gilt auch für die Bildung des Amplitudenverlaufes einer Hüllkurve, nicht nach den Amplituden der Schwingung des Audiosignals, sondern des Verlaufs der Frequenzänderung (FM) eines Tones nach der Zeit. Es erfolgt dann das gleiche Bewertungsprinzip, wie für eine Amplitudenhüllkurve (AM).
  • Im Prinzip können für den Interpretationsdekoder noch beliebig weitere Messungen definiert werden, die dann immer der Übereinstimmung mit den Bedingungen des gesamplten Signals für die Abspeicherung eines Mustertones fT_sample entsprechen (vgl. später zu 5).
  • Um die Muster mit einem sauberen, idealen Ton (fT_sample) zu erhalten, werden unter Verwendung des bevorzugten Interpretationsdekoders entsprechende Melodien, die mit dem wertvollen Musterinstrument gespielt werden, mit dem bevorzugten Verfahren ständig auf den idealen Ton (fT_sample) transponiert (entsprechend dem Grundton) und mit einem Computerprogramm analysiert, wobei der Interpretationsdekoder dann zu einer Abspeicherung die Erkennungsadresse für den Verlauf einer Hüllkurve liefert.
  • Grundgedanke für dieses Verfahren ist hier, erstmals die zur Korrektur des Frequenzspektrums eines Audiosignals verwendeten (gesamplten) Oberwellen ohne Veränderung der Hüllkurve zu transponieren. Und in einer Weiterbildungsvariante die dem Spielverhalten eines akustischen Instrumentes entsprechenden Oberwellen über die Hüllkurve zuzuordnen und zu adressieren, wobei die gegebenenfalls gesonderten Einflüsse des Spielverhaltens durch eine sich ergebende Oberwellenbeeinflußung durch den Interpretationsdekoder festgestellt und zur Adressierung des gesamplten Musters verwendet werden. Die diesen Einflüssen entsprechenden Oberwellenanteile werden dann als Korrektursignal dem akustisch erzeugten Originalton aufsummiert.
  • Phasenausgleich:
  • Um gegebenenfalls (Option) noch die unerwünschten Oberwellen des Audio Ursprungssignals mit genauer Phasenlage des Kompensationssignals zum erzeugten akustischen Signal kompensieren zu können, wird ein Laufzeitausgleich verwendet, der die Durchlaufzeit des Audio Transponierers für die bevorzugte Umsetzung des Frequenzspektrums anpaßt. Werden für beide Kanäle, dem des Echtzeit Audio Signals und dem des gesamplten Signals, jeweils ein Audio Transponierer verwendet, dann muß gegebenenfalls nur die Differenzzeit ausgeglichen werden.
  • 4a zeigt ein Blockschaltbild zur Realisierung des besprochenen Verfahrens in Bezug auf die Verbesserung der Klangqualität eines Audiosignals.
  • Das in Echtzeit entstehende Audio Signal gelangt über ein Mikrofon (Micro) in die DSP Schaltung (bestehend aus den dargestellten Komponenten) und wird ständig mit einem Frequenzdetektor FFT auf die Grundfrequenz analysiert. Der Ausgang (Ad-Transpo) des Frequenzdetektors FFT zeigt die Abweichung von der Frequenz des im Musterspeicher abgespeicherten Mustertones (fT_sample) an und steuert das Transformationsverhältnis, bzw. die Frequenzhochsetzung der ersten Transponieranordnung (1), die z.B. entsprechend 2 ausgeführt ist. Das Frequenzspektrum des Audiosignals wird dabei ohne Veränderung der Hüllkurve in eine Tonlage gesetzt, wie sie der Grundfrequenz des im Musterspeicher abgespeicherten Mustertones (fT_sample) entspricht. Das in diese Tonlage versetzte Audiosignal wird weiterhin vom Interpretationsdekoder in der bereits erläuterten Weise analysiert, der die Adressen zur Auswahl des dem vom Mikrofon aufgenommenen Audiosignal entsprechenden Hüllkurvenmusters zuordnet und den Musterspeicher SP adressiert (AD-Hüllk.). Vom Ausgang der Transponieranordnung (1) wird dann noch das Frequenz mäßig angepaßte Audiosignal phasengerecht hinzu addiert (SUM). Der Laufzeitausgleich phi sorgt dafür, daß das aus dem Speicher ausgelesene Mustersignal exakt in Phase mit dem Frequenz mäßig angepaßten Audiosignal des Mikrofones ist, somit durch gegenphasiges Summieren (SUM) auch unerwünschte Oberwellen ausgeglichen werden können. Je nach Lautstärke des am akustischen Instrument erzeugten Originaltones wird die Verstärkung so gewählt, daß die unerwünschten Oberwellen gegebenenfalls noch gegenphasig an den Lautsprecher 5 gelangen, wobei das vom Lautsprecher abgestrahlte Signal die Luftschwingungen im Resonanzboden 8 (6) des Instrumentes weiterhin so beeinflußt, daß sich auch unmittelbar am Instrument zumindestens teilweise die unerwünschten Oberwellen kompensieren. Wie immer können anstelle eines Mikrofones auch entsprechende Tonabnehmer zur Abtastung der Saitenschwingung verwendet werden. Das summierte, elektronisch in seiner Klangqualität verbesserte Audiosignal wird dann wieder in seine Originaltonlage zurückgebracht (entspricht hier Transponieranordnung 1), bevor es über die Schallwandler (5 an Instrument und Power Anlage) abgestrahlt wird. Das Transformationsverhältnis AD-Transpo kann dabei in einem Sondernmodus nach reinen Grundtönen nachgezogen werden, z.B. um eine schlechte Singstimme auch in der genauen Tonlage zu verbessern, usw.
  • 5 betrifft die Aufzeichnung der Klangmuster für die Oberwellenkorrektur. Über eine Audiokonserve wird ein Audiosignal wiedergegeben, welches entsprechende Klangmuster eines Meisterinstrumentes enthält. Das Audiosignal wird über eine ständige Frequenzanalyse FFT des Grundtones analysiert und durch die bevorzugte Transponieranordnung (1) auf die Tonlage (Tonhöhe) des definierten Mustertones (fT_sample) gebracht, wobei gegebenenfalls auch mehrere Töne (in Bezug auf die Tonhöhe) als Mustertöne definiert sein können und das Audiosignal dann in die Tonlage des jeweils Frequenz mäßig am nächsten liegenden Tones gebracht wird (in Übereinstimmung mit der Wiedergabevorrichtung nach 4a).
  • Das in der normalisierten Tonlage sich befindende Audiosignal wird dann wieder dem Interpretationsdekoder zugeführt, der die dem Hüllkurvenmuster entsprechenden Adressen liefert und den Musterspeicher SP adressiert (AD-Hüllk.).
  • 7 zeigt eine Variante zu 4a. In 4a erfolgt durch das bevorzugte Transponierverfahren eine Anpassung der Tonlage (Frequenzlage) der Audio Quelle (vgl. Mikro) an die Tonlage (Frequenzlage) des in kompletten Interpretationsumfang gespeicherten (gesamplten) Mustertones fT_sample. In der Variante nach 7 hingegen erfolgt die Anpassung der Tonlage (Frequenzlage) des in kompletten Interpretationsumfang gespeicherten (gesamplten) Mustertones fT_sample an die Tonlage (Frequenzlage) der Audio Quelle (vgl. Mikro); weshalb hier, im Unterschied zu 4a nur eine Transponieranordnung (1) benötigt wird. Allerdings erfolgt die Summierung (SUM) der Oberwellen hier breitbandig (über den gesamten Tonumfang), bei der Variante nach 7 hingegen nur für den Frequenzbereich des gespeicherten (gesamplten) Mustertones fT_sample, was bei einigen High End Anwendungen Vorteile bringt. In 7 ist weiterhin ein Laufzeitausgleich LZ vorgesehen, um das Audio Signal der Audio Quelle (vgl. Mikro) so zu verzögern, wie es der Verzögerung des transponierten Mustertones fT_sample (einschließlich der Adressierung AD-Hüllk. nach dem Hüllkurvenmuster) der Audio Quelle) entspricht.
  • In 4a ist weiterhin noch die Abtastung des Nulldurchganges des Audiosignals (mit Komparator 10) dargestellt, um ein Synchronsignal Sync. zu erzeugen, mit welchem der genaue Zeitpunkt für die Bildung der aufeinanderfolgende Zeitabschnitte tnom des Audiosignals synchronisiert werden kann., bzw. die bereits erläuterte Aufzeichnung-Wiedergabe Umschaltung der Speicherbereiche (vgl. SP1/SP2, dito SP3/SP4) synchronisiert wird, falls die Anwendung dies erfordert. Die in 3 dargestellte Pause P erleichtert diese Synchronisation und bildet einen Synchronisationsspielraum, um diese Umschaltung mit dem Nulldurchgang genau zusammenfallen zu lassen. Diese Synchronisation kann genauso zu den Beispielen nach 5 und 7 vorgenommen werden.
  • In 4a und 5 ist bei der Summierung SUM noch ein Eingang exp. dargestellt. Dieser Eingang ermöglicht es, zunächst das in seinem Klang zu verbessernde und in seinen störenden Oberwellen zu kompensierende Instrument auf einen normalisierten Klang zu bringen, der dem eines üblichen Durchschnittsinstrumentes entspricht, jedoch genau reproduzierbar ist. Soll das Instrument ausgewechselt werden, dann erfolgt unter Benutzung des erläuterten Verfahrens zunächst die Anpassung des individuellen Klanges eines Durchschnittsinstrumentes auf einen reproduzierbaren (genau definierten Klang) eines Durchschnittsinstrumentes unter Verwendung entsprechender Sample Muster (und eines Lernverfahrens nach 5). Das dabei erhaltene Korrektur Oberwellensignal wird dann in den Zusatzeingang der Summierung SUM eingespeist, wobei das durch Lernen nach 5 vorgenommene Verfahren zur Klangverbesserung nach einem sehr hochwertigen instrument, sich dann auf ein derartig in seinem Klang manipuliertes Durchschnittsinstrument mit reproduzierbarem Klang bezieht.
  • Wird als reproduzierbarer Klang das Oberwellenspektrum des Durchschnittsinstrumentes so definiert, daß die Oberwellen praktisch komplett kompensiert sind, dann kann das Verfahren nach 5 zum Erhalt der Klangschattierungen eines gespeicherten (gesamplten) Mustertones fT_sample, die sich dann auf so einen reproduzierbarem Klang beziehen, sehr einfach durchgeführt werden, ansonsten, müßten dann die Oberwellen des akustischen Instrumentes dabei berücksichtigt werden.
  • Den auf einen Nullanteil von Oberwellen reduzierten Klang können wir einfach durch eine FFT erhalten, mit der wir die in 5 verwendete Audiokonserve filtern, um den Oberwellenanteil des akustischen Instrumentes zu erhalten, den wir als Zusatzdatei abgespeichert vorrätig halten und (gleichfalls adressiert mit dem vom Interpretationsdekoder gelieferten Adressensignal AD-Hüllk.) an den exp. Eingang des Summierers SUM (4a und 7) in der Phase so anlegen, daß sich der auf einen Nullanteil von Oberwellen reduzierten Klang ergibt, der somit im wesentlichen nur mehr durch das wertvolle Instrument (über die im Speicher SP bereit gehaltene Datei) bestimmt wird.
  • Wird die erhaltene Datei dann in die Wiedergabe 4a oder 7 geladen, dann ist das vom akustischen Instrument abgegebene Oberwellenspektrum über den Eingang exp. bereits vorkompensiert, so daß die eigentliche Oberwellendatei des wertvollen Instrumentes (gespeichert in SP) unveränderlich gelassen werden kann. Dabei ist für die Vorkompensation (unter Verwendung einer entsprechenden Transponierung) zum Erhalt eines reproduzierbaren Durchschnittsinstrumentes genauso nur ein in komplettem Interpretationsumfang gespeicherter (gesamplter) Mustertones fT_sample (nur für einen Ton erforderlich), wie für die eigentliche Oberwellenerzeugung zur Nachbildung des Klanges des wertvollen Instrumentes mit seinem hochwertigen Klang.
  • Es ist evident, daß auch nach dem Stand der Technik übliche Lernverfahren zum Erhalt der entsprechenden Klangdateien zum Einsatz kommen könnten, jedoch nutzt das hier vorgeschlagene Verfahren die Vorteile des Echtzeit Transponierverfahrens aus. Es ist evident, daß die erläuterte Methode auch für Gesangsstimmen Verbesserung verwendet werden kann.
  • In 4a, 5 und 7 enthält der Interpretationsdekoder noch jeweils die Umsetzung des jeweils aktuell gemessenen Frequenzverlaufs (der Grundwelle, z.B. über FFT erkannt) über die Zeit als Hüllkurve (wie bereits angegeben). Handelt es sich nicht um ein Soloinstrument, dann können gegebenenfalls auch mehrere Töne (als Überlagerung) jeweils ihren Grundwellen entsprechend dekodiert und in das Verfahren mit einbezogen werden. Es ist jedoch für eine Klangverbesserung, z.B. bei einer Violine, meist ausreichend, den Oberton zu erkennen und klanglich zu verbessern, da ohnehin der Originalton mit aufsummiert wird.
  • 6 zeigt die Unterbringung eines Lautsprechers 5 im Resonanzkörper 8 einer Geige oder einer Gitarre. Die Halterung 6 des Lautsprechers 5 ist dann am schmalen Seitenrand 7 des Gehäuses montiert.
  • 8 betrifft ein von Hand leicht zu haltendes kleines Keyboard 21 mit einem Haltegriff 22 auf der Unterseite, einem innenseitig des Griffes 24 mit seiner Abtastskala a in Längsrichtung der Klaviatur mit der Daumenkuppe zu berührendes Eingabepad 23 (für nur eine Koordinatenrichtung) um bestimmte Effekte (Tremolo, etc.) zusätzlich zu den transponierten Tönen zu erzeugen. Damit dieses Eingabepad 23 passend an jede Hand angepaßt werden kann, ist der Abstand des Eingabepads zum Griff 22 hin durch Raststellung (z.B. durch einen Kunststoffschiebebolzen 24 mit Nippelrastung, etc.) einstellbar.
  • Das Keyboard weist eine Funkschnittstelle auf, über die es mit dem Gerät, welches die Oberstimme des durch Transponierung erzeugten Chores durch den Gesang erhält, entsprechend dem übermittelten Tastenspiel kommuniziert (z.B über MIDI). Dabei können unterschiedliche, am Keyboard 21 mittels Taster (25) einzustellende Modi benutzt werden. Z.B. ein Modus, bei dem alle mit den Tasten (zum Gesang) gespielten Töne, welche über den durch eine Frequenzkodierung des gesungenen Grundtones liegen, automatisch nicht transponiert werden (Begrenzung der über den Oberton liegenden Töne), oder auch, daß nur einzelne Tasten gedrückt werden müssen um dazu passende Chöre zu erzeugen. Wobei als Normalbetrieb ansonsten die gedrückten Tasten den Tönen entsprechen, die durch Transponierung des vom Mikrofon aufgenommenen Tones (als Oberstimme) zusätzlich noch unterhalb dieses Tones als Chor erzeugt werden sollen, oder in einem weiteren Modus auch noch als Oberstimme erzeugt werden sollen, usw.
  • Ausführungsvarianten der Vorrichtungen für die Durchführung des Verfahrens:
    • wie immer, kann ein solches Verfahren auch ausschließlich durch eine Software eines Computers, etc. implementiert werden.
  • Bei der Software mäßigen Implementierung ist die Anzahl der mit unterschiedlichen Tonlagen simultan erzeugbaren Transponierungen nur durch die Rechenzeit des verwendeten Prozessors begrenzt, weshalb ein DSP, z.B. noch mit State Machine Sequenzer Unterstützung in der Peripherie, gegenüber aufwendigen Betriebssystemen hier Vorteile bringt.
  • Übersicht über die Abbildungen:
  • 1 und 2 betreffen eine schematische Darstellung einer bevorzugten Speicherorganisation, wobei 2 im Besonderen für die Transponierung eines Audiosignals in Echtzeit vorgesehen ist,
  • 3 zeigt das Zeitschema für die in 1 und 2 veranschaulichte Speicherorganisation.
  • 4a zeigt ein Blockschaltbild für eine Benutzung des Verfahrens zum Klonen (zur Klangverbesserung) eines akustischen Instrumentes oder der menschlichen Stimme (für die Wiedergabe) unter Verwendung von gesamplten Klangmustern mit einem beliebigen akustischen instrument (oder einer Gesangsstimme, etc.);
  • 5 betrifft ein Blockschaltbild einer nach 4a ausgebildeten Anordnung, jedoch betreffend der Funktionen, wie sie bei der Aufnahme der gesamplten Klangmuster eines Musterinstrumentes verwendet sind.
  • 6 zeigt ein Beispiel für die Montage des Instrumentenlautsprechers 5 im Klangkörper 8 einer Geige.
  • 7 zeigt eine Variante aus 4a, wobei Vor- und Nachteile der beiden Varianten zu 7 (oben) erläutert sind.
  • Nachfolgend wird noch eine vorteilhafte Option beschrieben, die das Aufsummieren der zu den unerwünschten Oberwellen des Audiosignals gegenphasigen Spannungen betrifft.
  • Neben der Möglichkeit, über eine FFT (als Bestandteil des Interpretationsdekoders 4) den jeweiligen Oberwellenanteil des ursprünglichen Audiosignals (7), bzw. des auf einen Musterton fT_sample nach gestimmten (transponierten) Audiosignals ((4a), 4b) in Betrag und Phase festzustellen und den Speicherinformationen des Speichers SP (3) entsprechend für die synthetische Erzeugung von Kompensations Oberwellen, die zu den unerwünschten Oberwellen des Audiosignals gegenphasigen sind, zu verwenden, ist bei der nachfolgend besprochenen Weiterbildungsvariante vorgesehen, den genauen Signalverlauf der für die Kompensation benötigten Oberwellen unmittelbar aus dem Audiosignal zu rekonstruieren, indem zur jeweils festgestellten Grundwelle, die zugehörigen Oberwellen durch entsprechende Filter parallel, bzw. simultan aus dem Audiosignal gefiltert sind. Ein Beispiel hiefür wird nachfolgend zu 9 und 10 besprochen.
  • Dabei wird die jeweils aktuelle Grundwelle fg z.B. durch eine schnelle FFT festgestellt (oder auch durch ein anderes dem Stand der Technik entsprechendes Verfahren), so wie dies zur Feststellung des bereits erläuterten Transformationsverhältnisses zur Herstellung der Übereinstimmung der Frequenz der jeweils aktuellen Grundwellen (fg) von Audiosignal und Musterton fT_sample, bereits besprochen wurde.
  • Wird dieses Verfahren zur Ausführungsvariante nach (4a), 4b angewendet, bei der die Oberwellenmanipulation nach der Transponierung (bzw. Nachstimmung) des ursprünglichen Audiosignals (welches beispielsweise von einem Mikrophon erzeugt ist) vorgenommen wird (vgl. Ausgang von TRANSPON 1, (4a), 4b), dann kann die Oberwellenfilterung in Anpassung an die Frequenzlage (bzw. Tonlage) des Mustertones fT_sample in festen Frequenzlagen (in Bezug auf die Frequenz der Grundwelle) vorgenommen werden, bzw. wenn optional mehrere grob gerasterte Tonlagen des Mustertones fT_sample vorgesehen sind, dann entsprechend diesen gerasterten Frequenzlagen.
  • Wird im Unterschied zur Ausführungsvariante nach (4a), 4b, dieses Verfahren jedoch in Verbindung mit Ausführungsvariante nach 7 angewendet, bei dem zur Herstellung der Übereinstimmung der Frequenz der jeweils aktuellen Grundwellen (fg) von Audiosignal und Musterton fT_sample, nicht das ursprüngliche Audio Signal, sondern das gespeicherte Oberwellenmuster des Mustertones fT_sample transponiert (bzw. nachgestimmt) wird, dann wären die zur Filterung der Oberwellen (aus dem ursprünglichen Audio Signal) verwendeten Filter, der aktuellen Frequenzlage des Grundtones jeweils nachzustimmen. Bei Verwendung analoger Filter erfolgt dies durch die Verstellung betreffender analoger Bauteile, bei einem digitalen Filter beträfe dies das Nachstellen der Abtastfrequenz des gefilterten Signals (um eine andere Filterfrequenz zu erhalten).
  • Somit steht der Erfordernis zweier Transponiervorrichtungen (Stimmvorrichtungen) oder äquivalenter Verfahren entsprechend der Variante nach (4a), 4b, (TRANSPON 1, TRANSPON 2), die dafür aber die Möglichkeit der Verwendung fest abgestimmter Filter ermöglichen, die Erfordernis durchstimmbarer Filter für eine Variante nach 7 gegenüber, die dafür nur eine Transponiervorrichtung (bzw. Stimmvorrichtung) für die Verfahrensdurchführung, benötigt.
  • In beiden Fällen (vgl. (4a), 4b und 7) ist die Oberwellenfilterung somit Bestandteil des in den Abbildungen ((4a), 4b, 7) dargestellten Interpretationsdekoders.
  • Bei der nachfolgend beschriebenen Option geht es darum, daß bei einer ständig sich ändernden Amplitude des ursprünglichen Audiosignals, die Phase der gefilterten Oberwellen um einen der Güte der Filter entsprechenden Jitter, bezogen auf das Eingangssignal des Filters (Audiosignal), von Periode zu Periode der Oberwellen um einen Mittelwert schwankt. Auch der auf mehrere Perioden bezogene Mittelwert kann sich dabei geringfügig verändern. Dies ist auch der Fall, wenn die Grundwelle fg des die Oberwellenfilterung speisenden Signals unter Verwendung des erfindungsgemäßen Transponier- bzw. Stimmverfahrens auf eine konstante Frequenz (welche der Grundwelle des Mustertones fT_sample entspricht) gehalten wird, so wie dies in der Variante nach (4a), 4b der Fall ist.
  • Zu diesem Zweck soll das bevorzugte Transponierverfahren, wie es zu (4a), 4b bereits erläutert wurde, noch etwas näher diskutiert werden. Jede der Hüllkurve des ursprünglichen Audiosignals entsprechende Amplitudenänderung (wie sie in einem Musiksignal oder bei der menschlichen Stimme auftritt), läßt sich auf eine Amplitudenmodulation (AM) zurückführen, bestehend aus einer Grundwelle und der AM entsprechenden Oberwellen, die gegebenenfalls zu jenen Oberwellen, welche der Klangfarbe eines Tones entsprechen noch hinzukommen, bzw. diese Oberwellen noch weiter modulieren. Da das zur jeweils aktuell festgestellten Grundwelle (fg) des ursprünglichen Audiosignals ständig aktualisierte Transformationsverhältnis, welches die Transponierung, bzw. Nachstimmung des Audiosignals auf Übereinstimmung zur Grundwelle (fg) des Mustertones fT_sample steuert, sich nur nach der Grundwelle (fg) des Audiosignals richtet, bleiben die Oberwellenanteile, die bei dieser Transponierung, bzw. Stimmung mit verändert werden, im transponierten, bzw. nachgestimmten Audiosignal erhalten. Dieses ständig nachgestimmte Audiosignal wird im nachfolgenden unter Bezugnahme auf die Figuren (4a), 4b, 9 und 10 als normalisiertes (normalized) Audio Signal bezeichnet.
  • Die Oberwellen des normalisierten Audio Signals werden durch eine Filterschaltung, die analog, oder durch digitale Filter realisiert werden kann, gefiltert. In (4a), 4b erfolgt diese Filterung nach dem Ausgang der Transponierung TRANSPON 1 des ursprünglichen Audio Signals (am normalisierten Audio Signal), weshalb feststehende Filter, die die Oberwellen (geradzahlige sowie ungeradzahlige) jeweils filtern, hier im Prinizip verwendet werden könnten.
  • Dabei erweist es sich als besonders zweckmäßig, auch bei dieser Variante die Oberwellenfilter zumindest geringfügig nachsteuerbar zu machen, da sich auch nach der Transponierung, bzw. Nachstimmung des Audiosignals auf eine definierte Grundwelle (fg), die Frequenzen der Oberwellen am Ausgang der Transponierung TRANSPON 1 noch geringfügig ändern können, abweichend von ihrer idealen, auf die Grundwelle (fg) bezogenen Sollfrequenz. Diese (optionale) Nachsteuerung kann z.B. nach dem Meßwert der am Ausgang der Transponierung, bzw. Nachstimmung (TRANSPON 1) jeweils festgestellten Frequenz der Grundwelle, durch eine zusätzliche (weitere) FFT (vgl.99 in 10), oder durch ein äquivalentes Verfahren erfolgen.
  • Somit am Ausgang der Oberwellenfilter, die gefilterten Oberwellen über die ständig nachgestimmte Transponierung (TRANSPON 1) einer definierten Frequenz der Grundwelle (fg) des Mustertones fT_sample zugehörig sind und für die Kompensation von im normalisierten Audio Signal enthaltenen unerwünschten Oberwellen verwendet werden können. Nach dieser Kompensation, dito nach dem Hinzufügen definierter Oberwellen unter Benutzung der im Speicher SP (3) des Mustertones gespeicherten Oberwellen, erfolgt die gegensinnige Transponierung (TRANSPON 2) des korrigierten Audiosignals, wie dies bereits erläutert wurde. Neben der Möglichkeit das normalisierte (normalized) Audio Signal wieder auf die Originaltonlage (entsprechend dem ursprünglichen Audiosignal) zu bringen, besteht natürlich auch die Möglichkeit das Transformationsverhältnis bei der gegensinnigen Transponierung (TRANSPON 2) so zu verändern, daß eine neue Tonlage entsteht, z.B. um eine Bratsche in die Tonlage einer Violine zu bringen, oder um eine menschlichen Stimme zusätzlich zur Veränderung der Klangfarbe noch in der Stimmlage zu verändern, usw.
  • Soll der unerwünschte Oberwellenanteil des ursprünglichen Audiosignals durch ein gegenphasiges Signal, bzw. durch Subtraktion eines entsprechenden Signals möglichst zu 100% kompensiert werden oder auf einen definierten Betrag reduziert werden, dann muß das für die Kompensation verwendete normalisierte (normalized) Audio Signal zum ursprünglichen Audiosignal eine entsprechend definierte Phasenlage (vgl. phi in (4a), 4b und LZ in 7) aufweisen.
  • Die für die Kompensation verwendete Signalinformation wird dabei jeweils über die Adressierung des Interpretationsdekoders 4 aus dem Speichers SP (3), der das Klangspektrum (bzw. Korrekturspektrum, vgl. 5) des Mustertones fT_sample) gespeichert vorrätig hält, abgerufen. Bei dieser Variante, die nachfolgend zu 10 noch näher beschrieben wird, wird aus dem Speicher SP (3) des Mustertones fT_sample, die durch den Interpretationsdekoder 4 adressierte (AD-Hüllk.) Klangfarbenkorrektur folgendermaßen abgerufen.
  • Die dabei adressierte, bzw. abgerufene Information betrifft:
    • a) das der Adressierung durch den Interpretationsdekoder 4 entsprechende Oberwellenspektrum, welches aus dem Originalsignal durch die beschriebene Filterung unmittelbar erzeugt wird und der zu verändernden Klangfarbe entsprechend aus dem Originalsignal durch Kompensation entfernt werden soll. Für das Beispiel nach (4a), 4b ist das Originalsignal das auf die Grundwelle normalisierte (normalized) Audio Signal.
    • ⇒ Dabei ist es bei dieser Weiterbildungsvariante ausreichend, die auf die Grundwelle fg des normalisierten (normalized) Audio Signals bezogenen Oberwellen, die jeweils zu kompensieren sind, als Oberwellennummer (erste, zweite, dritte, ... n-te Oberwelle, usw.) aus dem Speicher SP (3) des Mustertones fT_sample auszulesen (vgl. dazu später zu 10. ... digitale Bussignale select ADD zur voneinander unabhängigen Adressierung der gegenphasigen Oberwellen f1 ... fn, gegebenenfalls auch einschließlich fg). Dabei kann zusätzlich bei der Filterung der Oberwellen (vgl. 99 in 10) noch eine geringfügige Nachstimmung der Durchlaßfrequenz über eine Stellgröße, die den tatsächlichen aktuellen Frequenzwert Wert der Grundwelle anzeigt, vorgenommen werden (Option);
    • b) das der Adressierung durch den Interpretationsdekoder 4 entsprechende Oberwellenspektrum, welches in dem Originalsignal, bzw. in dem auf die Grundwelle des Mustertones normalisierten Audio Signal, nicht enthalten ist, und der zu verändernden Klangfarbe entsprechend zugesetzt werden soll. Dabei liefert der Speicher SP (3) des Mustertones fT_sample die Amplitudenwerte und Frequenzwerte dieser Oberwellen, damit sie synthetisch erzeugt und durch eine DSP Schaltung, oder auch analog, dem normalisierten (normalized) Audio Signal aufaddiert werden können.
  • Würde der Phasenausgleich (vgl. phi in (4a), 4b und LZ in 7) zur Herstellung der definierten Phasenlage der zu kompensierenden Oberwellen in Bezug auf das Audiosignal (hier in Bezug auf das normalisierte Audio Signal) auf einen konstanten Wert gehalten, dann kann bei entsprechend starker Amplitudenänderung (oder auch Frequenzänderung) der Oberwellen des ursprünglichen Audiosignals, die Kompensation der unerwünschten Oberwellen nicht mehr so perfekt vorgenommen werden, weshalb dieser Phasenausgleich in der Weiterbildungsversion nachgesteuert wird. Und zwar so, daß der Jitter dadurch ausgeglichen wird. Dieser Phasen Jitter ist stark abhängig von der verwendeten Filterchrakteristik und soll bei der Kompensation der unerwünschten Oberwellen des normalisierten Audio Signals berücksichtigt werden und wird zu diesem Zweck für sämtliche Filterausgänge der Oberwellenfilter ständig gemessen.
  • Um den Jitter zu messen, kann entweder eine Zeitmessung der Phasenlage der gefilterten Oberwellen (2fg, 3fg, 4fg, 5fg, ... usw.) vorgenommen werden, die sich auf die Nulldurchgänge des ursprünglichen Audiosignals, bzw. bei der Variante nach (4a), 4b auf die Nulldurchgänge des normalisierten (normalized) Audio Signals (am Ausgang von TRANSPON 1) bezieht, oder es wird der Jitter aus der Messung der Phasenlage der gefilterten Oberwellen (2fg, 3fg, 4fg, 5fg, ... usw.) in Bezug zum Nulldurchgang der Grundwelle fg vorgenommen, wobei dann weiterhin noch der Jitter der Grundwelle fg in Bezug zum ursprünglichen Audiosignal, bzw. hier in Bezug zum normalisierten (normalized) Audio Signal mit gemessen wird, um den Phasenjitter der Oberwellen gegenüber dem zur Summierung verwendeten Audio Signal bestimmen zu können.
  • Veranschaulicht wird dieser Phasenjitter in 9: Das mit Audio IN bezeichnete Signal entspricht für die Variante nach (4a), 4b dem normalisierten (normalized) Audio Signal am Ausgang von TRANSPON 1.
  • Die eingetragenen Zeitspannen t_realize(0) und t_realize(1) entsprechen der minimalen Durchlaufzeit, bis die entsprechende Grundwelle fg in ihrem Frequenzwert erkannt ist (gegebenenfalls auch in Betrag und Phase, je nach Auswertprinzip), bzw. dito, die zugehörigen Oberwellen gefiltert sind (vgl. 2fg, ... usw.). Wobei gegebenenfalls für die unterschiedlichen Oberwellen (2fg, 3fg, 4fg, 5fg, ... fn) auch jeweils unterschiedliche minimale Durchlaufzeiten definiert werden können. Bezogen auf diese minimalen Durchlaufzeiten, welche die Filtereigenschaften zur Filterung der gefilterten Oberwellen in Bezug zum Audiosignal betrifft, ist in 9 der Jitter thpi0 der Grundwelle fg eingezeichnet, dito der Jitter tphi1 der Oberwelle 2fg eingezeichnet, wobei der Jitter aller bei der Klangkorrektur berücksichtigten Oberwellen ständig gemessen wird. Dieser Jitter betrifft sowohl die Phasenlage der Oberwellen, als auch deren von Nulldurchgang zu Nulldurchgang auftretenden Schwankungen ihrer Periodendauer (T1a, T1b, T1c), wobei bei Filterung der Grundwelle fg, auch die Grundwelle von diesen Schwankungen (T0a, T0b) betroffen ist. Die in 9 angegebenen Zusätze a, b, c, ... beziehen sich jeweils auf die Perioden.
  • Die Meßwerte (tphi1, tphi2, usw., ... tphin) des Phasenjitters werden dazu benutzt, um die an den Filterausgängen (vgl. dazu Filterblock 99 in 10) anstehenden Signalspannungen (die gegebenenfalls auch nur als Digitalkode in einem Prozessor abgegriffen werden, etc.), in ihre Phase sowie in ihrem zeitlichen Verlauf über die Periodendauer so zu korrigieren, daß sie in ihrer ursprünglichen zeitlichen Lage jenen Oberwellen entsprechen, wie sie innerhalb des Audiosignals auftreten, aus dem sie zum Zwecke ihrer Kompensation (innerhalb des Audiosignals) heraus gefiltert sind, hier (für Variante nach (4a), 4b) betrifft dies das normalisierte Audio Signal.
  • Dabei wird so vorgegangen, daß sowohl das komplette Signal, aus dem die Oberwellen f1 ... fn heraus gefiltert sind, hier ist dies das normalisierte Audio Signal, als auch die Oberwellen (f1 ... fn) jeweils entsprechende digitale Verzögerungen durchlaufen. Der Schiebetakt zum Durchlaufen der digitalen Verzögerung (D1 ... Dn am Ausgang des Filterblockes 99 in 10) ist so hoch gewählt, daß durch Veränderung des Taktes der zeitliche Verlauf der Oberwellen f1 ... fn über ihre Periodendauer mit ausreichender zeitlicher Auflösung variiert werden kann, dito deren Phasenlage zum normalisierten Audio Signal. Dabei erfolgt diese zeitliche Korrektur unabhängig voneinander für jede zu berücksichtigende Oberwelle.
  • Neben der Möglichkeit für diese digitale Verzögerung (D1 ... Dn) ein FIFO Register (first in – first out) zu verwenden, kann auch das zur Durchführung des Transponierverfahrens bereits zu 1 und 2 besprochene Prinzip angewendet werden. Wobei (wieder) zwei komplementär betriebene Speicher (vgl. SP1/SP2 in 1, dito [SP1&SP3]/[SP2&SP4] in 2), hier für die Realisierung der digitalen Laufzeitverzögerung der Oberwellen, vorgesehen sind und jeweils nach Zeitabschnitten entsprechend einen Zeitrastertakt alternierend in ihrer Schreib- Lesefunktion abwechselnd verwendet, bzw. umgeschaltet, werden, wie dies bereits im Prinizip erläutert wurde. D.h. es wird abwechselnd in einen ersten Speicher eingeschrieben, während aus dem zweiten Speicher der zuvor eingeschriebene Zeitabschnitt wieder ausgelesen wird (vgl. zu 1 und 2), bei ständiger sich abwechselnder Vertauschung von Schreib- und Lesefunktion der Speicher entsprechend dem für die alternierende Umschaltung verwendeten Zeitraster. Im Prinzip könnte dieses Zeitraster für die alternierende Umschaltung neben der Verwendungsmöglichkeit eines stabilen Zeitrasters, auch mit den Nulldurchgängen der Oberwellen synchronisiert werden, wobei die dadurch entstehenden Zeitschwankungen dann bei der Phasenkorrektur zu berücksichtigen sind.
  • Dabei entspricht der Einschreibtakt des jeweils für den Schreibvorgang aktuellen Speichers (entsprechend der alternierenden Umschaltung), der Auflösung mit weicher die Phase, dito die Periodendauer der an den Filterausgängen abgegriffenen Oberwellen zeitlich verändert werden kann. Durch relative Veränderung des Auslesetaktes des jeweils für den Lesevorgang aktuellen Speichers (entsprechend der alternierenden Umschaltung), wird dann der zeitliche Verlauf der Oberwellen über ihre Periodendauer, dito die Phase, nach den jeweils aktuell gemessenen Jitter Werten korrigiert. Dadurch wird erreicht, daß der Jitterfehler der Phase, der entsprechend der AM auftritt, beim Aufaddieren der gegenphasigen Filtersignale (oder gegebenenfalls beim Subtrahieren der gleichphasiger Signale) weitgehend berücksichtigt werden kann.
  • Für die Nachregelung des zeitlichen Verlaufs (über die jeweilige Periodendauer) der direkt aus dem Audio Signal (hier aus dem normalisierten Audio Signal) gefilterten Oberwellen, kommt es nur auf das Verhältnis von Einschreibtakt und Auslesetakt der in der genannten Weise jeweils alternierend umgeschalteten Speicher an. Dabei kann der Einschreibtakt entsprechend mit verändert werden, wenn dies für die Regelung von Vorteil ist. Diese Möglichkeit ist auch für die bereits zu 1 und 2 erläuterten Vorgänge zum Zwecke der Transponierung vorhanden.
  • Wie immer können die alternierend umgeschalteten Speicher jeweils innerhalb eines gemeinsamen Arbeitsspeichers realisiert werden.
  • In 9 betreffen die Zusätze a, b, c die Zuordnung zu den Perioden der dargestellten Oberwelle, bzw. der mitdargestellten Grundwelle fg.
  • 10 zeigt ein Schema zur Veranschaulichung der besprochenen Weiterbildung, das als Ergänzung zum Schema nach (4a), 4b anzusehen ist. Es ist evident, daß die hier vorgeschlagene Lösung je nach Bedarf, mit Hardware, als auch mit Software Komponenten (DSP, Sequenzer, etc.,) realisiert werden kann.
  • Dem Summierer SUM (entspricht SUM in (4a), 4b) ist über die digitale Verzögerung DELAY, entsprechend einem Schieberegister zur Verzögerung eines analogen Signals, das über die Transponierung TRANSPON 1 an die Tonlage des Mustertones fT_sample angepaßte, normalisierte Audio Signal zugeführt. Dieses DELAY entspricht in (4a), 4b der Laufzeitverzögerung phi.
  • Der Summierer SUM addiert zweierlei Gruppen von Oberwellen zu dem Normalisierten Audio Signal. Einmal die als gegenphasig aufzuaddierenden Oberwellen f1, f2 ... fn, deren Signalquelle (99) die über eine gesteuerte Verzögerung D1 ... Dn geführten Filterausgänge der unmittelbar aus dem normalisierten Audio Signal gefilterten Oberwellen entspricht, die hier zur Bewirkung einer Subtraktion (innerhalb des normalisierten Audio Signals) dem Summierer (SUM) gegenphasig zugeführt sind, und weiters werden noch die synthetisch erzeugten Oberwellen (f1S, f2S ... fnS) aufaddiert, deren Signalerzeugung durch einen Synthesizer (100) nach den aus dem Speicher SP (3) des Mustertones fT_sample ausgelesenen Parametern, entsprechend der Adressierung dieses Speichers SP (3) durch den Interpretationsdekoder (4) erfolgt.
  • Die innerhalb des normalisierten Audio Signals gegenphasig aufzuaddierenden Oberwellen f1, f2 ... fn werden über elektronische Schalter (Selector), die über einen vom Speicher SP (3) ausgelesenen Adreßbus angesteuert sind, ausgewählt, wobei entsprechend dieser Adressierung beliebig viele, der Adresse AD-Hüllk. des Interpretationsdekoders entsprechende, aus dem normalisierten Audio Signals gefilterte Oberwellen gleichzeitig an den Summierer (SUM) gegenphasig angeschaltet werden können, bzw. vom normalisierten Audio Signal (quasi gleichzeitig) subtrahiert werden können.
  • Wie aus 9 ersehen werden kann, ist die Verzögerung des normalisierten Audio Signals (Delayed normalisiertes Audio Signal) entsprechend einem größeren Zeitintervall, hier mit t_GATE bezeichnet, vorgenommen, damit die gefilterten Oberwellen (f1 ... fn) eine bestimmte Mindestlänge der vorhin erläuterten analogen Schieberegisterfunktion durchlaufen, um eine möglichst lineare Synchronisation der Periodendauer der Oberwellen zu erhalten. Dabei erfolgt die Synchronisation der Phase der Oberwellen jeweils in Bezug zu den Nulldurchgängen des normalisierten Audio Signals unter Berücksichtigung der jeweils gemessenen Jitter Zeitwerte.
  • Bei dieser Zeitmessung (des Jitters) wird zunächst von einer den einzelnen Oberwellen entsprechenden Laufzeit des Filters, die in einem Test zunächst ausgemessen werden kann, ausgegangen. Diese Werte werden für die einzelnen Oberwellen in einer Tabelle abgelegt. Da der Frequenzbereich sich kaum ändert, bleiben diese Werte konstant und können für die Jitter Zeitmessung als Offsetwerte benutzt werden. Zu jeder über die Summierung SUM zu kompensierenden Oberwelle wird der zugehörige Wert ausgelesen, um die Verzögerung der Oberwellen richtig zu synchronisieren.
  • Weiters wird noch der Jitter der Oberwellen, das sind die zeitlichen Änderungen, bezogen auf t_GATE, d.h. (über die Offsetwerte der Tabelle) in weiteren Bezug zu den Nulldurchgängen des normalisierten Audio Signals gemessen und die dazu erhaltenen Meßergebnisse verwendet, um die Laufzeit der Oberwellen über die digitalen Verzögerungsleitungen (D1, D2, ... Dn) so zu synchronisieren, damit ihre zeitliche Lage in Periodendauer und Phase exakt den im normalisierten Audio Signal enthaltenen entspricht. Dabei ist es sinnvoll durch empirische Messungen eine weitere Tabelle zu erstellen, die abhängig vom Ausmaß des in Bezug zum normalisierten Audio Signal gemessenen Jitters, eine Richtgröße zur Bestimmung der Stellgrößen für die Veränderung der Ausgabetaktfrequenzen der digitalen Verzögerungsleitungen (D1, D2, ... Dn) liefert.
  • Neben der bereits angegebenen Möglichkeit der Verwendung von in ihrer Lese- und Schreibfunktion nach einem Zeitraster alternierend umgeschalteten Speichern, bzw. Speicherplätzen, können auch FIFO Speicherorganisationen als digitale Verzögerungsleitungen (D1, D2, ... Dn) verwendet werden. Dabei ist es sinnvoll die Summe der relativen Änderungen von Einschreibtakt und Auslesetakt auf einen dem Mittelwert des Jitters entsprechenden Wert zu halten, wobei dann Einschreibtakt und Auslesetakt entsprechend variiert sind und die Durchlaufzeit durch das Verhältnis von Einschreibtakt und Auslesetakt gesteuert wird.
  • Wie aus 10 weiterhin ersichtlich, ist in die Summierung SUM auch die Option der gefilterten Grundwelle (fg) mit einbezogen. Mit dieser Funktion können bestimmte Effekte der Unterdrückung (über 99 und Selector) oder Verstärkung (über Synthesizer 100) bewirkt werden, wie sie z.B. beim Klonen von Stimmen zur Anwendung gelangen können.
  • Wie bereits angegeben, kommt der Feststellung einer Frequenz mäßigen Hüllkurven Charakterisitk, bei der anstelle der Amplitudenwerte, die Frequenzwerte den Verlauf der ausgewerteten Funktion bilden, eine besondere Bedeutung zu, insbesondere für das Klonen fremder (menschlicher) Stimmen. Wobei genauso noch die Amplituden mäßige Hüllkurve zusätzlich noch mit einbezogen werden kann.
  • Sämtliche im normalisierten Audio Signal enthaltenen Oberwellen werden durch die Oberwellenfilter (Filterblock 99) gefiltert, jedoch nur jene Oberwellen jeweils vom normalisierten Audio Signal subtrahiert, die durch die Speicherinformation Speicher SP (3) des Mustertones fT_sample als unerwünschte Oberwellen jeweils ausgewählt sind. Diese Auswahl erfolgt durch die aus dem Speicher jeweils ausgelesene Adresse des Selectors, mit dem die Oberwellen f1 ... fg mittels FET Schalter jeweils selektiv dem Summierer zugeschaltet werden. Weiters werden aus dem Speicher SP (3) des Mustertones fT_sample noch die Parameter zur synthetischen Erzeugung der hinzu zu addierenden Oberwellen ausgelesen (erzeugt über Syntesizer 100). Wie bereits erläutert wurde, wird der Speicher SP (3) durch den Interpreter Dekoder (4) adressiert (über Adresse AD-Hüllk.), wobei dies jeweils in Übereinstimmung zum Erhalt einer Lernfunktion entsprechend 5 erfolgt.
  • Dabei wird die für das Compilieren (Erstellen des Lernmusters nach 5) verwendete Mustervielfalt des Interpretationsdekoders (4), wie das Erkennen von Frequenz Reihen, Zeitdauer der Frequenzen, Anstieg der Änderungen, absolute Werte, usw. wie bereits für die Bewertung einer Hüllkurve (von Frequenzwerten) angegeben, für Klonen (Abrufen der Muster) und Lernen (Erstellen der Muster) übereinstimmend verwendet. Dabei können zusätzlich auch Amplitudenhüllkurven Paramter als Unteradresse verwendet werden (vgl. vorangehende Erläuterung), wenn Stimmen geklont werden sollen, oder auch umgekehrt als übergeordnete Gruppenadresse verwendet werden (wenn Musikinstrumente geklont werden sollen). Das Erstellen des Erkennungsmusters des Interpretationsdekoders (4), wird durch ein komplexes Computerprogramm vorgenommen, wobei, da der Interpretationsdekoders (4) sich nur auf eine die Frequenzlage (bzw. Tonlage) des Mustertones fT_sample angepaßte Grundwellen Frequenz beziehen muß (oder gegebenenfalls auf wenige mehrere Freuqenzen eines sehr grob abgestuften Rasters), das Erkennungsmuster des Interpretationsdekoders (4) sehr komplex sein kann, und mit schnellen Prozessoren die Dekodierung zur Umsetzung in eine entsprechende Adressierung (AD-Hüllk.) des Musterspeichers SP (3) ausreichend schnell vorgenommen werden kann.
  • Option: Im Prinzip könnte die erläuterte zeitliche Anpassung der Oberwellen an das die Oberwellen betreffende Audiosignal auch in umgekehrter Richtung erfolgen, d.h. durch Synchronisation des zeitlichen Verlaufs des Audiosignals gegenüber den Oberwellen (falls der Jitter der Oberwellen in gleicher Relation verzögert auftritt), bzw. können gegebenenfalls die Oberwellen (bei gleichlaufendem Jitter) auch durch eine gemeinsame getaktete Verzögerung synchronisiert werden.
  • Eine weitere erweiterte Anwendungsmöglichkeit des Echtzeit Transponier- bzw. Stimmverfahrens betrifft das in Echtzeit erfolgende automatische Hinziehen einer Gesangsstimme auf ideale Frequenzwerte, welche jeweils sauberen Tönen einer Tonleiter entsprechen. Zu diesem Zweck wird entsprechend den sauberen Tönen der Tonleiter ein Frequenzraster definiert, mit einem bestimmten Wertebereich (Fensterbereich) für jeden Ton, innerhalb dem das Transformationsverhältnis jeweils automatisch auf saubere Töne nachgezogen wird, wobei das Nachziehen unter Berücksichtigung der Richtung, in welche die Frequenzveränderung jeweils erfolgt, vorgenommen ist, und bei Erreichen des Fensterbereiches eines betreffenden Tones jeweils einsetzt.
  • Dabei wird, wie bereits zur Funktion des Interpretationsdekoders (4) für die Klangveredelung von Instrumenten oder für menschliche Stimmen (akustisches Klonen) bereits erläutert, die Änderung der Hüllkurve, hier die Frequenz mäßige Änderung, bzw. erste Ableitung dieser Funktion bewertet und über den Anstiegswert der Frequenzänderung eine Tabelle adressiert, deren ausgelesene Werte das Transformationsverhältnis der für die Rückwandlung des Audiosignals (in die ursprüngliche oder eine weitere Tonlage) verwendeten Transponierung (TRANSPON 2, (4a), 4b) mitbestimmen, als zusätzliche Funktion, welche die Steuerung des Transformationsverhältnises durch das jeweils festgestellte Verhältnis der Grundtonfrequenz fg des ursprüngliche Audiosignals zur definierten Grundtonfrequenz des normalisierten (normalized) Audio Signals (vlg. Ausgang der ersten Transponierung TRANSPON 1, ((4a), 4b) additiv oder multiplikativ mit beeinflußt. Wobei diese Beeinflußung gegen Null geht, bzw. Null wird, wenn ein jeweils idealer (sauberer) Ton der Tonleiter erreicht wird (einrastet). Dabei ist es zweckmäßig, für das Ausrasten, wenn sich die Frequenz des Grundtones im ursprünglichen Audiosignal von der Frequenz eines nach der Tonleiter sauberen Tones zunehmend entfernt, entsprechend dem jeweils gesteuerten Transformationsverhältnis eine geringfügige Hysterese vorzusehen (gegebenenfalls noch gesteuert vom Anstieg der festgestellten Frequenzänderung der Grundwelle fg), um das Halten der Grundwelle fg zu erleichtern. Die Variationsmöglichkeit der Oberwellen ist von dieser Rastwirkung nur insofern betroffen, daß die Oberwellen mit der Stimmung der Grundwelle fg automatisch nachgezogen werden.
  • Durch diese Maßnahme wird daher das Bemühen eines Sängers, einen sauberer Ton zu treffen unterstützt, und trotzdem ist es möglich, beliebige unsaubere Übergänge zu singen. Es ist evident, daß für die Tabelle als Eingangsadresse auch nur die Nähe zum Ton (Distanz) verwendet werden kann, ohne die erste Ableitung mit zu verknüpfen, usw.
  • Dabei können nach diesem Verfahren die unterschiedlichsten Modi unter Zu- oder Abschaltung diverser Interpretationsmuster des verwendeten Interpretationsdekoders definiert werden, z.B. auch die Miteinbeziehung einer Krümmung (zweiten Ableitung) der Näherungsfunktion, usw.
  • Dito kann neben der Frequenz abhängigen Bewertung auch eine Amplituden abhängige Bewertung der Hüllkurve erfolgen, bzw. können beliebige Bewertungsmuster definiert werden, wie bereits zu dem Interpretationsdekoder (4) für die Adressierung des Speichers (3), welcher die Oberwellencharaktertstik des Mustertones fT_sample gespeichert hält, beschrieben wurde. Jedoch wird für den hier angegebenen Zweck des automatischen Nachziehens einer Gesangsstimme, der Interpretationsdekoder (4) durch das ursprüngliche (z.B. vom Mikrofon erzeugte) Audiosignal gespeist, oder in einer weiteren Variante wird für diesen Zweck durch die bevorzugte Transponierung (TRANSPON 1) ein weiteres "gerastertes" normalisierten Audio Signal erzeugt, bei dem jedoch die durch das Transformationsverhältnis jeweils erhaltene Frequenz der Grundwelle fg des "gerasterten" normalisierten Audio Signals nicht starr, sondern in der beschriebenen Weise jeweils der jeweiligen Abweichung der Grundwelle f0 des Audiosignals von dem jeweils nächst liegenden "sauberen" Ton entsprechend nach gesteuert ist, wobei bei dieser Variante, das Nachziehen des Tones nicht über die zweite Transponierung (TRANSPON 2), sondern über die erste Transponierung (TRANSPON 1), vgl. (4a), 4b, vorgenommen ist (bei entsprechender weiterer Transponierung durch TRANSPON 2 im Zusammenwirken mit TRANSPON 1), mit dem Vorteil, daß die Hüllkurveninterpretierung zur Steuerung des Nachziehvorganges nur über die Frequenzschwankung eines Halbtonschrittes (bzw. eines der verwendeten Tonleiter entsprechenden Tonschrittes) vorgenommen werden muß.
  • Abschließend soll noch eine weitere Anwendungsmöglichkeit angesprochen werden, die ein verwandtes Thema betrifft, die Erkennung von Sprache. Übliche Systeme sind in Bezug auf unabhängige von der Tonlage vorgenommener Erkennung noch nicht ganz ausgereift. Mit vorliegender Erfindung kann die Erkennung und Zuordnung des Oberwellenspektrums wesentlich komplexere Muster benutzen, als dies bei üblichen Systemen der Fall ist, bei vergleichbarer Rechenzeit, da das Audiosignal ständig auf eine definierte Tonlage eines Mustertones (passend zu einer bestimmten Grundtonfrequenz fg) gehalten wird. Dieses Verfahren ist dann als Ergänzungsmaßnahme zu den üblichen Verfahren zu verenden.
  • Ergänzende Angaben zu 10: Die in 10 angegebene selektive Auswahl der jeweils zu kompensierenden Oberwellenanteile (vgl. Selector Auswahl fg ... fn) könnte im Prinzip auch pauschal für alle Oberwellen vorgenommen werden, wobei die gewünschten Oberwellen dann durch den Speicher SP (3) und den Synthesizer (100) gemäß der Adressierung durch den Interpretationsdekoder (4) erzeugt und hinzu addiert werden können, ohne Rücksicht, ob sie bereits im Original Audiosignal enthalten sind. Auch eine direkte Teilkompensation, gesteuert durch den Speicher SP (3) bzw. Interpretationsdekoder (4) wäre möglich, wenn zusätzlich zur Auswahladresse select ADD (für die Ansteuerung des Selectors), ein noch jeweils zugehöriger Abschwächungsfaktor der gefilterten Oberwellen (g1 ... fn) aus dem Speicher ausgelesen wird.

Claims (23)

  1. Verfahren zum Transponieren (Stimmen) eines Audiosignals mit a) einem Verfahren, bei dem sich bei Änderung der Wiedergabegeschwindigkeit eines auf einer Tonkonserve, oder in einem Speicher gespeicherten und für die Wiedergabe ausgelesenen (oder rekonstruierten, vgl. MP3, etc.) Tonträgers auch die Tonlage (Tonhöhe) mit ändert; b) und einem Verfahren, bei dem sich bei Änderung der Wiedergabegeschwindigkeit (gegenüber der Aufzeichnungsgeschwindigkeit) eines aufgezeichneten und für die Wiedergabe wieder ausgelesenen (oder rekonstruierten, vgl. MP3, etc.) Tonträgers die Tonlage (Tonhöhe) nicht ändert, dadurch gekennzeichnet, a) daß das in Absatz b (im Oberbegriff) genannte Verfahren zwei Speicher oder Speicherbereiche (SP1, SP2, 1, 2) benutzt, von denen ein jeder jeweils unabhängig vom anderen, die Wiedergabe (SP2play, SP1play, 3) des aufgezeichneten Signals (Audiosignals) mit veränderlicher Geschwindigkeit (gegenüber der Aufzeichnungsgeschwindigkeit) bei unveränderlich gehaltener Tonlage (Tonhöhe) vornehmen kann, b) daß das in seiner Tonlage (bzw. Frequenzlage) zu transponierende Audiosignal in aufeinanderfolgende Zeitabschnitte (tnom, 3) eingeteilt ist und diese Zeitabschnitte (tnom) jeweils aufeinanderfolgend sich abwechselnd (alternierend) in die genannten zwei Speicher, bzw. Speicherbereiche (SP1, SP2, 1, 2) eingeschrieben (SP1rec, SP2rec) sowie gelesen (SP2play, SP1play) werden, wobei jeweils in einen der beiden Speicher, bzw. Speicherbereiche (SP1/SP2) ein Zeitabschnitt (tnom) des Audiosignals eingeschrieben wird während aus dem jeweils anderen Speicher, bzw. Speicherbereich (SP2/SP1) der vorherige Zeitabschnitt (tnom) ausgelesen wird und diese den aufeinanderfolgenden Zeitabschnitten (tnom) des Audiosignals entsprechende komplementär gesteuerte, alternierende Aufnahme-Wiedergabe Umschaltung der Speicher, bzw. Speicherbereiche (SP1, SP2) so gesteuert wird, daß ein betreffender Zeitabschnitt (tnom) des Audiosignals, welcher in einen Speicherbereich jeweils (SP1/SP2) eingeschrieben wurde, jeweils im jeweils nachfolgenden Zeitabschnitt (tnom) durch diesen Speicherbereich (SP1/SP2) wieder gegeben wird, c) und daß das in seiner Tonlage (bzw. Frequenzlage) zu transponierende Audiosignal dadurch in der Tonlage (bzw. Frequenzlage) verändert wird, indem die aufeinanderfolgenden Zeitabschnitte (tnom) des Audiosignals in die alternierend umgeschalteten Speicher, bzw. Speicherbereiche (SP1, SP2) mit einer von der Sollwiedergabe abweichenden Geschwindigkeit eingeschrieben werden, wobei die den aufeinanderfolgenden Zeitabschnitten (tnom) des Audiosignals entsprechende Wiedergabe mit der Sollwiedergabegeschwindigkeit erfolgt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die aufeinanderfolgende Zeitabschnitte (tnom) des Audiosignals in die alternierend umgeschalteten Speicher, bzw. Speicherbereiche (SP1, SP2) jeweils mit einer in Relation zur Sollwiedergabe erhöhten Geschwindigkeit eingeschrieben (SP1rec, SP2rec, 3) werden (vgl. RAM in 1), wobei zu jedem eingeschriebenen Zeitabschnitt (tnom) eine Pause P vorgesehen ist, um beim Einschreiben der Sollwiedergabegeschwindigkeit, wie sie sich beim Auslesen der aufeinanderfolgenden Zeitabschnitte (tnom) des Audiosignals ergibt, zu entsprechen, wobei durch diese Maßnahme die Tonlage des Audiosignals im Verhältnis der Einschreibgeschwindigkeit zur Wiedergabegeschwindigkeit hoch gesetzt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß das Audiosignal durch Herausnehmen von Perioden des Audiosignals bei gleichbleibender (gegebenenfalls durch Interpolation nachgesteuerter) Hüllkurve in seiner Tonlage tiefer gesetzt ist, wobei von dieser tieferen Tonlage aus das Audiosignal jeweils in die höhere Tonlage gebracht wird.
  4. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß das Audiosignal, welches in die alternierend umgeschalteten Speicherbereiche (SP1, SP2) in der genannten Weise abwechselnd eingeschrieben wird, von einem Halbleiterspeicher oder Speicherbereich (RAM, 3) mit steuerbarem Auslesetakt ausgelesen wird, wobei der Auslesetakt einem Wert entsprechend gesteuert ist, welcher in Relation zur Wiedergabegeschwindigkeit der jeweils alternierend umgeschaltete Speicher, bzw. Speicherbereich (SP1, SP2), die gewünschte Verschiebung der Tonlage ergibt, und der Halbleiterspeicher, bzw. Speicherbereich (RAM) unmittelbar die Konserve bildet, welche das zu transponierende Audiosignal wiedergibt oder gegebenenfalls auch nur ein Pufferspeicher ist, der von einem anderen Datenspeicher (Festplatte, CD, DVD, etc.) gespeist wird.
  5. Verfahren nach Anspruch 1 oder 2, zum Zwecke der Verwendungsmöglichkeit eines in Echtzeit vorhandenen und in der Wiedergabegeschwindigkeit durch das Verfahren nicht beeinflußbaren Audiosignals, welches durch das Verfahren in eine andere Tonlage (Frequenzlage) gebracht werden soll, dadurch gekennzeichnet, daß zu jedem Speicher, bzw. Speicherbereich (SP1, SP2) des genannten, für die Wiedergabe des Audiosignals verwendeten Speichers, nachfolgend Audiorecorderspeicher genannt, jeweils ein weiterer Speicher bzw. Speicherbereich (SP3 für SP1, dito SP4 für SP2, 2) vorgesehen ist, nachfolgend Pufferspeicherbereiche (SP3, SP4) genannt, in welche das Audiosignal in folgender Weise geschrieben und wieder gelesen wird: a) die aufeinanderfolgenden Zeitabschnitte (tnom) des Echtzeit Audiosignals werden in die zwei Pufferspeicherbereiche (SP3/SP4) jeweils alternierend eingeschrieben (SP4rec, SP3rec), wobei jeweils in einen der Pufferspeicherbereiche (SP4/SP3) ein Zeitabschnitt (tnom) des Audiosignals eingeschrieben wird (SP4rec, SP3rec) während aus dem jeweils anderen Speicher, bzw. Speicherbereich (SP3/SP4) der vorherige Zeitabschnitt (tnom) ausgelesen wird (SP4play, SP3play), b) die aus den Pufferspeicherbereichen (SP3/SP4) entsprechend den aufeinanderfolgenden Zeitabschnitten (tnom) des Audiosignals jeweils alternierend ausgelesenen Zeitabschnitte (SP3play, SP4play) werden in die zwei Speicherbereiche des Audiorecorderspeichers (SP1/SP2) jeweils alternierend eingeschrieben (SP1rec, SP2rec), wobei jeweils in einen der Audiorecorderspeicherbereiche (SP1/SP2) ein Zeitabschnitt (tnom) des Audiosignals eingeschrieben wird während aus dem jeweils anderen Speicher, bzw. Speicherbereich (SP2/SP1) der vorherige Zeitabschnitt (tnom) ausgelesen wird.
  6. Verfahren nach einem der Ansprüche 1 bis 5, oder Verfahren in eigener Anwendung mit einem Verfahren zum Transponieren (Stimmen) eines in Echtzeit erzeugten Audiosignals, dadurch gekennzeichnet, daß das in Echtzeit erzeugte Audiosignal in seiner Frequenz, bzw. Tonlage die Oberstimme eines Chores bildet, dessen Töne durch das Transponierverfahren erzeugt und zur Oberstimme wiedergegeben sind.
  7. Verfahren nach Anspruch 6, gekennzeichnet durch eine der Notenfolge bzw. Tonfolge des Audiosignals (in Echtzeit oder auch von einer Tonkonserve, etc.) entsprechende Signalerzeugung (wie z.B. MIDI-Signal oder Klaviatur Encoder, oder eine durch Filtermittel vorgenommene Tonanalyse des Audiosignals, wie eine FFT, etc.), die als Steuersignal der Vorrichtung zum Transponieren zugeführt ist und das Transponierverhältnis des Transponierverfahrens, welches die Chortöne zusätzlich zur Oberstimme erzeugt, so steuert, daß sie der (als Chöre, etc., gespielten) Notenfolge, bzw. gegebenenfalls wiedergegebenen Tonfolge, entsprechen.
  8. Anordnung zur Durchführung eines Verfahrens nach Anspruch 6 oder 7, gekennzeichnet durch eine von Hand zu haltende Keyboard Klaviatur (21, 8), welche eine Funkschnittstelle (blue tooth, etc.) zur Transponiervorrichtung, bzw. Chorerzeugung hat und an der Unterseite einen Haltegriff 22 aufweist.
  9. Anordnung nach Anspruch 8, dadurch gekennzeichnet, daß auf der Unterseite der von Hand zu haltenden Keyboard Klaviatur (innenseitig des Griffes 22 in 8) ein in Längsrichtung der Keyboard Klaviatur in seiner Abtastskala ausgerichtetes Berührungspad (23) vorgesehen ist (vgl. mit dem Mauspad eines Notebooks, jedoch nur für eine Koordinatenrichtung etc.), welches vom Gehäuse soweit abstehend 24 justierbar in diesem Abstand angeordnet ist, daß es von der Hand, welche den Griff 22 hält, mit der Daumenkuppe berührt werden kann, wobei durch diese Berührung in der erzeugten Chorstimme entsprechende Effekte gesteuert werden können (Tremolo der Gesangstimme, etc.), die über die Hüllkurvensteuerung der transponierten Chortöne erfolgt.
  10. Anordnung zur Durchführung eines Verfahrens nach Anspruch 6 oder 7, gekennzeichnet durch eine Frequenz Dekodiereinrichtung mit der die gesungenen Grundtöne als Obertonstimme erkannt und die Chöre passend dazu erzeugt sind, und gegebenenfalls noch durch eine Analyse der gesungenen Tonart entsprechend die Chöre automatisch erzeugt sind.
  11. Verfahren nach einem der Ansprüche 1 bis 5, oder Verfahren in eigener Anwendung mit einem Verfahren zum Transponieren (Stimmen) eines in Echtzeit erzeugten Audiosignals, dadurch gekennzeichnet, daß das Verfahren zur Klangverbesserung eines in Echtzeit erzeugten (oder gegebenenfalls auch von Konserve wiedergegebenen) Audiosignals verwendet wird, wobei ein abgespeicherter Musterklang oder mehrere abgespeicherte Musterklänge zur Verbesserung charakteristischer Oberwellen des Audiosignals verwendet ist bzw. sind, weiterhin noch dadurch gekennzeichnet, daß für die Adressierung der für die Wiedergabe verwendeten Musterklänge eine frequenzmäßige Anpassung in Bezug auf die entsprechenden Töne (Grundtöne) durch Transponierung unter Beibehaltung der Hüllkurven Charakteristik erfolgt, wobei in die Tonerzeugung (akustisches Musikinstrument, Gesang, etc.) der ursprüngliche Ton des Instrumentes oder einer beliebigen Tonquelle (Gesang, etc.), in Echtzeit mit verwendet ist und durch den angepaßten Musterklang entsprechend seinem Oberwellenspektrum in seinem Frequenzspektrum klanglich verbessert wird, wobei a) der ursprüngliche Ton des Instrumentes oder einer beliebigen Tonquelle (Gesang, etc.) an den betreffenden (abgespeicherten) Musterton (Musterklang) durch die Transponierung (Stimmung) angepaßt wird, ohne die Hüllkurve zu verändern, b) der betreffende (abgespeicherte) Musterton (Musterklang) durch die Transponierung (Stimmung) an den ursprünglichen Ton des Instrumentes oder einer beliebigen Tonquelle (Gesang, etc.) angepaßt wird, ohne die Hüllkurve zu verändern.
  12. Verfahren nach Anspruch 11, Absatz b, dadurch gekennzeichnet, daß der Frequenz mäßig angepaßte Musterton unmittelbar oder gegebenenfalls auch nur seine Oberwellen mit dem ursprünglichen Ton des Instrumentes oder einer beliebigen Tonquelle (Gesang, etc.) aufsummiert wird, um den verbesserte Klang zu erzeugen.
  13. Verfahren nach Anspruch 11, Absatz a, dadurch gekennzeichnet, daß der Frequenz mäßig angepaßte ursprüngliche Ton des Instrumentes oder einer beliebigen Tonquelle (Gesang, etc.) mit dem betreffenden (abgespeicherten) Musterton (Musterklang) aufsummiert wird, um das dem verbesserten Klang entsprechende Signal zu erzeugen, wobei dieses Signal durch Anwendung der Transponierung (Stimmung) wieder an die Tonlage (entsprechend dem Grundton) des Instrumentes oder einer beliebigen Tonquelle (Gesang, etc.) vor der Klangerzeugung angepaßt wird.
  14. Verfahren nach Anspruch 12 oder Anspruch 13, gekennzeichnet durch Verwendung einer Analyse (Filterung, FFT, etc.) des ursprünglichen Tones des Instrumentes bzw. der zu verbessernden einer beliebigen Tonquelle (Gesang, etc.), in Bezug auf den jeweils aktuellen Grundton und der Ermittlung der Abweichung zum betreffenden (abgespeicherten) Musterton (Musterklang), wobei über diese Abweichung das Verhältnis abgeleitet wird, mit dem die Transponierung (Stimmung) zum genannten Frequenz mäßigen Anpassen der Übereinstimmung von ursprünglichen Tones des Instrumentes bzw. der zu verbessernden einer beliebigen Tonquelle (Gesang, etc.) und (abgespeichertem) Musterton (Musterklang) erfolgt.
  15. Verfahren nach einem der Ansprüche 11 bis 14, dadurch gekennzeichnet, daß der Hüllkurvenverlauf des ursprünglichen Tones in Bezug auf charakteristische Klangfarben des Instrumentes analysiert wird (Tonstärke, Übersteuerung, Tonveränderung, etc.), wobei der Musterton (Musterklang) zu einem breiten Spektrum unterschiedlicher Variationen des Hüllkurvenverlaufs (Tonstärke, Übersteuerung, Tonveränderung, etc.) gespeichert ist (bei er Wiedergabe), bzw. zur Abspeicherung entsprechend aufgezeichnet wird (bei der Musteraufzeichnung des Klanges), und daß über eine jeweils festgestellte Hüllkurvencharakteristik, wie sie auch der Abspeicherung des Musters entspricht, bzw. entsprochen hat, während der Wiedergabe des ursprünglichen Tones die Adressierung des Mustertones (Musterklang), bzw. Musterklanges, bzw. dessen Oberwellen erfolgt, wobei je nach Anwendung nur die Oberwellen oder auch die Grundwelle des Mustertones (Musterklang) zusätzlich zum ursprünglichen Ton für die Klangerzeugung verwendet sind, bzw. ist.
  16. Verfahren nach einem der Ansprüche 11 bis 15, dadurch gekennzeichnet, daß im ursprünglichen Ton (eines akustischen Instrumentes oder einer Gesangs Stimme) enthaltene unerwünschte Oberwellen durch den über das Transponierverfahren Frequenz mäßig angepaßten gegenphasig eingespeiste Oberwellen kompensiert wird.
  17. Verfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß als Hüllkurvenverlauf zur Adressierung eines Mustertones (neben der ansonst als Hüllkurve verstandenen Lautstärkeschwankung eines Tones) die Frequenzveränderung eines Tones über die Zeitachse zu dem angegebenen Zweck festgestellt wird und daraus die Adressierung des Mustertones (zum Erhalt von dieser Hüllkurve entsprechenden Oberwellen) abgeleitet wird, wobei diese Adressierung beim Wiedergabeverfahren (bei der Klangverbesserung) übereinstimmend mit dem Lernverfahren (bei der Musteraufzeichnung des Klanges) vorgenommen wird.
  18. Verfahren nach Anspruch 15 oder 16, dadurch gekennzeichnet, daß das Instrument in seinem Klangkörper (Resonanzboden, Resonanzkörper) einen Lautsprecher aufweist, der diese Oberwelleneinspeisung mit vornimmt.
  19. Verfahren nach Anspruch 11, Absatz a) und Anspruch 16, wobei das ursprüngliche Audiosignal in seiner Tonlage (in Bezug auf die Frequenz der Grundwelle fg) an die Tonlage (bzw. Frequenz der Grundwelle) eines Mustertones angepaßt wird, nachfolgend (übereinstimmend mit der Beschreibung) normalisiertes Audio Signal genannt, und weiterhin das normalisierte Audio Signal in die Tonlage des ursprünglichen Audiosignals, oder in eine andere vorgegebenen Tonlage (zurück) gebracht wird (vgl. Anspruch 13), dadurch gekennzeichnet, daß die durch gegenphasiges Aufaddieren bzw. Subtrahieren am normalisierten Audio Signal vorgenommene Kompensation von unerwünschten, im ürsprünglichen Audiosignal enthaltenen Oberwellen, durch folgende Mittel und Verfahrensmaßnahmen vorgenommen ist: a) die betreffenden Oberwellen werden aus dem normalisierten Audio Signal gefiltert, b) es wird der am Filterausgang auftretende Phasenjitter in Bezug auf eine jeweilige Oberwelle (z.B. deren Periodendauer) gemessen, c) es wird der am Filterausgang auftretende Phasenjitter in Bezug auf das Eingangssignal der Oberwellenfilterung (hier das normalisierte Audio Signal) unmittelbar oder über die (optional) gefilterte Grundwelle gemessen, d) es ist eine Verzögerung des normalisierten Audio Signals vorgesehen, die so bemessen ist, daß die Durchlaufzeit der Oberwellenfilter ausgeglichen ist, e) es ist eine durch Stellgröße gesteuerte Laufzeit- und Phasenkorrektur für die gefilterten Oberwellen vorgesehen, f) und es werden die Meßergebnisse von b) und c) genutzt, um die in e) genannte Laufzeit- und Phasenkorrektur für die gefilterten Oberwellen entsprechend zu steuern, daß die Angabe nach Absatz d) erfüllt wird, g) und/oder anstelle oder ergänzend der gesteuerten Laufzeit- und Phasenkorrektur nach e) für die gefilterten Oberwellen, erfolgt diese Korrektur durch eine gesteuerte Laufzeit- und Phasenkorrektur des verzögerten normalisierten Audio Signals.
  20. Verfahren nach Anspruch 19, dadurch gekennzeichnet, daß die Filterfrequenz der verwendeten Oberwellenfilter nachgesteuert wird, wobei die Stellgröße für diese Nachsteuerung, die aktuelle Frequenz der aus dem normalisierten Audio Signal gefilterten (und gegebenenfalls Frequenz mäßig geringfügig schwankenden) Grundwelle (fg) durch Messung ihrer Phase und/oder Frequenz (bzw. ihrer Periodendauer) liefert.
  21. Verfahren nach Anspruch 19 oder 20, dadurch gekennzeichnet, daß nur jene Oberwellen jeweils kompensiert werden, welche bei der Dekodierung des Frequenz- und/oder Amplituden mäßigen Hüllkurvenverlaufs des Audiosignals entsprechend dem gespeicherten Oberwellenspektrum des Mustertones zum Zwecke ihrer Unterdrückung bei der gegenphasigen Addition durch den Speicher SP (3) adressiert werden.
  22. Verfahren nach Anspruch 11 oder nach dem Oberbegriff des Anspruch 19, dadurch gekennzeichnet, daß das Verfahren zum Nachziehen (Stimmen, bzw. Transponieren) eines Musik- oder insbesondere Gesang Audiosignals auf gerasterte Töne entsprechend einer Tonleiter verwendet wird, und dies durch entsprechende Nachsteuerung des Verhältnisses, nach dem die Grundschwingung fg des Audiosignals frequenzmäßig auf einen Referenzton (Musterton) gebracht wird, erfolgt, und gegebenenenfalls diese Beeinflußung abhängig ist, von der Nähe der Grundschwingung des Audiosignals zu einem gerasterten Ton der Tonleiter und/oder vom zeitlichen Anstieg der Veränderung der Tonlage in Richtung zu einem gerasterten Ton.
  23. Verfahren nach Anspruch 11 oder nach dem Oberbegriff des Anspruch 19, dadurch gekennzeichnet, daß das Verfahren für die Unterstützung an einem Sprachanalyse System zur Erkennung von gesprochenen Texten eingesetzt wird.
DE102006028330A 2005-06-22 2006-06-20 Verfahren zum Transponieren eines Audio Signals Ceased DE102006028330A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102006028330A DE102006028330A1 (de) 2005-06-22 2006-06-20 Verfahren zum Transponieren eines Audio Signals

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102005029026 2005-06-22
DE102005029026.4 2005-06-22
DE102005032995 2005-07-14
DE102005032995.0 2005-07-14
DE102006028330A DE102006028330A1 (de) 2005-06-22 2006-06-20 Verfahren zum Transponieren eines Audio Signals

Publications (1)

Publication Number Publication Date
DE102006028330A1 true DE102006028330A1 (de) 2008-01-03

Family

ID=38776720

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102006028330A Ceased DE102006028330A1 (de) 2005-06-22 2006-06-20 Verfahren zum Transponieren eines Audio Signals

Country Status (1)

Country Link
DE (1) DE102006028330A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202015104861U1 (de) 2015-09-14 2015-09-21 Music Store Professional Gmbh Musikinstrument mit Tonhöhenkorrektur
US20210241738A1 (en) * 2020-02-04 2021-08-05 Pixart Imaging Inc. Method and electronic device for adjusting accompaniment music

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE202015104861U1 (de) 2015-09-14 2015-09-21 Music Store Professional Gmbh Musikinstrument mit Tonhöhenkorrektur
US20210241738A1 (en) * 2020-02-04 2021-08-05 Pixart Imaging Inc. Method and electronic device for adjusting accompaniment music
US11580944B2 (en) * 2020-02-04 2023-02-14 Airoha Technology Corp. Method and electronic device for adjusting accompaniment music

Similar Documents

Publication Publication Date Title
EP1125272B1 (de) Verfahren zum ändern des oberweyllengehalts einer komplexen wellenform
US7003120B1 (en) Method of modifying harmonic content of a complex waveform
DE60026189T2 (de) Verfahren und Vorrichtung zur Wellenformkomprimierung und Erzeugung
Penttinen et al. Model-based sound synthesis of the guqin
US7718885B2 (en) Expressive music synthesizer with control sequence look ahead capability
US5504270A (en) Method and apparatus for dissonance modification of audio signals
EP1885156B1 (de) Hörhilfe mit einem Audiosignalerzeuger
US20070044642A1 (en) Method and device for pattern recognition in acoustic recordings
DE102006028330A1 (de) Verfahren zum Transponieren eines Audio Signals
US20110064244A1 (en) Method and Arrangement for Processing Audio Data, and a Corresponding Computer Program and a Corresponding Computer-Readable Storage Medium
JP3540159B2 (ja) 音声変換装置及び音声変換方法
US6323408B1 (en) Music creation
WO2021175460A1 (en) Method, device and software for applying an audio effect, in particular pitch shifting
Poepel Synthesized strings for string players
Pardo et al. Applying source separation to music
Brown Mathematics, Physics and A Hard Day’s Night
Driedger Processing music signals using audio decomposition techniques
Schwär et al. A Differentiable Cost Measure for Intonation Processing in Polyphonic Music.
Moralis Live popular Electronic music ‘performable recordings’
DE102010046085A1 (de) Elektronische Tonerzeugungsvorrichtung
Fakhrtabatabaie Critical Band: A Continuum of Rhythm and Pitch Perception
Robine et al. Evaluation of the Technical Leval of Saxophone Performers by Considering the Evolution of Spectral Parameters of the Sound.
Ternström et al. Monteverdi’s vespers. A case study in music synthesis
Molina et al. Dissonance reduction in polyphonic audio using harmonic reorganization
Tfirn Hearing Images and Seeing Sound: The Creation of Sonic Information Through Image Interpolation

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: YORCK HERNANDEZ, DE

Representative=s name: YORCK HERNANDEZ, 81379 MUENCHEN, DE

Representative=s name: HERNANDEZ, YORCK, DIPL.-ING., DE

R082 Change of representative

Representative=s name: YORCK HERNANDEZ, DE

Representative=s name: YORCK HERNANDEZ, 81379 MUENCHEN, DE

Representative=s name: HERNANDEZ, YORCK, DIPL.-ING., DE

R082 Change of representative

Representative=s name: HERNANDEZ, YORCK, DIPL.-ING., DE

R012 Request for examination validly filed

Effective date: 20120202

R016 Response to examination communication
R130 Divisional application to

Ref document number: 102006063044

Country of ref document: DE

R082 Change of representative
R016 Response to examination communication
R016 Response to examination communication
R002 Refusal decision in examination/registration proceedings
R003 Refusal decision now final