DE10153673A1 - Automatische Erzeugung von musikalischen Scratch-Effekten - Google Patents

Automatische Erzeugung von musikalischen Scratch-Effekten

Info

Publication number
DE10153673A1
DE10153673A1 DE10153673A DE10153673A DE10153673A1 DE 10153673 A1 DE10153673 A1 DE 10153673A1 DE 10153673 A DE10153673 A DE 10153673A DE 10153673 A DE10153673 A DE 10153673A DE 10153673 A1 DE10153673 A1 DE 10153673A1
Authority
DE
Germany
Prior art keywords
data
information
audio
tempo
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10153673A
Other languages
English (en)
Other versions
DE10153673B4 (de
Inventor
Friedemann Becker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Native Instruments Software Synthesis GmbH
Original Assignee
Native Instruments Software Synthesis GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Native Instruments Software Synthesis GmbH filed Critical Native Instruments Software Synthesis GmbH
Priority to DE10153673A priority Critical patent/DE10153673B4/de
Priority to US10/481,391 priority patent/US7041892B2/en
Priority to AT02754699T priority patent/ATE409337T1/de
Priority to DE50212811T priority patent/DE50212811D1/de
Priority to PCT/EP2002/006708 priority patent/WO2002103671A2/de
Priority to EP02754699A priority patent/EP1415297B1/de
Publication of DE10153673A1 publication Critical patent/DE10153673A1/de
Application granted granted Critical
Publication of DE10153673B4 publication Critical patent/DE10153673B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/195Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response, playback speed
    • G10H2210/241Scratch effects, i.e. emulating playback velocity or pitch manipulation effects normally obtained by a disc-jockey manually rotating a LP record forward and backward
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/385Speed change, i.e. variations from preestablished tempo, tempo change, e.g. faster or slower, accelerando or ritardando, without change in pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/061MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur elektrischen Klangerzeugung und einen interaktiven Musikabspieler, bei dem als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audiosignal dient, welches anhand von Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen in Abhängigkeit einer musikalischen Tempoinformation in seiner Wiedergabeposition und/oder der Wiedergabe-Richtung und/oder der Wiedergabe-Geschwindigkeit moduliert wird.

Description

  • Die Erfindung betrifft ein Verfahren zur elektrischen Klangerzeugung und einen interaktiven Musikabspieler, bei dem als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audiosignal dient.
  • Der Beruf des Disk Jockeys (kurz: DJ) erfährt in der heutigen, durch moderne elektronische Musik geprägten Tanz-Kultur eine enorme technische Aufwertung. Zum Handwerk dieses Berufes gehört das Arrangieren der Musiktitel zu einem Gesamtwerk (dem Set, dem Mix) mit einem eigenen Spannungsbogen.
  • Im Vinyl-DJ-Bereich hat sich die Technik des Scratchens weitreichend etabliert. Es handelt sich dabei um eine Technik, bei der durch kombinierte Bewegung des Schallplatte mit der Hand und eines der Lautstärkeregler am Mischpult (sogenannter Fader) das Tonmaterial auf der Schallplatte zur rhythmischen Klangerzeugung genutzt wird. Große Meister des Scratchens tun dies auf zwei oder sogar drei Plattenspielern gleichzeitig, was die Fingerfertigkeit eines guten Schlagzeugers oder Pianospielers verlangt.
  • Zunehmend stoßen auch Hardware-Hersteller mit Effekt- Mischpulten in den Echtzeit-Effekt-Bereich vor. Es gibt auch schon DJ-Mischpulte, die Sample-Einheiten besitzen, mit welchen Teile des Audiosignals als Loop oder als One-Shot-Sample weiterverwendet werden können. Es gibt auch CD-Player, die mittels eines großen Jog-Wheels das Scratchen auf einer CD ermöglichen.
  • Es ist jedoch kein Gerät oder Verfahren bekannt, mit dem sowohl die Abspielposition eines digitalen Audiosignals, als auch der Lautstärkeverlauf oder andere Klangparameter dieses Signals automatisch so gesteuert werden können, dass dabei ein rhythmischer, taktgenauer "Scratch-Effekt" aus dem gerade zu hörenden Audio-Material erzeugt wird. Dies wäre jedoch wünschenswert, weil damit zum einen gelungene Scratch-Effekte reproduzierbar und zusätzlich auf anderes Audiomaterial übertragbar würden. Zum anderen könnte ein DJ so entlastet werden und seine Konzentration vermehrt anderen künstlerischen Dingen wie etwa der Zusammenstellung der Musikstücke widmen.
  • Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren sowie einen Musikabspieler zu schaffen, die eine automatische Erzeugung von musikalischen Scratch-Effekten ermöglichen.
  • Diese Aufgabe wird erfindungsgemäß jeweils durch die unabhängigen Patentansprüche gelöst.
  • Weitere vorteilhafte Ausgestaltungen sind in den abhängigen Patentansprüchen angegeben.
  • Vorteile und Details der Erfindung ergeben sich anhand der folgenden Beschreibung vorteilhafter Ausführungsbeispiele und in Verbindung mit den Figuren. Es zeigt in Prinzipdarstellung:
  • Fig. 1 ein Zeit-Raum-Diagramm aller sich miteinander im Takt befindlichen Abspiel-Varianten eines mit Normalgeschwindigkeit wiedergegebenen Tracks als parallele Geraden der Steigung 1,
  • Fig. 2 ein Detail-Ausschnitt des Zeit-Raum-Diagramms nach Fig. 1 zur Beschreibung der geometrischen Zusammenhänge eines Full-Stop-Scratch-Effekts,
  • Fig. 3 einen Ausschnitt eines Zeit-Raum-Diagramms zur Beschreibung der geometrischen Zusammenhänge eines Back-and-For-Scratch-Effekts,
  • Fig. 4 verschiedene mögliche Lautstärke-Hüllkurven zur Realisierung eines Gater-Effektes auf einen Back-and- For-Scratch-Effekt,
  • Fig. 5 ein Blockschaltbild eines interaktiven Musik- Abspielers gemäß der Erfindung mit Eingriffsmöglichkeit in eine aktuelle Abspielposition,
  • Fig. 6 ein Blockschaltbild einer zusätzlichen Signalverarbeitungskette zur Realisierung eines Scratch-Audio- Filters gemäß der Erfindung,
  • Fig. 7 ein Blockschaltbild zur Veranschaulichung der Gewinnung rhythmusrelevanter Informationen und deren Auswertung zur näherungsweisen Ermittlung von Tempo und Phase eines Musikdatenstroms,
  • Fig. 8 ein weiteres Blockschaltbild zur sukzessiven Korrektur von ermitteltem Tempo und Phase und
  • Fig. 9 einen Datenträger, der Audiodaten und Steuerdateien zur Reproduktion von aus den Audiodaten gemäß der Erfindung erstellten Scratch-Effekten oder Gesamtwerken vereint.
  • Zum Abspielen von vorproduzierter Musik werden herkömmlicherweise verschiedenartige Geräte für verschiedene Speichermedien wie Schallplatte, Compakt Disk oder Cassette verwendet. Diese Formate wurden nicht dafür entwickelt, in den Abspielprozess einzugreifen, um die Musik damit auf kreative Art zu bearbeiten. Diese Möglichkeit ist aber wünschenswert, und wird heutzutage trotz der gegebenen Einschränkungen von den genannten DJ's praktiziert. Dabei werden bevorzugt Vinyl- Schallplatten verwendet, weil man dort am leichtesten mit der Hand die Abspielgeschwindigkeit und -position beeinflussen kann.
  • Heute werden aber überwiegend digitale Formate wie Audio CD und MP3 zum Speichern von Musik verwendet. Bei MP3 handelt es sich um ein Kompressionsverfahren für digitale Audiodaten nach dem MPEG-Standard (MPEG 1 Layer 3). Das Verfahren ist asymmetrisch, d. h. die Codierung ist sehr viel aufwendiger als die Decodierung. Ferner handelt es sich um ein verlustbehaftetes Verfahren. Die vorliegende Erfindung ermöglicht nun den genannten kreativen Umgang mit Musik auf beliebigen digitalen Formaten durch einen geeigneten interaktiven Musik- Abspieler, der von den durch die vorangehend dargestellten erfindungsgemäßen Maßnahmen geschaffenen neuen Möglichkeiten Gebrauch macht.
  • Dabei besteht das prinzipielle Bedürfnis, möglichst viel hilfreiche Information in der grafischen Darstellung haben, um gezielt eingreifen zu können. Außerdem möchte man ergonomisch in den Abspielvorgang eingreifen können, auf vergleichbare Art mit dem von DJ's häufig praktizierten "Scratching" auf Vinylplattenspielern, wobei der Plattenteller während der Wiedergabe angehalten und vorwärts sowie rückwärts bewegt wird.
  • Um gezielt Eingreifen zu können, ist es wichtig, eine grafische Repräsentation der Musik zu haben, in der man die aktuelle Abspielposition erkennt und auch einen gewissen Zeitraum in der Zukunft und in der Vergangenheit erkennt. Dazu stellt man üblicherweise die Amplitudenhüllkurve der Klangwellenform über einen Zeitraum von mehreren Sekunden vor und nach der Abspielposition dar. Die Darstellung verschiebt sich in Echtzeit in der Geschwindigkeit, in der die Musik spielt.
  • Prinzipiell möchte man möglichst viel hilfreiche Information in der grafischen Darstellung haben, um gezielt eingreifen zu können. Außerdem möchte man möglichst ergonomisch in den Abspielvorgang eingreifen können, auf vergleichbare Art zum sogenannten "Scratching" auf Vinylplattenspielern. Der Begriff "Scratching" bezeichnet dabei das Anhalten und vorwärts oder rückwärts Bewegen des Plattentellers während der Wiedergabe.
  • Bei dem durch die Erfindung geschaffenen interaktiven Musik- Abspieler können nun musikalisch relevante Zeitpunkte, insbesondere die Taktschläge, mit der an späterer Stelle (Fig. 7 und Fig. 8) erläuterten Takterkennungsfunktion aus dem Audiosignal extrahiert und als Markierungen in der grafischen Darstellung angezeigt werden, z. B. auf einem Display oder auf einem Bildschirm eines digitalen Computers, auf dem der Musik-Abspieler durch eine geeignete Programmierung realisiert ist.
  • Weiter ist ein Hardware-Steuerelement R1 vorgesehen, z. B. ein Knopf, insbesondere der Mausknopf, mit dem man zwischen zwei Betriebsarten umschaltet:
    • a) Musik läuft frei, mit konstantem Tempo,
    • b) Abspielposition und -geschwindigkeit wird vom Anwender direkt oder automatisch beeinflusst.
  • Der Modus a) entspricht einer Vinylplatte, die man nicht anfasst und deren Geschwindigkeit gleich der des Plattentellers ist. Der Modus b) hingegen entspricht einer Vinylplatte, die man mit der Hand anhält und hin- und herschiebt.
  • In einer vorteilhaften Ausführungsform eines interaktiven Musik-Abspielers wird die Abspielgeschwindigkeit in Modus a) weiter beeinflusst durch die automatische Steuerung zur Synchronisierung des Takts der abgespielten Musik zu einem anderen Takt (vgl. Fig. 7 und Fig. 8). Der andere Takt kann synthetisch erzeugt oder von einer anderen gleichzeitig spielenden Musik gegeben sein.
  • Außerdem ist ein weiteres Hardware-Steuerelement R2 vorgesehen, mit dem man im Betriebsmodus b) quasi die Plattenposition bestimmt. Dies kann ein kontinuierlicher Regler, oder auch die Computermaus sein.
  • Die Darstellung nach Fig. 5 zeigt ein Blockschaltbild einer solchen Anordnung mit den im folgenden erläuterten Signalverarbeitungsmitteln, mit denen ein interaktiver Musik-Abspieler gemäß der Erfindung mit Eingriffsmöglichkeit in eine aktuelle Abspielposition geschaffen wird.
  • Die mit diesem weiteren Steuerelement R2 vorgegebenen Positionsdaten haben üblicherweise eine begrenzte zeitliche Auflösung, d. h. es wird nur in regelmäßigen oder unregelmäßigen Abständen eine Nachricht geschickt, die die aktuelle Position übermittelt. Die Abspielposition des gespeicherten Audiosignals soll sich aber gleichmäßig ändern, mit einer zeitlichen Auflösung, die der Audio-Abtastrate entspricht. Deshalb verwendet die Erfindung an dieser Stelle eine Glättungsfunktion, die aus dem mit dem Steuerelement R2 vorgegebenen stufigen Signal ein hochaufgelöstes, gleichmäßig sich änderndes Signal erzeugt.
  • Eine Methode hierzu besteht darin, mit jeder vorgegebenen Positionsnachricht eine Rampe mit konstanter Steigung auszulösen, die in einer vorgegebenen Zeit das geglättete Signal von seinem alten Wert auf den Wert der Positionsnachricht fährt. Eine weitere Möglichkeit ist, die stufige Wellenform in einen linearen digitalen Tiefpaß-Filter LP zu schicken, dessen Ausgang das gewünschte geglättete Signal darstellt. Dafür eignet sich besonders ein 2-Pol Resonanzfilter. Eine Kombination (Reihenschaltung) der beiden Glättungen ist auch möglich und vorteilhaft und ermöglicht folgende vorteilhafte Signalverarbeitungskette:
    vorgegebenes Stufensignal → Rampenglättung → Tiefpassfilter → exakte Abspielposition
    oder
    vorgegebenes Stufensignal → Tiefpassfilter → Rampenglättung → exakte Abspielposition.
  • Das Blockschaltbild nach Fig. 5 veranschaulicht die an einem vorteilhaften Ausführungsbeispiel in Form einer Prinzipskizze. Das Steuerelement R1 (hier ein Taster) dient zum Wechsel der Betriebsmodi a) und b), indem dieser einen Schalter SW1 triggert. Der Regler R2 (hier ein kontinuierlicher Schieberegler) liefert die Positionsinformation mit zeitlich begrenzter Auflösung. Diese dient einem Tiefpaß-Filter LP zur Glättung als Eingangssignal. Das geglättete Positionssignal wird nun differenziert (DIFF) und liefert die Abspielgeschwindigkeit. Der Schalter SW1 wird mit diesem Signal an einem ersten Eingang IN1 angesteuert (Modus b). Der andere Eingang IN2 wird mit einem Tempowert A, der wie in Fig. 7 und Fig. 8 beschrieben ermittelt werden kann, beaufschlagt (Modus a). Über das Steuerelement R1 erfolgt der Wechsel zwischen den Eingangssignalen.
  • Außerdem können über ein drittes Steuerelement (nicht gezeigt) die im vorangehenden beschriebenen Steuerinformationen zur automatischen Manipulation von Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit vorgegeben werden. Ein weiteres Steuerelement dient dann zum Auslösen der mit dem dritten Steuerelement vorgegebenen automatischen Manipulation der Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit.
  • Wenn man vom einen in den anderen Modus wechselt (entspricht dem Festhalten und Loslassen des Plattentellers), darf die Position nicht springen. Aus diesem Grund übernimmt der vorgeschlagene interaktive Musik-Abspieler die im vorhergehenden Modus erreichte Position als Ausgangsposition im neuen Modus. Ebenso soll die Abspielgeschwindigkeit (1. Ableitung der Position) sich nicht Sprunghaft ändern. Deswegen übernimmt man auch die aktuelle Geschwindigkeit und führt sie durch eine Glättungsfunktion, wie oben beschrieben, zu der Geschwindigkeit, die dem neuen Modus entspricht. Nach Fig. 5 erfolgt dies durch einen Slew Limiter SL, der eine Rampe mit konstanter Steigung auslöst, die in einer vorgegebenen Zeit das Signal von seinem alten Wert auf den neuen Wert fährt. Dieses positions- bzw. geschwindigkeitsabhängige Signal steuert dann die eigentliche Abspieleinheit PLAY zur Wiedergabe des Audiotracks an, indem es die Abspielgeschwindigkeit beeinflusst.
  • Die komplizierten Bewegungsabläufe, bei denen die Schallplatte und der Crossfader in ganz präziser, dem Tempo angepasster Weise zusammenwirken müssen, sind nun dank der in Fig. 5 gezeigten Anordnung mit den entsprechenden Steuerelementen und eines an späterer Stelle näher beschriebenen Meta-File Formats automatisierbar. Durch eine Reihe von Voreinstellungen kann die Länge und Art des Scratches ausgewählt werden. Der tatsächliche Ablauf des Scratches wird durch das erfindungsgemäße Verfahren tempogenau gesteuert. Dabei werden die Bewegungsabläufe entweder zuvor bei einem echten Scratch aufgezeichnet oder sie werden in einem graphischen Editor "auf dem Reißbrett" entworfen.
  • Das automatisierte Scratch Modul bedient sich nun des vorangehend anhand von Fig. 5 beschriebenen sogenannten Scratch- Algorithmus.
  • Das voranstehend dargestellte Verfahren bedarf lediglich eines Parameters, nämlich der Position der Hand mit welcher die virtuelle Schallplatte bewegt wird (vgl. entsprechendes Steuerelement), und errechnet daraus mittels zweier Glättungsverfahren die aktuelle Abspielposition im Audio-Sample. Die Verwendung dieser Glättungsverfahren ist nicht von theoretischer Notwendigkeit sondern von technischer. Ohne seiner Verwendung wäre es für die unverfremdete Wiedergabe notwendig, die Berechnung der aktuellen Abspielposition in der Audio-Rate (44 kHz) durchzuführen, was ein entscheidenden Mehrbedarf an Rechenleistung erfordern würde. Dank des Algorithmus kann die Abspielposition in sehr viel niedrigerer Rate berechnet werden (z. B. 344 Hz).
  • Im folgenden wird anhand der zwei einfachsten Scratch- Automationen erläutert, wie das erfindungsgemäße Verfahren zur automatischen Erzeugung von Scratch-Effekten funktioniert. Das gleich Verfahren kann aber auch auf viel komplexere Scratch-Abfolgen angewendet werden.
  • FULL STOP
  • Bei diesem Scratch handelt es sich um einen Effekt, bei dem die Schallplatte (entweder durch die Hand oder durch Bedienung der Stop-Taste des Plattenspielers) zum Stillstand gebracht wird. Nach einer gewissen Zeit wird die Schallplatte wieder losgelassen, bzw. der Motor wieder eingeschaltet. Nachdem die Schallplatte wieder auf ihre ursprüngliche Umdrehungsgeschwindigkeit gekommen ist, muss sie sich wieder im Takt zu dem "weitergedachten" Takt vor dem Scratch bzw. wieder im Takt zu einem zweiten, während des Full-Stops unangetasteten, Referenz-Takt befinden.
  • Zur Berechnung der Abbrems-, Stillstand- und Beschleunigungsphasen wurden folgende vereinfachende Annahmen gemacht. (Es sind jedoch auch komplexere Verläufe des Scratches ohne Aufwand zu berechnen):
    • - Sowohl Abbremsen als auch Beschleunigen erfolgen linear, d. h. mit konstanter Beschleunigung.
    • - Abbremsen und Beschleunigen erfolgen mit derselben Beschleunigung jedoch mit umgekehrtem Vorzeichen.
  • Die Darstellung gemäß Fig. 1 zeigt ein Zeit-Raum-Diagramm aller zueinander synchronen bzw. sich miteinander im Takt befindlichen Abspiel-Varianten eines mit Normalgeschwindigkeit wiedergegebenen Tracks. Die Dauer einer Viertelnote eines gegenwärtigen Tracks ist dabei mit beat bezeichnet.
  • Stellt man alle sich miteinander im Takt (beat) befindlichen Abspiel-Varianten eines mit Normalgeschwindigkeit wiedergegebenen Tracks als parallele Geraden der Steigung 1 in einem Zeit-Raum-Diagramm dar (X-Achse: Zeit t in [ms], Y-Achse Sample-Position SAMPLE in [ms]), so kann ein FULL STOP Scratch als Verbindungskurve (gestrichelte Linie) zwischen zwei der parallel gelegenen Abspiel-Geraden dargestellt werden. Der lineare Geschwindigkeitsübergang zwischen den Bewegungsphasen und der Stillstandsphase des Scratches stellt sich im Zeit-Raum-Diagramm als Parabel-Segment dar (lineare Geschwindigkeitsänderung = quadratische Positionsveränderung).
  • Einige geometrische Überlegungen anhand der in Fig. 1 gezeigten Darstellung ermöglichen nun die Dauer der verschiedenen Phasen (Abbremsen, Stillstand, Beschleunigen) so zu berechnen, dass nach Vollendung des Scratches die Abspielposition auf einer zur Ursprungs-Geraden parallelen und um ein ganzes Vielfaches einer Viertelnote (beat) versetzten Geraden zu liegen kommt, was das graphische Äquivalent zur oben aufgestellten Forderung nach taktgetreuer Wiederaufnahme der Bewegung darstellt. Dazu zeigt die Fig. 2 einen Ausschnitt von Fig. 1, an dem sich die folgenden mathematischen Überlegungen nachvollziehen lassen.
  • Bei die Dauer des Abbrems- und Beschleunigungsvorgangs "ab", v die Geschwindigkeit, x die mit der Zeit t korrelierte Abspielposition und die Dauer einer Viertelnote des gegenwärtigen Tracks beat, dann berechnet sich die Dauer der einzuhaltenden Stillstandsphase c folgendermaßen:

    c = beat - ab.
  • Die Gesamtdauer T des Scratches beträgt

    T = beat + ab

    und besteht also aus 3 Phasen:
    Abbremsen von v = 1 auf v = 0: Dauer: ab
    Stillstand: Dauer: beat - ab
    Beschleunigen von v = 0 auf v = 1: Dauer: ab
    (für ab <= beat)
  • Daraus ergibt sich, dass zunächst mit normaler Geschwindigkeit v = 1 verfahren wird, ehe dann ein lineares Abbremsen f(x) = - S x2 erfolgt, was die Zeit "ab" dauert. Für die Dauer "beat-ab" besteht Stillstand v = 0, ehe ein lineares Beschleunigen f(x) = S x2 erfolgt, was wiederum die Zeit "ab" dauert. Danach wird wieder mit Normalgeschwindigkeit v = 1 verfahren.
  • Die Dauer "ab" für das Abbremsen und das Beschleunigen wurde bewusst variabel gehalten, da man durch die Veränderung dieses Parameter entscheidend in den "Sound" (die Qualität) des Scratches eingreifen kann (siehe Voreinstellungen).
  • Wird die Stillstandsphase c um Vielfache von beat verlängert, kann man takt-synchrone Full-Stop-Scratches einer beliebigen Länge erzeugen.
  • BACK AND FOR
  • Bei diesem Scratch geht es darum, die virtuelle Schallplatte an einer Stelle tempo-synchron vorwärts und rückwärts zu bewegen und nach Beendigung des Scratches wieder im Takt mit dem Ursprungs- bzw. Referenz-Takt zu sein. Man kann sich wieder des gleichen Zeit-Raum-Diagramms aus Fig. 1 bedienen und diesen Scratch in seiner einfachsten Form

    Geschwindigkeit = +/-1; Frequenz = 1/beat,

    wie in der Darstellung gemäß Fig. 3 darstellen, die an Fig. 2 angelehnt ist. Natürlich sind auf diese Weise auch viel komplexere Bewegungsabläufe berechenbar.
  • Die Abbremsung von v = +1 auf v = -1 und umgekehrt bedarf nun der doppelten Dauer = 2.ab. Mit geometrischen Überlegungen kann die Dauer der Rückwärts-Lauf-Phase "rü" und der darauffolgenden Vorwärtslaufphase "vo" wie anhand von Fig. 3 nachvollziehbar ermittelt werden:

    rü = vo = S.beat - 2ab
  • Die Gesamtdauer des Scratches beträgt diesmal genau T = beat und besteht aus 4 Phasen:
    Abbremsen vom v = 1 auf v = -1: Dauer: 2ab
    Rückwärtslauf: Dauer: S.beat - 2ab
    Beschleunigen von v = -1 auf v = 1: Dauer: 2ab
    Vorwärtslauf: Dauer: S.beat - 2ab
  • Dieser Scratch kann beliebig oft wiederholt werden und kehrt immer wieder an die Start-Abspielposition zurück, die virtuelle Schallplatte bewegt sich im Ganzen nicht weiter. Das bedeutet also mit jeder Iteration eine Verschiebung um p = - beat gegenüber dem Referenztakt.
  • Auch in diesem Scratch bleibt die Dauer des Abbrems- und Beschleunigungsvorgangs "ab" variabel, da durch die Veränderung von a die Charakteristik des Scratches stark verändert werden kann.
  • GATER
  • Zusätzlich zur eigentlichen Manipulation der originalen Wiedergabegeschwindigkeit erhält ein Scratch seine Vielfältigkeit durch zusätzliches rhythmisches Hervorheben gewisser Passagen des Bewegungsablaufes mittels Lautstärke oder EQ/Filter-(Klangcharakteristik) Manipulationen. So kann beispielsweise bei einem BACK AND FOR Scratch immer nur die Rückwärtsphase hörbar gemacht werden und die Vorwärtsphase ausgeblendet werden.
  • Auch dieser Vorgang wurde in vorliegendem Verfahren automatisiert, indem die aus dem Audiomaterial extrahierte Tempo- Information (vgl. dazu Fig. 7 und Fig. 8) dazu genutzt wird, diese Parameter rhythmisch zu steuern.
  • Hier soll auch wieder nur beispielhaft illustriert werden, wie anhand von drei Parametern
    • - RATE (Frequenz des Gate-Vorgangs),
    • - SHAPE (Verhältnis von "An"- zu "Aus"-Phase) und
    • - OFFSET(Phasen-Verschiebung, relativ zum Referenztakt)
    eine große Vielfalt an Effekt-Variationen möglich ist. Diese 3 Parameter können anstatt nur auf die Lautstärke des Scratches zu wirken, natürlich auch auf EQs/Filter oder jeden anderen Audio-Effekt, wie Hall, Delay und ähnliches angewendet werden.
  • Der Gater selbst existiert bereits in vielen Effekt-Geräten. Jedoch die Kombination mit einem tempo-synchronen Scratch- Algorithmus zur Erzeugung vollautomatischer Scratch-Abläufe, zu denen zwingend auch Lautstärke-Verläufe gehören, wird in diesem Verfahren erstmalig verwendet.
  • In Fig. 4 ist ein einfacher 3-fach BACK AND FOR Scratch dargestellt. Darunter verschiedene Lautstärke-Hüllkurven, die sich aus den jeweils daneben stehenden Gate-Parametern ergeben. Dargestellt ist dann auch die resultierende Wiedergabe- Kurve, um zu veranschaulichen, wie unterschiedlich das Endergebnis durch die Anwendung verschiedener Gate-Parameter werden kann. Wird jetzt noch der BACK AND FOR Scratch in seiner Frequenz und dem Beschleunigungsparameter "ab" variiert (in der Zeichnung nicht mehr dargestellt), ergeben sich extrem viele Kombinations-Möglichkeiten.
  • Der erste Verlauf unterhalb der Ausgangsform (3-fach BACK AND FOR Scratch) betont nur jeweils die zweite Hälfte der Wiedergabebewegung, während er deren erste Hälfte jeweils eliminiert. Die Gater-Werte für diesen Verlauf sind:
    • - RATE = R
    • - SHAPE = 0
    • - OFFSET = 0
  • Der Verlauf der Lautstärke-Hüllkurve ist dabei jeweils durchgehend gezeichnet, während die damit selektierten Bereiche der Wiedergabebewegung jeweils gestrichelt dargestellt sind.
  • Beim darunter liegenden Verlauf werden nur die Rückwärtsbewegungen der Wiedergabebewegung selektiert mit den Gater- Parametern:
    • - RATE = R
    • - SHAPE = - S
    • - OFFSET = 0,4
  • Der darunter liegende Verlauf ist eine weitere Variante bei welcher jeweils der obere und untere Umkehrpunkt der Wiedergabebewegung ausgewählt wird durch:
    • - RATE = ⅛
    • - SHAPE = - S
    • - OFFSET = 0,2
  • In einem weiteren Betriebsmodus des Scratch-Automatismus ist es vorstellbar, auch die Auswahl des Audio-Samples, mit welchem des Scratch vollzogen wird, zu optimieren und damit benutzer-unabhängig zu machen. In diesem Modus würde der Tastendruck zwar das Verfahren starten, dieses aber erst vollzogen, wenn im Audiomaterial ein geeignetes Beat-Event gefunden wird, welches sich für die Durchführung des gewählten Scratches besonders gut eignet.
  • "SCRATCH-SYNTHESIZER"
  • Alles bisher Beschriebene behandelt das Verfahren mit welchem ein beliebiger Ausschnitt aus einem Audiomaterial modifiziert Wiedergegeben werden kann (im Falle von rhythmischem Material auch tempo-synchron). Da nun aber das Ergebnis (der Sound) eines Scratches unmittelbar mit dem ausgewählten Audiomaterial zusammenhängt, ist die sich ergebende Klangvielfalt prinzipiell so groß, wie das verwendete Audio-Material selbst. Da das Verfahren parametrisiert ist, lässt es sich sogar als neues Klang-Synthese-Verfahren bezeichnen.
  • Beim "Scratching" mit Vinyl-Platten, also dem Abspielen mit sich stark und schnell ändernder Geschwindigkeit, ändert sich die Tonwellenform auf charakteristische Art, aufgrund der Eigenheiten des Aufzeichnungsverfahrens, das standardmäßig für Schallplatten verwendet wird. Beim Erstellen des Press- Masters für die Schallplatte im Aufnahmestudio durchläuft das Tonsignal ein Pre-Emphase-Filter (Vorverzerrungs-Filter) nach RIAA-Norm, der die Höhen anhebt (sogenannte "Schneidekennlinie"). In jeder Anlage, die zum Abspielen von Schallplatten verwendet wird, befindet sich ein entsprechendes De-Emphase- Filter (Rückentzerrungs-Filter), das die Wirkung umkehrt, so dass man näherungsweise das ursprüngliche Signal erhält.
  • Wenn nun aber die Abspielgeschwindigkeit nicht mehr dieselbe ist, wie bei der Aufnahme, was u. a. beim "Scratching" auftritt, so werden alle Frequenzanteile des Signals auf der Schallplatte entsprechend verschoben und deswegen vom De-Emphase-Filter unterschiedlich bedämpft. Dadurch ergibt sich ein charakteristischer Klang.
  • Um beim Abspielen mit sich stark und schnell ändernder Geschwindigkeit eine möglichst authentische Wiedergabe ähnlich dem "Scratchen" mit einem Vinyl-Plattenspieler zu erreichen, verwendet eine weitere vorteilhafte Ausführungsform des interaktiven Musik-Abspielers nach der Erfindung für ein Audiosignal ein Scratch-Audio-Filter, wobei das Audiosignal einer Pre-Emphase-Filterung (Vorverzerrung) unterzogen und in einem Pufferspeicher abgelegt wird, aus dem es in Abhängigkeit von der jeweiligen Abspielgeschwindigkeit mit variablem Tempo auslesbar ist, um anschließend einer De-Emphase-Filterung (Rückentzerrung) unterzogen und wiedergegeben zu werden.
  • In dieser vorteilhaften Ausgestaltung des erfindungsgemäßen interaktiven Musik-Abspielers nach der Erfindung mit einem Aufbau entsprechend Fig. 5 ist daher ein Scratch-Audio-Filter zur Simulation des beschriebenen charakteristischen Effekts vorgesehen. Dazu wird, insbesondere für eine digitale Simulation dieses Vorgangs, das Audiosignal innerhalb der Abspieleinheit PLAY aus Fig. 5 einer weiteren Signalverarbeitung unterzogen, wie diese in Fig. 6 dargestellt ist. Dazu wird das Audiosignal, nachdem die digitalen Audiodaten des wiederzugebenden Musikstücks von einem Medium D bzw. Tonträger (z. B. CD oder MP3) gelesen und (vor allem im Fall des MP3-Formats) dekodiert DEC wurde, einer entsprechenden Pre-Emphase-Filterung PEF unterzogen. Das so vorgefilterte Signal wird dann in einem Pufferspeicher B abgelegt, aus dem es in einer weiteren Verarbeitungseinheit R je nach Betriebsmodus a) oder b), wie in Fig. 5 beschrieben, entsprechend dem Ausgangssignal von SL mit variierender Geschwindigkeit ausgelesen wird. Das ausgelesene Signal wird dann mit einem De-Emphase-Filter DEF behandelt und dann wiedergegeben (AUDIO_OUT).
  • Für das Pre- und De-Emphase Filter PEF und DEF, die den gleichen Frequenzgang wie in der RIAA-Norm festgelegt haben sollten, verwendet man günstigerweise jeweils ein digitales IIR- Filter 2. Ordnung, d. h. mit zwei günstig gewählten Polstellen und zwei günstig gewählten Nullstellen. Wenn die Polstellen des einen Filters gleich den Nullstellen des anderen Filters sind, heben sich, wie gewünscht, die beiden Filter in ihrer Wirkung genau auf, wenn das Audiosignal mit Originalgeschwindigkeit abgespielt wird. In allen anderen Fällen erzeugen die genannten Filter den charakteristischen Toneffekt beim "Scratching". Selbstverständlich kann das beschriebene Scratch-Audio-Filter auch im Zusammenhang mit beliebigen anderen Arten von Musik-Abspielgeräten mit "Scratching"- Funktion eingesetzt werden.
  • Als Informationen aus dem Audiomaterial wird das Tempo des Tracks benötigt, um die Größe der Variablen "beat", sowie die "Taktung" des Gates bestimmen zu können. Hierfür wird beispielsweise das im folgenden beschriebene Tempo-Ermittlungs- Verfahren für Audio-Tracks verwendet.
  • In diesem Zusammenhang stellt sich das technische Problem der Tempo- und Phasenangleichung zweier Musikstücke bzw. Audio- Tracks in Echtzeit. Dabei wäre es wünschenswert, wenn eine Möglichkeit zur automatischen Tempo- und Phasenangleichung zweier Musikstücke bzw. Audio-Tracks in Echtzeit zur Verfügung stünde, um den DJ von diesem technischen Aspekt des Mixens zu befreien, bzw. einen Mix automatisch oder halbautomatisch, ohne die Hilfe eines versierten DJ's erstellen zu können.
  • Bisher wurde dieses Problem nur in Teilaspekten gelöst. So gibt es Software-Player für das Format MP3 (ein Standardformat für komprimierte digitale Audiodaten), die reine Echtzeit-Tempoerkennung und -anpassung realisieren. Die Erkennung der Phase muss jedoch weiterhin durch das Gehör und die Anpassung des DJ manuell erfolgen. Dadurch wird ein beträchtliches Maß an Aufmerksamkeit des DJ in Anspruch genommen, was andernfalls für künstlerische Aspekte wie Musikzusammenstellung etc. zur Verfügung stünde.
  • Eine Aufgabe der vorliegenden Erfindung besteht somit in der Schaffung einer Möglichkeit zur automatischen Tempo- und Phasenangleichung zweier Musikstücke bzw. Audio-Tracks in Echtzeit mit möglichst hoher Genauigkeit.
  • Eine wesentliche zu überwindende technische Hürde stellt dabei die Genauigkeit einer Tempo- und Phasen-Messung dar, welche mit der für diese Messung zur Verfügung stehenden Zeit sinkt. Das Problem stellt sich somit vorrangig für eine Ermittlung des Tempos und der Phase in Echtzeit, wie es u. a. beim Live-Mixen der Fall ist.
  • Im folgenden soll eine mögliche Realisierung der näherungsweisen Tempo- und Phasenerkennung sowie Tempo- und Phasenanpassung gemäß der Erfindung dargestellt werden.
  • Erster Schritt der Prozedur ist eine erste, näherungsweise Ermittlung des Tempos des Musikstückes. Dies erfolgt durch eine statistische Auswertung der zeitlichen Abstände der sog. Beat-Ereignisse. Eine Möglichkeit zur Gewinnung rhythmusrelevanter Ereignisse aus dem Audiomaterial erfolgt durch schmale Bandpassfilterung des Audiosignals in verschiedenen Frequenzbereichen. Um das Tempo in Echtzeit zu ermitteln, werden für die folgenden Berechnungen jeweils nur die Beat-Ereignisse der letzten Sekunden verwendet. Dabei entsprechen 8 bis 16 Ereignisse in etwa 4 bis 8 Sekunden.
  • Aufgrund der quantisierten Struktur von Musik (16tel Noten Raster) können nicht nur Viertelnoten Beat-Intervalle zur Tempoberechnung herangezogen werden. Auch andere Intervalle (16tel, 8tel, S und ganze Noten) können durch Oktavierung (z. B. durch Multiplizieren ihrer Frequenz mit 2er Potenzen) in eine vordefinierte Frequenz-Oktave (z. B. 80-160 bpm, Englisch für Beats per minute) transformiert werden und somit temporelevante Informationen liefern. Fehlerhafte Oktavierungen (z. B. von Triolen-Intervallen) fallen später wegen ihrer verhältnismäßigen Seltenheit bei der statistischen Auswertung nicht ins Gewicht.
  • Um auch Triolen, bzw. geschuffelte Rhythmen (einzelne leicht aus dem 16tel Raster versetzte Noten) zu erfassen, werden die im ersten Punkt gewonnenen Zeitintervalle zusätzlich noch in Paaren und Dreiergruppen durch Addition ihrer Zeitwerte gruppiert bevor sie oktaviert werden. Durch dieses Verfahren wird die rhythmische Struktur zwischen den Takten aus den Zeitintervallen herausgerechnet.
  • Die so gewonnene Menge an Daten wird auf Häufungspunkte untersucht. Es entstehen dabei in der Regel drei Häufungsmaxima bedingt durch die Oktavierungs- und Gruppierungsverfahren, deren Wert in rationalen Verhältnis (2/3, 5/4, 4/5 oder 3/2) zueinander stehen. Sollte aus der Stärke eines der Maxima nicht deutlich genug hervorgehen, das dieses das tatsächliche Tempo des Musikstückes angibt, lässt sich das korrekte Maximum aus dem rationalen Verhältnissen der Maxima untereinander ermitteln.
  • Zur näherungsweisen Ermittlung der Phase wird ein Referenz- Oszillator verwendet. Dieser schwingt mit dem zuvor ermittelten Tempo. Seine Phase wird vorteilhaft so gewählt, dass sich die beste Übereinstimmung zwischen Beat-Ereignisse des Audiomaterials und Nulldurchgängen des Oszillators ergibt.
  • Anschließend erfolgt eine sukzessive Verbesserung der Tempo- und Phasenermittlung. Durch die natürliche Unzulänglichkeit der ersten näherungsweisen Tempoermittlung wird sich zunächst nach einigen Sekunden die Phase des Referenz-Oszillators relativ zum Audiotrack verschieben. Diese systematische Phasenverschiebung gibt Auskunft darüber, um welche Menge das Tempo des Referenz-Oszillators verändert werden muss. Eine Korrektur des Tempos und der Phase erfolgt vorteilhaft in regelmäßigen Abständen, um unterhalb der Hörbarkeitsgrenze der Verschiebungen und der Korrekturbewegungen zu bleiben.
  • Sämtliche Phasenkorrekturen, die ab der näherungsweisen Phasenkorrelation erfolgt sind, werden über die Zeit akkumuliert, so dass die Berechnung des Tempos und der Phase auf einem ständig wachsenden Zeitintervall basiert. Dadurch werden die Tempo- und Phasen-Werte zunehmend präziser und verlieren den eingangs erwähnten Makel der näherungsweisen Echtzeitmessung. Nach kurzer Zeit (ca. 1 min) sinkt der Fehler des mit diesem Verfahren ermittelten Tempo-Wertes unterhalb 0.1%, ein Maß an Genauigkeit, das Vorraussetzung für die Berechnung von Loop-Längen ist.
  • Die Darstellung gemäß Fig. 7 zeigt eine mögliche technische Realisierung der beschriebenen näherungsweisen Tempo- und Phasenerkennung eines Musikdatenstroms in Echtzeit anhand eines Blockschaltbildes. Die gezeigte Struktur kann auch als "Beat Detector" bezeichnet werden.
  • Als Input liegen zwei Ströme von Audio-Events bzw. Audio- Ereignissen Ei mit Wert 1 vor, welche den Peaks in den Frequenzbändern F1 bei 150 Hz und F2 bei 4000 Hz oder 9000 Hz entsprechen. Diese beiden Eventströme werden vorerst getrennt behandelt, indem diese durch jeweilige Bandpassfilter mit jeweiliger Grenzfrequenz F1 und F2 gefiltert werden.
  • Folgt ein Event innerhalb von 50 ms dem vorhergehenden, wird das zweite Event nicht berücksichtigt. Eine Zeit von 50 ms entspricht der Dauer eines 16tels bei 300 bpm, liegt also weit unter der Dauer des kürzesten Intervalls, in dem die Musikstücke üblicherweise angesiedelt sind.
  • Aus dem Strom der gefilterten Events Ei wird nun in jeweiligen Verarbeitungseinheiten BD1 und BD2 ein Strom aus den einfachen Zeitintervallen Ti zwischen den Events gebildet.
  • Aus dem Strom der einfachen Zeitintervalle T1i werden in gleichen Verarbeitungseinheiten BPM_C1 und BPM_C2 jeweils zusätzlich zwei weitere Ströme der bandbegrenzten Zeitintervalle gebildet, nämlich mit Zeitintervallen T2i, den Summen von jeweils zwei aufeinanderfolgenden Zeitintervallen, und mit Zeitintervallen T3i, den Summen von jeweils drei aufeinanderfolgenden Zeitintervallen. Die dazu herangezogenen Events dürfen sich auch überlappen.
  • Dadurch werden aus dem Strom: t1, t2, t3, t4, t5, t6, . . . zusätzlich folgende zwei Ströme erzeugt:
    T2i: (t1 + t2), (t2 + t3), (t3 + t4), (t4 + t5), (t5 + t6), . . . und
    T3i: (t1 + t2 + t3), (t2 + t3 + t4), (t3 + t4 + t5), (t4 + t5 + t6), . . .
  • Die drei Ströme T1i, T2i, T3i, werden nun zeit-oktaviert in entsprechenden Verarbeitungseinheiten OKT. Die Zeit- Oktavierung OKT erfolgt derart, dass die einzelnen Zeitintervalle jedes Stroms so oft verdoppelt werden, bis sie in einem vorgegebenen Intervall BPM REF liegen. Auf diese Weise erhält man drei Datenströme T1io, T2io, T3io . . . Die obere Grenze des Intervalls berechnet sich aus der unteren bpm-Grenze nach der Formel:

    thi [ms] = 60000/ bpmlow
  • Die untere Grenze des Intervalls liegt bei 0.5.thi.
  • Jeder der so erhaltenen drei Ströme wir nun für beide Frequenzbänder F1, F2 in jeweiligen weiteren Verarbeitungseinheiten CHK auf seine Konsistenz überprüft. Damit wird ermittelt, ob jeweils eine gewisse Anzahl aufeinanderfolgender, zeit-oktavierter Intervallwerte innerhalb einer vorgegebenen Fehlergrenze liegen. Dazu überprüft man beispielsweise im einzelnen mit folgenden Werten:
  • Für T1i überprüft man dessen letzte 4 Events T11o, T12o, T13o, T14o daraufhin, ob gilt:
    • a) (t11o - t12o)2 + (t11o - t13o)2 + (t11o - t14o)2 < 20
  • Ist dies der Fall, wird der Wert t11o als gültiges Zeitintervall ausgegeben.
  • Für T2i überprüft man dessen letzte 4 Events t21o, t22o, t23o, t24o daraufhin, ob gilt:
    • a) (t21o - t22o)2 + (t21o - t23o)2 + (t21o - t24o)2 < 20
  • Ist dies der Fall, wird der Wert t11o als gültiges Zeitintervall ausgegeben.
  • Für T3i überprüft man dessen letzte 3 Events t31o, t32o, t33o, daraufhin, ob gilt:
    • a) (t31o - t32o)2 + (t31o - t33o)2 < 20
  • Ist dies der Fall, wird der Wert t31o als gültiges Zeitintervall ausgegeben.
  • Hierbei hat die Konsistenzprüfung a) Vorrang vor b) und b) hat Vorrang vor c). Wird also bei a) ein Wert ausgegeben, werden b) und c) nicht mehr untersucht. Wird bei a) kein Wert ausgegeben, so wird b) untersucht, usw. Wird hingegen weder bei a) noch bei b) noch bei c) ein konsistenter Wert gefunden, so wird die Summe der letzten 4 nicht oktavierten Einzelintervalle (t1 + t2 + t3 + t4) ausgegeben.
  • Der so aus den drei Strömen ermittelte Wertestrom konsistenter Zeitintervalle wird wiederum in einer nachgeschalteten Verarbeitungseinheit OKT in das vorgegebene Zeit-Intervall BPM_REF oktaviert. Anschließend wird das oktavierte Zeit- Intervall in einen BPM Wert umgerechnet.
  • Als Resultat liegen jetzt zwei Ströme BPM1 und BPM2 von bpm-Werten vor - einer für jeden der beiden Frequenzbereiche F1 und F2. In einem Prototyp werden diese Ströme mit einer festen Frequenz von 5 Hz abgefragt und die jeweils letzten acht Events aus beiden Strömen für die statistische Auswertung herangezogen. Man kann an dieser Stelle jedoch durchaus auch eine variable (eventgesteuerte) Abtastrate verwenden und man kann auch mehr als nur die letzten 8 Events verwenden, beispielsweise 16 oder 32 Events.
  • Diese letzten 8, 16 oder 32 Events aus jedem Frequenzband F1, F2 werden zusammengeführt und in einer nachgeschalteten Verarbeitungseinheit STAT auf Häufungsmaxima N betrachtet. In der Prototyp-Version wird ein Fehlerintervall von 1,5 bpm verwendet, d. h. solange Events weniger als 1,5 bpm voneinander differieren, werden sie als zusammengehörig betrachtet und addieren sich in der Gewichtung. Die Verarbeitungseinheit STAT ermittelt hierbei, bei welchen BPM-Werten Häufungen auftreten und wie viele Events den jeweiligen Häufungspunkten zuzuordnen sind. Der am stärksten gewichtete Häufungspunkt kann als die lokale BPM-Messung gelten und liefert den gewünschten Tempowert A.
  • In einer ersten Weiterbildung dieses Verfahrens erfolgt zusätzlich zu der lokalen BPM-Messung eine globale Messung, indem man die Zahl, der verwendeten Events auf 64, 128 etc. ausweitet. Bei alternierenden Rhythmus-Patterns, in welchen nur jeden 4. Takt das Tempo klar durchkommt, kann häufig eine Eventzahl von mindestens 128 nötig sein. Solch eine Messung ist zuverlässiger, benötigt jedoch auch mehr Zeit.
  • Eine weitere entscheidende Verbesserung kann durch folgende Maßnahme erzielt werden:
    In Betracht gezogen wird nicht nur das erste Häufungsmaximum, sondern auch das zweite. Dieses zweite Maximum entsteht fast immer durch vorhandene Triolen und kann sogar stärker als das erste Maximum sein. Das Tempo der Triolen hat jedoch ein klar definiertes Verhältnis zum Tempo der Viertel Noten, so dass sich aus dem Verhältnis der Tempi der beiden ersten Maxima ermitteln lässt, welches Häufungsmaximum den Vierteln und welches den Triolen zuzuordnen ist.
  • Nimmt man T1 als das Tempo des ersten Maximums in bpm und T2 als das des zweiten Maximums an, so gelten folgende Regeln:
    Wenn T2 = 2/3.T1, dann ist T2 das Tempo.
    Wenn T2 = 4/3.T1, dann ist T2 das Tempo.
    Wenn T2 = 2/5.T1, dann ist T2 das Tempo.
    Wenn T2 = 4/5.T1, dann ist T2 das Tempo.
    Wenn T2 = 3/2.T1, dann ist T1 das Tempo.
    Wenn T2 = 3/4.T1, dann ist T1 das Tempo.
    Wenn T2 = 5/2.T1, dann ist T1 das Tempo.
    Wenn T2 = 5/4.T1, dann ist T1 das Tempo.
  • Ein näherungsweiser Phasenwert P wird anhand einer der beiden gefilterten einfachen Zeitintervalle Ti zwischen den Events ermittelt, vorzugsweise anhand derjenigen Werte, die mit der niedrigeren Frequenz F1 gefiltert sind. Diese dienen zur groben Bestimmung der Frequenz des Referenz-Oszillators.
  • Die Darstellung nach Fig. 8 zeigt ein mögliches Blockschaltbild zur sukzessiven Korrektur von ermitteltem Tempo A und Phase P, im folgenden als "CLOCK CONTROL" bezeichnet.
  • Zunächst wird der Referenz-Oszillator bzw. die Referenz-Clock MCLK in einem ersten Schritt 1 mit den groben Phasenwerten P und Tempowerten A aus der Beat-Detection gestartet, was quasi einem Reset des in Fig. 2 gezeigten Regelkreises gleichkommt. Anschließend werden in einem weiteren Schritt 2 die Zeitintervalle zwischen Beat-Events des eingehenden Audiosignals und der Referenz-Clock MCLK ermittelt. Dazu werden die näherungsweisen Phasenwerte P mit einem Referenzsignal CLICK, welches die Frequenz des Referenz-Oszillators MCLK aufweist, in einem Komparator V verglichen.
  • Bei systematischem Überschreiten (+) einer "kritischen" Abweichung bei mehreren aufeinanderfolgenden Ereignissen mit einem Wert von beispielsweise über 30 ms wird in einem weiteren Verarbeitungsschritt 3 die Referenz-Clock MCLK durch eine kurzzeitige Tempoänderung
    A(i+1) = A(i) + q oder
    A(i+1) = A(i) - q
    entgegen der Abweichung (wieder) an das Audio-Signal angepasst, wobei q die verwendete Absenkung oder Anhebung des Tempos darstellt. Andernfalls (-) wird das Tempo konstant gehalten.
  • Im weiteren Verlauf erfolgt in einem weiteren Schritt 4 eine Summierung aller Korrektur-Ereignisse aus Schritt 3 und der seit dem letzten "Reset" verstrichenen Zeit in eigenen Speichern (nicht gezeigt). Bei ungefähr jedem 5. bis 10. Ereignis einer annähernd akkuraten Synchronisierung (Differenz zwischen den Audiodaten und der Referenz-Clock MCLK etwa unterhalb 5 ms) wird der Tempo-Wert auf der Basis des bisherigen Tempo-Wertes, der bis dahin akkumulierten Korrektur-Ereignisse und der seit dem verstrichenen Zeit in einem weiteren Schritt 5 wie folgt neu errechnet.
  • Mit
    • - q als der in Schritt 3 verwendeten Absenkung oder Anhebung des Tempos (beispielsweise um den Wert 0.1),
    • - dt als der Summe der Zeit, für welche das Tempo insgesamt abgesenkt oder angehoben wurde (Anhebung positiv, Absenkung negativ),
    • - T als dem seit dem letzten Reset (Schritt 1) verstrichenen Zeitintervall, und
    • - bpm als dem in Schritt 1 verwendeten Tempowert A errechnet sich das neue, verbesserte Tempo nach folgender einfachen Formel:

      bpm_neu = bpm.(1 + (q.dt)/T)
  • Weiter wird geprüft, ob die Korrekturen in Schritt 3 über einen gewissen Zeitraum hinweg immer jeweils negativ oder positiv sind. In solch einem Fall liegt wahrscheinlich eine Tempo-Änderung im Audiomaterial vor, die mit obigem Verfahren nicht korrigiert werden kann. Dieser Status wird erkannt und bei Erreichen des nächsten annähernd perfekten Synchronisations- Ereignisses (Schritt 5) werden der Zeit- und der Korrekturspeicher in einem Schritt 6 gelöscht, um den Ausgangspunkt in Phase und Tempo neu zu setzten. Nach diesem "Reset" beginnt die Prozedur erneut mit einem Aufsetzen auf Schritt 2 das Tempo zu optimieren.
  • Eine Synchronisierung eines zweiten Musikstückes erfolgt nun durch Anpassung von dessen Tempo und Phase. Die Anpassung des zweiten Musikstückes erfolgt indirekt über den Referenz- Oszillator. Nach der oben beschriebenen näherungsweisen Tempo- und Phasenermittlung des Musikstückes werden diese Werte sukzessive nach obigem Verfahren an den Referenz-Oszillator angepasst, nur wird diesmal die Abspielphase und die Abspielgeschwindigkeit des Tracks selbst verändert. Das originale Tempo des Tracks lässt sich rückwärts leicht aus der notwendigen Veränderung seiner Abspielgeschwindigkeit gegenüber der Original-Abspielgeschwindigkeit errechnen.
  • Des weiteren ermöglicht die gewonnene Information über das Tempo und die Phase eines Audiotracks die Ansteuerung sogenannter temposynchroner Effekte. Dabei wird das Audiosignal passend zum eigenen Rhythmus manipuliert, was rhythmisch effektvolle Echtzeit-Klangveränderung ermöglicht. Insbesondere kann die Tempo-Information dazu genutzt werden, Loops mit taktgenauen Längen in Echtzeit aus dem Audiomaterial herauszuschneiden.
  • Wie bereits eingangs erwähnt, werden herkömmlicherweise beim Mischen mehrerer Musikstücke die Audioquellen von Tonträgern auf mehreren Abspielgeräten abgespielt und über ein Mischpult abgemischt. Bei dieser Vorgehensweise beschränkt sich eine Audioaufnahme auf eine Aufzeichnung des Endresultats. Eine Reproduktion des Mischvorganges oder von Scratch-Vorgängen und ein Aufsetzen zu einem späteren Zeitpunkt exakt an einer vorgebbaren Position innerhalb eines Musikstückes ist damit nicht möglich.
  • Genau dies erreicht nun die vorliegende Erfindung, indem ein Dateiformat für digitale Steuerinformationen vorgeschlagen wird, welches die Möglichkeit bietet, den Vorgang des interaktiven Mischens und eine eventuelle Effektbearbeitung von Audioquellen aufzuzeichnen und akkurat wiederzugeben. Dies ist insbesondere mit einem wie vorangehend beschriebenen Musik-Abspieler möglich.
  • Die Aufzeichnung von Mischvorgängen oder eines Scratch- Vorgangs gliedert sich in eine Beschreibung der verwendeten Audioquellen und einen zeitlichen Ablauf von Steuerinformationen des Mischvorgangs oder Scratch-Vorgangs und zusätzlicher Effektbearbeitung.
  • Es werden nur die Information über den eigentlichen Mischvorgang oder Scratch-Vorgang und über die Ursprungsaudioquellen benötigt, um das Resultat wiederzugeben. Die eigentlichen digitalen Audiodaten werden extern zur Verfügung gestellt. Dies vermeidet urheberrechtlich problematische Kopiervorgänge von geschützten Musikstücken. Es können durch das Abspeichern von digitalen Steuerinformationen somit Mischvorgänge von mehreren Audiostücken im Hinblick auf Abspielpositionen, Synchronisationsinformationen, Echtzeiteingriffe mit Audio-Signalverarbeitungsmitteln etc. als ein Mix der Audioquellen und deren Effektbearbeitung z. B. mit Scratch-Effekten als neues Gesamtwerk mit vergleichsweise langer Abspieldauer realisiert werden.
  • Dies bietet den Vorteil, dass die Beschreibung der Bearbeitung der Audioquellen im Vergleich zu den erzeugten Audiodaten des Mischvorgangs gering sind, der Mischvorgang an beliebigen Stellen editiert und wiederaufgesetzt werden kann. Außerdem können vorhandene Audiostücke in verschiedenen Zusammenfassungen oder als längere zusammenhängende Interpretationen wiedergegeben werden.
  • Mit bisherigen Tonträgern und Musik-Abspielgeräten war es hingegen nicht möglich, die Interaktion eines Anwenders aufzuzeichnen und wiederzugeben, da den bekannten Abspielgeräten die technischen Voraussetzungen fehlen, diese genau genug zu steuern. Dies wird erst durch die vorliegende Erfindung ermöglicht, indem mehrere digitale Audioquellen wiedergegeben und deren Abspielpositionen bestimmt und gesteuert werden können. Dadurch wird es möglich, den gesamten Vorgang digital zu verarbeiten und entsprechende Steuerdaten in einer Datei zu speichern. Diese digitalen Steuerinformationen werden vorzugsweise in einer Auflösung abgelegt, die der Abtastrate der verarbeiteten digitalen Audiodaten entspricht.
  • Die Aufzeichnung gliedert sich im wesentlichen in 2 Teile:
    • - eine Liste der verwendeten Audioquellen z. B. digitale Aufgezeichnete Audiodaten in komprimierter und unkomprimierter Form wie z. B. WAV, MPEG, AIFF und digitale Tonträger wie etwa eine Compact Disk und
    • - den zeitlichen Ablauf der Steuerinformation.
  • Die Liste der Verwendeten Audioquellen enthält u. a.:
    • - Informationen zur Identifizierung der Audioquelle,
    • - zusätzlich berechnete Information, die Charakteristiken der Audioquelle beschreibt (z. B. Abspiellänge und Tempoinformationen),
    • - beschreibende Information zur Herkunft und Urheberinformation der Audioquelle (z. B. Künstler, Album, Verlag etc.),
    • - Metainformation, z. B. Zusatzinformation die über den Hintergrund der Audioquelle informiert (z. B. Musikgenre, Information zum Künstler und Verlag).
  • Die Steuerinformation speichert u. a.:
    • - die zeitliche Abfolge von Steuerdaten,
    • - die zeitliche Abfolge von exakten Abspielpositionen in der Audioquelle,
    • - Intervalle mit kompletter Zustandsinformation aller Stellglieder, um als Wiederaufsetzpunkte der Wiedergabe zu dienen.
  • Im Folgenden ist ein mögliches Beispiel der Verwaltung der Liste von Audiostücken in einer Ausprägung des XML Formats dargestellt. Dabei steht XML als Abkürzung für Extensible Markup Language. Dies ist eine Bezeichnung für eine Metasprache zur Beschreibung von Seiten im WWW (World Wide Web). Dabei ist es im Gegensatz zu HTML (Hypertext Markup Language) möglich, dass der Autor eines XML-Dokumentes im Dokument selbst bestimmte Erweiterungen von XML im Document-Type- Definition-Teil des Dokumentes definiert und im gleichen Dokument auch nutzt.
    <?xml version = "1.0" encoding = "ISO-8859-1"?>
    <MJL VERSION = "Versions-Beschreibung">
    <HEAD PROGRAM = "Programmname" COMPANY = "Firmenname"/>
    <MIX TITLE = "Titel des Mixes">
    <LOCATION FILE = "Kennung der Steuerinformationsdatei" PATH = "Speicherort der Steuerinformationsdatei"/>
    <COMMENT>Kommentare und Bemerkungen zum Mix</COMMENT>
    </MIX>
    <PLAYLIST>
    <ENTRY TITLE = "Titel Eintrag 1" ARTIST = "Name des Autors" ID = "Kennung des Titels">
    <LOCATION FILE = "Kennung der Audioquelle" PATH = "Speicherort der Audioquelle" VOLUME = "Speichermedium der Datei"/>
    <ALBUM TITLE = "Name des zugehörigen Albums" TRACK = "Kennung des Tracks auf Album"/>
    <INFO PLAYTIME = "Abspieldauer in Sekunden" GENRE_ID = "Musik Genre-Kennung"/>
    <TEMPO BPM = "Abspieltempo in BPM" BPM_QUALITY = "Güte des Tempowerts aus der Analyse"/>
    <CUE POINT1 = "Lage des 1. Markierungspunkts" . . . POINTn = "Lage des n. Markierungspunkts"/>
    <FADE TIME = "Überblendzeit" MODE = "Überblendmodus">
    <COMMENT>Kommentare und Bemerkungen zum Audiostück>
    <IMAGE FILE = "Kennung einer Bilddatei als zusätzliche Kommentarmöglichkeit"/>
    <REFERENCE URL = "Kennung für weiterführende Informationen zur Audioquelle"/>
    </COMMENT>
    </ENTRY>
    . . .
    <ENTRY . . .>
    . . .
    </ENTRY>
    </PLAYLIST>
    </MJL>
  • Mögliche Voreinstellungen bzw. Steuerdaten zur automatischen Erzeugung von Scratch-Effekten wie im vorangehenden beschrieben, werden im folgenden beschrieben.
  • Hierbei handelt es sich um eine Reihe von Bedienelementen, mit welchen alle Parameter des Scratches im Vorfeld eingestellt werden können. Hierzu gehört:
    • - Scratch Art (Full-Stop, Back & For, Back-Spin, u. v. m.)
    • - Scratch Dauer (1, 2, . . . beats - auch Druckdauer-Abhängig s. u.)
    • - Scratch Geschwindigkeit (Spitzengeschwindigkeit)
    • - Beschleunigungsdauer a (Dauer einer Geschwindigkeitsänderung von +/-1)
    • - Scratch Frequenz (Wiederholungen pro beat bei rhythmischen Scratches)
    • - Gate Frequenz (Wiederholungen pro beat)
    • - Gate Shape (Verhältnis von "An"- zu "Aus"-Phase)
    • - Gate Offset (Versatz des Gate relativ zum Takt)
    • - Gate Routing (Zuweisung des Gates auf andere Effekt- Parameter).
  • Dies sind nur einige von vielen denkbaren Parametern, die je nach Art eines realisierten Scratch-Effektes anfallen.
  • Der eigentliche Scratch wird nach erfolgter Voreinstellung durch einen zentralen Button/Steuerelement ausgelöst und entwickelt sich von diesem Punkt an automatisch. Der Benutzer braucht den Scratch lediglich durch den Moment, in welchem er die Taste drückt (Auswahl des gescratchten Audio-Samples) und durch die Dauer, des Tastendruckes (Auswahl der Scratch- Länge) beeinflussen.
  • Die Steuerinformationsdaten, referenziert durch die Liste von Audiostücken, werden vorzugsweise im Binärformat gespeichert. Der prinzipielle Aufbau der abgespeicherten Steuerinformationen in einer Datei lässt sich beispielhaft wie folgt beschreiben:


  • Mit [Kennung des Controllers] ist ein Wert bezeichnet, der ein Steuerglied (z. B. Lautstärke, Geschwindigkeit, Position, Abspielrichtung etc.) des interaktiven Musik-Abspielers identifiziert. Solchen Steuergliedern können mehrere Unterkanäle [Controller Kanal], z. B. Nummer des Abspielmoduls, zugeordnet sein. Ein eindeutiger Steuerpunkt M wird durch [Kennung des Controllers], [Controller Kanal] adressiert.
  • Als Resultat entsteht eine digitale Aufzeichnung des Mischvorgangs oder des Scratch-Vorgangs, der gespeichert, nichtdestruktiv im Bezug auf das Audiomaterial reproduziert, vervielfältigt und übertragen werden kann, z. B. über das Internet.
  • Eine vorteilhafte Ausführung mit solchen Steuerdateien stellt ein Datenträger D dar, wie dieser anhand von Fig. 9 veranschaulicht ist. Dieser weist eine Kombination einer normalen Audio-CD mit digitalen Audiodaten AUDIO_DATA eines ersten Datenbereichs D1 mit einem auf einem weiteren Datenteil D2 der CD untergebrachten Programm PRG_DATA zum Abspielen solcher ebenfalls vorhandener Mixdateien oder Scratch-Effekt Dateien MIX_DATA auf, die unmittelbar auf die auf der CD abgelegten Audio-Daten AUDIO_DATA zugreifen. Dabei muss die Abspiel- bzw. Mix-Applikation PRG_DATA nicht zwingend Bestandteil eines solchen Datenträgers sein. Auch eine Kombination aus einem ersten Datenbereich D1 mit digitalen Audioinformationen AUDIO_DATA und einem zweiten Datenbereich mit einer oder mehreren Dateien mit den genannten digitalen Steuerdaten MIX_DATA ist vorteilhaft, denn ein solcher Datenträger beinhaltet in Verbindung mit einem Musik-Abspieler der Erfindung alle erforderlichen Informationen zur Reproduktion eines zu einem früheren Zeitpunkt erstellten neuen Gesamtwerkes aus den vorhandenen digitalen Audioquellen.
  • Besonders vorteilhaft jedoch lässt sich die Erfindung auf einem geeignet programmierten digitalen Computer mit entsprechenden Audio-Schnittstellen realisieren, indem ein Softwareprogramm die im vorangehenden dargestellten Verfahrensschritte auf dem Computersystem durchführt (z. B. die Abspiel- bzw. Mix-Applikation PRG_DATA).
  • Alle in der vorstehenden Beschreibung erwähnten bzw. in den Figuren dargestellten Merkmale sollen, sofern der bekannte Stand der Technik dies zulässt, für sich allein oder in Kombination als unter die Erfindung fallend angesehen werden.
  • Weitere Informationen, Weiterbildungsmöglichkeiten und Details ergeben sich in Verbindung mit der Offenbarung der deutschen Patentanmeldung des Anmelders mit dem Aktenzeichen 101 01 473.2-51, deren Inhalt hiermit durch Bezugnahme eingeschlossen wird.
  • Die vorangehende Beschreibung bevorzugter Ausführungsformen nach der Erfindung ist zum Zwecke der Veranschaulichung angegeben. Diese Ausführungsbeispiele sind nicht erschöpfend. Auch ist die Erfindung nicht auf die genaue angegebene Form beschränkt, sondern es sind zahlreiche Modifikationen und Änderungen im Rahmen der vorstehend angegebenen technischen Lehre möglich. Eine bevorzugte Ausführungsform wurde gewählt und beschrieben, um die prinzipiellen Details der Erfindung und praktische Anwendungen zu verdeutlichen, um den Fachmann in die Lage zu versetzen, die Erfindung zu realisieren. Eine Vielzahl bevorzugter Ausführungsformen sowie weitere Modifikationen kommen bei speziellen Anwendungsgebieten in Betracht. Bezugszeichenliste beat Dauer einer Viertelnote eines gegenwärtigen Tracks
    ab Dauer des Abbrems- und Beschleunigungsvorgangs
    c Stillstandsphase
    SAMPLE Abspielposition des Audiosignals
    t Zeit
    v Geschwindigkeit
    x Weg
    T Gesamtdauer eines Scratches
    rü Rückwärtslaufphase
    vo Vorwärtslaufphase
    RATE Frequenz eines Gate-Vorgangs
    SHAPE Verhältnis von "An"- zu "Aus"-Phase
    OFFSET Phasen-Verschiebung, relativ zum Referenztakt
    Ei Events eines Audiodatenstroms
    Ti Zeitintervalle
    F1, F2 Frequenzbänder
    BD1, BD2 Detektoren für rhythmusrelevante Informationen
    BPM_REF Referenz-Zeitintervall
    BPM_C1, BPM_C2 Verarbeitungseinheiten zur Tempoerkennung
    T1i ungruppierte Zeitintervalle
    T2i Paare von Zeitintervallen
    T3i Dreiergruppen von Zeitintervallen
    OKT Zeit-Oktavierungseinheiten
    T1io . . . T3io Zeit-oktavierte Zeitintervalle
    CHK Konsistenzprüfung
    BPM1, BPM2 unabhängige Ströme von Tempowerten bpm
    STAT Statistische Auswertung der Tempowerte
    N Häufungspunkte
    A, bpm näherungsweise ermitteltes Tempo eines Musikstückes
    P näherungsweise ermittelte Phase eines Musikstückes
    1 . . . 6 Verfahrensschritte
    MCLK Referenz-Oszillator/Master-Clock
    V Komparator
    + Phasenübereinstimmung
    - Phasenverschiebung
    q Korrekturwert
    bpm_neu resultierender neuer Tempowert A
    RESET Neustart bei Tempoänderung
    CD-ROM Audiodatenquelle/CD-Rom-Laufwerk
    S zentrale Instanz/Scheduler
    TR1 . . . TRn Audiodatentracks
    P1 . . . Pn Pufferspeicher
    A1 . . . An aktuelle Abspielpositionen
    S1 . . . Sn Anfänge der Daten
    R1, R2 Regler/Steuerelemente
    LP Tiefpaß-Filter
    DIFF Differenzierer
    SW1 Schalter
    IN1, IN2 erster und zweiter Eingang
    a erster Betriebsmodus
    b zweiter Betriebsmodus
    SL Mittel zur Rampenglättung/Slew Limiter
    PLAY Abspieleinheit
    DEC Decoder
    B Pufferspeicher
    R Ausleseeinheit mit variablem Tempo
    PEF Pre-Emphase-Filter/Vorverzerrungs-Filter
    DEF De-Emphase-Filter/Rückentzerrungs-Filter
    AUDIO_OUT Audio-Ausgabe
    D Tonträger/Datenträger
    D1, D2 Datenbereiche
    AUDIO_DATA digitale Audiodaten
    MIX_DATA digitale Steuerdaten
    PRG_DATA Computerprogrammdaten

Claims (40)

1. Verfahren zur elektrischen Klangerzeugung, bei dem als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audiosignal (Sample) dient, welches anhand von Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen (beat) in Abhängigkeit einer musikalischen Tempoinformation in seiner Wiedergabeposition und/oder der Wiedergabe-Richtung und/oder der Wiedergabe-Geschwindigkeit moduliert wird.
2. Verfahren zur elektrischen Klangerzeugung nach Anspruch 1, dadurch gekennzeichnet, dass auch die Wiedergabe-Lautstärke und/oder Klangcharakteristik rhythmusbezogen (beat) in Abhängigkeit der musikalischen Tempoinformation moduliert wird.
3. Verfahren zur elektrischen Klangerzeugung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als musikalische Tempoinformation das ermittelte Tempo des verwendeten Audiomaterials (Sample) dient.
4. Verfahren zur elektrischen Klangerzeugung nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass als musikalische Tempoinformation ein externes Referenz-Tempo dient.
5. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass die Steuerinformationen eine Art, eine Dauer und eine Geschwindigkeit der Modulation des Audiosignals umfassen.
6. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, dass die Steuerinformationen Bewegungsabläufe einer Schallplatte auf einem Plattenteller eines Schallplattenspielers repräsentieren und die automatische Modulation des Audiosignals derart erfolgt, dass ein musikalischer sogenannter Scratch- Effekt resultiert.
7. Verfahren zur elektrischen Klangerzeugung nach Anspruch 6, dadurch gekennzeichnet, dass zur Generierung von Steuerinformationen Bewegungsabläufe einer Schallplatte bei einem manuellen Scratch als zeitdiskrete Werte aufgezeichnet werden.
8. Verfahren zur elektrischen Klangerzeugung nach Anspruch 6, dadurch gekennzeichnet, dass zur Generierung von Steuerinformationen virtuelle Bewegungsabläufe einer Schallplatte für einen Scratch-Effekt in Form von zeitdiskreten Werten in einer vorgebbaren Auflösung konstruiert werden, insbesondere mittels einer graphischen Editierung.
9. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche 5 bis 8, dadurch gekennzeichnet, dass die Steuerinformationen bezüglich der Art, Dauer und Geschwindigkeit der Modulation des Audiosignals die Art, Dauer und Geschwindigkeit eines Bewegungsablaufs einer Schallplatte für einen Scratch-Effekt repräsentieren.
10. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche 5 bis 9, dadurch gekennzeichnet, dass auch eine Beschleunigungsdauer (a) eines Bewegungsablaufs einer Schallplatte für einen Scratch-Effekt als zeitdiskreter Steuerwert ermittelt und zur Modulation des Audiosignals vorgegeben wird, wobei der Beschleunigungswert selbst modulierbar ist.
11. Verfahren zur elektrischen Klangerzeugung nach Anspruch 10, dadurch gekennzeichnet, dass als Steuerwert für die Beschleunigung eine konstante Beschleunigung angenommen wird.
12. Verfahren zur elektrischen Klangerzeugung nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass zur Erzeugung eines Steuerwertes für die Beschleunigung für einen Bewegungsablauf eines Scratch-Effekts ein Abbremsen und Beschleunigen der Schallplatte mit derselben Beschleunigung angenommen wird.
13. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass anhand von weiteren Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen (beat) in Abhängigkeit der musikalischen Tempoinformation ein abschnittweises Hervorheben bestimmter Passagen des Audiosignals (Sample) oder des Bewegungsablaufs erfolgt, insbesondere indem ein entsprechendes rhythmisches Hervorheben durch Manipulation der Lautstärke oder der Klangcharakteristik erfolgt.
14. Verfahren zur elektrischen Klangerzeugung nach Anspruch 13, dadurch gekennzeichnet, dass die weiteren Steuerinformationen ein Verhältnis von Aktivierungs- zu Unterdrückungsphasen der Hervorhebungen und/oder einen Versatz relativ zu einer Taktinformation und/oder eine Anzahl von Wiederholungen der Hervorhebungen umfassen.
15. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass zur Ermittlung einer musikalischen Tempoinformation eine Erkennung von Tempo und Phase einer in digitalem Format vorliegenden Musikinformation, insbesondere des Audiosignals (Sample), nach den folgenden Verfahrensschritten erfolgt:
näherungsweise Ermittlung des Tempos (A) der Musikinformation durch eine statistische Auswertung (STAT) der zeitlichen Abstände (Ti) rhythmusrelevanter Beat-Informationen in den digitalen Audiodaten (Ei),
näherungsweise Ermittlung der Phase (P) des Musikstückes anhand der Lage der Takte in den digitalen Audiodaten im Zeitraster eines mit einer dem ermittelten Tempo proportionalen Frequenz schwingenden Referenz-Oszillators (MCLK),
sukzessive Korrektur von ermitteltem Tempo (A) und Phase (P) der Musikinformation anhand einer möglichen Phasenverschiebung des Referenz-Oszillators (MCLK) relativ zu den digitalen Audiodaten durch Auswertung der resultierenden systematischen Phasenverschiebung und Regulierung der Frequenz des Referenz-Oszillators proportional der ermittelten Phasenverschiebung.
16. Verfahren zur elektrischen Klangerzeugung nach Anspruch 15, dadurch gekennzeichnet, dass rhythmusrelevante Beat-Informationen (Ti) durch Bandpassfilterung (F1, F2) der zugrunde liegenden digitalen Audiodaten in verschiedenen Frequenzbereichen gewonnen werden.
17. Verfahren zur elektrischen Klangerzeugung nach Anspruch 15 oder 16, dadurch gekennzeichnet, dass Rhythmusintervalle der Audiodaten im Bedarfsfall durch Multiplikation ihrer Frequenz mit 2er-Potenzen in eine vordefinierte Frequenz-Oktave transformiert (OKT) werden, wo diese Zeitintervalle (T1io . . . T3io) zur Tempoermittlung liefern.
18. Verfahren zur elektrischen Klangerzeugung nach Anspruch 17, dadurch gekennzeichnet, dass der Frequenz-Transformation (OKT) eine Gruppierung von Rhythmusintervallen (Ti), insbesondere in Paare (T2i) oder Dreiergruppen (T3i), durch Addition ihrer Zeitwerte vorausgeht.
19. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 16 bis 18, dadurch gekennzeichnet, dass die gewonnene Menge an Daten von Zeitintervallen (BPM1, BPM2) der rhythmusrelevanten Beat-Informationen auf Häufungspunkte (N) untersucht wird und die näherungsweise Tempoermittlung anhand der Informationen eines Häufungsmaximums erfolgt.
20. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 15 bis 19, dadurch gekennzeichnet, dass zur näherungsweisen Ermittlung der Phase (P) des Musikstückes die Phase des Referenz-Oszillators (MCLK) derart gewählt wird, dass sich die größtmögliche Übereinstimmung zwischen den rhythmusrelevanten Beat-Informationen in den digitalen Audiodaten und den Nulldurchgängen des Referenz-Oszillators (MCLK) einstellt.
21. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 15 bis 20, dadurch gekennzeichnet, dass eine sukzessive Korrektur (2, 3, 4, 5) von ermitteltem Tempo und Phase des Musikstückes in regelmäßigen Abständen in so kurzen Zeitintervallen erfolgt, dass resultierende Korrekturbewegungen und/oder Korrekturverschiebungen unterhalb der Hörbarkeitsgrenze bleiben.
22. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 15 bis 21, dadurch gekennzeichnet, dass alle sukzessiven Korrekturen von ermitteltem Tempo und Phase des Musikstückes über die Zeit akkumuliert (4) werden und darauf aufbauend weitere Korrekturen mit stetig steigender Präzision erfolgen.
23. Verfahren zur elektrischen Klangerzeugung nach Anspruch 22, dadurch gekennzeichnet, dass sukzessive Korrekturen solange erfolgen, bis ein vorgegebener tolerierbarer Fehlergrenzwert unterschritten wird, insbesondere bis für das ermittelte Tempo ein Fehlergrenzwert kleiner als 0,1% unterschritten wird.
24. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 15 bis 23, dadurch gekennzeichnet, dass für den Fall, dass die Korrekturen über einen vorgebbaren Zeitraum hinweg immer jeweils negativ oder positiv sind (6), eine erneute (RESET) näherungsweise Ermittlung von Tempo (A) und Phase (P) mit anschließender sukzessiver Korrektur (2, 3, 4, 5) erfolgt.
25. Interaktiver Musik-Abspieler, der
ein Mittel zur graphischen Darstellung von mit einer Tempo- und Phasenerkennungsfunktion, insbesondere einer solchen nach einem der Ansprüche 15 bis 24, bestimmten Taktgrenzen eines in der Wiedergabe befindlichen Musikstückes in Echtzeit,
ein erstes Steuerelement (R1) zum Wechsel zwischen einem ersten Betriebsmodus (a), in dem das Musikstück mit einem konstanten Tempo abgespielt wird, und einem zweiten Betriebsmodus (b), in dem die Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit beeinflussbar ist,
ein zweites Steuerelement zur Vorgabe von Steuerinformationen, insbesondere von nach einem der Ansprüche 6 bis 12 bestimmten Steuerinformationen, zur Manipulation von Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit und
ein drittes Steuerelement zum Auslösen der mit dem zweiten Steuerelement vorgegebenen automatischen Manipulation der Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit
umfasst.
26. Interaktiver Musik-Abspieler nach Anspruch 25, mit
einem Mittel zur graphischen Darstellung der aktuellen Abspielposition, mit dem eine Amplitudenhüllkurve der Klangwellenform des wiedergegebenen Musikstückes über einen vorgebbaren Zeitraum vor und nach der aktuellen Abspielposition darstellbar ist, wobei sich die Darstellung in Echtzeit mit dem Tempo der Wiedergabe des Musikstückes verschiebt, und mit
einem Mittel zur Glättung (LP, SL) eines stufigen Verlaufs zeitlich begrenzter, mit dem zweiten Steuerelement (R2) vorgegebener Abspiel-Positionsdaten zu einem sich gleichmäßig mit einer der Audio-Abtastrate entsprechenden zeitlichen Auflösung ändernden Signal.
27. Interaktiver Musik-Abspieler nach Anspruch 26, wobei zur Glättung eines stufigen Verlaufs zeitlich begrenzter Abspiel- Positionsdaten ein Mittel zur Rampenglättung (SL) vorgesehen ist, durch das mit jeder vorgegebenen Abspiel-Positionsnachricht eine Rampe mit konstanter Steigung auslösbar ist, die in einem vorgebbaren Zeitintervall das geglättete Signal von seinem bisherigen Wert auf den Wert der Abspiel-Positionsnachricht fährt.
28. Interaktiver Musik-Abspieler nach Anspruch 26, wobei ein lineares digitales Tiefpaß-Filter (LP), insbesondere ein Resonanzfilter zweiter Ordnung, zur Glättung eines stufigen Verlaufs zeitlich begrenzter vorgegebener Abspiel-Positionsdaten dient.
29. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 25 bis 28, wobei im Fall eines Wechsels zwischen den Betriebsmodi (a, b) die im vorhergehenden Modus erreichte Position als Ausgangsposition im neuen Modus dient.
30. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 25 bis 29, wobei im Fall eines Wechsels zwischen den Betriebsmodi (a, b) die im vorhergehenden Modus erreichte aktuelle Abspielgeschwindigkeit (DIFF) durch eine Glättungsfunktion, insbesondere eine Rampenglättung (SL) oder ein lineares digitales Tiefpaß-Filter (LP), auf die dem neuen Betriebsmodus entsprechende Abspielgeschwindigkeit führbar ist.
31. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 25 bis 30, wobei ein Audiosignal ein Scratch-Audio- Filter durchläuft, indem das Audiosignal einer Pre-Emphase- Filterung (PEF) unterzogen und in einem Pufferspeicher (B) abgelegt wird, aus dem es in Abhängigkeit von der jeweiligen Abspielgeschwindigkeit mit variablem Tempo auslesbar (R) ist, um anschließend einer De-Emphase-Filterung (DEF) unterzogen und wiedergegeben zu werden.
32. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 25 bis 31, wobei jeder wiedergegebene Audiodatenstrom durch Signalverarbeitungsmittel in Echtzeit manipulierbar ist, insbesondere durch Filtereinrichtungen und/oder Audioeffekte.
33. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 25 bis 32, wobei Echtzeiteingriffe über den zeitlichen Ablauf als digitale Steuerinformationen (MIX_DATA) speicherbar sind, insbesondere solche eines manuellen Scratch- Eingriffs mit einem separaten Steuerelement (R2) und/oder zusätzliche Signalverarbeitungen.
34. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 32 oder 33, wobei gespeicherte digitale Steuerinformationen ein Format aufweisen, das Informationen zur Identifikation der verarbeiteten Musikstücke und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpositionen und Zustandsinformationen der Stellglieder des Musik- Abspielers umfasst.
35. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 25 bis 34, der durch ein geeignet programmiertes mit Audioschnittstellen ausgestattetes Computersystem realisiert ist.
36. Computerprogrammprodukt, das direkt in den internen Speicher eines digitalen Computers geladen werden kann und Softwareabschnitte umfasst, mit denen die Verfahrensschritte gemäß einem der Ansprüche 1 bis 24 ausgeführt werden, wenn das Programmprodukt auf einem Computer ausgeführt wird.
37. Datenträger (D), insbesondere Compact Disc, der
einen ersten Datenbereich (D1) mit digitalen Audiodaten (AUDIO_DATA) eines oder mehrerer Musikstücke (TR1 . . . TRn) und
einen zweiten Datenbereich (D2) mit einer Steuerdatei (MIX_DATA) mit digitalen Steuerinformationen zur Ansteuerung eines Musik-Abspielers umfasst, insbesondere eines solchen nach einem der Ansprüche 25 bis 35, wobei
die Steuerdaten (MIX_DATA) des zweiten Datenbereichs (D2) auf Audiodaten (AUDIO_DATA) des ersten Datenbereichs (D1) Bezug nehmen.
38. Datenträger (D) nach Anspruch 37, wobei die digitalen Steuerinformationen (MIX_DATA) des zweiten Datenbereichs (D2) interaktive Aufzeichnungen von manuellen Scratch-Eingriffen und/oder Startpunkte und Art automatischer Scratch-Eingriffe in Musikstücke als ein neues Gesamtwerk der digitalen Audioinformationen (AUDIO_DATA) von Musikstücken des ersten Datenbereichs (D1) repräsentieren.
39. Datenträger (D) nach Anspruch 37 oder 38, wobei gespeicherte digitale Steuerinformationen (MIX_DATA) des zweiten Datenbereichs (D2) ein Format aufweisen, das Informationen zur Identifikation der verarbeiteten Musikstücke (TR1 . . . TRn) des ersten Datenbereichs (D1) und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpositionen und Zustandsinformationen der Stellglieder des Musik-Abspielers umfasst.
40. Computerprogrammprodukt (PRG_DATA), das auf einem Datenträger (D) nach einem der Ansprüche 37 bis 39 angeordnet ist und direkt in den internen Speicher eines digitalen Computers geladen werden kann und Softwareabschnitte umfasst, mit denen dieser digitale Computer die Funktion eines Musik-Abspielers übernimmt, insbesondere eines solchen nach einem der Ansprüche 25 bis 35, mit dem entsprechend den Steuerdaten (MIX_DATA) des zweiten Datenbereichs (D2) des Datenträgers (D), die auf Audiodaten (AUDIO_DATA) des ersten Datenbereichs (D1) des Datenträgers (D) verweisen, ein durch die Steuerdaten (MIX_DATA) repräsentiertes Gesamtwerk abspielbar ist, wenn das Programmprodukt (PRG_DATA) auf einem Computer ausgeführt wird.
DE10153673A 2001-06-18 2001-09-05 Automatische Erzeugung von musikalischen Scratch-Effekten Expired - Lifetime DE10153673B4 (de)

Priority Applications (6)

Application Number Priority Date Filing Date Title
DE10153673A DE10153673B4 (de) 2001-06-18 2001-09-05 Automatische Erzeugung von musikalischen Scratch-Effekten
US10/481,391 US7041892B2 (en) 2001-06-18 2002-06-18 Automatic generation of musical scratching effects
AT02754699T ATE409337T1 (de) 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch- effekten
DE50212811T DE50212811D1 (de) 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch-effekten
PCT/EP2002/006708 WO2002103671A2 (de) 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch-effekten
EP02754699A EP1415297B1 (de) 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch-effekten

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE10129301 2001-06-18
DE10129301.1 2001-06-18
DE10153673A DE10153673B4 (de) 2001-06-18 2001-09-05 Automatische Erzeugung von musikalischen Scratch-Effekten

Publications (2)

Publication Number Publication Date
DE10153673A1 true DE10153673A1 (de) 2003-01-02
DE10153673B4 DE10153673B4 (de) 2005-04-07

Family

ID=7688545

Family Applications (2)

Application Number Title Priority Date Filing Date
DE10153673A Expired - Lifetime DE10153673B4 (de) 2001-06-18 2001-09-05 Automatische Erzeugung von musikalischen Scratch-Effekten
DE50212811T Expired - Fee Related DE50212811D1 (de) 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch-effekten

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE50212811T Expired - Fee Related DE50212811D1 (de) 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch-effekten

Country Status (2)

Country Link
AT (1) ATE409337T1 (de)
DE (2) DE10153673B4 (de)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997001168A1 (en) * 1995-06-20 1997-01-09 Rickli Andre Digital processing device for audio signal
WO1997015043A1 (en) * 1995-10-16 1997-04-24 Harmonix Music Systems, Inc. Real-time music creation system
US6011212A (en) * 1995-10-16 2000-01-04 Harmonix Music Systems, Inc. Real-time music creation
US20010017832A1 (en) * 2000-02-25 2001-08-30 Teac Corporation Recording medium reproducing device having tempo control function, key control function and key display function reflecting key change according to tempo change
US20010017829A1 (en) * 2000-02-25 2001-08-30 Teac Corporation Recording medium reproduction apparatus

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997001168A1 (en) * 1995-06-20 1997-01-09 Rickli Andre Digital processing device for audio signal
WO1997015043A1 (en) * 1995-10-16 1997-04-24 Harmonix Music Systems, Inc. Real-time music creation system
US5627335A (en) * 1995-10-16 1997-05-06 Harmonix Music Systems, Inc. Real-time music creation system
US5763804A (en) * 1995-10-16 1998-06-09 Harmonix Music Systems, Inc. Real-time music creation
US6011212A (en) * 1995-10-16 2000-01-04 Harmonix Music Systems, Inc. Real-time music creation
US20010017832A1 (en) * 2000-02-25 2001-08-30 Teac Corporation Recording medium reproducing device having tempo control function, key control function and key display function reflecting key change according to tempo change
US20010017829A1 (en) * 2000-02-25 2001-08-30 Teac Corporation Recording medium reproduction apparatus

Also Published As

Publication number Publication date
DE10153673B4 (de) 2005-04-07
DE50212811D1 (de) 2008-11-06
ATE409337T1 (de) 2008-10-15

Similar Documents

Publication Publication Date Title
DE10164686B4 (de) Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
EP1415297B1 (de) Automatische erzeugung von musikalischen sratch-effekten
DE69623318T2 (de) Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken
DE69720706T2 (de) Interaktives system zur synchronisierung und zum simultanen spielen von vorbestimmten musiksequenzen
DE69823947T2 (de) Verfahren, Vorrichtung und Aufzeichnungsmedium zur Erzeugung von Tondaten
DE69625693T2 (de) Verfahren und vorrichtung zur formatierung von digitalen, elektrischen daten
DE202020005830U1 (de) Vorrichtung zum Zerlegen, Rekombinieren und Abspielen von Audiodaten
DE69922284T2 (de) Vorrichtung und Verfahren zur Wiedergabe von Musik zusammen mit Taktschlaginformation
DE102007034774A1 (de) Vorrichtung zur Bestimmung von Akkordnamen und Programm zur Bestimmung von Akkordnamen
DE60024157T2 (de) Vorrichtung und Verfahren zur Eingabe eines Vortragstils
DE19714688C2 (de) Verfahren zur Reproduzierung von Audiosignalen und Audioabspielgerät
DE202014100553U1 (de) Gerät zur Wiedergabesteuerung von digitalen Multimediadaten sowieein entsprechendes computerlesbares Speichermedium
DE19843702A1 (de) Editieren digitalisierter Audio/Videodaten über ein Netzwerk
DE69632695T2 (de) Verfahren und Vorrichtung zur Musiktonerzeugung
DE60033098T2 (de) Verfahren und Vorrichtung zur Aufnahme/Wiedergabe oder Erzeugung von Wellenformen mittels Zeitlageinformation
DE602004007428T2 (de) Spielgerät und Speichermedium mit darauf gespeichertem Spielprogramm
DE69732797T2 (de) Verfahren und vorrichtung zur speicherung von tonfolgen in cyclischen schleifen
DE10101473B4 (de) Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
DE60032844T2 (de) Verfahren und Vorrichtung zur Erzeugung einer Wellenform auf einem Auslegungsstildatenstrom basiert
DE10153673B4 (de) Automatische Erzeugung von musikalischen Scratch-Effekten
DE60032085T2 (de) Verfahren und Vorrichtung zur Erzeugung einer Wellenform mit verbessertem Übergang zwischen aufeinandervolgenden Dateimodulen
DE3905623C2 (de) Vorrichtung zum Editieren von PCM-Signalen
DE4190031B4 (de) Datenverdichtung von ausschwingenden Musikinstrumententönen für ein digitales Abtastungssystem
DE4128327C2 (de) Verfahren zur Tonnachbearbeitung und Vorrichtung zur Durchführung des Verfahrens
DE112019006852T5 (de) Datenverarbeitungsvorrichtung, datenverarbeitungsverfahren und datenverarbeitungsprogramm

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8364 No opposition during term of opposition
R071 Expiry of right