EP1415297B1 - Automatische erzeugung von musikalischen sratch-effekten - Google Patents

Automatische erzeugung von musikalischen sratch-effekten Download PDF

Info

Publication number
EP1415297B1
EP1415297B1 EP02754699A EP02754699A EP1415297B1 EP 1415297 B1 EP1415297 B1 EP 1415297B1 EP 02754699 A EP02754699 A EP 02754699A EP 02754699 A EP02754699 A EP 02754699A EP 1415297 B1 EP1415297 B1 EP 1415297B1
Authority
EP
European Patent Office
Prior art keywords
tempo
audio
data
information
time
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
EP02754699A
Other languages
English (en)
French (fr)
Other versions
EP1415297A2 (de
Inventor
Friedemann Becker
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Native Instruments Software Synthesis GmbH
Original Assignee
Native Instruments Software Synthesis GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from DE10153673A external-priority patent/DE10153673B4/de
Application filed by Native Instruments Software Synthesis GmbH filed Critical Native Instruments Software Synthesis GmbH
Publication of EP1415297A2 publication Critical patent/EP1415297A2/de
Application granted granted Critical
Publication of EP1415297B1 publication Critical patent/EP1415297B1/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0091Means for obtaining special acoustic effects
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/40Rhythm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/155Musical effects
    • G10H2210/195Modulation effects, i.e. smooth non-discontinuous variations over a time interval, e.g. within a note, melody or musical transition, of any sound parameter, e.g. amplitude, pitch, spectral response, playback speed
    • G10H2210/241Scratch effects, i.e. emulating playback velocity or pitch manipulation effects normally obtained by a disc-jockey manually rotating a LP record forward and backward
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/375Tempo or beat alterations; Music timing control
    • G10H2210/385Speed change, i.e. variations from preestablished tempo, tempo change, e.g. faster or slower, accelerando or ritardando, without change in pitch
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/061MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression

Definitions

  • the invention relates to a method for electrical sound generation and an interactive music player, in which the starting material is a predefined time duration lasting, present in digital format audio signal.
  • DJ mixing consoles that have sample units with which parts of the audio signal can be reused as a loop or as a one-shot sample.
  • CD players that allow scratching on a CD using a large jog wheel.
  • MP3 is a compression method for digital audio data according to the MPEG standard (MPEG 1 Layer 3).
  • the method is asymmetric, i. the coding is much more complicated than the decoding. It is also a lossy process.
  • the present invention now makes possible the aforementioned creative handling of music on any digital formats by a suitable interactive music player who makes use of the new possibilities created by the inventive measures described above.
  • musically relevant times in particular the beats
  • the later 7 and FIG. 8
  • the mode a) corresponds to a vinyl record that you do not touch and whose speed is equal to the turntable.
  • the mode b), however, corresponds to a vinyl record, which one holds by hand and pushes back and forth.
  • the playback speed in mode a) is further influenced by the automatic control for synchronizing the clock of the music being played to another clock (cf. 7 and FIG. 8 ).
  • the other clock may be synthetically generated or given by another concurrently playing music.
  • a further hardware control element R2 is provided with which, in operating mode b), one determines the disk position as it were. This can be a continuous controller or the computer mouse.
  • FIG. 5 shows a block diagram of such an arrangement with the explained below signal processing means, with which an interactive music player according to the invention is created with possibility of intervention in a current play position.
  • the position data given with this further control R2 usually has a limited temporal resolution, i. A message will be sent only at regular or irregular intervals to convey the current position. However, the play position of the stored audio signal should change smoothly, with a temporal resolution corresponding to the audio sample rate. Therefore, at this point, the invention uses a smoothing function which generates a high-resolution, uniformly changing signal from the step signal given by the control element R2.
  • the block diagram after FIG. 5 illustrates the in an advantageous embodiment in the form of a schematic diagram.
  • the control element R1 (here a button) serves to change the operating modes a) and b) by triggering a switch SW1.
  • the controller R2 (here a continuous slider) supplies the position information with temporally limited resolution. This serves as a low-pass filter LP for smoothing as an input signal.
  • the smoothed position signal is now differentiated (DIFF) and provides the playback speed.
  • the switch SW1 is driven with this signal at a first input IN1 (mode b).
  • the other input is IN2 with a tempo value A, as in 7 and FIG. 8 described can be determined, applied (mode a).
  • the control element R1 is used to change between the input signals.
  • control information described above for the automatic manipulation of playback position and / or playback direction and / or playback speed can be specified.
  • Another control is then used to trigger the predetermined with the third control automatic manipulation of the playback position and / or playback direction and / or playback speed.
  • the automated scratch module now uses the above based on FIG. 5 described so-called scratch algorithm.
  • the method described above requires only one parameter, namely the position of the hand with which the virtual record moves becomes (see appropriate control), and calculates therefrom by means of two smoothing procedures the current play position in the audio sample.
  • the use of these smoothing methods is not of theoretical necessity but of technical. Without its use, it would be necessary for the unaltered playback to perform the calculation of the current playhead position in the audio rate (44kHz), which would require a significant increase in computational power. Thanks to the algorithm, the playback position can be calculated at a much lower rate (eg 344 Hz).
  • This scratch is an effect that stops the record (either by hand or by turning on the record player's Stop button). After a certain time, the record will be released, or the engine will be switched on again. After the record has returned to its original rotational speed, it must again be in time with the "well-thought-out” measure before the scratch or again in time with a second, untouched during the full-stop, reference clock.
  • the representation according to FIG. 1 shows a time-space diagram of all mutually synchronous or in time with each other play variants of a normal speed reproduced track.
  • the duration of a quarter note of a current track is called beat.
  • This scratch is to move the virtual record forward and backward in one tempo-sync mode and to be back in time with the original or reference clock when the scratches are finished.
  • a scratch receives its diversity through additional rhythmic highlighting of certain passages of the motion sequence by means of volume or EQ / Filter (sound characteristic) manipulations. For example, in a BACK AND FOR Scratch only the reverse phase can be made audible and the forward phase can be hidden.
  • This process has also been automated in the present process by the tempo information extracted from the audio material (cf. 7 and FIG. 8 ) is used to rhythmically control these parameters.
  • FIG. 4 is a simple 3-fold BACK AND FOR Scratch shown. Including different volume envelopes, which result from the adjacent gate parameters. Also shown is the resulting rendering curve to illustrate how different the end result can be through the application of different gate parameters. If the BACK AND FOR Scratch is now varied in its frequency and the acceleration parameter "down" (not shown in the drawing), there are an extremely large number of possible combinations.
  • another advantageous embodiment of the interactive music player according to the invention uses a scratch audio filter for an audio signal. wherein the audio signal is subjected to pre-emphasis filtering (pre-emphasis) and stored in a buffer from which it can be read at variable tempo depending on the respective playing speed, then subjected to de-emphasis filtering and reproduced become.
  • pre-emphasis filtering pre-emphasis filtering
  • FIG. 5 Therefore, a scratch audio filter is provided for simulating the described characteristic effect.
  • the audio signal within the playback unit PLAY FIG. 5 subjected to another signal processing, like this in FIG. 6 is shown.
  • the audio signal is subjected to a corresponding pre-emphasis filtering PEF ,
  • the signal prefiltered in this way is then stored in a buffer memory B, from which it is stored in a further processing unit R depending on the operating mode a) or b), as in FIG. 5 is read out according to the output signal of SL with varying speed.
  • the read out signal is then treated with a de-emphasis filter DEF and then reproduced (AUDIO_OUT).
  • pre- and de-emphasis filters PEF and DEF which should have the same frequency response as defined in the RIAA standard
  • a second-order digital IIR filter i. with two favorably chosen poles and two favorably chosen zeros. If the poles of one filter are equal to the zeroes of the other filter, the two filters cancel each other out exactly as desired when the audio signal is played back at the original speed. In all other cases, the filters mentioned generate the characteristic sound effect during "scratching".
  • the described scratch audio filter can also be used in conjunction with any other type of music players with "scratching" function.
  • the information from the audio material requires the tempo of the track to determine the size of the "beat" variable as well as the "timing" of the gate. For example, the following is used for the audio track tempo determination method described below.
  • An object of the present invention is thus to provide a possibility for automatic tempo and phase equalization of two pieces of music or audio tracks in real time with the highest possible accuracy.
  • the first step of the procedure is a first, approximate determination of the tempo of the piece of music. This is done by a statistical evaluation of the time intervals of the so-called beat events.
  • One possibility for obtaining rhythm-relevant events from the audio material is by narrow bandpass filtering of the audio signal in different frequency ranges.
  • the beat events of the last seconds are used for the following calculations. There are 8 to 16 events in about 4 to 8 seconds.
  • the time intervals obtained in the first point are additionally grouped in pairs and triplets by adding their time values before being octaved.
  • the rhythmic structure between the bars is calculated out of the time intervals.
  • a reference oscillator is used for approximate determination of the phase. This vibrates at the previously determined pace. Its phase is advantageously chosen to give the best match between beat events of the audio and zero crossings of the oscillator.
  • FIG. 7 shows a possible technical realization of the described approximate tempo and Phsenerkennung a music data stream in real time using a block diagram.
  • the structure shown can also be referred to as a 'Beat Detector'.
  • a time of 50 ms corresponds to the duration of a 16-bit at 300 bpm, which is well below the duration of the shortest interval in which the music pieces are usually located.
  • a stream of the simple time intervals T i between the events is formed in respective processing units BD1 and BD2.
  • two further streams of the band-limited time intervals are additionally formed in identical processing units BPM_C1 and BPM_C2, namely with time intervals T 2i , the sums of two successive time intervals, and with time intervals T 3i , the sums of three in each case successive time intervals.
  • the events used may also overlap.
  • the three streams T 1i , T 2i , T 3i are now time-octaved in corresponding processing units OKT.
  • the time octave OKT is performed such that the individual time intervals of each current are doubled until they lie in a predetermined interval BPM_REF. In this way one obtains three data streams T 1io , T 2io , T 3io , ...
  • the lower limit of the interval is 0.5 * t hi .
  • Each of the three streams thus obtained is now checked for consistency for both frequency bands F1, F2 in respective further processing units CHK. This is used to determine whether a certain number of consecutive, time-octaved interval values are within a predetermined error limit. For example, the following values are checked in detail:
  • the consistency check a) takes precedence over b) and b) takes precedence over c). If a value is output at a), b) and c) are no longer examined. If no value is output at a), b) is examined, etc. If, however, neither a) nor b) nor c) finds a consistent value, the sum of the last 4 non-octave individual intervals (t 1 + t 2 + t 3 + t 4 ).
  • the value stream of consistent time intervals determined in this way from the three streams is in turn octaved in a downstream processing unit OKT into the predetermined time interval BPM_REF. Subsequently, the octaved time interval is converted into a BPM value.
  • a global measurement is performed by expanding the number of events used to 64, 128, etc. With alternating rhythm patterns, in which the tempo comes through only every fourth bar, an event number of at least 128 can often be necessary. Such a measurement is more reliable, but also takes more time.
  • the second accumulation maximum is almost always due to triplets present and may even be stronger than the first maximum.
  • the tempo of the triplets has a clearly defined relationship to the tempo of the quarter notes, so that it can be determined from the ratio of the tempi of the first two maxima, which accumulation maximum is assigned to the quarters and which to the triplets.
  • An approximate phase value P is determined from one of the two filtered simple time intervals T i between the events, preferably from those values filtered at the lower frequency F1. These are used to roughly determine the frequency of the reference oscillator.
  • FIG. 8 shows a possible block diagram for the successive correction of the detected tempo A and phase P, hereinafter referred to as 'CLOCK CONTROL'.
  • the reference oscillator or the reference clock MCLK is allowed in a first step 1 with the coarse phase values P and tempo values A from the beat detection, which is virtually a reset of the in FIG. 2 equaled control loop.
  • the time intervals between beat events of the incoming audio signal and the reference clock MCLK are determined.
  • the approximate phase values P are compared with a reference signal CLICK, which has the frequency of the reference oscillator MCLK, in a comparator V.
  • a summation of all correction events from step 3 and the time elapsed since the last "reset” takes place in separate memories (not shown).
  • the tempo value will be based on the previous tempo value of the accumulated correction events and which has been recalculated since the elapsed time in a further step 5 as follows.
  • step 3 It is also checked whether the corrections in step 3 are always negative or positive over a certain period of time. In such a case, there is probably a tempo change in the audio that can not be corrected using the above procedure. This status is detected, and upon reaching the next near perfect synchronization event (step 5), the time and correction memories are cleared in step 6 to reset the starting point in phase and tempo. After this "reset", the procedure starts again with a touchdown on step 2 to optimize the tempo.
  • a synchronization of a second piece of music is now done by adjusting its tempo and phase.
  • the adaptation of the second piece of music is done indirectly via the reference oscillator.
  • these values are successively adapted to the reference oscillator according to the above method, but this time the playback phase and the playback speed of the track itself is changed.
  • the original tempo of the track can be easily calculated backwards from the necessary change in its playback speed compared to the original playback speed.
  • the information obtained about the tempo and the phase of an audio track allows the control of so-called tempo-synchronous effects.
  • the audio signal is manipulated according to your own rhythm, which allows rhythmically effective real-time sound change.
  • the tempo information can be used to cut out loops with exact timed lengths in real time from the audio material.
  • the recording of mixing operations or a scratch process is divided into a description of the audio sources used and a timing of control information of the mixing process or scratch process and additional effect processing.
  • the actual scratch will be triggered by a central button / control after presetting and will develop automatically from this point.
  • the user only needs the scratch by the moment in which he presses the key (selection of the scratched audio sample) and by the duration of the keypress (selection of the scratch length).
  • Controller Identifier denotes a value identifying a controller (e.g., volume, speed, position, play direction, etc.) of the interactive music player.
  • controllers may have multiple subchannels [controller channel], e.g. Number of the playback module to be assigned.
  • a unique control point M is addressed by [controller identifier], [controller channel].
  • a digital record of the blending process or scratch process is created which can be stored, reproduced, duplicated and transmitted non-destructively with respect to the audio material, e.g. over the internet.
  • An advantageous embodiment with such control files is a disk D, as this is based on FIG. 9 is illustrated.
  • This has a combination of a normal audio CD with digital audio data AUDIO_DATA a first data area D1 with a stored on another data part D2 of the CD program PRG_DATA for playing such also existing mix files or scratch effect files MIX_DATA directly on the on the CD stored audio data AUDIO_DATA access.
  • the play or mix application PRG_DATA does not necessarily have to be part of such a data carrier.
  • a combination of a first data area D1 with digital audio information AUDIO DATA and a second data area with one or more files with said digital control data MIX_DATA is advantageous, since such a data carrier contains in connection with a music player of the invention, all necessary information for reproduction a new work created earlier from existing digital audio sources.
  • the invention can be implemented particularly advantageously on a suitably programmed digital computer with corresponding audio interfaces, by a software program performing the method steps described above on the computer system (for example the application PRG_DATA).

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Auxiliary Devices For Music (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur elektrischen Klangerzeugung und einen interaktiven Musikabspieler, bei dem als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audio-signal dient, welches anhand von Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen in Abhängigkeit einer musikalischen Tempoinformation in seiner Wiedergabeposition und/oder der Wiedergabe-Richtung und/oder der Wiedergabe-Geschwindigkeit moduliert wird.

Description

  • Die Erfindung betrifft ein Verfahren zur elektrischen Klangerzeugung und einen interaktiven Musikabspieler, bei dem als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audio-signal dient.
  • Der Beruf des Disk Jockeys (kurz: DJ) erfährt in der heutigen, durch moderne elektronische Musik geprägten Tanz-Kultur eine enorme technische Aufwertung. Zum Handwerk dieses Berufes gehört das Arrangieren der Musiktitel zu einem Gesamtwerk (dem Set, dem Mix) mit einem eigenen Spannungsbogen.
  • Im Vinyl-DJ-Bereich hat sich die Technik des Scratchens weitreichend etabliert. Es handelt sich dabei um eine Technik, bei der durch kombinierte Bewegung des Schallplatte mit der Hand und eines der Lautstärkeregler am Mischpult (sogenannter Fader) das Tonmaterial auf der Schallplatte zur rhythmischen Klangerzeugung genutzt wird. Große Meister des Scratchens tun dies auf zwei oder sogar drei Plattenspielern gleichzeitig, was die Fingerfertigkeit eines guten Schlagzeugers oder Pianospielers verlangt.
  • Zunehmend stoßen auch Hardware-Hersteller mit Effekt-Mischpulten in den Echtzeit-Effekt-Bereich vor. Es gibt auch schon DJ-Mischpulte, die Sample-Einheiten besitzen, mit welchen Teile des Audiosignals als Loop oder als One-Shot-Sample weiterverwendet werden können. Es gibt auch CD-Player, die mittels eines großen Jog-Wheels das Scratchen auf einer CD ermöglichen.
  • Es ist jedoch kein Gerät oder Verfahren bekannt, mit dem sowohl die Abspielposition eines digitalen Audiosignals, als auch der Lautstärkeverlauf oder andere Klangparameter dieses Signals automatisch so gesteuert werden können, dass dabei ein rhythmischer, taktgenauer "Scratch-Effekt" aus dem gerade zu hörenden Audio-Material erzeugt wird. Dies wäre jedoch wünschenswert, weil damit zum einen gelungene Scratch-Effekte reproduzierbar und zusätzlich auf anderes Audiomaterial übertragbar würden. Zum anderen könnte ein DJ so entlastet werden und seine Konzentration vermehrt anderen künstlerischen Dingen wie etwa der Zusammenstellung der Musikstücke widmen.
  • Aus der US 5512704 ist ein Verfahren zur Wiedergabe eines digitalen Musikstückes bekannt, das auf der Basis von Scratch-Control-Daten die Geschwindigkeitsrate und die Richtung der Wiedergabe des digitalen Musikstückes bestimmt.
  • Aufgabe der vorliegenden Erfindung ist es daher, ein Verfahren sowie einen Musikabspieler zu schaffen, die eine automatische Erzeugung von musikalischen Scratch-Effekten ermöglichen.
  • Diese Aufgabe wird erfindungsgemäß jeweils durch die unabhängigen Patentansprüche gelöst.
  • Weitere vorteilhafte Ausgestaltungen sind in den abhängigen. Patentansprüchen angegeben.
  • Vorteile und Details der Erfindung ergeben sich anhand der folgenden Beschreibung vorteilhafter Ausführungsbeispiele und in Verbindung mit den Figuren. Es zeigt in Prinzipdarstellung:
  • FIG 1
    ein Zeit-Raum-Diagramm aller sich miteinander im Takt befind- lichen Abspiel-Varianten eines mit Normalgeschwindigkeit wie- dergegebenen Tracks als parallele Geraden der Steigung 1,
    FIG 2
    ein Detail-Ausschnitt des Zeit-Raum-Diagramms nach FIG 1 zur Beschreibung der geometrischen Zusammenhänge eines Full-Stop- Scratch-Effekts,
    FIG 3
    einen Ausschnitt eines Zeit-Raum-Diagramms zur Beschreibung der geometrischen Zusammenhänge eines Back-and-For-Scratch- Effekts,
    FIG 4
    verschiedene mögliche Lautstärke-Hüllkurven zur Realisierung eines Gater-Effektes auf einen Back-and-For Scratch-Effekt,
    FIG 5
    ein Blockschaltbild eines interaktiven Musik-Abspielers gemäß der Erfindung mit Eingriffsmöglichkeit in eine aktuelle Ab- spielposition,
    FIG 6
    ein Blockschaltbild einer zusätzlichen Signalverarbeitungsket- te zur Realisierung eines Scratch-Audio-Filters gemäß der Er- findung,
    FIG 7
    ein Blockschaltbild zur Veranschaulichung der Gewinnung rhyth- musrelevanter Informationen und deren Auswertung zur nähe- rungsweisen Ermittlung von Tempo und Phase eines Musikdaten- stroms,
    FIG 8
    ein weiteres Blockschaltbild zur sukzessiven Korrektur von er- mitteltem Tempo und Phase und
    FIG 9
    einen Datenträger, der Audiodaten und Steuerdateien zur Repro- duktion von aus den Audiodaten gemäß der Erfindung erstellten Scratch-Effekten oder Gesamtwerken vereint.
  • Zum Abspielen von vorproduzierter Musik werden herkömmlicherweise verschiedenartige Geräte für verschiedene Speichermedien wie Schallplatte, Compakt Disk oder Cassette verwendet. Diese Formate wurden nicht dafür entwickelt, in den Abspielprozess einzugreifen, um die Musik damit auf kreative Art zu bearbeiten. Diese Möglichkeit ist aber wünschenswert, und wird heutzutage trotz der gegebenen Einschränkungen von den genannten DJ's praktiziert. Dabei werden bevorzugt Vinyl-Schallplatten verwendet, weil man dort am leichtesten mit der Hand die Abspielgeschwindigkeit und - position beeinflussen kann.
  • Heute werden aber überwiegend digitale Formate wie Audio CD und MP3 zum Speichern von Musik verwendet. Bei MP3 handelt es sich um ein Kompressionsverfahren für digitale Audiodaten nach dem MPEG-Standard (MPEG 1 Layer 3). Das Verfahren ist asymmetrisch, d.h. die Codierung ist sehr viel aufwendiger als die Decodierung. Ferner handelt es sich um ein verlustbehaftetes Verfahren. Die vorliegende Erfindung ermöglicht nun den genannten kreativen Umgang mit Musik auf beliebigen digitalen Formaten durch einen geeigneten interaktiven Musik-Abspieler, der von den durch die vorangehend dargestellten erfindungsgemäßen Maßnahmen geschaffenen neuen Möglichkeiten Gebrauch macht.
  • Dabei besteht das prinzipielle Bedürfnis, möglichst viel hilfreiche Information in der grafischen Darstellung haben, um gezielt eingreifen zu können. Außerdem möchte man ergonomisch in den Abspielvorgang eingreifen können, auf vergleichbare Art mit dem von DJ's häufig praktizierten "Scratching" auf Vinylplattenspielern, wobei der Plattenteller während der Wiedergabe angehalten und vorwärts sowie rückwärts bewegt wird.
  • Um gezielt Eingreifen zu können, ist es wichtig, eine grafische Repräsentation der Musik zu haben, in der man die aktuelle Abspielposition erkennt und auch einen gewissen Zeitraum in der Zukunft und in der Vergangenheit erkennt. Dazu stellt man üblicherweise die Amplitudenhüllkurve der Klangwellenform über einen Zeitraum von mehreren Sekunden vor und nach der Abspielposition dar. Die Darstellung verschiebt sich in Echtzeit in der Geschwindigkeit, in der die Musik spielt.
  • Prinzipiell möchte man möglichst viel hilfreiche Information in der grafischen Darstellung haben, um gezielt eingreifen zu können. Außerdem möchte man möglichst ergonomisch in den Abspielvorgang eingreifen können, auf vergleichbare Art zum sogenannten "Scratching" auf Vinylplattenspielern. Der Begriff "Scratching" bezeichnet dabei das Anhalten und vorwärts oder rückwärts Bewegen des Plattentellers während der Wiedergabe.
  • Bei dem durch die Erfindung geschaffenen interaktiven Musik-Abspieler können nun musikalisch relevante Zeitpunkte, insbesondere die Taktschläge, mit der an späterer Stelle (FIG 7 und FIG 8) erläuterten Täkterkennungsfunktion aus dem Audiosignal extrahiert und als Markierungen in der grafischen Darstellung angezeigt werden, z.B. auf einem Display oder auf einem Bildschirm eines digitalen Computers, auf dem der Musik-Abspieler durch eine geeignete Programmierung realisiert ist.
  • Weiter ist ein Hardware-Steuerelement R1 vorgesehen, z.B. ein Knopf, insbesondere der Mausknopf, mit dem man zwischen zwei Betriebsarten umschaltet:
    1. a) Musik läuft frei, mit konstantem Tempo,
    2. b) Abspielposition und -geschwindigkeit wird vom Anwender direkt oder automatisch beeinflusst.
  • Der Modus a) entspricht einer Vinylplatte, die man nicht anfasst und deren Geschwindigkeit gleich der des Plattentellers ist. Der Modus b) hingegen entspricht einer Vinylplatte, die man mit der Hand anhält und hin- und herschiebt.
  • In einer vorteilhaften Ausführungsform eines interaktiven Musik-Abspielers wird die Abspielgeschwindigkeit in Modus a) weiter beeinflusst durch die automatische Steuerung zur Synchronisierung des Takts der abgespielten Musik zu einem anderen Takt (vgl. FIG 7 und FIG 8). Der andere Takt kann synthetisch erzeugt oder von einer anderen gleichzeitig spielenden Musik gegeben sein.
  • Außerdem ist ein weiteres Hardware-Steuerelement R2 vorgesehen, mit dem man im Betriebsmodus b) quasi die Plattenposition bestimmt. Dies kann ein kontinuierlicher Regler, oder auch die Computermaus sein.
  • Die Darstellung nach FIG 5 zeigt ein Blockschaltbild einer solchen Anordnung mit den im folgenden erläuterten Signalverarbeitungsmitteln, mit denen ein interaktiver Musik-Abspieler gemäß der Erfindung mit Eingriffsmöglichkeit in eine aktuelle Abspielposition geschaffen wird.
  • Die mit diesem weiteren Steuerelement R2 vorgegebenen Positionsdaten haben üblicherweise eine begrenzte zeitliche Auflösung, d.h. es wird nur in regelmäßigen oder unregelmäßigen Abständen eine Nachricht geschickt, die die aktuelle Position übermittelt. Die Abspielposition des gespeicherten Audiosignals soll sich aber gleichmäßig ändern, mit einer zeitlichen Auflösung, die der Audio-Abtastrate entspricht. Deshalb verwendet die Erfindung an dieser Stelle eine Glättungsfunktion, die aus dem mit dem Steuerelement R2 vorgegebenen stufigen Signal ein hochaufgelöstes, gleichmäßig sich änderndes Signal erzeugt.
  • Eine Methode hierzu besteht darin, mit jeder vorgegebenen Positionsnachricht eine Rampe mit konstanter Steigung auszulösen, die in einer vorgegebenen Zeit das geglättete Signal von seinem alten Wert auf den Wert der Positionsnachricht fährt. Eine weitere Möglichkeit ist, die stufige Wellenform in einen linearen digitalen Tiefpaß-Filter LP zu schicken, dessen Ausgang das gewünschte geglättete Signal darstellt. Dafür eignet sich besonders ein 2-Pol Resonanzfilter. Eine Kombination (Reihenschaltung) der beiden Glättungen ist auch möglich und vorteilhaft und ermöglicht folgende vorteilhafte Signalverarbeitungskette:
    • vorgegebenes Stufensignal -> Rampenglättung -> Tiefpassfilter -> exakte Abspielposition
    oder
    vorgegebenes Stufensignal -> Tiefpassfilter -> Rampenglättung -> exakte Abspielposition
  • Das Blockschaltbild nach FIG 5 veranschaulicht die an einem vorteilhaften Ausführungsbeispiel in Form einer Prinzipskizze. Das Steuerelement R1 (hier ein Taster) dient zum Wechsel der Betriebsmodi a) und b), indem dieser einen Schalter SW1 triggert. Der Regler R2 (hier ein kontinuierlicher Schieberegler) liefert die Positionsinformation mit zeitlich begrenzter Auflösung. Diese dient einem Tiefpaß-Filter LP zur Glättung als Eingangssignal. Das geglättete Positionssignal wird nun differenziert (DIFF) und liefert die Abspielgeschwindigkeit. Der Schalter SW1 wird mit diesem Signal an einem ersten Eingang IN1 angesteuert (Modus b). Der andere Eingang IN2 wird mit einem Tempowert A, der wie in FIG 7 und FIG 8 beschrieben ermittelt werden kann, beaufschlagt (Modus a). Über das Steuerelement R1 erfolgt der Wechsel zwischen den Eingangssignalen.
  • Außerdem können über ein drittes Steuerelement (nicht gezeigt) die im vorangehenden beschriebenen Steuerinformationen zur automatischen Manipulation von Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit vorgegeben werden. Ein weiteres Steuerelement dient dann zum Auslösen der mit dem dritten Steuerelement vorgegebenen automatischen Manipulation der Abspielposition und/oder Abspielrichtung und/oder Abspielgeschwindigkeit.
  • Wenn man vom einen in den anderen Modus wechselt (entspricht dem Festhalten und Loslassen des Plattentellers), darf die Position nicht springen. Aus diesem Grund übernimmt der vorgeschlagene interaktive Musik-Abspieler die im vorhergehenden Modus erreichte Position als Ausgangsposition im neuen Modus. Ebenso soll die Abspielgeschwindigkeit (1. Ableitung der Position) sich nicht Sprunghaft ändern. Deswegen übernimmt man auch die aktuelle Geschwindigkeit und führt sie durch eine Glättungsfunktion, wie oben beschrieben, zu der Geschwindigkeit, die dem neuen Modus entspricht. Nach FIG 5 erfolgt dies durch einen Slew Limiter SL, der eine Rampe mit konstanter Steigung auslöst, die in einer vorgegebenen Zeit das Signal von seinem alten Wert auf den neuen Wert fährt. Dieses positions- bzw. geschwindigkeitsabhängige Signal steuert dann die eigentliche Abspieleinheit PLAY zur Wiedergabe des Audiotracks an, indem es die Abspielgeschwindigkeit beeinflusst.
  • Die komplizierten Bewegungsabläufe, bei denen die Schallplatte und der Crossfader in ganz präziser, dem Tempo angepasster Weise zusammenwirken müssen, sind nun dank der in FIG 5 gezeigten Anordnung mit den entsprechenden Steuerelementen und eines an späterer Stelle näher beschriebenen Meta-File Formats automatisierbar. Durch eine Reihe von Voreinstellungen kann die Länge und Art des Scratches ausgewählt werden. Der tatsächliche Ablauf des Scratches wird durch das erfindungsgemäße Verfahren tempogenau gesteuert. Dabei werden die Bewegungsabläufe entweder zuvor bei einem echten Scratch aufgezeichnet oder sie werden in einem graphischen Editor "auf dem Reissbrett" entworfen.
  • Das automatisierte Scratch Modul bedient sich nun des vorangehend anhand von FIG 5 beschriebenen sogenannten Scratch-Algorithmus.
  • Das voranstehend dargestellte Verfahren bedarf lediglich eines Parameters, nämlich der Position der Hand mit welcher die virtuelle Schallplatte bewegt wird (vgl. entsprechendes Steuerelement), und errechnet daraus mittels zweier Glättungsverfahren die aktuelle Abspielposition im Audio-Sample. Die Verwendung dieser Glättungsverfahren ist nicht von theoretischer Notwendigkeit sondern von technischer. Ohne seiner Verwendung wäre es für die unverfremdete Wiedergabe notwendig, die Berechnung der aktuellen Abspielposition in der Audio-Rate (44kHz) durchzuführen, was ein entscheidenden Mehrbedarf an Rechenleistung erfordern würde. Dank des Algorithmus kann die Abspielposition in sehr viel niedrigerer Rate berechnet werden (z.B. 344 Hz).
  • Im folgenden wird anhand der zwei einfachsten Scratch-Automationen erläutert, wie das erfindungsgemäße Verfahren zur automatischen Erzeugung von Scratch-Effekten funktioniert. Das gleich Verfahren kann aber auch auf viel komplexere Scratch-Abfolgen angewendet werden.
  • FULL STOP
  • Bei diesem Scratch handelt es sich um einen Effekt, bei dem die Schallplatte (entweder durch die Hand oder durch Bedienung der Stop-Taste des Plattenspielers) zum Stillstand gebracht wird. Nach einer gewissen Zeit wird die Schallplatte wieder losgelassen, bzw. der Motor wieder eingeschaltet. Nachdem die Schallplatte wieder auf ihre ursprüngliche Umdrehungsgeschwindigkeit gekommen ist, muss sie sich wieder im Takt zu dem "weitergedachten" Takt vor dem Scratch bzw. wieder im Takt zu einem zweiten, während des Full-Stops unangetasteten, Referenz-Takt befinden.
  • Zur Berechnung der Abbrems-, Stillstand- und Beschleunigungsphasen wurden folgende vereinfachende Annahmen gemacht. (Es sind jedoch auch komplexere Verläufe des Scratches ohne Aufwand zu berechnen):
    • sowohl Abbremsen als auch Beschleunigen erfolgen linear, d.h. mit konstanter Beschleunigung.
    • Abbremsen und Beschleunigen erfolgen mit derselben Beschleunigung jedoch mit umgekehrtem Vorzeichen.
  • Die Darstellung gemäß FIG 1 zeigt ein Zeit-Raum-Diagramm aller zueinander synchronen bzw. sich miteinander im Takt befindlichen Abspiel-Varianten eines mit Normalgeschwindigkeit wiedergegebenen Tracks. Die Dauer einer Viertelnote eines gegenwärtigen Tracks ist dabei mit beat bezeichnet.
  • Stellt man alle sich miteinander im Takt (beat) befindlichen Abspiel-Varianten eines mit Normalgeschwindigkeit wiedergegebenen Tracks als parallele Geraden der Steigung 1 in einem Zeit-Raum-Diagramm dar (X-Achsc: Zeit t in [ms], Y-Achse Sample-Position SAMPLE in [ms]), so kann ein FULL STOP Scratch als Verbindungskurve (gestrichelte Linie) zwischen zwei der parallel gelegenen Abspiel-Geraden dargestellt werden. Der lineare Geschwindigkeitsübergang zwischen den Bewegungsphasen und der Stillstandsphase des Scratches stellt sich im Zeit-Raum-Diagramm als Parabel-Segment dar (lineare Geschwindigkeitsänderung = quadratische Positionsveränderung).
  • Einige geometrische Überlegungen anhand der in FIG 1 gezeigten Darstellung ermöglichen nun die Dauer der verschiedenen Phasen (Abbremsen, Stillstand, Beschleunigen) so zu berechnen, dass nach Vollendung des Scratches die Abspielposition auf einer zur Ursprungs-Geraden parallelen und um ein ganzes Vielfaches einer Viertelnote (beat) versetzten Geraden zu liegen kommt, was das graphische Äquivalent zur oben aufgestellten Forderung nach taktgetreuer Wiederaufnahme der Bewegung darstellt. Dazu zeigt die FIG 2 einen Ausschnitt von FIG 1, an dem sich die folgenden mathematischen Überlegungen nachvollziehen lassen.
  • Sei die Dauer des Abbrems- und Beschleunigungsvorgangs ,ab', v die Geschwindigkeit, x die mit der Zeit t korrelierte Abspielposition und die Dauer einer Viertelnote des gegenwärtigen Tracks beat, dann berechnet sich die Dauer der einzuhaltenden Stillstandsphase c folgendermaßen: c = beat - ab .
    Figure imgb0001
  • Die Gesamtdauer T des Scratches beträgt T = beat + ab
    Figure imgb0002

    und besteht also aus 3 Phasen:
    Abbremsen von v=1 auf v=0: Dauer: ab
    Stillstand: Dauer: beat-ab
    Beschleunigen von v=0 auf v=1: Dauer: ab
    (für ab<= beat)
  • Daraus ergibt sich, dass zunächst mit normaler Geschwindigkeit v=1 verfahren wird, ehe dann ein lineares Abbremsen f(x) = - ½ x2 erfolgt, was die Zeit ,ab' dauert. Für die Dauer ,beat-ab' besteht Stillstand v=0, ehe ein lineares Beschleunigen f(x) = ½ x2 erfolgt, was wiederum die Zeit ,ab' dauert. Danach wird wieder mit Normalgeschwindigkeit V=1 verfahren.
  • Die Dauer ,ab' für das Abbremsen und das Beschleunigen wurde bewusst variabel gehalten, da man durch die Veränderung dieses Parameter entscheidend in den "Sound" (die Qualität) des Scratches eingreifen kann (siehe Voreinstellungen).
  • Wird die Stillstandsphase c um Vielfache von beat verlängert, kann man takt-synchrone Full-Stop-Scratches einer beliebigen Länge erzeugen.
  • BACK AND FOR
  • Bei diesem Scratch geht es darum, die virtuelle Schallplatte an einer Stelle tempo-synchron vorwärts und rückwärts zu bewegen und nach Beendigung des Scratches wieder im Takt mit dem Ursprungs- bzw. Referenz-Takt zu sein. Man kann sich wieder des gleichen Zeit-Raum-Diagramms aus FIG 1 bedienen und diesen Scratch in seiner einfachsten Form
    Geschwindigkeit = +/- 1 ; Frequenz = 1/beat,
    wie in der Darstellung gemäß FIG 3 darstellen, die an FIG 2 angelehnt ist. Natürlich sind auf diese Weise auch viel komplexere Bewegungsabläufe berechenbar.
  • Die Abbremsung von v=+1 auf v=-1 und umgekehrt bedarf nun der doppelten Dauer = 2*ab. Mit geometrischen Überlegungen kann die Dauer der RückwärtsLauf-Phase "rü" und der darauffolgenden Vorwärtslaufphase "vo" wie anhand von FIG 3 nachvollziehbar ermittelt werden: ru = vo = 1 / * beat - 2 ab
    Figure imgb0003
  • Die Gesamtdauer des Scratches beträgt diesmal genau T=beat und besteht aus 4 Phasen:
    Abbremsen vom v=1 auf v=-1: Dauer: 2ab
    Rückwärtslauf: Dauer: 1/2*beat - 2ab
    Beschleunigen von v=-1 auf v=1: Dauer: 2ab
    Vorwärtslauf: Dauer: 1/2*beat - 2ab
  • Dieser Scratch kann beliebig oft wiederholt werden und kehrt immer wieder an die Start-Abspielposition zurück, die virtuelle Schallplatte bewegt sich im Ganzen nicht weiter. Das bedeutet also mit jeder Iteration eine Verschiebung um p=-beat gegenüber dem Referenztakt.
  • Auch in diesem Scratch bleibt die Dauer des Abbrems- und Beschleunigungsvorgangs "ab" variabel, da durch die Veränderung von a die Charakteristik des Scratches stark verändert werden kann.
  • GATER
  • Zusätzlich zur eigentlichen Manipulation der originalen Wiedergabegeschwindigkeit erhält ein Scratch seine Vielfältigkeit durch zusätzliches rhythmisches Hervorheben gewisser Passagen des Bewegungsablaufes mittels Lautstärke oder EQ/Filter-(Klangcharakteristik) Manipulationen. So kann beispielsweise bei einem BACK AND FOR Scratch immer nur die Rückwärtsphase hörbar gemacht werden und die Vorwärtsphase ausgeblendet werden.
  • Auch dieser Vorgang wurde in vorliegendem Verfahren automatisiert, indem die aus dem Audiomaterial extrahierte Tempo-Information (vgl. dazu FIG 7 und FIG 8) dazu genutzt wird, diese Parameter rhythmisch zu steuern.
  • Hier soll auch wieder nur beispielhaft illustriert werden, wie anhand von drei Parametern
    • RATE (Frequenz des Gate-Vorgangs),
    • SHAPE (Verhältnis von "An"- zu "Aus"-Phase) und
    • OFFSET (Phasen-Verschiebung, relativ zum Referenztakt)
    eine große Vielfalt an Effekt-Variationen möglich ist. Diese 3 Parameter können anstatt nur auf die Lautstärke des Scratches zu wirken, natürlich auch auf EQs/Filter oder jeden anderen Audio-Effekt, wie Hall, Delay und ähnliches angewendet werden.
  • Der Gater selbst exisitert bereits in vielen Effekt-Geräten. Jedoch die Kombination mit einem tempo-synchronen Scratch-Algorithmus zur Erzeugung vollautomatischer Scratch-Abläufe, zu denen zwingend auch Lautstärke-Verläufe gehören, wird in diesem Verfahren erstmalig verwendet.
  • In FIG 4 ist ein einfacher 3-fach BACK AND FOR Scratch
    dargestellt. Darunter verschiedene Lautstärke-Hüllkurven, die sich aus den jeweils daneben stehenden Gate-Parametern ergeben. Dargestellt ist dann auch die resultierende Wiedergabe-Kurve, um zu veranschaulichen, wie unterschiedlich das Endergebnis durch die Anwendung verschiedener Gate-Parameter werden kann. Wird jetzt noch der BACK AND FOR Scratch in seiner Frequenz und dem Beschleunigungsparameter "ab" variiert (in der Zeichnung nicht mehr dargestellt), ergeben sich extrem viele KombinationsMöglichkeiten.
  • Der erste Verlauf unterhalb der Ausgangsform (3-fach BACK AND FOR Scratch) betont nur jeweils die zweite Hälfte der Wiedergabebewegung, während er deren erste Hälfte jeweils eliminiert. Die Gater-Werte für diesen Verlauf sind:
    • RATE = 1/4
    • SHAPE = 0
    • OFFSET = 0
  • Der Verlauf der Lautstärke-Hüllkurve ist dabei jeweils durchgehend gezeichnet, während die damit selektierten Bereiche der Wiedergabebewegung jeweils gestrichelt dargestellt sind.
  • Beim darunter liegenden Verlauf werden nur die Rückwärtsbewegungen der Wiedergabebewegung selektiert mit den Gater-Parametern:
    • RATE = 1/4
    • SHAPE = - 1/2
    • OFFSET = 0,4
  • Der darunter liegende Verlauf ist eine weitere Variante bei welcher jeweils derobere und untere Umkehrpunkt der Wiedergabebewegungausgewählt wird durch:
    • RATE = 1/8
    • SHAPE = - 1/2
    • OFFSET = 0,2
  • In einem weiteren Betriebsmodus des Scratch-Automatismus ist es vorstellbar, auch die Auswahl des Audio-Samples, mit welchem des Scratch vollzogen wird, zu optimieren und damit benutzer-unabhängig zu machen. In diesem Modus würde der Tastendruck zwar das Verfahren starten, dieses aber erst. vollzogen, wenn im Audiomaterial ein geeignetes Bcat-Event gefunden wird, welches sich für die Durchführung des gewählten Scratches besonders gut eignet.
  • "SCRATCH-SYNTHESIZER"
  • Alles bisher Beschriebene behandelt das Verfahren mit welchem ein beliebiger Ausschnitt aus einem Audiomaterial modifiziert
  • Wiedergegeben werden kann (im Falle von rhythmischem Material auch tempo-synchron) - Da nun aber das Ergebnis (der Sound) eines Scratches unmittelbar mit dem ausgewählten Audiomaterial zusammenhängt, ist die sich ergebende Klangvielfalt prinzipiell so groß, wie das verwendete Audio-Material selbst. Da das Verfahren parametrisiert ist, lässt es sich sogar als neues Klang-Synthese-Verfahren bezeichnen.
  • Beim "Scratching" mit Vinyl-Platten, also dem Abspielen mit sich stark und schnell ändernder Geschwindigkeit, ändert sich die Tonwellenform auf charakteristische Art, aufgrund der Eigenheiten des Aufzeichnungsverfahrens, das standardmäßig für Schallplatten verwendet wird. Beim Erstellen des Press-Masters für die Schallplatte im Aufnahmestudio durchläuft das Tonsignal ein Pre-Emphase-Filter (Vorverzerrungs-Filter) nach RIAA-Norm, der die Höhen anhebt (sogenannte "Schneidekennlinie"). In jeder Anlage, die zum Abspielen von Schallplatten verwendet wird, befindet sich ein entsprechendes De-Emphase-Filter (Rückentzerrungs-Filter), das die Wirkung umkehrt, so dass man näherungsweise das ursprüngliche Signal erhält.
  • Wenn nun aber die Abspielgeschwindigkeit nicht mehr dieselbe ist, wie bei der Aufnahme, was u.a. beim "Scratching" auftritt, so werden alle Frequenzanteile des Signals auf der Schallplatte entsprechend verschoben und deswegen vom De-Emphase-Filter unterschiedlich bedämpft. Dadurch ergibt sich ein charakteristischer Klang.
  • Um beim Abspielen mit sich stark und schnell ändernder Geschwindigkeit eine möglichst authentische Wiedergabe ähnlich dem "Scratchen" mit einem Vinyl-Plattenspieler zu erreichen, verwendet eine weitere vorteilhafte Ausführungsform des interaktiven Musik-Abspielers nach der Erfindung für ein Audiosignal ein Scratch-Audio-Filter, wobei das Audiosignal einer Pre-Emphase-Filterung (Vorverzerrung) unterzogen und in einem Pufferspeicher abgelegt wird, aus dem es in Abhängigkeit von der jeweiligen Abspielgeschwindigkeit mit variablem Tempo auslesbar ist, um anschließend einer De-Emphase-Filterung (Rückentzerrung) unterzogen und wiedergegeben zu werden.
  • In dieser vorteilhaften Ausgestaltung des erfindungsgemäßen interaktiven Musik-Abspielers nach der Erfindung mit einem Aufbau entsprechend FIG 5 ist daher ein Scratch-Audio-Filter zur Simulation des beschriebenen charakteristischen Effekts vorgesehen. Dazu wird, insbesondere für eine digitale Simulation dieses Vorgangs, das Audiosignal innerhalb der Abspieleinheit PLAY aus FIG 5 einer weiteren Signalverarbeitung unterzogen, wie diese in FIG 6 dargestellt ist. Dazu wird das Audiosignal, nachdem die digitalen Audiodaten des wiederzugebenden Musikstücks von einem Medium D bzw. Tonträger (z.B. CD oder MP3) gelesen und (vor allem im Fall des MP3-Formats) dekodiert DEC wurde, einer entsprechenden Pre-Emphase-Filterung PEF unterzogen. Das so vorgefilterte Signal wird dann in einem Pufferspeicher B abgelegt, aus dem es in einer weiteren Verarbeitungseinheit R je nach Betriebsmodus a) oder b), wie in FIG 5 beschrieben, entsprechend dem Ausgangssignal von SL mit variierender Geschwindigkeit ausgelesen wird. Das ausgelesene Signal wird dann mit einem De-Emphase-Filter DEF behandelt und dann wiedergegeben (AUDIO_OUT).
  • Für das Pre- und De-Emphase Filter PEF und DEF, die den gleichen Frequenzgang wie in der RIAA-Norm festgelegt haben sollten, verwendet man günstigerweise jeweils ein digitales IIR-Filter 2.Ordnung, d.h. mit zwei günstig gewählten Polstellen und zwei günstig gewählten Nullstellen. Wenn die Polstellen des einen Filters gleich den Nullstellen des anderen Filters sind, heben sich, wie gewünscht, die beiden Filter in ihrer Wirkung genau auf, wenn das Audiosignal mit Originalgeschwindigkeit abgespielt wird. In allen anderen Fallen erzeugen die genannten Filter den charakteristischen Toneffekt beim "Scratching". Selbstverständlich kann das beschriebene Scratch-Audio-Filter auch im Zusammenhang mit beliebigen anderen Arten von Musik-Abspielgeräten mit "Scratching"-Funktion eingesetzt werden.
  • Als Informationen aus dem Audiomaterial wird das Tempo des Tracks benötigt, um die Größe der Variablen "beat", sowie die "Taktung" des Gates bestimmen zu können. Hierfür wird beispielsweise das im folgenden beschriebene Tempo-Ermittlungs-Verfahren für Audio-Tracks verwendet.
  • In diesem Zusammenhang stellt sich das technische Problem der Tempo- und Phasenangleichung zweier Musikstücke bzw. Audiotracks in Echtzeit. Dabei wäre es wünschenswert, wenn eine Möglichkeit zur automatischen Tempo- und Phasenangleichung zweier Musikstücke bzw. Audiotracks in Echtzoit zur Verfügung stünde, um den DJ von diesem technischen Aspekt des Mixens zu befreien, bzw, einen Mix automatisch oder halbautomatisch, ohne die Hilfe eines versiorten DJ's erstellen zu können.
  • Bisher wurde dieses Problem nur in Teilaspekten gelöst. So gibt es Software-Player für das Format MP3 (ein Standardformat für komprimierte digitale Audiodaten), die reine Echtzeit-Tempoerkennung und -anpassung realisieren. Die Erkennung der Phase muss jedoch weiterhin durch das Gehör und die Anpassung des DJ manuell erfolgen. Dadurch wird ein beträchtliches Maß an Aufmerksamkeit des DJ in Anspruch genommen, was andernfalls für künstlerische Aspekte wie Musikzusammenstellung etc. zur Verfügung stünde.
  • Eine Aufgabe der vorliegenden Erfindung besteht somit in der Schaffung einer Möglichkeit zur automatischen Tempo- und Phasenangleichung zweier Musikstücke bzw. Audiotracks in Echtzeit mit möglichst hoher Genauigkeit.
  • Eine wesentliche zu überwindende technische Hürde stellt dabei die Genauigkeit einer Tempo- und Phasen-Messung dar, welche mit der für diese Messung zur Verfügung stehenden Zeit sinkt. Das Problem stellt sich somit vorrangig für eine Ermittlung des Tempos und der Phase in Echtzeit, wie es u.a. beim Live-Mixen der Fall ist.
  • Im folgenden soll eine mögliche Realisierung der näherungsweisen Tempo-und Phasenerkennung sowie Tempo- und Phasenanpassung gemäß der Erfindung dargestellt werden.
  • Erster Schritt der Prozedur ist eine erste, näherungsweise Ermittlung des Tempos des Musikstückes. Dies erfolgt durch eine statistische Auswertung der zeitlichen Abstände der sog. Beat-Ereignisse. Eine Möglichkeit zur Gewinnung rhythmusrelevanter Ereignisse aus dem Audiomaterial erfolgt durch schmale Bandpassfilterung des Audiosignals in verschiedenen Frequenzbereichen. Um das Tempo in Echtzeit zu ermitteln, werden für die folgenden Berechnungen jeweils nur die Beatereignisse der letzten Sekunden verwendet. Dabei entsprechen 8 bis 16 Ereignisse in etwa 4 bis 8 Sekunden.
  • Aufgrund der quantisierten Struktur von Musik (16tel Noten Raster) können nicht nur Viertelnoten Beat-Intervalle zur Tempoberechnung herangezogen werden. Auch andere Intervalle (16tel, 8tel, ½ und ganze Noten) können durch Oktavierung (z.B. durch Multiplizieren ihrer Frequenz mit 2er Potenzen) in eine vordefinierte Frequenz-Oktave (z.B. 80 - 160 bpm, Englisch für Beats per minute) transformiert werden und somit temporelevante Informationen liefern. Fehlerhafte Oktavierungen (z.B. von Triolen-Intervallen) fallen später wegen ihrer verhältnismäßigen Seltenheit bei der statistischen Auswertung nicht ins Gewicht. Um auch Triolen, bzw. geschuffelte Rhythmen (einzelne leicht aus dem 16tel Raster versetzte Noten) zu erfassen, werden die im ersten Punkt gewonnenen Zeitintervalle zusätzlich noch in Paaren und Dreiergruppen durch Addition ihrer Zeitwerte gruppiert bevor sie oktaviert werden. Durch dieses Verfahren wird die rhythmische Struktur zwischen den Takten aus den Zeitintervallen herausgerechnet.
  • Die so gewonnene Menge an Daten wird auf Häufungspunkte untersucht. Es entstehen dabei in der Regel drei Häufungsmaxima bedingt durch die Oktavierungs- und Gruppierungsverfahren, deren Wert in rationalen Verhältnis (2/3, 5/4, 4/5 oder 3/2) zueinander stehen. Sollte aus der Stärke eines der Maxima nicht deutlich genug hervorgehen, das dieses das tatsächliche Tempo des Musikstückes angibt, lässt sich das korrekte Maximum aus dem rationalen Verhältnissen der Maxima untereinander ermitteln.
  • Zur näherungsweisen Ermittlung der Phase wird ein Referenz-Oszillator verwendet. Dieser schwingt mit dem zuvor ermittelten Tempo. Seine Phase wird vorteilhaft so gewählt, dass sich die beste Übereinstimmung zwischen Beat-Ereignisse des Audiomaterials und Nulldurchgängen des Oszillators ergibt.
  • Anschließend erfolgt eine sukzessive Verbesserung der Tempo- und Phasenermittlung. Durch die natürliche Unzulänglichkeit der ersten näherungsweisen Tempoermittlung wird sich zunächst nach einigen Sekunden die Phase des Referenz-Oszillators relativ zum Audiotrack verschieben. Diese systematische Phasenverschiebung gibt Auskunft darüber, um welche Menge das Tempo des Referenz-Oszillators verändert werden muss. Eine Korrektur des Tempos und der Phase erfolgt vorteilhaft in regelmäßigen Abständen, um unterhalb der Hörbarkeitsgrenze der Verschiebungen und der Korrekturbewegungen zu bleiben.
  • Sämtliche Phasenkorrekturen, die ab der näherungsweisen Phasenkorrelation erfolgt sind, werden über die Zeit akkumuliert, so dass die Berechnung des Tempos und der Phase auf einem ständig wachsenden Zeitintervall basiert. Dadurch werden die Tempo- und Phasen-Werte zunehmend präziser und verlieren den eingangs erwähnten Makel der näherungsweisen Echtzeitmessung. Nach kurzer Zeit (ca. 1 min) sinkt der Fehler des mit diesem Verfahren ermittelten Tempo-Wertes unterhalb 0.1%, ein Maß an Genauigkeit, das Vorraussetzung für die Berechnung von Loop-Längen ist.
  • Die Darstellung gemäß FIG 7 zeigt eine mögliche technische Realisierung der beschriebenen näherungsweisen Tempo- und Phsenerkennung eines Musikdatenstroms in Echtzeit anhand eines Blockschaltbildes. Die gezeigte Struktur kann auch als 'Beat Detector' bezeichnet werden.
  • Als Input liegen zwei Ströme von Audio-Events bzw. Audio-Ereignissen Ei mit Wert 1 vor, welche den Peaks in den Frequenzbänder F1 bei 150 Hz und F2 bei 4000Hz oder 9000 Hz entsprechen. Diese beiden Eventströme werden vorerst getrennt behandelt, indem diese durch jeweilige Bandpassfilter mit jeweiliger Grenzfrequenz F1 und F2 gefiltert werden.
  • Folgt ein Event innerhalb von 50 ms dem vorhergehenden, wird das zweite Event nicht berücksichtigt. Eine Zeit von 50 ms entspricht der Dauer eines 16tels bei 300 bpm, liegt also weit unter der Dauer des kürzesten Intervalls, in dem die Musikstücke üblicherweise angesiedelt sind.
  • Aus dem Strom der gefilterten Events Ei wird nun in jeweiligen Verarbeitungseinheiten BD1 und BD2 ein Strom aus den einfachen Zeitintervallen Ti zwischen den Events gebildet.
  • Aus dem Strom der einfachen Zeitintervalle T1i werden in gleichen Verarbeitungseinheiten BPM_C1 und BPM_C2 jeweils zusätzlich zwei weitere Ströme der bandbegrenzten Zeitintervalle gebilde, nämlich mit Zeitintervallen T2i, den Summen von jeweils zwei aufeinanderfolgenden Zeitintervallen, und mit Zeitintervallen T3i, den Summen von jeweils drei aufeinanderfolgenden Zeitintervallen. Die dazu herangezogenen Events dürfen sich auch überlappen.
  • Dadurch werden aus dem Strom: t1, t2, t2, t4, t5, t6,... zusätzlich folgende zwei Ströme erzeugt:
    • T2i: (t1+t2), (t2+t3), (t3+t4), (t4+t5), (t5+t6),... und
    • T3i: (t1+t2+t3), (t2+t3+t4), (t3+t4+t5), (t4+t5,+t6),...
  • Die drei Ströme T1i, T2i, T3i, werden nun zeit-oktaviert in entsprechenden Verarbeitungseinheiten OKT. Die Zeit-Oktavierung OKT erfolgt derart, dass die einzelnen Zeitintervalle jedes Stroms so oft verdoppelt werden, bis sie in einem vorgegebenen Intervall BPM_REF liegen. Auf diese Weise erhält man drei Datenströme T1io, T2io, T3io,... Die obere Grenze des Intervalls berechnet sich aus der unteren bpm-Grenze nach der Formel: t hi m = 60000 / bpm low .
    Figure imgb0004
  • Die untere Grenze des Intervalls liegt bei 0.5* thi. Jeder der so erhaltenen drei Ströme wir nun für beide Frequenzbänder F1, F2 in jeweiligen weiteren Verarbeitungseinhciten CHK auf seine Konsistenz überprüft. Damit wird ermittelt, ob jeweils eine gewisse Anzahl aufeinanderfolgender, zeit-oktavierter Intervallwerte innerhalb einer vorgegebenen Fehlergrenze liegen. Dazu überprüft man beispielsweise im einzelnen mit folgenden Werten:
  • Für T1i überprüft man dessen letzte 4 Events t11o, t12o, t13o, t14o daraufhin, ob gilt:
    1. a) (t11o - t12o)2 + ( t11o - t13o)2 + ( t11o - t14o)2 < 20
      Ist dies der Fall, wird der Wert t11o als gültiges Zeitintervall ausgegeben.
      Für T2i überprüft man dessen letzte 4 Events t21o, t22o, t23o, t24o daraufhin, ob gilt:
    2. b) (t21o - t22o)2 + (t21o - t23o)2 + (t21o - t24o)2 < 20
      Ist dies der Fall, wird der Wert t11o als gültiges Zeitintervall ausgegeben.
      Für T3i überprüft man dessen letzte 3 Events t31o, t32o, t33o, daraufhin, ob gilt:
    3. c) (t31o - t32o)2 + ( t31o - t33o)2 < 20
      Ist dies der Fall, wird der Wert t310 als gültiges Zeitintervall ausgegeben.
  • Hierbei hat die Konsistenzprüfung a) Vorrang vor b) und b) hat Vorrang vor c). Wird also bei a) ein Wert ausgegeben, werden b) und c) nicht mehr untersucht. Wird bei a) kein Wert ausgegeben, so wird b) untersucht, usw. Wird hingegen weder bei a) noch bei b) noch bei c) ein konsistenter Wert gefunden, so wird die Summe der letzten 4 nicht oktavierten Einzelintervalle (t1+t2+t3+t4) ausgegeben.
  • Der so aus den drei Strömen ermittelte Wertestrom konsistenter Zeitintervalle wird wiederum in einer nachgeschalteten Verarbeitungseinheit OKT in das vorgegebene Zeit-Intervall BPM_REF oktaviert. Anschließend wird das oktavierte Zeit-Intervall in einen BPM Wert umgerechnet.
  • Als Resultat liegen jetzt zwei Ströme BPM1 und BPM2 von bpm-Werten vor - einer für jeden der beiden Frequenzbereiche F1 und F2. In einem Prototyp werden diese Ströme mit einer festen Frequenz von 5 Hz abgefragt und die jeweils letzten acht Events aus beiden Strömen für die statistische Auswertung herangezogen. Man kann an dieser Stelle jedoch durchaus auch eine variable (eventgesteuerte) Abtastrate verwenden und man kann auch mehr als nur die letzten 8 Events verwenden, beispielsweise 16 oder 32 Events.
  • Diese letzten 8, 16 oder 32 Events aus jedem Frequenzband F1, F2 werden zusammengeführt und in einer nachgeschalteten Verarbeitungseinheit STAT auf Häufungsmaxima N betrachtet. In der Prototyp-Version wird ein Fehlerintervall von 1,5 bpm verwendet, d.h. solange Events weniger als 1.,5 bpm voneinander differieren, werden sie als zusammengehörig betrachtet und addieren sich in der Gewichtung. Die Verarbeitungseinheit STAT ermittelt hierbei, bei welchen BPM-Werten Häufungen auftreten und wie viele Events den jeweiligen Häufungspunkten zuzuordnen sind. Der am stärksten gewichtete Häufungspunkt kann als die lokale BPM-Messung gelten und liefert den gewünschten Tempowert A.
  • In einer ersten Weiterbildung dieses Verfahrens erfolgt zusätzlich zu der lokalen BPM-Messung eine globale Messung, indem man die Zahl, der verwendeten Events auf 64, 128 etc. ausweitet. Bei alternierenden Rhythmus-Patterns, in welchen nur jeden 4. Takt das Tempo klar durchkommt, kann häufig eine Eventzahl von mindestens 128 nötig sein. Solch eine Messung ist zuverlässiger, benötigt jedoch auch mehr Zeit.
  • Eine weitere entscheidende Verbesserung kann durch folgende Maßnahme erzielt werden:
  • In Betracht gezogen wird nicht nur das erste Häufungsmaximum, sondern auch das zweite. Dieses zweite Maximum entsteht fast immer durch vorhandene Triolen und kann sogar stärker als das erste Maximum sein. Das Tempo der Triolen hat jedoch ein klar definiertes Verhältnis zum Tempo der Viertel Noten, so dass sich aus dem Verhältnis der Tempi der beiden ersten Maxima ermitteln lässt, welches Häufungsmaximum den Vierteln und welches den Triolen zuzuordnen ist.
  • Nimmt man T1 als das Tempo des ersten Maximums in bpm und T2 als das des zweiten Maximums an, so gelten folgende Regeln:
    • wenn T2 = 2/3 * T1, dann ist T2 das Tempo.
    • Wenn T2 = 4/3 * T1, dann ist T2 das Tempo.
    • Wenn T2 = 2/5 * T1, dann ist T2 das Tempo.
    • Wenn T2 = 4/5 * T1, dann ist T2 das Tempo.
    • Wenn T2 = 3/2 * T1, dann ist T1 das Tempo.
    • Wenn T2 = 3/4 * T1, dann ist T1 das Tempo.
    • Wenn T2 = 5/2 * T1, dann ist T1 das Tempo.
    • Wenn T2 = 5/4 * T1, dann ist T1 das Tempo.
  • Ein näherungsweiser Phasenwert P wird anhand einer der beiden gefilterten einfachen Zeitintervalle Ti zwischen den Events ermittelt, vorzugsweise anhand derjenigen Werte, die mit der niedrigeren Frequenz F1 gefiltert sind. Diese dienen zur groben Bestimmung der Frequenz des Referenz-Oszillators.
  • Die Darstellung nach FIG 8 zeigt ein mögliches Blockschaltbild zur sukzessiven Korrektur von ermitteltem Tempo A und Phase P, im folgenden als 'CLOCK CONTROL' bezeichnet.
  • Zunächst wird der Referenz-Oszillator bzw. die Referenz-Clock MCLK in einem ersten Schritt 1 mit den groben Phasenwerten P und Tempowerten A aus der Beat-Detection gestattet, was quasi einem Reset des in FIG 2 gezeigten Regelkreises gleichkommt. Anschließend werden in einem weiteren Schritt 2 die Zeitintervalle zwischen Beat-Events des eingehenden Audiosignals und der Referenz-Clock MCLK ermittelt. Dazu werden die näherungsweisen Phasen-werte P mit einem Referenzsignal CLICK, welches die Frequenz des Referenz-Oszillators MCLK aufweist, in einem Komparator V verglichen.
  • Bei systematischem Überschreiten (+) einer "kritischen" Abweichung bei mehreren aufeinanderfolgenden Ereignissen mit einem Wert von beispielsweise über 30ms wird in einem weiteren Verarbeitungsschritt 3 die Referenz-Clock MCLK durch eine kurzzeitige Tempoänderung A i + 1 = A i + q
    Figure imgb0005

    oder A i + 1 = A i - q
    Figure imgb0006
    entgegen der Abweichung (wieder) an das Audio-Signal angepasst, wobei q die verwendete Absenkung oder Anhebung des Tempos darstellt. Andernfalls (-) wird das Tempo konstant gehalten.
  • Im weiteren Verlauf erfolgt in einem weiteren Schritt 4 eine Summierung aller Korrektur-Ereignisse aus Schritt 3 und der seit dem letzten "Reset" verstrichenen Zeit in eigenen Speichern (nicht gezeigt). Bei ungefähr jedem 5. bis 10. Ereignis einer annähernd akkuraten Synchronisierung (Differenz zwischen den Audiodaten und der Referenz-Clock MCLK etwa unterhalb 5 ms) wird der Tempo-Wert auf der Basis des bisherigen Tempo-Wertes, der bis dahin akkumulierten Korrektur-Ereignisse und der seit dem verstrichenen Zeit in einem weiteren Schritt 5 wie folgt neu errechnet.
  • Mit
    • q als der in Schritt 3 verwendeten Absenkung oder Anhebung des Tempos (beispielsweise um den Wert 0.1),
    • dt als der Summe der Zeit, für welche das Tempo insgesamt abgesenkt oder angehoben wurde (Anhebung positiv, Absenkung negativ),
    • T als dem seit dem letzten Reset (Schritt 1) verstrichenen Zeitintervall, und
    • bpm als dem in Schritt 1 verwendeten Tempowert A
    errechnet sich das neue, verbesserte Tempo nach folgender einfachen Formel: bpm_neu = bpm * 1 + q * dt / T
    Figure imgb0007
  • Weiter wird geprüft, ob die Korrekturen in Schritt 3 über einen gewissen Zeitraum hinweg immer jeweils negativ oder positiv sind. In solch einem Fall liegt wahrscheinlich eine Tempo-Änderung im Audiomaterial vor, die mit obigem Verfahren nicht korrigiert werden kann. Dieser Status wird erkannt und bei Erreichen des nächsten annähernd perfekten Synchronisations-Ereignisses (Schritt 5) werden der Zeit- und der Korrekturspeicher in einem Schritt 6 gelöscht, um den Ausgangspunkt in Phase und Tempo neu zu setzten. Nach diesem "Reset" beginnt die Prozedur erneut mit einem Aufsetzen auf Schritt 2 das Tempo zu optimieren.
  • Eine Synchronisierung eines zweiten Musikstückes erfolgt nun durch Anpassung von dessen Tempo und Phase. Die Anpassung des zweiten Musikstückes erfolgt indirekt über den Referenz-Oszillator. Nach der oben beschriebenen näherungsweisen Tempo- und Phasenermittlung des Musikstückes werden diese Werte sukzessive nach obigem Verfahren an den Referenz-Oszillator angepasst, nur wird diesmal die Abspielphase und die Abspielgeschwindigkeit des Tracks selbst verändert. Das-originale Tempo des Tracks lässt sich rückwärts leicht aus der notwendigen Veränderung seiner Abspielgeschwindigkeit gegenüber der Original-Abspielgeschwindigkeit errechnen.
  • Desweiteren ermöglicht die gewonnene Information über das Tempo und die Phase eines Audiotracks die Ansteuerung sogenannter temposynchroner Effekte. Dabei wird das Audiosignal passend zum eigenen Rhythmus manipuliert, was rhythmisch effektvolle Echtzeit-Klangveränderung ermöglicht. Insbesondere kann die Tempo-Information dazu genutzt werden, Loops mit taktgenauen Längen in Echtzeit aus dem Audiomaterial herauszuschneiden.
  • Wie bereits eingangs erwähnt, werden herkömmlicherweise beim Mischen mehrerer Musikstücke die Audioquellen von Tonträgern auf mehreren Abspielgeräten abgespielt und über ein Mischpult abgemischt. Bei dieser Vorgehensweise beschränkt sich eine Audioaufnahme auf eine Aufzeichnung des Endresultats. Eine Reproduktion des Mischvorganges oder von Scratch-Vorgängen und ein Aufsetzen zu einem späteren Zeitpunkt exakt an einer vorgebbaren Position innerhalb eines Musikstückes ist damit nicht möglich.
  • Genau dies erreicht nun die vorliegende Erfindung, indem ein Dateiformat für digitale Steuerinformationen vorgeschlagen wird, welches die Möglichkeit bietet, den Vorgang des interaktiven Mischens und eine eventuelle Effektbearbeitung von Audioquellen aufzuzeichnen und akkurat wiederzugeben. Dies ist insbesondere mit einem wie vorangehend beschriebenen Musik-Abspieler möglich.
  • Die Aufzeichnung von Mischvorgängen oder eines Scratch-Vorgangs gliedert sich in eine Beschreibung der verwendeten Audioquellen und einen zeitlichen Ablauf von Steuerinformationen des Mischvorgangs oder Scratch-Vorgangs und zusätzlicher Effektbearbeitung.
  • Es werden nur die Information über den eigentlichen Mischvorgang oder Scratch-Vorgang und über die Ursprungsaudioquellen benötigt, um das Resultat wiederzugeben. Die eigentlichen digitalen Audiodaten werden extern zur Verfügung gestellt. Dies vermeidet urheberrechtlich problematische Kopiervorgänge von geschützton Musikstücken. Es können durch das Abspeichern von digitalen Steuerinformationen somit Mischvorgänge von mehreren Audiostücken im Hinblick auf Abspielpositionen, Synchronisationsinformationen, Echtzeiteingriffe mit Audio-Signalverarbeitungsmitteln etc. als ein Mix der Audioquellen und deren Effektbearbeitung z.B. mit Scratch-Effekten als neues Gesamtwerk mit vergleichsweise langer Abspieldauer realisiert werden.
  • Dies bietet den Vorteil, dass die Beschreibung der Bearbeitung der Audioquellen im Vergleich zu den erzeugten Audiodaten des Mischvorgangs gering sind, der Mischvorgang an beliebigen Stellen editiert und wiederaufgesetzt werden kann. Außerdem können vorhandene Audiostücke in verschiedenen Zusammenfassungen oder als längere zusammenhängende Interpretationen wiedergegeben werden.
  • Mit bisherigen Tonträgern und Musik-Abspielgeräten war es hingegen nicht möglich, die Interaktion eines Anwenders aufzuzeichnen und wiederzugeben, da den bekannten Abspielgeräten die technischen Voraussetzungen fehlen, diese genau genug zu steuern. Dies wird erst durch die vorliegende Erfindung ermöglicht, indem mehrere digitale Audioquellen wiedergegeben und deren Abspielpositionen bestimmt und gesteuert werden können. Dadurch wird es möglich, den gesamten Vorgang digital zu verarbeiten und entsprechende Steuerdaten in einer Datei zu speichern. Diese digitalen Steuerinformationen werden vorzugsweise in einer Auflösung abgelegt, die der Abtastrate der verarbeiteten digitalen Audiodaten entspricht.
  • Die Aufzeichnung gliedert sich im wesentlichen in 2 Teile:
    • eine Liste der verwendeten Audioquellen z.B. digitale Aufgezeichnete Audiodaten in komprimierter und unkomprimierter Form wie z.B. WAV, MPEG, AIFF und digitale Tonträger wie etwa eine Compact Disk und
    • den zeitlichen Ablauf der Steuerinformation.
  • Die Liste der Verwendeten Audioquellen enthält u.a.:
    • Informationen zur Identifizierung der Audioquelle
    • zusätzlich berechnete Information, die Charakteristiken der Audioquelle beschreibt (z.B. Abspiellänge und Tempoinformationen)
    • beschreibende Information zur Herkunft und Urheberinformation der Audioquelle (z.B. Künstler, Album, Verlag etc.)
    • Metainformation, z.B. Zusatzinformation die über den Hintergrund der Audioquelle informiert (z.B. Musikgenre, Information zum Künstler und Verlag)
  • Die Steuerinformation speichert u.a.:
    • die zeitliche Abfolge von Steuerdaten
    • die zeitliche Abfolge von exakten Abspielpositionen in der Audioquelle
    • Intervalle mit kompletter Zustandsinformation aller Stellglieder, um als Wiederaufsetzpunkte der Wiedergabe zu dienen
  • Im Folgenden ist ein mögliches Beispiel der Verwaltung der Liste von Audiostücken in einer Ausprägung des XML Formats dargestellt. Dabei steht XML als Abkürzung für Extensible Markup Language. Dies ist eine Bezeichnung für eine Metasprache zur Beschreibung von Seiten im WWW (World Wide Web). Dabei ist es im Gegensatz zu HTML (Hypertext Markup Language) möglich, dass der Autor eines XML-Dokumentes im Dokument selbst bestimmte Erweiterungen von XML im Document-Type-Definition-Teil des Dokumentes definiert und im gleichen Dokument auch nutzt.
 <?xml version="1.0" encoding="ISO-8859-1"?>

 <MJL VERSION="Versions Beschreibung">

 <HEAD PROGRAM="Programmname" COMPANY=" Firmenname"/>

 <MIX TITLE="Titel des Mixes">

 <LOCATION FILE="Kennung der Steuerinformationsdatei" PATH="Speicherort der
 Steuerinformationsdatei"/>

 <COMMENT>Kommentare und Bemerkungen zum Mix</COMMENT>

 </MIX>

 <PLAYLIST>

 <ENTRY TITLE="Titel Eintrag 1" ARTIST="Name des Autors" ID="Kennung des
 Titels">

 <LOCATION FILE=" Kennung der Audioquelle" PATH-"Speicherort der Audioquel-
 le" VOLUME="Speichermedium der Datei"/>

 <ALBUM TITLE="Name des zugehörigen Albums" TRACK="Kennung des Tracks auf
 Album"/>

 <INFO PLAYTIME="Abspieldauer in Sekunden" GENRE_ID="Musik Genre-Kennung"/>
 <TEMPO BPM="Abspieltempo in BPM" BPM_QUALITY="GUte des Tempowerts aus der
 Analyse"/>

 <CUE POINT1="Lage des 1. Markierungspunkts" ... POINTn="Lage des n. Markie-
 rungspunkts"/>

 <FADE TIME-"Überblendzeit" MODE="Überblendmodus">

 <COMMENT>Kommentare und Bemerkungen zum Audiostück>

 <IMAGE FILE="Kennung einer Bilddatei als zusätzliche Kommentarmöglich-
 keit"/>

 <REFERENCE URL="Kennung für weiterführende Informationen zur Audioquel-
 le"/>

 </COMMENT>

 </ENTRY>

 ...

 <ENTRY ...>

 ...

 </ENTRY>

 </PLAYLIST>

 </MJL>
  • Mögliche Voreinstellungen bzw. Steuerdaten zur automatischen Erzeugung von Scratch-Effekten wie im vorangehenden beschrieben, werden im folgenden beschrieben.
  • Hierbei handelt es sich um eine Reihe von Bedienelementen, mit welchen alle Parameter des Scratches im Vorfeld eingestellt werden können. Hierzu gehört:
    • Scratch Art (Full-Stop, Back & For, Back-Spin, u.v.m.)
    • Scratch Dauer (1,2,... beats - auch Druckdauer-Abhängig s.u.)
    • Scratch Geschwindigkeit (Spitzengeschwindigkeit)
    • Beschleunigungsdauer a (Dauer einer Geschwindigkeitsänderung von +/-1)
    • Scratch Frequenz (Wiederholungen pro beat bei rhythmischen Scratches)
    • Gate Frequenz (Wiederholungen pro beat)
    • Gate Shape (Verhältnis von "An"- zu "Aus"-Phase)
    • Gate Offset (Versatz des Gate relativ zum Takt)
    • Gate Routing (Zuweisung des Gates auf andere Effekt-Parameter)
  • Dies sind nur einige von vielen denkbaren Parametern, die je nach Art eines realisierten Scratch-Effektes anfallen.
  • Der eigentliche Scratch wird nach erfolgter Voreinstellung durch einen zentralen Button/Steuerelement ausgelöst und entwickelt sich von diesem Punkt an automatisch. Der Benutzer braucht den Scratch lediglich durch den Moment, in welchem er die Taste drückt (Auswahl des gescratchten Audio-Samples) und durch die Dauer, des Tastendruckes (Auswahl der Scratch-Länge) beeinflussen.
  • Die Steuerinformationsdaten, referenziert durch die Liste von Audiostücken, werden vorzugsweise im Binärformat gespeichert. Der prinzipielle Aufbau der abgespeicherten Steuerinformationen in einer Datei lässt sich beispielhaft wie folgt beschreiben:
  •  [Anzahl der Steuerblöcke N]
    
     Für [Anzahl der Steuerblöcke N] wird wiederholt (
    
     [Zeitdifferenz seit letztem Steuerblock in Millisekunden]
    
     [Anzahl der Steuerpunkte M]
    
     Für [Anzahl der Steuerpunkte M] wird wiederholt {
    
     [Kennung des Controllers]
    
     [Controller Kanal]
    
     [Neuer Wert des Controllers]
    
          }
    
     }
  • Mit [Kennung des Controllers] ist ein Wert bezeichnet, der ein Steuerglied (z.B. Lautstärke, Geschwindigkeit, Position, Abspielrichtung etc.) des interaktiven Musik-Abspielers identifiziert. Solchen Steuergliedern können mehrere Unterkanäle [Controller Kanal], z.B. Nummer des Abspielmoduls, zugeordnet sein. Ein eindeutiger Steuerpunkt M wird durch [Kennung des Controllers], [Controller Kanal] adressiert.
  • Als Resultat entsteht eine digitale Aufzeichnung des Mischvorgangs oder des Scratch-Vorgangs, der gespeichert, nicht-destruktiv im Bezug auf das Audiomaterial reproduziert, vervielfältigt und übertragen werden kann, z.B. über das Internet.
  • Eine vorteilhafte Ausführung mit solchen Steuerdateien stellt ein Datenträger D dar, wie dieser anhand von FIG 9 veranschaulicht ist. Dieser weist eine Kombination einer normalen Audio-CD mit digitalen Audiodaten AUDIO_DATA eines ersten Datenbereichs D1 mit einem auf einem weiteren Datenteil D2 der CD untergebrachten Programm PRG_DATA zum Abspielen solcher ebenfalls vorhandener Mixdateien oder Scratch-Effekt Dateien MIX_DATA auf, die unmittelbar auf die auf der CD abgelegten Audio-Daten AUDIO_DATA zugreifen. Dabei muss die Abspiel- bzw. Mix-Applikation PRG_DATA nicht zwingend Bestandteil eines solchen Datenträgers sein. Auch eine Kombination aus einem ersten Datenbereich D1 mit digitalen Audioinformationen AUDIO DATA und einem zweiten Datenbereich mit einer oder mehreren Dateien mit den genannten digitalen Steuerdaten MIX_DATA ist vorteilhaft, denn ein solcher Datenträger beinhaltet in Verbindung mit einem Musik-Abspieler der Erfindung alle erforderlichen Informationen zur Reproduktion eines zu einem früheren Zeitpunkt erstellten neuen Gesamtwerkes aus den vorhandenen digitalen Audioquellen.
  • Besonders vorteilhaft jedoch lässt sich die Erfindung auf einem geeignet programmierten digitalen Computer mit entsprechenden Audio-Schnittstellen realisieren, indem ein Softwareprogramm die im vorangehenden dargestellten Verfahrensschritte auf dem Computersystem durchführt (z.B. die Abspiel- bzw. Mix-Applikation PRG_DATA).
  • Alle in der vorstehenden Beschreibung erwähnten bzw. in den Figuren dargestellten Merkmale sollen, sofern der bekannte Stand der Technik dies zulässt, für sich allein oder in Kombination als unter die Erfindung fallend angesehen werden.
  • Die vorangehende Beschreibung bevorzugter Ausführungsformen nach der Erfindung ist zum Zwecke der Veranschaulichung angegeben. Diese Ausführungsbeispiele sind nicht erschöpfend. Auch ist die Erfindung nicht auf die genaue angegebene Form beschränkt, sondern es sind zahlreiche Modifikationen und Änderungen im Rahmen der vorstehend angegebenen technischen Lehre möglich. Eine bevorzugte Ausführungsform wurde gewählt und beschrieben, um die prinzipiellen Details der Erfindung und praktische Anwendungen zu verdeutlichen, um den Fachmann in die Lage zu versetzen, die Erfindung zu realisieren. Eine Vielzahl bevorzugter Ausführungsformen sowie weitere Modifikationen kommen bei speziellen Anwendungsgebieten in Betracht.
  • Bezugszeichenliste
  • beat
    Dauer einer Viertelnote eines gegenwärtigen Tracks
    ab
    Dauer des Abbrems- und Beschleunigungsvorgangs
    c
    Stillstandsphase
    SAMPLE
    Abspielposition des Audiosignals
    t
    Zeit
    v
    Geschwindigkeit
    x
    Weg
    T
    Gesamtdauer eines Scratches
    Rückwärtslaufphase
    vo
    Vorwärtslaufphase
    RATE
    Frequenz eines Gate-Vorgangs
    SHAPE
    Verhältnis von "An"- zu "Aus"-Phase
    OFFSET
    Phasen-Verschiebung, relativ zum Referenztakt
    Ei
    Events eines Audiodatenstroms
    Ti
    Zeitintervalle
    F1, F2
    Frequenzbänder
    BD1, BD2
    Detektoren für rhythmusrelevante Informationen
    BPM REF
    Referenz-Zeitintervall
    BPM_C1, BPM_C2
    Verarbeitungseinheiten zur Tempoerkennung
    T1i
    ungruppiert Zeitintervalle
    T2i
    Paare von Zeitintervallen
    T3i
    Dreiergruppen von Zeitintervallen
    OKT
    Zeit-Oktavierungseinheiten
    T1io...T3io
    zeit-oktavierte Zeitintervalle
    CHK
    Konsistenzprüfung
    BPM1,BPM2
    unabhängige Ströme von Tempowerten bpm
    STAT
    Statistische Auswertung der Tempowerte
    N
    Häufungspunkte
    A, bpm
    näherungsweise ermitteltes Tempo eines Musikstückes
    P
    näherungsweise ermittelte Phase eines Musikstückes
    1...6
    Verfahrensschritte
    MCLK
    Referenz-Oszillator / Master-Clock
    V
    Komparator
    +
    Phasenübereinstimmung
    -
    Phasenverschiebung
    q
    Korrekturwert
    bpm_neu
    resultierender neuer Tempowert A
    RESET
    Neustart bei Tempoänderung
    CD-ROM
    Audiodatenquelle / CD-Rom-Laufwerk
    S
    zentrale Instanz / Scheduler
    TR1...TRn
    Audiodatentracks
    P1...Pn
    Pufferspeicher
    A1...An
    aktuelle Abspielpositionen
    S1...Sn
    Anfänge der Daten
    R1, R2
    Regler / Steuerelemente
    LP
    Tiefpaß-Filter
    DIFF
    Differenzierer
    SW1
    Schalter
    IN1, IN2
    erster und zweiter Eingang
    a
    erster Betriebsmodus
    b
    zweiter Betriebsmodus
    SL
    Mittel zur Rampenglättung / Slew Limiter
    PLAY
    Abspieleinheit
    DEC
    Decoder
    B
    Pufferspeicher
    R
    Ausleseeinheit mit variablem Tempo
    PEF
    Pre-Emphase-Filter / Vorverzerrungs-Filter
    DEF
    De-Emphase-Filter / Rückentzerrungs-Filter
    AUDIO_OUT
    Audio-Ausgabe
    D
    Tonträger / Datenträger
    D1, D2
    Datenbereiche
    AUDIO_DATA
    digitale Audiodaten
    MIX_DATA
    digitale Steuerdaten
    PRG_DATA
    Computerprogrammdaten

    Claims (24)

    1. Verfahren zur elektrischen Klangerzeugung durch automatische Modulation eines Audiosignals auf eine Weise, dass musikalische Scratch-Effekte erzeugt werden, wobei bei dem Verfahren als Ausgangsmaterial ein eine vorgebbare Zeitdauer andauerndes, in digitalem Format vorliegendes Audiosignal (Sample) dient, welches anhand von Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen (beat) in Abhängigkeit einer musikalischen Tempoinformation in seiner Wiedergaboposition und/oder in der Wiedergabe-Richtung und/oder in der Wiedergabe-Geschwindigkeit und/oder in der Wiedergabe-Lautstärke und/oder Klangcharakteristik moduliert wird,
      wobei als musikalische Tempoinformation das automatisch ermittelte Tempo des verwendeten Audiomaterials (Sample) dient oder als musikalische Tempoinformation ein externes Referenz-Tempo dient, und wobei die Steuerinformationen Bewegungsabläufe einer Schallplatte auf einem Plattenteller eines Schallplattenspielers repräsentieren.
    2. Verfahren zur elektrischen Klangerzeugung nach Anspruch 1, dadurch gekennzeichnet, dass zur Generierung von Steuerinformationen Bewegungsabläufe einer Schallplatte bei einem manuellen Scratch als zeitdiskrete Werte aufgezeichnet werden oder
      dass zur Generierung von Steuerinformationen virtuelle Bewegungsabläufe einer Schallplatte für einen Scratch-Effekt in Form von zeitdiskreten Werten in einer vorgebbaren Auflösung konstruiert werden, insbesondere mittels einer graphischen Editierung.
    3. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche 1 bis 2,
      dadurch gekennzeichnet, dass die Steuerinformationen bezüglich der Art, Dauer und Geschwindigkeit der Modulation des Audiosignals die Art, Dauer und Geschwindigkeit eines Bewegungsablaufs einer Schalplatte für einen Scratch-Effekt repräsentieren.
    4. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche 1 bis 3,
      dadurch gekennzeichnet, dass auch eine Beschleunigung eines Bewegungsablaufs einer Schallplatte für einen Scratch-Effekt als zeitdiskreter Steuerwert ermittelt und zur Modulation des Audiosignals vorgegeben wird.
    5. Verfahren zur elektrischen Klangerzeugung nach Anspruch 4,
      dadurch gekennzeichnet, dass zur Erzeugung eines Steuerwertes für die Beschleunigung für einen Bewegungsablauf eines Scratch-Effekts ein Abbremsen und Beschleunigen der Schallplatte mit derselben Beschleunigung angenommen wird.
    6. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche,
      dadurch gekennzeichnet, dass anhand von weiteren Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen (beat) in Abhängigkeit der musikalischen Tempoinformation ein abschnittweises Hervorheben bestimmter Passagen des Audiosignals (Sample) oder des Bewegungsablaufs erfolgt, insbesondere indem ein entsprechendes rhythmisches Hervorheben durch Manipulation der Lautstärke oder der Klangcharakteristik erfolgt.
    7. Verfahren zur elektrischen Klangerzeugung nach einem der vorangehenden Ansprüche,
      dadurch gekennzeichnet, dass zur Ermittlung einer musikalischen Tempoinformation eine Erkennung von Tempo und Phase einer in digitalem Format vorliegenden Musikinformation, insbesondere des Audiosignals (Sample), nach den folgenden Verfahrensschritten erfolgt:
      - näherungsweise Ermittlung des Tempos (A) der Musikinformation durch eine statistische Auswertung (STAT) der zeitlichen Abstände (Ti) rhythmusrelevanter Beat-Informationen in den digitalen Audiodaten (Ei),
      - näherungsweise Ermittlung der Phase (P) des Musikstückes anhand der Lage der Takte in den digitalen Audiodaten im Zeitraster eines mit einer dem ermittelten Tempo proportionalen Frequenz schwingenden Referenz-Oszillators (MCLK),
      - sukzessive Korrektur von ermitteltem Tempo (A) und Phase (P) der Musikinformation anhand einer möglichen Phasenverschiebung des Referenz-Oszillators (MCLK) relativ zu den digitalen Audiodaten durch Auswertung der resultierenden systematischen Phasenverschiebung und Regulierung der Frequenz des Referenz-Oszillators proportional der ermittelten Phasenverschiebung.
    8. Verfahren zur elektrischen Klangerzeugung nach Anspruch 7,
      dadurch gekennzeichnet, dass rhythmusrelevante Beat-Informationen (Ti) durch Bandpassfilterung (F1, F2) der zugrunde liegenden digitalen Audiodaten in verschiedenen Frequenzbereichen gewonnen werden.
    9. Verfahren zur elektrischen Klangerzeugung nach Anspruch 7 oder 8,
      dadurch gekennzeichnet, dass Rhythmusintervalle der Audiodaten im Bedarfsfall durch Multiplikation ihrer Frequenz mit 2er-Potenzen in eine vordefinierte Frequenz-Oktave transformiert (OKT) werden, wo diese Zeitintervalle (T1io...T3io) zur Tempoermittlung liefern.
    10. verfahren zur elektrischen Klangerzeugung nach Anspruch 9,
      dadurch gekennzeichnet, dass der Frequenz-Transformation (OKT) eine Gruppierung von Rhythmusintervallen (Ti), insbesondere in Paare (T2i) oder Dreiergruppen (T3i), durch Addition ihrer Zeitwerte vorausgeht.
    11. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 7 bis 11,
      dadurch gekennzeichnet, dass die gewonnene Menge an Daten von Zeitintervallen (BPM1, BPM2) der rhythmusrelevanten Beat-Informationen auf Häufungspunkte (N) untersucht wird und die näherungsweise Tempoermittlung anhand der Informationen eines Häufungsmaximums erfolgt.
    12. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 7 bis 11,
      dadurch gekennzeichnet, dass zur näherungsweisen Ermittlung der Phase (P) des Musikstückes die Phase des Referenz-Oszillators (MCLK) derart gewählt wird, dass sich die größtmögliche Übereinstimmung zwischen den rhythmusrelevanten Beat-Informationen in den digitalen Audiodaten und den Nulldurchgängen des Referenz-Oszillators (MCLK) einstellt.
    13. Verfahren zur elektrischen Klangerzeugung nach einem der Ansprüche 7 bis 11,
      dadurch gekennzeichnet, dass eine sukzessive Korrektur (2, 3, 4, 5) von ermitteltem Tempo und Phase des Musikstückes in regelmäßigen Abstanden in so kurzen Zeitintervallen erfolgt, dass resultierende Korrekturbewegungen und/oder Korrekturverschiebungen unterhalb der Hörbarkeitsgrenze bleiben,
      und /oder
      dass alle sukzessiven Korrekturen von ermitteltem Tempo und Phase des Musikstückes über die Zeit akkumuliert (4) werden und darauf aufbauend weitere Korrekturen mit stetig steigender Präzision erfolgen, wobei vorzugsweise sukzessive Korrekturen solange erfolgen, bis ein vorgegebener tolerierbarer Fehlergrenzwert unterschritten wird, insbesondere bis für das ermittelte Tempo ein Fehlergrenzwert kleiner als 0,1% unterschritten wird,
      und/oder
      dass für den Fall, dass die Korrekturen über einen vorgebbaren Zeitraum hinweg immer jeweils negativ oder positiv sind (6), eine erneute (RESET) näherungsweise Ermittlung von Tempo (A) und Phase (P) mit anschließender sukzessiver Korrektur (2, 3, 4, 5) erfolgt.
    14. Interaktiver Musik-Abspieler zur elektrischen Klangerzeugung durch automatische Modulation eines Audiosignals auf eine Weise, dass musikalische Scratch-Effekte erzeugt werden, umfassend
      - eine Bearbeitungseinheit, die so ausgebildet und eingerichtet ist, dass ein eine vorgebbare Zeitdauer andauerndes Ausgangsmaterial, das in digitalem Format als Audiosignal (Sample) vorliegt, anhand von Steuerinformationen in unterschiedlich vorgebbarer Weise automatisch und rhythmusbezogen (beat) in Abhängigkeit einer musikalischen Tempoinformation in seiner Wiedergaboposition und/oder in der Wiedergabe-Richtung und/oder in der Wiedergabe-Geschwindigkeit und/oder in der Wiedergabe-Lautstärke und/oder Klangcharakteristik moduliert wird, wobei als musikalische Tempoinformation das automatisch ermittelte Tempo des verwendeten Audiomaterials (Sample) dient oder als musikalische Tempoinformation ein über eine Schnittestelle bereitgestelltes externes Referenz-Tempo dient, und
      - eine Schnittstelle vorhanden ist, um Steuerinformationen zu empfangen, die dann interpretiert werden, wobei die Steuerinformationen Bewegungsabläufe einer Schallplatte auf einem Plattenteller eines Schallplattenspielers repräsentieren,
      - ein Mittel zur graphischen Darstellung der Steuerinformationen.
    15. Interaktiver Musik-Abspieler nach Anspruch 14, mit - einem Mittel zur graphischen Darstellung der aktuellen Abspielposition, mit dem eine Amplitudenhüllkurve der Klangwellenform des wiedergegebenen Musikstückes über einen vorgebbaren Zeitraum vor und nach der aktuellen Abspielposition darstellbar ist, wobei sich die Darstellung in Echtzeit mit dem Tempo der Wiedergabe des Musikstückes verschiebt, und mit
      - einem Mittel zur Glättung (LP, SL) eines stufigen Verlaufs zeitlich begrenzter, mit dem zweiten Steuerelement (R2) vorgegebener Abspiel-Positionsdaten zu einem sich gleichmäßig mit einer der Audio-Abtastrate entsprechenden zeitlichen Auflösung ändernden Signal.
    16. Interaktiver Musik-Abspieler nach Anspruch 15, wobei zur Glättung eines stufigen Verlaufs zeitlich begrenzter Abspiel-Positionsdaten ein Mittel zur Rampenglättung (SL) vorgesehen ist, durch das mit jeder vorgegebenen Abspiel-Positionsnachricht eine Rampe mit konstanter Steigung auslösbar ist, die in einem vorgebbaren Zeitintervall das geglättete Signal von seinem bisherigen Wert auf den Wert der Abspiel-Positionsnachricht fährt
      oder
      wobei ein lineares digitales Tiefpaß-Filter (LP), insbesondere ein Resonanzfilter zweiter Ordnung, zur Glättung eines stufigen Verlaufs zeitlich begrenzter vorgegebener Abspiel-Positionsdaten dient.
    17. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 15 bis 16, wobei im Fall eines Wechsels zwischen den Betriebsmodi (a, b) die im vorhergehenden Modus erreichte aktuelle Abspielgeschwindigkeit (DIFF) durch eine Glättungsfunktion, insbesondere eine Rampenglättung (SL) oder ein lineares digitales Tiefpaß-Filter (LP), auf die dem neuen Betriebsmodus entsprechende Abspielgeschwindigkeit führbar ist
      und/oder
      wobei ein Audiosignal ein Scratch-Audio-Filter durchläuft, indem das Audiosignal einer Pre-Emphase-Filterung (PEF) unterzogen und in einem Pufferspeicher (B) abgelegt wird, aus dem es in Abhängigkeit von der jeweiligen Abspielgeschwindigkeit mit variablem Tempo auslesbar (R) ist, um anschließend einer De-Emphase-Filterung (DEF) unterzogen und wiedergegeben zu werden.
    18. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 15 bis 17, wobei jeder wiedergegebene Audiodatenstrom durch Signalverarbeitungsmittel in Echtzeit manipulierbar ist, insbesondere durch Filtereinrichtungen und/oder Audioeffekte.
    19. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 15 bis 18, wobei Echtzeiteingriffe über den zeitlichen Ablauf als digitale Steuerinformationen (MIX_DATA) speicherbar sind, insbesondere solche eines manuellen Scratch-Eingriffs mit einem separaten Steuerelement (R2) und/oder zusätliche Signalverarbeitungen.
    20. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 15 oder 19, wobei gespeicherte digitale Steuerinformationen ein Format aufweisen, das Informationen zur Identifikation der verarbeiteten Musikstücke und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpositionen und Zustandsinformationen der Stellglieder des Musik-Abspielers umfasst.
    21. Interaktiver Musik-Abspieler nach einem der vorangehenden Ansprüche 15 bis 20, der durch ein geeignet programmiertes mit Audioschnittstellen ausgestattetes Computersystem realisiert ist.
    22. Computerprogrammprodukt, das direkt in den internen Speicher eines digitalen Computers geladen werden kann und Softwareabschnitte umfasst, mit denen die Verfahrensschritte gemäß einem der Ansprüche 1-13, 15, 16 ausgeführt werden, wenn das Programmprodukt auf einem Computer ausgeführt wird, wobei die Steuerdaten bereits auf dem Computerprogrammprodukte abgelegt sein können, so dass ein automatisches abspielen ermöglicht wird.
    23. Computerprogrammprodukt nach dem Anspruch 22, insbesondere Compact Disc, umfassend
      - einen ersten Datenbereich (D1) mit digitalen Audiodaten (AUDIO_DATA) eines oder mehrerer Musikstücke (TR1...TRn) und
      - einen zweiten Datenbereich (02) mit einer Steuerdatei (MIX_DATA) mit digitalen Steuerinformationen zur Ansteuerung eines Musik-Abspielers umfasst, wobei
      - die Steuerdaten (MIX_DATA) des zweiten Datenbereichs (D2) auf Audiodaten (AUDIO_DATA) des ersten Datenbereichs (D1) Bezug nehmen.
    24. Computerprogrammprodukt nach Anspruch 23, wobei die digitalen Steuerinformationen (MIX_DATA) des zweiten Datenbereichs (D2) interaktive Aufzeichnungen von manuellen Scratch-Eingriffen und/oder Startpunkte und Art automatischer Scratch-Eingriffe in Musikstücke als ein neues Gesamtwerk der digitalen Audioinformationen (AUDIO_DATA) von Musikstücken des ersten Datenbereichs (D1) repräsentieren
      und/oder
      wobei gespeicherte digitale Steuerinformationen (MIX_DATA) des zweiten Datenbereichs (D2) ein Format aufweisen, das Informationen zur Identifikation der verarbeiteten Musikstücke (TR1...TRn) des ersten Datenbereichs (D1) und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpositionen und Zustandsinformationen der Stellglieder des Musik-Abspielers umfasst.
    EP02754699A 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch-effekten Expired - Lifetime EP1415297B1 (de)

    Applications Claiming Priority (5)

    Application Number Priority Date Filing Date Title
    DE10129301 2001-06-18
    DE10129301 2001-06-18
    DE10153673 2001-09-05
    DE10153673A DE10153673B4 (de) 2001-06-18 2001-09-05 Automatische Erzeugung von musikalischen Scratch-Effekten
    PCT/EP2002/006708 WO2002103671A2 (de) 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch-effekten

    Publications (2)

    Publication Number Publication Date
    EP1415297A2 EP1415297A2 (de) 2004-05-06
    EP1415297B1 true EP1415297B1 (de) 2008-09-24

    Family

    ID=26009542

    Family Applications (1)

    Application Number Title Priority Date Filing Date
    EP02754699A Expired - Lifetime EP1415297B1 (de) 2001-06-18 2002-06-18 Automatische erzeugung von musikalischen sratch-effekten

    Country Status (3)

    Country Link
    US (1) US7041892B2 (de)
    EP (1) EP1415297B1 (de)
    WO (1) WO2002103671A2 (de)

    Families Citing this family (27)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    NL1014526C2 (nl) 2000-02-29 2001-08-30 N2It Dev B V I O Schijf te gebruiken in een inrichting voor signaalbewerking, alsmede een dergelijke inrichting.
    DE10164686B4 (de) * 2001-01-13 2007-05-31 Native Instruments Software Synthesis Gmbh Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
    US8077568B2 (en) * 2002-11-12 2011-12-13 Spencer Charles A Method and system for synchronizing information specific to a location on a surface with an external source
    KR20040060718A (ko) * 2002-12-28 2004-07-06 삼성전자주식회사 오디오 스트림 믹싱 방법, 그 장치 및 그 정보저장매체
    US7208672B2 (en) * 2003-02-19 2007-04-24 Noam Camiel System and method for structuring and mixing audio tracks
    NL1025634C2 (nl) * 2004-03-04 2005-09-07 Circle Music Systems Inrichting voor het verwerken van audiosignalen, geluidsinstallatie voor het verwerken van audiosignalen, werkwijze voor het verwerken van audiosignalen en een computerprogramma voor het uitvoeren van een dergelijke werkwijze.
    JP4650662B2 (ja) * 2004-03-23 2011-03-16 ソニー株式会社 信号処理装置および信号処理方法、プログラム、並びに記録媒体
    US20060173692A1 (en) * 2005-02-03 2006-08-03 Rao Vishweshwara M Audio compression using repetitive structures
    WO2006104163A1 (ja) * 2005-03-28 2006-10-05 Pioneer Corporation オーディオ信号再生装置
    US7518053B1 (en) * 2005-09-01 2009-04-14 Texas Instruments Incorporated Beat matching for portable audio
    KR100774533B1 (ko) * 2005-12-08 2007-11-08 삼성전자주식회사 이동통신 단말기에서 외부입력 장치를 이용한 사운드 효과발생 방법
    JP2007304128A (ja) * 2006-05-08 2007-11-22 Roland Corp 効果装置
    US7482527B2 (en) * 2006-06-06 2009-01-27 Benq Corporation Method of utilizing a touch sensor for controlling music playback and related music playback device
    US7956274B2 (en) * 2007-03-28 2011-06-07 Yamaha Corporation Performance apparatus and storage medium therefor
    JP4311466B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
    JP2008262021A (ja) * 2007-04-12 2008-10-30 Hiromi Murakami 電気楽器における位相切替装置
    US7985911B2 (en) 2007-04-18 2011-07-26 Oppenheimer Harold B Method and apparatus for generating and updating a pre-categorized song database from which consumers may select and then download desired playlists
    US20080257134A1 (en) * 2007-04-18 2008-10-23 3B Music, Llc Method And Apparatus For Generating And Updating A Pre-Categorized Song Database From Which Consumers May Select And Then Download Desired Playlists
    US7985915B2 (en) * 2007-08-13 2011-07-26 Sanyo Electric Co., Ltd. Musical piece matching judging device, musical piece recording device, musical piece matching judging method, musical piece recording method, musical piece matching judging program, and musical piece recording program
    JP2009063714A (ja) * 2007-09-05 2009-03-26 Sony Computer Entertainment Inc オーディオ再生装置およびオーディオ早送り再生方法
    WO2009038539A1 (en) * 2007-09-19 2009-03-26 Agency For Science, Technology And Research Apparatus and method for transforming an input sound signal
    US8173883B2 (en) * 2007-10-24 2012-05-08 Funk Machine Inc. Personalized music remixing
    EP2523372A1 (de) * 2011-05-09 2012-11-14 British Telecommunications Public Limited Company System zur Lieferung von Inhalten
    US8729375B1 (en) * 2013-06-24 2014-05-20 Synth Table Partners Platter based electronic musical instrument
    US11024272B2 (en) * 2017-01-19 2021-06-01 Inmusic Brands, Inc. Graphical interface for selecting a musical drum kit on an electronic drum module
    JP2020106753A (ja) * 2018-12-28 2020-07-09 ローランド株式会社 情報処理装置および映像処理システム
    US10593313B1 (en) 2019-02-14 2020-03-17 Peter Bacigalupo Platter based electronic musical instrument

    Family Cites Families (21)

    * Cited by examiner, † Cited by third party
    Publication number Priority date Publication date Assignee Title
    US4300225A (en) * 1979-08-09 1981-11-10 Lambl George R Disco beat meter
    US5313011A (en) * 1990-11-29 1994-05-17 Casio Computer Co., Ltd. Apparatus for carrying out automatic play in synchronism with playback of data recorded on recording medium
    JP2896716B2 (ja) * 1991-03-01 1999-05-31 ヤマハ株式会社 自動演奏装置
    JP3245890B2 (ja) * 1991-06-27 2002-01-15 カシオ計算機株式会社 拍検出装置及びそれを用いた同期制御装置
    US5350882A (en) * 1991-12-04 1994-09-27 Casio Computer Co., Ltd. Automatic performance apparatus with operated rotation means for tempo control
    JP2734909B2 (ja) * 1992-10-12 1998-04-02 ヤマハ株式会社 波形データ読み出し装置
    EP0880779A1 (de) 1995-06-20 1998-12-02 André Rickli Digitales tonsignalverarbeitungsgerät
    US6025552A (en) * 1995-09-20 2000-02-15 Yamaha Corporation Computerized music apparatus processing waveform to create sound effect, a method of operating such an apparatus, and a machine-readable media
    US6011212A (en) * 1995-10-16 2000-01-04 Harmonix Music Systems, Inc. Real-time music creation
    US5627335A (en) * 1995-10-16 1997-05-06 Harmonix Music Systems, Inc. Real-time music creation system
    US5824933A (en) * 1996-01-26 1998-10-20 Interactive Music Corp. Method and apparatus for synchronizing and simultaneously playing predefined musical sequences using visual display and input device such as joystick or keyboard
    JP3399297B2 (ja) * 1997-05-22 2003-04-21 ヤマハ株式会社 電子楽器
    JP4060993B2 (ja) * 1999-07-26 2008-03-12 パイオニア株式会社 オーディオ情報記憶制御方法及び装置並びにオーディオ情報出力装置。
    US6479740B1 (en) * 2000-02-04 2002-11-12 Louis Schwartz Digital reverse tape effect apparatus
    JP3687467B2 (ja) * 2000-02-25 2005-08-24 ティアック株式会社 記録媒体再生装置
    JP2001243692A (ja) * 2000-02-25 2001-09-07 Teac Corp 記録媒体再生装置
    DE10164686B4 (de) * 2001-01-13 2007-05-31 Native Instruments Software Synthesis Gmbh Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
    EP1423852A4 (de) * 2001-08-07 2009-10-28 Kent Justin A System zum umsetzen einer plattenspielerbewegung in midi-daten
    US6541690B1 (en) * 2001-12-18 2003-04-01 Jerry W. Segers, Jr. Scratch effect controller
    US6818815B2 (en) * 2002-05-06 2004-11-16 Stanton Magnetics Inc. Phonograph turntable with MIDI output
    JP3933583B2 (ja) * 2003-01-10 2007-06-20 ローランド株式会社 電子楽器

    Also Published As

    Publication number Publication date
    US20040177746A1 (en) 2004-09-16
    WO2002103671A3 (de) 2003-10-09
    WO2002103671A2 (de) 2002-12-27
    EP1415297A2 (de) 2004-05-06
    US7041892B2 (en) 2006-05-09

    Similar Documents

    Publication Publication Date Title
    EP1415297B1 (de) Automatische erzeugung von musikalischen sratch-effekten
    DE10164686B4 (de) Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
    DE69623318T2 (de) Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken
    DE69823947T2 (de) Verfahren, Vorrichtung und Aufzeichnungsmedium zur Erzeugung von Tondaten
    DE69930787T2 (de) Multimedia-System und Verfahren für die automatische Selektion einer Szene
    DE202020005830U1 (de) Vorrichtung zum Zerlegen, Rekombinieren und Abspielen von Audiodaten
    DE69625693T2 (de) Verfahren und vorrichtung zur formatierung von digitalen, elektrischen daten
    DE69922284T2 (de) Vorrichtung und Verfahren zur Wiedergabe von Musik zusammen mit Taktschlaginformation
    DE60024157T2 (de) Vorrichtung und Verfahren zur Eingabe eines Vortragstils
    DE69632696T2 (de) Digitales Musikinstrument mit Wellenformbearbeitung zur Erzeugung eines Klangeffektes
    DE68920730T2 (de) Plattenwiedergabegerät.
    DE202014100553U1 (de) Gerät zur Wiedergabesteuerung von digitalen Multimediadaten sowieein entsprechendes computerlesbares Speichermedium
    DE19714688A1 (de) Verfahren zur Reproduzierung von Audiosignalen und Audioabspielgerät
    DE69632695T2 (de) Verfahren und Vorrichtung zur Musiktonerzeugung
    DE19843702A1 (de) Editieren digitalisierter Audio/Videodaten über ein Netzwerk
    DE10009082A1 (de) Gerät zur Wiedergabe einer Wellenform
    DE3918768C2 (de) Schneidanordnung für eine Vielzahl von Videobandrecordern und dabei anwendbares Schneidverfahren
    DE69732797T2 (de) Verfahren und vorrichtung zur speicherung von tonfolgen in cyclischen schleifen
    DE10101473B4 (de) Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
    DE60032844T2 (de) Verfahren und Vorrichtung zur Erzeugung einer Wellenform auf einem Auslegungsstildatenstrom basiert
    DE10153673B4 (de) Automatische Erzeugung von musikalischen Scratch-Effekten
    DE60032085T2 (de) Verfahren und Vorrichtung zur Erzeugung einer Wellenform mit verbessertem Übergang zwischen aufeinandervolgenden Dateimodulen
    DE3905623C2 (de) Vorrichtung zum Editieren von PCM-Signalen
    DE4190031B4 (de) Datenverdichtung von ausschwingenden Musikinstrumententönen für ein digitales Abtastungssystem
    DE19843705A1 (de) Editieren digitalisierter Audio/Videodaten über ein Netzwerk

    Legal Events

    Date Code Title Description
    PUAI Public reference made under article 153(3) epc to a published international application that has entered the european phase

    Free format text: ORIGINAL CODE: 0009012

    AK Designated contracting states

    Kind code of ref document: A2

    Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

    17P Request for examination filed

    Effective date: 20040413

    GRAP Despatch of communication of intention to grant a patent

    Free format text: ORIGINAL CODE: EPIDOSNIGR1

    GRAS Grant fee paid

    Free format text: ORIGINAL CODE: EPIDOSNIGR3

    GRAA (expected) grant

    Free format text: ORIGINAL CODE: 0009210

    AK Designated contracting states

    Kind code of ref document: B1

    Designated state(s): AT BE CH CY DE DK ES FI FR GB GR IE IT LI LU MC NL PT SE TR

    REG Reference to a national code

    Ref country code: GB

    Ref legal event code: FG4D

    Free format text: NOT ENGLISH

    REG Reference to a national code

    Ref country code: CH

    Ref legal event code: EP

    REG Reference to a national code

    Ref country code: IE

    Ref legal event code: FG4D

    Free format text: LANGUAGE OF EP DOCUMENT: GERMAN

    REF Corresponds to:

    Ref document number: 50212811

    Country of ref document: DE

    Date of ref document: 20081106

    Kind code of ref document: P

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: FI

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20080924

    NLV1 Nl: lapsed or annulled due to failure to fulfill the requirements of art. 29p and 29m of the patents act
    REG Reference to a national code

    Ref country code: IE

    Ref legal event code: FD4D

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: ES

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20090104

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: PT

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20090224

    Ref country code: NL

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20080924

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: IE

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20080924

    Ref country code: DK

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20080924

    PLBE No opposition filed within time limit

    Free format text: ORIGINAL CODE: 0009261

    STAA Information on the status of an ep patent application or granted ep patent

    Free format text: STATUS: NO OPPOSITION FILED WITHIN TIME LIMIT

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: IT

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20080924

    26N No opposition filed

    Effective date: 20090625

    BERE Be: lapsed

    Owner name: NATIVE INSTRUMENTS SOFTWARE SYNTHESIS G.M.B.H.

    Effective date: 20090630

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: SE

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20081224

    Ref country code: MC

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20090630

    REG Reference to a national code

    Ref country code: CH

    Ref legal event code: PL

    REG Reference to a national code

    Ref country code: FR

    Ref legal event code: ST

    Effective date: 20100226

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: FR

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20090630

    Ref country code: CH

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20090630

    Ref country code: LI

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20090630

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: DE

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20100101

    Ref country code: BE

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20090630

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: AT

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20090618

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: GR

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20081225

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: LU

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20090618

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: TR

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20080924

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: CY

    Free format text: LAPSE BECAUSE OF FAILURE TO SUBMIT A TRANSLATION OF THE DESCRIPTION OR TO PAY THE FEE WITHIN THE PRESCRIBED TIME-LIMIT

    Effective date: 20080924

    PGFP Annual fee paid to national office [announced via postgrant information from national office to epo]

    Ref country code: GB

    Payment date: 20200625

    Year of fee payment: 19

    GBPC Gb: european patent ceased through non-payment of renewal fee

    Effective date: 20210618

    PG25 Lapsed in a contracting state [announced via postgrant information from national office to epo]

    Ref country code: GB

    Free format text: LAPSE BECAUSE OF NON-PAYMENT OF DUE FEES

    Effective date: 20210618