DE10164686A1 - Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler - Google Patents

Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler

Info

Publication number
DE10164686A1
DE10164686A1 DE10164686A DE10164686A DE10164686A1 DE 10164686 A1 DE10164686 A1 DE 10164686A1 DE 10164686 A DE10164686 A DE 10164686A DE 10164686 A DE10164686 A DE 10164686A DE 10164686 A1 DE10164686 A1 DE 10164686A1
Authority
DE
Germany
Prior art keywords
data
music
audio
pieces
digital
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE10164686A
Other languages
English (en)
Other versions
DE10164686B4 (de
Inventor
Friedemann Becker
Thomas Holl
Michael Kurz
Toine Diepstraten
Daniel Haver
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Native Instruments Software Synthesis GmbH
Original Assignee
Native Instruments Software Synthesis GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Native Instruments Software Synthesis GmbH filed Critical Native Instruments Software Synthesis GmbH
Priority to DE2001101473 priority Critical patent/DE10101473B4/de
Priority claimed from DE2001101473 external-priority patent/DE10101473B4/de
Publication of DE10164686A1 publication Critical patent/DE10164686A1/de
Application granted granted Critical
Publication of DE10164686B4 publication Critical patent/DE10164686B4/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/076Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for extraction of timing, tempo; Beat detection
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/011Files or data streams containing coded musical information, e.g. for transmission
    • G10H2240/046File format, i.e. specific or non-standard musical file format used in or adapted for electrophonic musical instruments, e.g. in wavetables
    • G10H2240/061MP3, i.e. MPEG-1 or MPEG-2 Audio Layer III, lossy audio compression
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Auxiliary Devices For Music (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)

Abstract

Der interaktive Musik-Abspieler vereint die Audio-Wiedergabe, die Signal-Analyse und die Signal-Transformation mittels Effekten und Loops. Die Erfindung ermöglicht sowohl eine Echtzeit-Erkennung des Tempos (A) und der Phase (P) eines Audiotracks als auch deren automatische Angleichung. Zusätzlich liefert die Analyse die notwendigen Ausgangsdaten für die Steuerung temposynchroner Effekte und Loops. Vorteile sind unter anderem die dadurch geschaffene Möglichkeit der Automatisierung des sog. Beatmatchings und des gesamten Mix-Vorgangs, wobei letzterer anhand von entsprechend generierten digitalen Steuerdaten für u. a. die Stellglieder des Musik-Abspielers abspeicherbar ist. Dadurch sind der Vorgang und das Ergebnis unabhängig von den physischen Audiodaten nichtdestruktiv reproduzierbar, was mögliche urheberrechtliche Probleme bei der Weitergabe von durch einen Mix-Vorgang geschaffenen neuen Gesamtwerken von einer Mehrzahl von Musikstücken vermeidet.

Description

Die Erfindung betrifft die Erkennung und Anpassung von Tempo und Phase von Musikstücken, insbesondere zur Realisierung ei­ nes interaktiven Musikabspielers, der unter anderem eine Mög­ lichkeit zur Reproduktion von mehreren zu einem neuen Gesamt­ werk synchronisierten Musikstücken bietet. Dabei werden digi­ tale Musikdaten nach einer vorteilhaften Ausgestaltung durch ein gleichzeitiges Abspielen von mehreren Musikstücken auf einem Standard-CD-ROM-Laufwerk in Echtzeit gewonnen.
Der Beruf des Disk Jockeys (kurz: DJ) erfährt in der heuti­ gen, durch moderne elektronische Musik geprägten Tanz-Kultur eine enorme technische Aufwertung. Zum Handwerk dieses Beru­ fes gehört das Arrangieren der Musiktitel zu einem Gesamtwerk (dem Set, dem Mix) mit einem eigenen Spannungsbogen. Dabei ist es unter anderem unerlässlich, die einzelnen Titel in ih­ rem Tempo und ihrer Phase, also der Lage der Takte im Zeit­ raster, derart anzugleichen (engl. kurz: "Beatmatching"), dass die Stücke in den Ubergängen zu einem Ganzen verschmel­ zen und der Rhythmus nicht unterbrochen wird.
In diesem Zusammenhang stellt sich das technische Problem der Tempo- und Phasenangleichung zweier Musikstücke bzw. Audi­ otracks in Echtzeit. Dabei wäre es wünschenswert, wenn eine Möglichkeit zur automatischen Tempo- und Phasenangleichung zweier Musikstücke bzw. Audiotracks in Echtzeit zur Verfügung stünde, um den DJ von diesem technischen Aspekt des Mixens zu befreien, bzw. einen Mix automatisch oder halbautomatisch, ohne die Hilfe eines versierten DJ's erstellen zu können.
Bisher wurde dieses Problem nur in Teilaspekten gelöst. So gibt es Software-Player für das Format MP3 (ein Standardfor­ mat für komprimierte digitale Audiodaten), die reine Echt­ zeit-Tempoerkennung und -anpassung realisieren. Die Erkennung der Phase muss jedoch weiterhin durch das Gehör und die An­ passung des DJ manuell erfolgen. Dadurch wird ein beträchtli­ ches Maß an Aufmerksamkeit des DJ in Anspruch genommen, was andernfalls für künstlerische Aspekte wie Musikzusammenstel­ lung etc. zur Verfügung stünde.
Weiter sind Hardware-Effektgeräte zur Bearbeitung von Audio­ informationen bekannt, die zwar Echtzeit-Tempo- und -Phasen­ erkennung realisieren, jedoch keine Anpassung von Tempo und Phase am Audiomaterial vornehmen können, wenn dieses nur ana­ log eingespeist wird. Es kann lediglich die relative Phasen­ verschiebung der beiden Audiotracks optisch angezeigt werden.
Es sind jedoch keine Geräte bekannt, welche die Tempo- Information zur Berechung von Loops (das sind kurze Audio- Teilstücke, die fortlaufend wiederholt wiedergegeben werden können) und Loop-Längen nutzt. Diese werden bei den bisher dafür verwendeten Wiedergabegeräten entweder vorher ge­ schnitten und geladen (Software-MP3-Player) oder manuell ge­ setzt und angepasst (Hardware-CD-Player).
Eine Aufgabe der vorliegenden Erfindung besteht somit in der Schaffung einer Möglichkeit zur automatischen Tempo- und Pha­ senangleichung zweier Musikstücke bzw. Audiotracks in Echt­ zeit mit möglichst hoher Genauigkeit.
Eine wesentliche zu überwindende technische Hürde stellt da­ bei die Genauigkeit einer Tempo- und Phasen-Messung dar, wel­ che mit der für diese Messung zur Verfügung stehenden Zeit sinkt. Das Problem stellt sich somit vorrangig für eine Er­ mittlung des Tempos und der Phase in Echtzeit, wie es u. a. beim Live-Mixen der Fall ist.
Gemäß der vorliegenden Erfindung wird diese Aufgabe durch ein Verfahren zur Erkennung von Tempo und Phase eines in digita­ lem Format vorliegenden Musikstückes mit den folgenden Ver­ fahrensschritten gelöst:
  • - näherungsweise Ermittlung des Tempos des Musikstückes durch eine statistische Auswertung der zeitlichen Abstände rhyth­ musrelevanter Beat-Informationen in den digitalen Audiodaten,
  • - näherungsweise Ermittlung der Phase des Musikstückes anhand der Lage der Takte in den digitalen Audiodaten im Zeitraster eines mit einer dem ermittelten Tempo proportionalen Frequenz schwingenden Referenz-Oszillators,
  • - sukzessive Korrektur von ermitteltem Tempo und Phase des Musikstückes anhand einer möglichen Phasenverschiebung des Referenz-Oszillators relativ zu den digitalen Audiodaten durch Auswertung der resultierenden systematischen Phasenver­ schiebung und Regulierung der Frequenz des Referenz- Oszillators proportional der ermittelten Phasenverschiebung.
Es erfolgt also eine sukzessive Annäherung an den idealen Wert in einem Regelkreis.
Dabei hat es sich als günstig erwiesen, wenn rhythmusrelevan­ te Beat-Informationen durch Bandpassfilterung der zugrunde liegenden digitalen Audiodaten in verschiedenen Frequenzbe­ reichen gewonnen werden.
Besonders gut gelingt dies, wenn Rhythmusintervalle der Au­ diodaten im Bedarfsfall durch Multiplikation ihrer Frequenz mit 2er Potenzen in eine vordefinierte Frequenz-Oktave trans­ formiert werden, wo diese Zeitintervalle zur Tempoermittlung liefern. Wenn der Frequenz-Transformation eine Gruppierung von Rhythmusintervallen, insbesondere in Paare oder Dreier­ gruppen, durch Addition ihrer Zeitwerte vorausgeht, so erge­ ben sich zusätzliche relevante Intervalle.
Nach einer vorteilhaften Ausgestaltung wird die gewonnene Menge an Daten von Zeitintervallen der rhythmusrelevanten Beat-Informationen auf Häufungspunkte untersucht. Die nähe­ rungsweise Tempoermittlung erfolgt dann anhand der Informati­ onen eines Häufungsmaximums.
Nach einer weiteren vorteilhaften Ausgestaltung des Verfah­ rens gemäß der vorliegenden Erfindung wird zur näherungswei­ sen Ermittlung der Phase des Musikstückes die Phase des Refe­ renz-Oszillators derart gewählt, dass sich die größtmögliche Übereinstimmung zwischen den rhythmusrelevanten Beat-Infor­ mationen in den digitalen Audiodaten und den Nulldurchgängen des Referenz-Oszillators einstellt.
Weiter hat es sich als günstig erwiesen, wenn eine sukzessive Korrektur von ermitteltem Tempo und Phase des Musikstückes in regelmäßigen Abständen in so kurzen Zeitintervallen erfolgt, dass resultierende Korrekturbewegungen und/oder Korrekturver­ schiebungen unterhalb der Hörbarkeitsgrenze bleiben.
Indem alle sukzessiven Korrekturen von ermitteltem Tempo und Phase des Musikstückes über die Zeit akkumuliert werden, kön­ nen darauf aufbauend weitere Korrekturen mit stetig steigen­ der Präzision erfolgen.
Anstelle solche sukzessiven Korrekturen permanent vorzuneh­ men, kann dies alternativ auch solange erfolgen, bis ein vor­ gegebener tolerierbarer Fehlergrenzwert unterschritten wird. Dafür eignet sich für das ermittelte Tempo insbesondere ein Fehlergrenzwert kleiner als 0,1%.
Damit eine Anpassung auf mögliche Tempoänderungen im Musik­ stück erreicht wird, erfolgt für den Fall, dass die Korrektu­ ren über einen vorgebbaren Zeitraum hinweg immer jeweils ne­ gativ oder positiv sind, eine erneute näherungsweise Ermitt­ lung von Tempo und Phase mit anschließender sukzessiver Kor­ rektur.
Neben der voranstehenden automatischen Erkennung von Tempo und Phase von Musikstücken bedarf es zur Lösung der eingangs genannten Aufgabe auch noch einer Anpassung von Tempo und Phase der Musikstücke.
Dieses Problem wird gelöst, indem nach einer ersten nähe­ rungsweisen Ermittlung des Tempos und der Phase des Musikstü­ ckes das Ergebnis und die Anpassung sukzessive durch Rückwir­ kung auf die Abspielgeschwindigkeit des Musikstückes verbes­ sert wird.
Gemäß der Erfindung erfolgt dies durch ein Verfahren zur Syn­ chronisierung von mindestens zwei in digitalem Format vorlie­ genden Musikstücken mit folgenden Verfahrensschritten:
  • - vollständige Ermittlung von Tempo und Phase des ersten Mu­ sikstückes wie voranstehend beschrieben,
  • - näherungsweise Ermittlung von Tempo und Phase des weiteren Musikstückes wie voranstehend beschrieben,
  • - Anpassung der Abspielgeschwindigkeit und der Abspielphase dieses weiteren Musikstückes durch sukzessive Anpassung der Frequenz und der Phase des diesem weiteren Musikstück zuge­ ordneten Referenz-Oszillators an die Frequenz und die Phase des dem anderen Musikstück zugeordneten Referenz-Oszillators.
Dabei hat es sich als vorteilhaft herausgestellt, wenn zur Anpassung der Abspielgeschwindigkeit und der Abspielphase des weiteren Musikstückes anhand einer möglichen Phasenverschie­ bung des diesem weiteren Musikstück zugeordneten Referenz- Oszillators relativ zu dem Referenz-Oszillator des anderen Musikstückes eine Auswertung der resultierenden systemati­ schen Phasenverschiebung und eine Regulierung der Frequenz des dem weiteren Musikstück zugeordneten Referenz-Oszillators proportional der ermittelten Phasenverschiebung erfolgt.
Es erfolgt also eine sukzessive Annäherung an den idealen Wert in einem Regelkreis, in welchem die Tempo und Phasen- Informationen auf die Steuerung der Abspielgeschwindigkeit des Audiomaterials zurückwirken.
Zum Abspielen von vorproduzierter Musik werden heutzutage verschiedenartige Geräte für verschiedene Speichermedien wie Schallplatte, CD oder Cassette verwendet. Diese Formate wur­ den jedoch nicht dafür entwickelt, in den Abspielprozess ein­ zugreifen, um die Musik damit auf kreative Art zu bearbeiten. Diese Möglichkeit ist aber wünschenswert und wird heutzutage trotz der gegebenen Einschränkungen von den eingangs erwähn­ ten Disk Jockeys praktiziert. Dabei werden bevorzugt Vinyl- Schallplatten verwendet, weil man dort am leichtesten mit der Hand die Abspielgeschwindigkeit und -position beeinflussen kann.
Heute werden aber überwiegend digitale Formate wie Audio-CD und MP3 zum Speichern von Musik verwendet. Mit der vorange­ hend beschriebenen Erfindung wird nun der genannte kreative Umgang mit Musik auf beliebigen digitalen Formaten ermög­ licht.
Durch das vorangehend beschriebene Verfahren gemäß der Erfin­ dung ist es nämlich möglich, aus einer Sammlung von Musikti­ teln auf vollautomatische Weise einen Mix zu erstellen, bei welchem die Stücke tempo- und phasenrichtig aneinandergereiht werden.
Dies wird durch einen Musik-Abspieler ermöglicht, bei dem mindestens zwei in digitalem Format vorliegende Musikstücke wie voranstehend dargestellt in Echtzeit synchronisierbar sind.
Besonders effektiv gelingt dies bei einem solchen Musik- Abspieler, bei dem jeweils rhythmusrelevante Beat-Infor­ mationen eines vorgegebenen zurückliegenden Zeitraums ausge­ hend von einer aktuellen Abspielposition des Musikstückes als Grundlage zur Tempoermittlung in Echtzeit dienen.
Durch die automatische Tempoerkennung kann auf Wunsch des Hö­ rers der Inhalt einer Musikdatenquelle, z. B. einer Compakt Disk CD, in einer von ihm wählbaren z. B. tempoabhängigen Rei­ henfolge als homogener Mix wiedergegeben werden.
Die Erfindung umfasst daher auch einen solchen Musik-Abspie­ ler, bei dem synchronisierte Musikstücke automatisch zu einem Gesamtwerk mit einheitlichem Rhythmus arrangierbar und ab­ spielbar sind.
Um gezielt Eingreifen zu können, ist es wichtig, eine grafi­ sche Repräsentation der Musik zu haben, in der man die aktu­ elle Abspielposition und auch einen gewissen Zeitraum in der Zukunft und in der Vergangenheit erkennt. Dazu stellt man üb­ licherweise die Amplitudenhüllkurve der Klangwellenform über einen Zeitraum von mehreren Sekunden vor und nach der Ab­ spielposition dar. Die Darstellung verschiebt sich in Echt­ zeit in der Geschwindigkeit, in der die Musik spielt.
Dabei besteht das prinzipielle Bedürfnis, möglichst viel hilfreiche Information in der grafischen Darstellung haben, um gezielt eingreifen zu können. Außerdem möchte man ergono­ misch in den Abspielvorgang eingreifen können, auf vergleich­ bare Art mit dem von DJ's häufig praktizierten "Scratching" auf Vinylplattenspielern, wobei der Plattenteller während der Wiedergabe angehalten und vorwärts sowie rückwärts bewegt wird.
Zur Lösung dieses Problems schlägt die vorliegende Erfindung einen interaktiven Musik-Abspieler vor, der
  • - ein Mittel zur graphischen Darstellung von mit einer Tempo- und Phasenerkennungsfunktion, insbesondere einer solchen wie vorangehend beschrieben, bestimmten Taktgrenzen eines in der Wiedergabe befindlichen Musikstückes in Echtzeit,
  • - ein erstes Steuerelement zum Wechsel zwischen einem ersten Betriebsmodus, in dem das Musikstück mit einem konstanten Tempo abgespielt wird, und einem zweiten Betriebsmodus, in dem die Abspielposition und/oder Abspielgeschwindigkeit vom Anwender direkt beeinflussbar in Echtzeit ist, und
  • - ein zweites Steuerelement zur Manipulation der Abspielposi­ tion in Echtzeit
umfasst.
Nach einer vorteilhaften Ausgestaltung dieses interaktiven Musik-Abspielers ist dieser zusätzlich ausgestattet mit
  • - einem Mittel zur graphischen Darstellung der aktuellen Ab­ spielposition, mit dem eine Amplitudenhüllkurve der Klangwel­ lenform des wiedergegebenen Musikstückes über einen vorgebba­ ren Zeitraum vor und nach der aktuellen Abspielposition dar­ stellbar ist, wobei sich die Darstellung in Echtzeit mit dem Tempo der Wiedergabe des Musikstückes verschiebt, und mit
  • - einem Mittel zur Glättung eines stufigen Verlaufs zeitlich begrenzter, mit dem zweiten Steuerelement vorgegebener Ab­ spiel-Positionsdaten zu einem sich gleichmäßig mit einer der Audio-Abtastrate entsprechenden zeitlichen Auflösung ändern­ den Signal.
Dabei hat es sich als vorteilhaft erwiesen, wenn zur Glättung eines stufigen Verlaufs zeitlich begrenzter Abspiel-Posi­ tionsdaten ein Mittel zur Rampenglättung vorgesehen ist, durch das mit jeder vorgegebenen Abspiel-Positionsnachricht eine Rampe mit konstanter Steigung auslösbar ist, die in ei­ nem vorgebbaren Zeitintervall das geglättete Signal von sei­ nem bisherigen Wert auf den Wert der Abspiel-Positionsnach­ richt fährt. Alternativ oder zusätzlich kann ein lineares di­ gitales Tiefpaß-Filter, insbesondere ein Resonanzfilter zwei­ ter Ordnung, zur Glättung eines stufigen Verlaufs vorgegebe­ ner zeitlich begrenzter Abspiel-Positionsdaten dienen.
Um Sprünge bei der Wiedergabe zu vermeiden, dient im Fall ei­ nes Wechsels zwischen den Betriebsmodi die im vorhergehenden Modus erreichte Position als Ausgangsposition im neuen Modus.
Im Fall eines Wechsels zwischen den Betriebsmodi wird zur Vermeidung von abrupten Geschwindigkeitsänderungen die im vorhergehenden Modus erreichte aktuelle Abspielgeschwindig­ keit durch eine Glättungsfunktion, insbesondere eine Rampen­ glättung oder ein lineares digitales Tiefpaß-Filter, auf die dem neuen Betriebsmodus entsprechende Abspielgeschwindigkeit geführt.
Um beim Abspielen mit sich stark und schnell ändernder Ge­ schwindigkeit eine möglichst authentische Wiedergabe ähnlich dem "Scratchen" mit einem Vinyl-Plattenspieler zu erreichen, verwendet eine weitere vorteilhafte Ausführungsform des in­ teraktiven Musik-Abspielers nach der Erfindung für ein Audio­ signal ein Scratch-Audio-Filter, wobei das Audiosignal einer Pre-Emphase-Filterung (Vorverzerrung) unterzogen und in einem Pufferspeicher abgelegt wird, aus dem es in Abhängigkeit von der jeweiligen Abspielgeschwindigkeit mit variablem Tempo auslesbar ist, um anschließend einer De-Emphase-Filterung (Rückentzerrung) unterzogen und wiedergegeben zu werden.
Aus den Tempoinformationen lässt sich die Länge eines oder mehrerer Takte mit hinreichender Genauigkeit ermitteln um auf Tastendruck die Länge eines Loops so zu setzten, dass sich dieser "knackfrei" und mit dem Tempo des ursprünglichen Audi­ otracks spielen lässt. Bei einem solchen interaktiven Musik- Abspieler, der Tempoinformationen auf die beschriebene Weise gemäß der Erfindung ermittelt, ist nach einer weiteren vor­ teilhaften Ausgestaltung für eines oder mehrere der synchro­ nisierten Musikstücke anhand der ermittelten Tempoinformation des jeweiligen Musikstückes die Länge einer über einen oder mehrere Takte dieses Musikstückes reichenden Wiedergabe- Schleife in Echtzeit taktsynchron definierbar und abspielbar.
Die Phasen-Informationen können dazu genutzt werden, wiederum auf Tastendruck, Sprungmarken innerhalb des Tracks, sogenann­ te Cue-Points, oder ganze Loops genau auf einen Taktanfangs- Beat zu legen. Ein vorteilhafter interaktiver Musik-Abspieler wird also dadurch weitergebildet, dass für eines oder mehrere der synchronisierten Musikstücke anhand der ermittelten Pha­ seninformation des jeweiligen Musikstückes in Echtzeit takt­ synchrone Sprungmarken definierbar und innerhalb dieses Mu­ sikstückes um ganzzahlige Vielfache von Takten verschiebbar sind. Solche Cue-Points und Loops können auch auf Tastendruck um ganzzahlige Vielfache von Takten innerhalb des Tracks ver­ schoben werden. Beides erfolgt in Echtzeit, während der Wie­ dergabe des Audio-Tracks.
Des weiteren ermöglicht die gewonnene Information über das Tempo und die Phase eines Audiotracks die Ansteuerung soge­ nannter temposynchroner Effekte. Dabei wird das Audiosignal passend zum eigenen Rhythmus manipuliert, was rhythmisch ef­ fektvolle Echtzeit-Klangveränderung ermöglicht. Insbesondere kann die Tempo-Information dazu genutzt werden, Loops mit taktgenauen Längen in Echtzeit aus dem Audiomaterial heraus­ zuschneiden.
Ein weiter vorteilhafter interaktiver Musik-Abspieler zeich­ net sich daher dadurch aus, dass jeder wiedergegebene Audio­ datenstrom durch Signalverarbeitungsmittel in Echtzeit mani­ pulierbar ist, insbesondere durch Filtereinrichtungen und/oder Audioeffekte.
Herkömmlicherweise werden beim Mischen mehrerer Musikstücke die Audioquellen von Tonträgern auf mehreren Abspielgeräten, z. B. Plattenspielern oder CD-Playern, abgespielt und über ein Mischpult abgemischt. Bei dieser Vorgehensweise beschränkt sich eine Audioaufnahme auf eine Aufzeichnung des Endresul­ tats. Auf der Grundlage von Computersystemen mit Audio­ schnittstellen mit geeigneter Audioverarbeitungssoftware wie Audio-Sequenzern oder sogenannten Samplebearbeitungsprogram­ men, bei denen digitale Audioinformationen manipuliert werden können, ist ein interaktives Eingreifen des Anwenders während der Wiedergabe nicht möglich.
Für eine Reproduktion des Mischvorganges oder um zu einem späteren Zeitpunkt exakt an einer vorgebbaren Position inner­ halb eines Musikstückes weitermischen zu können, wäre es wün­ schenswert, wenn nicht nur das Endresultat abspeicherbar wä­ re.
Diese Anforderung wird gemäß der Erfindung durch einen inter­ aktiven Musik-Abspieler gelöst, der dadurch weitergebildet ist, dass Echtzeiteingriffe über den zeitlichen Ablauf als digitale Steuerinformationen speicherbar sind, insbesondere solche eines Mischvorganges mehrerer Musikstücke und/oder zu­ sätzliche Signalverarbeitungen.
Indem Mischvorgänge von Musikstücken und/oder interaktive Eingriffe in Musikstücke mit Audiosignalverarbeitungsmitteln als ein neues Gesamtwerk unabhängig von digitalen Audioinfor­ mationen von Musikstücken in Form digitaler Steuerinformatio­ nen, insbesondere zu Reproduktionszwecken, speicherbar sind, lässt sich der Vorgang des interaktiven Mischens und einer interaktiven Effektbearbeitung aufzeichnen und jederzeit wie­ dergeben.
Nach einer weiteren vorteilhaften Ausgestaltung der Erfindung weisen gespeicherte digitale Steuerinformationen ein Format auf, das Informationen zur Identifikation der verarbeiteten Musikstücke und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpositionen und Zustandsinformationen der Stellglieder des Musik-Abspielers umfasst.
Ein entscheidender Vorteil dieser Aufzeichnungsmöglichkeit und des vorgeschlagenen Formates besteht in der Tatsache, dass eine digitale Aufzeichnung des Mischvorgangs unabhängig von den Audiodaten der gemischten Musikstücke und damit ohne urheberrechtlich problematisches Kopieren dieser Audiodaten erfolgen kann. Das Gesamtresultat kann damit jederzeit selb­ ständig wiedergegeben, weiterverarbeitet, vervielfältigt und übertragen werden.
Ein besonders vorteilhafter interaktiver Musik-Abspieler ist durch ein geeignet programmiertes mit Audioschnittstellen ausgestattetes Computersystem realisiert. Dabei können stan­ dardmäßige Datenspeicher des Computersystems zur Aufnahme der Steuerdatei dienen. Auch wird damit ein besonders interessan­ ter Austausch der in der Regel wenig speicherintensiven Auf­ zeichnungsdateien z. B. auch über das Internet ermöglicht.
In diesem Zusammenhang stellt sich das Problem, dass häufig nur eine Audiodatenquelle vorhanden ist, z. B. ein CD-Player oder im Fall eines Computersystems ein CD-ROM-Laufwerk. Die­ sen und anderen Abspielgeräten ist in der Regel gemeinsam, dass sie nur über eine einzige Leseeinheit verfügen. Zur Durchführung der vorangehend beschriebenen Funktion, insbe­ sondere des Mischen mehrerer Musikstücke müssen jedoch die Audiodaten mindestens zweier Musikstücke gleichzeitig zur Verfügung gestellt werden. Es wäre daher wünschenswert, wenn dies auch mit einem Abspielgerät mit lediglich einer Leseein­ heit gelänge.
Die Erfindung löst dieses Problem durch ein Verfahren zur Be­ reitstellung digitaler Audiodaten mindestens zweier Musikstü­ cke von einer Datenquelle mit nur einer Leseeinheit in Echt­ zeit, wenn die Datenquelle Audiodaten mit einer im Vergleich zu deren Abspielgeschwindigkeit höheren Lesegeschwindigkeit liefert, indem für jedes wiederzugebende Musikstück ein je­ weiliger Puffer-Speicher, insbesondere Ringpuffer-Speicher, vorgesehen ist, und die höhere Lesegeschwindigkeit dazu ge­ nutzt wird, die jeweiligen Pufferspeicher derart mit zugehö­ rigen Audiodaten zu füllen, dass stets zeitlich vor und nach einer aktuellen Abspielposition des jeweiligen Musikstückes Audiodaten bereitstehen.
Dabei hat es sich als vorteilhaft herausgestellt, wenn der Zustand jedes Puffer-Speichers dahingehend überwacht wird, ob ausreichend Daten bereitstehen, und bei Unterschreiten eines vorgebbaren Schwellwertes eine von der Wiedergabe der Musik­ stücke entkoppelte zentrale Instanz mit der Bereitstellung der erforderlichen Audiodaten beauftragt wird, die selbsttä­ tig die erforderlichen Bereiche von Audiodaten von der Daten­ quelle anfordert und den zugehörigen Puffer-Speicher mit den erhaltenen Daten auffüllt. Nach einer weiter vorteilhaften Ausführungsform werden beim Auffüllen eines Puffer-Speichers nicht mehr benötigte Daten überschrieben. Weiter hat es sich als vorteilhaft erwiesen, wenn die zentrale Instanz parallel eintreffende Anforderungen in eine sequentiell abzuarbeitende Reihenfolge bringt.
Besonders gut geeignet ist dieses Verfahren im Zusammenhang mit einem CD-ROM-Laufwerk und stellt eine neuartige und vor­ teilhafte Form des vom Fachmann als CD-Grabbing bezeichneten Auslesens solcher Laufwerke dar.
Einem weiterhin vorteilhaften interaktiven Musik-Abspieler dient ein nach dem voranstehend beschriebenen Verfahren be­ triebenes CD-ROM-Laufwerk als Datenquelle der Musikstücke.
Da die vorangehend beschriebene Erfindung besonders vorteil­ haft auch auf einem geeignet programmierten Computersystem realisiert werden kann, lassen sich die erfindungsgemäßen Maßnahmen auch in Form eines Computerprogrammproduktes reali­ sieren, das direkt in den internen Speicher eines digitalen Computers geladen werden kann und Softwareabschnitte umfasst, mit denen die erfindungsgemäßen Maßnahmen ausgeführt werden, wenn das Programmprodukt auf einem Computer ausgeführt wird.
In diesem Zusammenhang ermöglicht die Erfindung auch die Be­ reitstellung eines Datenträgers, insbesondere einer Compact Disc, der
  • - einen ersten Datenbereich mit digitalen Audiodaten eines oder mehrerer Musikstücke und
  • - einen zweiten Datenbereich mit einer Steuerdatei mit digi­ talen Steuerinformationen zur Ansteuerung eines Musik- Abspielers umfasst, insbesondere eines solchen wie im voran­ gehenden beschrieben, wobei
  • - die Steuerdaten des zweiten Datenbereichs auf Audiodaten des ersten Datenbereichs Bezug nehmen.
Dabei ist es besonders vorteilhaft, wenn die digitalen Steu­ erinformationen des zweiten Datenbereichs Mischvorgänge von Musikstücken und/oder interaktive Eingriffe in Musikstücke mit Audiosignalverarbeitungsmitteln als ein neues Gesamtwerk der digitalen Audioinformationen von Musikstücken des ersten Datenbereichs repräsentieren.
Weiter hat es sich als günstig erwiesen, wenn gespeicherte digitale Steuerinformationen des zweiten Datenbereichs ein Format aufweisen, das Informationen zur Identifikation der verarbeiteten Musikstücke des ersten Datenbereichs und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpo­ sitionen und Zustandsinformationen der Stellglieder des Mu­ sik-Abspielers umfasst.
Auf einem solchen Datenträger lässt sich auch vorteilhaft ein Computerprogrammprodukt anordnen, das direkt in den internen Speicher eines digitalen Computers geladen werden kann und Softwareabschnitte umfasst, mit denen dieser digitale Compu­ ter die Funktion eines Musik-Abspielers übernimmt, insbeson­ dere eines solchen wie vorangehend beschrieben, mit dem ent­ sprechend den Steuerdaten des zweiten Datenbereichs des Da­ tenträgers, die auf Audiodaten des ersten Datenbereichs des Datenträgers verweisen, ein durch die Steuerdaten repräsen­ tiertes Gesamtwerk abspielbar ist, wenn das Programmprodukt auf einem Computer ausgeführt wird.
Dadurch dass der interaktive Musik-Abspieler die Audio- Wiedergabe, die Signal-Analyse und die Signal-Transformation mittels Effekten und Loops vereint, besteht die Möglichkeit erstmalig sowohl eine Echtzeit-Erkennung des Tempos und der Phase eines Audiotracks als auch deren automatische Anglei­ chung zu realisieren. Zusätzlich liefert die Analyse notwen­ digen Ausgangsdaten für die Steuerung temposynchroner Effekte und Loops.
Vorteile sind unter anderem die dadurch geschaffene Möglich­ keit der Automatisierung des sog. Beatmatchings, einer nicht leicht erlernbare Grundvoraussetzung des DJ-Mixens, die bei jedem Übergang zweier Musikstücke einen erheblichen Teil der Aufmerksamkeit des DJ's in Anspruch nimmt. Weiterhin besteht die Möglichkeit den gesamten Mix-Vorgang zu automatisieren.
Weitere Vorteile und Details der Erfindung ergeben sich an­ hand der folgenden Beschreibung vorteilhafter Ausführungsbei­ spiele und in Verbindung mit den Figuren. Es zeigt in Prin­ zipdarstellung:
Fig. 1 ein Blockschaltbild zur Veranschaulichung der Ge­ winnung rhythmusrelevanter Informationen und deren Auswertung zur näherungsweisen Ermittlung von Tempo und Phase eines Musikdatenstroms,
Fig. 2 ein weiteres Blockschaltbild zur sukzessiven Kor­ rektur von ermitteltem Tempo und Phase,
Fig. 3 ein Blockschaltbild zur Veranschaulichung der Struktur zum parallelen Auslesen eines CD-ROM- Laufwerks gemäß der Erfindung,
Fig. 4 ein Blockschaltbild eines interaktiven Musik- Abspielers gemäß der Erfindung mit Eingriffsmög­ lichkeit in eine aktuelle Abspielposition,
Fig. 5 ein Blockschaltbild einer zusätzlichen Signalverar­ beitungskette zur Realisierung eines Scratch-Audio- Filters gemäß der Erfindung und
Fig. 6 einen Datenträger, der Audiodaten und Steuerdateien zur Reproduktion von aus den Audiodaten gemäß der Erfindung erstellten Gesamtwerken vereint.
Im folgenden soll eine mögliche Realisierung der näherungs­ weisen Tempo- und Phasenerkennung sowie Tempo- und Phasenan­ passung gemäß der Erfindung dargestellt werden.
Erster Schritt der Prozedur ist eine erste, näherungsweise Ermittlung des Tempos des Musikstückes. Dies erfolgt durch eine statistische Auswertung der zeitlichen Abstände der sog. Beat-Ereignisse. Eine Möglichkeit zur Gewinnung rhythmusrele­ vanter Ereignisse aus dem Audiomaterial erfolgt durch schmale Bandpassfilterung des Audiosignals in verschiedenen Frequenz­ bereichen. Um das Tempo in Echtzeit zu ermitteln, werden für die folgenden Berechnungen jeweils nur die Beatereignisse der letzten Sekunden verwendet. Dabei entsprechen 8 bis 16 Ereig­ nisse in etwa 4 bis 8 Sekunden.
Aufgrund der quantisierten Struktur von Musik (16tel Noten Raster) können nicht nur Viertelnoten Beat-Intervalle zur Tempoberechnung herangezogen werden. Auch andere Intervalle (16tel, 8tel, ½ und ganze Noten) können durch Oktavierung (z. B. durch Multiplizieren ihrer Frequenz mit 2er Potenzen) in eine vordefinierte Frequenz-Oktave (z. B. 80-160 bpm, Englisch für Beats per minute) transformiert werden und somit temporelevante Informationen liefern. Fehlerhafte Oktavierun­ gen (z. B. von Triolen-Intervallen) fallen später wegen ihrer verhältnismäßigen Seltenheit bei der statistischen Auswertung nicht ins Gewicht.
Um auch Triolen, bzw. geschuffelte Rhythmen (einzelne leicht aus dem 16tel Raster versetzte Noten) zu erfassen, werden die im ersten Punkt gewonnenen Zeitintervalle zusätzlich noch in Paaren und Dreiergruppen durch Addition ihrer Zeitwerte grup­ piert bevor sie oktaviert werden. Durch dieses Verfahren wird die rhythmische Struktur zwischen den Takten aus den Zeitin­ tervallen herausgerechnet.
Die so gewonnene Menge an Daten wird auf Häufungspunkte un­ tersucht. Es entstehen dabei in der Regel drei Häufungsmaxima bedingt durch die Oktavierungs- und Gruppierungsverfahren, deren Wert in rationalen Verhältnis (2/3, 5/4, 4/5 oder 3/2) zueinander stehen. Sollte aus der Stärke eines der Maxima nicht deutlich genug hervorgehen, das dieses das tatsächliche Tempo des Musikstückes angibt, lässt sich das korrekte Maxi­ mum aus dem rationalen Verhältnissen der Maxima untereinander ermitteln.
Zur näherungsweisen Ermittlung der Phase wird ein Referenz- Oszillator verwendet. Dieser schwingt mit dem zuvor ermittel­ ten Tempo. Seine Phase wird vorteilhaft so gewählt, dass sich die beste Übereinstimmung zwischen Beat-Ereignisse des Audio­ materials und Nulldurchgängen des Oszillators ergibt.
Anschließend erfolgt eine sukzessive Verbesserung der Tempo- und Phasenermittlung. Durch die natürliche Unzulänglichkeit der ersten näherungsweisen Tempoermittlung wird sich zunächst nach einigen Sekunden die Phase des Referenz-Oszillators re­ lativ zum Audiotrack verschieben. Diese systematische Phasen­ verschiebung gibt Auskunft darüber, um welche Menge das Tempo des Referenz-Oszillators verändert werden muss. Eine Korrek­ tur des Tempos und der Phase erfolgt vorteilhaft in regelmä­ ßigen Abständen, um unterhalb der Hörbarkeitsgrenze der Ver­ schiebungen und der Korrekturbewegungen zu bleiben.
Sämtliche Phasenkorrekturen, die ab der näherungsweisen Pha­ senkorrelation erfolgt sind, werden über die Zeit akkumu­ liert, so dass die Berechnung des Tempos und der Phase auf einem ständig wachsenden Zeitintervall basiert. Dadurch wer­ den die Tempo- und Phasen-Werte zunehmend präziser und ver­ lieren den eingangs erwähnten Makel der näherungsweisen Echt­ zeitmessung. Nach kurzer Zeit (ca. 1 min) sinkt der Fehler des mit diesem Verfahren ermittelten Tempo-Wertes unterhalb 0.1%, ein Maß an Genauigkeit, das Vorraussetzung für die Be­ rechnung von Loop-Längen ist.
Die Darstellung gemäß Fig. 1 zeigt eine mögliche technische Realisierung der beschriebenen näherungsweisen Tempo- und Phsenerkennung eines Musikdatenstroms in Echtzeit anhand ei­ nes Blockschaltbildes. Die gezeigte Struktur kann auch als "Beat Detector" bezeichnet werden.
Als Input liegen zwei Ströme von Audio-Events bzw. Audio- Ereignissen Ei mit Wert 1 vor, welche den Peaks in den Fre­ quenzbändern F1 bei 150 Hz und F2 bei 4000 Hz oder 9000 Hz entsprechen. Diese beiden Eventströme werden vorerst getrennt behandelt, indem diese durch jeweilige Bandpassfilter mit je­ weiliger Grenzfrequenz F1 und F2 gefiltert werden.
Folgt ein Event innerhalb von 50 ms dem vorhergehenden, wird das zweite Event nicht berücksichtigt. Eine Zeit von 50 ms entspricht der Dauer eines 16tels bei 300 bpm, liegt also weit unter der Dauer des kürzesten Intervalls, in dem die Mu­ sikstücke üblicherweise angesiedelt sind.
Aus dem Strom der gefilterten Events Ei wird nun in jeweili­ gen Verarbeitungseinheiten BD1 und BD2 ein Strom aus den ein­ fachen Zeitintervallen Ti zwischen den Events gebildet.
Aus dem Strom der einfachen Zeitintervalle T1i werden in gleichen Verarbeitungseinheiten BPM_C1 und BPM_C2 jeweils zu­ sätzlich zwei weitere Ströme der bandbegrenzten Zeitinterval­ le gebildet, nämlich mit Zeitintervallen T2i, den Summen von jeweils zwei aufeinanderfolgenden Zeitintervallen, und mit Zeitintervallen T3i, den Summen von jeweils drei aufeinander­ folgenden Zeitintervallen. Die dazu herangezogenen Events dürfen sich auch überlappen.
Dadurch werden aus dem Strom: t1, t2, t3, t4, t5, t6, . . . zu­ sätzlich folgende zwei Ströme erzeugt:
T2i: (t1+t2), (t2+t3), (t3+t4), (t4+t5), (t5+t6), . . . und
T3i: (t1+t2+t3), (t2+t3+t4), (t3+t4+t5), (t4+t5+t6), . . .
Die drei Ströme T1i, T2i, T3i, werden nun Zeit-oktaviert in entsprechenden Verarbeitungseinheiten OKT. Die Zeit- Oktavierung OKT erfolgt derart, dass die einzelnen Zeitinter­ valle jedes Stroms so oft verdoppelt werden, bis sie in einem vorgegebenen Intervall BPM_REF liegen. Auf diese Weise erhält man drei Datenströme T1io, T2io, T3io . . .. Die obere Grenze des Intervalls berechnet sich aus der unteren bpm-Grenze nach der Formel:
thi(ms) = 60000 bpmlow.
Die untere Grenze des Intervalls liegt bei 0.5* thi.
Jeder der so erhaltenen drei Ströme wir nun für beide Fre­ quenzbänder F1, F2 in jeweiligen weiteren Verarbeitungsein­ heiten CHK auf seine Konsistenz überprüft. Damit wird ermit­ telt, ob jeweils eine gewisse Anzahl aufeinanderfolgender, Zeit-oktavierter Intervallwerte innerhalb einer vorgegebenen Fehlergrenze liegen. Dazu überprüft man beispielsweise im einzelnen mit folgenden Werten:
Für T1i überprüft man dessen letzte 4 Events t11o, t12o, t13o, t14o daraufhin, ob gilt:
a) (t11o - t12o)2 + (t11o - t13o)2 + (t11o - t14o)2 < 20
Ist dies der Fall, wird der Wert t11o als gültiges Zeitinter­ vall ausgegeben.
Für T2i überprüft man dessen letzte 4 Events t21o, t22o, t23o, t24o daraufhin, ob gilt:
b) (t21o - t22o)2 + (t21o - t23o)2 + (t21o - t24o)2 < 20
Ist dies der Fall, wird der Wert t11o als gültiges Zeitinter­ vall ausgegeben.
Für T3i überprüft man dessen letzte 3 Events t31o, t32o, t33o, daraufhin, ob gilt:
c) (t31o - t32o)2 + (t31o - t33o)2 < 20
Ist dies der Fall, wird der Wert t31o als gültiges Zeitinter­ vall ausgegeben.
Hierbei hat die Konsistenzprüfung a) Vorrang vor b) und b) hat Vorrang vor c). Wird also bei a) ein Wert ausgegeben, werden b) und c) nicht mehr untersucht. Wird bei a) kein Wert ausgegeben, so wird b) untersucht, usw. Wird hingegen weder bei a) noch bei b) noch bei c) ein konsistenter Wert gefun­ den, so wird die Summe der letzten 4 nicht oktavierten Ein­ zelintervalle (t1+t2+t3+t4) ausgegeben.
Der so aus den drei Strömen ermittelte Wertestrom konsisten­ ter Zeitintervalle wird wiederum in einer nachgeschalteten Verarbeitungseinheit OKT in das vorgegebene Zeit-Intervall BPM_REF oktaviert. Anschließend wird das oktavierte Zeit- Intervall in einen BPM Wert umgerechnet.
Als Resultat liegen jetzt zwei Ströme BPM1 und BPM2 von bpm- Werten vor - einer für jeden der beiden Frequenzbereiche F1 und F2. In einem Prototyp werden diese Ströme mit einer fes­ ten Frequenz von 5 Hz abgefragt und die jeweils letzten acht Events aus beiden Strömen für die statistische Auswertung he­ rangezogen. Man kann an dieser Stelle jedoch durchaus auch eine variable (eventgesteuerte) Abtastrate verwenden und man kann auch mehr als nur die letzten 8 Events verwenden, bei­ spielsweise 16 oder 32 Events.
Diese letzten 8, 16 oder 32 Events aus jedem Frequenzband F1, F2 werden zusammengeführt und in einer nachgeschalteten Ver­ arbeitungseinheit STAT auf Häufungsmaxima N betrachtet. In der Prototyp-Version wird ein Fehlerintervall von 1,5 bpm verwendet, d. h. solange Events weniger als 1,5 bpm voneinan­ der differieren, werden sie als zusammengehörig betrachtet und addieren sich in der Gewichtung. Die Verarbeitungseinheit STAT ermittelt hierbei, bei welchen BPM-Werten Häufungen auf­ treten und wie viele Events den jeweiligen Häufungspunkten zuzuordnen sind. Der am stärksten gewichtete Häufungspunkt kann als die lokale BPM-Messung gelten und liefert den ge­ wünschten Tempowert A.
In einer ersten Weiterbildung dieses Verfahrens erfolgt zu­ sätzlich zu der lokalen BPM-Messung eine globale Messung, in­ dem man die Zahl, der verwendeten Events auf 64, 128 etc. ausweitet. Bei alternierenden Rhythmus-Patterns, in welchen nur jeden 4. Takt das Tempo klar durchkommt, kann häufig eine Eventzahl von mindestens 128 nötig sein. Solch eine Messung ist zuverlässiger, benötigt jedoch auch mehr Zeit.
Eine weitere entscheidende Verbesserung kann durch folgende Maßnahme erzielt werden:
In Betracht gezogen wird nicht nur das erste Häufungsmaximum, sondern auch das zweite. Dieses zweite Maximum entsteht fast immer durch vorhandene Triolen und kann sogar stärker als das erste Maximum sein. Das Tempo der Triolen hat jedoch ein klar definiertes Verhältnis zum Tempo der Viertel Noten, so dass sich aus dem Verhältnis der Tempi der beiden ersten Maxima ermitteln lässt, welches Häufungsmaximum den Vierteln und welches den Triolen zuzuordnen ist.
Nimmt man T1 als das Tempo des ersten Maximums in bpm und T2 als das des zweiten Maximums an, so gelten folgende Regeln:
Wenn T2 = 2/3.T1, dann ist T2 das Tempo.
Wenn T2 = 4/3.T1, dann ist T2 das Tempo.
Wenn T2 = 2/5.T1, dann ist T2 das Tempo.
Wenn T2 = 4/5.T1, dann ist T2 das Tempo.
Wenn T2 = 3/2.T1, dann ist T1 das Tempo.
Wenn T2 = 3/4.T1, dann ist T1 das Tempo.
Wenn T2 = 5/2.T1, dann ist T1 das Tempo.
Wenn T2 = 5/4.T1, dann ist T1 das Tempo.
Ein näherungsweiser Phasenwert P wird anhand einer der beiden gefilterten einfachen Zeitintervalle Ti zwischen den Events ermittelt, vorzugsweise anhand derjenigen Werte, die mit der niedrigeren Frequenz F1 gefiltert sind. Diese dienen zur gro­ ben Bestimmung der Frequenz des Referenz-Oszillators.
Die Darstellung nach Fig. 2 zeigt ein mögliches Blockschalt­ bild zur sukzessiven Korrektur von ermitteltem Tempo A und Phase P, im folgenden als "CLOCK CONTROL" bezeichnet.
Zunächst wird der Referenz-Oszillator bzw. die Referenz-Clock MCLK in einem ersten Schritt 1 mit den groben Phasenwerten P und Tempowerten A aus der Beat-Detection gestartet, was quasi einem Reset des in Fig. 2 gezeigten Regelkreises gleichkommt. Anschließend werden in einem weiteren Schritt 2 die Zeitin­ tervalle zwischen Beat-Events des eingehenden Audiosignals und der Referenz-Clock MCLK ermittelt. Dazu werden die nähe­ rungsweisen Phasenwerte P mit einem Referenzsignal CLICK, welches die Frequenz des Referenz-Oszillators MCLK aufweist, in einem Komparator V verglichen.
Bei systematischem Überschreiten (+) einer "kritischen" Ab­ weichung bei mehreren aufeinanderfolgenden Ereignissen mit einem Wert von beispielsweise über 30 ms wird in einem weite­ ren Verarbeitungsschritt 3 die Referenz-Clock MCLK durch eine kurzzeitige Tempoänderung
A(i+1) = A(i) + q oder
A(i+1) = A(i) - q
entgegen der Abweichung (wieder) an das Audio-Signal ange­ passt, wobei q die verwendete Absenkung oder Anhebung des Tempos darstellt. Andernfalls (-) wird das Tempo konstant gehalten.
Im weiteren Verlauf erfolgt in einem weiteren Schritt 4 eine Summierung aller Korrektur-Ereignisse aus Schritt 3 und der seit dem letzten "Reset" verstrichenen Zeit in eigenen Spei­ chern (nicht gezeigt). Bei ungefähr jedem 5. bis 10. Ereignis einer annähernd akkuraten Synchronisierung (Differenz zwi­ schen den Audiodaten und der Referenz-Clock MCLK etwa unter­ halb 5 ms) wird der Tempo-Wert auf der Basis des bisherigen Tempo-Wertes, der bis dahin akkumulierten Korrektur-Ereig­ nisse und der seit dem verstrichenen Zeit in einem weiteren Schritt 5 wie folgt neu errechnet.
Mit
  • - q als der in Schritt 3 verwendeten Absenkung oder Anhebung des Tempos (beispielsweise um den Wert 0.1),
  • - dt als der Summe der Zeit, für welche das Tempo insgesamt abgesenkt oder angehoben wurde (Anhebung positiv, Absenkung negativ),
  • - T als dem seit dem letzten Reset (Schritt 1) verstrichenen Zeitintervall, und
  • - bpm als dem in Schritt 1 verwendeten Tempowert A errechnet sich das neue, verbesserte Tempo nach folgender einfachen Formel:
    bpm_neu = bpm.(1+(q.dt)/T)
Weiter wird geprüft, ob die Korrekturen in Schritt 3 über ei­ nen gewissen Zeitraum hinweg immer jeweils negativ oder posi­ tiv sind. In solch einem Fall liegt wahrscheinlich eine Tem­ po-Änderung im Audiomaterial vor, die mit obigem Verfahren nicht korrigiert werden kann. Dieser Status wird erkannt und bei Erreichen des nächsten annähernd perfekten Synchronisati­ ons-Ereignisses (Schritt 5) werden der Zeit- und der Korrek­ turspeicher in einem Schritt 6 gelöscht, um den Ausgangspunkt in Phase und Tempo neu zu setzten. Nach diesem "Reset" be­ ginnt die Prozedur erneut mit einem Aufsetzen auf Schritt 2 das Tempo zu optimieren.
Eine Synchronisierung eines zweiten Musikstückes erfolgt nun durch Anpassung von dessen Tempo und Phase. Die Anpassung des zweiten Musikstückes erfolgt indirekt über den Referenz- Oszillator. Nach der oben beschriebenen näherungsweisen Tem­ po- und Phasenermittlung des Musikstückes werden diese Werte sukzessive nach obigem Verfahren an den Referenz-Oszillator angepasst, nur wird diesmal die Abspielphase und die Abspiel­ geschwindigkeit des Tracks selbst verändert. Das originale Tempo des Tracks lässt sich rückwärts leicht aus der notwen­ digen Veränderung seiner Abspielgeschwindigkeit gegenüber der Original-Abspielgeschwindigkeit errechnen.
Im folgenden soll nun auf die bereits weiter vorne beschrie­ bene Möglichkeit zum gleichzeitigen Abspielen von mehreren Musikstücken auf einem Standard-CD-ROM-Laufwerk oder einer anderen Datenquelle mit nur einer Leseeinheit eingegangen werden. Damit schafft die vorliegende Erfindung die Möglich­ keit einer zur Synchronisierung eines zweiten Musikstückes erforderlichen Bereitstellung zweier oder mehrerer Musikstü­ cke mit einer solchen Einheit in Echtzeit.
Stand der Technik ist das Abspielen eines Audio Titels von CD-ROM mittels eines Computers (sogenanntes "grabben"), ver­ gleichbar dem Abspielen eines Stückes auf einem herkömmlichen CD-Player.
CD-ROM Laufwerke haben, genauso wie Audio-CD-Player, nur eine Leseeinheit, können also zu einem gegebenen Zeitpunkt auch nur an einer Stelle die Audio-Daten auslesen.
Zur Lösung wird ein von der Audioausgabe entkoppelter paral­ leler Faden (Thread) als sogenannter Scheduler erzeugt, der im Hintergrund die Anfragen der abzuspielenden Musikstücke entgegennimmt und die benötigten Audio-Daten nachlädt. Unter Multithreading versteht man dabei die Bezeichnung für die Fähigkeit einer Software, bestimmte Funktionen einer An­ wendung simultan ausführen zu können. Es laufen also nicht mehrere Programme parallel auf einem digitalen Computer (Mul­ titasking), sondern innerhalb eines Programms werden ver­ schiedene Funktionen aus Sicht des Anwenders gleichzeitig ausgeführt. Ein Thread stellt dabei die kleinste Einheit von ausführbarem Programmcode dar, dem ein Teil des Betriebssys­ tems (der Thread Scheduler) entsprechend einer bestimmten Priorität Rechenzeit zuteilt. Die Koordinierung der einzelnen Threads erfolgt durch Synchronisationsmechanismen, sog. Locks, die für die Zusammenführung der einzelnen Threads sor­ gen. Die Leseeinheit, hier der Laser des CD-ROM-Laufwerkes, wird im Multiplex-Modus betrieben, um mittels Pufferspei­ cherstragien und einer höheren Leserate die benötigten Daten in Echtzeit zur Verfügung stellen zu können.
Die wesentliche technische Hürde, die dabei überwunden werden muss ist, dass CD-ROM-Laufwerke, genauso wie Audio-CD-Player, nur über eine Leseeinheit verfügen. Zu einem bestimmten Zeit­ punkt können also nur die Daten für einen Track geliefert werden.
Dieses Problem wird dadurch gelöst, dass für jeden abzuspie­ lenden Track ein ausreichend dimensionierter Puffer einge­ führt wird und die höhere Lesegeschwindigkeit des CD-ROM- Laufwerkes dazu benutzt wird, die benötigten Daten für die Puffer auszulesen. Diese Maßnahme fügt sich nahtlos in die Umgebung des beschriebenen Musik-Abspielers ein. Für den An­ wender ist das Abspielen von CD-Tracks transparent, erfolgt also genauso, als ob die Daten in einem digitalen Format auf einer Computer-Festplatte vorliegen würden. Durch das digita­ le Auslesen der CD ist es möglich, die Audio-Daten durch Sig­ nalverarbeitungsmittel wie Filter oder Audioeffekte zu schi­ cken. Dies ermöglicht unter anderem das Rückwärtsabspielen, Pitchen (Geschwindigkeits- und Tonhöhenänderung), Beatdetec­ tion und Filtering von normalen Audio-CDs.
Die Darstellung nach Fig. 3 zeigt den prinzipiellen Aufbau ei­ ner Struktur zum parallelen Auslesen eines CD-ROM-Laufwerks gemäß der Erfindung. Der wesentliche Schritt besteht in der Einführung eines Puffers P1. . .Pn (vorzugsweise eines Ringpuf­ fers) für jeden abzuspielenden Audio-Track TR1. . .TRn. Hier werden die Audio-Daten so zwischengepuffert, dass ausgehend vom jeweiligen Datenanfang S1. . .Sn im Fall von Ringpufern zeitlich jeweils vor und nach der jeweiligen aktuellen Ab­ spielposition A1. . .An noch Daten bereit stehen. Ein Überwa­ chungsmechanismus hält diese Invariante immer ein, indem der Zustand des jeweiligen Puffers P1. . .Pn dahingehend überprüft wird, wie viele Daten noch vorhanden sind. Wird ein Schwell­ wert unterschritten (z. B. stehen nach der aktuellen Abspiel­ position weniger als n Sekunden Audio-Daten zur Verfügung), so wird eine Anfrage an eine zentrale Instanz S gestellt, neue Audio-Daten nachzuladen.
Diese zentrale Instanz, im weiteren auch als Scheduler S be­ zeichnet, läuft entkoppelt vom eigentlichen Abspielen der Au­ diotracks TR1. . .TRn in einem eigenen Thread und bringt die von verschiedenen Tracks unter Umständen parallel eintreffen­ den Anfragen in eine sequentiell abzuarbeitende Reihenfolge. Der Scheduler S schickt nun seinerseits die Anfragen nach ei­ nem Ausschnitt eines Tracks an das CD-ROM-Laufwerk CD-ROM. Dieses liest die angeforderten Sektoren von einem Datenträger mit den entsprechenden digitalen Audiodaten aus. Der Schedu­ ler S füllt dann den entsprechenden Puffer P. . .Pn mit diesen erhaltenen Daten auf, wobei nicht mehr benötigte Daten über­ schrieben werden.
Zum Abspielen von vorproduzierter Musik werden herkömmlicher­ weise verschiedenartige Geräte für verschiedene Speicherme­ dien wie Schallplatte, Compakt Disk oder Cassette verwendet.
Diese Formate wurden nicht dafür entwickelt, in den Abspiel­ prozess einzugreifen, um die Musik damit auf kreative Art zu bearbeiten. Diese Möglichkeit ist aber wünschenswert, und wird heutzutage trotz der gegebenen Einschränkungen von den genannten DJ's praktiziert. Dabei werden bevorzugt Vinyl- Schallplatten verwendet, weil man dort am leichtesten mit der Hand die Abspielgeschwindigkeit und -position beeinflussen kann.
Heute werden aber überwiegend digitale Formate wie Audio CD und MP3 zum Speichern von Musik verwendet. Bei MP3 handelt es sich um ein Kompressionsverfahren für digitale Audiodaten nach dem MPEG-Standard (MPEG 1 Layer 3). Das Verfahren ist asymmetrisch, d. h. die Codierung ist sehr viel aufwendiger als die Decodierung. Ferner handelt es sich um ein verlustbe­ haftetes Verfahren. Die vorliegende Erfindung ermöglicht nun den genannten kreativen Umgang mit Musik auf beliebigen digi­ talen Formaten durch einen geeigneten interaktiven Musik- Abspieler, der von den durch die vorangehend dargestellten erfindungsgemäßen Maßnahmen geschaffenen neuen Möglichkeiten Gebrauch macht.
Um gezielt Eingreifen zu können, ist es wichtig, eine grafi­ sche Repräsentation der Musik zu haben, in der man die aktu­ elle Abspielposition erkennt und auch einen gewissen Zeitraum in der Zukunft und in der Vergangenheit erkennt. Dazu stellt man üblicherweise die Amplitudenhüllkurve der Klangwellenform über einen Zeitraum von mehreren Sekunden vor und nach der Abspielposition dar. Die Darstellung verschiebt sich in Echt­ zeit in der Geschwindigkeit, in der die Musik spielt.
Prinzipiell möchte man möglichst viel hilfreiche Information in der grafischen Darstellung haben, um gezielt eingreifen zu können. Außerdem möchte man möglichst ergonomisch in den Ab­ spielvorgang eingreifen können, auf vergleichbare Art zum so­ genannten "Scratching" auf Vinylplattenspielern, worunter man das Anhalten und vorwärts oder rückwärts Bewegen des Platten­ tellers während der Wiedergabe versteht.
Bei dem durch die Erfindung geschaffenen interaktiven Musik- Abspieler können nun musikalisch relevante Zeitpunkte, insbe­ sondere die Taktschläge, mit der vorangehend (Fig. 1 und Fig. 2) erläuterten Takterkennungsfunktion aus dem Audiosignal extrahiert und als Markierungen in der grafischen Darstellung angezeigt werden, z. B. auf einem Display oder auf einem Bild­ schirm eines digitalen Computers, auf dem der Musik-Abspieler durch eine geeignete Programmierung realisiert ist.
Weiter ist ein Hardware-Steuerelement R1 vorgesehen, z. B. ein Knopf, insbesondere der Mausknopf, mit dem man zwischen zwei Betriebsarten umschaltet:
  • a) Musik läuft frei, mit konstantem Tempo,
  • b) Abspielposition und -geschwindigkeit wird vom Anwender di­ rekt beeinflusst.
Der Modus a) entspricht einer Vinylplatte, die man nicht an­ fasst und deren Geschwindigkeit gleich der des Plattentellers ist. Der Modus b) hingegen entspricht einer Vinylplatte, die man mit der Hand anhält und hin- und herschiebt.
In einer vorteilhaften Ausführungsform eines interaktiven Mu­ sik-Abspielers wird die Abspielgeschwindigkeit in Modus a) weiter beeinflusst durch die automatische Steuerung zur Syn­ chronisierung des Takts der abgespielten Musik zu einem ande­ ren Takt (vgl. Fig. 1 und Fig. 2). Der andere Takt kann synthe­ tisch erzeugt oder von einer anderen gleichzeitig spielenden Musik gegeben sein.
Außerdem ist ein weiteres Hardware-Steuerelement R2 vorgese­ hen, mit dem man im Betriebsmodus b) quasi die Plattenpositi­ on bestimmt. Dies kann ein kontinuierlicher Regler, oder auch die Computermaus sein.
Die Darstellung nach Fig. 4 zeigt ein Blockschaltbild einer solchen Anordnung mit den im folgenden erläuterten Signalver­ arbeitungsmitteln, mit denen ein interaktiver Musik-Abspieler gemäß der Erfindung mit Eingriffsmöglichkeit in eine aktuelle Abspielposition geschaffen wird.
Die mit diesem weiteren Steuerelement R2 vorgegebenen Positi­ onsdaten haben üblicherweise eine begrenzte zeitliche Auflö­ sung, d. h. es wird nur in regelmäßigen oder unregelmäßigen Abständen eine Nachricht geschickt, die die aktuelle Position übermittelt. Die Abspielposition des gespeicherten Audiosig­ nals soll sich aber gleichmäßig ändern, mit einer zeitlichen Auflösung, die der Audio-Abtastrate entspricht. Deshalb ver­ wendet die Erfindung an dieser Stelle eine Glättungsfunktion, die aus dem mit dem Steuerelement R2 vorgegebenen stufigen Signal ein hochaufgelöstes, gleichmäßig sich änderndes Signal erzeugt.
Eine Methode hierzu besteht darin, mit jeder vorgegebenen Po­ sitionsnachricht eine Rampe mit konstanter Steigung auszulö­ sen, die in einer vorgegebenen Zeit das geglättete Signal von seinem alten Wert auf den Wert der Positionsnachricht fährt. Eine weitere Möglichkeit ist, die stufige Wellenform in einen linearen digitalen Tiefpaß-Filter LP zu schicken, dessen Aus­ gang das gewünschte geglättete Signal darstellt. Dafür eignet sich besonders ein 2-Pol Resonanzfilter. Eine Kombination (Reihenschaltung) der beiden Glättungen ist auch möglich und vorteilhaft und ermöglicht folgende vorteilhafte Signalverar­ beitungskette:
vorgegebenes Stufensignal → Rampenglättung → Tiefpassfilter → exakte Abspielposition oder
vorgegebenes Stufensignal → Tiefpassfilter → Rampenglättung → exakte Abspielposition
Das Blockschaltbild nach Fig. 4 veranschaulicht die an einem vorteilhaften Ausführungsbeispiel in Form einer Prinzipskiz­ ze. Das Steuerelement R1 (hier ein Taster) dient zum Wechsel der Betriebsmodi a) und b), indem dieser einen Schalter SW1 triggert. Der Regler R2 (hier ein kontinuierlicher Schiebe­ regler) liefert die Positionsinformation mit zeitlich be­ grenzter Auflösung. Diese dient einem Tiefpaß-Filter LP zur Glättung als Eingangssignal. Das geglättete Positionssignal wird nun differenziert (DIFF) und liefert die Abspielge­ schwindigkeit. Der Schalter SW1 wird mit diesem Signal an ei­ nem ersten Eingang IN1 angesteuert (Modus b). Der andere Ein­ gang IN2 wird mit dem Tempowert A, der wie in Fig. 1 und Fig. 2 beschrieben ermittelt werden kann, beaufschlagt (Modus a). Über das Steuerelement R1 erfolgt der Wechsel zwischen den Eingangssignalen.
Wenn man vom einen in den anderen Modus wechselt (entspricht dem Festhalten und Loslassen des Plattentellers), darf die Position nicht springen. Aus diesem Grund übernimmt der vor­ geschlagene interaktive Musik-Abspieler die im vorhergehenden Modus erreichte Position als Ausgangsposition im neuen Modus. Ebenso soll die Abspielgeschwindigkeit (1. Ableitung der Po­ sition) sich nicht Sprunghaft ändern. Deswegen übernimmt man auch die aktuelle Geschwindigkeit und führt sie durch eine Glättungsfunktion, wie oben beschrieben, zu der Geschwindig­ keit, die dem neuen Modus entspricht. Nach Fig. 4 erfolgt dies durch einen Slew Limiter SL, der eine Rampe mit konstanter Steigung auslöst, die in einer vorgegebenen Zeit das Signal von seinem alten Wert auf den neuen Wert fährt. Dieses posi­ tions- bzw. geschwindigkeitsabhängige Signal steuert dann die eigentliche Abspieleinheit PLAY zur Wiedergabe des Audi­ otracks an, indem es die Abspielgeschwindigkeit beeinflusst.
Beim "Scratching" mit Vinyl-Platten, also dem Abspielen mit sich stark und schnell ändernder Geschwindigkeit, ändert sich die Tonwellenform auf charakteristische Art, aufgrund der Ei­ genheiten des Aufzeichnungsverfahrens, das standardmäßig für Schallplatten verwendet wird. Beim Erstellen des Press- Masters für die Schallplatte im Aufnahmestudio durchläuft das Tonsignal ein Pre-Emphase-Filter (Vorverzerrungs-Filter) nach RIAA-Norm, der die Höhen anhebt (sogenannte "Schneidekennli­ nie"). In jeder Anlage, die zum Abspielen von Schallplatten verwendet wird, befindet sich ein entsprechendes De-Emphase- Filter (Rückentzerrungs-Filter), das die Wirkung umkehrt, so dass man näherungsweise das ursprüngliche Signal erhält.
Wenn nun aber die Abspielgeschwindigkeit nicht mehr dieselbe ist, wie bei der Aufnahme, was u. a. beim "Scratching" auf­ tritt, so werden alle Frequenzanteile des Signals auf der Schallplatte entsprechend verschoben und deswegen vom De- Emphase-Filter unterschiedlich bedämpft. Dadurch ergibt sich ein charakteristischer Klang.
Nach einer weiteren vorteilhaften Ausgestaltung eines erfin­ dungsgemäßen interaktiven Musik-Abspielers nach der Erfindung mit einem Aufbau entsprechend Fig. 4 ist ein Scratch-Audio- Filter zur Simulation des beschriebenen charakteristischen Effekts vorgesehen. Dazu wird, insbesondere für eine digitale Simulation dieses Vorgangs, das Audiosignal innerhalb der Ab­ spieleinheit PLAY aus Fig. 4 einer weiteren Signalverarbeitung unterzogen, wie diese in Fig. 5 dargestellt ist. Dazu wird das Audiosignal, nachdem die digitalen Audiodaten des wiederzuge­ benden Musikstücks von einem Medium D bzw. Tonträger (z. B. CD oder MP3) gelesen und (vor allem im Fall des MP3-Formats) de­ kodiert DEC wurde, einer entsprechenden Pre-Emphase-Filterung PEF unterzogen. Das so vorgefilterte Signal wird dann in ei­ nem Pufferspeicher B abgelegt, aus dem es in einer weiteren Verarbeitungseinheit R je nach Betriebsmodus a) oder b), wie in Fig. 4 beschrieben, entsprechend dem Ausgangssignal von SL mit variierender Geschwindigkeit ausgelesen wird. Das ausge­ lesene Signal wird dann mit einem De-Emphase-Filter DEF be­ handelt und dann wiedergegeben (AUDIO_OUT).
Für das Pre- und De-Emphase Filter PEF und DEF, die den glei­ chen Frequenzgang wie in der RIAA-Norm festgelegt haben soll­ ten, verwendet man günstigerweise jeweils ein digitales IIR- Filter 2. Ordnung, d. h. mit zwei günstig gewählten Polstellen und zwei günstig gewählten Nullstellen. Wenn die Polstellen des einen Filters gleich den Nullstellen des anderen Filters sind, heben sich, wie gewünscht, die beiden Filter in ihrer Wirkung genau auf, wenn das Audiosignal mit Originalgeschwin­ digkeit abgespielt wird. In allen anderen Fällen erzeugen die genannten Filter den charakteristischen Toneffekt beim "Scratching". Selbstverständlich kann das beschriebene Scratch-Audio-Filter auch im Zusammenhang mit beliebigen an­ deren Arten von Musik-Abspielgeräten mit "Scratching"- Funktion eingesetzt werden.
In Kombination mit dem vorgeschlagenen CD-Grabbing-Verfahren ergibt sich unter anderem auch die vorteilhafte Möglichkeit, ein und denselben Titel zweimal in den interaktiven Musik- Abspieler zu laden und über das Automix-Verfahren mit sich selbst zu mischen bzw. zu "remixen" oder als Ein-Song-Dauer- Mix laufen zu lassen, ohne jemals aus dem Takt zu kommen. Sehr kurze Titel können dadurch vom DJ beliebig verlängert werden.
Das Tempo eines Mix kann darüber hinaus über eine gezielte Frequenzänderung an der Master-Clock MCLK (dem Referenz- Oszillator aus Fig. 2) allmählich im Verlauf eines mehrstündi­ gen Sets automatisch angehoben oder abgesenkt werden, um ge­ zielte Effekte der Steigerung oder der Beruhigung beim Publi­ kum zu erzeugen.
Wie bereits eingangs erwähnt, werden herkömmlicherweise beim Mischen mehrerer Musikstücke die Audioquellen von Tonträgern auf mehreren Abspielgeräten abgespielt und über ein Mischpult abgemischt. Bei dieser Vorgehensweise beschränkt sich eine Audioaufnahme auf eine Aufzeichnung des Endresultats. Eine Reproduktion des Mischvorganges oder ein Aufsetzen zu einem späteren Zeitpunkt exakt an einer vorgebbaren Position inner­ halb eines Musikstückes ist damit nicht möglich.
Genau dies erreicht nun die vorliegende Erfindung, indem ein Dateiformat für digitale Steuerinformationen vorgeschlagen wird, welches die Möglichkeit biete, den Vorgang des interak­ tiven Mischens und eine eventuelle Effektbearbeitung von Au­ dioquellen aufzuzeichnen und akkurat wiederzugeben. Dies ist insbesondere mit einem wie vorangehend beschriebenen Musik- Abspieler möglich.
Die Aufzeichnung gliedert sich in eine Beschreibung der ver­ wendeten Audioquellen und einen zeitlichen Ablauf von Steuer­ informationen des Mischvorgangs und zusätzlicher Effektbear­ beitung.
Es werden nur die Information über den eigentlichen Mischvor­ gang und über die Ursprungsaudioquellen benötigt, um das Re­ sultat des Mischvorgangs wiederzugeben. Die eigentlichen di­ gitalen Audiodaten werden extern zur Verfügung gestellt. Dies vermeidet urheberrechtlich problematische Kopiervorgänge von geschützten Musikstücken. Es können durch das Abspeichern von digitalen Steuerinformationen somit Mischvorgänge von mehre­ ren Audiostücken im Hinblick auf Abspielpositionen, Synchro­ nisationsinformationen, Echtzeiteingriffe mit Audio-Signal­ verarbeitungsmitteln etc. als ein Mix der Audioquellen und deren Effektbearbeitung als neues Gesamtwerk mit vergleichs­ weise langer Abspieldauer realisiert werden.
Dies bietet den Vorteil, dass die Beschreibung der Bearbei­ tung der Audioquellen im Vergleich zu den erzeugten Audioda­ ten des Mischvorgangs gering sind, der Mischvorgang an belie­ bigen Stellen editiert und wiederaufgesetzt werden kann. Au­ ßerdem können vorhandene Audiostücke in verschiedenen Zusam­ menfassungen oder als längere zusammenhängende Interpretatio­ nen wiedergegeben werden.
Mit bisherigen Tonträgern und Musik-Abspielgeräten war es hingegen nicht möglich, die Interaktion eines Anwenders auf­ zuzeichnen und wiederzugeben, da den bekannten Abspielgeräten die technischen Voraussetzungen fehlen, diese genau genug zu steuern. Dies wird erst durch die vorliegende Erfindung er­ möglicht, indem mehrere digitale Audioquellen wiedergegeben und deren Abspielpositionen bestimmt und gesteuert werden können. Dadurch wird es möglich, den gesamten Vorgang digital zu verarbeiten und entsprechende Steuerdaten in einer Datei zu speichern. Diese digitalen Steuerinformationen werden vor­ zugsweise in einer Auflösung abgelegt, die der Abtastrate der verarbeiteten digitalen Audiodaten entspricht.
Die Aufzeichnung gliedert sich im wesentlichen in 2 Teile:
  • - eine Liste der verwendeten Audioquellen z. B. digitale Auf­ gezeichnete Audiodaten in komprimierter und unkomprimierter Form wie z. B. WAV, MPEG, ATFF und digitale Tonträger wie etwa eine Compact Disk und
  • - den zeitlichen Ablauf der Steuerinformation.
Die Liste der Verwendeten Audioquellen enthält u. a.:
  • - Informationen zur Identifizierung der Audioquelle
  • - zusätzlich berechnete Information, die Charakteristiken der Audioquelle beschreibt (z. B. Abspiellänge und Tempoinformati­ onen)
  • - beschreibende Information zur Herkunft und Urheberinforma­ tion der Audioquelle (z. B. Künstler, Album, Verlag etc.)
  • - Metainformation, z. B. Zusatzinformation die über den Hin­ tergrund der Audioquelle informiert (z. B. Musikgenre, Infor­ mation zum Künstler und Verlag)
Die Steuerinformation speichert u. a.:
  • - die zeitliche Abfolge von Steuerdaten
  • - die zeitliche Abfolge von exakten Abspielpositionen in der Audioquelle
  • - Intervalle mit kompletter Zustandsinformation aller Stell­ glieder, um als Wiederaufsetzpunkte der Wiedergabe zu dienen
Im Folgenden ist ein mögliches Beispiel der Verwaltung der Liste von Audiostücken in einer Ausprägung des XML Formats dargestellt. Dabei steht XML als Abkürzung für Extensible Markup Language. Dies ist eine Bezeichnung für eine Metaspra­ che zur Beschreibung von Seiten im WWW (World Wide Web). Da­ bei ist es im Gegensatz zu HTML (Hypertext Markup Language) möglich, dass der Autor eines XML-Dokumentes im Dokument selbst bestimmte Erweiterungen von XML im Document-Type- Definition-Teil des Dokumentes definiert und im gleichen Do­ kument auch nutzt.
< ?xml version = "1.0" encoding = "ISO-8859-1"?<
<MJL VERSION = "Versions Beschreibung"<
<HEAD PROGRAM = "Programmname" COMPANY = "Firmenname"/<
<MIX TITLE = "Titel des Mixes"<
<LOCATION FILE = "Kennung der Steuerinformationsdatei" PATH = "Speicherort der Steuerinformationsdatei"/<
<COMMENT< Kommentare und Bemerkungen zum Mix</COMMENT<
</MIX<
<PLAYLIST<
<ENTRY TITLE = "Titel Eintrag 1" ARTIST = "Name des Autors" ID = "Kennung des Titels"<
<LOCATION FILE = "Kennung der Audioquelle" PATH = "Speicherort der Audioquelle" VOLUME = "Speichermedium der Datei"/<
<ALBUM TITLE = "Name des zugehörigen Albums" TRACK = "Kennung des Tracks auf Album"/<
<INFO PLAYTIME = "Abspieldauer in Sekunden" GENRE_ID = "Musik Genre-Kennung"/<
<TEMPO BPM = "Abspieltempo in BPM" BPM_QUALITY = "Güte des Tempo­ werts aus der Analyse"/<
<CUE POINT1 = "Lage des 1. Markierungspunkts" . . . POINTn = "Lage des n. Markierungspunkts"/<
<FADE TIME = "Überblendzeit" MODE = "Überblendmodus"<
<COMMENT<Kommentare und Bemerkungen zum Audiostück<
<IMAGE FILE = "Kennung einer Bilddatei als zusätzliche Kommen­ tarmöglichkeit"/<
<REFERENCE URL = "Kennung für weiterführende Informationen zur Audioquelle"/<
</COMMENT<
</ENTRY<
. . .
<ENTRY . . .<
. . .
</ENTRY<
</PLAYLIST<
</MJL<
Die Steuerinformationsdaten, referenziert durch die Liste von Audiostücken, werden vorzugsweise im Binärformat gespeichert. Der prinzipielle Aufbau der abgespeicherten Steuerinformatio­ nen in einer Datei lässt sich beispielhaft wie folgt be­ schreiben:
Mit [Kennung des Controllers] ist ein Wert bezeichnet, der ein Steuerglied (z. B. Lautstärke, Geschwindigkeit, Position) des interaktiven Musik-Abspielers identifiziert. Solchen Steuergliedern können mehrere Unterkanäle [Controller Kanal], z. B. Nummer des Abspielmoduls, zugeordnet sein. Ein eindeuti­ ger Steuerpunkt M wird durch [Kennung des Controllers], [Controller Kanal] adressiert.
Als Resultat entsteht eine digitale Aufzeichnung des Misch­ vorgangs, der gespeichert, nicht-destruktiv im Bezug auf das Audiomaterial reproduziert, vervielfältigt und übertragen werden kann, z. B. über das Internet.
Eine vorteilhafte Ausführung mit solchen Steuerdateien stellt ein Datenträger D dar, wie dieser anhand von Fig. 6 veran­ schaulicht ist. Dieser weist eine Kombination einer normalen Audio-CD mit digitalen Audiodaten AUDIO_DATA eines ersten Da­ tenbereichs D1 mit einem auf einem weiteren Datenteil D2 der CD untergebrachten Programm PRG_DATA zum Abspielen solcher ebenfalls vorhandener Mixdateien MIX_DATA auf, die unmittel­ bar auf die auf der CD abgelegten Audio-Daten AUDIO_DATA zugreifen. Dabei muss die Abspiel- bzw. Mix-Applikation PRG_DATA nicht zwingend Bestandteil eines solchen Datenträ­ gers sein. Auch eine Kombination aus einem ersten Datenbe­ reich D1 mit digitalen Audioinformationen AUDIO_DATA und ei­ nem zweiten Datenbereich mit einer oder mehreren Dateien mit den genannten digitalen Steuerdaten MIX_DATA ist vorteilhaft, denn ein solcher Datenträger beinhaltet in Verbindung mit ei­ nem Musik-Abspieler der Erfindung alle erforderlichen Infor­ mationen zur Reproduktion eines zu einem früheren Zeitpunkt erstellten neuen Gesamtwerkes aus den vorhandenen digitalen Audioquellen.
Besonders vorteilhaft jedoch lässt sich die Erfindung auf ei­ nem geeignet programmierten digitalen Computer mit entspre­ chenden Audio-Schnittstellen realisieren, indem ein Software­ programm die im vorangehenden dargestellten Verfahrensschrit­ te auf dem Computersystem durchführt (z. B. die Abspiel- bzw. Mix-Applikation PRG_DATA). Der beschriebene Datenträger in Verbindung mit dem auf einem Standard-CD-Rom-Laufwerk durch­ geführten vorteilhaften CD-Grabbing-Verfahren ermöglicht dann die komplette Funktionalität der Erfindung.
Alle in der vorstehenden Beschreibung erwähnten bzw. in den Figuren dargestellten Merkmale sollen, sofern der bekannte Stand der Technik dies zulässt, für sich allein oder in Kom­ bination als unter die Erfindung fallend angesehen werden.
Die vorangehende Beschreibung bevorzugter Ausführungsformen nach der Erfindung ist zum Zwecke der Veranschaulichung ange­ geben. Diese Ausführungsbeispiele sind nicht erschöpfend. Auch ist die Erfindung nicht auf die genaue angegebene Form beschränkt, sondern es sind zahlreiche Modifikationen und Än­ derungen im Rahmen der vorstehend angegebenen technischen Lehre möglich. Eine bevorzugte Ausführungsform wurde gewählt und beschrieben, um die prinzipiellen Details der Erfindung und praktische Anwendungen zu verdeutlichen, um den Fachmann in die Lage zu versetzen, die Erfindung zu realisieren. Eine Vielzahl bevorzugter Ausführungsformen sowie weitere Modifi­ kationen kommen bei speziellen Anwendungsgebieten in Be­ tracht.

Claims (10)

1. Verfahren zur Bereitstellung digitaler Audiodaten mindes­ tens zweier Musikstücke von einer Datenquelle (CD-ROM) mit nur einer Leseeinheit in Echtzeit, insbesondere zu deren Synchronisierung nach DE 101 01 473.2, wobei die Daten­ quelle Audiodaten mit einer im Vergleich zu deren Abspiel­ geschwindigkeit höheren Lesegeschwindigkeit liefert, indem für jedes wiederzugebende Musikstück (TR1. . .TRn) ein je­ weiliger Puffer-Speicher (P1. . .Pn), insbesondere Ringpuf­ fer-Speicher, vorgesehen ist, und die höhere Lesegeschwin­ digkeit dazu genutzt wird, die jeweiligen Pufferspeicher (P1. . .Pn) derart mit zugehörigen Audiodaten zu füllen, dass stets zeitlich vor und nach einer aktuellen Abspiel­ position (A1. . .An) des jeweiligen Musikstückes (TR1. . .TRn) Audiodaten bereitstehen.
2. Verfahren zur Bereitstellung digitaler Audiodaten nach An­ spruch 1, wobei der Zustand jedes Puffer-Speichers (P1. . .Pn) dahingehend überwacht wird, ob ausreichend Daten bereitstehen, und bei Unterschreiten eines vorgebbaren Schwellwertes eine von der Wiedergabe der Musikstücke (TR1. . .TRn) entkoppelte zentrale Instanz (S) mit der Bereitstellung der erforderlichen Audiodaten beauftragt wird, die selbsttätig die erforderlichen Bereiche von Au­ diodaten von der Datenquelle (CD-ROM) anfordert und den zugehörigen Puffer-Speicher (P1. . .Pn) mit den erhaltenen Daten auffüllt.
3. Verfahren zur Bereitstellung digitaler Audiodaten nach An­ spruch 2, wobei beim Auffüllen eines Puffer-Speichers (P1. . .Pn) nicht mehr benötigte Daten überschrieben werden.
4. Verfahren zur Bereitstellung digitaler Audiodaten nach An­ spruch 2 oder 3, wobei die zentrale Instanz (S) parallel eintreffende Anforderungen in eine sequentiell abzuarbei­ tende Reihenfolge bringt.
5. Interaktiver Musik-Abspieler, insbesondere nach DE 101 01 473.2, dem ein nach einem der vorangehenden Ansprüche 1 bis 4 betriebenes CD-ROM-Laufwerk (CD-ROM) als Datenquelle der Musikstücke (TR1. . .TRn) dient.
6. Computerprogrammprodukt, das direkt in den internen Spei­ cher eines digitalen Computers geladen werden kann und Softwareabschnitte umfasst, mit denen die Verfahrens­ schritte gemäß einem der Ansprüche 1 bis 4 ausgeführt wer­ den, wenn das Programmprodukt auf einem Computer ausge­ führt wird.
7. Datenträger (D), insbesondere Compact Disc, der
  • - einen ersten Datenbereich (D1) mit digitalen Audiodaten (AUDIO_DATA) eines oder mehrerer Musikstücke (TR1. . .TRn) und
  • - einen zweiten Datenbereich (D2) mit einer Steuerdatei (MIX_DATA) mit digitalen Steuerinformationen zur Ansteue­ rung eines Musik-Abspielers umfasst, insbesondere eines solchen nach Anspruch 4, wobei
  • - die Steuerdaten (MIX_DATA) des zweiten Datenbereichs (D2) auf Audiodaten (AUDIO_DATA) des ersten Datenbereichs (D1) Bezug nehmen.
8. Datenträger (D) nach Anspruch 7, wobei die digitalen Steu­ erinformationen (MIX_DATA) des zweiten Datenbereichs (D2) Mischvorgänge von Musikstücken und/oder interaktive Ein­ griffe in Musikstücke mit Audiosignalverarbeitungsmitteln als ein neues Gesamtwerk der digitalen Audioinformationen (AUDIO_DATA) von Musikstücken des ersten Datenbereichs (D1) repräsentieren.
9. Datenträger (D) nach Anspruch 7 oder 8, wobei gespeicherte digitale Steuerinformationen (MIX_DATA) des zweiten Daten­ bereichs (D2) ein Format aufweisen, das Informationen zur Identifikation der verarbeiteten Musikstücke (TR1. . .TRn) des ersten Datenbereichs (D1) und eine jeweilige diesen zugeordnete zeitliche Abfolge von Abspielpositionen und Zustandsinformationen der Stellglieder des Musik- Abspielers umfasst.
10. Computerprogrammprodukt (PRG_DATA), das auf einem Daten­ träger (D) nach einem der Ansprüche 7 bis 9 angeordnet ist und direkt in den internen Speicher eines digitalen Compu­ ters geladen werden kann und Softwareabschnitte umfasst, mit denen dieser digitale Computer die Funktion eines Mu­ sik-Abspielers übernimmt, insbesondere eines solchen nach DE 101 01 473.2 oder Anspruch 5, mit dem entsprechend den Steuerdaten (MIX_DATA) des zweiten Datenbereichs (D2) des Datenträgers (D), die auf Audiodaten (AUDIO_DATA) des ers­ ten Datenbereichs (D1) des Datenträgers (D) verweisen, ein durch die Steuerdaten (MIX_DATA) repräsentiertes Gesamt­ werk abspielbar ist, wenn das Programmprodukt (PRG_DATA) auf einem Computer ausgeführt wird.
DE10164686A 2001-01-13 2001-01-13 Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler Expired - Lifetime DE10164686B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE2001101473 DE10101473B4 (de) 2001-01-13 2001-01-13 Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE2001101473 DE10101473B4 (de) 2001-01-13 2001-01-13 Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler

Publications (2)

Publication Number Publication Date
DE10164686A1 true DE10164686A1 (de) 2002-09-19
DE10164686B4 DE10164686B4 (de) 2007-05-31

Family

ID=7670543

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10164686A Expired - Lifetime DE10164686B4 (de) 2001-01-13 2001-01-13 Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler

Country Status (6)

Country Link
US (2) US7615702B2 (de)
EP (1) EP1380026A2 (de)
JP (1) JP2004527786A (de)
AU (1) AU2002244636A1 (de)
DE (1) DE10164686B4 (de)
WO (1) WO2002056292A2 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005049485A1 (de) * 2005-10-13 2007-04-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Steuerung der Wiedergabe von Audioinformationen
DE102005036286B4 (de) * 2005-08-02 2010-01-21 Continental Automotive Gmbh Verfahren zur Bestimmung der Wiedergabezeit komprimierter Audiodaten

Families Citing this family (52)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL1014526C2 (nl) 2000-02-29 2001-08-30 N2It Dev B V I O Schijf te gebruiken in een inrichting voor signaalbewerking, alsmede een dergelijke inrichting.
DE10164686B4 (de) * 2001-01-13 2007-05-31 Native Instruments Software Synthesis Gmbh Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
WO2002103671A2 (de) * 2001-06-18 2002-12-27 Native Instruments Software Synthesis Gmbh Automatische erzeugung von musikalischen sratch-effekten
US8077568B2 (en) * 2002-11-12 2011-12-13 Spencer Charles A Method and system for synchronizing information specific to a location on a surface with an external source
GB0230097D0 (en) * 2002-12-24 2003-01-29 Koninkl Philips Electronics Nv Method and system for augmenting an audio signal
JP3982443B2 (ja) * 2003-03-31 2007-09-26 ソニー株式会社 テンポ解析装置およびテンポ解析方法
US20040254660A1 (en) * 2003-05-28 2004-12-16 Alan Seefeldt Method and device to process digital media streams
US8645336B2 (en) * 2003-11-07 2014-02-04 Magnaforte, Llc Digital interactive phrasing system and method
JP4650662B2 (ja) * 2004-03-23 2011-03-16 ソニー株式会社 信号処理装置および信号処理方法、プログラム、並びに記録媒体
US7358432B2 (en) * 2004-04-28 2008-04-15 Steven George Risley Method and apparatus for teaching rhythm
KR20060073100A (ko) * 2004-12-24 2006-06-28 삼성전자주식회사 특정 패턴 타입의 음원 미디어를 검색하는 음원 검색기 및그 동작방법
WO2006104163A1 (ja) * 2005-03-28 2006-10-05 Pioneer Corporation オーディオ信号再生装置
WO2007000866A1 (ja) * 2005-06-28 2007-01-04 Pioneer Corporation ジョッキー再生装置
US20090223352A1 (en) * 2005-07-01 2009-09-10 Pioneer Corporation Computer program, information reproducing device, and method
JP4940588B2 (ja) * 2005-07-27 2012-05-30 ソニー株式会社 ビート抽出装置および方法、音楽同期画像表示装置および方法、テンポ値検出装置および方法、リズムトラッキング装置および方法、音楽同期表示装置および方法
US7518053B1 (en) * 2005-09-01 2009-04-14 Texas Instruments Incorporated Beat matching for portable audio
KR101215937B1 (ko) * 2006-02-07 2012-12-27 엘지전자 주식회사 IOI 카운트(inter onset intervalcount) 기반 템포 추정 방법 및 이를 위한 템포 추정장치
US7645929B2 (en) * 2006-09-11 2010-01-12 Hewlett-Packard Development Company, L.P. Computational music-tempo estimation
PL2115732T3 (pl) 2007-02-01 2015-08-31 Museami Inc Transkrypcja muzyczna
US7888582B2 (en) * 2007-02-08 2011-02-15 Kaleidescape, Inc. Sound sequences with transitions and playlists
JP2010521021A (ja) 2007-02-14 2010-06-17 ミューズアミ, インコーポレイテッド 楽曲ベースの検索エンジン
US7956274B2 (en) * 2007-03-28 2011-06-07 Yamaha Corporation Performance apparatus and storage medium therefor
JP4311466B2 (ja) * 2007-03-28 2009-08-12 ヤマハ株式会社 演奏装置およびその制御方法を実現するプログラム
GB2450894C (en) * 2007-07-10 2017-03-22 Genie Care Apparatus for lifting and supporting the lower leg and foot of a patient
US7985915B2 (en) * 2007-08-13 2011-07-26 Sanyo Electric Co., Ltd. Musical piece matching judging device, musical piece recording device, musical piece matching judging method, musical piece recording method, musical piece matching judging program, and musical piece recording program
US8269093B2 (en) * 2007-08-21 2012-09-18 Apple Inc. Method for creating a beat-synchronized media mix
US8173883B2 (en) * 2007-10-24 2012-05-08 Funk Machine Inc. Personalized music remixing
US8426715B2 (en) * 2007-12-17 2013-04-23 Microsoft Corporation Client-side audio signal mixing on low computational power player using beat metadata
US8494257B2 (en) * 2008-02-13 2013-07-23 Museami, Inc. Music score deconstruction
JP5008766B2 (ja) * 2008-04-11 2012-08-22 パイオニア株式会社 テンポ検出装置及びテンポ検出プログラム
KR101080989B1 (ko) 2009-03-13 2011-11-09 포항공과대학교 산학협력단 진동 저작 도구
US8515092B2 (en) 2009-12-18 2013-08-20 Mattel, Inc. Interactive toy for audio output
US9640216B2 (en) * 2010-07-14 2017-05-02 Pioneer Dj Corporation Reproduction system for maintaining synchronization between a first audio content and a plurality of audio contents during special reproduction of the first audio content, and method and program thereof
US8185079B2 (en) * 2010-08-12 2012-05-22 General Electric Company Frequency estimation immune to FM clicks
JP5500058B2 (ja) * 2010-12-07 2014-05-21 株式会社Jvcケンウッド 曲順決定装置、曲順決定方法、および曲順決定プログラム
CA2823907A1 (en) 2011-01-06 2012-07-12 Hank Risan Synthetic simulation of a media recording
US9070352B1 (en) * 2011-10-25 2015-06-30 Mixwolf LLC System and method for mixing song data using measure groupings
US20130123961A1 (en) * 2011-11-11 2013-05-16 Numark Industries, Lp Disc jockey controller for a handheld computing device
JP5935503B2 (ja) * 2012-05-18 2016-06-15 ヤマハ株式会社 楽曲解析装置および楽曲解析方法
US9264840B2 (en) * 2012-05-24 2016-02-16 International Business Machines Corporation Multi-dimensional audio transformations and crossfading
EP2866223B1 (de) * 2012-06-26 2017-02-01 Yamaha Corporation Zeitstrecken für automatisierte musikaufführung unter verwendung von wellenformdaten
JP6143444B2 (ja) * 2012-12-03 2017-06-07 株式会社サクラクレパス 過酸化水素ガス検知用インキ組成物、過酸化水素ガス検知インジケーター、過酸化水素ガス滅菌用包装体、及び過酸化水素ガス滅菌処理方法
EP2765573B1 (de) * 2013-02-08 2016-08-03 Native Instruments GmbH Geste zwecks DJ Scratch Effect und Stellungserfassung auf einem Berührungsbildschirm, der duale gezoomte Zeitlinie anzeigt.
US8729375B1 (en) * 2013-06-24 2014-05-20 Synth Table Partners Platter based electronic musical instrument
US10366121B2 (en) * 2016-06-24 2019-07-30 Mixed In Key Llc Apparatus, method, and computer-readable medium for cue point generation
CN109478398B (zh) * 2016-07-22 2023-12-26 雅马哈株式会社 控制方法以及控制装置
JP6252642B1 (ja) * 2016-09-27 2017-12-27 カシオ計算機株式会社 効果付与装置、効果付与方法、プログラムおよび電子楽器
GB201620838D0 (en) 2016-12-07 2017-01-18 Weav Music Ltd Audio playback
US10460709B2 (en) 2017-06-26 2019-10-29 The Intellectual Property Network, Inc. Enhanced system, method, and devices for utilizing inaudible tones with music
US11030983B2 (en) 2017-06-26 2021-06-08 Adio, Llc Enhanced system, method, and devices for communicating inaudible tones associated with audio files
US10593313B1 (en) 2019-02-14 2020-03-17 Peter Bacigalupo Platter based electronic musical instrument
FR3095070B1 (fr) * 2019-04-15 2021-04-16 Pa Cotte Sa Système d’émission d’un effet sonore

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS59207076A (ja) * 1983-05-10 1984-11-24 Naoyuki Murakami 音楽再生装置
JPH0467470A (ja) * 1990-07-06 1992-03-03 Pioneer Electron Corp 情報記憶装置及び情報再生装置
JP3245890B2 (ja) * 1991-06-27 2002-01-15 カシオ計算機株式会社 拍検出装置及びそれを用いた同期制御装置
JP2734909B2 (ja) 1992-10-12 1998-04-02 ヤマハ株式会社 波形データ読み出し装置
US5793739A (en) 1994-07-15 1998-08-11 Yamaha Corporation Disk recording and sound reproducing device using pitch change and timing adjustment
KR0135839B1 (ko) * 1994-08-30 1998-05-15 김광호 영상노래반주용 기록매체 및 재생장치
EP0880779A1 (de) 1995-06-20 1998-12-02 André Rickli Digitales tonsignalverarbeitungsgerät
NL1000731C1 (nl) * 1995-07-05 1997-01-08 Henk Schaake Muziekweergave-stuurinrichting.
KR0171851B1 (ko) * 1995-09-29 1999-03-30 김광호 반도체 메모리 카드를 이용한 다중음향 재생장치 및 방법
US5804749A (en) * 1995-12-28 1998-09-08 Yamaha Corporation Sound source chip having variable clock to optimize external memory access
US5869783A (en) 1997-06-25 1999-02-09 Industrial Technology Research Institute Method and apparatus for interactive music accompaniment
US6782299B1 (en) * 1998-02-09 2004-08-24 Sony Corporation Method and apparatus for digital signal processing, method and apparatus for generating control data, and medium for recording program
JP3451192B2 (ja) * 1998-03-20 2003-09-29 パイオニア株式会社 楽曲再生装置、楽曲再生方法および楽曲記録媒体
US6441290B2 (en) * 2000-02-01 2002-08-27 Yamaha Corporation Apparatus and method for reproducing or recording, via buffer memory, sample data supplied from storage device
JP2002124022A (ja) * 2000-10-18 2002-04-26 Yamaha Corp オーディオデータ記録再生装置
DE10164686B4 (de) * 2001-01-13 2007-05-31 Native Instruments Software Synthesis Gmbh Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
WO2002103671A2 (de) * 2001-06-18 2002-12-27 Native Instruments Software Synthesis Gmbh Automatische erzeugung von musikalischen sratch-effekten
US6683241B2 (en) * 2001-11-06 2004-01-27 James W. Wieder Pseudo-live music audio and sound
US7732697B1 (en) * 2001-11-06 2010-06-08 Wieder James W Creating music and sound that varies from playback to playback
US20090223352A1 (en) * 2005-07-01 2009-09-10 Pioneer Corporation Computer program, information reproducing device, and method
CN101326569B (zh) * 2005-12-09 2012-07-18 索尼株式会社 音乐编辑设备和音乐编辑方法
JP5007563B2 (ja) * 2006-12-28 2012-08-22 ソニー株式会社 音楽編集装置および方法、並びに、プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102005036286B4 (de) * 2005-08-02 2010-01-21 Continental Automotive Gmbh Verfahren zur Bestimmung der Wiedergabezeit komprimierter Audiodaten
DE102005049485A1 (de) * 2005-10-13 2007-04-19 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Steuerung der Wiedergabe von Audioinformationen
DE102005049485B4 (de) * 2005-10-13 2007-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Steuerung der Wiedergabe von Audioinformationen

Also Published As

Publication number Publication date
US20040069123A1 (en) 2004-04-15
US7615702B2 (en) 2009-11-10
AU2002244636A1 (en) 2002-07-24
JP2004527786A (ja) 2004-09-09
US8680388B2 (en) 2014-03-25
EP1380026A2 (de) 2004-01-14
DE10164686B4 (de) 2007-05-31
WO2002056292A2 (de) 2002-07-18
US20100011941A1 (en) 2010-01-21
WO2002056292A3 (de) 2003-11-13

Similar Documents

Publication Publication Date Title
DE10164686A1 (de) Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
EP1415297B1 (de) Automatische erzeugung von musikalischen sratch-effekten
DE69623318T2 (de) Verfahren und vorrichtung zur interaktiven bildung von neuen bearbeitungen von musikstücken
DE69930787T2 (de) Multimedia-System und Verfahren für die automatische Selektion einer Szene
DE69720706T2 (de) Interaktives system zur synchronisierung und zum simultanen spielen von vorbestimmten musiksequenzen
DE69127048T2 (de) Verfahren und Vorrichtung zur Editierung von MIDI-Dateien
DE69032365T2 (de) Vorrichtung zur Wiedergabe von Begleitungsmusik
DE69727002T2 (de) Aufzeichnungsschnitt
DE202020005830U1 (de) Vorrichtung zum Zerlegen, Rekombinieren und Abspielen von Audiodaten
DE69723003T2 (de) Verfahren zur datenverschachtelung für die kontinuierliche wiedergabe von mehreren programmversionen mit demselben material
DE202014100553U1 (de) Gerät zur Wiedergabesteuerung von digitalen Multimediadaten sowieein entsprechendes computerlesbares Speichermedium
DE68920730T2 (de) Plattenwiedergabegerät.
DE19843702A1 (de) Editieren digitalisierter Audio/Videodaten über ein Netzwerk
DE102005059044A1 (de) Verfahren zum Bearbeiten von Medieninhalten in einer Netzwerkumgebung sowie Gerät zur Vorratsspeicherung von Medien-Daten
DE69632695T2 (de) Verfahren und Vorrichtung zur Musiktonerzeugung
DE3023581A1 (de) Verfahren zur digitalen huellkurvensteuerung eines polyphonen musiksyntheseinstruments und schaltungsanordnung zur durchfuehrung des verfahrens
DE69921048T2 (de) Vorrichtung zum automatischen Vortrag mit veränderlichen Arpeggiothema
DE69029319T2 (de) Verfahren und Gerät zur Synchronisation einer Vielzahl von CD-Spielern
DE10101473A1 (de) Automatische Erkennung und Anpassung von Tempo und Phase von Musikstücken und darauf aufbauender interaktiver Musik-Abspieler
DE69732797T2 (de) Verfahren und vorrichtung zur speicherung von tonfolgen in cyclischen schleifen
DE19603276A1 (de) Schnittstelle zur Anwendungsprogrammierung für einen digitalen Diskrekorder
DE3905623C2 (de) Vorrichtung zum Editieren von PCM-Signalen
DE10153673B4 (de) Automatische Erzeugung von musikalischen Scratch-Effekten
DE4190031B4 (de) Datenverdichtung von ausschwingenden Musikinstrumententönen für ein digitales Abtastungssystem
DE19843705A1 (de) Editieren digitalisierter Audio/Videodaten über ein Netzwerk

Legal Events

Date Code Title Description
AC Divided out of

Ref document number: 10101473

Country of ref document: DE

AC Divided out of

Ref document number: 10101473

Country of ref document: DE

OP8 Request for examination as to paragraph 44 patent law
AC Divided out of

Ref document number: 10101473

Country of ref document: DE

Kind code of ref document: P

AC Divided out of

Ref document number: 10101473

Country of ref document: DE

Kind code of ref document: P

8364 No opposition during term of opposition
R071 Expiry of right