DE10144087B4 - Verfahren zur Erkennung und Registrierung urheberrechtlich geschützter Musiksequenzen in Rundfunk- und Fernsehprogrammen - Google Patents
Verfahren zur Erkennung und Registrierung urheberrechtlich geschützter Musiksequenzen in Rundfunk- und Fernsehprogrammen Download PDFInfo
- Publication number
- DE10144087B4 DE10144087B4 DE2001144087 DE10144087A DE10144087B4 DE 10144087 B4 DE10144087 B4 DE 10144087B4 DE 2001144087 DE2001144087 DE 2001144087 DE 10144087 A DE10144087 A DE 10144087A DE 10144087 B4 DE10144087 B4 DE 10144087B4
- Authority
- DE
- Germany
- Prior art keywords
- sequences
- music
- sequence
- audio
- television programs
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000000034 method Methods 0.000 title claims abstract description 13
- 238000001228 spectrum Methods 0.000 claims abstract description 23
- 230000015654 memory Effects 0.000 claims abstract description 6
- 230000005236 sound signal Effects 0.000 claims abstract description 6
- 230000003595 spectral effect Effects 0.000 claims abstract description 6
- 238000010183 spectrum analysis Methods 0.000 claims abstract 2
- 238000001514 detection method Methods 0.000 claims description 2
- 238000005070 sampling Methods 0.000 abstract description 2
- 230000009466 transformation Effects 0.000 description 4
- 239000000203 mixture Substances 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 235000015961 tonic Nutrition 0.000 description 2
- 230000001256 tonic effect Effects 0.000 description 2
- KUQRLZZWFINMDP-BGNLRFAXSA-N 2-[(3r,4s,5s,6r)-3,4,5-trihydroxy-6-(hydroxymethyl)oxan-2-yl]oxyethyl 2-methylprop-2-enoate Chemical compound CC(=C)C(=O)OCCOC1O[C@H](CO)[C@@H](O)[C@H](O)[C@H]1O KUQRLZZWFINMDP-BGNLRFAXSA-N 0.000 description 1
- 230000001133 acceleration Effects 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003705 background correction Methods 0.000 description 1
- 238000012512 characterization method Methods 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000012885 constant function Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000012634 fragment Substances 0.000 description 1
- 238000012544 monitoring process Methods 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 239000011295 pitch Substances 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 230000033764 rhythmic process Effects 0.000 description 1
- 208000027765 speech disease Diseases 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 229960000716 tonics Drugs 0.000 description 1
- 238000000844 transformation Methods 0.000 description 1
- 230000003936 working memory Effects 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H60/00—Arrangements for broadcast applications with a direct linking to broadcast information or broadcast space-time; Broadcast-related systems
- H04H60/56—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54
- H04H60/58—Arrangements characterised by components specially adapted for monitoring, identification or recognition covered by groups H04H60/29-H04H60/54 of audio
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
- G10L17/26—Recognition of special voice characteristics, e.g. for use in lie detectors; Recognition of animal voices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04H—BROADCAST COMMUNICATION
- H04H20/00—Arrangements for broadcast or for distribution combined with broadcast
- H04H20/12—Arrangements for observation, testing or troubleshooting
- H04H20/14—Arrangements for observation, testing or troubleshooting for monitoring programmes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Stereophonic System (AREA)
- Electrophonic Musical Instruments (AREA)
Abstract
a) Kontinuierliches Abtasten einer in Rundfunk- und Fernsehprogrammen verbreiteten und in analoger Form erfassten Audiosequenz, die aus einer reinen Musiksequenz mit überlagerten Klängen oder Geräuschen bestehen darf, eines A/D-Wandlers, wobei die analoge in eine digitale Audiosequenz gewandelt wird,
b) Speichern der digitalen Audiosequenz in einen Arbeitsspeicher und/oder Ringspeicher,
c) Durchführen einer Spektralanalyse der gespeicherten Audiosequenz, wodurch ein Klangspektrum ermittelt wird, das anhand von geschützte Musiksequenzen eindeutig identifizierenden Triggerbedingungen untersucht wird,
d) wobei diese Triggerbedingungen die Existenz von Spektralanteilen und deren Intensitätsverhältnisse zueinander umfassen und von in einem Speicher abgelegten Klangspektren zu identifizierender, geschützter Musiksequenzen...
Description
- Rundfunk- und Fernsehprogrammen enthalten in der Regel Musiksequenzen. Dabei handelt es sich um vollständige Musikstücke, Hintergrundmusik zu Wortbeiträgen oder um dramaturgisch eingesetzte Klangfolgen in Spielfilmen. Diese Musiksequenzen unterliegen dem Urheberrecht.
- Die Ausstrahlung begründet den Anspruch des Urhebers auf eine Vergütung. Verwertungsgesellschaften wie z. B. die GEMA in Deutschland ziehen diese Vergütungen von den Sendeanstalten ein und zahlen sie an die Inhaber der Urheberrechte aus.
- Stand der Technik
- Derzeit wird über jede Sendung seitens der ausstrahlenden Sendeanstalt manuell ein Protokoll ausgefertigt, das sämtliche in der Sendung vorkommende Musiksequenzen mit Urheber und Dauer enthält.
- Die Verwertungsgesellschaft zieht diese Protokolle in der Regel ungeprüft als Basis für die Abrechnungen heran.
- Stellt der Rechteinhaber nach Erhalt der Abrechnung Fehler fest, kann er Einspruch bei der Verwertungsgesellschaft einlegen. In der Regel erstattet die Verwertungsgesellschaft dann die fehlenden Beträge.
- Dieses Verfahren hat die folgenden Nachteile:
Die manuelle Erfassung der Musiksequenzen erfordert einen hohen bürokratischen Aufwand und damit hohe Kosten seitens der Sendeanstalten. Gerade in Dokumentationen und Reportagen kommen häufig viele kurze Sequenzen vor, die alle unter Angabe von Dauer, Titel und Urheber gelistet werden müssen. - Andererseits ist es für den Rechteinhaber nach bisherigem Stand der Technik praktisch unmöglich zu kontrollieren, ob die ihm vorgelegten Abrechnungen korrekt sind.
- Schätzungen gehen davon aus, dass nur etwa 37% der Tantiemenansprüche abgerechnet werden.
- Bei Tantiemenansprüchen von bis zu derzeit 322,41 DM pro Minute ergibt sich daraus für den Rechteinhaber ein beträchtlicher wirtschaftlicher Schaden.
- Technische Lösungen existieren nur in rudimentärer und für den beschriebenen Zweck nicht anwendbarer Form. Es sind Systeme bekannt, die Audioquellen auf das Auftreten einer beschränkten Anzahl kurzer (typisch 3s langer) Sequenzen hin untersuchen.
- Die Sequenzen dürfen nur kurz sein, weil sie eins zu eins (ohne vorherige Analyse) mit den gespeicherten verglichen werden.
- Mit solchen Systemen wird z. B. die Häufigkeit von Werbespots gezählt. Die Nachteile dieser Lösungen bestehen in folgenden Punkten:
- • Genau die gespeicherte kurze Sequenz muß auftreten
- • Es dürfen keine Störgeräusche wie z. B. Sprache überlagert sein.
- In folgenden Druckschriften werden ähnliche Problemstellungen behandelt:
Die DruckschriftWO 01/69575A1 - Das in diesem Patentbegehren beanspruchte Verfahren unterscheidet sich hiervon in folgenden Punkten, da
- a) ganz spezifische Audioaufnahmen identifiziert werden können, d. h. nicht nur die Melodiebögen und Komposition sondern die Wiedergabe eines ganz bestimmten zuvor gespeicherten Audio Tracks erkannt wird, auch wenn davon nur für die Melodie unwesentliche Teile abgespielt werden;
- b) die zu untersuchenden Audioquellen von Störgeräuschen und Sprache überlagert sein dürfen;
- c) das Verfahren dazu geeignet ist, Rundfunk- und Fernsehprogramme kontinuierlich zu überwachen und dabei die Ausstrahlungsdauer und den Ausstrahlungszeitpunkt der zu überwachenden Musikstücke zu erfassen und zu dokumentieren.
- Die Druckschrift
WO 01/80235A1 - Das in diesem Patentbegehren beanspruchte Verfahren unterscheidet sich hiervon in folgenden Punkten, da
- a) die zu untersuchenden Musikstücke von Störgeräuschen und Sprache überlagert sein dürfen, das Verfahren also die Musik zuerst aus einem mit einem oder mehreren anderen Audiosignalen zusammen gemischten Kontext herausfiltert,
- b) es dazu geeignet ist, bspw. Rundfunk- und Fernsehprogramme kontinuierlich zu überwachen und dabei Dauer und Zeitpunkt einer Verwendung der zu überwachenden Musikstücke zu protokollieren.
- Es soll ein Verfahren ohne diese Nachteile beschrieben werden, das dazu in der Lage ist, mehrere Audioquellen kontinuierlich daraufhin zu überwachen, ob Elemente eines gespeicherten Satzes von Musiksequenzen darin vorkommen.
- Dabei können die Sequenzen auch dann identifiziert werden, wenn sie durch andere Klänge und/oder Geräusche überlagert sind.
- Das gesamte Tonfrequenzspektrum des zu kontrollierenden Audiosignals wird zunächst in schmale Frequenzbänder von jeweils wenigen Hertz zerlegt.
- Diese Zerlegung kann durch parallele analoge Bandpassfilter, die jeweils genau einen Frequenzanteil durchlassen, erfolgen.
- Kostengünstiger ist es jedoch, das Tonfrequenzsignal mit ausreichender Geschwindigkeit durch einen A/D-Wandler abzutasten, die gewandelten Werte in einen Arbeitsspeicher abzulegen und danach einen schnellen Rechner die Frequenzanteile durch eine schnelle Fouriertranformation (FFT) berechnen zu lassen.
- Es ist zweckmäßig, die Audioquelle kontinuierlich abgetastet und die Ergebnisse in einen Ringspeicher zu schreiben, und nach einer festen Anzahl z von Konversionen eine Fouriertransformation durchzuführen.
- Das Ergebnis der FFT charakterisiert das Tonfrequenzsignal, was in diesem Moment empfangen wurde.
- Wurde mit Hilfe der Fouriertransformation ein Frequenzbereich von 0 bis h Hz in k Kanäle zerlegt, erhält man n Intensitätswerte. Dieses Feld aus n Zahlen beschreibt den Klang in diesem Moment.
- Diese Intensitätsverteilung der Tonhöhen ist die Grundlage für den Vergleich der überwachten Audioquellen mit gespeicherten Musikstücken.
- Absolute Intensitäten sind nicht zur Charakterisierung geeignet, wohl aber deren Lagen im Spektrum und die Intensitätsverhältnisse der akustischen Spektrallinien zueinander. Schon wenige kurze Momentaufnahmen ergeben eine Art ,Fingerabdruck' eines Musikstückes.
-
1 zeigt ein vereinfachtes Beispielspektrum für einen C-Dur Akkord. Neben den Grundtönen C, G und E (131 Hz, 165 Hz und 196 Hz) sind auch die ersten Harmonischen (doppelte Frequenz) eingezeichnet. In der Realität treten auch Harmonische höherer Ordnung auf. -
2 zeigt ein Beispielspektrum, wo neben dem C-Dur Akkord noch ein C (65,4 Hz) eines Bassinstruments erklingt. - Es ist aber nicht praktikabel, nach jeder FFT einen Vergleich des Spektrums mit allen gespeicherten Spektren durchzuführen.
- Ein Beispiel zeigt, dass der durchzuführende Rechenaufwand unzumutbar groß wäre:
Nehmen wir einmal an, wir würden die zu überwachende Audioquelle abtasten und alle 10 ms eine FFT mit 10000 Elementen durchführen. Nehmen wir weiter an, wir hätten einen Datenbestand von 1000 Musikstücken mit durchschnittlicher Länge 3 min zu vergleichen. Das entspräche 180000 Sekunden oder 180000·100 = 18 Millionen Zahlensätze zu 10000 Zahlen, mit der wir unser FFT-Ergebnisfeld vergleichen müssten. Der Vergleich dürfte aber nur 10 ms dauern, denn dann wird die nächste Momentaufnahme geliefert. - Dieses Problem kann folgendermaßen gelöst werden: Die Audioquelle wird kontinuierlich (nach jeder FFT) auf die Erfüllung einer Triggerbedingung hin überprüft.
- Eine Triggerbedingung ist dann geeignet, wenn sie
- – normalerweise in jeder urheberrechtlich relevanten Musiksequenz vorkommt
- – möglichst selten auftritt
- Ein Beispiel für eine schlecht geeignete Triggerbedingung wäre z. B. eine Lautstärkeerhöhung im Frequenzbereich 520–530 Hz.
- Das ist der Fall, wenn das c'' (523,25 Hz) ertönt. Praktikable Triggerbedingungen sind Harmoniewechsel z. B. Tonika (
3 ) – Dominante (4 ) bzw. Tonika-Subdominante (5 ). - Solche Wechsel dürften in jedem Musikstück vorkommen. In Passagen, in denen nur Melodieinstrumente vorkommen, können beliebige oder bestimmte Intervalle (z. B. Terzen) als Triggerpunkte definiert werden.
- Das Ergebnis der FFT, bei der die Triggerbedingung erkannt wird, löst eine feste Anzahl von m – 1 weiteren Fouriertransformationen aus. Die so erhaltenen m Frequenzspektren werden zur Identifikation der Musiksequenz genutzt. So können Informationen aus dem An- und Abklingen („Attack", „Decay" und „Sustain") eines Tones gewonnen werden.
-
6 ,7 und8 zeigen ein Beispiel für m = 3. Es ist wie in dem Beispiel aus2 ein C-Dur Akkord mit einem Baß zu hören. Der Baß klingt jedoch ab (wie z. B. bei einem akustischen Kontrabaß), während die Intensitäten des C-Dur Akkordes über den Beobachtungszeitraum gleich bleiben. - Die m Fourierspektren werden von Störgeräuschen befreit (wie noch zu beschreiben ist) und dienen dann dazu, einen Satz den Klang charakterisierenden Zahlen zu bilden.
- Das charakterisierende Zahlenfeld kann nun so gebildet werden, dass die 1 höchsten lokalen Maxima registriert werden. 1 sollte so klein wie möglich sein, um den numerischen Aufwand zu minimieren.
- Vorher muss auf relative Intensitäten normiert werden, denn es ist ja uninteressant, ob im Programm das zu erkennende Stück laut im Vordergrund oder leiser im Hintergrund (z. B. mit Sprache im Vordergrund) gespielt wird. Dazu wird auf den Median der 1 höchsten spektralen Maxima normiert.
- Der Median ist hier besser geeignet als der Mittelwert; ein eventuell nicht ganz eliminierbarer lauter Vordergrundton kann so nicht zu einer signifikanten Verfälschung führen.
-
9 zeigt das charakteristische Zahlenfeld für unser obiges Beispiel und 1 = 7. Auf eine Normierung wurde aus Gründen der Übersichtlichkeit verzichtet. - Die gespeicherten Musikstücke werden nach gleichen Kriterien wie die zu untersuchende Audioquelle auf Triggerpunkte hin untersucht. Werden Triggerpunkte gefunden, werden charakteristische Zahlenfelder gebildet und zusammen mit einer Kennung auf einem Massenspeicher abgelegt.
- Stimmt nun ein charakteristisches Zahlenfeld aus einer zu untersuchenden Audioquelle mit einem gespeicherten überein, ist ein Musikstück erkannt und über die Kennung identifiziert.
- Durch die Ermittlung eines charakteristischen Zahlenfeldes nach einer Triggerbedingung kommt es zu einer erheblichen Reduktion des Vergleichsaufwandes. Bei der realistischen Annahme des Auftretens einer Triggerbedingung einmal pro Sekunde, einem 1 (Anzahl zu überwachender höchster Peaks) von 100 und einem m (Spektren nach Trigger) von 10 sind 1000 Zahlenpaare pro Sekunde zu vergleichen.
- Der Datenbestand für 1000 3 Minuten lange Musikstücke reduziert sich auf 1000·180·1000 Zahlenpaare.
- Statt alle 10 ms einen Datensatz aus 10000 Zahlen mit 18 Millionen Datensätzen vergleichen zu müssen, braucht nur noch alle 1000 ms ein Datensatz von 2000 Zahlen mit 180000 Datensätzen verglichen zu werden. Bei sequenziellem Vergleich darf der Rechner somit 50000 mal langsamer sein als bei einem Komplettvergleich.
- Werden die D Datensätze der gespeicherten Musikstücke nach der Erfassung sortiert, so ist eine Beschleunigung durch binäres Suchen von der Ordnung D auf die Ordnung log2(D) möglich.
- Es bleibt zu klären, wie Geräuschanteile eliminiert werden können.
- Häufig laufen die zu erkennenden Musikstücke im Hintergrund; im Vordergrund ist Sprache oder andere Laute z. B. Meeresrauschen, Windgeräusche oder Straßenlärm zu hören.
- Rauschquellen liefern über weite Frequenzbereiche ein breitbandiges Spektrum, einen sogenannten Untergrund.
- Die Minima um die eigentlichen Peaks werden durch eine Ausgleichfunktion (bei weißem Rauschen eine konstante Funktion) approximiert; anschließend wird die Approximationsfunktion abgezogen.
-
10 zeigt ein Beispiel. Der durch die waagerechte Linie begrenzte Rauschanteil wird von allen Spektrallinien subtrahiert. - Bei „rosa" Rauschen geht man analog vor; hier subtrahiert man statt der konstanten Linie ein Ausgleichspolynom mit wechselnder Steigung und ggf. Wendepunkten (Beispiel
11 ). - Bei Störungen durch Sprache werden Vokale und Konsonanten unterschiedlich eliminiert:
Konsonanten entfallen bei der Untergrundkorrektur, sie werden wie Rauschen herausgerechnet. - Vokale bilden schmalbandige Peaks ähnlich denen von Musikinstrumenten produzierten aus.
- Sie liegen aber in der Regel nicht genau auf den Halbtonstufen. Die Musik ist zudem zeitlich strenger strukturiert; sie zerfällt in Takte, die wiederum in Ganze-, Viertel-, Achtelnoten zerfallen.
- Sind einzelne Peaks also keine Vielfache der übrigen im Spektrum enthaltenen und fallen sie aus der zeitlichen Struktur, stammen sie möglicherweise aus Sprache und werden eliminiert. Man beachte, daß es unkritisch ist, wenn durch Fehlinterpretation ein Peak entfernt wird, der aus der Musik stammt. Auf die gespeicherten Datenbestände werden schließlich die gleichen Algorithmen angesetzt. Sie werden also auch hier entfernt.
-
12 beschreibt beispielhaft eine Ausführung des Gerätes. - Das Tonfrequenzsignal der Sendeanstalten wird von Satelliten- oder terrestrischen Antennen bzw. Breitbandkabel mit nachgeschalteten Empfangseinheiten geliefert (
1 ). - Ein Bandpassfilter (
2 ) begrenzt die Bandbreite der Audioquelle auf einen Bereich zwischen 20 Hz und 20000 Hz. - Anschließend tastet der zu dem betreffenden Kanal gehörende A/D-Wandler (
3 ) das Signal am Ausgang des Bandpassfilters (2 ) ab und schreibt die zugehörigen Messwerte in den Speicher des Mikrocomputers (4 ). - Der Mikrocomputer, in der Regel ein schneller DSP, führt die FFT durch und erkennt Triggerbedingungen. Sobald ein Trigger auftritt, werden die M nachfolgenden FFTs durchgeführt, Störgeräusche eliminiert und das Spektrum zu einem kleineren Satz von Zahlen verdichtet. Dieser Satz wird einem übergeordneten Rechner (
7 ) übergeben. Dieser Rechner führt für alle n angeschlossenen Kanäle die Vergleiche mit den auf deinem Massenspeicher (5 ) abgelegten charakteristischen Zahlensätzen der Musikstücke durch. Sobald eine Musiksequenz erkannt wurde, werden Datum, Uhrzeit, Dauer und Identifikation der Sequenz auf einer Ausgabeeinheit (6 ) protokolliert.
Claims (1)
- Verfahren zur Erkennung und Registrierung urheberrechtlich geschützter Musiksequenzen in durch Rundfunk- und Fernsehprogramme verbreiteten Audiosequenzen von Rundfunk- und Fernsehprogrammen, wobei das Spektrum der verbreiteten Audiosequenzen aus dem in analoger Form erfassten Audiosignal als Klangspektrum ermittelt und dies anhand von eine geschützte Musiksequenz eindeutig identifizierbaren Triggerbedingungen bewertet wird, wobei folgende Schritte durchgeführt werden: a) Kontinuierliches Abtasten einer in Rundfunk- und Fernsehprogrammen verbreiteten und in analoger Form erfassten Audiosequenz, die aus einer reinen Musiksequenz mit überlagerten Klängen oder Geräuschen bestehen darf, eines A/D-Wandlers, wobei die analoge in eine digitale Audiosequenz gewandelt wird, b) Speichern der digitalen Audiosequenz in einen Arbeitsspeicher und/oder Ringspeicher, c) Durchführen einer Spektralanalyse der gespeicherten Audiosequenz, wodurch ein Klangspektrum ermittelt wird, das anhand von geschützte Musiksequenzen eindeutig identifizierenden Triggerbedingungen untersucht wird, d) wobei diese Triggerbedingungen die Existenz von Spektralanteilen und deren Intensitätsverhältnisse zueinander umfassen und von in einem Speicher abgelegten Klangspektren zu identifizierender, geschützter Musiksequenzen herstammen e) und wobei, • wenn eine Triggerbedingung erfüllt ist, eine feste Anzahl von weiteren Spektralanalysen weiterer Audiosequenzen nach obigem Schema durchgeführt wird, • und hieraus ein Zahlenfeld erzeugt wird, • das die untersuchten Klangspektren der ausgestrahlten Audiosequenzen charakterisiert, • und weiches mit gespeicherten Zahlenfeldern auf Übereinstimmungen hin verglichen werden kann, die von den gespeicherten, geschützten Musiksequenzen stammen und diese charakterisieren, • und woraus die Dauer einer erkannten Musiksequenz bestimmt werden kann, • wobei vor der Erzeugung des Zahlenfeldes aus dem Klangspektrum einer Audiosequenz Störungen aufgrund ihrer charakteristischen Ausprägung im Spektrum herausgerechnet werden.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE2001144087 DE10144087B4 (de) | 2001-09-08 | 2001-09-08 | Verfahren zur Erkennung und Registrierung urheberrechtlich geschützter Musiksequenzen in Rundfunk- und Fernsehprogrammen |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10165047 | 2001-09-08 | ||
DE2001144087 DE10144087B4 (de) | 2001-09-08 | 2001-09-08 | Verfahren zur Erkennung und Registrierung urheberrechtlich geschützter Musiksequenzen in Rundfunk- und Fernsehprogrammen |
Publications (2)
Publication Number | Publication Date |
---|---|
DE10144087A1 DE10144087A1 (de) | 2003-04-10 |
DE10144087B4 true DE10144087B4 (de) | 2008-10-30 |
Family
ID=7698190
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE2001144087 Expired - Fee Related DE10144087B4 (de) | 2001-09-08 | 2001-09-08 | Verfahren zur Erkennung und Registrierung urheberrechtlich geschützter Musiksequenzen in Rundfunk- und Fernsehprogrammen |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE10144087B4 (de) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102008024554A1 (de) * | 2008-05-21 | 2009-11-26 | Kress Neckov | Elektronisches Meldegerät |
EP3324321B1 (de) * | 2016-11-17 | 2019-06-26 | Denis Knaack | Verfahren zum ermitteln einer bei einem rechteverwerter anzugebenden dateneinheit bezüglich eines musikstücks und netzwerk |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2659083C2 (de) * | 1975-12-31 | 1984-04-12 | Western Electric Co., Inc., 10038 New York, N.Y. | Verfahren und Vorrichtung zur Sprechererkennung |
DE19626329A1 (de) * | 1996-07-01 | 1998-01-08 | Head Acoustics Gmbh | Verfahren zur Analyse von Schallereignissen |
US6121530A (en) * | 1998-03-19 | 2000-09-19 | Sonoda; Tomonari | World Wide Web-based melody retrieval system with thresholds determined by using distribution of pitch and span of notes |
WO2000062279A1 (en) * | 1999-04-12 | 2000-10-19 | Amir Liberman | Apparatus and methods for detecting emotions in the human voice |
WO2001069575A1 (en) * | 2000-03-13 | 2001-09-20 | Perception Digital Technology (Bvi) Limited | Melody retrieval system |
WO2001080235A1 (de) * | 2000-04-14 | 2001-10-25 | Creaholic Sa | Verfahren zur bestimmung eines charakteristischen datensatzes für ein datensignal |
DE10134471A1 (de) * | 2001-02-28 | 2003-02-13 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals |
-
2001
- 2001-09-08 DE DE2001144087 patent/DE10144087B4/de not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE2659083C2 (de) * | 1975-12-31 | 1984-04-12 | Western Electric Co., Inc., 10038 New York, N.Y. | Verfahren und Vorrichtung zur Sprechererkennung |
DE19626329A1 (de) * | 1996-07-01 | 1998-01-08 | Head Acoustics Gmbh | Verfahren zur Analyse von Schallereignissen |
US6121530A (en) * | 1998-03-19 | 2000-09-19 | Sonoda; Tomonari | World Wide Web-based melody retrieval system with thresholds determined by using distribution of pitch and span of notes |
WO2000062279A1 (en) * | 1999-04-12 | 2000-10-19 | Amir Liberman | Apparatus and methods for detecting emotions in the human voice |
WO2001069575A1 (en) * | 2000-03-13 | 2001-09-20 | Perception Digital Technology (Bvi) Limited | Melody retrieval system |
WO2001080235A1 (de) * | 2000-04-14 | 2001-10-25 | Creaholic Sa | Verfahren zur bestimmung eines charakteristischen datensatzes für ein datensignal |
DE10134471A1 (de) * | 2001-02-28 | 2003-02-13 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Charakterisieren eines Signals und Verfahren und Vorrichtung zum Erzeugen eines indexierten Signals |
Non-Patent Citations (2)
Title |
---|
Wang, Y., Liu, Z. & Huang, J.-C.: Multimedia con- tent analysis, using both audio and visual clues. In: IEEE Signal Proc. Mag., 2000, S. 12-36 |
Wang, Y., Liu, Z. & Huang, J.-C.: Multimedia content analysis, using both audio and visual clues. In: IEEE Signal Proc. Mag., 2000, S. 12-36 * |
Also Published As
Publication number | Publication date |
---|---|
DE10144087A1 (de) | 2003-04-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE69907498T2 (de) | Verfahren zur schnellen erfassung der tonhöhe | |
EP1371055B1 (de) | Vorrichtung zum analysieren eines audiosignals hinsichtlich von rhythmusinformationen des audiosignals unter verwendung einer autokorrelationsfunktion | |
EP0296588B1 (de) | Verfahren und Schaltungsanordnung zum automatischen Wiedererkennen von Signalfolgen | |
DE3306730C2 (de) | ||
EP2099024B1 (de) | Verfahren zur klangobjektorientierten Analyse und zur notenobjektorientierten Bearbeitung polyphoner Klangaufnahmen | |
DE69334139T2 (de) | Testen von Nachrichtenübertragungsgerät | |
DE60038535T2 (de) | Verfahren und vorrichtung, speicherverfahren und - vorrichtung zur informationsbeschaffung und verarbeitung | |
DE10297017T5 (de) | Überwachung der Nutzung von Mediendaten mit Beseitigung von Nicht-Programmdaten | |
EP1745464A1 (de) | Vorrichtung und verfahren zum analysieren eines informationssignals | |
DE102007034774A1 (de) | Vorrichtung zur Bestimmung von Akkordnamen und Programm zur Bestimmung von Akkordnamen | |
EP1388145B1 (de) | Vorrichtung und verfahren zum analysieren eines audiosignals hinsichtlich von rhythmusinformationen | |
DE10223735B4 (de) | Verfahren und Vorrichtung zum Ermitteln von Rhythmuseinheiten in einem Musikstück | |
EP1280138A1 (de) | Verfahren zur Analyse von Audiosignalen | |
WO2005122135A1 (de) | Vorrichtung und verfahren zum umsetzen eines informationssignals in eine spektraldarstellung mit variabler auflösung | |
DE10254612A1 (de) | Verfahren zur Ermittlung spezifisch relevanter akustischer Merkmale von Schallsignalen für die Analyse unbekannter Schallsignale einer Schallerzeugung | |
DE10144087B4 (de) | Verfahren zur Erkennung und Registrierung urheberrechtlich geschützter Musiksequenzen in Rundfunk- und Fernsehprogrammen | |
DE69001908T2 (de) | Akustisches Analysegerät und ein dabei verwendetes Frequenzumwandlungsgerät. | |
WO2006005448A1 (de) | Verfahren und vorrichtung zur rhythmischen aufbereitung von audiosignalen | |
EP1377924B1 (de) | VERFAHREN UND VORRICHTUNG ZUM EXTRAHIEREN EINER SIGNALKENNUNG, VERFAHREN UND VORRICHTUNG ZUM ERZEUGEN EINER DAZUGEHÖRIGEN DATABANK und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals | |
DE102015004520B4 (de) | Verfahren zur automatischen Erzeugung einer aus Tönen bestehenden Begleitung und Vorrichtung zu seiner Durchführung | |
DE102004022659B3 (de) | Vorrichtung zum Charakterisieren eines Tonsignals | |
DE4400683C2 (de) | Verfahren zur Erfassung des Probandenverhaltens bezüglich verschiedener gleichzeitig verfügbarer Programme | |
DE102009029615B4 (de) | Verfahren und Anordnung zur Verarbeitung von Audiodaten sowie ein entsprechendes Computerprogramm und ein entsprechendes computer-lesbares Speichermedium | |
DE102022120878A1 (de) | Schaltung und verfahren zum verarbeiten eines analogen signals | |
EP1743324A1 (de) | Vorrichtung und verfahren zum analysieren eines informationssignals |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
8110 | Request for examination paragraph 44 | ||
8125 | Change of the main classification |
Ipc: G01H 3/08 AFI20051017BHDE |
|
8172 | Supplementary division/partition in: |
Ref document number: 10165047 Country of ref document: DE Kind code of ref document: P |
|
Q171 | Divided out to: |
Ref document number: 10165047 Country of ref document: DE Kind code of ref document: P |
|
8127 | New person/name/address of the applicant |
Owner name: PROMEDIASCAN AG, FEUSISBERG, CH |
|
8128 | New person/name/address of the agent |
Representative=s name: BONNEKAMP & SPARING, 40211 DUESSELDORF |
|
8181 | Inventor (new situation) |
Inventor name: KLEMME, MICHAEL, 50674 KOELN, DE Inventor name: JOGGERST, MARKUS, 50668 KOELN, DE |
|
AH | Division in |
Ref document number: 10165047 Country of ref document: DE Kind code of ref document: P |
|
8364 | No opposition during term of opposition | ||
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |