DE10058811A1 - Verfahren zur Identifizierung von Musikstücken - Google Patents

Verfahren zur Identifizierung von Musikstücken

Info

Publication number
DE10058811A1
DE10058811A1 DE10058811A DE10058811A DE10058811A1 DE 10058811 A1 DE10058811 A1 DE 10058811A1 DE 10058811 A DE10058811 A DE 10058811A DE 10058811 A DE10058811 A DE 10058811A DE 10058811 A1 DE10058811 A1 DE 10058811A1
Authority
DE
Germany
Prior art keywords
music
pieces
melody
analysis device
piece
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10058811A
Other languages
English (en)
Inventor
Volker Stahl
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Philips Intellectual Property and Standards GmbH
Original Assignee
Philips Corporate Intellectual Property GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Corporate Intellectual Property GmbH filed Critical Philips Corporate Intellectual Property GmbH
Priority to DE10058811A priority Critical patent/DE10058811A1/de
Priority to EP01000660A priority patent/EP1217603A1/de
Priority to CNB011456094A priority patent/CN1220175C/zh
Priority to JP2001359416A priority patent/JP4340411B2/ja
Priority to KR1020010074285A priority patent/KR20020041321A/ko
Priority to US09/995,460 priority patent/US20020088336A1/en
Publication of DE10058811A1 publication Critical patent/DE10058811A1/de
Priority to KR1020080134560A priority patent/KR100952186B1/ko
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Abstract

Die Erfindung betrifft ein Verfahren zur Identifizierung von Musikstücken. Erfindungsgemäß wird vorgeschlagen, zumindest einen Abschnitt (MA) einer Melodie und/oder eines Textes des zu identifizierenden Musikstücks in eine Analyseeinrichtung (1) einzugeben, welche Übereinstimmungen des Melodie- und/oder Textabschnitts (MA) mit Musikstücken (MT) ermittelt, die der Analyseeinrichtung (1) bekannt sind. Die Analyseeinrichtung (1) wählt dann zumindest eines der bekannten Musikstücke (MT) anhand der ermittelten Übereinstimmungen aus und gibt die Identifizierungsdaten (ID), z. B. Titel oder Interpret, des ausgewählten Musikstücks (MT) und/oder zumindest einen Teil des ausgewählten Musikstücks (MT) selbst aus.

Description

Die Erfindung betrifft ein Verfahren zur Identifizierung von Musikstücken sowie eine Analyseeinrichtung zur Durchführung eines solchen Verfahrens.
Es kommt bei sehr vielen Menschen des öfteren vor, dass sie zum Beispiel in öffentlichen Räumen wie Diskotheken, Gastronomiebetrieben, Kaufhäusern usw. oder auch im Radio Musik hören und gern wüssten, wer der Interpret und/oder Komponist ist und wie der Titel heißt, um sich das Musikstück, beispielsweise als CD oder als Musikfile über das Internet, zu beschaffen. Vielfach ist es so, dass die jeweilige Person sich später lediglich an bestimmte Fragmente des gewünschten Musikstücks, beispielsweise an bestimmte Abschnitte des Textes und/oder der Melodie, erinnert. Wenn die Person das Glück hat, in ein Fachgeschäft mit äußerst gut informiertem Personal zu kommen, so ist es u. U. möglich, diese Musikstückfragmente dem Personal vorzusingen oder vorzusummen bzw. Textteile vorzusprechen, worauf dann das jeweilige Personal das Musikstück identifizieren kann und der Person den Titel und Interpreten nennt. In vielen Fällen besteht diese Möglichkeit aber nicht, entweder, weil das Verkaufspersonal den Titel selbst nicht kennt bzw. sich nicht daran erinnert oder weil, wie beispielsweise bei einer Bestellung über das Internet, überhaupt kein direkt ansprechbares Verkaufspersonal zur Verfügung steht.
Es ist Aufgabe der vorliegenden Erfindung, zum einen ein Verfahren zur automatischen Identifizierung von Musikstücken und zum anderen eine geeignete Einrichtung zur Durchführung dieses Verfahrens zu schaffen. Diese Aufgabe wird durch die Patent­ ansprüche 1 bzw. 13 gelöst.
Erfindungsgemäß wird zunächst zumindest ein Abschnitt einer Melodie und/oder eines Textes des zu identifizierenden Musikstücks, beispielsweise die ersten Takte oder ein Refrain, in eine Analyseeinrichtung eingegeben. In dieser Analyseeinrichtung werden dann verschiedene Übereinstimmungen des Melodie- und/oder Textabschnitts mit anderen Musikstücken oder Teilen davon, die der Analyseeinrichtung bekannt sind, festgestellt.
Der Analyseeinrichtung sind in diesem Sinne alle Musikstücke bekannt, auf die die Analyseeinrichtung Zugriff hat und deren zugehörige Daten wie Titel, Interpret, Komponist etc. abfragbar sind. Diese Musikstücke können in einer oder in verschiedenen Datenbanken gespeichert sein. Zum Beispiel kann es sich um verschiedene Datenbanken der einzelnen Produktionsgesellschaften handeln, die von der Analyseeinrichtung über ein Netzwerk, beispielsweise das Internet, abgefragt werden können.
Die Ermittlung der Übereinstimmungen erfolgt durch einen Vergleich des Melodie- und/oder Textabschnitts mit den bekannten Musikstücken (bzw. den Teilen davon), zum Beispiel unter Verwendung eines oder mehrerer verschiedener Musterklassifikations­ algorithmen. Im einfachsten Fall handelt es sich um eine einfache Korrelation zwischen dem Melodie- und/oder Textabschnitt und den zur Verfügung stehenden bekannten Musikstücken. Dies ist zumindest dann möglich, wenn ein Originalabschnitt des zu identifizierenden Musikstücks eingegeben wird und somit von einer feststehenden Geschwindigkeit ausgegangen werden kann, die mit der Geschwindigkeit des "richtigen" Musikstücks, welches der Analyseeinrichtung bekannt ist, übereinstimmt.
Anhand der übermittelten Übereinstimmungen wird dann zumindest eines der bekannten Musikstücke ausgewählt, sofern überhaupt ein Musikstück gefunden wurde, welches ein definiertes Mindestmaß an Übereinstimmungen mit dem eingegebenen Melodie- und/oder Textabschnitt aufweist.
Anschließend werden Identifizierungsdaten wie beispielsweise der Titel, der Interpret, der Komponist oder sonstige Informationen hierzu ausgegeben. Alternativ oder zusätzlich erfolgt auch eine Ausgabe des ausgewählten Musikstücks selbst. Beispielsweise kann eine solche akustische Ausgabe zur Verifizierung des Musikstücks erfolgen. Ein Nutzer kann dann, wenn er das ausgegebene Musikstück hört, selbst noch einmal überprüfen, ob es sich um das gesuchte Stück handelt und dann erst die Identifizierungsdaten ausgeben lassen. Wenn keines der Musikstücke ausgewählt wurde, weil beispielsweise bei keinem der Musikstücke das definierte Mindestmaß an Übereinstimmung vorliegt, so wird ent­ sprechend diese Information, beispielsweise der Tat "Keine Identifizierung möglich", ausgegeben.
Vorzugsweise wird nicht nur ein Musikstück ausgegeben, sondern es besteht die Möglichkeit, gleich eine Mehrzahl von Musikstücken und/oder deren Identifizierungs­ daten auszugeben, für die die meisten Übereinstimmungen ermittelt wurden, bzw. diese Musikstücke und/oder deren Identifizierungsdaten zur Ausgabe anzubieten. Das heißt, es wird nicht nur der Titel mit den meisten Übereinstimmungen ausgegeben, sondern es werden die n (n = 1, 2, 3, . . .) ähnlichsten Titel ausgegeben, und der Benutzer kann diese Titel der Reihe nach zur Verifizierung anhören oder sich von allen n Titeln die Identi­ fizierungsdaten ausgeben lassen.
Bei einem besonders bevorzugten Ausführungsbeispiel werden zur Ermittlung der Über­ einstimmung bestimmte Merkmale des Melodie- und/oder Textabschnitts extrahiert. Aus diesen ermittelten Merkmalen wird dann ein den Melodie- und/oder Textabschnitt charakterisierender Merkmalssatz ermittelt. Ein solcher Merkmalssatz entspricht quasi einem "Fingerabdruck" des jeweiligen Musikstücks. Der charakterisierende Merkmalssatz wird dann mit Merkmalssätzen, die jeweils die der Analyseeinrichtung bekannten Musik­ stücke charakterisieren, verglichen. Dies hat den Vorteil, dass die zu verarbeitenden Daten­ mengen erheblich geringer sind, was das Verfahren insgesamt beschleunigt. Darüber hinaus braucht in diesem Fall die Datenbank nicht mehr die kompletten Musikstücke oder Teile der Musikstücke mit allen Informationen zu speichern, sondern es werden lediglich die charakterisierenden Merkmalssätze gespeichert, wodurch der benötigte Speicherplatz erheblich geringer wird.
Vorteilhafterweise wird ein eingegebener Melodie- und Textabschnitt zum einen einer Spracherkennung zugeführt. Gegebenenfalls kann auch der jeweilige Text extrahiert und separat der Spracherkennung zugeführt werden. In dieser Spracherkennung werden die erkannten Worte und/oder Sätze mit Texten der verschiedenen Musikstücke verglichen. Hierzu müssen selbstverständlich auch die Texte als ein Merkmal in den Datenbanken gespeichert sein. Zur Beschleunigung der Spracherkennung ist es sinnvoll, wenn zuvor die Sprache des eingegebenen Textabschnitts angegeben wird, so dass das Spracherkennungs­ system nur auf die benötigten Bibliotheken für die jeweilige Sprache zurückgreifen muss und nicht unnötigerweise in Bibliotheken anderer Sprachen sucht.
Zum anderen kann der Melodie- und Textabschnitt einer Musikerkennung zugeführt werden, die beispielsweise die erkannten Rhythmen und/oder Tonabstände (Intervalle) mit den charakteristischen Rhythmen und/oder Intervallen der gespeicherten Musikstücke vergleicht und auf diese Weise ein von der Melodie her übereinstimmendes Stück findet.
Es ist beispielsweise auch möglich, Melodie und Tat getrennt zu analysieren und dabei auf beiden Wegen separat ein bestimmtes Musikstück zu suchen. Anschließend wird dann verglichen, ob die über die Melodie gefundenen Musikstücke mit den über die Textsuche gefundenen Musikstücken übereinstimmen. Anderenfalls werden aus den auf den ver­ schiedenen Wegen gefundenen Musikstücken wiederum ein oder mehrere der Musik­ stücke als Musikstücke mit den meisten Übereinstimmungen ausgewählt. Hierbei kann auch eine Gewichtung vorgenommen werden, in die eingeht, mit welcher Wahrschein­ lichkeit ein auf einem bestimmten Weg gefundenes Musikstück das richtig ausgewählte Musikstück ist.
Ebenso ist es möglich, lediglich eine Melodie oder einen Melodieabschnitt ohne Text oder einen Text eines Musikstücks bzw. einen Textabschnitt ohne die zugehörige Melodie einzugeben.
Eine erfindungsgemäße Analyseeinrichtung zur Durchführung eines solchen Verfahrens muss zum einen Mittel zur Eingabe eines Abschnitts einer Melodie und/oder eines Textes des zu identifizierenden Musikstücks aufweisen. Es muss darüber hinaus einen Speicher mit einer Datenbank mit verschiedenen Musikstücken oder Teilen davon oder Mittel zum Zugriff auf zumindest einen derartigen Speicher - beispielsweise einen Internet-Anschluss zum Zugriff auf andere, im Internet angeordnete Speicher - aufweisen. Außerdem benötigt diese Analyseeinrichtung eine Vergleichereinrichtung zur Ermittlung der Überein­ stimmungen des Melodie- und/oder Textabschnitts mit den verschiedenen Musikstücken bzw. den Teilen davon sowie eine Auswahleinrichtung zur Auswahl mindestens eines der Musikstücke anhand der ermittelten Übereinstimmungen. Schließlich benötigt die Analyseeinrichtung Mittel zur Ausgabe von Identifizierungsdaten des ausgewählten Musikstücks und/oder des ausgewählten Musikstücks selbst.
Eine solche Analyseeinrichtung zur Durchführung des Verfahrens kann als eigenständiges Gerät aufgebaut sein, welches als Mittel zur Eingabe des Melodie- und/oder Textabschnitts beispielsweise ein Mikrofon enthält, in das der Benutzer den ihm bekannten Textabschnitt hineinsprechen oder -singen kann oder eine entsprechende Melodie pfeifen oder summen kann. Ebenso kann vor dem Mikrofon selbstverständlich auch ein Musikstück abgespielt werden. Die Mittel zur Ausgabe umfassen in diesem Fall vorzugsweise eine akustische Ausgabeeinrichtung, beispielsweise einen Lautsprecher, mit dem das ausgewählte Musik­ stück bzw. mehrere ausgewählte Musikstücke ganz oder teilweise zur Verifikation aus­ gegeben werden. Über diese akustische Ausgabeeinrichtung können auch auf akustischem Wege die Identifizierungsdaten ausgegeben werden. Alternativ oder zusätzlich kann die Analyseeinrichtung aber auch eine optische Ausgabeeinrichtung, beispielsweise ein Display, aufweisen, auf dem die Identifizierungsdaten ausgegeben werden. Vorzugsweise weist die Analyseeinrichtung auch eine entsprechende Bedieneinrichtung zur Verifizierung von ausgegebenen Musikstücken, zur Auswahl von zur Ausgabe angebotenen Musikstücken oder zur Eingabe von hilfreichen Zusatzinformationen für die Identifizierung, beispiels­ weise die Sprache des Textes etc., auf. Ein solches autarkes Gerät kann beispielsweise in Mediengeschäften aufgestellt und dort zur Beratung der Kunden genutzt werden.
Bei einem besonders bevorzugten Ausführungsbeispiel weist die Analyseeinrichtung zur Eingabe des Melodie- und/oder Textabschnitts eine Schnittstelle zum Empfang ent­ sprechender Daten von einem Endgerät auf. Ebenso werden die Mittel zur Ausgabe der Identifizierungsdaten und/oder des ausgewählten Musikstücks durch eine Schnittstelle zum Versenden entsprechender Daten an ein Endgerät realisiert. In diesem Fall kann sich die Analyseeinrichtung an einem beliebigen Ort befinden. Der Nutzer kann dann den Melodie- oder Textabschnitt in ein Kommunikationsendgerät eingeben und somit über ein Kommunikationsnetz an die Analyseeinrichtung übermitteln.
Vorteilhafterweise handelt es sich bei dem Kommunikationsendgerät, in das der Melodie- und/oder Textabschnitt eingegeben wird, um ein mobiles Kommunikationsendgerät, beispielsweise ein Mobilfunkgerät. Ein solches Mobilfunkgerät besitzt ohnehin ein Mikrofon sowie die nötigen Mittel, um die aufgenommenen akustischen Signale über ein Kommunikationsnerz, hier ein Mobilfunknetz, an beliebige andere Geräte zu versenden.
Dieses Verfahren hat den Vorteil, dass der Nutzer sofort, wenn er ein Musikstück, beispielsweise in der Diskothek oder als Hintergrundmusik in einem Kaufhaus hört, mit seinem Mobilfunkgerät eine Verbindung zu der Analyseeinrichtung herstellen kann und über das Mobilfunkgerät der Analyseeinrichtung die aktuell laufende Musik "vorspielen" kann. Mit einem solchen Abschnitt der Originalmusik ist eine Identifizierung erheblich leichter als mit einem vorn Benutzer selbst gesungenen oder gesprochenen Musik- und/oder Textabschnitt, der gegebenenfalls erheblich verfremdet sein kann.
Die Ausgabe der Identifizierungsdaten bzw. die akustische Ausgabe des ausgewählten Musikstücks oder eines Teils davon erfolgt gleichfalls über eine entsprechende Schnittstelle, über die dann die jeweiligen Daten an ein Endgerät des Nutzers versandt werden. Hierbei kann es sich um dasselbe Endgerät, beispielsweise das Mobilfunkgerät des Nutzers handeln, an dem der Melodie- und/oder Textabschnitt eingegeben wurde. Dies kann "online" oder "offline" geschehen. Die Ausgabe des ausgewählten Musikstücks bzw. der ausgewählten Musikstücke oder der Teile davon, beispielsweise zur Verifikation, erfolgt dann über den Lautsprecher des Endgeräts. Die Identifizierungsdaten wie Titel und Interpret sowie gegebenenfalls auch auswählbare Angebote zur Ausgabe können beispielsweise mittels SMS auf das Display des Endgeräts übertragen werden.
Die Auswahl eines angebotenen Musikstücks, aber auch sonstige Steuerbefehle oder zusätz­ liche Informationen für die Analyseeinrichtung können mit der üblichen Bedieneinrich­ tung, beispielsweise der Tastatur, des Endgeräts eingegeben werden.
Die Daten können aber auch über einen natürlichen Sprachdialog eingeben werden, was eine entsprechende Sprachschnittstelle, d. h. eine Spracherkennung und -ausgabe auf Seiten der Analyseeinrichtung erfordert.
Alternativ kann die Suche auch offline durchgeführt werden, d. h. der Nutzer oder die Analyseeinrichtung unterbricht nach Eingabe des Melodie- und/oder Textabschnitts und nach Eingabe übriger Befehle und Informationen die Verbindung zur Analyseeinrichtung. Nachdem die Analyseeinrichtung zu einem Ergebnis gekommen ist, sendet sie dieses beispielsweise per SMS oder durch einen Anruf über einen Sprachkanal an das Kommunikationsendgerät des Nutzers zurück.
Bei einem solchen Offline-Verfahren bietet es sich ebenfalls an, dass der Benutzer ein anderes Kommunikationsendgerät, beispielsweise seinen heimischen Computer bzw. eine eMail-Adresse, angibt, an die das Ergebnis versandt wird. Das Ergebnis kann dabei auch als HTML-Dokument oder in ähnlicher Form versendet werden. Die Angabe der Versand­ adresse, d. h. des Kommunikationsendgeräts, an welches die Ergebnisse versendet werden sollen, kann entweder durch entsprechende Befehle und Angaben vor bzw. nach Eingabe des Musik- und/oder Textabschnitts erfolgen. Es ist aber auch möglich, dass der jeweilige Nutzer sich zuvor bei einem Serviceanbieter, welcher die Analyseeinrichtung betreibt, explizit registriert und dass dort die notwendigen Daten hinterlegt werden.
Bei einem besonders bevorzugten Verfahren wird optional die Möglichkeit geboten, dass zusätzlich zu dem ausgewählten Musikstück bzw. den zugehörigen Identifizierungsdaten noch weitere Musikstücke bzw. deren Identifizierungsdaten ausgegeben oder zur Ausgabe angeboten werden, die zu dem jeweils ausgewählten Musikstück ähnlich sind. Das heißt, es werden als Zusatzinformationen zum Beispiel Musiktitel angegeben, die im Stil ähnlich sind wie der erkannte Musiktitel, um so dem Nutzer die Möglichkeit zu geben, seiner Geschmacksrichtung entsprechende weitere Titel kennen zu lernen, die er dann eventuell erwerben möchte.
Die Ähnlichkeit zwischen zwei verschiedenen Musikstücken kann dabei auf der Basis von psychoakustischen Abstandsmaßen, wie z. B. besonders starken oder schwachen Bässen, bestimmten Frequenzverläufen innerhalb der Melodie etc., ermittelt werden. Eine Alter­ native, die Ähnlichkeit von zwei Musikstücken zu bestimmen, besteht in der Nutzung einer Abstandsmatrix, die mit Hilfe von Hörexperimenten und/oder von Marktanalysen, beispielsweise einer Analyse des Kaufverhaltens, aufgestellt wurde.
Die Erfindung wird im Folgenden unter Bezugnahme auf die beigefügten Figuren anhand von Ausführungsbeispielen näher erläutert. Es zeigen:
Fig. 1 eine schematische Darstellung des erfindungsgemäßen Verfahrens bei einer "Online-Suche" unter Verwendung eines Mobilfunkgeräts zur Ein- und Ausgabe der benötigten Daten,
Fig. 2 eine schematische Darstellung des erfindungsgemäßen Verfahrens bei einer "Offline-Suche" unter Verwendung eines Mobilfunkgeräts zur Eingabe der benötigten Daten und eines PCs zur Ausgabe der Ergebnisdaten,
Fig. 3 eine Darstellung einer Abstandsmatrix zur Bestimmung der Ähnlichkeit zwischen verschiedenen Musikstücken.
Bei dem in Fig. 1 dargestellten Verfahren wird von einem Nutzer ein Mobilfunkgerät 2 genutzt, um mit der Analyseeinrichtung 1 in Verbindung zu treten. Hierzu wird ein Melodie- und/oder Textabschnitt MA eines aktuell von einer beliebigen, sich in der Nähe des Nutzers befindlichen Musikquelle 5 abgespielten Musikstücks von einem Mikrofon des Mobilfunkgeräts 2 erfasst. Über ein Mobilfunknetz wird der Melodie- und/oder Textab­ schnitt MA an die Analyseeinrichtung 1 übertragen, welche eine entsprechende Ver­ bindung zum Mobilfunknetz bzw. zu einem Telefon-Festnetz aufweisen muss und dementsprechend über dieses Telefonnetz vom Nutzer angewählt werden kann.
Im Prinzip kann ein handelsübliche Mobilfunkgerät 2 verwendet werden, welches gegebenenfalls modifiziert ist, um eine bessere Übertragungsqualität zu erreichen. Die Steuerung der Analyseeinrichtung 1 über das Mobilfunkgerät 2 kann entweder über ent­ sprechende Menüsteuerungen mittels der Tasten (nicht dargestellt) des Mobilfunkgeräts 2 durchgeführt werden. Es kann aber auch ein sprachgesteuertes Menü verwendet werden.
Aus dem erhaltenen Melodie- und/oder Textabschnitt MA werden von der Analyseein­ richtung 1 bestimmte Merkmale extrahiert. Aus diesen ermittelten Merkmalen wird dann ein den Melodie- und/oder Textabschnitt MA charakterisierender Merkmalssatz ermittelt. Die Analyseeinrichtung 1 steht in Verbindung mit einem Speicher 4 mit einer Datenbank, welche entsprechende Merkmalssätze MS enthält, die jeweils verschiedene Musikstücke charakterisieren. Diese Datenbank enthält außerdem die benötigten Identifizierungsdaten, beispielsweise den Titel und den Interpreten des jeweiligen zugehörigen Musikstücks. Zum Vergleich des charakterisierenden Merkmalssatzes des Melodie- und/oder Textabschnitts MA mit den in der Datenbank im Speicher 4 gespeicherten Merkmalssätzen MS werden jeweils von der Analyseeinrichtung 1 Korrelationskoeffizienten zwischen den zu vergleichenden Merkmalssätzen ermittelt. Die Höhe dieser Korrelationskoeffizienten repräsentiert die Übereinstimmungen zwischen den jeweiligen Merkmalssätzen. Das heißt, der Merkmalssatz MS der im Speicher 4 gespeicherten Merkmalssätze MS mit den höchsten Korrelationskoeffizienten gehört zu einem Musikstück, welches die meisten Übereinstimmungen mit dem Melodie- und/oder Textabschnitt MA aufweist, der in das Mobilfunkgerät 2 eingegeben wurde. Dieses Musikstück wird dann als das zugehörige identifizierte Musikstück ausgewählt und die zugehörigen Identifizierungsdaten ID werden von der Analyseeinrichtung 1 "online" an das Mobilfunkgerät 2 zurückgeliefert und dort beispielsweise auf dem Display ausgegeben.
Bei der dargestellten Vorgehensweise, bei der der Melodie- und/oder Textabschnitt MA direkt von einer Musikquelle S eingespielt wird, ist die Identifizierungsaufgabe insofern vereinfacht, als man im Gegensatz zu normalen Spracherkennungs- bzw. Mustererken­ nungsaufgaben hier davon ausgehen kann, dass Musikstücke immer mit fast derselben Geschwindigkeit abgespielt werden und somit zumindest ein festes gemeinsames Zeitraster zwischen dem zur Identifizierung eingegebenen Musik- und/oder Textabschnitt und dem jeweils richtigen, zur Auswahl stehenden Musikstück angenommen werden kann.
Fig. 2 zeigt ein etwas anderes Verfahren, bei dem die Identifizierung "offline" durch­ geführt wird.
Die Eingabe des zu identifizierenden Musikstücks bzw. eines Melodie- und/oder Textab­ schnitts MA dieses Musikstücks erfolgt auch hier über eine externe Musikquelle 5 in ein Mobilfunkgerät 2 des Benutzers und anschließende Versendung der Informationen an die Analyseeinrichtung 1. Auch die Art der Analyse durch vorherige Bestimmung eines den Melodie- und/oder Textabschnitt charakterisierenden Merkmalssatzes MS erfolgt wie im ersten Ausführungsbeispiel.
Anders als beim Ausführungsbeispiel gemäß Fig. 1 wird hier jedoch das Ergebnis der Identifizierung nicht an das Mobilfunkgerät 2 des Nutzers zurückgesandt. Statt dessen wird dieses Ergebnis über das Internet per eMail oder als HTML-Seite an einen PC 3 des Benutzers bzw. an einen von ihm angegebenen PC oder eine eMail-Adresse gesendet.
Neben den Identifizierungsdaten wird hier auch das jeweilige Musikstück MT selbst oder zumindest ein Abschnitt davon an den PC übertragen, so dass sich der Nutzer dieses Musikstück zur Verifikation anhören kann. Diese Musikstücke MT (bzw. die Abschnitte) sind gemeinsam mit den die Musikstücke charakterisierenden Merkmalssätzen im Speicher 4 gespeichert.
Zusätzlich können Bestellunterlagen für eine CD mit dem gesuchten Musikstück, Werbung sowie Zusatzinformationen versendet werden. Eine Zusatzinformation kann beispielsweise darin bestehen, dem Nutzer weitere Musiktitel anzubieten, die zu dem identifizierten Musiktitel ähnlich sind.
Die Ähnlichkeit wird hierbei über eine Abstandsmatrix AM ermittelt, wie sie in Fig. 3 dargestellt ist. Die Elemente M dieser Abstandsmatrix AM sind hier Ähnlichkeits­ koeffizienten, d. h. Werte, die ein Maß für die Ähnlichkeit zwischen zwei Musikstücken angeben. Selbstverständlich sind die Musikstücke zu sich selbst immer hundertprozentig ähnlich, so dass in den entsprechenden Feldern ein Wert von 1,0 eingetragen ist. Im vor­ liegenden Beispiel sind sich außerdem die Musikstücke mit dem Titel 1 und dem Titel 3 sowie mit dem Titel 5 besonders ähnlich. Dagegen ist ein Musikstück mit dem Titel 4 oder G zu dem Musikstück mit dem Titel 1 vollkommen unähnlich. Einem Nutzer, dessen Musikstück als Titel 1 identifiziert wurde, würden daher zusätzlich die Musikstücke Titel 3 und Titel 5 angeboten.
Eine solche Abstandsmatrix AM kann ebenfalls in dem Speicher 4 abgespeichert sein. Sie kann beispielsweise auf der Basis von subjektiven Hörexperimenten mit einer größeren Anzahl von Testhörern oder aufgrund der Analyse des Kaufverhaltens bestimmt werden.
Die Analyseeinrichtung 1 kann an beliebiger Stelle angeordnet sein. Sie muss lediglich die notwendigen Schnittstellen zur Verbindung mit üblichen Mobilfunkgeräten bzw. einen Internetanschluss aufweisen. Die Analyseeinrichtung 1 ist in den Figuren als ein zusam­ menhängendes Gerät dargestellt. Selbstverständlich können verschiedene Funktionen der Analyseeinrichtung 1 auch auf verschiedene, entsprechend miteinander vernetzte Geräte verteilt werden. Die Funktionen der Analyseeinrichtung können großteils oder gegebenenfalls sogar vollständig auch in Form von Software auf geeigneten Rechnern bzw. Servern mit einer ausreichenden Rechen- und Speicherkapazität realisiert werden. Ebenso muss nicht ein einzelner zentraler Speicher 4 verwendet werden, in dem sich eine zusammen­ hängende Datenbank befindet, sondern es kann sich hierbei auch um eine Vielzahl von Speichern handeln, die an den verschiedensten Stellen positioniert sind und auf die die Analyseeinrichtung 1 beispielsweise über das Internet oder ein anderes Netzwerk zugreifen kann. Hier bietet es sich insbesondere an, dass verschiedene Musikproduktions- und/oder Vertriebsgesellschaften jeweils ihre Musikstücke in einer eigenen Datenbank hinterlegen und die Analyseeinrichtung auf diese verschiedensten Datenbanken Zugriff hat. Bei einer Reduzierung der charakterisierenden Informationen der verschiedenen Musikstücke auf Merkmalssätze sollte sinnvollerweise sichergestellt sein, dass die Merkmale jeweils mit dem gleichen Verfahren aus den Musikstücken extrahiert wurden und auf gleiche Weise Merk­ malssätze zusammengestellt wurden, um auf diese Weise eine Kompatibilität zu erreichen.
Mit dem erfindungsgemäßen Verfahren ist es für einen Verbraucher auf einfache Weise möglich, die zum Erwerb der Wunschmusik benötigten Daten zu beschaffen und eine aktuell laufende Musik schnell zu identifizieren. Außerdem kann er mittels des Verfahrens über zusätzliche Musikstücke informiert werden, die ebenfalls seinem Musikgeschmack entsprechen. Für die Vertreiber von Musikstücken hat dieses Verfahren insoweit einen Vorteil, als den potentiellen Kunden genau diejenige Musik angeboten werden kann, die sie interessieren, und somit exakt die gewünschte Zielgruppe angesprochen wird.

Claims (17)

1. Verfahren zur Identifizierung von Musikstücken mit folgenden Verfahrensschritten:
  • - Eingabe zumindest eines Abschnitts (MA) einer Melodie und/oder eines Textes des zu identifizierenden Musikstücks in eine Analyseeinrichtung (1),
  • - Ermittlung von Übereinstimmungen des Melodie- und/oder Textabschnitts (MA) mit der Analyseeinrichtung (1) bekannten Musikstücken (MT) oder Teilen davon,
  • - Auswahl mindestens eines der bekannten Musikstücke (MT) anhand der ermittelten Übereinstimmungen, sofern ein definiertes Mindestmaß an Übereinstimmungen vorliegt,
  • - Ausgabe von Identifizierungsdaten (ID) des ausgewählten Musikstücks (MT) und/oder Ausgabe zumindest eines Teils des ausgewählten Musikstücks (MT) selbst oder, sofern keines der Musikstücke (MT) ausgewählt wurde, Ausgabe einer entsprechenden Information.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass eine Mehrzahl von Musikstücken und/oder deren Identifizierungsdaten, für die die meisten Übereinstimmungen ermittelt wurden, ausgegeben werden und/oder zur Ausgabe angeboten werden.
3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass zur Ermittlung der Übereinstimmungen bestimmte Merkmale des Melodie- und/oder Textabschnitts (MA) extrahiert werden, aus den ermittelten Merkmalen dann ein den Melodie- und/oder Textabschnitt (MA) charakterisierender Merkmalssatz ermittelt wird und dieser charakterisierende Merkmalssatz mit Merkmalssätzen (MS), die jeweils die bekannten Musikstücke (MT) charakterisieren, verglichen wird.
4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass zum Vergleich des charakterisierenden Merkmalssatzes des Melodie- und/oder Textabschnitts (MA) mit den in der Datenbank gespeicherten Merkmalssätzen (MS) jeweils Korrelationskoeffizienten zwischen den zu vergleichenden Merkmalssätzen ermittelt werden, deren Höhe die Übereinstimmungen zwischen den jeweiligen Merkmalssätzen repräsentieren.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, dass der eingegebene Melodie- und/oder Textabschnitt oder ein von diesen extrahierter Text einer Spracherkennung zugeführt wird und in der Spracherkennung erkannte Worte und/oder Sätze mit Texten der verschiedenen Musikstücke verglichen werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, dass für die Spracherkennung die Sprache des eingegebenen Textabschnitts angegeben wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, dass der Melodie- und/oder Textabschnitt (MA) von einem Nutzer in ein Kommunikationsendgerät (2) eingegeben wird und über ein Kommunikationsnetz an die Analyseeinrichtung (1) übermittelt wird und ein ausgewähltes Musikstück (MT) und/oder dessen Identifizierungsdaten (ID) an ein vom Nutzer bestimmtes Kommunikationsendgerät (2, 3) zur Ausgabe übermittelt wird.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, dass das Kommunikationsendgerät (2), in das der Melodie- und/oder Textabschnitt (MA) eingegeben wird, ein mobiles Kommunikationsendgerät (2) ist.
9. Verfahren nach Anspruch 7 oder 8, dadurch gekennzeichnet, dass das ausgewählte Musikstück (MT) und/oder dessen Identifizierungsdaten (ID) zur Ausgabe an das Kommunikationsendgerät (2) zurückübermittelt wird, in das der Melodie- und/oder Textabschnitt (MA) eingegeben wird.
10. Verfahren nach einem der Ansprüche 1 bis 9, dadurch gekennzeichnet, dass zusätzlich zu dem/den ausgewählten Musikstücken und/oder den zugehörigen Identifizierungsdaten mindestens ein weiteres Musikstück und/oder dessen Identifizierungsdaten ausgegeben und/oder zur Ausgabe angeboten wird, das zu dem/den ausgewählten Musikstücken ähnlich ist.
11. Verfahren nach Anspruch 10, dadurch gekennzeichnet, dass die Ähnlichkeit zwischen zwei Musikstücken auf Basis von psychoakustischen Abstandsmaßen ermittelt wird.
12. Verfahren nach Anspruch 10 oder 11, dadurch gekennzeichnet, dass die Ähnlichkeit zwischen zwei Musikstücken auf Basis einer Abstandsmatrix (AM) ermittelt wird, die mit Hilfe von Hörexperimenten und/oder von Marktanalysen (Analyse des Kaufverhaltens) aufgestellt wurde.
13. Analyseeinrichtung (1) zur Durchführung eines Verfahrens gemäß einem der Ansprüche 1 bis 12, mit
Mitteln zur Eingabe zumindest eines Abschnitts (MA) einer Melodie und/oder eines Textes des zu identifizierenden Musikstücks,
einem Speicher (4) mit einer Datenbank mit verschiedenen Musikstücken oder Teilen davon, oder Mitteln zum Zugriff auf zumindest einen derartigen Speicher,
einer Vergleichereinrichtung zur Ermittlung von Übereinstimmungen des Melodie- und/oder Textabschnitts (MA) mit den verschiedenen Musikstücken (MT) oder den Teilen davon,
einer Auswahleinrichtung zur Auswahl mindestens eines der Musikstücke (MT) anhand der ermittelten Übereinstimmungen, sofern ein definiertes Mindestmaß an Übereinstimmungen vorliegt, und
Mitteln zur Ausgabe von Identifizierungsdaten (ID) des ausgewählten Musikstücks (MT) und/oder des ausgewählten Musikstücks (MT) selbst.
14. Analyseeinrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Analyseeinrichtung Mittel zur Extraktion bestimmter Merkmale des Melodie- und/oder Textabschnitts (MA) und zur Ermittlung eines den Melodie- und/oder Textabschnitt (MA) charakterisierenden Merkmalssatzes aus den ermittelten Merkmalen aufweist und dass der Speicher (4) in einer Datenbank entsprechende Merkmalssätze (MS), die jeweils die Musikstücke (MT) charakterisieren, enthält.
15. Analyseeinrichtung nach Anspruch 13 oder 14, dadurch gekennzeichnet, dass die Mittel zur Eingabe des Melodie- und/oder Textabschnitts ein Mikrofon umfassen und die Mittel zur Ausgabe der Identifizierungsdaten und/oder des ausgewählten Musikstücks einen akustische Ausgabeeinheit und/oder eine optische Ausgabeeinheit umfassen.
16. Analyseeinrichtung nach einem der Ansprüche 13 bis 15, dadurch gekennzeichnet, dass die Mittel zur Eingabe des Melodie- und/oder Textabschnitts (MA) eine Schnittstelle zum Empfang entsprechender Daten von einem Endgerät (2) umfassen und die Mittel zur Ausgabe der Identifizierungsdaten (ID) und/oder des ausgewählten Musikstücks (MT) eine Schnittstelle zum Versenden entsprechender Daten an ein Endgerät (2, 3) umfassen.
17. Analyseeinrichtung nach einem der Ansprüche 13 bis 16, gekennzeichnet durch Mittel zur Auswahl von weiteren Musikstücken, die zu dem ausgewählten Musikstück ähnlich sind.
DE10058811A 2000-11-27 2000-11-27 Verfahren zur Identifizierung von Musikstücken Ceased DE10058811A1 (de)

Priority Applications (7)

Application Number Priority Date Filing Date Title
DE10058811A DE10058811A1 (de) 2000-11-27 2000-11-27 Verfahren zur Identifizierung von Musikstücken
EP01000660A EP1217603A1 (de) 2000-11-27 2001-11-23 Verfahren zur Identifizierung von Musikstücken
CNB011456094A CN1220175C (zh) 2000-11-27 2001-11-23 识别多首乐曲的方法
JP2001359416A JP4340411B2 (ja) 2000-11-27 2001-11-26 曲を識別する方法
KR1020010074285A KR20020041321A (ko) 2000-11-27 2001-11-27 악곡들을 식별하는 방법
US09/995,460 US20020088336A1 (en) 2000-11-27 2001-11-27 Method of identifying pieces of music
KR1020080134560A KR100952186B1 (ko) 2000-11-27 2008-12-26 악곡들을 식별하는 방법

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10058811A DE10058811A1 (de) 2000-11-27 2000-11-27 Verfahren zur Identifizierung von Musikstücken

Publications (1)

Publication Number Publication Date
DE10058811A1 true DE10058811A1 (de) 2002-06-13

Family

ID=7664809

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10058811A Ceased DE10058811A1 (de) 2000-11-27 2000-11-27 Verfahren zur Identifizierung von Musikstücken

Country Status (6)

Country Link
US (1) US20020088336A1 (de)
EP (1) EP1217603A1 (de)
JP (1) JP4340411B2 (de)
KR (2) KR20020041321A (de)
CN (1) CN1220175C (de)
DE (1) DE10058811A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013009569A1 (de) * 2013-06-07 2014-12-11 Audi Ag Verfahren zum Beschaffen einer Wiedergabeliste für eine Audiowiedergabe in einem Kraftfahrzeug
DE102016204183A1 (de) * 2016-03-15 2017-09-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Musikauswahl mittels Gesten- und Sprachsteuerung

Families Citing this family (39)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6505160B1 (en) * 1995-07-27 2003-01-07 Digimarc Corporation Connected audio and other media objects
US7711564B2 (en) 1995-07-27 2010-05-04 Digimarc Corporation Connected audio and other media objects
US20050038819A1 (en) * 2000-04-21 2005-02-17 Hicken Wendell T. Music Recommendation system and method
US7013301B2 (en) * 2003-09-23 2006-03-14 Predixis Corporation Audio fingerprinting system and method
US20060217828A1 (en) * 2002-10-23 2006-09-28 Hicken Wendell T Music searching system and method
US8121843B2 (en) 2000-05-02 2012-02-21 Digimarc Corporation Fingerprint methods and systems for media signals
US8205237B2 (en) 2000-09-14 2012-06-19 Cox Ingemar J Identifying works, using a sub-linear time search, such as an approximate nearest neighbor search, for initiating a work-based action, such as an action on the internet
US7248715B2 (en) * 2001-04-06 2007-07-24 Digimarc Corporation Digitally watermarking physical media
US7046819B2 (en) 2001-04-25 2006-05-16 Digimarc Corporation Encoded reference signal for digital watermarks
US7824029B2 (en) 2002-05-10 2010-11-02 L-1 Secure Credentialing, Inc. Identification card printer-assembler for over the counter card issuing
US7619155B2 (en) * 2002-10-11 2009-11-17 Panasonic Corporation Method and apparatus for determining musical notes from sounds
GB0307474D0 (en) * 2002-12-20 2003-05-07 Koninkl Philips Electronics Nv Ordering audio signals
WO2004077430A1 (en) * 2003-02-26 2004-09-10 Koninklijke Philips Electronics N.V. Handling of digital silence in audio fingerprinting
US7606790B2 (en) 2003-03-03 2009-10-20 Digimarc Corporation Integrating and enhancing searching of media content and biometric databases
EP1634191A1 (de) * 2003-05-30 2006-03-15 Koninklijke Philips Electronics N.V. Suche und speicherung von fingerabdrücken von medienobjekten
JP5279270B2 (ja) 2004-08-06 2013-09-04 ディジマーク コーポレイション 携帯コンピューティング装置における高速信号検出および分散コンピューティング
US20060212149A1 (en) * 2004-08-13 2006-09-21 Hicken Wendell T Distributed system and method for intelligent data analysis
CA2644943A1 (en) * 2005-03-04 2006-09-14 Musicip Corporation Scan shuffle for building playlists
US7613736B2 (en) * 2005-05-23 2009-11-03 Resonance Media Services, Inc. Sharing music essence in a recommendation system
JP4534926B2 (ja) * 2005-09-26 2010-09-01 ヤマハ株式会社 画像表示装置及びプログラム
EP1941486B1 (de) * 2005-10-17 2015-12-23 Koninklijke Philips N.V. Verfahren zur ableitung einer reihe von eigenschaften für ein audioeingangssignal
EP1785891A1 (de) * 2005-11-09 2007-05-16 Sony Deutschland GmbH Musikabfrage mittels 3D-Suchalgorithmus
JP4534967B2 (ja) * 2005-11-21 2010-09-01 ヤマハ株式会社 音色及び/又は効果設定装置並びにプログラム
CN101438342A (zh) * 2006-05-08 2009-05-20 皇家飞利浦电子股份有限公司 用于对准歌曲与它的歌词的方法和电子设备
US7985911B2 (en) 2007-04-18 2011-07-26 Oppenheimer Harold B Method and apparatus for generating and updating a pre-categorized song database from which consumers may select and then download desired playlists
JP5135931B2 (ja) * 2007-07-17 2013-02-06 ヤマハ株式会社 楽曲加工装置およびプログラム
KR101039762B1 (ko) * 2009-11-11 2011-06-09 주식회사 금영 가사 데이터를 이용한 노래반주기의 곡 검색방법
US9280598B2 (en) * 2010-05-04 2016-03-08 Soundhound, Inc. Systems and methods for sound recognition
US8584197B2 (en) 2010-11-12 2013-11-12 Google Inc. Media rights management using melody identification
US8584198B2 (en) * 2010-11-12 2013-11-12 Google Inc. Syndication including melody recognition and opt out
CN102419998B (zh) * 2011-09-30 2013-03-20 广州市动景计算机科技有限公司 一种音频处理方法及系统
DE102011087843B4 (de) * 2011-12-06 2013-07-11 Continental Automotive Gmbh Verfahren und System zur Auswahl mindestens eines Datensatzes aus einer relationalen Datenbank
US10133537B2 (en) * 2014-09-25 2018-11-20 Honeywell International Inc. Method of integrating a home entertainment system with life style systems which include searching and playing music using voice commands based upon humming or singing
CN104867492B (zh) * 2015-05-07 2019-09-03 科大讯飞股份有限公司 智能交互系统及方法
US10129314B2 (en) * 2015-08-18 2018-11-13 Pandora Media, Inc. Media feature determination for internet-based media streaming
JP2019036191A (ja) * 2017-08-18 2019-03-07 ヤフー株式会社 判定装置、判定方法及び判定プログラム
CN109377988B (zh) * 2018-09-26 2022-01-14 网易(杭州)网络有限公司 用于智能音箱的交互方法、介质、装置和计算设备
US10679604B2 (en) * 2018-10-03 2020-06-09 Futurewei Technologies, Inc. Method and apparatus for transmitting audio
CN116259292B (zh) * 2023-03-23 2023-10-20 广州资云科技有限公司 基调和音阶的识别方法、装置、计算机设备和存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0944033A1 (de) * 1998-03-19 1999-09-22 Tomonari Sonoda Vorrichtung und Verfahren zum Wiederauffinden von Melodien

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5210820A (en) * 1990-05-02 1993-05-11 Broadcast Data Systems Limited Partnership Signal recognition system and method
JPH0535287A (ja) * 1991-07-31 1993-02-12 Ricos:Kk カラオケ音楽選択装置
JP2897659B2 (ja) * 1994-10-31 1999-05-31 ヤマハ株式会社 カラオケ装置
US5874686A (en) 1995-10-31 1999-02-23 Ghias; Asif U. Apparatus and method for searching a melody
JP2000187671A (ja) 1998-12-21 2000-07-04 Tomoya Sonoda ネットワ―クを利用した歌声による曲検索システム及び検索時に用いる歌声の入力端末装置
JP2002049627A (ja) 2000-08-02 2002-02-15 Yamaha Corp コンテンツの自動検索システム

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0944033A1 (de) * 1998-03-19 1999-09-22 Tomonari Sonoda Vorrichtung und Verfahren zum Wiederauffinden von Melodien

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102013009569A1 (de) * 2013-06-07 2014-12-11 Audi Ag Verfahren zum Beschaffen einer Wiedergabeliste für eine Audiowiedergabe in einem Kraftfahrzeug
DE102013009569B4 (de) * 2013-06-07 2015-06-18 Audi Ag Verfahren zum Betreiben eines Infotainmentsystems zum Beschaffen einer Wiedergabeliste für eine Audiowiedergabe in einem Kraftfahrzeug, Infotainmentsystem sowie Kraftwagen umfassend ein Infotainmentsystem
DE102016204183A1 (de) * 2016-03-15 2017-09-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Musikauswahl mittels Gesten- und Sprachsteuerung

Also Published As

Publication number Publication date
KR20090015012A (ko) 2009-02-11
CN1356689A (zh) 2002-07-03
EP1217603A1 (de) 2002-06-26
JP4340411B2 (ja) 2009-10-07
KR100952186B1 (ko) 2010-04-09
KR20020041321A (ko) 2002-06-01
US20020088336A1 (en) 2002-07-11
CN1220175C (zh) 2005-09-21
JP2002196773A (ja) 2002-07-12

Similar Documents

Publication Publication Date Title
DE10058811A1 (de) Verfahren zur Identifizierung von Musikstücken
EP1794745B1 (de) Vorrichtung und verfahren zum ändern einer segmentierung eines audiostücks
DE60120417T2 (de) Verfahren zur suche in einer audiodatenbank
DE60320414T2 (de) Vorrichtung und Verfahren zur automatischen Extraktion von wichtigen Ereignissen in Audiosignalen
DE60124842T2 (de) Rauschrobuste Mustererkennung
DE69933853T2 (de) Informationsverarbeitungsgerät
DE60313706T2 (de) Spracherkennungs- und -antwortsystem, Spracherkennungs- und -antwortprogramm und zugehöriges Aufzeichnungsmedium
EP1774527B1 (de) Vorrichtung und verfahren zum bezeichnen von verschiedenen segmentklassen
DE602004006641T2 (de) Audio-dialogsystem und sprachgesteuertes browsing-verfahren
EP1794743B1 (de) Vorrichtung und verfahren zum gruppieren von zeitlichen segmenten eines musikstücks
DE212016000292U1 (de) System zur Text-zu-Sprache-Leistungsbewertung
DE60128372T2 (de) Verfahren und system zur verbesserung der genauigkeit in einem spracherkennungssystem
Shafiro et al. How to select stimuli for environmental sound research and where to find them
DE102014107028A1 (de) Verbesserte biometrische Passwortsicherheit
DE69920714T2 (de) Spracherkennung
KR100926982B1 (ko) 거래정보를 거래대응 감상용 음악으로 변환하는 방법 및 이를 기록한 컴퓨터로 읽을 수 있는 기록매체
EP1159733B1 (de) Verfahren und anordnung zur bestimmung eines repräsentativen lautes
WO2000005709A1 (de) Verfahren und vorrichtung zur erkennung vorgegebener schlüsselwörter in gesprochener sprache
DE10311581A1 (de) Verfahren und System zum automatisierten Erstellen von Sprachwortschätzen
CN105895079A (zh) 语音数据的处理方法和装置
EP1377924B1 (de) VERFAHREN UND VORRICHTUNG ZUM EXTRAHIEREN EINER SIGNALKENNUNG, VERFAHREN UND VORRICHTUNG ZUM ERZEUGEN EINER DAZUGEHÖRIGEN DATABANK und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals
DE60119643T2 (de) Homophonewahl in der Spracherkennung
AT505828B1 (de) Automatische verbesserung des musikangebots
Broeders et al. A practical approach to forensic earwitness identification: Constructing a voice line-up
Bessert-Nettelbeck et al. Similar, yet different: Male Reed Buntings (Emberiza schoeniclus) show high individual differences in song composition, rates of syllable sharing and use

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection