DE19948974A1 - Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks - Google Patents

Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks

Info

Publication number
DE19948974A1
DE19948974A1 DE19948974A DE19948974A DE19948974A1 DE 19948974 A1 DE19948974 A1 DE 19948974A1 DE 19948974 A DE19948974 A DE 19948974A DE 19948974 A DE19948974 A DE 19948974A DE 19948974 A1 DE19948974 A1 DE 19948974A1
Authority
DE
Germany
Prior art keywords
tone
sequence
note
sequences
duration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19948974A
Other languages
English (en)
Inventor
Wolfgang Theimer
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nokia Oyj
Original Assignee
Nokia Mobile Phones Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nokia Mobile Phones Ltd filed Critical Nokia Mobile Phones Ltd
Priority to DE19948974A priority Critical patent/DE19948974A1/de
Priority to EP00120872A priority patent/EP1093109A1/de
Priority to US09/686,425 priority patent/US6437227B1/en
Publication of DE19948974A1 publication Critical patent/DE19948974A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form

Abstract

Die Erfindung betrifft ein Verfahren zum Erkennen und zum Auswählen einer Tonfolge, insbesondere eines Musikstücks, die es einem Benutzer ermöglicht, ein bestimmtes Musikstück anzufordern, indem er einen Abschnitt des Musikstücks singt, dessen Titel er nicht weiß. Dieses Verfahren zeichnet sich dadurch aus, daß eine zumindest einem Abschnitt der auszuwählenden Tonfolge zumindest teilweise entsprechende Tonfolge eingegeben wird, die Töne der eingegebenen Tonfolge in eine Notenfolge umgesetzt werden, zum Suchen der auszuwählenden Tonfolge deren Notenfolge nacheinander mit entsprechenden Notenfolge einer Vielzahl von Tonfolgen verglichen wird, um Bezeichnungen einer oder mehrerer Tonfolgen zu ermitteln, deren Notenfolge oder -folgen mit der Notenfolge der auszuwählenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. übereinstimmen, und die ermittelten Bezeichnungen als Liste oder Tonfolgen ausgegeben werden, so daß ein Benutzer anhand der Bezeichnungsliste oder Tonfolge die gewünschte Tonfolge auswählen kann.

Description

Die Erfindung betrifft sowohl ein Verfahren zum Erkennen als auch zum Auswählen einer Tonfolge, insbesondere eines Musikstücks.
Die heutigen Multimediadienste ermöglichen es ihren Benutzern, Musik­ stücke, Videoclips und auch graphische Informationen auf entsprechende Anforderung aus entsprechenden Datenbanken abzurufen, um die ge­ wünschten Musikstücke oder dergleichen wiedergeben und/oder spei­ chern zu können. Bei weitersteigenden Datenübertragungsgeschwindig­ keiten und sinkenden Speicherplatzkosten werden in Zukunft auch Filme von entsprechenden Anbietern abrufbar sein.
Beispielsweise ist es derzeit im Internet möglich, daß ein Benutzer sich von einem entsprechenden Anbieter Musiktitel oder dergleichen übertragen läßt, die dann entweder in einer benutzerseitigen Datenbank gespeichert oder zum Herstellen einer CD verwendet werden. Eine derartige Anforde­ rung von Musikstücken oder dergleichen ist jedoch auch über Mobilfunk­ dienste möglich.
Um einen bestimmten Musiktitel zu erhalten, muß der Benutzer den Na­ men oder die Bezeichnung des Musikstücks eingeben und an den entspre­ chenden Diensteanbieter übertragen. Die Musiktiteldatenbank des Dien­ steanbieters wird dann auf das angeforderte Musikstück hin durchsucht um dieses, falls es in der Datenbank verfügbar ist, zum anfordernden Be­ nutzer zu übertragen.
Um einem Benutzer auch dann einen gewünschten Musiktitel liefern zu können, wenn dieser die Bezeichnung des Musikstücks nicht ganz genau kennt, werden bei der Suche in der Datenbank des Diensteanbieters auch assoziative Suchalgorithmen verwendet, die trotz geringer Abweichungen der eingegebenen Bezeichnung vom tatsächlichen Namen des Musik­ stücks dieses identifizieren können oder zumindest eine Auswahl von mehreren Musikstücken mit ähnlichen Bezeichnungen anbieten.
Möchte jedoch ein Benutzer ein Musikstück anfordern, das ihm sehr gut gefällt, dessen Titel er jedoch nicht oder allenfalls nur sehr vage kennt, so ist es für ihn derzeit praktisch unmöglich dieses Musikstück anzufordern.
Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, Verfahren zum Erkennen und zum Auswählen einer Tonfolge, insbesondere eines Musikstückes bereitzustellen, die es einem Benutzer ermöglichen, eine Tonfolge oder ein Musikstück aufzufinden und auszuwählen, dessen Be­ zeichnung er nicht kennt.
Diese Aufgabe wird hinsichtlich des Erkennens einer Tonfolge durch das Verfahren nach Anspruch 1 und hinsichtlich des Auswählens einer Tonfol­ ge durch das Verfahren nach Anspruch 2 gelöst. Vorteilhafte Ausgestal­ tungen und Weiterbildungen der Erfindung sind in den Unteransprüchen beschrieben.
Erfindungsgemäß werden also zum Erkennen einer Tonfolge zunächst die Töne der zu erkennenden Tonfolge in eine Notenfolge umgesetzt, anschlie­ ßend wird zum Suchen der zu erkennenden Tonfolge deren Notenfolge nacheinander mit entsprechenden Notenfolgen einer Vielzahl von Tonfol­ gen verglichen und dann werden Bezeichnungen der Tonfolge oder -folgen ausgegeben, deren Notenfolge bzw. -folgen mit der Notenfolge der zu er­ kennenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. überein­ stimmen.
Das erfindungsgemäße Verfahren zum Auswählen einer Tonfolge nutzt dieses Erkennungsverfahren und zeichnet sich dadurch aus, daß eine zu­ mindest einem Abschnitt der auszuwählenden Tonfolge zumindest teilwei­ se entsprechende Tonfolge eingegeben wird, die Töne der eingegebenen Tonfolge in eine Notenfolge umgesetzt werden, zum Suchen der auszuwäh­ lenden Tonfolge deren Notenfolge nacheinander mit entsprechenden No­ tenfolgen einer Vielzahl von Tonfolgen verglichen wird, um Bezeichnungen einer oder mehrerer Tonfolgen zu ermitteln, deren Notenfolge oder -folgen mit der Notenfolge der auszuwählenden Tonfolge in vorbestimmter Weise übereinstimmt, und die ermittelten Bezeichnungen als Liste ausgegeben werden, so daß ein Benutzer anhand der Bezeichnungsliste die gewünsch­ te Tonfolge auswählen kann.
Der Grundgedanke der vorliegenden Erfindung liegt also darin, daß eine Tonfolge, wie sie sich akustisch dem Benutzer darbietet und von diesem mehr oder weniger genau reproduziert werden kann, zunächst in eine No­ tenfolge, also in eine Darstellung umgesetzt wird, wie sie beispielsweise auch zum Niederschreiben von Musikstücken verwendet wird, und diese Darstellung der gewünschten Tonfolge mit entsprechenden Notenfolgen, die einzelnen Musikstücken in einer Datenbank eines Diensteanbieters zugeordnet sind, zu vergleichen, so daß der Grad der Übereinstimmung zwischen der eingegebenen, gewünschten Tonfolge und den Musikstücken ermittelt werden kann, um dann die Bezeichnungen der Tonfolge oder -fol­ gen auszugeben, die mit der gewünschten oder auszuwählenden Tonfolge in vorbestimmter Weise übereinstimmen.
Die Erfindung ermöglicht es somit einem Benutzer, auch Tonfolgen, insbe­ sondere Musikstücke, Videoclips und gegebenenfalls auch Filme über de­ ren Soundtrack anzufordern, wenn ihm nur deren Melodie bekannt ist. Das erfindungsgemäße Verfahren ermöglicht somit eine intuitive Suche in Datenbanken von Musikstücken oder dergleichen, und erleichtert damit deren Nutzung.
Bei einer ersten Ausgestaltung der Erfindung ist vorgesehen, daß die in ei­ nem Benutzerendgerät eingegebene der auszuwählenden Tonfolge ent­ sprechende Tonfolge zu einer Datenbankstation übertragen wird, in der die Liste der Bezeichnungen einer oder mehrerer der auszuwählenden Tonfolge ähnlichen Tonfolgen ermittelt wird, und die Bezeichnungsliste zur Ausgabe an das Benutzerendgerät übertragen wird.
Wird als Benutzerendgerät beispielsweise ein Mobiltelefon benutzt, um über Funkkanäle ein bestimmtes Musikstück bei einem Diensteanbieter auszuwählen, so ist es insbesondere im Hinblick auf eine gute Ausnutzung der Übertragungsstrecke vorteilhaft, wenn die in ein Benutzerendgerät eingegebene, der auszuwählenden Tonfolge entsprechende Tonfolge im Benutzerendgerät in eine Notenfolge umgesetzt wird, die Notenfolge zu ei­ ner Datenbankstation übertragen wird, in der die Liste der Bezeichnungen einer oder mehrerer der auszuwählenden Tonfolge ähnlichen Tonfolgen er­ mittelt wird, und die Bezeichnungsliste zur Ausgabe an das Benutzerend­ gerät übertragen wird.
Um es dem Benutzer zu ermöglichen, auch ein Musikstück, dessen Titel er überhaupt nicht kennt, auswählen zu können, ist bei einer besonders vor­ teilhaften Ausgestaltung der Erfindung vorgesehen, daß zusammen mit je­ der Bezeichnung ein für die jeweilige Tonfolge charakteristischer kurzer Ausschnitt der Tonfolge zur Ausgabe an das Benutzerendgerät übertragen wird. Dem Benutzer wird somit nicht nur die Bezeichnung der jeweiligen Tonfolge also der oder die Titel des erkannten Musikstücks oder in Frage kommender Musikstücke angeboten, sondern es wird ihm auch ermög­ licht, einen kurzen charakteristischen Auszug aus dem Musikstück, zum Beispiel das Grundthema oder den Refrain abzuhören, so daß er aufgrund der wiedergegebenen charakteristischen Tonfolge seine Auswahl treffen kann.
Besonders zweckmäßig ist es, wenn bei dem erfindungsgemäßen Verfah­ ren die Tonfolge zur Eingabe in das Benutzerendgerät vom Benutzer ge­ sungen wird.
Eine besonders vorteilhafte Ausgestaltung des erfindungsgemäßen Ver­ fahrens zeichnet sich dadurch aus, daß zum Umsetzen einer Tonfolge in ei­ ne Notenfolge für jeden Ton der Tonfolge die Tonhöhenfrequenz fp' und die Tondauer d' ermittelt wird, und jedem Ton eine musikalische Note entspre­ chend seiner Tonhöhenfrequenz fp und eine musikalisch quantisierte No­ tendauer d entsprechend einer Tondauerverteilung der Tonfolge zugeord­ net wird.
Hierbei ist es zweckmäßig, wenn zur Festlegung der Notendauer der Töne zunächst der Median der Tondauerverteilung ermittelt wird, und die Ton­ dauer des Medians mit der Notendauer einer 1/4-Note gleichgesetzt wird, sowie jedem Ton durch Vergleich seiner Tondauer mit der ermittelten No­ tendauer einer 1/4-Note eine entsprechende musikalische quantisierte Notendauer zugeordnet wird.
Erfindungsgemäß wird also aus dem zeitlichen Verlauf der Tonhöhenfre­ quenz der jeweilige musikalische Ton bzw. die Note, also beispielsweise C, D, E, F, G, A, H und die Notendauer d ermittelt. Da insbesondere beim Sin­ gen der gewünschten Tonfolge die Notendauer d nicht absolut meßbar ist, wird aus der Tondauerverteilung der Median ermittelt und der Notendauer einer 1/4-Note gleichgesetzt. Davon ausgehend lassen sich dann Tondau­ erintervalle angeben, denen dann die anderen gebräuchlichen Notendau­ ern, also insbesondere 1/32, 1/16, 1/8, 1/2 und 1 zugeordnet werden können.
Für die Durchführung des Vergleichs zur Feststellung eines Übereinstim­ mungsgrades in einer Datenverarbeitungsanlage ist es besonders zweck­ mäßig, wenn jede Tonfolge durch einen Tonhöhenvektor h, der sich aus den einzelnen Noten oder musikalischen Tönen zusammensetzt, und ei­ nen Tondauervektor d dargestellt wird, der sich aus den musikalischen quantitierten Notendauern d der einzelnen Töne zusammensetzt.
Um die Notenfolge einer eingegebenen Tonfolge auch dann erfolgreich mit den Notenfolgen der gespeicherten Musikstücke vergleichen zu können, wenn die eingegebene Tonfolge bewußt oder unbewußt in eine andere Stimmlage transponiert wurde, ist bei einer zweckmäßigen Weiterbildung der Erfindung vorgesehen, daß zum Feststellen eines Übereinstimmungs­ faktors Fi,l zwischen einer eingegebenen und einer gespeicherten Tonfolge die Differenz der Tonhöhen h und Tondauern d der jeweiligen Notenfolgen miteinander verglichen werden.
Eine praktische Ausgestaltung der Erfindung zeichnet sich dadurch aus, daß beim Vergleich der Notenfolgen einer eingegebenen und einer gespei­ cherten Tonfolge die Notenfolge der eingegebenen Tonfolge nacheinander mit entsprechenden Teil-Notenfolgen der gespeicherten Tonfolgen vergli­ chen wird, um jeweils einen Übereinstimmungsfaktor fi (x) zu ermitteln und daß der den höchsten Übereinstimmungsgrad anzeigenden Überein­ stimmungsfaktor Fi,l = fi (xl) der gespeicherten Tonfolge als Übereinstim­ mungsfaktor zugeordnet wird.
Für die Durchführung der Erfindung mittels Datenverarbeitungsanlagen ist es besonders zweckmäßig, wenn als Übereinstimmungsfaktor der kleinste Wert einer Funktion fi (x) ermittelt wird, die durch die folgende Gleichung gegeben ist:
wobei α und β Gewichtsfaktoren sind, für die gilt: 0 < α, β und a + β = l; h (l) die Tonhöhe des l-ten Tons einer eingegebenen Tonfolge, mh der Median der Tonhöhen der eingegebenen Tonfolge, d (1) die Tondauer des l-ten Tons einer eingegebenen Tonfolge, md der Median der Tondauern der eingegebe­ nen Tonfolge, hi (x) die Tonhöhe des x-ten Tons einer gespeicherten Tonfol­ ge, di (x) die Tondauer des x-ten Tons dieser eingespeicherten Tonfolge, mhi (x) der Median der Tonhöhen im Intervall hi (x) bis hi (x + N - l), mdi (x) der Median der Tondauern im Intervall di (x) bis di (x + N - l).
Um dem Benutzer die Auswahl des gesuchten Musikstücks weiter zu er­ leichterten, ist bei einer zweckmäßigen Weiterbildung der Erfindung vor­ gesehen, daß die auszugebenden Bezeichnungen der Tonfolgen entspre­ chend einem Übereinstimmungsgrad zwischen den zugehörigen gespei­ cherten Tonfolgen und der eingegebenen Tonfolge sortiert werden und daß die Ausgabe mit der Bezeichnung beginnt, deren Tonfolge der eingegebe­ nen Tonfolge am ähnlichsten ist, wobei nur Bezeichnungen solcher Tonfol­ gen ausgegeben werden, deren Übereinstimmungsgrad größer als ein vor­ gegebener Wert ist.
Eine besonders vorteilhafte Ausgestaltung der Erfindung zeichnet sich da­ durch aus, daß die Notenfolgen der Vielzahl von Tonfolgen zusammen mit entsprechenden Bezeichnungen der Tonfolgen in einer Datenbankdatei gespeichert sind, wobei zusammen mit den in der Datenbankdatei gespei­ cherten Notenfolgen kurze charakteristische Ausschnitte der jeweiligen Tonfolgen gespeichert sind.
Erfindungsgemäß wird also eine besondere Datenbankdatei bereitgestellt, in der die Notenfolgen der in einer Datenbank zur Verfügung stehenden Musikstücke Zusammen mit entsprechenden Bezeichnungen, also mit den Titeln der Musikstücke, gespeichert sind, so daß bei dem Vergleich der No­ tenfolge der eingegebenen Tonfolge die Notenfolgen der Musikstücke nicht jedesmal neu erzeugt werden müssen, so daß die Suche nach dem ge­ wünschten Musikstück wesentlich vereinfacht und beschleunigt werden kann. Neben der Bezeichnung des Musikstücks kann in dieser besonderen Datenbankdatei auch jeder Notenfolge noch ein kurzer charakteristischer Ausschnitt des jeweiligen Musikstücks zugeordnet sein, zum Beispiel im MIDI-Format, so daß auf die Datenbankdatei, in der Musikstücke als sol­ che gespeichert sind, erst zugegriffen zu werden braucht, wenn der Benut­ zer sich für ein konkretes Musikstück entschieden hat.
Die Erfindung wird im folgenden beispielsweise unter Bezugnahme auf die Zeichnung näher erläutert. Es zeigen:
Fig. 1 ein schematisches Blockschaltbild eines Kommunikationssy­ stems zur Durchführung der erfindungsgemäßen Verfahren,
Fig. 2 den zeitlichen Verlauf einer geglätteten Tonhöhenfrequenz und
Fig. 3 den zeitlichen Verlauf einer entsprechend dem musikalischen No­ ten oder Tönen quantisierten Tonhöhenfrequenz.
Fig. 1 zeigt beispielsweise ein Kommunikationssystem, bei dem ein Be­ nutzer mit Hilfe eines Benutzerendgeräts, das beispielsweise als Mobilte­ lefon 10 ausgebildet ist, über eine Übertragungsstrecke 11 mit einer Da­ tenbankstation 12 eines Diensteanbieters, die eine Musikstückdatenbank 13 umfaßt, kommunizieren kann, um Musikstücke, Videoclips und gege­ benenfalls Filme oder dergleichen geliefert zu bekommen.
Das Mobiltelefon 10 besitzt in üblicher Weise ein Mikrofon 14 zur Sprach- und Toneingabe, dessen Ausgang über einen Analog/Digital-Wandler 15 an eine zentrale Verarbeitungsschaltung 16 angelegt ist. Die zentrale Ver­ arbeitungsschaltung 16, die beispielsweise als Mikroprozessor ausgebil­ det sein kann, gibt an die Datenbankstation 12 des Diensteanbieters zu übertragende Daten an eine Sende- und Empfangseinheit 17 aus, an die ei­ ne Sende- und Empfangsantenne 18 angeschlossen ist, um Informationen über die Übertragungsstrecke 11 zu senden und von dieser zu empfangen.
Die Datenbankstation 12 des Diensteanbieters weist eine Sende- und Empfangseinheit 19 mit einer Sende- und Empfangsantenne 20 auf, um Daten von bzw. über die Übertragungsstrecke 11 empfangen bzw. senden zu können. Die Sende- und Empfangseinheit 19 ist mit einer zentralen Ver­ arbeitungsschaltung 21 verbunden, die auf die Musikstückdatenbank 13 zugreifen kann, um ein angefordertes Musikstück zu dem Mobiltelefon 10 zu übertragen.
Für die Erkennung von Musikstücken ist eine Datenbankdatei 22 vorgese­ hen, in der zusammen mit den Bezeichnungen oder Titeln der einzelnen Musikstücke in der Musikstückdatenbank 13 den Musikstücken entspre­ chende Notenfolgen gespeichert sind. Zusammen mit den Bezeichnungen und Notenfolgen der Musikstücke können dabei noch charakteristische Ausschnitte aus den Musikstücken gespeichert sein.
Zur akustischen und optischen Ausgabe von Information weist das Mobil­ telefon 10 einen Lautsprecher 23 und eine Anzeigevorrichtung 24 auf, die über entsprechende Treiberschaltungen 25 bzw. 26 mit der zentralen Ver­ arbeitungsschaltung 16 verbunden sind.
Um ein bestimmtes Musikstück von einem Diensteanbieter anzufordern, gibt der Benutzer zunächst einen Ausschnitt des auszuwählenden bzw. gewünschten Musikstücks ein, in dem er einfach die ihm bekannte Melo­ die in das Mikrofon 14 singt. Die vom Mikrofon aufgezeichnete menschli­ che Stimme wird über den Analog/Digital-Wandler 15 digitalisiert und an die zentrale Verarbeitungsschaltung 16 geliefert, die somit den digitali­ sierten Frequenzverlauf der menschlichen Stimme empfängt.
Aus dem digitalisierten Frequenzverlauf der menschlichen Stimme wird mit Hilfe eines Tonhöhendetektors in der zentralen Verarbeitungsschal­ tung 16 der zeitliche Verlauf der Tonhöhenfrequenz der in das Mikrofon 14 gesungenen Tonfolge ermittelt. Als Tonhöhendetektor dient dabei bei­ spielsweise der sogenannte SIFT (Simplified inverse filter tracking) Algo­ rithmus, der besonders gut für relativ hohe Frauenstimmen geeignet ist, oder die sogenannte Cepstrum Tonhöhenabschätzung (Cepstrum pitch estimation) die sich für relativ tiefe männliche Stimmen eignet. Diese Ver­ fahren sind dem zuständigen Fachmann vertraut und beispielsweise in dem Lehrbuch "Voice and Speech Processing", Thomas W. Parsons, New York, 1986, McGraw-Hill Book Company, erläutert.
Der ermittelte Verlauf der Tonhöhenfrequenz fp wird dann mit Hilfe eines geeignete Filters geglättet. Hierbei wird insbesondere ein Medianfilter ver­ wendet, bei dem ein Filterfenster über die zu glättende Tonhöhenfrequenz­ kurve gleitet, um jeweils den Wert im Zentrum des Fensters durch den Me­ dian aller Werte im Fenster zu ersetzen. Eine derartige Medianfilterung ist ebenfalls bekannt und in dem obengenannten Lehrbuch erläutert.
Nach dem Glätten ergibt sich ein Verlauf der Tonhöhenfrequenz fp, wie er in Fig. 2 rein schematisch angedeutet ist. Somit liegt also ein geglätteter Verlauf der Tonhöhenfrequenzen der gesungenen Tonfolge über der Zeit vor, die im Idealfall mit dem Verlauf der Melodie im Frequenzbereich koin­ zidiert.
Da jedoch durch bewußtes und unbewußtes Transponieren der Melodie beim Singen durch den Benutzer sowie durch Rhythmus- und Tempounter­ schiede Fehler oder Abweichungen der gesungenen Melodie von der ge­ wünschten Melodie auftreten, wird der in Fig. 2 gezeigte Verlauf der Ton­ höhenfrequenzen entsprechend den Frequenzen der musikalischen Töne oder Noten quantisiert, so daß sich der in Fig. 3 gezeigte quantisierte Ver­ lauf der Tonhöhenfrequenzen fp über der Zeit ergibt. Fig. 3 zeigt dabei beispielsweise fünf verschiedene Töne mit unterschiedlichen Tondauern, denen jeweils ein bestimmter musikalischer Ton oder eine Note sowie eine bestimmte Tondauer zugeordnet werden können.
Nach der Quantisierung des Verlaufs der Tonhöhenfrequenz läßt sich die eingegebene, gesungene Tonfolge in eine bestimmte Anzahl N von Einzeltö­ nen zerlegen. Jedem dieser Einzeltöne ist dabei ein musikalischer Ton ent­ sprechend der musikalischen Skala zugeordnet. Ferner besitzt jeder der Einzeltöne eine bestimmte Tondauer, aus der sich eine entsprechende No­ tendauer ermitteln läßt.
Jeder Ton zeichnet sich also durch zwei Größen aus, nämlich durch die Tonhöhe oder Tonhöhenfrequenz, die durch den entsprechenden musika­ lischen Ton bzw. die entsprechende Note bezeichnet wird, und durch die Tondauer, die in noch zu beschreibender Weise entsprechend der musika­ lischen Notendauer quantisiert wird. Damit läßt sich jede Tonfolge aus N Tönen durch einen Tonhöhenvektor h = (h1, h2, . . . hn)T und durch einen Tondauervektor d = (d1, d2, . . . dN)T beschreiben. Die Werte h1 können da­ bei einfach ganze Zahlen sein, die entsprechend der folgenden Tabelle die jeweiligen musikalischen Töne oder Noten repräsentieren.
In entsprechender Weise kann jeder Notendauer 1/32, 1/16, 1/8, 1/4, 1/2, 1 eine entsprechende Zahl zugeordnet werden, wobei zweckmäßiger Weise für die kürzeste Note die Dauer 1 gesetzt wird. Eine 1/4-Note erhält dann die Dauer 8, eine 1/2-Note die Dauer 16 und die ganze Note die Dauer 32. Um den einzelnen Tondauern eine musikalische Notendauer zuordnen zu können, wird der Median der Tondauerverteilung ermittelt und gleich einer 1/4-Note gesetzt. Ausgehend von dem Median werden dann Zeitin­ tervalle festgelegt, die den einzelnen Notendauern entsprechen.
Die gesungene Tonfolge liegt nunmehr als Notenfolge vor, die sich durch zwei äußerst einfache Vektoren beschreiben lassen.
Die Umsetzung der Tonfolge in die die Notenfolge beschreibenden Vekto­ ren kann dabei in der zentralen Verarbeitungsschaltung 21 der Daten­ bankstation 12 des Diensteanbieters durchgeführt werden. Um jedoch die Übertragungsstrecke 11 möglichst wenig zu belasten, um also die entspre­ chenden Sendekanäle möglichst wenig zu blockieren, wird diese Umset­ zung bereits im Mobiltelefon 10 von der zentralen Verarbeitungsschaltung 16 vorgenommen, so daß nur der Tonhöhenvektor und der Notendauervek­ tor zur Datenbankstation 12 des Diensteanbieters übertragen zu werden brauchen.
In der Datenbankstation 12 sind in der Datenbankdatei 22 die Musik­ stücke als Notenfolgen gespeichert, die ebenfalls durch einen entspre­ chenden Tonhöhenvektor hi = (hi1, hi2, . . . hix, . . . hiM) und Tondauervek­ toren di = (di1, di2, . . . dix, . . . diM) beschrieben werden. Der Index i bezeich­ net dabei das jeweilige Musikstück und M die Anzahl der Töne oder Noten.
Um auch bewußt oder unbewußt transponierte eingegebene Tonfolgen mit den Musikstücken vergleichen zu können, werden nicht die jeweiligen No­ tenfolgen unmittelbar miteinander verglichen, sondern nur der Relativ­ verlauf innerhalb der beiden Notenfolgen. Hierzu werden jeweils die Diffe­ renzen zwischen den einzelnen Tonhöhen miteinander verglichen. Es wird also für jede Notenfolge der Median festgestellt, um den Abstand der ein­ zelnen Töne vom Median zu ermitteln und mit dem Abstand des entspre­ chenden anderen Tons der anderen Notenfolge von deren Median zu ver­ gleichen. Da die Notenfolge des Musikstücks typischerweise wesentlich länger ist, als die Notenfolge, die beispielsweise durch Singen eingegeben wurde, wird für die Notenfolge des Musikstücks jeweils der Median eines entsprechenden Teilabschnitts dieser Notenfolge verwendet.
Beim praktischen Vergleich der Notenfolge einer eingegebenen Tonfolge mit den Notenfolgen der Musikstücke wird eine Funktion fi (x) berechnet, deren Verlauf anzeigt, wie die Notenfolge der eingegebenen Tonfolge mit den einzelnen Abschnitten übereinstimmt. Diese Abweichungsfunktion errechnet sich nach der folgenden Gleichung:
Hierbei sind α und β Gewichtsfaktoren, die den Einfluß der Melodie bzw. des Rhythmus auf den Übereinstimmungsfaktor beschreiben. Für α und β gilt dabei: 0 < α, β; α + β = 1. hi (x) und di (x) bezeichnen die Tonhöhe und die Tondauer des x-ten Tons im Vektor hi bzw. di. mhi (x) und mdi (x) bezeich­ nen jeweils den Median der Tonhöhen bzw. Tondauern im Intervall von hi (x) bis hi (x + N - 1) bzw. di (x) bis di (x + N - 1). h (1) und d (1) bezeichnen die Tonhöhe bzw. Tondauer des l-ten Tons im Vektor h bzw. d. In entsprechen­ der Weise bezeichnen mh und md den Median der Tonhöhen bzw. Tondau­ ern im Vektor h bzw. im Vektor d.
Sowohl für die Tonhöhen als auch für die Tondauern wird jeweils die Sum­ me der Differenzen zwischen den jeweiligen Abständen zum entsprechen­ den Median berechnet, die im Idealfall, wenn also die Notenfolgen exakt übereinander passen, gleich 0 wird.
Nachdem die Funktion fi (x) für alle Werte x berechnet wurde, wenn also die Notenfolge der eingegebenen Tonfolge mit sämtlichen möglichen Ab­ schnitten der Notenfolge eines Musikstücks in der durch die obige Glei­ chung beschriebene Weise verglichen wurde, wird der kleinste Wert der Funktion fi (x) festgestellt. Der zugehörige Wert xl beschreibt somit den Abschnitt der Notenfolge der den vom Benutzer gesungenen Abschnitt des Musikstücks (möglicherweise) entspricht. Der zugehörige Wert der Funk­ tion fi (x) wird dann als Abweichungsfaktor Fi,l = fi (xl) gespeichert.
Sobald die Notenfolge der eingegebenen Tonfolge mit sämtlichen Notenfol­ gen der einzelnen Musikstücke verglichen wurde, werden die Bezeichnun­ gen oder Titel der Musikstücke entsprechend den ermittelten Überein­ stimmungsfaktoren Fi,l sortiert, wobei mit dem die höchste Übereinstim­ mung bezeichnenden kleinsten Abweichungsfaktor begonnen wird.
Um anschließend dem Benutzer die Musikstücke in der ermittelten Rei­ henfolge zu präsentieren, werden diese von der Datenbankstation 12 zum Mobiltelefon 10 übertragen, wo die Titel auf der Anzeigevorrichtung 24 an­ gezeigt werden während charakteristische Ausschnitte der Musikstücke über den Lautsprecher 23 ausgegeben werden können. Hierbei wird zweckmäßigerweise die Anzahl der übertragenen Bezeichnungen be­ grenzt. Die Begrenzung kann dabei im einfachsten Falle dadurch erfolgen, daß nur, je nach Anzeige- und Speicherkapazität dem Mobiltelefon eine begrenzte feste Anzahl von Titeln der Musikstücke übertragen wird. Es ist jedoch auch möglich, die Begrenzung im Hinblick auf den Abweichungs­ faktor vorzunehmen, so daß nur Titel von Musikstücken zum Mobiltelefon übertragen und dem Benutzer angezeigt werden, deren Abweichungsfak­ tor einen vorbestimmten Schwellwert nicht übersteigt. Ein derartiger Schwellwert kann allgemein festgelegt oder entsprechend der Abwei­ chungsfaktorverteilung ermittelt werden.
Die vorliegende Erfindung ermöglicht somit die Erkennung von Musik­ stücken in der Datenbankstation eines Diensteanbieters, wobei ein Be­ nutzer nur einen Teil eines gewünschten Musikstücks singt, wenn ihm der Titel dieses Liedes oder Musikstücks nicht bekannt ist. Nach der Erken­ nung des Musikstücks, oder einer Reihe von möglichen Musikstücken wird oder werden der bzw. die Titel gegebenenfalls zusammen mit charak­ teristischen Ausschnitten der Musikstücke zum Benutzer übertragen, so daß dieser daraus das gewünschte Musikstück auswählen kann. Nach der Auswahl wird dann das komplette Musikstück über elektronische Kom­ munikationswege (Internet, zellulares Mobiltelefonnetz, wie im beschrie­ benen Ausführungsbeispiel, oder ähnliches) zugesandt und der Benutzer kann sich das Musikstück dauerhaft auf einem geeigneten Speichermedi­ um (CD, Speicherbaustein, Magnetband usw.) abspeichern und abspielen.
Für den Vergleich der eingegebenen Tonfolge, also eines gesungenen Ab­ schnitts des gewünschten Musikstücks mit den Musikstücken in der Da­ tenbankstation des Dienstanbieters ist in der Datenbankstation 12 eine gesonderte Datenbankdatei 22 vorgesehen, in der die Titel bzw. Bezeich­ nungen der einzelnen Musikstücke mit den zugeordneten Notenfolgen ge­ speichert sind, so daß das Auffinden der gewünschten Musikstücke we­ sentlich erleichtert und die Erkennung beschleunigt ist.

Claims (16)

1. Verfahren zum Erkennen einer Tonfolge insbesondere eines Musik­ stücks, bei dem
  • - die Töne der zu erkennenden Tonfolge in eine Notenfolge umgesetzt werden,
  • - zum Suchen der zu erkennenden Tonfolge deren Notenfolge nach­ einander mit entsprechenden Notenfolgen einer Vielzahl von Tonfolgen verglichen wird, und
  • - Bezeichnungen der Tonfolge oder -folgen ausgegeben werden, deren Notenfolge bzw. -folgen mit der Notenfolge der zu erkennenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. übereinstimmen.
2. Verfahren zum Auswählen einer Tonfolge, insbesondere eines Musik­ stücks, bei dem
  • - eine zumindest einem Abschnitt der auszuwählenden Tonfolge zu­ mindest teilweise entsprechende Tonfolge eingegeben wird,
  • - die Töne der eingegebenen Tonfolge in eine Notenfolge umgesetzt werden,
  • - zum Suchen der auszuwählenden Tonfolge deren Notenfolge nach­ einander mit entsprechenden Notenfolgen einer Vielzahl von Tonfolgen verglichen wird, um Bezeichnungen einer oder mehrerer Tonfolgen zu er­ mitteln, deren Notenfolge oder -folgen mit der Notenfolge der auszuwäh­ lenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. übereinstim­ men, und
  • - die ermittelten Bezeichnungen als Liste ausgegeben werden, so daß ein Benutzer anhand der Bezeichnungsliste die gewünschte Tonfolge aus­ wählen kann.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die in ei­ nem Benutzerendgerät (10) eingegebene, der auszuwählenden Tonfolge entsprechende Tonfolge zu einer Datenbankstation (12) übertragen wird, in der die Liste der Bezeichnungen einer oder mehrerer der auszuwählen­ den Tonfolge ähnlichen Tonfolgen ermittelt wird, und
  • - die Bezeichnungsliste zur Ausgabe an das Benutzerendgerät (10) übertragen wird.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die in ein Benutzerendgerät (10) eingegebene, der auszuwählenden Tonfolge ent­ sprechende Tonfolge im Benutzerendgerät (10) in eine Notenfolge umge­ setzt wird, die Notenfolge zu einer Datenbankstation (12) übertragen wird, in der die Liste der Bezeichnungen einer oder mehrerer der auszuwählen­ den Tonfolge ähnlichen Tonfolgen ermittelt wird, und
  • - die Bezeichnungsliste zur Ausgabe an das Benutzerendgerät (10) übertragen wird.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß zu­ sammen mit jeder Bezeichnung ein für die jeweilige Tonfolge charakteristi­ scher kurzer Ausschnitt der Tonfolge zur Ausgabe an das Benutzerendge­ rät (10) übertragen wird.
6. Verfahren nach Anspruch 2 bis 5, dadurch gekennzeichnet, daß die Tonfolge zur Eingabe in das Benutzerendgerät (10) vom Benutzer gesun­ gen wird.
7. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge­ kennzeichnet, daß zum Umsetzen einer Tonfolge in eine Notenfolge
  • - für jeden Ton der Tonfolge die Tonhöhenfrequenz fp und die Tondau­ er ermittelt wird, und
  • - jedem Ton eine musikalische Note entsprechend seiner Tonhöhen­ frequenz fp und eine musikalisch quantisierte Notendauer entsprechend einer Tondauerverteilung der Tonfolge zugeordnet wird.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß zur Fest­ legung der Notendauer der Töne zunächst der Median der Tondauervertei­ lung ermittelt wird, und die Tondauer des Medians mit der Notendauer ei­ ner 1/4-Note gleichgesetzt wird, sowie jedem Ton durch Vergleich seiner Tondauer mit der ermittelten Notendauer einer 1/4-Note eine entspre­ chende musikalische quantisierte Notendauer (1/32, 1/16, 1/8, 1/4, 1/2, 1) zugeordnet wird.
9. Verfahren nach Anspruch 7 oder S. dadurch gekennzeichnet, daß je­ de Tonfolge durch einen Tonhöhenvektor h, der sich aus den einzelnen No­ ten oder musikalischen Tönen zusammensetzt, und einen Tondauervektor d dargestellt wird, der sich aus den musikalischen quantisierten Noten­ dauern der einzelnen Töne zusammensetzt.
10. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge­ kennzeichnet, daß zum Feststellen eines Abweichungsfaktors Fi,l zwi­ schen einer eingegebenen und einer gespeicherten Tonfolge die Differenz der Tonhöhen und Tondauern der jeweiligen Notenfolgen miteinander ver­ glichen werden.
11. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge­ kennzeichnet, daß beim Vergleich der Notenfolgen einer eingegebenen und einer gespeicherten Tonfolge die Notenfolge der eingegebenen Tonfolge nacheinander mit entsprechenden Teil-Notenfolgen der gespeicherten Tonfolgen verglichen wird, um jeweils einen Abweichungsfaktor fi (x) zu er­ mitteln und daß der den höchsten Übereinstimmungsgrad anzeigende kleinste Abweichungsfaktor Fi,l = fi (xl) der gespeicherten Tonfolge als Ab­ weichungsfaktor zugeordnet wird.
12. Verfahren nach Anspruch 10 und 11, dadurch gekennzeichnet, daß als Abweichungsfaktor der kleinste Wert einer Funktion fi (x) ermittelt wird, die durch die folgende Gleichung gegeben ist:
wobei α und β Gewichtsfaktoren sind, für die gilt: 0 < α, β und α + β = 1; h (l) die Tonhöhe des l-ten Tons einer eingegebenen Tonfolge, mh der Median der Tonhöhen der eingegebenen Tonfolge, d (l) die Tondauer des l-ten Tons einer eingegebenen Tonfolge, md der Median der Tondauern der eingegebe­ nen Tonfolge, hi (x) die Tonhöhe des x-ten Tons einer gespeicherten Tonfol­ ge, di (x) die Tondauer des x-ten Tons dieser eingespeicherten Tonfolge, mhi (x) der Median der Tonhöhen im Intervall hi (x) bis hi (x + N - 1), mdi (x) der Median der Tondauern im Intervall di (x) bis di (x + N - 1).
13. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge­ kennzeichnet, daß die auszugebenden Bezeichnungen der Tonfolgen ent­ sprechend einem Übereinstimmungsgrad zwischen den zugehörigen ge­ speicherten Tonfolgen und der eingegebenen Tonfolge sortiert werden und daß die Ausgabe mit der Bezeichnung beginnt, deren Tonfolge der eingege­ benen Tonfolge am ähnlichsten ist.
14. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge­ kennzeichnet, daß nur Bezeichnungen solcher Tonfolgen ausgegeben wer­ den, deren Übereinstimmungsgrad größer als sein vorgegebener Wert ist.
15. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge­ kennzeichnet, daß die Notenfolgen der Vielzahl von Tonfolgen zusammen mit entsprechenden Bezeichnungen der Tonfolgen in einer Datenbankda­ tei (22) gespeichert sind.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß zusam­ men mit den in der Datenbankdatei (22) gespeicherten Notenfolgen kurze charakteristische Ausschnitte der jeweiligen Tonfolgen gespeichert sind.
DE19948974A 1999-10-11 1999-10-11 Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks Withdrawn DE19948974A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE19948974A DE19948974A1 (de) 1999-10-11 1999-10-11 Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks
EP00120872A EP1093109A1 (de) 1999-10-11 2000-09-25 Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks
US09/686,425 US6437227B1 (en) 1999-10-11 2000-10-11 Method for recognizing and selecting a tone sequence, particularly a piece of music

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19948974A DE19948974A1 (de) 1999-10-11 1999-10-11 Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks

Publications (1)

Publication Number Publication Date
DE19948974A1 true DE19948974A1 (de) 2001-04-12

Family

ID=7925254

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19948974A Withdrawn DE19948974A1 (de) 1999-10-11 1999-10-11 Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks

Country Status (3)

Country Link
US (1) US6437227B1 (de)
EP (1) EP1093109A1 (de)
DE (1) DE19948974A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10117871C1 (de) * 2001-04-10 2002-07-04 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Extrahieren einer Signalkennung, Verfahren und Vorrichtung zum Erzeugen einer Datenbank aus Signalkennungen und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals
DE10133333C1 (de) * 2001-07-10 2002-12-05 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Erzeugen eines Fingerabdrucks und Verfahren und Vorrichtung zum Identifizieren eines Audiosignals
DE102005062677A1 (de) * 2005-12-23 2007-06-28 Kramer, Tobias System und ein Verfahren zum Verwalten von Musik-Daten

Families Citing this family (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7174293B2 (en) * 1999-09-21 2007-02-06 Iceberg Industries Llc Audio identification system and method
US8412377B2 (en) 2000-01-24 2013-04-02 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US8788092B2 (en) 2000-01-24 2014-07-22 Irobot Corporation Obstacle following sensor scheme for a mobile robot
US6956348B2 (en) 2004-01-28 2005-10-18 Irobot Corporation Debris sensor for cleaning apparatus
GB2384596A (en) 2000-10-23 2003-07-30 Ntt Comm Corp Musical composition recognition method and system, storage medium where musical composition program is stored, commercial recognition method and system,
US20020072982A1 (en) * 2000-12-12 2002-06-13 Shazam Entertainment Ltd. Method and system for interacting with a user in an experiential environment
US6690134B1 (en) 2001-01-24 2004-02-10 Irobot Corporation Method and system for robot localization and confinement
US7571511B2 (en) 2002-01-03 2009-08-11 Irobot Corporation Autonomous floor-cleaning robot
US7429843B2 (en) 2001-06-12 2008-09-30 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US8396592B2 (en) 2001-06-12 2013-03-12 Irobot Corporation Method and system for multi-mode coverage for an autonomous robot
US7027983B2 (en) * 2001-12-31 2006-04-11 Nellymoser, Inc. System and method for generating an identification signal for electronic devices
US9128486B2 (en) 2002-01-24 2015-09-08 Irobot Corporation Navigational control system for a robotic device
AU2003202728A1 (en) * 2002-02-06 2003-09-02 Koninklijke Philips Electronics N.V. Fast hash-based multimedia object metadata retrieval
US6967275B2 (en) * 2002-06-25 2005-11-22 Irobot Corporation Song-matching system and method
DE10232916B4 (de) * 2002-07-19 2008-08-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals
US8428778B2 (en) 2002-09-13 2013-04-23 Irobot Corporation Navigational control system for a robotic device
US8386081B2 (en) 2002-09-13 2013-02-26 Irobot Corporation Navigational control system for a robotic device
US7222071B2 (en) * 2002-09-27 2007-05-22 Arbitron Inc. Audio data receipt/exposure measurement with code monitoring and signature extraction
CN1703734A (zh) * 2002-10-11 2005-11-30 松下电器产业株式会社 从声音确定音符的方法和装置
WO2004049240A1 (en) * 2002-11-28 2004-06-10 Nokia Corporation Method and device for determining and outputting the similarity between two data strings
US20040154461A1 (en) * 2003-02-07 2004-08-12 Nokia Corporation Methods and apparatus providing group playing ability for creating a shared sound environment with MIDI-enabled mobile stations
US8615157B1 (en) 2003-11-17 2013-12-24 David C. Isaacson System and method for on-demand storage of randomly selected data
US8588582B2 (en) * 2003-11-17 2013-11-19 Diana Lynn Fitzgerald System and method for on-demand storage of randomly selected data
US7332890B2 (en) 2004-01-21 2008-02-19 Irobot Corporation Autonomous robot auto-docking and energy management systems and methods
KR20050087368A (ko) * 2004-02-26 2005-08-31 엘지전자 주식회사 무선 단말기의 벨소리 처리 장치
EP1571647A1 (de) * 2004-02-26 2005-09-07 Lg Electronics Inc. Vorrichtung und Verfahren zur Bearbeitung von Klingelton
KR100636906B1 (ko) * 2004-03-22 2006-10-19 엘지전자 주식회사 미디 재생 장치 그 방법
WO2005098476A1 (en) 2004-03-29 2005-10-20 Evolution Robotics, Inc. Method and apparatus for position estimation using reflected light sources
US7325013B2 (en) * 2004-04-15 2008-01-29 Id3Man, Inc. Database with efficient fuzzy matching
US20060009879A1 (en) 2004-06-24 2006-01-12 Lynch James K Programming and diagnostic tool for a mobile robot
US7706917B1 (en) 2004-07-07 2010-04-27 Irobot Corporation Celestial navigation system for an autonomous robot
US8972052B2 (en) 2004-07-07 2015-03-03 Irobot Corporation Celestial navigation system for an autonomous vehicle
ATE523130T1 (de) 2005-02-18 2011-09-15 Irobot Corp Selbstfahrender flächenreinigungsroboter für nass-und trockenreinigung
US8392021B2 (en) 2005-02-18 2013-03-05 Irobot Corporation Autonomous surface cleaning robot for wet cleaning
US7620476B2 (en) 2005-02-18 2009-11-17 Irobot Corporation Autonomous surface cleaning robot for dry cleaning
US8930023B2 (en) 2009-11-06 2015-01-06 Irobot Corporation Localization by learning of wave-signal distributions
KR101300492B1 (ko) * 2005-12-02 2013-09-02 아이로보트 코퍼레이션 커버리지 로봇 이동성
EP2816434A3 (de) 2005-12-02 2015-01-28 iRobot Corporation Roboter mit autonomem Wirkungsbereich
US8584305B2 (en) 2005-12-02 2013-11-19 Irobot Corporation Modular robot
EP2065774B1 (de) 2005-12-02 2013-10-23 iRobot Corporation Roboternavigationssystem mit autonomer Abdeckung
EP2533120B1 (de) 2005-12-02 2019-01-16 iRobot Corporation Robotersystem
US7459624B2 (en) 2006-03-29 2008-12-02 Harmonix Music Systems, Inc. Game controller simulating a musical instrument
EP2548489B1 (de) 2006-05-19 2016-03-09 iRobot Corporation Müllentfernung aus Reinigungsrobotern
US8417383B2 (en) 2006-05-31 2013-04-09 Irobot Corporation Detecting robot stasis
EP3031375B1 (de) 2007-05-09 2021-11-03 iRobot Corporation Kompakter roboter mit autonomer reichweite
US8690670B2 (en) 2007-06-14 2014-04-08 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
US20100304811A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Scoring a Musical Performance Involving Multiple Parts
US20100304810A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Displaying A Harmonically Relevant Pitch Guide
US8080722B2 (en) * 2009-05-29 2011-12-20 Harmonix Music Systems, Inc. Preventing an unintentional deploy of a bonus in a video game
US7982114B2 (en) * 2009-05-29 2011-07-19 Harmonix Music Systems, Inc. Displaying an input at multiple octaves
US7935880B2 (en) 2009-05-29 2011-05-03 Harmonix Music Systems, Inc. Dynamically displaying a pitch range
US7923620B2 (en) * 2009-05-29 2011-04-12 Harmonix Music Systems, Inc. Practice mode for multiple musical parts
US8076564B2 (en) * 2009-05-29 2011-12-13 Harmonix Music Systems, Inc. Scoring a musical performance after a period of ambiguity
US8017854B2 (en) * 2009-05-29 2011-09-13 Harmonix Music Systems, Inc. Dynamic musical part determination
US8026435B2 (en) * 2009-05-29 2011-09-27 Harmonix Music Systems, Inc. Selectively displaying song lyrics
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
EP2494432B1 (de) 2009-10-27 2019-05-29 Harmonix Music Systems, Inc. Auf gestik basierende benutzerschnittstelle
WO2011103198A1 (en) 2010-02-16 2011-08-25 Irobot Corporation Vacuum brush
US8550908B2 (en) 2010-03-16 2013-10-08 Harmonix Music Systems, Inc. Simulating musical instruments
KR101490576B1 (ko) * 2010-05-04 2015-02-11 샤잠 엔터테인먼트 리미티드 미디어의 동기화 방법 및 시스템
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US20110306397A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Audio and animation blending
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
JP5728888B2 (ja) * 2010-10-29 2015-06-03 ソニー株式会社 信号処理装置および方法、並びにプログラム
US9153217B2 (en) 2010-11-01 2015-10-06 James W. Wieder Simultaneously playing sound-segments to find and act-upon a composition
US8716584B1 (en) 2010-11-01 2014-05-06 James W. Wieder Using recognition-segments to find and play a composition containing sound
US9117426B2 (en) 2010-11-01 2015-08-25 James W. Wieder Using sound-segments in a multi-dimensional ordering to find and act-upon a composition
JP2014010275A (ja) * 2012-06-29 2014-01-20 Sony Corp 情報処理装置、情報処理方法及びプログラム
CN107229629B (zh) * 2016-03-24 2021-03-19 腾讯科技(深圳)有限公司 音频识别方法及装置

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4463650A (en) * 1981-11-19 1984-08-07 Rupert Robert E System for converting oral music to instrumental music
US5402339A (en) * 1992-09-29 1995-03-28 Fujitsu Limited Apparatus for making music database and retrieval apparatus for such database
DE19526333A1 (de) * 1995-07-17 1997-01-23 Gehrer Eugen Dr Verfahren zur Erzeugung von Musik
US5616876A (en) * 1995-04-19 1997-04-01 Microsoft Corporation System and methods for selecting music on the basis of subjective content
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
DE19652225A1 (de) * 1996-12-16 1998-06-25 Harald Rieck Verfahren zum Erkennen von Melodien
US5963957A (en) * 1997-04-28 1999-10-05 Philips Electronics North America Corporation Bibliographic music data base with normalized musical themes

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4354418A (en) * 1980-08-25 1982-10-19 Nuvatec, Inc. Automatic note analyzer
US5874686A (en) * 1995-10-31 1999-02-23 Ghias; Asif U. Apparatus and method for searching a melody
US5995928A (en) * 1996-10-02 1999-11-30 Speechworks International, Inc. Method and apparatus for continuous spelling speech recognition with early identification
US5739451A (en) * 1996-12-27 1998-04-14 Franklin Electronic Publishers, Incorporated Hand held electronic music encyclopedia with text and note structure search
US5808225A (en) * 1996-12-31 1998-09-15 Intel Corporation Compressing music into a digital format
KR100277105B1 (ko) * 1998-02-27 2001-01-15 윤종용 음성 인식 데이터 결정 장치 및 방법
DE69908226T2 (de) * 1998-03-19 2004-03-25 Tomonari Sonoda Vorrichtung und Verfahren zum Wiederauffinden von Melodien
US6246672B1 (en) * 1998-04-28 2001-06-12 International Business Machines Corp. Singlecast interactive radio system

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4463650A (en) * 1981-11-19 1984-08-07 Rupert Robert E System for converting oral music to instrumental music
US5402339A (en) * 1992-09-29 1995-03-28 Fujitsu Limited Apparatus for making music database and retrieval apparatus for such database
US5616876A (en) * 1995-04-19 1997-04-01 Microsoft Corporation System and methods for selecting music on the basis of subjective content
DE19526333A1 (de) * 1995-07-17 1997-01-23 Gehrer Eugen Dr Verfahren zur Erzeugung von Musik
US5728960A (en) * 1996-07-10 1998-03-17 Sitrick; David H. Multi-dimensional transformation systems and display communication architecture for musical compositions
DE19652225A1 (de) * 1996-12-16 1998-06-25 Harald Rieck Verfahren zum Erkennen von Melodien
US5963957A (en) * 1997-04-28 1999-10-05 Philips Electronics North America Corporation Bibliographic music data base with normalized musical themes

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10117871C1 (de) * 2001-04-10 2002-07-04 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Extrahieren einer Signalkennung, Verfahren und Vorrichtung zum Erzeugen einer Datenbank aus Signalkennungen und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals
DE10133333C1 (de) * 2001-07-10 2002-12-05 Fraunhofer Ges Forschung Verfahren und Vorrichtung zum Erzeugen eines Fingerabdrucks und Verfahren und Vorrichtung zum Identifizieren eines Audiosignals
DE102005062677A1 (de) * 2005-12-23 2007-06-28 Kramer, Tobias System und ein Verfahren zum Verwalten von Musik-Daten

Also Published As

Publication number Publication date
US6437227B1 (en) 2002-08-20
EP1093109A1 (de) 2001-04-18

Similar Documents

Publication Publication Date Title
DE19948974A1 (de) Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks
DE69908226T2 (de) Vorrichtung und Verfahren zum Wiederauffinden von Melodien
DE60320414T2 (de) Vorrichtung und Verfahren zur automatischen Extraktion von wichtigen Ereignissen in Audiosignalen
DE69909107T2 (de) Verfahren und vorrichtung zum automatischen komponieren
DE60120417T2 (de) Verfahren zur suche in einer audiodatenbank
DE602004011305T2 (de) Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen
DE10054583C2 (de) Verfahren und Vorrichtung zum Aufzeichnen, Suchen und Wiedergeben von Notizen
DE10232916B4 (de) Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals
DE60302420T2 (de) Musiksuchgerät und -verfahren
DE102008016502B4 (de) Verfahren zur Datenübermittlung über einen Sprachkanal eines drahtlosen Kommunikationsnetzes unter Verwendung einer kontinuierlichen Signalmodulation
EP1217603A1 (de) Verfahren zur Identifizierung von Musikstücken
DE4002835C2 (de) Wiedergabeeinrichtung
DE102007051367A1 (de) Verfahren für eine Datenübertragung über einen Sprachkanal eines drahtlosen Kommunikationsnetzwerks
DE102007034774A1 (de) Vorrichtung zur Bestimmung von Akkordnamen und Programm zur Bestimmung von Akkordnamen
DE3236834A1 (de) Verfahren und geraet zur sprachanalyse
DE3517818C2 (de)
DE2918533A1 (de) Spracherkennungssystem
DE3416238A1 (de) Extremschmalband-uebertragungssystem
DE60026643T2 (de) Vorrichtung und Verfahren zur Tonerzeugung für ein mobiles Endgerät in einem drahtlosen Telekommunikatsionssystem
DE2626793A1 (de) Verfahren zur bewertung stimmhafter und stimmloser zustaende eines sprachsignals
EP1368805A2 (de) Verfahren und vorrichtung zum charakterisieren eines signals und verfahren und vorrichtung zum erzeugen eines indexierten signals
DE10117870A1 (de) Verfahren und Vorrichtung zum Überführen eines Musiksignals in eine Noten-basierte Beschreibung und Verfahren und Vorrichtung zum Referenzieren eines Musiksignals in einer Datenbank
DE10123366C1 (de) Vorrichtung zum Analysieren eines Audiosignals hinsichtlich von Rhythmusinformationen
DE602004002312T2 (de) Verfahren und Vorrichtung zur Bestimmung von Formanten unter Benutzung eines Restsignalmodells
WO2006005567A1 (de) Verfahren und vorrichtung zur erzeugung einer polyphonen melodie

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8128 New person/name/address of the agent

Representative=s name: BECKER, KURIG, STRAUS, 80336 MUENCHEN

8139 Disposal/non-payment of the annual fee