DE19948974A1 - Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks - Google Patents
Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines MusikstücksInfo
- Publication number
- DE19948974A1 DE19948974A1 DE19948974A DE19948974A DE19948974A1 DE 19948974 A1 DE19948974 A1 DE 19948974A1 DE 19948974 A DE19948974 A DE 19948974A DE 19948974 A DE19948974 A DE 19948974A DE 19948974 A1 DE19948974 A1 DE 19948974A1
- Authority
- DE
- Germany
- Prior art keywords
- tone
- sequence
- note
- sequences
- duration
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10H—ELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
- G10H1/00—Details of electrophonic musical instruments
- G10H1/0033—Recording/reproducing or transmission of music for electrophonic musical instruments
- G10H1/0041—Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
Abstract
Die Erfindung betrifft ein Verfahren zum Erkennen und zum Auswählen einer Tonfolge, insbesondere eines Musikstücks, die es einem Benutzer ermöglicht, ein bestimmtes Musikstück anzufordern, indem er einen Abschnitt des Musikstücks singt, dessen Titel er nicht weiß. Dieses Verfahren zeichnet sich dadurch aus, daß eine zumindest einem Abschnitt der auszuwählenden Tonfolge zumindest teilweise entsprechende Tonfolge eingegeben wird, die Töne der eingegebenen Tonfolge in eine Notenfolge umgesetzt werden, zum Suchen der auszuwählenden Tonfolge deren Notenfolge nacheinander mit entsprechenden Notenfolge einer Vielzahl von Tonfolgen verglichen wird, um Bezeichnungen einer oder mehrerer Tonfolgen zu ermitteln, deren Notenfolge oder -folgen mit der Notenfolge der auszuwählenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. übereinstimmen, und die ermittelten Bezeichnungen als Liste oder Tonfolgen ausgegeben werden, so daß ein Benutzer anhand der Bezeichnungsliste oder Tonfolge die gewünschte Tonfolge auswählen kann.
Description
Die Erfindung betrifft sowohl ein Verfahren zum Erkennen als auch zum
Auswählen einer Tonfolge, insbesondere eines Musikstücks.
Die heutigen Multimediadienste ermöglichen es ihren Benutzern, Musik
stücke, Videoclips und auch graphische Informationen auf entsprechende
Anforderung aus entsprechenden Datenbanken abzurufen, um die ge
wünschten Musikstücke oder dergleichen wiedergeben und/oder spei
chern zu können. Bei weitersteigenden Datenübertragungsgeschwindig
keiten und sinkenden Speicherplatzkosten werden in Zukunft auch Filme
von entsprechenden Anbietern abrufbar sein.
Beispielsweise ist es derzeit im Internet möglich, daß ein Benutzer sich von
einem entsprechenden Anbieter Musiktitel oder dergleichen übertragen
läßt, die dann entweder in einer benutzerseitigen Datenbank gespeichert
oder zum Herstellen einer CD verwendet werden. Eine derartige Anforde
rung von Musikstücken oder dergleichen ist jedoch auch über Mobilfunk
dienste möglich.
Um einen bestimmten Musiktitel zu erhalten, muß der Benutzer den Na
men oder die Bezeichnung des Musikstücks eingeben und an den entspre
chenden Diensteanbieter übertragen. Die Musiktiteldatenbank des Dien
steanbieters wird dann auf das angeforderte Musikstück hin durchsucht
um dieses, falls es in der Datenbank verfügbar ist, zum anfordernden Be
nutzer zu übertragen.
Um einem Benutzer auch dann einen gewünschten Musiktitel liefern zu
können, wenn dieser die Bezeichnung des Musikstücks nicht ganz genau
kennt, werden bei der Suche in der Datenbank des Diensteanbieters auch
assoziative Suchalgorithmen verwendet, die trotz geringer Abweichungen
der eingegebenen Bezeichnung vom tatsächlichen Namen des Musik
stücks dieses identifizieren können oder zumindest eine Auswahl von
mehreren Musikstücken mit ähnlichen Bezeichnungen anbieten.
Möchte jedoch ein Benutzer ein Musikstück anfordern, das ihm sehr gut
gefällt, dessen Titel er jedoch nicht oder allenfalls nur sehr vage kennt, so
ist es für ihn derzeit praktisch unmöglich dieses Musikstück anzufordern.
Davon ausgehend liegt der Erfindung die Aufgabe zugrunde, Verfahren
zum Erkennen und zum Auswählen einer Tonfolge, insbesondere eines
Musikstückes bereitzustellen, die es einem Benutzer ermöglichen, eine
Tonfolge oder ein Musikstück aufzufinden und auszuwählen, dessen Be
zeichnung er nicht kennt.
Diese Aufgabe wird hinsichtlich des Erkennens einer Tonfolge durch das
Verfahren nach Anspruch 1 und hinsichtlich des Auswählens einer Tonfol
ge durch das Verfahren nach Anspruch 2 gelöst. Vorteilhafte Ausgestal
tungen und Weiterbildungen der Erfindung sind in den Unteransprüchen
beschrieben.
Erfindungsgemäß werden also zum Erkennen einer Tonfolge zunächst die
Töne der zu erkennenden Tonfolge in eine Notenfolge umgesetzt, anschlie
ßend wird zum Suchen der zu erkennenden Tonfolge deren Notenfolge
nacheinander mit entsprechenden Notenfolgen einer Vielzahl von Tonfol
gen verglichen und dann werden Bezeichnungen der Tonfolge oder -folgen
ausgegeben, deren Notenfolge bzw. -folgen mit der Notenfolge der zu er
kennenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. überein
stimmen.
Das erfindungsgemäße Verfahren zum Auswählen einer Tonfolge nutzt
dieses Erkennungsverfahren und zeichnet sich dadurch aus, daß eine zu
mindest einem Abschnitt der auszuwählenden Tonfolge zumindest teilwei
se entsprechende Tonfolge eingegeben wird, die Töne der eingegebenen
Tonfolge in eine Notenfolge umgesetzt werden, zum Suchen der auszuwäh
lenden Tonfolge deren Notenfolge nacheinander mit entsprechenden No
tenfolgen einer Vielzahl von Tonfolgen verglichen wird, um Bezeichnungen
einer oder mehrerer Tonfolgen zu ermitteln, deren Notenfolge oder -folgen
mit der Notenfolge der auszuwählenden Tonfolge in vorbestimmter Weise
übereinstimmt, und die ermittelten Bezeichnungen als Liste ausgegeben
werden, so daß ein Benutzer anhand der Bezeichnungsliste die gewünsch
te Tonfolge auswählen kann.
Der Grundgedanke der vorliegenden Erfindung liegt also darin, daß eine
Tonfolge, wie sie sich akustisch dem Benutzer darbietet und von diesem
mehr oder weniger genau reproduziert werden kann, zunächst in eine No
tenfolge, also in eine Darstellung umgesetzt wird, wie sie beispielsweise
auch zum Niederschreiben von Musikstücken verwendet wird, und diese
Darstellung der gewünschten Tonfolge mit entsprechenden Notenfolgen,
die einzelnen Musikstücken in einer Datenbank eines Diensteanbieters
zugeordnet sind, zu vergleichen, so daß der Grad der Übereinstimmung
zwischen der eingegebenen, gewünschten Tonfolge und den Musikstücken
ermittelt werden kann, um dann die Bezeichnungen der Tonfolge oder -fol
gen auszugeben, die mit der gewünschten oder auszuwählenden Tonfolge
in vorbestimmter Weise übereinstimmen.
Die Erfindung ermöglicht es somit einem Benutzer, auch Tonfolgen, insbe
sondere Musikstücke, Videoclips und gegebenenfalls auch Filme über de
ren Soundtrack anzufordern, wenn ihm nur deren Melodie bekannt ist.
Das erfindungsgemäße Verfahren ermöglicht somit eine intuitive Suche in
Datenbanken von Musikstücken oder dergleichen, und erleichtert damit
deren Nutzung.
Bei einer ersten Ausgestaltung der Erfindung ist vorgesehen, daß die in ei
nem Benutzerendgerät eingegebene der auszuwählenden Tonfolge ent
sprechende Tonfolge zu einer Datenbankstation übertragen wird, in der
die Liste der Bezeichnungen einer oder mehrerer der auszuwählenden
Tonfolge ähnlichen Tonfolgen ermittelt wird, und die Bezeichnungsliste
zur Ausgabe an das Benutzerendgerät übertragen wird.
Wird als Benutzerendgerät beispielsweise ein Mobiltelefon benutzt, um
über Funkkanäle ein bestimmtes Musikstück bei einem Diensteanbieter
auszuwählen, so ist es insbesondere im Hinblick auf eine gute Ausnutzung
der Übertragungsstrecke vorteilhaft, wenn die in ein Benutzerendgerät
eingegebene, der auszuwählenden Tonfolge entsprechende Tonfolge im
Benutzerendgerät in eine Notenfolge umgesetzt wird, die Notenfolge zu ei
ner Datenbankstation übertragen wird, in der die Liste der Bezeichnungen
einer oder mehrerer der auszuwählenden Tonfolge ähnlichen Tonfolgen er
mittelt wird, und die Bezeichnungsliste zur Ausgabe an das Benutzerend
gerät übertragen wird.
Um es dem Benutzer zu ermöglichen, auch ein Musikstück, dessen Titel er
überhaupt nicht kennt, auswählen zu können, ist bei einer besonders vor
teilhaften Ausgestaltung der Erfindung vorgesehen, daß zusammen mit je
der Bezeichnung ein für die jeweilige Tonfolge charakteristischer kurzer
Ausschnitt der Tonfolge zur Ausgabe an das Benutzerendgerät übertragen
wird. Dem Benutzer wird somit nicht nur die Bezeichnung der jeweiligen
Tonfolge also der oder die Titel des erkannten Musikstücks oder in Frage
kommender Musikstücke angeboten, sondern es wird ihm auch ermög
licht, einen kurzen charakteristischen Auszug aus dem Musikstück, zum
Beispiel das Grundthema oder den Refrain abzuhören, so daß er aufgrund
der wiedergegebenen charakteristischen Tonfolge seine Auswahl treffen
kann.
Besonders zweckmäßig ist es, wenn bei dem erfindungsgemäßen Verfah
ren die Tonfolge zur Eingabe in das Benutzerendgerät vom Benutzer ge
sungen wird.
Eine besonders vorteilhafte Ausgestaltung des erfindungsgemäßen Ver
fahrens zeichnet sich dadurch aus, daß zum Umsetzen einer Tonfolge in ei
ne Notenfolge für jeden Ton der Tonfolge die Tonhöhenfrequenz fp' und die
Tondauer d' ermittelt wird, und jedem Ton eine musikalische Note entspre
chend seiner Tonhöhenfrequenz fp und eine musikalisch quantisierte No
tendauer d entsprechend einer Tondauerverteilung der Tonfolge zugeord
net wird.
Hierbei ist es zweckmäßig, wenn zur Festlegung der Notendauer der Töne
zunächst der Median der Tondauerverteilung ermittelt wird, und die Ton
dauer des Medians mit der Notendauer einer 1/4-Note gleichgesetzt wird,
sowie jedem Ton durch Vergleich seiner Tondauer mit der ermittelten No
tendauer einer 1/4-Note eine entsprechende musikalische quantisierte
Notendauer zugeordnet wird.
Erfindungsgemäß wird also aus dem zeitlichen Verlauf der Tonhöhenfre
quenz der jeweilige musikalische Ton bzw. die Note, also beispielsweise C,
D, E, F, G, A, H und die Notendauer d ermittelt. Da insbesondere beim Sin
gen der gewünschten Tonfolge die Notendauer d nicht absolut meßbar ist,
wird aus der Tondauerverteilung der Median ermittelt und der Notendauer
einer 1/4-Note gleichgesetzt. Davon ausgehend lassen sich dann Tondau
erintervalle angeben, denen dann die anderen gebräuchlichen Notendau
ern, also insbesondere 1/32, 1/16, 1/8, 1/2 und 1 zugeordnet werden
können.
Für die Durchführung des Vergleichs zur Feststellung eines Übereinstim
mungsgrades in einer Datenverarbeitungsanlage ist es besonders zweck
mäßig, wenn jede Tonfolge durch einen Tonhöhenvektor h, der sich aus
den einzelnen Noten oder musikalischen Tönen zusammensetzt, und ei
nen Tondauervektor d dargestellt wird, der sich aus den musikalischen
quantitierten Notendauern d der einzelnen Töne zusammensetzt.
Um die Notenfolge einer eingegebenen Tonfolge auch dann erfolgreich mit
den Notenfolgen der gespeicherten Musikstücke vergleichen zu können,
wenn die eingegebene Tonfolge bewußt oder unbewußt in eine andere
Stimmlage transponiert wurde, ist bei einer zweckmäßigen Weiterbildung
der Erfindung vorgesehen, daß zum Feststellen eines Übereinstimmungs
faktors Fi,l zwischen einer eingegebenen und einer gespeicherten Tonfolge
die Differenz der Tonhöhen h und Tondauern d der jeweiligen Notenfolgen
miteinander verglichen werden.
Eine praktische Ausgestaltung der Erfindung zeichnet sich dadurch aus,
daß beim Vergleich der Notenfolgen einer eingegebenen und einer gespei
cherten Tonfolge die Notenfolge der eingegebenen Tonfolge nacheinander
mit entsprechenden Teil-Notenfolgen der gespeicherten Tonfolgen vergli
chen wird, um jeweils einen Übereinstimmungsfaktor fi (x) zu ermitteln
und daß der den höchsten Übereinstimmungsgrad anzeigenden Überein
stimmungsfaktor Fi,l = fi (xl) der gespeicherten Tonfolge als Übereinstim
mungsfaktor zugeordnet wird.
Für die Durchführung der Erfindung mittels Datenverarbeitungsanlagen
ist es besonders zweckmäßig, wenn als Übereinstimmungsfaktor der
kleinste Wert einer Funktion fi (x) ermittelt wird, die durch die folgende
Gleichung gegeben ist:
wobei α und β Gewichtsfaktoren sind, für die gilt: 0 < α, β und a + β = l; h (l)
die Tonhöhe des l-ten Tons einer eingegebenen Tonfolge, mh der Median
der Tonhöhen der eingegebenen Tonfolge, d (1) die Tondauer des l-ten Tons
einer eingegebenen Tonfolge, md der Median der Tondauern der eingegebe
nen Tonfolge, hi (x) die Tonhöhe des x-ten Tons einer gespeicherten Tonfol
ge, di (x) die Tondauer des x-ten Tons dieser eingespeicherten Tonfolge,
mhi (x) der Median der Tonhöhen im Intervall hi (x) bis hi (x + N - l), mdi (x)
der Median der Tondauern im Intervall di (x) bis di (x + N - l).
Um dem Benutzer die Auswahl des gesuchten Musikstücks weiter zu er
leichterten, ist bei einer zweckmäßigen Weiterbildung der Erfindung vor
gesehen, daß die auszugebenden Bezeichnungen der Tonfolgen entspre
chend einem Übereinstimmungsgrad zwischen den zugehörigen gespei
cherten Tonfolgen und der eingegebenen Tonfolge sortiert werden und daß
die Ausgabe mit der Bezeichnung beginnt, deren Tonfolge der eingegebe
nen Tonfolge am ähnlichsten ist, wobei nur Bezeichnungen solcher Tonfol
gen ausgegeben werden, deren Übereinstimmungsgrad größer als ein vor
gegebener Wert ist.
Eine besonders vorteilhafte Ausgestaltung der Erfindung zeichnet sich da
durch aus, daß die Notenfolgen der Vielzahl von Tonfolgen zusammen mit
entsprechenden Bezeichnungen der Tonfolgen in einer Datenbankdatei
gespeichert sind, wobei zusammen mit den in der Datenbankdatei gespei
cherten Notenfolgen kurze charakteristische Ausschnitte der jeweiligen
Tonfolgen gespeichert sind.
Erfindungsgemäß wird also eine besondere Datenbankdatei bereitgestellt,
in der die Notenfolgen der in einer Datenbank zur Verfügung stehenden
Musikstücke Zusammen mit entsprechenden Bezeichnungen, also mit den
Titeln der Musikstücke, gespeichert sind, so daß bei dem Vergleich der No
tenfolge der eingegebenen Tonfolge die Notenfolgen der Musikstücke nicht
jedesmal neu erzeugt werden müssen, so daß die Suche nach dem ge
wünschten Musikstück wesentlich vereinfacht und beschleunigt werden
kann. Neben der Bezeichnung des Musikstücks kann in dieser besonderen
Datenbankdatei auch jeder Notenfolge noch ein kurzer charakteristischer
Ausschnitt des jeweiligen Musikstücks zugeordnet sein, zum Beispiel im
MIDI-Format, so daß auf die Datenbankdatei, in der Musikstücke als sol
che gespeichert sind, erst zugegriffen zu werden braucht, wenn der Benut
zer sich für ein konkretes Musikstück entschieden hat.
Die Erfindung wird im folgenden beispielsweise unter Bezugnahme auf die
Zeichnung näher erläutert. Es zeigen:
Fig. 1 ein schematisches Blockschaltbild eines Kommunikationssy
stems zur Durchführung der erfindungsgemäßen Verfahren,
Fig. 2 den zeitlichen Verlauf einer geglätteten Tonhöhenfrequenz und
Fig. 3 den zeitlichen Verlauf einer entsprechend dem musikalischen No
ten oder Tönen quantisierten Tonhöhenfrequenz.
Fig. 1 zeigt beispielsweise ein Kommunikationssystem, bei dem ein Be
nutzer mit Hilfe eines Benutzerendgeräts, das beispielsweise als Mobilte
lefon 10 ausgebildet ist, über eine Übertragungsstrecke 11 mit einer Da
tenbankstation 12 eines Diensteanbieters, die eine Musikstückdatenbank
13 umfaßt, kommunizieren kann, um Musikstücke, Videoclips und gege
benenfalls Filme oder dergleichen geliefert zu bekommen.
Das Mobiltelefon 10 besitzt in üblicher Weise ein Mikrofon 14 zur Sprach-
und Toneingabe, dessen Ausgang über einen Analog/Digital-Wandler 15
an eine zentrale Verarbeitungsschaltung 16 angelegt ist. Die zentrale Ver
arbeitungsschaltung 16, die beispielsweise als Mikroprozessor ausgebil
det sein kann, gibt an die Datenbankstation 12 des Diensteanbieters zu
übertragende Daten an eine Sende- und Empfangseinheit 17 aus, an die ei
ne Sende- und Empfangsantenne 18 angeschlossen ist, um Informationen
über die Übertragungsstrecke 11 zu senden und von dieser zu empfangen.
Die Datenbankstation 12 des Diensteanbieters weist eine Sende- und
Empfangseinheit 19 mit einer Sende- und Empfangsantenne 20 auf, um
Daten von bzw. über die Übertragungsstrecke 11 empfangen bzw. senden
zu können. Die Sende- und Empfangseinheit 19 ist mit einer zentralen Ver
arbeitungsschaltung 21 verbunden, die auf die Musikstückdatenbank 13
zugreifen kann, um ein angefordertes Musikstück zu dem Mobiltelefon 10
zu übertragen.
Für die Erkennung von Musikstücken ist eine Datenbankdatei 22 vorgese
hen, in der zusammen mit den Bezeichnungen oder Titeln der einzelnen
Musikstücke in der Musikstückdatenbank 13 den Musikstücken entspre
chende Notenfolgen gespeichert sind. Zusammen mit den Bezeichnungen
und Notenfolgen der Musikstücke können dabei noch charakteristische
Ausschnitte aus den Musikstücken gespeichert sein.
Zur akustischen und optischen Ausgabe von Information weist das Mobil
telefon 10 einen Lautsprecher 23 und eine Anzeigevorrichtung 24 auf, die
über entsprechende Treiberschaltungen 25 bzw. 26 mit der zentralen Ver
arbeitungsschaltung 16 verbunden sind.
Um ein bestimmtes Musikstück von einem Diensteanbieter anzufordern,
gibt der Benutzer zunächst einen Ausschnitt des auszuwählenden bzw.
gewünschten Musikstücks ein, in dem er einfach die ihm bekannte Melo
die in das Mikrofon 14 singt. Die vom Mikrofon aufgezeichnete menschli
che Stimme wird über den Analog/Digital-Wandler 15 digitalisiert und an
die zentrale Verarbeitungsschaltung 16 geliefert, die somit den digitali
sierten Frequenzverlauf der menschlichen Stimme empfängt.
Aus dem digitalisierten Frequenzverlauf der menschlichen Stimme wird
mit Hilfe eines Tonhöhendetektors in der zentralen Verarbeitungsschal
tung 16 der zeitliche Verlauf der Tonhöhenfrequenz der in das Mikrofon 14
gesungenen Tonfolge ermittelt. Als Tonhöhendetektor dient dabei bei
spielsweise der sogenannte SIFT (Simplified inverse filter tracking) Algo
rithmus, der besonders gut für relativ hohe Frauenstimmen geeignet ist,
oder die sogenannte Cepstrum Tonhöhenabschätzung (Cepstrum pitch
estimation) die sich für relativ tiefe männliche Stimmen eignet. Diese Ver
fahren sind dem zuständigen Fachmann vertraut und beispielsweise in
dem Lehrbuch "Voice and Speech Processing", Thomas W. Parsons, New
York, 1986, McGraw-Hill Book Company, erläutert.
Der ermittelte Verlauf der Tonhöhenfrequenz fp wird dann mit Hilfe eines
geeignete Filters geglättet. Hierbei wird insbesondere ein Medianfilter ver
wendet, bei dem ein Filterfenster über die zu glättende Tonhöhenfrequenz
kurve gleitet, um jeweils den Wert im Zentrum des Fensters durch den Me
dian aller Werte im Fenster zu ersetzen. Eine derartige Medianfilterung ist
ebenfalls bekannt und in dem obengenannten Lehrbuch erläutert.
Nach dem Glätten ergibt sich ein Verlauf der Tonhöhenfrequenz fp, wie er
in Fig. 2 rein schematisch angedeutet ist. Somit liegt also ein geglätteter
Verlauf der Tonhöhenfrequenzen der gesungenen Tonfolge über der Zeit
vor, die im Idealfall mit dem Verlauf der Melodie im Frequenzbereich koin
zidiert.
Da jedoch durch bewußtes und unbewußtes Transponieren der Melodie
beim Singen durch den Benutzer sowie durch Rhythmus- und Tempounter
schiede Fehler oder Abweichungen der gesungenen Melodie von der ge
wünschten Melodie auftreten, wird der in Fig. 2 gezeigte Verlauf der Ton
höhenfrequenzen entsprechend den Frequenzen der musikalischen Töne
oder Noten quantisiert, so daß sich der in Fig. 3 gezeigte quantisierte Ver
lauf der Tonhöhenfrequenzen fp über der Zeit ergibt. Fig. 3 zeigt dabei
beispielsweise fünf verschiedene Töne mit unterschiedlichen Tondauern,
denen jeweils ein bestimmter musikalischer Ton oder eine Note sowie eine
bestimmte Tondauer zugeordnet werden können.
Nach der Quantisierung des Verlaufs der Tonhöhenfrequenz läßt sich die
eingegebene, gesungene Tonfolge in eine bestimmte Anzahl N von Einzeltö
nen zerlegen. Jedem dieser Einzeltöne ist dabei ein musikalischer Ton ent
sprechend der musikalischen Skala zugeordnet. Ferner besitzt jeder der
Einzeltöne eine bestimmte Tondauer, aus der sich eine entsprechende No
tendauer ermitteln läßt.
Jeder Ton zeichnet sich also durch zwei Größen aus, nämlich durch die
Tonhöhe oder Tonhöhenfrequenz, die durch den entsprechenden musika
lischen Ton bzw. die entsprechende Note bezeichnet wird, und durch die
Tondauer, die in noch zu beschreibender Weise entsprechend der musika
lischen Notendauer quantisiert wird. Damit läßt sich jede Tonfolge aus N
Tönen durch einen Tonhöhenvektor h = (h1, h2, . . . hn)T und durch einen
Tondauervektor d = (d1, d2, . . . dN)T beschreiben. Die Werte h1 können da
bei einfach ganze Zahlen sein, die entsprechend der folgenden Tabelle die
jeweiligen musikalischen Töne oder Noten repräsentieren.
In entsprechender Weise kann jeder Notendauer 1/32, 1/16, 1/8, 1/4,
1/2, 1 eine entsprechende Zahl zugeordnet werden, wobei zweckmäßiger
Weise für die kürzeste Note die Dauer 1 gesetzt wird. Eine 1/4-Note erhält
dann die Dauer 8, eine 1/2-Note die Dauer 16 und die ganze Note die Dauer
32. Um den einzelnen Tondauern eine musikalische Notendauer zuordnen
zu können, wird der Median der Tondauerverteilung ermittelt und gleich
einer 1/4-Note gesetzt. Ausgehend von dem Median werden dann Zeitin
tervalle festgelegt, die den einzelnen Notendauern entsprechen.
Die gesungene Tonfolge liegt nunmehr als Notenfolge vor, die sich durch
zwei äußerst einfache Vektoren beschreiben lassen.
Die Umsetzung der Tonfolge in die die Notenfolge beschreibenden Vekto
ren kann dabei in der zentralen Verarbeitungsschaltung 21 der Daten
bankstation 12 des Diensteanbieters durchgeführt werden. Um jedoch die
Übertragungsstrecke 11 möglichst wenig zu belasten, um also die entspre
chenden Sendekanäle möglichst wenig zu blockieren, wird diese Umset
zung bereits im Mobiltelefon 10 von der zentralen Verarbeitungsschaltung
16 vorgenommen, so daß nur der Tonhöhenvektor und der Notendauervek
tor zur Datenbankstation 12 des Diensteanbieters übertragen zu werden
brauchen.
In der Datenbankstation 12 sind in der Datenbankdatei 22 die Musik
stücke als Notenfolgen gespeichert, die ebenfalls durch einen entspre
chenden Tonhöhenvektor hi = (hi1, hi2, . . . hix, . . . hiM) und Tondauervek
toren di = (di1, di2, . . . dix, . . . diM) beschrieben werden. Der Index i bezeich
net dabei das jeweilige Musikstück und M die Anzahl der Töne oder Noten.
Um auch bewußt oder unbewußt transponierte eingegebene Tonfolgen mit
den Musikstücken vergleichen zu können, werden nicht die jeweiligen No
tenfolgen unmittelbar miteinander verglichen, sondern nur der Relativ
verlauf innerhalb der beiden Notenfolgen. Hierzu werden jeweils die Diffe
renzen zwischen den einzelnen Tonhöhen miteinander verglichen. Es wird
also für jede Notenfolge der Median festgestellt, um den Abstand der ein
zelnen Töne vom Median zu ermitteln und mit dem Abstand des entspre
chenden anderen Tons der anderen Notenfolge von deren Median zu ver
gleichen. Da die Notenfolge des Musikstücks typischerweise wesentlich
länger ist, als die Notenfolge, die beispielsweise durch Singen eingegeben
wurde, wird für die Notenfolge des Musikstücks jeweils der Median eines
entsprechenden Teilabschnitts dieser Notenfolge verwendet.
Beim praktischen Vergleich der Notenfolge einer eingegebenen Tonfolge
mit den Notenfolgen der Musikstücke wird eine Funktion fi (x) berechnet,
deren Verlauf anzeigt, wie die Notenfolge der eingegebenen Tonfolge mit
den einzelnen Abschnitten übereinstimmt. Diese Abweichungsfunktion
errechnet sich nach der folgenden Gleichung:
Hierbei sind α und β Gewichtsfaktoren, die den Einfluß der Melodie bzw.
des Rhythmus auf den Übereinstimmungsfaktor beschreiben. Für α und β
gilt dabei: 0 < α, β; α + β = 1. hi (x) und di (x) bezeichnen die Tonhöhe und die
Tondauer des x-ten Tons im Vektor hi bzw. di. mhi (x) und mdi (x) bezeich
nen jeweils den Median der Tonhöhen bzw. Tondauern im Intervall von hi
(x) bis hi (x + N - 1) bzw. di (x) bis di (x + N - 1). h (1) und d (1) bezeichnen die
Tonhöhe bzw. Tondauer des l-ten Tons im Vektor h bzw. d. In entsprechen
der Weise bezeichnen mh und md den Median der Tonhöhen bzw. Tondau
ern im Vektor h bzw. im Vektor d.
Sowohl für die Tonhöhen als auch für die Tondauern wird jeweils die Sum
me der Differenzen zwischen den jeweiligen Abständen zum entsprechen
den Median berechnet, die im Idealfall, wenn also die Notenfolgen exakt
übereinander passen, gleich 0 wird.
Nachdem die Funktion fi (x) für alle Werte x berechnet wurde, wenn also
die Notenfolge der eingegebenen Tonfolge mit sämtlichen möglichen Ab
schnitten der Notenfolge eines Musikstücks in der durch die obige Glei
chung beschriebene Weise verglichen wurde, wird der kleinste Wert der
Funktion fi (x) festgestellt. Der zugehörige Wert xl beschreibt somit den
Abschnitt der Notenfolge der den vom Benutzer gesungenen Abschnitt des
Musikstücks (möglicherweise) entspricht. Der zugehörige Wert der Funk
tion fi (x) wird dann als Abweichungsfaktor Fi,l = fi (xl) gespeichert.
Sobald die Notenfolge der eingegebenen Tonfolge mit sämtlichen Notenfol
gen der einzelnen Musikstücke verglichen wurde, werden die Bezeichnun
gen oder Titel der Musikstücke entsprechend den ermittelten Überein
stimmungsfaktoren Fi,l sortiert, wobei mit dem die höchste Übereinstim
mung bezeichnenden kleinsten Abweichungsfaktor begonnen wird.
Um anschließend dem Benutzer die Musikstücke in der ermittelten Rei
henfolge zu präsentieren, werden diese von der Datenbankstation 12 zum
Mobiltelefon 10 übertragen, wo die Titel auf der Anzeigevorrichtung 24 an
gezeigt werden während charakteristische Ausschnitte der Musikstücke
über den Lautsprecher 23 ausgegeben werden können. Hierbei wird
zweckmäßigerweise die Anzahl der übertragenen Bezeichnungen be
grenzt. Die Begrenzung kann dabei im einfachsten Falle dadurch erfolgen,
daß nur, je nach Anzeige- und Speicherkapazität dem Mobiltelefon eine
begrenzte feste Anzahl von Titeln der Musikstücke übertragen wird. Es ist
jedoch auch möglich, die Begrenzung im Hinblick auf den Abweichungs
faktor vorzunehmen, so daß nur Titel von Musikstücken zum Mobiltelefon
übertragen und dem Benutzer angezeigt werden, deren Abweichungsfak
tor einen vorbestimmten Schwellwert nicht übersteigt. Ein derartiger
Schwellwert kann allgemein festgelegt oder entsprechend der Abwei
chungsfaktorverteilung ermittelt werden.
Die vorliegende Erfindung ermöglicht somit die Erkennung von Musik
stücken in der Datenbankstation eines Diensteanbieters, wobei ein Be
nutzer nur einen Teil eines gewünschten Musikstücks singt, wenn ihm der
Titel dieses Liedes oder Musikstücks nicht bekannt ist. Nach der Erken
nung des Musikstücks, oder einer Reihe von möglichen Musikstücken
wird oder werden der bzw. die Titel gegebenenfalls zusammen mit charak
teristischen Ausschnitten der Musikstücke zum Benutzer übertragen, so
daß dieser daraus das gewünschte Musikstück auswählen kann. Nach der
Auswahl wird dann das komplette Musikstück über elektronische Kom
munikationswege (Internet, zellulares Mobiltelefonnetz, wie im beschrie
benen Ausführungsbeispiel, oder ähnliches) zugesandt und der Benutzer
kann sich das Musikstück dauerhaft auf einem geeigneten Speichermedi
um (CD, Speicherbaustein, Magnetband usw.) abspeichern und abspielen.
Für den Vergleich der eingegebenen Tonfolge, also eines gesungenen Ab
schnitts des gewünschten Musikstücks mit den Musikstücken in der Da
tenbankstation des Dienstanbieters ist in der Datenbankstation 12 eine
gesonderte Datenbankdatei 22 vorgesehen, in der die Titel bzw. Bezeich
nungen der einzelnen Musikstücke mit den zugeordneten Notenfolgen ge
speichert sind, so daß das Auffinden der gewünschten Musikstücke we
sentlich erleichtert und die Erkennung beschleunigt ist.
Claims (16)
1. Verfahren zum Erkennen einer Tonfolge insbesondere eines Musik
stücks, bei dem
- - die Töne der zu erkennenden Tonfolge in eine Notenfolge umgesetzt werden,
- - zum Suchen der zu erkennenden Tonfolge deren Notenfolge nach einander mit entsprechenden Notenfolgen einer Vielzahl von Tonfolgen verglichen wird, und
- - Bezeichnungen der Tonfolge oder -folgen ausgegeben werden, deren Notenfolge bzw. -folgen mit der Notenfolge der zu erkennenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. übereinstimmen.
2. Verfahren zum Auswählen einer Tonfolge, insbesondere eines Musik
stücks, bei dem
- - eine zumindest einem Abschnitt der auszuwählenden Tonfolge zu mindest teilweise entsprechende Tonfolge eingegeben wird,
- - die Töne der eingegebenen Tonfolge in eine Notenfolge umgesetzt werden,
- - zum Suchen der auszuwählenden Tonfolge deren Notenfolge nach einander mit entsprechenden Notenfolgen einer Vielzahl von Tonfolgen verglichen wird, um Bezeichnungen einer oder mehrerer Tonfolgen zu er mitteln, deren Notenfolge oder -folgen mit der Notenfolge der auszuwäh lenden Tonfolge in vorbestimmter Weise übereinstimmt bzw. übereinstim men, und
- - die ermittelten Bezeichnungen als Liste ausgegeben werden, so daß ein Benutzer anhand der Bezeichnungsliste die gewünschte Tonfolge aus wählen kann.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die in ei
nem Benutzerendgerät (10) eingegebene, der auszuwählenden Tonfolge
entsprechende Tonfolge zu einer Datenbankstation (12) übertragen wird,
in der die Liste der Bezeichnungen einer oder mehrerer der auszuwählen
den Tonfolge ähnlichen Tonfolgen ermittelt wird, und
- - die Bezeichnungsliste zur Ausgabe an das Benutzerendgerät (10) übertragen wird.
4. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß die in ein
Benutzerendgerät (10) eingegebene, der auszuwählenden Tonfolge ent
sprechende Tonfolge im Benutzerendgerät (10) in eine Notenfolge umge
setzt wird, die Notenfolge zu einer Datenbankstation (12) übertragen wird,
in der die Liste der Bezeichnungen einer oder mehrerer der auszuwählen
den Tonfolge ähnlichen Tonfolgen ermittelt wird, und
- - die Bezeichnungsliste zur Ausgabe an das Benutzerendgerät (10) übertragen wird.
5. Verfahren nach Anspruch 3 oder 4, dadurch gekennzeichnet, daß zu
sammen mit jeder Bezeichnung ein für die jeweilige Tonfolge charakteristi
scher kurzer Ausschnitt der Tonfolge zur Ausgabe an das Benutzerendge
rät (10) übertragen wird.
6. Verfahren nach Anspruch 2 bis 5, dadurch gekennzeichnet, daß die
Tonfolge zur Eingabe in das Benutzerendgerät (10) vom Benutzer gesun
gen wird.
7. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge
kennzeichnet, daß zum Umsetzen einer Tonfolge in eine Notenfolge
- - für jeden Ton der Tonfolge die Tonhöhenfrequenz fp und die Tondau er ermittelt wird, und
- - jedem Ton eine musikalische Note entsprechend seiner Tonhöhen frequenz fp und eine musikalisch quantisierte Notendauer entsprechend einer Tondauerverteilung der Tonfolge zugeordnet wird.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß zur Fest
legung der Notendauer der Töne zunächst der Median der Tondauervertei
lung ermittelt wird, und die Tondauer des Medians mit der Notendauer ei
ner 1/4-Note gleichgesetzt wird, sowie jedem Ton durch Vergleich seiner
Tondauer mit der ermittelten Notendauer einer 1/4-Note eine entspre
chende musikalische quantisierte Notendauer (1/32, 1/16, 1/8, 1/4, 1/2,
1) zugeordnet wird.
9. Verfahren nach Anspruch 7 oder S. dadurch gekennzeichnet, daß je
de Tonfolge durch einen Tonhöhenvektor h, der sich aus den einzelnen No
ten oder musikalischen Tönen zusammensetzt, und einen Tondauervektor
d dargestellt wird, der sich aus den musikalischen quantisierten Noten
dauern der einzelnen Töne zusammensetzt.
10. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge
kennzeichnet, daß zum Feststellen eines Abweichungsfaktors Fi,l zwi
schen einer eingegebenen und einer gespeicherten Tonfolge die Differenz
der Tonhöhen und Tondauern der jeweiligen Notenfolgen miteinander ver
glichen werden.
11. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge
kennzeichnet, daß beim Vergleich der Notenfolgen einer eingegebenen und
einer gespeicherten Tonfolge die Notenfolge der eingegebenen Tonfolge
nacheinander mit entsprechenden Teil-Notenfolgen der gespeicherten
Tonfolgen verglichen wird, um jeweils einen Abweichungsfaktor fi (x) zu er
mitteln und daß der den höchsten Übereinstimmungsgrad anzeigende
kleinste Abweichungsfaktor Fi,l = fi (xl) der gespeicherten Tonfolge als Ab
weichungsfaktor zugeordnet wird.
12. Verfahren nach Anspruch 10 und 11, dadurch gekennzeichnet, daß
als Abweichungsfaktor der kleinste Wert einer Funktion fi (x) ermittelt
wird, die durch die folgende Gleichung gegeben ist:
wobei α und β Gewichtsfaktoren sind, für die gilt: 0 < α, β und α + β = 1; h (l) die Tonhöhe des l-ten Tons einer eingegebenen Tonfolge, mh der Median der Tonhöhen der eingegebenen Tonfolge, d (l) die Tondauer des l-ten Tons einer eingegebenen Tonfolge, md der Median der Tondauern der eingegebe nen Tonfolge, hi (x) die Tonhöhe des x-ten Tons einer gespeicherten Tonfol ge, di (x) die Tondauer des x-ten Tons dieser eingespeicherten Tonfolge, mhi (x) der Median der Tonhöhen im Intervall hi (x) bis hi (x + N - 1), mdi (x) der Median der Tondauern im Intervall di (x) bis di (x + N - 1).
wobei α und β Gewichtsfaktoren sind, für die gilt: 0 < α, β und α + β = 1; h (l) die Tonhöhe des l-ten Tons einer eingegebenen Tonfolge, mh der Median der Tonhöhen der eingegebenen Tonfolge, d (l) die Tondauer des l-ten Tons einer eingegebenen Tonfolge, md der Median der Tondauern der eingegebe nen Tonfolge, hi (x) die Tonhöhe des x-ten Tons einer gespeicherten Tonfol ge, di (x) die Tondauer des x-ten Tons dieser eingespeicherten Tonfolge, mhi (x) der Median der Tonhöhen im Intervall hi (x) bis hi (x + N - 1), mdi (x) der Median der Tondauern im Intervall di (x) bis di (x + N - 1).
13. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge
kennzeichnet, daß die auszugebenden Bezeichnungen der Tonfolgen ent
sprechend einem Übereinstimmungsgrad zwischen den zugehörigen ge
speicherten Tonfolgen und der eingegebenen Tonfolge sortiert werden und
daß die Ausgabe mit der Bezeichnung beginnt, deren Tonfolge der eingege
benen Tonfolge am ähnlichsten ist.
14. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge
kennzeichnet, daß nur Bezeichnungen solcher Tonfolgen ausgegeben wer
den, deren Übereinstimmungsgrad größer als sein vorgegebener Wert ist.
15. Verfahren nach einem der vorstehenden Ansprüche, dadurch ge
kennzeichnet, daß die Notenfolgen der Vielzahl von Tonfolgen zusammen
mit entsprechenden Bezeichnungen der Tonfolgen in einer Datenbankda
tei (22) gespeichert sind.
16. Verfahren nach Anspruch 15, dadurch gekennzeichnet, daß zusam
men mit den in der Datenbankdatei (22) gespeicherten Notenfolgen kurze
charakteristische Ausschnitte der jeweiligen Tonfolgen gespeichert sind.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19948974A DE19948974A1 (de) | 1999-10-11 | 1999-10-11 | Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks |
EP00120872A EP1093109A1 (de) | 1999-10-11 | 2000-09-25 | Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks |
US09/686,425 US6437227B1 (en) | 1999-10-11 | 2000-10-11 | Method for recognizing and selecting a tone sequence, particularly a piece of music |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19948974A DE19948974A1 (de) | 1999-10-11 | 1999-10-11 | Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks |
Publications (1)
Publication Number | Publication Date |
---|---|
DE19948974A1 true DE19948974A1 (de) | 2001-04-12 |
Family
ID=7925254
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE19948974A Withdrawn DE19948974A1 (de) | 1999-10-11 | 1999-10-11 | Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks |
Country Status (3)
Country | Link |
---|---|
US (1) | US6437227B1 (de) |
EP (1) | EP1093109A1 (de) |
DE (1) | DE19948974A1 (de) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10117871C1 (de) * | 2001-04-10 | 2002-07-04 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Extrahieren einer Signalkennung, Verfahren und Vorrichtung zum Erzeugen einer Datenbank aus Signalkennungen und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals |
DE10133333C1 (de) * | 2001-07-10 | 2002-12-05 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Erzeugen eines Fingerabdrucks und Verfahren und Vorrichtung zum Identifizieren eines Audiosignals |
DE102005062677A1 (de) * | 2005-12-23 | 2007-06-28 | Kramer, Tobias | System und ein Verfahren zum Verwalten von Musik-Daten |
Families Citing this family (73)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7174293B2 (en) * | 1999-09-21 | 2007-02-06 | Iceberg Industries Llc | Audio identification system and method |
US8412377B2 (en) | 2000-01-24 | 2013-04-02 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US8788092B2 (en) | 2000-01-24 | 2014-07-22 | Irobot Corporation | Obstacle following sensor scheme for a mobile robot |
US6956348B2 (en) | 2004-01-28 | 2005-10-18 | Irobot Corporation | Debris sensor for cleaning apparatus |
GB2384596A (en) | 2000-10-23 | 2003-07-30 | Ntt Comm Corp | Musical composition recognition method and system, storage medium where musical composition program is stored, commercial recognition method and system, |
US20020072982A1 (en) * | 2000-12-12 | 2002-06-13 | Shazam Entertainment Ltd. | Method and system for interacting with a user in an experiential environment |
US6690134B1 (en) | 2001-01-24 | 2004-02-10 | Irobot Corporation | Method and system for robot localization and confinement |
US7571511B2 (en) | 2002-01-03 | 2009-08-11 | Irobot Corporation | Autonomous floor-cleaning robot |
US7429843B2 (en) | 2001-06-12 | 2008-09-30 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US8396592B2 (en) | 2001-06-12 | 2013-03-12 | Irobot Corporation | Method and system for multi-mode coverage for an autonomous robot |
US7027983B2 (en) * | 2001-12-31 | 2006-04-11 | Nellymoser, Inc. | System and method for generating an identification signal for electronic devices |
US9128486B2 (en) | 2002-01-24 | 2015-09-08 | Irobot Corporation | Navigational control system for a robotic device |
AU2003202728A1 (en) * | 2002-02-06 | 2003-09-02 | Koninklijke Philips Electronics N.V. | Fast hash-based multimedia object metadata retrieval |
US6967275B2 (en) * | 2002-06-25 | 2005-11-22 | Irobot Corporation | Song-matching system and method |
DE10232916B4 (de) * | 2002-07-19 | 2008-08-07 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals |
US8428778B2 (en) | 2002-09-13 | 2013-04-23 | Irobot Corporation | Navigational control system for a robotic device |
US8386081B2 (en) | 2002-09-13 | 2013-02-26 | Irobot Corporation | Navigational control system for a robotic device |
US7222071B2 (en) * | 2002-09-27 | 2007-05-22 | Arbitron Inc. | Audio data receipt/exposure measurement with code monitoring and signature extraction |
CN1703734A (zh) * | 2002-10-11 | 2005-11-30 | 松下电器产业株式会社 | 从声音确定音符的方法和装置 |
WO2004049240A1 (en) * | 2002-11-28 | 2004-06-10 | Nokia Corporation | Method and device for determining and outputting the similarity between two data strings |
US20040154461A1 (en) * | 2003-02-07 | 2004-08-12 | Nokia Corporation | Methods and apparatus providing group playing ability for creating a shared sound environment with MIDI-enabled mobile stations |
US8615157B1 (en) | 2003-11-17 | 2013-12-24 | David C. Isaacson | System and method for on-demand storage of randomly selected data |
US8588582B2 (en) * | 2003-11-17 | 2013-11-19 | Diana Lynn Fitzgerald | System and method for on-demand storage of randomly selected data |
US7332890B2 (en) | 2004-01-21 | 2008-02-19 | Irobot Corporation | Autonomous robot auto-docking and energy management systems and methods |
KR20050087368A (ko) * | 2004-02-26 | 2005-08-31 | 엘지전자 주식회사 | 무선 단말기의 벨소리 처리 장치 |
EP1571647A1 (de) * | 2004-02-26 | 2005-09-07 | Lg Electronics Inc. | Vorrichtung und Verfahren zur Bearbeitung von Klingelton |
KR100636906B1 (ko) * | 2004-03-22 | 2006-10-19 | 엘지전자 주식회사 | 미디 재생 장치 그 방법 |
WO2005098476A1 (en) | 2004-03-29 | 2005-10-20 | Evolution Robotics, Inc. | Method and apparatus for position estimation using reflected light sources |
US7325013B2 (en) * | 2004-04-15 | 2008-01-29 | Id3Man, Inc. | Database with efficient fuzzy matching |
US20060009879A1 (en) | 2004-06-24 | 2006-01-12 | Lynch James K | Programming and diagnostic tool for a mobile robot |
US7706917B1 (en) | 2004-07-07 | 2010-04-27 | Irobot Corporation | Celestial navigation system for an autonomous robot |
US8972052B2 (en) | 2004-07-07 | 2015-03-03 | Irobot Corporation | Celestial navigation system for an autonomous vehicle |
ATE523130T1 (de) | 2005-02-18 | 2011-09-15 | Irobot Corp | Selbstfahrender flächenreinigungsroboter für nass-und trockenreinigung |
US8392021B2 (en) | 2005-02-18 | 2013-03-05 | Irobot Corporation | Autonomous surface cleaning robot for wet cleaning |
US7620476B2 (en) | 2005-02-18 | 2009-11-17 | Irobot Corporation | Autonomous surface cleaning robot for dry cleaning |
US8930023B2 (en) | 2009-11-06 | 2015-01-06 | Irobot Corporation | Localization by learning of wave-signal distributions |
KR101300492B1 (ko) * | 2005-12-02 | 2013-09-02 | 아이로보트 코퍼레이션 | 커버리지 로봇 이동성 |
EP2816434A3 (de) | 2005-12-02 | 2015-01-28 | iRobot Corporation | Roboter mit autonomem Wirkungsbereich |
US8584305B2 (en) | 2005-12-02 | 2013-11-19 | Irobot Corporation | Modular robot |
EP2065774B1 (de) | 2005-12-02 | 2013-10-23 | iRobot Corporation | Roboternavigationssystem mit autonomer Abdeckung |
EP2533120B1 (de) | 2005-12-02 | 2019-01-16 | iRobot Corporation | Robotersystem |
US7459624B2 (en) | 2006-03-29 | 2008-12-02 | Harmonix Music Systems, Inc. | Game controller simulating a musical instrument |
EP2548489B1 (de) | 2006-05-19 | 2016-03-09 | iRobot Corporation | Müllentfernung aus Reinigungsrobotern |
US8417383B2 (en) | 2006-05-31 | 2013-04-09 | Irobot Corporation | Detecting robot stasis |
EP3031375B1 (de) | 2007-05-09 | 2021-11-03 | iRobot Corporation | Kompakter roboter mit autonomer reichweite |
US8690670B2 (en) | 2007-06-14 | 2014-04-08 | Harmonix Music Systems, Inc. | Systems and methods for simulating a rock band experience |
US8678896B2 (en) | 2007-06-14 | 2014-03-25 | Harmonix Music Systems, Inc. | Systems and methods for asynchronous band interaction in a rhythm action game |
US20100304811A1 (en) * | 2009-05-29 | 2010-12-02 | Harmonix Music Systems, Inc. | Scoring a Musical Performance Involving Multiple Parts |
US20100304810A1 (en) * | 2009-05-29 | 2010-12-02 | Harmonix Music Systems, Inc. | Displaying A Harmonically Relevant Pitch Guide |
US8080722B2 (en) * | 2009-05-29 | 2011-12-20 | Harmonix Music Systems, Inc. | Preventing an unintentional deploy of a bonus in a video game |
US7982114B2 (en) * | 2009-05-29 | 2011-07-19 | Harmonix Music Systems, Inc. | Displaying an input at multiple octaves |
US7935880B2 (en) | 2009-05-29 | 2011-05-03 | Harmonix Music Systems, Inc. | Dynamically displaying a pitch range |
US7923620B2 (en) * | 2009-05-29 | 2011-04-12 | Harmonix Music Systems, Inc. | Practice mode for multiple musical parts |
US8076564B2 (en) * | 2009-05-29 | 2011-12-13 | Harmonix Music Systems, Inc. | Scoring a musical performance after a period of ambiguity |
US8017854B2 (en) * | 2009-05-29 | 2011-09-13 | Harmonix Music Systems, Inc. | Dynamic musical part determination |
US8026435B2 (en) * | 2009-05-29 | 2011-09-27 | Harmonix Music Systems, Inc. | Selectively displaying song lyrics |
US8465366B2 (en) | 2009-05-29 | 2013-06-18 | Harmonix Music Systems, Inc. | Biasing a musical performance input to a part |
US8449360B2 (en) | 2009-05-29 | 2013-05-28 | Harmonix Music Systems, Inc. | Displaying song lyrics and vocal cues |
US9981193B2 (en) | 2009-10-27 | 2018-05-29 | Harmonix Music Systems, Inc. | Movement based recognition and evaluation |
EP2494432B1 (de) | 2009-10-27 | 2019-05-29 | Harmonix Music Systems, Inc. | Auf gestik basierende benutzerschnittstelle |
WO2011103198A1 (en) | 2010-02-16 | 2011-08-25 | Irobot Corporation | Vacuum brush |
US8550908B2 (en) | 2010-03-16 | 2013-10-08 | Harmonix Music Systems, Inc. | Simulating musical instruments |
KR101490576B1 (ko) * | 2010-05-04 | 2015-02-11 | 샤잠 엔터테인먼트 리미티드 | 미디어의 동기화 방법 및 시스템 |
US8562403B2 (en) | 2010-06-11 | 2013-10-22 | Harmonix Music Systems, Inc. | Prompting a player of a dance game |
US20110306397A1 (en) | 2010-06-11 | 2011-12-15 | Harmonix Music Systems, Inc. | Audio and animation blending |
US9358456B1 (en) | 2010-06-11 | 2016-06-07 | Harmonix Music Systems, Inc. | Dance competition game |
US9024166B2 (en) | 2010-09-09 | 2015-05-05 | Harmonix Music Systems, Inc. | Preventing subtractive track separation |
JP5728888B2 (ja) * | 2010-10-29 | 2015-06-03 | ソニー株式会社 | 信号処理装置および方法、並びにプログラム |
US9153217B2 (en) | 2010-11-01 | 2015-10-06 | James W. Wieder | Simultaneously playing sound-segments to find and act-upon a composition |
US8716584B1 (en) | 2010-11-01 | 2014-05-06 | James W. Wieder | Using recognition-segments to find and play a composition containing sound |
US9117426B2 (en) | 2010-11-01 | 2015-08-25 | James W. Wieder | Using sound-segments in a multi-dimensional ordering to find and act-upon a composition |
JP2014010275A (ja) * | 2012-06-29 | 2014-01-20 | Sony Corp | 情報処理装置、情報処理方法及びプログラム |
CN107229629B (zh) * | 2016-03-24 | 2021-03-19 | 腾讯科技(深圳)有限公司 | 音频识别方法及装置 |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4463650A (en) * | 1981-11-19 | 1984-08-07 | Rupert Robert E | System for converting oral music to instrumental music |
US5402339A (en) * | 1992-09-29 | 1995-03-28 | Fujitsu Limited | Apparatus for making music database and retrieval apparatus for such database |
DE19526333A1 (de) * | 1995-07-17 | 1997-01-23 | Gehrer Eugen Dr | Verfahren zur Erzeugung von Musik |
US5616876A (en) * | 1995-04-19 | 1997-04-01 | Microsoft Corporation | System and methods for selecting music on the basis of subjective content |
US5728960A (en) * | 1996-07-10 | 1998-03-17 | Sitrick; David H. | Multi-dimensional transformation systems and display communication architecture for musical compositions |
DE19652225A1 (de) * | 1996-12-16 | 1998-06-25 | Harald Rieck | Verfahren zum Erkennen von Melodien |
US5963957A (en) * | 1997-04-28 | 1999-10-05 | Philips Electronics North America Corporation | Bibliographic music data base with normalized musical themes |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4354418A (en) * | 1980-08-25 | 1982-10-19 | Nuvatec, Inc. | Automatic note analyzer |
US5874686A (en) * | 1995-10-31 | 1999-02-23 | Ghias; Asif U. | Apparatus and method for searching a melody |
US5995928A (en) * | 1996-10-02 | 1999-11-30 | Speechworks International, Inc. | Method and apparatus for continuous spelling speech recognition with early identification |
US5739451A (en) * | 1996-12-27 | 1998-04-14 | Franklin Electronic Publishers, Incorporated | Hand held electronic music encyclopedia with text and note structure search |
US5808225A (en) * | 1996-12-31 | 1998-09-15 | Intel Corporation | Compressing music into a digital format |
KR100277105B1 (ko) * | 1998-02-27 | 2001-01-15 | 윤종용 | 음성 인식 데이터 결정 장치 및 방법 |
DE69908226T2 (de) * | 1998-03-19 | 2004-03-25 | Tomonari Sonoda | Vorrichtung und Verfahren zum Wiederauffinden von Melodien |
US6246672B1 (en) * | 1998-04-28 | 2001-06-12 | International Business Machines Corp. | Singlecast interactive radio system |
-
1999
- 1999-10-11 DE DE19948974A patent/DE19948974A1/de not_active Withdrawn
-
2000
- 2000-09-25 EP EP00120872A patent/EP1093109A1/de not_active Withdrawn
- 2000-10-11 US US09/686,425 patent/US6437227B1/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4463650A (en) * | 1981-11-19 | 1984-08-07 | Rupert Robert E | System for converting oral music to instrumental music |
US5402339A (en) * | 1992-09-29 | 1995-03-28 | Fujitsu Limited | Apparatus for making music database and retrieval apparatus for such database |
US5616876A (en) * | 1995-04-19 | 1997-04-01 | Microsoft Corporation | System and methods for selecting music on the basis of subjective content |
DE19526333A1 (de) * | 1995-07-17 | 1997-01-23 | Gehrer Eugen Dr | Verfahren zur Erzeugung von Musik |
US5728960A (en) * | 1996-07-10 | 1998-03-17 | Sitrick; David H. | Multi-dimensional transformation systems and display communication architecture for musical compositions |
DE19652225A1 (de) * | 1996-12-16 | 1998-06-25 | Harald Rieck | Verfahren zum Erkennen von Melodien |
US5963957A (en) * | 1997-04-28 | 1999-10-05 | Philips Electronics North America Corporation | Bibliographic music data base with normalized musical themes |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE10117871C1 (de) * | 2001-04-10 | 2002-07-04 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Extrahieren einer Signalkennung, Verfahren und Vorrichtung zum Erzeugen einer Datenbank aus Signalkennungen und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals |
DE10133333C1 (de) * | 2001-07-10 | 2002-12-05 | Fraunhofer Ges Forschung | Verfahren und Vorrichtung zum Erzeugen eines Fingerabdrucks und Verfahren und Vorrichtung zum Identifizieren eines Audiosignals |
DE102005062677A1 (de) * | 2005-12-23 | 2007-06-28 | Kramer, Tobias | System und ein Verfahren zum Verwalten von Musik-Daten |
Also Published As
Publication number | Publication date |
---|---|
US6437227B1 (en) | 2002-08-20 |
EP1093109A1 (de) | 2001-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE19948974A1 (de) | Verfahren zum Erkennen und Auswählen einer Tonfolge, insbesondere eines Musikstücks | |
DE69908226T2 (de) | Vorrichtung und Verfahren zum Wiederauffinden von Melodien | |
DE60320414T2 (de) | Vorrichtung und Verfahren zur automatischen Extraktion von wichtigen Ereignissen in Audiosignalen | |
DE69909107T2 (de) | Verfahren und vorrichtung zum automatischen komponieren | |
DE60120417T2 (de) | Verfahren zur suche in einer audiodatenbank | |
DE602004011305T2 (de) | Vorrichtung und Verfahren zur automatischen Klassifikation von musikalischen Kompositionen | |
DE10054583C2 (de) | Verfahren und Vorrichtung zum Aufzeichnen, Suchen und Wiedergeben von Notizen | |
DE10232916B4 (de) | Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals | |
DE60302420T2 (de) | Musiksuchgerät und -verfahren | |
DE102008016502B4 (de) | Verfahren zur Datenübermittlung über einen Sprachkanal eines drahtlosen Kommunikationsnetzes unter Verwendung einer kontinuierlichen Signalmodulation | |
EP1217603A1 (de) | Verfahren zur Identifizierung von Musikstücken | |
DE4002835C2 (de) | Wiedergabeeinrichtung | |
DE102007051367A1 (de) | Verfahren für eine Datenübertragung über einen Sprachkanal eines drahtlosen Kommunikationsnetzwerks | |
DE102007034774A1 (de) | Vorrichtung zur Bestimmung von Akkordnamen und Programm zur Bestimmung von Akkordnamen | |
DE3236834A1 (de) | Verfahren und geraet zur sprachanalyse | |
DE3517818C2 (de) | ||
DE2918533A1 (de) | Spracherkennungssystem | |
DE3416238A1 (de) | Extremschmalband-uebertragungssystem | |
DE60026643T2 (de) | Vorrichtung und Verfahren zur Tonerzeugung für ein mobiles Endgerät in einem drahtlosen Telekommunikatsionssystem | |
DE2626793A1 (de) | Verfahren zur bewertung stimmhafter und stimmloser zustaende eines sprachsignals | |
EP1368805A2 (de) | Verfahren und vorrichtung zum charakterisieren eines signals und verfahren und vorrichtung zum erzeugen eines indexierten signals | |
DE10117870A1 (de) | Verfahren und Vorrichtung zum Überführen eines Musiksignals in eine Noten-basierte Beschreibung und Verfahren und Vorrichtung zum Referenzieren eines Musiksignals in einer Datenbank | |
DE10123366C1 (de) | Vorrichtung zum Analysieren eines Audiosignals hinsichtlich von Rhythmusinformationen | |
DE602004002312T2 (de) | Verfahren und Vorrichtung zur Bestimmung von Formanten unter Benutzung eines Restsignalmodells | |
WO2006005567A1 (de) | Verfahren und vorrichtung zur erzeugung einer polyphonen melodie |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OM8 | Search report available as to paragraph 43 lit. 1 sentence 1 patent law | ||
8128 | New person/name/address of the agent |
Representative=s name: BECKER, KURIG, STRAUS, 80336 MUENCHEN |
|
8139 | Disposal/non-payment of the annual fee |