DE112007001774T5 - Verfahren und System zum Dursuchen von Musik - Google Patents

Verfahren und System zum Dursuchen von Musik Download PDF

Info

Publication number
DE112007001774T5
DE112007001774T5 DE112007001774T DE112007001774T DE112007001774T5 DE 112007001774 T5 DE112007001774 T5 DE 112007001774T5 DE 112007001774 T DE112007001774 T DE 112007001774T DE 112007001774 T DE112007001774 T DE 112007001774T DE 112007001774 T5 DE112007001774 T5 DE 112007001774T5
Authority
DE
Germany
Prior art keywords
song
user
songs
library
section
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112007001774T
Other languages
English (en)
Other versions
DE112007001774B4 (de
Inventor
Ramin Palo Alto Samadani
Yu-Yao Palo Alto Chang
Tong Palo Alto Zhang
Ullas Palo Alto Gargi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hewlett Packard Development Co LP
Original Assignee
Hewlett Packard Development Co LP
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hewlett Packard Development Co LP filed Critical Hewlett Packard Development Co LP
Publication of DE112007001774T5 publication Critical patent/DE112007001774T5/de
Application granted granted Critical
Publication of DE112007001774B4 publication Critical patent/DE112007001774B4/de
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/686Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using information manually generated, e.g. tags, keywords, comments, title or artist information, time, location or usage information, user ratings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q50/00Information and communication technology [ICT] specially adapted for implementation of business processes of specific business sectors, e.g. utilities or tourism
    • G06Q50/10Services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/632Query formulation
    • G06F16/634Query by example, e.g. query by humming
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/63Querying
    • G06F16/638Presentation of query results
    • G06F16/639Presentation of query results using playlists
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/64Browsing; Visualisation therefor
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/60Information retrieval; Database structures therefor; File system structures therefor of audio data
    • G06F16/68Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually
    • G06F16/683Retrieval characterised by using metadata, e.g. metadata not derived from the content or metadata generated manually using metadata automatically derived from the content
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/121Musical libraries, i.e. musical databases indexed by musical parameters, wavetables, indexing schemes using musical parameters, musical rule bases or knowledge bases, e.g. for automatic composing methods
    • G10H2240/131Library retrieval, i.e. searching a database or selecting a specific musical piece, segment, pattern, rule or parameter set

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Library & Information Science (AREA)
  • Business, Economics & Management (AREA)
  • Mathematical Physics (AREA)
  • Tourism & Hospitality (AREA)
  • General Health & Medical Sciences (AREA)
  • General Business, Economics & Management (AREA)
  • Strategic Management (AREA)
  • Primary Health Care (AREA)
  • Marketing (AREA)
  • Human Resources & Organizations (AREA)
  • Economics (AREA)
  • Health & Medical Sciences (AREA)
  • Signal Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

Ein Verfahren zum Durchsuchen aufgezeichneter Musik mit folgenden Schritten:
Auswählen eines Songs aus einer Bibliothek;
Abspielen zumindest eines Ausschnitts des ausgewählten Songs für einen Benutzer;
während der Ausschnitt des ausgewählten Songs abspielt, Annehmen einer Eingabe von dem Benutzer, wobei die Eingabe eine Angabe des Gefallens des Benutzers an dem zumindest einen Ausschnitt des ausgewählten Songs umfasst;
Wiederholen der Schritte des Auswählens, Abspielens und Annehmens, um eine Sequenz von Songausschnitten zu erzeugen; und
Erstellen einer Aufzeichnung, die eine Identifizierung jedes ausgewählten Songausschnitts und die Angabe bezüglich des Songausschnitts umfasst.

Description

  • Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf das Gebiet des Durchsuchens (Browsens) von Musik.
  • Hintergrund der Erfindung
  • Die Kosten einer digitalen Speicherung für Musik verringern sich, während Internet-Musikdienste immer mehr zunehmen. Demgemäß erfreuen sich Menschen in zunehmendem Maße an Musik, die man sich von Internet-Musikdiensten beschafft hat und die auf tragbaren Abspielgeräten mit hoher Kapazität gespeichert wird. Und in dem Maße, wie sich Menschen Musiksammlungen aneignen, werden die Musiksammlungen immer größer und reichen von Hunderten von Songs bis zu Zehntausenden von Songs. Außerdem ist die Musikerzeugung aufgrund von digitalen Musikproduktionshilfsmitteln einfacher und kostengünstiger geworden. Folglich erweitern viele neue und weniger bekannte Künstler das Universum aufgezeichneter Musik, die zur Auswahl zur Verfügung steht, auf drastische Weise.
  • Aufgrund dieser Tendenzen wird die Fähigkeit, Musiksammlungen und vor allem große Sammlungen effizient zu durchsuchen, immer wichtiger. Beispielsweise möchte jemand vielleicht seine eigene Musiksammlung durchsuchen oder möchte Songs, die ihm gefallen, aus einer unbekannten Musiksammlung entdecken. Oder ein Musikdienstanbieter möchte verbesserte Hilfsmittel liefern, die es seinen Kunden ermöglichen, die Musiksammlung des Dienstanbieters zu durchsuchen.
  • Bekannte Verfahren zum Durchsuchen von Musik umfassen Websites, die Musik zum Verkauf anbieten und die es jemandem ermöglichen, Proben von Songs abzuspielen. Jedoch kann dies in sofern etwas mühselig sein, als die Person üblicherweise den gewünschten Künstler, das gewünschte Album und den gewünschten Song aus einer großen zum Verkauf angebotenen Sammlung manuell auswählen muss. Kollaboratives Filtern ist ein Verfahren eines Ableitens, aus einer Teilliste der Vorlieben dieser Person und der Geschmäcker vieler Menschen, was einer bestimmten Person gefallen könnte. Aufgrund eines Mangels an benötigten Informationen von vielen Menschen funktioniert kollaboratives Filtern bei neuen und weniger bekannten Künstlern nicht gut.
  • Zusammenfassung der Erfindung
  • Die vorliegende Erfindung liefert ein Verfahren und System zum Durchsuchen (Browsen) von Musik. Bei einem Ausführungsbeispiel umfasst ein Verfahren zum Durchsuchen von aufgezeichneter Musik folgende Schritte: Auswählen eines Songs aus einer Bibliothek; Abspielen zumindest eines Ausschnitts des ausgewählten Songs für einen Benutzer; während der Ausschnitt des ausgewählten Songs abgespielt wird, Annehmen einer Eingabe von dem Benutzer, wobei die Eingabe eine Angabe bezüglich des Gefallens, das der Benutzer an dem zumindest einen Ausschnitt des ausgewählten Songs findet, umfasst; Wiederholen der Schritte des Auswählens, Abspielens und Annehmens, um eine Sequenz von Songausschnitten zu erzeugen; und Erstellen einer Aufnahme, die eine Identifizierung jedes. ausgewählten Songausschnitts und die Angabe für den Songausschnitt umfasst.
  • Kurze Beschreibung der Zeichnungen
  • Die vorliegende Erfindung wird unter Bezugnahme auf bestimmte exemplarische Ausführungsbeispiele derselben be schrieben, und demgemäß wird auf die Zeichnungen Bezug genommen, bei denen:
  • 1 ein Blockdiagramm eines Systems zum Durchsuchen von Musik gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht;
  • 2 Informationen, die in einer Songbibliothek gespeichert sind, gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht;
  • 3 ein Verfahren zum Durchsuchen von Musik gemäß einem Ausführungsbeispiel der vorliegenden Erfindung veranschaulicht; und
  • 4A bis C Aufzeichnungen von Musikdurchsuchungsinformatio nen, die erzeugt wurden, gemäß Ausführungsbeispielen der vorliegenden Erfindung veranschaulichen.
  • Ausführliche Beschreibung der Erfindung
  • 1 veranschaulicht ein Blockdiagramm eines Systems 100 zum Durchsuchen von Musik gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das System 100 umfasst eine Musikbibliothek 102, ein Abspielgerät 104, eine Benutzerschnittstelle 106, einen Nächster-Song-Selektor 108 und eine Historienaufzeichnung 110.
  • Die Musikbibliothek 102 speichert zumindest einen Ausschnitt jedes Songs einer Sammlung von Songs, die durch das System 100 durchsucht werden sollen, zusammen mit Informationen über jeden Song. Es kann zwar jeder Song in seiner Gesamtheit in der Bibliothek 102 enthalten sein, dies ist jedoch nicht notwendig. Der Ausschnitt jedes Songs ist eine repräsentative exzerpierte Probe des Songs. Die Songs oder Ausschnitte derselben können als Audiodateien gespeichert sein, beispielsweise im MP3-Format. Die Probe eines Songs kann manuell aus dem Song ausgewählt werden, z. B. indem sich ein Benutzer den Song anhört und einen Ausschnitt des Songs, von dem der Benutzer entscheidet, dass er für den Song repräsentativ ist, auswählt. Alternativ dazu können die Proben automatisch (d. h. anhand eines computerimplementierten Verfahrens) ausgewählt werden. Beispielsweise beschreibt die U.S.-Patentschrift Veröffentlichungsnr. 2004/0064209 , deren gesamter Inhalt durch Bezugnahme hiermit aufgenommen ist, ein System und Verfahren zum Erzeugen eines Audio-Thumbnails einer Tonspur, das dazu verwendet werden kann, die in der Bibliothek 102 gespeicherten Proben zu erhalten. Gemäß der U.S.-Patentschrift Veröffentlichungsnr. 2004/0064209 wird ein erstes Inhaltsmerkmal, z. B. Gesang, als Charakteristik einer Tonspur erfasst. Eine vorbestimmte Länge des erfassten Ausschnitts der Tonspur, der dem ersten Inhaltsmerkmal entspricht, wird aus der Tonspur extrahiert. Ein Glanzpunkt der Tonspur, z. B. ein Ausschnitt der Tonspur, der eine plötzliche Zunahme zeitlicher Energie innerhalb der Tonspur aufweist, wird erfasst; und ein Ausschnitt der Tonspur, der dem Glanzpunkt entspricht, wird aus der Tonspur extrahiert. Die zwei extrahierten Ausschnitte der Tonspur werden als Thumbnail der Tonspur kombiniert.
  • Die gespeicherten Informationen über jeden Song umfassen zumindest eine Identifizierung des Songs, können aber zusätzliche Informationen umfassen. Beispielsweise kann die Bibliothek 102 Metadaten über den Song enthalten, die Sachinformationen wie z. B. den Namen des Künstlers, den Titel des Songs, das Genre, die Stimmung, die Rhythmusbeschreibung, den Stil, das Datum der Aufzeichnung, den Titel des Albums usw. umfassen können. Ein spezifisches Beispiel von Song-Metadaten sind ID3-Informationstags, die den Namen des Künstlers und den Songtitel und möglicherweise andere Informationen wie z. B. Datum, Spurnummer der CD, Albumtitel usw. umfassen.
  • Die in der Bibliothek 102 gespeicherten zusätzlichen Informationen über jeden Song können Audiomerkmalsinformationen umfassen, die aus der Tonspur selbst extrahiert oder verarbeitet wurden. Beispielsweise beschreibt die U.S.-Patentschrift Nr. 6,995,309 , deren gesamter Inhalt durch Bezugnahme hiermit aufgenommen ist, ein System und Verfahren zur Musikidentifikation, bei dem für jeden Song in einer Datenbank ein Merkmalsvektor berechnet wird. Ein derartiger Merkmalsvektor kann für jeden zu durchsuchenden Song oder für jeden Ausschnitt eines Songs in der Bibliothek 102 extrahiert und in der Bibliothek 102 gespeichert werden. Gemäß der U.S.-Patentschrift Nr. 6,995,309 wird der Merkmalsvektor für einen Song bestimmt, indem ein Spektrogramm eines verarbeiteten Zeitsignals für den Song erzeugt wird und anschließend Merkmale aus dem Spektrogramm extrahiert werden. Für die Zwecke der vorliegenden Erfindung ist das verarbeitete Zeitsignal für den Song ein digital abgetasteter Ausschnitt des Songs, z. B. ein Audio-Thumbnail, oder der gesamte Song. Verschiedene Techniken, die auf eine Verarbeitung von zeitdiskreten Signalen bezogen sind, sind in der Technik bezüglich eines Erzeugen des Spektrogramms hinreichend bekannt. Die Merkmale werden durch numerische Werte dargestellt und stellen grob spezifische musikalische Wahrnehmungscharakteristika wie z. B. Tonhöhe, Tempo und Reinheit dar. Bei einem Ausführungsbeispiel umfasst der Merkmalsvektor für jeden Song fünf Merkmalskomponenten, die aus der Projektion eines Spektrogramms in der Zeit-(X-) und der Frequenzachse (Y-Achse) abgeleitet sind. Das erste Merkmal ist der Michelson-Kontrast in der X-Richtung, der das in einer Songprobe enthaltene „Beat"-Niveau darstellt. Das zweite Merkmal stellt das Ausmaß an „Rauschen" in der Y-Richtung oder die „Reinheit" des Spektrums dar. Das dritte Merkmal ist die Entropie in der Y-Richtung, die berechnet wird, indem zuerst die Y-Projektion des Spektrogramms dahin gehend normiert wird, eine Wahrscheinlichkeitsverteilung zu sein, und indem anschließend die Shannon-Entropie berechnet wird. Das vierte und das fünfte Merkmal sind der Massenmittelpunkt bzw. das Trägheitsmoment der drei höchsten spektralen Spitzen in dem Y-projizierten Spektrogramm. Das vierte und das fünfte Merkmal stellen grob die Toneigenschaften einer Songprobe dar. Merkmale, die andere musikalische Charakteristika darstellen, können bei den Merkmalsvektoren ebenfalls verwendet werden. Die Merkmalsvektoren können aus dem vollständigen Song oder aus einem Ausschnitt des Songs extrahiert werden.
  • 2 veranschaulicht in der Bibliothek 102 gespeicherte Informationen gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Wie in 2 gezeigt ist, können die gespeicherten Informationen. durch eine Tabelle dargestellt werden, wobei jeder Songausschnitt durch eine Zeile in der Tabelle dargestellt ist. Eine erste Spalte umfasst die Identifizierung des Songs. Die zweite Spalte kann einen Verweis auf die exzerpierte Probe des Songs umfassen. Wenn beispielsweise der vollständige Song in der Bibliothek 102 gespeichert ist, kann der Verweis den Start der Probe relativ zu dem Start der Tonspur des Songs (Beginn z. B. zwanzig Sekunden nach Beginn des Songs) und eine Dauer der Probe angeben. In 2 weisen die Proben eine einheitliche Dauer von acht Sekunden auf, obwohl die Dauern unterschiedlich sein können und nicht einheitlich sein müssen. Bei einem Ausführungsbeispiel können in der Bibliothek 102 zwei oder mehr verschiedene exzerpierte Proben desselben Songs vorliegen. Dies ist in 2 dadurch gezeigt, dass Song2 in der ersten Spalte zweimal vorkommt. Jedoch erscheinen in der zweiten Spalte zwei verschiedene Verweise für den Song2, wobei jeder eine andere Position in dem Song angibt. Insbesondere beginnt die erste Probe zehn Sekunden nach Beginn des Songs und ist acht Sekunden lang. Die zweite Probe ist ebenfalls acht Sekunden lang, startet jedoch dreißig Sekunden nach Beginn des Songs. Bei diesem Ausführungsbeispiel identifizieren die Songidentifizierung und der Verweis jeder Zeile zusammen jeden exzerpierten Ausschnitt auf eindeutige Weise. Alternativ dazu kann die Tabelle die Probe selbst oder einen Verweis auf den gesam ten Song umfassen. Eine dritte Spalte in der Tabelle kann die Metadaten für den Song umfassen. Wie in 2 gezeigt ist, können die Metadaten den Titel des Songs und den Künstler umfassen. Eine vierte Spalte kann die extrahierten Audioparameter umfassen. Wie in 2 gezeigt ist, umfasst dies den Merkmalsvektor für jeden Song. Wie ebenfalls in 2 gezeigt ist, kann der Merkmalsvektor f für einen Song als f = f1, f2, ..., fk gegeben sein, wobei der Merkmalsvektor k Komponenten oder Merkmale aufweist.
  • Unter erneuter Bezugnahme auf 1 ist das Abspielgerät 104 funktional mit der Bibliothek 102 gekoppelt, so dass die gespeicherten Ausschnitte der Songs durch das Abspielgerät 104 selektiv abgespielt werden können. Das Abspielgerät 104 ist mit dem Format, in dem die Songausschnitte gespeichert sind, kompatibel. Beispielsweise kann das Abspielgerät 104 ein MP3-Player sein.
  • Die Benutzerschnittstelle 106 verleiht einem Benutzer die Fähigkeit, beim Durchsuchen von Musik mit dem System 100 zu interagieren. Zum Hören von Audiodateien, die durch das Abspielgerät 104 abgespielt werden, kann die Benutzerschnittstelle 106 eine oder mehrere Klangausgabevorrichtungen, z. B. einen oder mehrere Lautsprecher, einen Ohrhörer oder Kopfhörer umfassen. Die Benutzerschnittstelle 106 umfasst auch eine Eingabevorrichtung wie z. B. eine Tastatur oder eine in der Hand zu haltende Fernsteuerung zum Liefern einer Benutzereingabe an das System 100. Ein Mikrophon kann als Eingabevorrichtung verwendet werden und kann in Verbindung mit Spracherkennungssoftware verwendet werden, um eine verbale Eingabe von dem Benutzer anzunehmen.
  • Ein Songselektor 108 empfängt eine Eingabe von dem Benutzer über die Schnittstelle 106 und hat auch Zugang zu der Bibliothek 102. Auf der Basis der Benutzereingabe und der Informationen in der Bibliothek 102 wählt der Songselektor 108 den Song (oder Ausschnitt desselben), der als Nächstes über das Abspielgerät 102 gespielt werden soll, aus. Der Songselektor 108 kann auch das Abspielen eines Songs (oder eines Ausschnitts desselben) auf der Basis einer Eingabe (z. B. von dem Benutzer) an den Selektor 108 beenden. Der Songselektor 108 führt einen Songauswahlalgorithmus durch, wie hierin ausführlicher erläutert ist.
  • Eine Historienaufzeichnung 110 kann durch das System 100 erzeugt werden. Beispielsweise kann die Historienaufzeichnung 110 eine Sequenz von Songs umfassen, die durch den Songselektor 108 ausgewählt werden, während der Benutzer mit dem System 100 interagiert, um Musik zu durchsuchen. Eine derartige Sequenz von Songs kann als Abspielliste verwendet werden, um das Abspielgerät 104 oder ein anderes Abspielgerät wie z. B. ein herkömmliches Audioabspielgerät dahin gehend zu steuern, vollständige Songs abzuspielen, nachdem der Benutzer eine Musiksammlung durchsucht hat. Die Abspielliste, die mittels Filtern ausgehend von der Aufzeichnung 110 erzeugt werden kann, umfasst lediglich diejenigen Songs, für die der Benutzer eine positive Angabe bezüglich dessen machte, dass der Song dem Benutzer gefallen hat. Zusätzlich oder alternativ dazu kann die Historienaufzeichnung 110 Informationen umfassen, die von der Benutzerschnittstelle 106 erhalten wurden, z. B. Angaben für ausgewählte Songs in Bezug darauf, ob ein Song dem Benutzer gefallen hat oder nicht. Diese Informationen können durch den Songselektor 108 zur späteren Verwendung oder als Eingabe in einen anderen Songselektor oder Songauswahlalgorithmus, z. B. ein kollaboratives Filter, gesichert werden.
  • Das System 100 kann anhand einer Maschine implementiert sein, beispielsweise durch ein entsprechend konfiguriertes und programmiertes Mehrzweck-Computersystem. Die Bibliothek 102 und die Historienaufzeichnung 110 können jeweils im Speicher und/oder Massenspeicher des Computers gespeichert sein. Das Abspielgerät 104 und der Songselektor 108 können jeweils anhand eines geeigneten Softwareprogramms, das in dem Computer installiert ist, implementiert sein. Die Benutzerschnittstelle 106 kann durch ein Display, eine Tastatur und Lautsprecher des Computersystems implementiert sein. Die Schnittstelle 106 kann eine in der Hand zu haltende Fernsteuerung umfassen, so dass ein Benutzer eine Eingabe aus einer bequemen Entfernung oder Position tätigen kann. Das System 100 kann eine Audioausrüstung mit hoher Klangtreue umfassen, beispielsweise einen mit Leistung versorgten Audioverstärker und Lautsprecher, um das Hörerlebnis für den Benutzer zu verbessern.
  • 3 veranschaulicht ein Verfahren 200 zum Durchsuchen von Musik gemäß einem Ausführungsbeispiel der vorliegenden Erfindung. Das Verfahren 200 der 3 kann durch das System 100 der 1 implementiert sein. Bei einem Schritt 202 wird ein erster Song aus denjenigen, die zum Durchsuchen in der Bibliothek 102 zur Verfügung stehen, ausgewählt. Der Songselektor 108 kann diesen Schritt durchführen. Da noch keinerlei Benutzerpräferenzinformationen zum Auswählen des ersten Songs verfügbar sind, kann der erste Song zufällig ausgewählt werden. Alternativ dazu kann der erste Song gemäß anderen Kriterien ausgewählt werden, z. B. indem ein Song, der einen repräsentativen oder durchschnittlichen Merkmalsvektor aufweist, aus den Songs in der Bibliothek 102 ausgewählt wird.
  • Bei einem Schritt 204 wird zumindest ein Ausschnitt des Songs abgespielt. Bei diesem Schritt beginnt der vollständige Song oder zumindest der exzerpierte Ausschnitt des Songs zu spielen, so dass der Benutzer ihn hören kann. Dieser Schritt kann durchgeführt werden, indem der Ausschnitt des Songs aus der Bibliothek 102 abgerufen wird und indem der Song durch das Abspielgerät 104 abgespielt wird.
  • Während der zumindest eine Ausschnitt des ausgewählten Songs spielt, wird bei Schritt 206 eine Eingabe von dem Benutzer angenommen. Die Eingabe umfasst eine Angabe darüber, wie der Song dem Benutzer gefällt. Beispielsweise kann die Angabe eine positive Angabe sein, dass der Song dem Benutzer gefällt, oder eine negative Angabe, dass der Song dem Benutzer nicht oder nicht besonders gut gefällt. In diesem Fall kann der Benutzer eine Taste auf der Computertastatur oder der in der Hand zu haltenden Fernbedienung drücken, um die positive Angabe einzugeben, und eine andere Taste, um die negative Angabe einzugeben. Alternativ dazu kann die Angabe eine numerische Punktzahl sein, die angibt, ob und wie sehr der Song dem Benutzer gefällt. Beispielsweise können Tasten auf der Tastatur oder der in der Hand zu haltenden Fernbedienung Werte von eins bis fünf zugewiesen sein, wobei eins bedeutet, dass der Song dem Benutzer extrem gut gefällt, eine fünf bedeutet, dass der Song dem Benutzer nicht oder nicht besonders gut gefällt, und Werte zwischen null und fünf verschiedenen Gefallensgraden zwischen diesen zwei Extremen zugewiesen sind.
  • Bei dem Schritt 206 könnte lediglich ein Ausschnitt des Songs abgespielt werden. Beispielsweise kann der Ausschnitt eine vorbestimmte Dauer (z. B. acht Sekunden) aufweisen. Falls der Benutzer die Eingabe vor Ablauf der Zeitdauer tätigt, kann das Abspielen des Ausschnitts beendet werden, bevor der vollständige Ausschnitt gespielt wurde. Beispielsweise kann das Abspielen sofort beendet werden. Falls der Benutzer keinerlei Eingabe liefert, während der Ausschnitt gespielt wird, kann dies als Angabe bezüglich des Gefallens des Benutzers an dem Song interpretiert und behandelt werden. Beispielsweise kann dies als negative Angabe bezüglich dessen interpretiert werden, dass der Song dem Benutzer nicht gefällt. Wenn der Benutzer alternativ dazu keinerlei Eingabe tätigt, während der Ausschnitt gespielt wird, kann dies ignoriert werden, so als ob der Song nicht gespielt worden wäre.
  • Bei einem Schritt 208 wird ein nächster zu spielender Song durch den Songselektor 108 ausgewählt. Der zumindest eine Ausschnitt des nächsten Songs beginnt zu spielen, nachdem eine Benutzereingabe bezüglich des vorherigen Songs empfangen wurde oder nachdem der Ausschnitt des vorherigen Songs ohne Eingabe von dem Benutzer zu Ende gespielt wurde. Der nächste Song kann unmittelbar nach Empfang der Benutzereingabe oder nach Beendigung des vorherigen Songs zu spielen beginnen, so dass Songs dem Benutzer in rascher Abfolge präsentiert werden, so schnell wie der Benutzer in der Lage ist, Entscheidungen zu treffen und eine Eingabe zu tätigen. Auf diese Weise kann eine große Sammlung an Songs rasch und effizient durchsucht werden.
  • Der nächste Song wird auf der Basis der Angabe bezüglich zumindest des zuvor ausgewählten Songs und von in der Bibliothek 102 gespeicherten Informationen ausgewählt. Beispielsweise kann der nächste Song auf der Basis der Angabe bezüglich des zuvor ausgewählten Songs und auf einen Vergleich der extrahierten Audioparameter bezüglich des zuvor ausgewählten Songs mit den extrahierten Audioparametern für Songs in der Bibliothek hin ausgewählt werden. Im Einzelnen können die Merkmalsvektoren aller Songs in der Bibliothek 102 auf Punkte in einen mehrdimensionalen Raum abgebildet werden. Falls beispielsweise n Parameter in den Merkmalsvektoren vorliegen, kann jeder auf einen Punkt im n-dimensionalen Raum abgebildet werden. Außerdem können euklidische Abstände zwischen dem Punkt für jeden Song (vorzugsweise ausschließlich der bereits ausgewählten) und dem Punkt für den vorherigen Song berechnet werden. Der Abstand d zwischen einem Merkmalsvektor f 1 für Song1 und einem Merkmalsvektor f 2 für einen Song2 kann als
    Figure 00110001
    gegeben sein. Statt euklidische Abstände zu berechnen, kann alternativ dazu ein anderes Distanzmaß verwendet werden, z. B. Mahalanobis-Abstand, der auf Korrelationen zwischen Variablen beruht und skaleninvariant ist.
  • Falls der vorherige Song dem Benutzer gefallen hat, kann der nächste auszuwählende Song einer mit einem geringen Abstand zu dem vorherigen Song sein. Dies führt wahrscheinlich dazu, dass der nächste ausgewählte Song ähnliche Audiocharakteristika aufweist wie der vorherige Song. Als solches besteht eine beträchtliche Wahrscheinlichkeit, dass der nächste Song dem Benutzer gefallen wird. Der ausgewählte Song kann der mit dem geringsten Abstand zu dem vorherigen Song sein, oder er kann aus mehreren Songs, die einen relativ geringen Abstand aufweisen, ausgewählt sein. Beispielsweise kann der ausgewählte Song zufällig aus einer Gruppe von Songs ausgewählt sein, die weniger als einen vorbestimmten Abstand aufweisen oder die innerhalb eines gewissen Abstands-Perzentils (z. B. den nächstliegenden zehn Prozent) liegen.
  • Alternativ dazu kann, wenn der vorherige Song dem Benutzer nicht gefallen hat, der nächste auszuwählende Song einer sein, der einen großen Abstand von dem vorherigen Song aufweist. Dies führt wahrscheinlich dazu, dass der nächste ausgewählte Song Audiocharakteristika aufweist, die denen des vorherigen Songs unähnlich sind. Diese Auswahl beruht auf der Annahme, dass ein Song, der einem, der dem Benutzer missfallen hat, unähnlich ist, eine beträchtliche Wahrscheinlichkeit aufweist, dass er dem Benutzer gefallen wird. Der ausgewählte Song kann derjenige mit dem größten Abstand zu dem vorherigen Song sein, oder er kann zufällig aus mehreren Songs, die einen relativ großen Abstand aufweisen, ausgewählt sein. Beispielsweise kann der ausgewählte Song aus einer Gruppe von Songs ausgewählt sein, die mehr als einen vorbestimmten Abstand aufweisen oder die innerhalb eines bestimmten Abstands-Perzentils (z. B. den am weitesten entfernten zehn Prozent) liegen.
  • Auf diese Weise wird jeder nächste Song dahin gehend ausgewählt, dass eine beträchtliche Wahrscheinlichkeit besteht, dass er dem Benutzer gefallen wird. Dadurch wird die Menge an Songs reduziert, die dem Benutzer missfallen, die dem Benutzer präsentiert werden, die sich der Benutzer dann anhören müsste und eine Rückmeldung geben müsste. Dies ermöglicht auch, dass eine große Sammlung von Songs durchsucht wird und dass diejenigen Songs, die einem Benutzer gefallen, rasch und effizient identifiziert werden.
  • Es können verschiedene Songauswahlalgorithmen eingesetzt werden, die den die Angabe bezüglich zumindest des zuvor ausgewählten Songs und bezüglich Informationen, die in der Bibliothek 102 gespeichert sind, dazu verwenden, Songs auszuwählen, die eine beträchtliche Wahrscheinlichkeit aufweisen, dass sie dem Benutzer gefallen werden. Statt lediglich die Reaktion des Benutzers auf den vorherigen Song zu berücksichtigen, kann der nächste Song beispielsweise auf der Basis der Reaktion des Benutzers auf eine Mehrzahl von Songs ausgewählt werden. Genauer gesagt können alle oder manche der zuvor ausgewählten Songs, bezüglich derer der Benutzer eine positive Angabe machte, gruppiert werden. Für jeden Song in der Bibliothek 102 (vorzugsweise ausschließlich der bereits ausgewählten) kann sein Abstand zu der Gruppe berechnet werden, indem sein Abstand zu dem nächstliegenden Song in der Gruppe bestimmt wird oder indem dessen Abstand zu einem Durchschnitt der Merkmalsvektoren von Songs in der Gruppe bestimmt wird. Der nächste Song kann anschließend aus denjenigen in der Bibliothek ausgewählt werden, die einen geringen Abstand zu der Gruppe aufweisen (z. B. den geringsten Abstand aufweisen oder innerhalb eines bestimmten Abstands-Perzentils liegen).
  • Bei einem alternativen Ausführungsbeispiel können sowohl negative als auch positive Reaktionen berücksichtigt werden. Insbesondere können alle oder manche der zuvor ausgewählten Songs, bezüglich derer der Benutzer eine positive Angabe lieferte, in eine erste Gruppe platziert werden, während manche oder alle der zuvor ausgewählten Songs, bezüglich derer der Benutzer eine negative Angabe machte, in eine zweite Gruppe platziert werden. Dann können für jeden Song in der Bibliothek 102 (vorzugsweise ausschließlich der bereits ausgewählten) dessen Abstände zu beiden Gruppen bestimmt werden. Der nächste Song kann derart ausgewählt werden, dass sein Abstand zu der ersten Gruppe minimiert ist und sein Abstand zu der zweiten Gruppe maximiert ist. Beispielsweise kann dort, wo der Abstand eines Songs zu der ersten Gruppe als dja gegeben ist und der Abstand des Songs zu der zweiten Gruppe als dnein gegeben ist, ein kombiniertes Abstandsmaß als: dja/nein = (dja + ε)/(dnein + ε), wobei ε eine Konstante ist, gegeben sein. Dann kann der nächste Song als einer ausgewählt werden, der den größten Wert dja/nein aufweist, oder dessen Wert für dja/nein innerhalb eines bestimmten Perzentils des größten liegt.
  • Wie erwähnt wurde, kann die Benutzereingabe eine numerische Punktzahl umfassen. Demgemäß kann der nächste Song ausgewählt werden, indem die Punktzahlen für manche oder alle der zuvor ausgewählten Songs berücksichtigt werden. Beispielsweise können manche oder alle der zuvor ausgewählten Songs, für die eine Punktzahl empfangen wurde, in eine Gruppe platziert werden. Dann kann der Abstand zu der Gruppe für jeden Song in der Bibliothek 102 (vorzugsweise ausschließlich der bereits ausgewählten) berechnet werden. Beispielsweise kann der Abstand zwischen einem Song k in der Bibliothek 102 zu einer aus zuvor ausgewählten Songs i = 1, 2, ..., n bestehenden Gruppe wie folgt berechnet werden:
    Figure 00140001
    wobei wi die numerische Punktzahl für den Song i ist und wobei eine niedrige Punktzahl angibt, dass der Song gefallen hat, und eine hohe Punktzahl angibt, dass der Song nicht gefallen hat. Demgemäß werden die Abstände zwischen jedem Song in der Bibliothek und jedem zuvor ausgewählten Song gemäß der durch den zuvor ausgewählten Song empfangenen Punktzahl gewichtet. Der Abstand für einen Song in der Bibliothek zu der Gruppe wird anschließend als der kürzeste gewichtete Abstand zu jeglichem Element der Gruppe berechnet. Überdies kann sich der Abstand, auf dem die Auswahl des nächsten Songs beruht, auf der Basis der Benutzereingabe mit der Zeit ändern. Falls beispielsweise für einen oder mehrere ausgewählte Songs keine Benutzereingabe oder eine negative Benutzereingabe vorliegt, dann kann der Perzentilabstand allmählich zunehmen, was zu einer breiteren Erkundung der Musikbibliothek führt. Wenn Benutzereingaben erfasst oder positive Eingaben empfangen werden, kann der Perzentilabstand allmählich abnehmen, was zu einer Verschmälerung der Erkundung der Bibliothek führt.
  • Auch können Metadaten, die in der Bibliothek 102 gespeichert sind, durch den Songselektor 108 zum Auswählen des nächsten Songs verwendet werden. In diesem Fall können die Metadaten dazu verwendet werden, die Ähnlichkeit des nächsten Songs mit dem vorherigen Song oder dem Satz von zuvor ausgewählten Songs zu erhöhen. Falls die Benutzereingabe für vorherige Songs beispielsweise angibt, dass der Benutzer eher an einem Song Gefallen finden wird, wenn er in einem bestimmten Genre ist, dann kann der Songauswahlalgorithmus Songs aus bestimmten anderen Genres ausschließen, auch wenn ihre Merkmalsvektoren angeben, dass sie eine beträchtliche Wahrscheinlichkeit aufweisen, dass sie dem Benutzer gefallen werden. Alternativ dazu können die Metadaten dazu verwendet werden, die Vielfalt ausgewählter Songs zu erweitern. Wenn beispielsweise ein ausgewählter Song von einem bestimmten Künstler stammt, so können Songs dieses Künstlers für den nächsten Song oder die mehreren nächsten Songs aus einer Betrachtung ausgeschlossen werden, auch wenn ihre Merkmalsvektoren angeben, dass sie aufgrund der vorherigen Reaktionen des Benutzers eine beträchtliche Wahrscheinlichkeit haben, dass sie gefallen werden.
  • Bei einem Ausführungsbeispiel kann der Benutzer jederzeit dafür optieren, dass ein nächster Song zufällig aus der Sammlung von zu durchsuchenden Songs ausgewählt wird. Beispielsweise kann eine zusätzliche Taste auf der Tastatur oder der in der Hand zu haltenden Fernbedienung einer „Zufälligen-Song-Wählen"-Funktion zugewiesen sein. Statt also auf der Basis der Benutzereingabe bezüglich des vorherigen Songs oder der vorherigen Songs ein Durchsuchen von durch den Songselektor 108 ausgewählten Songs fortzusetzen, kann der nächste Song zufällig ausgewählt werden. Dies hat den Effekt, zu Schritt 202 bei dem Verfahren der 3 zurückzukehren. Dann, nachdem der Benutzer eine Angabe bezüglich des Gefallens des Benutzers an diesem zufällig ausgewählten Song tätigt, können nachfolgende Songs durch den Songselektor 108 ausgewählt werden, wie oben erläutert wurde. Die nachfolgenden Songauswahlen berücksichtigen eventuell lediglich eine Eingabe, die von dem Benutzer empfangen wurde, nachdem die „Zufälligen-Song-Wählen"-Auswahl aufgerufen wurde. Alternativ dazu kann eine Eingabe berücksichtigt werden, die von dem Benutzer in Bezug auf Songs empfangen wurde, die gespielt wurden, bevor die „Zufälligen-Song-Wählen"-Auswahl aufgerufen wurde.
  • Es können zusätzliche Benutzereingabesteuerungen geliefert werden. Beispielsweise kann die Dauer des Ausschnitts der während des Durchsuchens gespielten Songs je nach Präferenz des Benutzers einstellbar sein. Beispielsweise kann der Benutzer die Dauer der zu spielenden Songausschnitte wählen und kann auch zwischen einem Abspielen von Ausschnitten einer bestimmten Dauer oder einem Abspielen der gesamten Songs wählen. Ferner kann der Benutzer in der Lage sein, einen bestimmten Song oder Ausschnitt desselben erneut abzuspielen oder eine längere Dauer eines bestimmten Songs abzuspielen, falls der Benutzer beispielsweise nicht sicher ist, ob der Song Gefallen findet oder nicht. Der Benutzer kann auch die Lautstärke, mit der die Songs abgespielt werden, steuern.
  • Bei einem Ausführungsbeispiel kann ein Filterkriterium bzw. können mehrere Filterkriterien auf Songs in der Bibliothek angewendet werden, um die Bandbreite an Songs, die möglicherweise durch den Songselektor 108 ausgewählt werden können, zu begrenzen. Beispielsweise kann der Benutzer eine Abspielliste von Songs mit langsamem Tempo erstellen wollen, die sich dafür eignen, beim Einschlafen abgespielt zu werden. Eine derartige Abspielliste kann als „Songs für die Schlafenszeit" bezeichnet werden. Als weiteres Beispiel kann der Benutzer eine Abspielliste von Songs mit schnellerem Tempo, die zum Tanzen geeignet sind, erstellen wollen. Dies kann dadurch bewerkstelligt werden, dass der Benutzer ein Filterkriterium festlegt, bevor er beginnt, die Songs zu durchsuchen. Wenn der Benutzer beispielsweise eine „Songs-zum-Tanzen"-Abspielliste erstellen möchte, kann der Benutzer festlegen, dass lediglich „Songs mit einem Tempo im Bereich von 60 bis 120 und von ¾ Meter" als mögliche Auswahlen durch den Songselektor 108 zur Verfügung gestellt werden.
  • Bei einem anderen Ausführungsbeispiel kann der Songselektor 108 Songs auf der Basis eines Extrapolierens von Tendenzen in den Angaben des Benutzers bezüglich zuvor ausgewählter Songs auswählen. Dies beruht auf der Annahme, dass sich der Geschmack des Benutzers verändern kann, während der Benutzer Songs durchsucht. Wenn der Benutzer beispielsweise Gefallen an Songs mit langsamem Tempo angibt und später Gefallen an Songs mit mittlerem Tempo angibt, kann der Songselektor 108 einen nächsten Song, der ein schnelles Tempo aufweist, als Form einer Unterstützung des Benutzers bei der weiteren Erkundung der Bibliothek 102 auswählen.
  • Bei einem Ausführungsbeispiel können Komponenten des Merkmalsvektors für Songs in der Bibliothek unterschiedlich zueinander gewichtet werden, um die Abstandsberechnungen durchzuführen. Dieses Gewichten kann der Kontrolle des Benutzers unterliegen. Wenn der Benutzer beispielsweise Interesse daran hat, eine Abspielliste von Songs zu erstellen, die einen bezeichnenden „Beat" aufweisen, kann das System den Michelson-Kontrast in der X-Richtung, der das in einer Songprobe enthaltene „Beat"-Niveau darstellt, schwerer gewichten als andere Komponenten. Wenn der Abstand zwischen Songausschnitten berechnet wird, erscheinen dann diejenigen, die einen stärkeren „Beat" aufweisen, näher.
  • Wie oben beschrieben wurde, kann die Historienaufzeichnung 110 eine Sequenz von Songs, die durch den Songselektor 108 ausgewählt werden, umfassen, die gesichert und später verwendet werden können, um eine Abspielliste zu erstellen, um das Abspielgerät 104 oder ein anderes Abspielgerät dahin gehend zu steuern, die Songs vollständig abzuspielen. Bei einem Ausführungsbeispiel kann der Benutzer die Reihenfolge, in der die Songs abgespielt werden, je nach den Präferenzen des Benutzers optional ändern, oder die Songs können in zufälliger Reihenfolge von der Abspielliste abgespielt werden. Außerdem kann der Songselektor 108 dazu verwendet werden, neue Songs, bei denen auf der Basis der bereits in der Abspielliste vorhandenen Songs ermittelt wird, dass sie eine beträchtliche Wahrscheinlichkeit haben, dass der Benutzer Gefallen an ihnen finden wird, in die Abspielliste einzuschieben. Beispielsweise können die Merkmalsvektoren für eingeschobene Songs einen geringen Abstand zu denen eines oder mehrerer der bereits in der Abspielliste vorhandenen Songs aufweisen. Der Anteil an eingeschobenen Songs kann durch den Benutzer gesteuert werden, beispielsweise durch eine zusätzliche Taste oder einen zusätzlichen Bedienungsknopf auf der Tastatur oder der Fernsteuerung.
  • 4A–C veranschaulichen Aufzeichnungen 110 von Musikdurchsuchungsinformationen, die gemäß Ausführungsbeispielen der vorliegenden Erfindung erzeugt wurden. Insbesondere veranschaulichen 4A–C jeweils eine Tabelle, in der ein ausgewählter Song (für den zumindest ein Ausschnitt für den Benutzer gespielt wird) eine Zeile in der Tabelle einnimmt und eine erste Spalte die Identifizierung der ausgewählten Songs umfasst. Die Aufzeichnung der 4A weist eine zweite Spalte auf, die eine positive oder negative Angabe für jeden Song in der Tabelle umfasst. Wie oben erläutert wurde, bedeutet die positive Angabe, dass dem Benutzer der Song gefallen hat, und die negative Angabe bedeutet, dass dem Benutzer der Song nicht gefallen hat. Die Aufzeichnung der 4B weist eine zweite Spalte auf, die eine Punktzahl für jeden Song in der Tabelle umfasst, die angibt, wie sehr dem Benutzer der Song gefallen hat oder nicht. Wie bei den obigen Beispielen liegen die Punkt zahlen zwischen eins und fünf, wobei eine niedrigere Punktzahl einen größeren Gefallen an dem Song angibt.
  • Ähnlich wie 4B weist die Aufzeichnung der 4C eine zweite Spalte auf, die eine Punktzahl für jeden Song in der Tabelle umfasst, die angibt, wie sehr dem Benutzer der Song gefallen hat oder nicht. Außerdem weist die Aufzeichnung der 4C eine dritte Spalte auf, die angibt, wie viel von der Probe des Songs gespielt wurde, bevor der Benutzer die Punktzahl für den Song eingab. Bei diesem Beispiel umfasst die dritte Spalte die Prozent der Probe an der Gesamtdauer. Falls die Probe also acht Sekunden lang wäre und der Benutzer vier Sekunden nach Beginn der Probe eine Punktzahl eingeben würde, würde die gespielte Zeit 50 betragen. Falls man die gesamte Probe ohne jegliche Benutzereingabe abspielen ließe, würde die gespielte Zeit 100 betragen. Es wird einleuchten, dass der Anteil der Probe, der gespielt wurde, auf andere Weise dargestellt werden könnte (z. B. in Sekunden). Eine vierte Spalte in der Aufzeichnung der 4C umfasst Datums- und Uhrzeitinformationen, die jedem in der Tabelle dargestellten Song entsprechen. Bei diesem Beispiel markieren das Datum und die Uhrzeit die Zeit der Benutzereingabe. Falls jeder Song unmittelbar bei Empfang der Benutzereingabe für den vorherigen Song zu spielen beginnt, so geben die Datums- und Uhrzeitinformationen in der Tabelle für einen vorherigen Song an, wann der nächste Song zu spielen begann. Somit wurde unter Bezugnahme auf 4C die Benutzereingabe für Song2 um 10:01 empfangen (als 10:01:00 dargestellt). Dies ist auch der Zeitpunkt, zu dem der Song3 zu spielen begann. Dann, um vier Sekunden nach 10:01 (als 10:01:04 dargestellt), wurde die Benutzereingabe für Song3 empfangen. Dies ist auch der Zeitpunkt, zu dem Song4 zu spielen begann.
  • Die Aufzeichnungen 110 können durch den Songselektor 108 verwendet werden oder zur späteren Verwendung als Eingabe in einen anderen Songselektor oder Songauswahlalgorithmus, z. B. ein kollaboratives Filter, gesichert werden.
  • Die vorstehende ausführliche Beschreibung der vorliegenden Erfindung dient Veranschaulichungszwecken und soll nicht erschöpfend sein oder die Erfindung auf die offenbarten Ausführungsbeispiele beschränken. Demgemäß wird der Schutzumfang der vorliegenden Erfindung durch die angehängten Patentansprüche definiert.
  • Zusammenfassung
  • Die vorliegende Erfindung liefert ein Verfahren und ein System zum Durchsuchen von Musik. Bei einem Ausführungsbeispiel umfasst ein Verfahren zum Durchsuchen von aufgezeichneter Musik folgenden Schritten: Auswählen eines Songs aus einer Bibliothek (102); Abspielen zumindest eines Ausschnitts des ausgewählten Songs für einen Benutzer; während der Ausschnitt des ausgewählten Songs abspielt, Annehmen einer Eingabe von dem Benutzer, wobei die Eingabe eine Angabe des Gefallens des Benutzers an dem zumindest einen Ausschnitt des ausgewählten Songs umfasst; Wiederholen der Schritte des Auswählens, Abspielens und Annehmens, um eine Sequenz von Songausschnitten zu erzeugen; und Erstellen einer Aufzeichnung (110), die eine Identifizierung jedes ausgewählten Songausschnitts und die Angabe bezüglich der Songausschnitte umfasst.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - US 2004/0064209 [0012, 0012]
    • - US 6995309 [0014, 0014]

Claims (10)

  1. Ein Verfahren zum Durchsuchen aufgezeichneter Musik mit folgenden Schritten: Auswählen eines Songs aus einer Bibliothek; Abspielen zumindest eines Ausschnitts des ausgewählten Songs für einen Benutzer; während der Ausschnitt des ausgewählten Songs abspielt, Annehmen einer Eingabe von dem Benutzer, wobei die Eingabe eine Angabe des Gefallens des Benutzers an dem zumindest einen Ausschnitt des ausgewählten Songs umfasst; Wiederholen der Schritte des Auswählens, Abspielens und Annehmens, um eine Sequenz von Songausschnitten zu erzeugen; und Erstellen einer Aufzeichnung, die eine Identifizierung jedes ausgewählten Songausschnitts und die Angabe bezüglich des Songausschnitts umfasst.
  2. Das Verfahren gemäß Anspruch 1, das ferner ein Erzeugen einer Abspielliste aus der Aufzeichnung, wobei die Abspielliste Identifizierungen der Songausschnitte in der Aufzeichnung, die dem Benutzer gefallen haben, umfasst, und ein Abspielen vollständiger Songs in der Abspielliste umfasst.
  3. Das Verfahren gemäß Anspruch 2, das ferner ein Einschieben neuer Songs in die Abspielliste während eines Abspielens der vollständigen Songs in der Abspielliste umfasst, wobei die Songs auf der Basis der für die Songs in der Abspielliste empfangenen Angaben dazu ausgewählt sind, eingeschoben zu werden.
  4. Das Verfahren gemäß Anspruch 1, das ferner ein Beenden des Abspielens des zumindest einen Ausschnitts des ausgewählten Songs unmittelbar nachdem der Benutzer die Angabe macht, umfasst.
  5. Das Verfahren gemäß Anspruch 1, bei dem jeder Song der Sequenz nach einem ersten Song der Sequenz auf der Basis der Angabe bezüglich des zuvor ausgewählten Songs ausgewählt wird.
  6. Das Verfahren gemäß Anspruch 5, bei dem die Bibliothek extrahierte Audioparameter für jeden Song umfasst und bei dem jeder Song der Sequenz nach einem ersten Song der Sequenz auf der Basis eines Vergleichs der extrahierten Audioparameter für den ausgewählten Song mit den extrahierten Audioparametern für den zuvor ausgewählten Song und der Angabe bezüglich zumindest des zuvor ausgewählten Songs ausgewählt wird.
  7. Das Verfahren gemäß Anspruch 6, bei dem der Vergleich durchgeführt wird, indem ein Abstand zwischen einem Vektor der extrahierten Audioparameter für den ausgewählten Song und einem Vektor der extrahierten Audioparameter für zumindest den zuvor ausgewählten Song berechnet wird.
  8. Das Verfahren gemäß Anspruch 7, bei dem der ausgewählte Song dahin gehend ausgewählt wird, den Abstand zwischen dem ausgewählten Song und einem oder mehreren zuvor ausgewählten Songs, für die die Angabe positiv ist, zu minimieren, und den Abstand zwischen dem aus gewählten Song und einem oder mehreren zuvor ausgewählten Songs, für die die Angabe negativ ist, zu maximieren.
  9. Das Verfahren gemäß Anspruch 5, bei dem für den ausgewählten Song zwei Alternativen berechnet werden, bevor die Angabe von dem Benutzer empfangen wird, und anschließend der zumindest eine Ausschnitt der geeigneten der zwei Alternativen unmittelbar nach Empfang der Angabe gespielt wird.
  10. Ein System zum Durchsuchen von Musik mit: einer Bibliothek, die eine Mehrzahl von Einträgen für zu durchsuchende Songs umfasst, wobei jeder Eintrag eine Identifizierung zumindest eines spielbaren Ausschnitts des Songs, der dem Eintrag entspricht, und Informationen über den Song umfasst; ein Abspielgerät zum selektiven Abspielen der Ausschnitte der Songs; eine Benutzerschnittstelle zum Annehmen einer Eingabe von dem Benutzer, während ein Ausschnitt eines ausgewählten der Songs spielt, wobei die Eingabe eine Angabe bezüglich des Gefallens des Benutzers an dem ausgewählten Song umfasst; und einen Songselektor, der auf der Basis der von dem Benutzer angenommenen Angabe und auf der Basis der Informationen über die Songs in der Bibliothek einen nächsten spielbaren Ausschnitt eines Songs aus der Bibliothek dafür auswählt, als Nächstes durch das Abspielgerät gespielt zu werden.
DE112007001774T 2006-07-31 2007-07-31 Verfahren und System zum Durchsuchen von Musik Expired - Fee Related DE112007001774B4 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US11/496,999 2006-07-31
US11/496,999 US7521620B2 (en) 2006-07-31 2006-07-31 Method of and system for browsing of music
PCT/US2007/017089 WO2008016595A2 (en) 2006-07-31 2007-07-31 Method of and system for browsing of music

Publications (2)

Publication Number Publication Date
DE112007001774T5 true DE112007001774T5 (de) 2009-07-09
DE112007001774B4 DE112007001774B4 (de) 2013-12-24

Family

ID=38984820

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112007001774T Expired - Fee Related DE112007001774B4 (de) 2006-07-31 2007-07-31 Verfahren und System zum Durchsuchen von Musik

Country Status (8)

Country Link
US (1) US7521620B2 (de)
JP (1) JP5039785B2 (de)
KR (1) KR101143160B1 (de)
CN (1) CN101496094B (de)
BR (1) BRPI0714105A2 (de)
DE (1) DE112007001774B4 (de)
GB (1) GB2454398B (de)
WO (1) WO2008016595A2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009024570A1 (de) * 2009-06-08 2010-12-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Organisieren der Wiedergabe von Medienstücken

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1826716A1 (de) * 2006-02-22 2007-08-29 Sony Deutschland Gmbh Verfahren zum selektiven Aktualisieren eines Benutzerprofils
US8560553B2 (en) * 2006-09-06 2013-10-15 Motorola Mobility Llc Multimedia device for providing access to media content
US20080091643A1 (en) * 2006-10-17 2008-04-17 Bellsouth Intellectual Property Corporation Audio Tagging, Browsing and Searching Stored Content Files
JP5186825B2 (ja) * 2007-07-18 2013-04-24 ヤマハ株式会社 電子マニュアル表示装置及びプログラム
EP2043006A1 (de) * 2007-09-28 2009-04-01 Sony Corporation Verfahren und Vorrichtung zur Bereitstellung einer Übersicht über Musikstücke
US20100229088A1 (en) * 2009-03-04 2010-09-09 Apple Inc. Graphical representations of music using varying levels of detail
US9749709B2 (en) 2010-03-23 2017-08-29 Apple Inc. Audio preview of music
US8583674B2 (en) 2010-06-18 2013-11-12 Microsoft Corporation Media item recommendation
US9153217B2 (en) * 2010-11-01 2015-10-06 James W. Wieder Simultaneously playing sound-segments to find and act-upon a composition
US9117426B2 (en) * 2010-11-01 2015-08-25 James W. Wieder Using sound-segments in a multi-dimensional ordering to find and act-upon a composition
US8716584B1 (en) * 2010-11-01 2014-05-06 James W. Wieder Using recognition-segments to find and play a composition containing sound
US10055493B2 (en) * 2011-05-09 2018-08-21 Google Llc Generating a playlist
US9361942B2 (en) * 2011-12-22 2016-06-07 Apple Inc. Playlist configuration and preview
CN103970802B (zh) * 2013-02-05 2018-12-14 北京音之邦文化科技有限公司 一种歌曲推荐的方法及装置
US20160196478A1 (en) * 2013-09-03 2016-07-07 Samsung Electronics Co., Ltd. Image processing method and device
CN104978377B (zh) * 2014-09-25 2019-08-23 腾讯科技(深圳)有限公司 一种多媒体数据处理的方法、装置以及终端
US10284630B2 (en) * 2015-04-02 2019-05-07 Jeffrey D. Brandstetter Computer-implemented systems and methods for providing content based on a user-controllable adventurousness parameter
CN106547768B (zh) * 2015-09-21 2020-12-29 中兴通讯股份有限公司 一种媒体文件的播放控制方法及装置
GB2551807B (en) * 2016-06-30 2022-07-13 Lifescore Ltd Apparatus and methods to generate music
US20180336275A1 (en) 2017-05-16 2018-11-22 Apple Inc. Intelligent automated assistant for media exploration
CN111753125A (zh) * 2020-06-22 2020-10-09 腾讯音乐娱乐科技(深圳)有限公司 歌曲音频显示的方法和装置
KR102410712B1 (ko) * 2020-09-15 2022-06-20 (주)구니스 리듬 게임 패턴의 자동 생성 기능이 구비된 리듬 게임 장치

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040064209A1 (en) 2002-09-30 2004-04-01 Tong Zhang System and method for generating an audio thumbnail of an audio track
US6995309B2 (en) 2001-12-06 2006-02-07 Hewlett-Packard Development Company, L.P. System and method for music identification

Family Cites Families (43)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5668788A (en) * 1996-06-10 1997-09-16 Allison; Avery Vince Programmed juke box capable of calculating a continuous updated playlist
ES2397501T3 (es) * 1997-11-25 2013-03-07 Motorola Mobility, Llc Métodos, sistemas y elementos fabricados de reproducción de contenido audio
US6201176B1 (en) 1998-05-07 2001-03-13 Canon Kabushiki Kaisha System and method for querying a music database
US6192340B1 (en) * 1999-10-19 2001-02-20 Max Abecassis Integration of music from a personal library with real-time information
US20020010759A1 (en) * 1999-12-30 2002-01-24 Hitson Bruce L. System and method for multimedia content composition and distribution
JP2001209488A (ja) * 2000-01-27 2001-08-03 Mitsubishi Electric Corp 情報入力装置及び情報入力プログラムを記録した記録媒体
US7206775B2 (en) * 2000-07-06 2007-04-17 Microsoft Corporation System and methods for the automatic transmission of new, high affinity media
US6657117B2 (en) * 2000-07-14 2003-12-02 Microsoft Corporation System and methods for providing automatic classification of media entities according to tempo properties
US6748395B1 (en) 2000-07-14 2004-06-08 Microsoft Corporation System and method for dynamic playlist of media
US6933433B1 (en) * 2000-11-08 2005-08-23 Viacom, Inc. Method for producing playlists for personalized music stations and for transmitting songs on such playlists
US7035871B2 (en) * 2000-12-19 2006-04-25 Intel Corporation Method and apparatus for intelligent and automatic preference detection of media content
EP1244033A3 (de) * 2001-03-21 2004-09-01 Matsushita Electric Industrial Co., Ltd. Gerät zur Erstellung von Abspiellisten sowie ein Gerät, ein System, ein Verfahren, ein Programm und ein Aufnahmemedium für die Bereitstellung von Audioinformationen
US7962482B2 (en) * 2001-05-16 2011-06-14 Pandora Media, Inc. Methods and systems for utilizing contextual feedback to generate and modify playlists
US20060206478A1 (en) * 2001-05-16 2006-09-14 Pandora Media, Inc. Playlist generating methods
US20060212442A1 (en) * 2001-05-16 2006-09-21 Pandora Media, Inc. Methods of Presenting and Providing Content to a User
US6993532B1 (en) * 2001-05-30 2006-01-31 Microsoft Corporation Auto playlist generator
US6476308B1 (en) * 2001-08-17 2002-11-05 Hewlett-Packard Company Method and apparatus for classifying a musical piece containing plural notes
US6528715B1 (en) * 2001-10-31 2003-03-04 Hewlett-Packard Company Music search by interactive graphical specification with audio feedback
US7096234B2 (en) * 2002-03-21 2006-08-22 Microsoft Corporation Methods and systems for providing playlists
US7797446B2 (en) * 2002-07-16 2010-09-14 Apple Inc. Method and system for updating playlists
US6987221B2 (en) * 2002-05-30 2006-01-17 Microsoft Corporation Auto playlist generation with multiple seed songs
US20030236582A1 (en) 2002-06-25 2003-12-25 Lee Zamir Selection of items based on user reactions
US7228054B2 (en) * 2002-07-29 2007-06-05 Sigmatel, Inc. Automated playlist generation
US20040064476A1 (en) * 2002-09-30 2004-04-01 John Rounds Computer program, method, and media player
US8053659B2 (en) * 2002-10-03 2011-11-08 Polyphonic Human Media Interface, S.L. Music intelligence universe server
JP4302967B2 (ja) 2002-11-18 2009-07-29 パイオニア株式会社 楽曲検索方法、楽曲検索装置及び楽曲検索プログラム
US7346320B2 (en) * 2003-01-17 2008-03-18 International Business Machines Corporation Method and apparatus for dynamically tuning radio stations with user-defined play lists
JP4232100B2 (ja) * 2003-12-26 2009-03-04 ソニー株式会社 再生装置及びコンテンツ評価方法
EP1608170A1 (de) 2004-06-15 2005-12-21 Thomson Licensing Verfahren und System zum Einstellen von Benutzerpreferenzen und Benutzerprofilen
US20070276733A1 (en) * 2004-06-23 2007-11-29 Frank Geshwind Method and system for music information retrieval
US7603362B2 (en) * 2004-08-20 2009-10-13 Microsoft Corporation Ordered list management
US7777125B2 (en) * 2004-11-19 2010-08-17 Microsoft Corporation Constructing a table of music similarity vectors from a music similarity graph
JP4528964B2 (ja) * 2004-11-22 2010-08-25 独立行政法人産業技術総合研究所 コンテンツ検索表示装置及び方法並びにプログラム
US7818350B2 (en) * 2005-02-28 2010-10-19 Yahoo! Inc. System and method for creating a collaborative playlist
CN100468389C (zh) * 2005-06-24 2009-03-11 鸿富锦精密工业(深圳)有限公司 一种播放列表生成系统及方法
CN1885286A (zh) * 2005-06-24 2006-12-27 鸿富锦精密工业(深圳)有限公司 一种播放列表生成系统及方法
US9230029B2 (en) * 2005-07-26 2016-01-05 Creative Technology Ltd System and method for modifying media content playback based on an intelligent random selection
US7680824B2 (en) * 2005-08-11 2010-03-16 Microsoft Corporation Single action media playlist generation
US7672916B2 (en) * 2005-08-16 2010-03-02 The Trustees Of Columbia University In The City Of New York Methods, systems, and media for music classification
US8166416B2 (en) * 2005-08-17 2012-04-24 Cyber Group Usa, Inc. Play menu and group auto organizer system and method for a multimedia player
US20070174147A1 (en) * 2005-12-30 2007-07-26 Realnetworks System and method for updating a playlist based upon ratings
US7685210B2 (en) * 2005-12-30 2010-03-23 Microsoft Corporation Media discovery and curation of playlists
US20070282905A1 (en) * 2006-06-06 2007-12-06 Sony Ericsson Mobile Communications Ab Communication terminals and methods for prioritizing the playback of distributed multimedia files

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6995309B2 (en) 2001-12-06 2006-02-07 Hewlett-Packard Development Company, L.P. System and method for music identification
US20040064209A1 (en) 2002-09-30 2004-04-01 Tong Zhang System and method for generating an audio thumbnail of an audio track

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009024570A1 (de) * 2009-06-08 2010-12-16 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Organisieren der Wiedergabe von Medienstücken

Also Published As

Publication number Publication date
GB2454398A (en) 2009-05-06
KR20090035563A (ko) 2009-04-09
DE112007001774B4 (de) 2013-12-24
GB0902270D0 (en) 2009-03-25
JP5039785B2 (ja) 2012-10-03
JP2009545833A (ja) 2009-12-24
GB2454398B (en) 2011-10-19
US20080022846A1 (en) 2008-01-31
WO2008016595A2 (en) 2008-02-07
CN101496094B (zh) 2012-05-02
CN101496094A (zh) 2009-07-29
WO2008016595A3 (en) 2008-06-05
US7521620B2 (en) 2009-04-21
BRPI0714105A2 (pt) 2013-01-01
KR101143160B1 (ko) 2012-05-08

Similar Documents

Publication Publication Date Title
DE112007001774B4 (de) Verfahren und System zum Durchsuchen von Musik
DE10232916B4 (de) Vorrichtung und Verfahren zum Charakterisieren eines Informationssignals
DE69908226T2 (de) Vorrichtung und Verfahren zum Wiederauffinden von Melodien
US7899564B2 (en) Procedure and apparatus for generating automatic replay of recordings
DE69936801T2 (de) Aufzeichnungsvorrichtung
US7505959B2 (en) System and methods for the automatic transmission of new, high affinity media
US7840620B2 (en) Hierarchical playlist generator
Pampalk et al. On the evaluation of perceptual similarity measures for music
DE10058811A1 (de) Verfahren zur Identifizierung von Musikstücken
DE60225348T2 (de) Auswahl eines Musikstücks anhand von Metadaten und einer externen Tempo-Eingabe
DE102014118075B4 (de) Audio und Video synchronisierendes Wahrnehmungsmodell
KR20070121810A (ko) 복합 뉴스 스토리 합성
DE60300374T2 (de) Sprachaktiviertes Musikwiedergabesystem
EP1939768A2 (de) Verfahren und Vorrichtung zur Auswahl von charakterisierbaren Datensätzen
EP1377924B1 (de) VERFAHREN UND VORRICHTUNG ZUM EXTRAHIEREN EINER SIGNALKENNUNG, VERFAHREN UND VORRICHTUNG ZUM ERZEUGEN EINER DAZUGEHÖRIGEN DATABANK und Verfahren und Vorrichtung zum Referenzieren eines Such-Zeitsignals
DE112009005444T5 (de) Datenverarbeitungsvorrichtung
DE102007034031A1 (de) Verfahren zur Bestimmung einer Ähnlichkeit, Vorrichtung und Verwendung hierfür
AT505828B1 (de) Automatische verbesserung des musikangebots
DE102016226042A1 (de) Vorrichtung, Fortbewegungsmittel und Verfahren zur Gestaltung eines Übergangs zwischen zwei Audio-Dateien
Dittenbach et al. Playsom: An alternative approach to track selection and playlist generation in large music collections
DE102013009569B4 (de) Verfahren zum Betreiben eines Infotainmentsystems zum Beschaffen einer Wiedergabeliste für eine Audiowiedergabe in einem Kraftfahrzeug, Infotainmentsystem sowie Kraftwagen umfassend ein Infotainmentsystem
DE102015225476A1 (de) Verfahren zur automatisierten Erzeugung von Signalklängen aus Musikstücken
DE102007034030A1 (de) Verfahren zur Durchführung einer Anpassung von Deskriptoren, Vorrichtung und Verwendung hierfür
EP2788898A2 (de) Verfahren und system zur auswahl mindestens eines datensatzes aus einer relationalen datenbank
DE10304098A1 (de) Verfahren und Vorrichtung zur Steuerung eines Tonfolge gekoppelten Bildfolgeablaufs sowie zugehöriges Programm

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final

Effective date: 20140325

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee