JP2001052004A - Method and device for music data retrieval - Google Patents

Method and device for music data retrieval

Info

Publication number
JP2001052004A
JP2001052004A JP11221064A JP22106499A JP2001052004A JP 2001052004 A JP2001052004 A JP 2001052004A JP 11221064 A JP11221064 A JP 11221064A JP 22106499 A JP22106499 A JP 22106499A JP 2001052004 A JP2001052004 A JP 2001052004A
Authority
JP
Japan
Prior art keywords
music
data
search
music data
index
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11221064A
Other languages
Japanese (ja)
Other versions
JP2001052004A5 (en
Inventor
Hideo Neishi
英生 根石
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP11221064A priority Critical patent/JP2001052004A/en
Publication of JP2001052004A publication Critical patent/JP2001052004A/en
Publication of JP2001052004A5 publication Critical patent/JP2001052004A5/ja
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To retrieve music on the basis of data other than text data. SOLUTION: A music index generation part 11 reproduces a recording medium 10 like a CD, where music data is recorded, to encode the musical interval and the strength of reproduced music data as a numerical value of a specific bit width. A music index is generated by operation relating music data to text data like a composer name or the like on the basis of music data encoded to the numerical value. Data of the music index is recorded in a recording medium 12 like an HD or an optical disk and is supplied to a music retrieval part 15 through this recording medium. A music retrieval formula generation part 14 encodes the musical interval and the strength of sounds generated by user's humming or the like to obtain numerical data. Sound data encoded to numerical data is connected to separately inputted text data with a logical operator like AND or OR to generate a retrieval formula, and a music retrieval part 15 retrieves a music adapted to the retrieval formula from the music index.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、所望の楽曲を探
すための検索を行う、楽曲データ検索装置および検索方
法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a music data search apparatus and a music search method for searching for a desired music piece.

【0002】[0002]

【従来の技術】例えばCD(Compact Disk)、あるいは
電話回線や衛星ディジタル放送における特定のチャンネ
ルを介して楽曲データを配信するサービス等によって一
般のユーザが聴くことが可能な楽曲は、近年、益々豊富
化している。このため、ユーザが例えばテレビ、ラジオ
等の番組を通じて聴き知った楽曲を新たに購入したいと
考えた場合に、その楽曲が収録されているCD等を迅速
に知るための検索に対する需要が高まってきている。
2. Description of the Related Art In recent years, music that can be listened to by a general user through a service for distributing music data via a CD (Compact Disk) or a specific channel in a telephone line or satellite digital broadcasting has become increasingly popular in recent years. Is becoming For this reason, when a user wants to purchase a new piece of music that he / she has heard through a program such as a television or a radio, the demand for a search for quickly knowing a CD or the like in which the music is recorded has increased. I have.

【0003】また、最近では、ユーザ自身も記憶しきれ
ない程大量の楽曲が多数の、また多様な記録媒体上の所
持されていることも少なくない。このような場合に、ユ
ーザがその時に聴きたい楽曲が何れの記録媒体上にある
かを迅速に知るための検索に対する需要が高まってきて
いる。
[0003] Recently, there are many cases in which a large number of music pieces that can not be memorized by the user themselves are held on many or various recording media. In such a case, there is an increasing demand for a search for quickly knowing on which recording medium the music the user wants to listen to at that time is present.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、従来
は、曲名、作曲者名および作詞者名等のアーティスト
名、あるいは歌詞等のテキストデータに基づく検索しか
行うことができなかった。このため、例えばメロディに
関する断片的な知識等に基づいて検索を行うことはでき
なかった。
However, conventionally, only retrieval based on text data such as song names, artist names such as composer names and songwriter names, or lyrics, etc., could be performed. For this reason, it has not been possible to perform a search based on, for example, fragmentary knowledge of a melody.

【0005】また、曲名等のテキストデータは正確に入
力されなければ、所望の楽曲を検索することができなか
った。このため、ユーザの記憶違い等により、検索でき
ないおそれがあった。
[0005] Further, unless text data such as a song name is input correctly, a desired song cannot be searched. For this reason, there is a possibility that the search cannot be performed due to a difference in the memory of the user or the like.

【0006】従って、この発明の目的は、テキストデー
タ以外のデータに基づく検索が可能であり、また、検索
の基礎とされるデータがあいまいさを含む場合にも検索
が可能となるような楽曲データ検索装置および検索方法
を提供することにある。
Accordingly, it is an object of the present invention to provide music data which can be searched based on data other than text data, and which can be searched even when the data on which the search is based contains ambiguity. A search device and a search method are provided.

【0007】[0007]

【課題を解決するための手段】請求項1の発明は、楽曲
データ検索装置において、楽曲データと、当該楽曲デー
タに関連するテキストデータとが関連付けられてなる索
引データを複数の楽曲について生成する索引データ生成
手段と、入力される音声データに基づいて検索条件を生
成する検索条件生成手段と、上記検索条件に基づいて、
上記索引データを参照して楽曲を選択し、選択した楽曲
を表示する検索手段とを有することを特徴とする楽曲デ
ータ検索装置である。
According to a first aspect of the present invention, in a music data search apparatus, an index for generating, for a plurality of music pieces, index data in which music data and text data related to the music data are associated with each other. A data generation unit, a search condition generation unit that generates a search condition based on input voice data,
A music data search apparatus comprising: a search unit that selects a music piece with reference to the index data and displays the selected music piece.

【0008】請求項11の発明は、楽曲データ検索方法
において、楽曲データと、当該楽曲データに関連するテ
キストデータとが関連付けられてなる索引データを複数
の楽曲について生成する索引データ生成ステップと、入
力される音声データに基づいて検索条件を生成する検索
条件生成ステップと、上記検索条件に基づいて、上記索
引データを参照して楽曲を選択し、選択した楽曲を表示
する検索ステップとを有することを特徴とする楽曲デー
タ検索方法である。
According to an eleventh aspect of the present invention, in the music data search method, an index data generating step of generating, for a plurality of music, index data in which music data and text data related to the music data are associated, A search condition generating step of generating a search condition based on the audio data to be performed, and a search step of selecting a song by referring to the index data based on the search condition and displaying the selected song. This is a featured music data search method.

【0009】以上のような発明によれば、ユーザ等が口
ずさむ等の方法で入力される音声データに基づいて楽曲
を検索することができる。
According to the invention described above, it is possible to search for music based on voice data input by a method such as humming a user or the like.

【0010】[0010]

【発明の実施の形態】この発明の一実施形態の構成の一
例を図1に示す。音楽索引作成部11は、例えばCD等
の楽曲データが記録された記録媒体10を再生し、再生
された楽曲データの音程および強弱を特定のビット幅の
数値としてエンコードする。このエンコード処理におい
て、音程情報は、1音の間をユーザ等の選択によって幾
つかのレベルに分けることができる。また、強弱の情報
は、ユーザ等の選択によって複数の段階に分けることが
できる。このようなエンコード処理によって数値化され
た楽曲データと、作曲者名、作詩者名、演奏者名等のテ
キストデータとを結び付けることにより、音楽索引が作
成される。作成された音楽索引のデータは、HD(ハー
ドディスク)や、例えばCD等の光ディスク等の記録媒
体12に記録され、これらの記録媒体を介して音楽検索
部15に供給される。
FIG. 1 shows an example of the configuration of an embodiment of the present invention. The music index creating unit 11 reproduces the recording medium 10 on which music data such as a CD is recorded, and encodes the pitch and strength of the reproduced music data as a numerical value of a specific bit width. In the encoding process, the pitch information can be divided into several levels by selecting the user or the like between one sound. In addition, the strength information can be divided into a plurality of stages according to selection by a user or the like. A music index is created by linking music data quantified by such encoding processing with text data such as a composer name, a poet name, a performer name, and the like. The created music index data is recorded on a recording medium 12 such as an HD (hard disk) or an optical disk such as a CD, and is supplied to the music search unit 15 via these recording media.

【0011】また、音楽検索式作成部14は、ユーザ等
が例えば口ずさむ等の方法によって発生させた音声、筆
記された音譜等を入力とし、これらの入力における音程
および強弱をエンコードし、特定のビット幅の数値デー
タとする。すなわち、図2に示すように、音程情報およ
び強弱情報を1対の情報としてエンコード処理を行う。
このエンコード処理において、音程情報は、1音の間を
ユーザ等の選択によって幾つかのレベルに分けることが
できる。また、強弱情報は、ユーザ等の選択によって複
数の段階に分けることができる。これらの楽曲データ
を、AND,OR等の論理演算子で結ぶことにより、検
索式を作成することができる。
[0011] The music retrieval formula creation unit 14 receives, as input, speech generated by a user or the like by humming or the like, writes a written score, etc., encodes a pitch and dynamics in these inputs, and encodes specific bits. The numerical value of the width is used. That is, as shown in FIG. 2, the encoding process is performed with the pitch information and the strength information as a pair of information.
In the encoding process, the pitch information can be divided into several levels by selecting the user or the like between one sound. Further, the strength information can be divided into a plurality of stages according to selection by a user or the like. By connecting these pieces of music data with logical operators such as AND and OR, a search formula can be created.

【0012】後述するように、曲名、演奏者名等のテキ
ストデータを検索式に加えるようにしても良い。また、
ユーザ等があいまい度を指定し、ある程度の範囲内で似
通った楽曲を検索できるようにしても良い。音楽検索部
15は、音楽検索式作成部14から供給される検索式を
解析し、記録媒体12から供給される音楽索引のデータ
の中から、検索の条件に合う楽曲を検索する。検索結果
は、音楽検索式作成部14に供給される。音楽検索式作
成部14は、検索結果を表示する。
As will be described later, text data such as a song title and a player name may be added to the search formula. Also,
The user or the like may specify the degree of ambiguity so that similar music pieces can be searched within a certain range. The music search unit 15 analyzes the search formula supplied from the music search formula creation unit 14 and searches the music index data supplied from the recording medium 12 for songs that match the search conditions. The search result is supplied to the music search formula creation unit 14. The music search formula creator 14 displays the search results.

【0013】音楽索引作成部11について、図3を参照
してより詳細に説明する。音楽索引作成部11は、音源
20、CPU(マイコン)22、サウンドカードおよび
ドライバ部23、キーボード24、メモリ25、および
ディスクドライブ26を有している。これらの構成要素
は、バス27で接続されている。音源部20は、楽曲デ
ータを記録している記録媒体10から楽曲データを再生
する。記録媒体10としては、CD,LPレコード、磁
気テープ等の楽曲データを記録したテープ等を用いるこ
とができる。音源部20が再生した楽曲データは、サウ
ンドカードおよびドライバ部23に供給される。サウン
ドカードおよびドライバ部23、CPU22、メモリ2
5等による処理により、特定のサンプリングレートの下
で、音程および音の強弱をエンコードして、特定のビッ
ト幅の数値とする。
The music index creating section 11 will be described in more detail with reference to FIG. The music index creation unit 11 includes a sound source 20, a CPU (microcomputer) 22, a sound card and driver unit 23, a keyboard 24, a memory 25, and a disk drive 26. These components are connected by a bus 27. The sound source unit 20 reproduces music data from the recording medium 10 that stores music data. As the recording medium 10, a tape or the like on which music data such as a CD, LP record, or magnetic tape is recorded can be used. The music data reproduced by the sound source unit 20 is supplied to the sound card and the driver unit 23. Sound card and driver unit 23, CPU 22, memory 2
By the processing of 5 or the like, the pitch and the strength of the sound are encoded at a specific sampling rate to obtain a numerical value of a specific bit width.

【0014】ここで、サンプリングレート、音程の段階
のレベル数、音の強弱のレベル数は、ユーザ等が設定す
ることが可能とされている。また、例えば楽曲データの
入力時等に、作曲者名、作詩者名、演奏者名、当該楽曲
データを音楽索引に登録した日付等のテキスト情報を入
力することが可能とされている。これらの設定およびテ
キスト情報の入力は、操作等に係るコマンド等と共に、
キーボード24を介してなされる。CPU22、メモリ
25等の動作により、数値化された楽曲データと作曲者
名等のテキストデータとが結び付けられてなる音楽索引
(図4参照)が作成される。作成された音楽索引のデー
タは、記録媒体12に供給され、記録される。
Here, the user can set the sampling rate, the number of levels of the pitch, and the number of levels of the sound. Also, for example, when inputting music data, text information such as a composer name, a poet name, a performer name, and a date when the music data is registered in a music index can be input. Input of these settings and text information, along with commands related to operations, etc.,
This is done via the keyboard 24. The operation of the CPU 22, the memory 25, and the like creates a music index (see FIG. 4) in which the digitized music data and text data such as the composer name are linked. The data of the created music index is supplied to the recording medium 12 and recorded.

【0015】次に、音楽検索式作成部14について図5
を参照して説明する。音楽検索式作成部14は、音源3
0、CPU(マイコン)32、サウンドカードおよびド
ライバ部33、キーボード34、メモリ35を有してい
る。これらの構成要素はバス36で接続されている。音
源30はマイクロフォン等を備え、ユーザ等が例えば口
ずさむ等の方法で発生させた音声を電気信号に変換し、
この信号をサウンドカードおよびドライバ部23に供給
する。なお、音声は口ずさむ以外に、例えば楽器を演奏
する、記録媒体から再生する等の方法で発生させても良
い。また、例えばテレビジョン放送、ラジオ放送、電話
回線を介して得られる音声等を音源30に供給するよう
にしても良い。
Next, FIG.
This will be described with reference to FIG. The music search formula creator 14 generates the sound source 3
0, a CPU (microcomputer) 32, a sound card and driver unit 33, a keyboard 34, and a memory 35. These components are connected by a bus 36. The sound source 30 includes a microphone or the like, and converts a sound generated by a user or the like by, for example, humming into an electric signal,
This signal is supplied to the sound card and the driver unit 23. The sound may be generated by a method other than humming, such as playing a musical instrument or reproducing from a recording medium. Further, for example, a sound obtained through a television broadcast, a radio broadcast, a telephone line, or the like may be supplied to the sound source 30.

【0016】また、キーボード34を介して、音程およ
び音の強弱の情報を入力することが可能とされている。
音源30およびキーボード34等から入力される、音声
に係るデータは、サウンドカードおよびドライバ部3
3、CPU32、メモリ35等による処理によってエン
コードされる。すなわち、特定のサンプリングレートの
下で、入力される楽曲データの音程および音の強弱が特
定のビット幅の数値データとされる。ここで、エンコー
ド処理に係るサンプリングレート、音程の段階のレベル
数、音の強弱のレベル数は、ユーザ等が行う設定に従っ
て変えることが可能である。
Further, it is possible to input information on the pitch and the strength of the sound via the keyboard 34.
Data relating to sound, which is input from the sound source 30 and the keyboard 34, etc.,
3, encoded by processing by the CPU 32, the memory 35, and the like. That is, at a specific sampling rate, the pitch and strength of the input music data are set to numerical data having a specific bit width. Here, the sampling rate, the number of pitch steps, and the number of sound levels in the encoding process can be changed according to the settings made by the user or the like.

【0017】一方、キーボード34を介して、作曲者、
作詩者、演奏者等のテキストデータを入力することがで
きる。また、例えば所定の入力ソフトウェアを用いる等
の方法により、キーボード34を介して音譜のデータを
テキストデータとして入力することができる。上述した
ようにして生成される数値データとテキストデータとに
基づいて検索式が生成される。例えば、各データ情報を
AND,OR等の論理演算子で結ぶことによって検索式
が生成される。
On the other hand, a composer,
Text data of a writer, a performer, etc. can be input. The musical score data can be input as text data via the keyboard 34 by, for example, using a predetermined input software. A search formula is generated based on the numerical data and text data generated as described above. For example, a search formula is generated by connecting each data information with a logical operator such as AND or OR.

【0018】検索式として使用される論理式の形式につ
いても、キーボード34等から入力することが可能とさ
れている。また、あいまい度の指定が可能とされてい
る。あいまい度は、音程、音の強弱、テキストデータの
表記の揺れ等に関する許容度として設定することができ
る。これにより、音程、音の強弱等の多少のずれ、記憶
違い等に起因するテキストデータの表記の多少の誤り等
があっても検索が可能となる。あいまい度の指定は、操
作等に係るコマンド等と共に、キーボード34を介して
行うことができる。
The format of a logical expression used as a search expression can also be input from the keyboard 34 or the like. It is also possible to specify the degree of ambiguity. The degree of ambiguity can be set as a tolerance for pitch, strength of sound, fluctuation of notation of text data, and the like. As a result, a search can be performed even if there is a slight error in the notation of the text data due to a slight deviation such as a pitch or a sound intensity, a memory error, or the like. The specification of the degree of ambiguity can be performed via the keyboard 34 together with commands related to operations and the like.

【0019】次に、音楽検索部15について、図6を参
照してより詳細に説明する。音楽検索式作成部15は、
CPU(マイコン)42、サウンドカードおよびドライ
バ部43、キーボード44、メモリ45を有している。
これらの構成要素はバス46で接続されている。また、
音楽検索部15には、記録媒体12と、音楽検索式作成
部14とからデータを供給されるようになされている。
そして、記録媒体12から音楽索引のデータを読み出
し、読み出したデータを全文検索して、音楽検索式作成
部14から供給される検索式によって示される検索の条
件に完全一致するもの、およびある程度以上適合する楽
曲データを取り出す。かかる検索処理は、CPU42、
サウンドカードおよびドライバ部43、メモリ45等に
よってなされる。
Next, the music search section 15 will be described in more detail with reference to FIG. The music search formula creator 15
It has a CPU (microcomputer) 42, a sound card and driver unit 43, a keyboard 44, and a memory 45.
These components are connected by a bus 46. Also,
The music search unit 15 is supplied with data from the recording medium 12 and the music search formula creation unit 14.
Then, the music index data is read from the recording medium 12, and the read data is subjected to full-text search to completely match the search conditions indicated by the search formula supplied from the music search formula creation unit 14, and to a certain degree or more. Extract the music data to be played. The search process is performed by the CPU 42,
This is performed by the sound card, the driver unit 43, the memory 45, and the like.

【0020】この際に、完全一致しない楽曲データを何
れの範囲まで取り出すかは、上述したようにして音楽検
索式作成部14によって設定されたあいまい度によって
決定される。なお、検索を行う際の操作等に係るコマン
ド等と共に、キーボード44を介してあいまい度を設定
できるようにしても良い。この場合には、検索結果に応
じて、あいまい度を適宜設定し直しながら検索を行うこ
とができる。
At this time, the range in which music data that does not completely match is taken out is determined by the degree of ambiguity set by the music search formula creation unit 14 as described above. Note that the degree of ambiguity may be set via the keyboard 44 together with a command related to an operation or the like at the time of performing a search. In this case, it is possible to perform the search while appropriately setting the ambiguity according to the search result.

【0021】検索結果は、当該楽曲データが音楽索引に
追加された日付順、或いは検索の条件に対する適合度を
示すランキング順等の順序で、一覧表等の形式で所定の
モニタ(図示せず)に表示される。ランキングは完全一
致した楽曲データについて最も高くなされ、適合度が下
がるに従って順次低くなされる。
A search result is obtained by a predetermined monitor (not shown) in the form of a list or the like in the order of date when the music data is added to the music index or in the order of ranking indicating the degree of conformity to the search condition. Will be displayed. The ranking is set highest for the completely matched music data, and is set lower as the matching degree decreases.

【0022】上述したこの発明の一実施形態では、音楽
索引のデータを光ディスク、HD等に記録し、これらの
記録媒体を介して音楽検索部に音楽索引のデータを供給
するようにしているが、例えば半導体メモリを使用した
不揮発メモリ等を用いても良い。
In the embodiment of the present invention described above, music index data is recorded on an optical disk, HD, or the like, and music index data is supplied to the music search unit via these recording media. For example, a nonvolatile memory using a semiconductor memory may be used.

【0023】また、この発明の一実施形態では、音楽索
引のデータを生成する際の音源として、CD,LPレコ
ード、磁気テープ等を再生する構成を用いるものとした
が、他の記録媒体、例えば,MD(Mini Disk) 、DVD
(Digital Versatile Disk)等のディスク状記録媒体から
再生される楽曲データを音源として用いても良い。
Further, in the embodiment of the present invention, a configuration for reproducing a CD, an LP record, a magnetic tape, or the like is used as a sound source when generating music index data. , MD (Mini Disk), DVD
Music data reproduced from a disk-shaped recording medium such as a (Digital Versatile Disk) may be used as a sound source.

【0024】また、この発明の一実施形態では、音楽
索引のデータを生成する際のサンプリングレート、音程
の段階のレベル数および音の強弱のレベル数の設定、作
曲者等のテキストデータの入力、音楽検索式を作成す
る際のサンプリングレート、音程の段階のレベル数およ
び音の強弱のレベル数の設定、音程および音の強弱の情
報の入力、あいまい度の指定、音楽検索を実行する際
のあいまい度の設定等は、各種の操作に係るコマンドの
入力等の処理と共にキーボードを介してなされる。これ
に対して、これらのデータ入力、設定等を他の方法で行
うようにしても良い。例えば、赤外線等を用いて入力操
作を行う遠隔操作部を用いても良い。また、特にテキス
トデータや音譜の入力については、イメージスキャナ等
の光学的読み取り装置を用いて行うことが有効である。
Further, in one embodiment of the present invention, setting of a sampling rate when generating music index data, the number of levels of musical intervals and the number of levels of dynamics, input of text data of a composer or the like, Set the sampling rate when creating a music search formula, the number of levels of pitch steps and the number of dynamic levels, enter information on pitch and dynamics, specify ambiguity, and ambiguous when performing music searches The setting of the degree and the like are performed via the keyboard together with processing such as input of commands related to various operations. On the other hand, these data input, setting, and the like may be performed by another method. For example, a remote operation unit that performs an input operation using infrared rays or the like may be used. In particular, it is effective to input text data and musical scores using an optical reading device such as an image scanner.

【0025】この発明は、上述したこの発明の一実施形
態に限定されるものでは無く、この発明の主旨を逸脱し
ない範囲内で様々な変形や応用が可能である。
The present invention is not limited to the above-described embodiment of the present invention, and various modifications and applications are possible without departing from the gist of the present invention.

【0026】[0026]

【発明の効果】この発明によれば、断片的なメロディ等
の音声データや音譜、テキストデータ等を入力すること
により、既存の楽曲の内から適合するものを検索するこ
とができる。
According to the present invention, by inputting voice data such as fragmentary melodies, musical scores, text data, etc., it is possible to search for a suitable song from existing music.

【0027】特に、音声データ、テキストデータ等に対
して予め想定されるあいまいさを考慮して検索を行うこ
とにより、音声データ、テキストデータ等の入力が正確
でないことに起因して所望の楽曲を検索できないことを
回避若しくはその程度を改善することができる。
In particular, by performing a search for voice data, text data, and the like in consideration of ambiguity assumed in advance, a desired musical piece can be generated due to inaccurate input of voice data, text data, and the like. It is possible to avoid being unable to search or to improve the degree thereof.

【図面の簡単な説明】[Brief description of the drawings]

【図1】この発明の一実施形態の全体的な構成の一例を
示すブロック図である。
FIG. 1 is a block diagram showing an example of the overall configuration of an embodiment of the present invention.

【図2】エンコード処理におけるサンプリングについて
説明するための略線図である。
FIG. 2 is a schematic diagram illustrating sampling in encoding processing.

【図3】この発明の一実施形態の一部の構成の一例を示
すブロック図である。
FIG. 3 is a block diagram illustrating an example of a partial configuration of an embodiment of the present invention.

【図4】音楽索引について説明するための略線図であ
る。
FIG. 4 is a schematic diagram for explaining a music index.

【図5】この発明の一実施形態の他の一部の構成の一例
を示すブロック図である。
FIG. 5 is a block diagram showing an example of another configuration of another embodiment of the present invention.

【図6】この発明の一実施形態のさらに他の一部の構成
の一例を示すブロック図である。
FIG. 6 is a block diagram showing an example of still another configuration of one embodiment of the present invention.

【符号の説明】[Explanation of symbols]

11・・・音楽索引作成部、14・・・音楽検索式作成
部、15・・・音楽検索部
11: music index creation unit, 14: music search formula creation unit, 15: music search unit

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G10L 3/00 531N ──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI theme coat ゛ (reference) G10L 3/00 531N

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 楽曲データ検索装置において、 楽曲データと、当該楽曲データに関連するテキストデー
タとが関連付けられてなる索引データを複数の楽曲につ
いて生成する索引データ生成手段と、 入力される音声データに基づいて検索条件を生成する検
索条件生成手段と、 上記検索条件に基づいて、上記索引データを参照して楽
曲を選択し、選択した楽曲を表示する検索手段とを有す
ることを特徴とする楽曲データ検索装置。
1. A music data search device, comprising: index data generating means for generating, for a plurality of music, index data in which music data and text data related to the music data are associated with each other; Music data comprising: search condition generating means for generating a search condition based on the search condition; and search means for selecting a music piece with reference to the index data based on the search condition and displaying the selected music piece. Search device.
【請求項2】 請求項1において、 上記索引データ生成手段は、 上記楽曲データを入力する手段と、 上記テキストデータを入力する手段と、 上記楽曲データと、上記第1のテキストデータとを関連
付ける処理を行うことにより、上記索引データを形成す
る手段とを有することを特徴とする楽曲データ検索装
置。
2. The method according to claim 1, wherein the index data generation unit includes a unit that inputs the music data, a unit that inputs the text data, and a process that associates the music data with the first text data. Means for forming the index data by performing the following.
【請求項3】 請求項1において、 上記検索条件生成手段は、 上記音声データを入力する手段と、 上記楽曲データに基づいて検索条件を決定する処理を行
う手段とを有することを特徴とする楽曲データ検索装
置。
3. The music composition according to claim 1, wherein said search condition generation means has means for inputting said audio data, and means for performing a process of determining a search condition based on said music data. Data retrieval device.
【請求項4】 請求項1において、 上記検索手段は、 上記索引データの内で、上記検索条件に対して完全に適
合するものと、上記検索条件に対して、予め決定された
あいまい度の範囲で適合すると判断されるものを選択す
ることを特徴とする楽曲データ検索装置。
4. The search means according to claim 1, wherein said search means completely matches said search condition among said index data and a predetermined range of ambiguity with respect to said search condition. A music data search device for selecting a music data that is determined to be compatible with the music data.
【請求項5】 請求項4において、 上記検索条件生成手段は、 上記あいまい度を決定することをことを特徴とする楽曲
データ検索装置。
5. The music data search device according to claim 4, wherein the search condition generation means determines the degree of ambiguity.
【請求項6】 請求項5において、 上記検索条件生成手段は、 ユーザによる入力に基づいて上記あいまい度を決定する
ことを特徴とする楽曲データ検索装置。
6. The music data search device according to claim 5, wherein the search condition generation means determines the degree of ambiguity based on an input by a user.
【請求項7】 請求項4において、 上記検索手段は、 上記あいまい度を決定することを特徴とする楽曲データ
検索装置。
7. The music data search device according to claim 4, wherein the search means determines the degree of ambiguity.
【請求項8】 請求項7において、 上記検索手段は、 ユーザによる入力に基づいて上記あいまい度を決定する
ことを特徴とする楽曲データ検索装置。
8. The music data search device according to claim 7, wherein the search means determines the degree of ambiguity based on an input by a user.
【請求項9】 請求項4において、 上記検索手段による検索の結果を、上記検索条件に対す
る適合度に関連する順番で表示することを特徴とする楽
曲データ検索装置。
9. The music data search device according to claim 4, wherein a result of the search by the search means is displayed in an order related to the degree of matching with the search condition.
【請求項10】 請求項1において、 上記検索手段による検索の結果を、検索された楽曲が上
記索引データに登録された日時に関連する順番で表示す
ることを特徴とする楽曲データ検索装置。
10. The music data search device according to claim 1, wherein a search result by the search means is displayed in an order related to a date and time when the searched music is registered in the index data.
【請求項11】 楽曲データ検索方法において、 楽曲データと、当該楽曲データに関連するテキストデー
タとが関連付けられてなる索引データを複数の楽曲につ
いて生成する索引データ生成ステップと、 入力される音声データに基づいて検索条件を生成する検
索条件生成ステップと、 上記検索条件に基づいて、上記索引データを参照して楽
曲を選択し、選択した楽曲を表示する検索ステップとを
有することを特徴とする楽曲データ検索方法。
11. A music data search method, comprising: an index data generating step of generating, for a plurality of music, index data in which music data and text data related to the music data are associated with each other; Music data, comprising: a search condition generating step of generating a search condition based on the search condition; and a search step of selecting a music by referring to the index data based on the search condition and displaying the selected music. retrieval method.
JP11221064A 1999-08-04 1999-08-04 Method and device for music data retrieval Pending JP2001052004A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11221064A JP2001052004A (en) 1999-08-04 1999-08-04 Method and device for music data retrieval

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11221064A JP2001052004A (en) 1999-08-04 1999-08-04 Method and device for music data retrieval

Publications (2)

Publication Number Publication Date
JP2001052004A true JP2001052004A (en) 2001-02-23
JP2001052004A5 JP2001052004A5 (en) 2006-04-27

Family

ID=16760935

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11221064A Pending JP2001052004A (en) 1999-08-04 1999-08-04 Method and device for music data retrieval

Country Status (1)

Country Link
JP (1) JP2001052004A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002258873A (en) * 2001-03-01 2002-09-11 Sony Corp Music-recognizing device and music service system
US6956161B2 (en) 2001-03-02 2005-10-18 Yamaha Corporation Musical performance data search system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002258873A (en) * 2001-03-01 2002-09-11 Sony Corp Music-recognizing device and music service system
JP4506004B2 (en) * 2001-03-01 2010-07-21 ソニー株式会社 Music recognition device
US6956161B2 (en) 2001-03-02 2005-10-18 Yamaha Corporation Musical performance data search system

Similar Documents

Publication Publication Date Title
JP3662969B2 (en) Karaoke system
Rubin et al. Content-based tools for editing audio stories
JPH06110945A (en) Music data base preparing device and retrieving device for the same
JP2005521979A (en) Media player with “DJ” mode
KR20040104800A (en) Device for managing meta data and method thereof
JP4898272B2 (en) Playlist search device and playlist search method
JP3993751B2 (en) Text information read-out device, and music audio playback device, medium, and program incorporating the same
JP4697432B2 (en) Music playback apparatus, music playback method, and music playback program
US6573444B1 (en) Music data compression apparatus and method
WO2006087891A1 (en) Information selecting method information selecting device
JP2001052004A (en) Method and device for music data retrieval
JP3883971B2 (en) Audio playback device
JP4721765B2 (en) Content search apparatus and content search method
JP2006338315A (en) Data selection system
JP2005285285A (en) Content read system and musical piece reproduction apparatus
JP3010936B2 (en) Music player
JPH1195761A (en) Karaoke machine
JPH11242496A (en) Information reproducing device
JP2853258B2 (en) Karaoke equipment
JP2002157255A (en) Device and method for retrieving music
KR101143908B1 (en) Audio reproduction apparatus and method for providing disk jockey service
JP3036523B2 (en) Karaoke equipment
JPH06308982A (en) Karaoke system
JP5003278B2 (en) Content data file processing system
JP2006114148A (en) Sound recording medium, sound reproducing apparatus, sound recording medium preparing apparatus, and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060314

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060314

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20090205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090217

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090420

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090616