JP2006318384A - Musical piece retrieval system and musical piece retrieval method - Google Patents

Musical piece retrieval system and musical piece retrieval method Download PDF

Info

Publication number
JP2006318384A
JP2006318384A JP2005142806A JP2005142806A JP2006318384A JP 2006318384 A JP2006318384 A JP 2006318384A JP 2005142806 A JP2005142806 A JP 2005142806A JP 2005142806 A JP2005142806 A JP 2005142806A JP 2006318384 A JP2006318384 A JP 2006318384A
Authority
JP
Japan
Prior art keywords
music
data
search
database
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005142806A
Other languages
Japanese (ja)
Inventor
Narifumi Nochida
成文 後田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005142806A priority Critical patent/JP2006318384A/en
Publication of JP2006318384A publication Critical patent/JP2006318384A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a musical piece retrieval system and a musical piece retrieval method which allow musical piece data to be retrieved with a high precision by a mobile terminal device on the basis of impression degree data determined by human senses. <P>SOLUTION: In a musical piece registration device 10, a feature data extraction part 13 extracts physical feature data from inputted musical piece data, and an impression degree data conversion part 14 converts feature data to impression degree data determined by human senses, and a transmission and reception part 21 transfers musical piece data stored in a musical piece database 15 and impression degree data to a mobile terminal device 30. In the mobile terminal device 30, a transmission and reception part 31 stores the transferred musical piece data and impression degree data in a terminal musical piece database 32, and a terminal operation part 34 accepts an input as a retrieval condition of impression degree data. and a musical piece retrieval part 33 retrieves the terminal musical piece database 32 on the basis of inputted impression degree data to specify a prescribed number of musical piece data. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、楽曲データベースに記憶された楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムおよび楽曲検索方法に関し、特に携帯端末装置において端末楽曲データベースに記憶された楽曲データの検索を行う楽曲検索システムおよび楽曲検索方法に関する。   The present invention relates to a music registration apparatus that stores input music data in a music database, and a portable terminal that is configured to be connectable to the music registration apparatus and that has a terminal music database to which music data stored in the music database is transferred. More particularly, the present invention relates to a music search system and a music search method for searching music data stored in a terminal music database in a mobile terminal device.

近年、HDD等の大容量の記憶手段が開発され、大容量の記憶手段に大量の楽曲データを記憶させることができるようになっている。大容量の記憶手段に記憶されている大量の楽曲データの検索は、アーティスト名や曲名、その他のキーワード等の書誌データを用いて行うのが一般的であるが、書誌データで検索した場合には、楽曲が持っている情感を考慮することができず、印象の異なる楽曲が検索される可能性があり、聴取した際の印象が同じような楽曲を検索したい場合には、不向きである。   In recent years, a large-capacity storage means such as an HDD has been developed, and a large amount of music data can be stored in the large-capacity storage means. Searching for a large amount of music data stored in a large-capacity storage means is generally performed using bibliographic data such as artist names, music titles, and other keywords. This is not suitable when it is not possible to take into account the emotions of a music piece and there is a possibility that a music piece with a different impression will be searched, and it is desired to search for a music piece with a similar impression when listening.

そこで、楽曲に対する主観的な印象に基づいて利用者の希望する楽曲を検索可能にするために、検索を希望する楽曲に対するユーザの主観的な要件を入力して数値化して出力し、その出力から、検索対象の楽曲の印象を数量化した予測印象値を算出し、算出した予測印象値をキーとして、複数の楽曲の音響信号およびその楽曲の印象を数量化した印象値を記憶した楽曲データベースを検索することにより、利用者の楽曲に対する主観的なイメージに基づいて、希望する楽曲を検索する装置が提案されている(例えば、特許文献1参照)。   Therefore, in order to make it possible to search for the music desired by the user based on the subjective impression of the music, the user's subjective requirements for the music desired to be searched are input, quantified and output, and the output , A predicted impression value obtained by quantifying the impression of the music to be searched is calculated, and a music database storing an acoustic value of a plurality of music and an impression value obtained by quantifying the impression of the music is calculated using the calculated predicted impression value as a key. There has been proposed an apparatus for searching for desired music based on a subjective image of a user's music by searching (for example, see Patent Document 1).

しかしながら、従来技術では、楽曲の物理的な特徴を変換した印象値を、ユーザの主観的な要件の入力が数値化された予測印象値に基づいて検索を行っているため、ユーザによって検索条件として入力される主観的な要件の入力項目が集約されてしまい、主観的な要件に基づく精度の高い楽曲データの検索を実現することができないと共に、実際に楽曲を聴取する可能性が端末機器では、書誌データによる検索しか行うことができないという問題点があった。
特開2002−278547号公報
However, in the prior art, since the impression value obtained by converting the physical characteristics of the music is searched based on the predicted impression value obtained by quantifying the input of the user's subjective requirements, the search condition is set by the user as a search condition. The input items of the subjective requirements that are input are aggregated, and it is not possible to realize a search for music data with high accuracy based on the subjective requirements, and the possibility of actually listening to the music on the terminal device, There was a problem that only search by bibliographic data could be performed.
JP 2002-278547 A

本発明は斯かる問題点を鑑みてなされたものであり、その目的とするところは、人間の感性によって判断される印象度データに基づく精度の高い楽曲データの検索を携帯端末装置で行うことができる楽曲検索システムおよび楽曲検索方法を提供する点にある。   The present invention has been made in view of such problems, and an object of the present invention is to perform a search for music data with high accuracy based on impression degree data determined by human sensitivity with a mobile terminal device. A music search system and a music search method are provided.

本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の楽曲検索システムは、入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムであって、前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換すると共に、変換した前記印象度データを前記楽曲データと共に前記楽曲データベースに記憶させる印象度データ変換手段と、前記楽曲データベースに記憶された前記楽曲データおよび前記印象度データを前記携帯端末装置に転送する楽曲データ送信手段とを具備し、前記携帯端末装置は、前記楽曲登録装置の前記楽曲データ送信手段から転送された前記楽曲データおよび前記印象度データを前記端末楽曲データベースに記憶させる楽曲データ受信手段と、前記印象度データの検索条件としての入力を受け付ける端末操作手段と、該端末操作手段から検索条件として入力された前記印象度データに基づいて前記端末楽曲データベースを検索して所定数の前記楽曲データを特定する楽曲検索手段と、該楽曲検索手段によって検索された前記楽曲データを音声出力する音声出力手段とを具備することを特徴とする。
In order to solve the above problems, the present invention has the following configurations.
The music search system of the present invention includes a music registration device that stores input music data in a music database, and a terminal that is connectable to the music registration device and to which the music data stored in the music database is transferred. A music search system comprising a portable terminal device having a music database, wherein the music registration device uses a feature data extraction means for extracting physical feature data from the inputted music data, and the feature data extraction means. Impression degree data converting means for converting the extracted feature data into impression degree data determined by human sensitivity, and storing the converted impression degree data in the music database together with the music data; and the music database The stored music data and impression data are stored in the mobile terminal device. Music data transmission means for sending, and the portable terminal device receives the music data for storing the music data and the impression degree data transferred from the music data transmission means of the music registration device in the terminal music database. Means, terminal operation means for receiving input as a search condition for the impression degree data, and searching the terminal music database based on the impression degree data input as a search condition from the terminal operation means to obtain a predetermined number of the It is characterized by comprising music search means for specifying music data and audio output means for outputting the music data searched by the music search means.

さらに、本発明の楽曲検索システムは、前記楽曲検索手段は、前記端末操作手段から検索条件として入力された前記印象度データを入力ベクトルとすると共に、前記端末楽曲データベースに記憶されている前記印象度データを検索対象ベクトルとし、両者のユークリッド距離が小さい順に所定数検索することを特徴とする。   Furthermore, in the music search system of the present invention, the music search means uses the impression degree data input as a search condition from the terminal operation means as an input vector and the impression degree stored in the terminal music database. Data is used as a search target vector, and a predetermined number of searches are performed in ascending order of Euclidean distance between the two.

また、本発明の楽曲検索システムは、入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムであって、前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換する印象度データ変換手段と、該印象度データ変換手段に変換された前記印象度データに基づいて、入力された前記楽曲データを座標が付与された複数の部分空間に分割された楽曲マップにマッピングすると共に、前記部分空間の座標と前記部分空間に配置されている前記楽曲データとからなる検索テーブルを作成する楽曲マッピング手段と、前記楽曲データベースに記憶された前記楽曲データと共に前記楽曲マッピング手段によって作成された前記検索テーブルを前記携帯端末装置に転送する楽曲データ送信手段とを具備し、前記携帯端末装置は、前記楽曲登録装置の前記楽曲データ送信手段から転送された前記楽曲データおよび前記検索テーブルを前記端末楽曲データベースに記憶させる楽曲データ受信手段と、代表曲を特定した代表曲検索の指示入力を受け付ける端末操作手段と、該端末操作手段によって特定された前記代表曲に基づいて前記検索テーブルを検索して所定数の前記楽曲データを特定する楽曲検索手段と、該楽曲検索手段によって検索された前記楽曲データを音声出力する音声出力手段とを具備することを特徴とする。   The music search system of the present invention is configured to be connected to a music registration device that stores input music data in a music database, and to the music registration device, and the music data stored in the music database is transferred to the music search system. A music search system comprising a mobile terminal device having a terminal music database, wherein the music registration device extracts physical feature data from the input music data, and the feature data extraction Impression degree data conversion means for converting the feature data extracted by the means into impression degree data determined by human sensibility, and input based on the impression degree data converted to the impression degree data conversion means The music data is mapped to a music map divided into a plurality of partial spaces with coordinates, and The music mapping means for creating a search table comprising the coordinates of the space and the music data arranged in the partial space, and the search created by the music mapping means together with the music data stored in the music database Music data transmission means for transferring a table to the portable terminal device, and the portable terminal device stores the music data and the search table transferred from the music data transmission means of the music registration device in the terminal music database. Music data receiving means to be stored in the terminal, terminal operation means for receiving an instruction input for representative song search specifying a representative song, and searching the search table based on the representative song specified by the terminal operation means to obtain a predetermined number Music search means for specifying the music data, and the music search means The music data, characterized by comprising an audio output means for audio output.

さらに、本発明の楽曲検索システムは、前記楽曲マップは、学習が施された自己組織化マップであり、複数の前記部分空間は、それぞれ異なる特徴ベクトルが付与された複数のニューロンであり、前記楽曲マッピング手段は、前記印象度データ変換手段に変換された前記印象度データを入力ベクトルとし、当該入力ベクトルと最も距離が短い前記特徴ベクトルが付与されている前記ニューロンに配置されていることを特徴とする。   Furthermore, in the music search system of the present invention, the music map is a self-organizing map that has been learned, and the plurality of partial spaces are a plurality of neurons each having a different feature vector, The mapping means uses the impression degree data converted by the impression degree data conversion means as an input vector, and is arranged in the neuron to which the feature vector having the shortest distance from the input vector is assigned. To do.

さらに、本発明の楽曲検索システムは、前記印象度データ変換手段は、前記特徴データ抽出手段によって抽出された特徴データを予め学習が施された階層型ニューラルネットワークを用いて人間の感性によって判断される印象度データに変換することを特徴とする。   Furthermore, in the music search system of the present invention, the impression degree data conversion means is determined by human sensitivity using a hierarchical neural network in which the feature data extracted by the feature data extraction means has been previously learned. It is characterized by converting to impression degree data.

また、本発明の楽曲検索方法は、入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムにおける楽曲検索方法であって、前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出し、該抽出した前記特徴データを人間の感性によって判断される印象度データに変換すると共に、変換した前記印象度データを前記楽曲データと共に前記楽曲データベースに記憶し、前記楽曲データベースに記憶した前記楽曲データおよび前記印象度データを前記携帯端末装置に転送し、前記携帯端末装置は、前記楽曲登録装置から転送された前記楽曲データおよび前記印象度データを前記端末楽曲データベースに記憶し、前記印象度データの検索条件としての入力を受け付け、検索条件として受け付けた前記印象度データに基づいて前記端末楽曲データベースを検索して所定数の前記楽曲データを特定し、該検索した前記楽曲データを音声出力することを特徴とする。   The music search method of the present invention is configured to be connected to a music registration device that stores input music data in a music database, and to the music registration device, and the music data stored in the music database is transferred. A music search method in a music search system comprising a mobile terminal device having a terminal music database, wherein the music registration device extracts physical feature data from the input music data, and the extracted features The data is converted into impression degree data determined by human sensitivity, the converted impression degree data is stored in the music database together with the music data, and the music data and the impression data stored in the music database are stored. Transferred to the portable terminal device, and the portable terminal device is transferred from the music registration device. The music data and the impression data are stored in the terminal music database, an input as a search condition for the impression data is accepted, and the terminal music database is searched based on the impression data received as a search condition. A predetermined number of the music data is specified, and the searched music data is output as a voice.

さらに、本発明の楽曲検索方法は、入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムにおける楽曲検索方法であって、前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出し、該抽出した前記特徴データを人間の感性によって判断される印象度データに変換し、該変換した前記印象度データに基づいて、座標が付与された複数の部分空間に分割された楽曲マップにマッピングすると共に、前記部分空間の座標と前記部分空間に配置されている前記楽曲データとからなる検索テーブルを作成し、前記楽曲データベースに記憶された前記楽曲データと共に前記作成した前記検索テーブルを前記携帯端末装置に転送し、前記携帯端末装置は、前記楽曲登録装置から転送された前記楽曲データおよび前記検索テーブルを前記端末楽曲データベースに記憶し、代表曲を特定した代表曲検索の指示入力を受け付け、該受け付けた前記代表曲に基づいて前記検索テーブルを検索して所定数の前記楽曲データを特定し、該検索した前記楽曲データを音声出力することを特徴とする。   Furthermore, the music search method of the present invention is configured to be connected to a music registration device that stores input music data in a music database, and to the music registration device, and the music data stored in the music database is transferred. A music search method in a music search system comprising a mobile terminal device having a terminal music database, wherein the music registration device extracts physical feature data from the input music data, and the extracted features Data is converted into impression degree data determined by human sensitivity, and the partial space is mapped to a music map divided into a plurality of partial spaces to which coordinates are assigned based on the converted impression degree data. A search table including the coordinates of the music data and the music data arranged in the partial space is created. The created search table is transferred to the portable terminal device together with the song data stored in the song, and the portable terminal device stores the song data and the search table transferred from the song registration device in the terminal song database. And receiving an instruction input for representative song search specifying the representative song, searching the search table based on the received representative song, specifying a predetermined number of the song data, and searching the song data Is output by voice.

本発明の楽曲検索システムおよび楽曲検索方法は、楽曲登録装置においては、特徴データ抽出手段によって入力された楽曲データから物理的な特徴データを抽出し、印象度データ変換手段によって特徴データを人間の感性によって判断される印象度データに変換すると共に、変換した印象度データを楽曲データと共に楽曲データベースに記憶し、楽曲データ送信手段によって楽曲データベースに記憶された楽曲データおよび印象度データを携帯端末装置に転送するよう構成し、携帯端末装置においては、楽曲データ受信手段によって楽曲登録装置の楽曲データ送信手段から転送された楽曲データおよび印象度データを端末楽曲データベースに記憶させ、端末操作手段によって印象度データの検索条件としての入力を受け付け、楽曲検索手段によって検索条件として入力された印象度データに基づいて端末楽曲データベースを検索して所定数の楽曲データを特定し、音声出力手段によって検索された楽曲データを音声出力するように構成することにより、携帯端末装置において楽曲登録装置で楽曲データの特徴データから変換した印象度データを用いて楽曲データの検索が行うことができるため、人間の感性によって判断される印象度データに基づく精度の高い楽曲データの検索を携帯端末装置で行うことができるという効果を奏する。   According to the music search system and the music search method of the present invention, in the music registration device, physical feature data is extracted from the song data input by the feature data extraction means, and the feature data is converted into human sensitivity by the impression degree data conversion means. Is converted into impression degree data determined by the data, and the converted impression degree data is stored in the music database together with the music data, and the music data and the impression degree data stored in the music database are transferred to the portable terminal device by the music data transmitting means. In the portable terminal device, the song data and the impression degree data transferred from the song data transmission means of the song registration apparatus by the song data receiving means are stored in the terminal song database, and the impression data is stored by the terminal operation means. Accepts input as a search condition and serves as a music search means The terminal music database is searched based on the impression degree data input as the search condition, the predetermined number of music data is specified, and the music data searched by the audio output means is configured to be output by voice. Music data can be searched using impression degree data converted from characteristic data of music data by a music registration device in a portable terminal device, so music data with high accuracy based on impression degree data determined by human sensitivity There is an effect that the search can be performed by the mobile terminal device.

さらに、本発明の楽曲検索システムおよび楽曲検索方法は、楽曲登録装置においては、特徴データ抽出手段によって入力された楽曲データから物理的な特徴データを抽出し、印象度データ変換手段によって特徴データを人間の感性によって判断される印象度データに変換し、楽曲マッピング手段によって楽曲データを座標が付与された複数の部分空間に分割された楽曲マップに印象度データに基づいてマッピングすると共に、部分空間の座標と部分空間に配置されている楽曲データとからなる検索テーブルを作成し、楽曲データ送信手段によって楽曲データベースに記憶された楽曲データと共に検索テーブルを携帯端末装置に転送するように構成し、携帯端末装置においては、楽曲データ受信手段によって楽曲登録装置の楽曲データ送信手段から転送された楽曲データおよび検索テーブルを端末楽曲データベースに記憶させ、端末操作手段によって代表曲を特定した代表曲検索の指示入力を受け付け、楽曲検索手段によって代表曲に基づいて検索テーブルを検索して所定数の楽曲データを特定し、音声出力手段によって検索された楽曲データを音声出力するように構成することにより、携帯端末装置において楽曲登録装置で楽曲データの特徴データから変換した印象度データを用いてマッピングした楽曲マップに基づく検索が行うことができるため、人間の感性によって判断される印象度データに基づく精度の高い楽曲データの検索を携帯端末装置で行うことができるという効果を奏する。   Furthermore, in the music search system and the music search method of the present invention, in the music registration device, physical feature data is extracted from the music data input by the feature data extraction means, and the feature data is converted into human data by the impression degree data conversion means. Is converted into impression degree data determined by the sensitivity of the music, and the music data is mapped to the music map divided into a plurality of partial spaces to which the coordinates are given by the music mapping means based on the impression degree data, and the coordinates of the partial space And a song table arranged in the partial space is created, and the song table is transferred to the portable terminal device together with the song data stored in the song database by the song data transmitting means. In the music data receiving means, the music data transmitting means of the music registration device The music data and the search table transferred from the terminal are stored in the terminal music database, the instruction input of the representative music search specifying the representative music is received by the terminal operation means, and the search table is searched based on the representative music by the music search means. By specifying a predetermined number of music data and outputting the music data retrieved by the audio output means as audio, the impression data converted from the characteristic data of the music data by the music registration device in the portable terminal device is used. Therefore, it is possible to perform a search based on the music map mapped in the above manner, so that it is possible to perform a search for music data with high accuracy based on impression degree data determined based on human sensitivity.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る楽曲検索システムの実施の形態の構成を示すブロック図であり、図2は、図1に示す携帯端末装置の構成を示す前面図であり、図3は、図1に示す楽曲登録装置に用いられるニューラルネットワークを事前に学習させるニューラルネットワーク学習装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an embodiment of a music search system according to the present invention, FIG. 2 is a front view showing a configuration of the mobile terminal device shown in FIG. 1, and FIG. It is a block diagram which shows the structure of the neural network learning apparatus which learns in advance the neural network used for the music registration apparatus shown in FIG.

本実施の形態は、図1を参照すると、楽曲登録装置10と、携帯端末装置30とがUSB等のデータ伝送路23で接続されており、携帯端末装置30は、楽曲登録装置10から切り離して携帯することができる構成となっている。   In the present embodiment, referring to FIG. 1, the music registration device 10 and the mobile terminal device 30 are connected by a data transmission path 23 such as a USB, and the mobile terminal device 30 is separated from the music registration device 10. It is configured to be portable.

楽曲登録装置10は、パーソナルコンピュータ等のプログラム制御で動作する情報処理装置であり、図1を参照すると、楽曲データ入力部11と、圧縮処理部12と、特徴データ抽出部13と、印象度データ変換部14と、楽曲データベース15と、楽曲マッピング部16と、楽曲マップ記憶部17と、楽曲検索部18と、PC操作部19と、PC表示部20と、送受信部21と、音声出力部22とからなる。   The music registration apparatus 10 is an information processing apparatus that operates under program control such as a personal computer. Referring to FIG. 1, a music data input unit 11, a compression processing unit 12, a feature data extraction unit 13, and impression degree data. Conversion unit 14, music database 15, music mapping unit 16, music map storage unit 17, music search unit 18, PC operation unit 19, PC display unit 20, transmission / reception unit 21, and audio output unit 22 It consists of.

楽曲データ入力部11は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、圧縮処理部12および特徴データ抽出部13に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して特徴データ抽出部13に出力する。   The music data input unit 11 has a function of reading a storage medium in which music data such as a CD and a DVD is stored. The music data input unit 11 inputs music data from a storage medium such as a CD and a DVD, and extracts a compression processing unit 12 and feature data. To the unit 13. You may comprise so that the music data (delivery data) via networks, such as the internet, other than storage media, such as CD and DVD, may be input. When compressed music data is input, the compressed music data is decompressed and output to the feature data extraction unit 13.

圧縮処理部12は、楽曲登録時には、楽曲データ入力部11から入力された楽曲データをMP3やATRAC(Adaptive Transform Acoustic Coding )等の圧縮形式で圧縮し、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる。   The compression processing unit 12 compresses the music data input from the music data input unit 11 in a compression format such as MP3 or ATRAC (Adaptive Transform Acoustic Coding) at the time of music registration, and the compressed music data includes an artist name, a music title, and the like. Are stored in the music database 15 together with the bibliographic data.

特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを印象度データ変換部14に出力する。   The feature data extraction unit 13 extracts feature data composed of fluctuation information from the music data input from the music data input unit 11 and outputs the extracted feature data to the impression degree data conversion unit 14.

印象度データ変換部14は、予め学習が施された階層型ニューラルネットワークを用いて、特徴データ抽出部13から入力された特徴データを、人間の感性によって判断される印象度データに変換し、変換した印象度データを楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと変換した印象度データとを楽曲データに関連づけて楽曲データベース15に登録する。   The impression degree data conversion unit 14 converts the feature data input from the feature data extraction unit 13 into impression degree data determined by human sensitivity using a hierarchical neural network that has been learned in advance. The impression level data is output to the music mapping unit 16, and the feature data input from the feature data extraction unit 13 and the converted impression level data are associated with the music data and registered in the music database 15.

楽曲データベース15は、HDD等の大容量の記憶手段であり、圧縮処理部12によって圧縮された楽曲データ、書誌データと、特徴データ抽出部13によって抽出された特徴データと、印象度データ変換部14によって変換された印象度データとが関連づけられて記憶される。   The music database 15 is a large-capacity storage unit such as an HDD, and the music data and bibliographic data compressed by the compression processing unit 12, the feature data extracted by the feature data extraction unit 13, and the impression degree data conversion unit 14. Is stored in association with the impression degree data converted by.

楽曲マッピング部16は、印象度データ変換部14から入力された印象度データに基づいて、任意空間である楽曲マップに楽曲データをマッピングし、楽曲データをマッピングした楽曲マップを楽曲マップ記憶部17に記憶させると共に、楽曲マップにマッピングされた楽曲データを検索するための検索テーブルを作成し、作成した検索テーブルを楽曲データベース15に記憶させる。   The music mapping unit 16 maps the music data to a music map that is an arbitrary space based on the impression data input from the impression data conversion unit 14, and the music map in which the music data is mapped is stored in the music map storage unit 17. A search table for searching for music data mapped to the music map is created and stored, and the created search table is stored in the music database 15.

楽曲マップ記憶部17は、HDD等の大容量の記憶手段であり、楽曲マッピング部16によって楽曲データがマッピングされた楽曲マップが記憶される。   The music map storage unit 17 is a large-capacity storage unit such as an HDD, and stores a music map to which music data is mapped by the music mapping unit 16.

楽曲検索部18は、PC操作部19から書誌データに基づいて楽曲データベース15を検索し、当該検索結果をPC表示部20に表示すると共に、PC操作部19によって選択された代表曲に基づいて楽曲マップ記憶部17を検索し、当該代表曲検索結果をPC表示部20に表示すると共に検索リストとして楽曲データベース15に記憶させる。   The music search unit 18 searches the music database 15 based on the bibliographic data from the PC operation unit 19, displays the search result on the PC display unit 20, and plays music based on the representative music selected by the PC operation unit 19. The map storage unit 17 is searched, and the representative song search result is displayed on the PC display unit 20 and stored in the song database 15 as a search list.

PC操作部19は、キーボードやマウス等の入力手段であり、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の入力、携帯端末装置30に出力する楽曲データを選択する入力が行われる。   The PC operation unit 19 is input means such as a keyboard and a mouse, and inputs search conditions for searching for music data stored in the music database 15 and the music map storage unit 17 and music data to be output to the mobile terminal device 30. An input to select is made.

PC表示部20は、例えば液晶ディスプレイ等の表示手段であり、楽曲マップ記憶部17に記憶されている楽曲データのマッピング状況の表示、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の表示、検索された楽曲データ(検索結果)の表示等が行われる。   The PC display unit 20 is a display unit such as a liquid crystal display, for example, displays the mapping status of the song data stored in the song map storage unit 17, and the song data stored in the song database 15 and the song map storage unit 17. The search conditions for searching for music, the searched music data (search results), etc. are displayed.

送受信部21は、携帯端末装置30の送受信部31との間をUSB等のデータ伝送路23で接続可能に構成されており、楽曲データベース15に記憶されている楽曲データと、当該楽曲データに対応する印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとを携帯端末装置30の送受信部31に出力する。   The transmission / reception unit 21 is configured to be connectable to the transmission / reception unit 31 of the portable terminal device 30 by a data transmission path 23 such as a USB, and corresponds to the music data stored in the music database 15 and the music data. The neuron coordinates in the musical score map, the search table, and the search list are output to the transmission / reception unit 31 of the mobile terminal device 30.

音声出力部22は、楽曲データベース15に記憶されている楽曲データを伸長して再生するオーディオプレーヤである。   The audio output unit 22 is an audio player that decompresses and reproduces music data stored in the music database 15.

携帯端末装置30は、HDD等の大容量の記憶手段を有するポータブルオーディオ等の音声再生装置であり、図1を参照すると、送受信部31と、端末楽曲データベース32と、楽曲検索部33と、端末操作部34、端末表示部35と、音声出力部36とからなる。   The portable terminal device 30 is an audio playback device such as a portable audio device having a large capacity storage means such as an HDD. Referring to FIG. 1, a transmission / reception unit 31, a terminal music database 32, a music search unit 33, and a terminal An operation unit 34, a terminal display unit 35, and an audio output unit 36 are included.

送受信部31は、楽曲登録装置10の送受信部21との間をUSB等のデータ伝送路23で接続可能に構成されており、楽曲登録装置10の送受信部21から入力された楽曲データを端末楽曲データベース32に記憶させる。   The transmission / reception unit 31 is configured to be connectable to the transmission / reception unit 21 of the music registration device 10 via a data transmission path 23 such as a USB, and the music data input from the transmission / reception unit 21 of the music registration device 10 is used as the terminal music. Store in the database 32.

端末楽曲データベース32は、HDD等の大容量の記憶手段であり、楽曲データベース15に記憶されている楽曲データと、当該楽曲データに対応する印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとが記憶される。   The terminal song database 32 is a large-capacity storage unit such as an HDD, and the song data stored in the song database 15, impression degree data corresponding to the song data, the coordinates of neurons in the song map, a search table, The search list is stored.

楽曲検索部33は、端末操作部34から書誌データに基づいて端末楽曲データベース32を検索し、当該検索結果を端末表示部35に表示すると共に、端末操作部34によって特定された代表曲に基づいて検索テーブルを検索し、当該検索結果を端末表示部35に表示する。   The music search unit 33 searches the terminal music database 32 based on the bibliographic data from the terminal operation unit 34, displays the search result on the terminal display unit 35, and based on the representative music specified by the terminal operation unit 34. The search table is searched, and the search result is displayed on the terminal display unit 35.

端末操作部34は、楽曲データの再生に係る入力が行われる入力手段であり、図2を参照すると、再生する楽曲データの選択する入力、検索方法を選択する入力、ボリュームコントロールの入力等を行う十字キー341と、選択された楽曲データの出力を指示する入力、選択された検索方法の実行を指示する入力等を行う決定キー342からなる。   The terminal operation unit 34 is an input unit for performing input related to the reproduction of music data. Referring to FIG. 2, input for selecting music data to be reproduced, input for selecting a search method, input for volume control, and the like are performed. It consists of a cross key 341 and an enter key 342 for performing an input for instructing output of the selected music data, an input for instructing execution of the selected search method, and the like.

端末表示部35は、例えば液晶ディスプレイ等の表示手段であり、端末楽曲データベース32に記憶されている楽曲データを検索する検索条件の表示、検索された楽曲データ(検索結果)の表示等が行われる。   The terminal display unit 35 is a display unit such as a liquid crystal display, for example, and displays search conditions for searching for music data stored in the terminal music database 32 and displays searched music data (search results). .

音声出力部36は、端末楽曲データベース32に圧縮されて記憶されている楽曲データを伸長して再生するオーディオプレーヤである。   The audio output unit 36 is an audio player that decompresses and reproduces music data that is compressed and stored in the terminal music database 32.

ニューラルネットワーク学習装置40は、印象度データ変換部14で用いられる階層型ニューラルネットワークと、楽曲マッピング部16で用いられる楽曲マップとの学習を行う装置であり、図3を参照すると、楽曲データ入力部41と、音声出力部42と、特徴データ抽出部43と、印象度データ入力部44と、結合重み値学習部45と、楽曲マップ学習部46と、結合重み値出力部47と、特徴ベクトル出力部48とからなる。   The neural network learning device 40 is a device that learns the hierarchical neural network used in the impression degree data conversion unit 14 and the music map used in the music mapping unit 16. Referring to FIG. 3, the music data input unit 41, voice output unit 42, feature data extraction unit 43, impression degree data input unit 44, combination weight value learning unit 45, music map learning unit 46, combination weight value output unit 47, and feature vector output Part 48.

楽曲データ入力部41は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、音声出力部42および特徴データ抽出部43に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して音声出力部42および特徴データ抽出部43に出力する。   The music data input unit 41 has a function of reading a storage medium in which music data such as a CD and a DVD is stored. The music data input unit 41 inputs music data from a storage medium such as a CD and a DVD, and extracts an audio output unit 42 and feature data. To the unit 43. You may comprise so that the music data (delivery data) via networks, such as the internet, other than storage media, such as CD and DVD, may be input. When compressed music data is input, the compressed music data is decompressed and output to the audio output unit 42 and the feature data extraction unit 43.

音声出力部42は、楽曲データ入力部41から入力された楽曲データを伸長して再生するオーディオプレーヤである。   The audio output unit 42 is an audio player that decompresses and reproduces music data input from the music data input unit 41.

特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを結合重み値学習部45に出力する。   The feature data extraction unit 43 extracts feature data composed of fluctuation information from the song data input from the song data input unit 41 and outputs the extracted feature data to the connection weight value learning unit 45.

印象度データ入力部44は、音声出力部42からの音声出力に基づく、評価者による印象度データの入力を受け付け、受け付けた印象度データを、階層型ニューラルネットワークの学習に用いる教師信号として結合重み値学習部45に出力すると共に自己組織化マップ(SOM)への入力ベクトルとして楽曲マップ学習部46に出力する。   The impression degree data input unit 44 accepts input of impression degree data by the evaluator based on the audio output from the audio output unit 42, and uses the received impression degree data as a joint signal as a teacher signal used for learning of the hierarchical neural network. The value is output to the value learning unit 45 and is also output to the music map learning unit 46 as an input vector to the self-organizing map (SOM).

結合重み値学習部45は、特徴データ抽出部43から入力された特徴データと、印象度データ入力部44から入力された印象度データとに基づいて階層型ニューラルネットワークに学習を施し、各ニューロンの結合重み値を更新し、結合重み値出力部47を介して更新した結合重み値を出力する。学習が施された階層型ニューラルネットワーク(更新された結合重み値)は、楽曲登録装置10の印象度データ変換部14に移植される。   The connection weight value learning unit 45 performs learning on the hierarchical neural network based on the feature data input from the feature data extraction unit 43 and the impression degree data input from the impression degree data input unit 44, and The connection weight value is updated, and the updated connection weight value is output via the connection weight value output unit 47. The learned hierarchical neural network (updated connection weight value) is transplanted to the impression degree data conversion unit 14 of the music registration device 10.

楽曲マップ学習部46は、印象度データ入力部44から入力された印象度データを自己組織化マップへの入力ベクトルとして自己組織化マップに学習を施し、各ニューロンの特徴ベクトルを更新し、特徴ベクトル出力部48を介して更新した特徴ベクトルを出力する。学習が施された自己組織化マップ(更新された特徴ベクトル)は、楽曲マップとして楽曲登録装置10の楽曲マップ記憶部17に記憶される。   The music map learning unit 46 learns the self-organizing map using the impression degree data input from the impression degree data input unit 44 as an input vector to the self-organizing map, updates the feature vector of each neuron, and The updated feature vector is output via the output unit 48. The learned self-organizing map (updated feature vector) is stored in the music map storage unit 17 of the music registration device 10 as a music map.

まず、楽曲登録装置10における楽曲登録動作について図4乃至図9を参照して詳細に説明する。
図4は、図1に示す楽曲登録装置における楽曲登録動作を説明するためのフローチャートであり、図5は、図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートであり、図6は、図1に示す特徴データ抽出部におけるテンポ決定動作を説明するためのフローチャートであり、図7は、図1に示す印象度データ変換部で用いられる階層型ニューラルネットワーク例を示す説明図であり、図8は、図1に示す楽曲マッピング部が楽曲データをマッピングする楽曲マップ例を示す説明図であり、図9は、図1に示す楽曲データベースに記憶される検索テーブル例を示す図である。
First, the music registration operation in the music registration apparatus 10 will be described in detail with reference to FIGS.
4 is a flowchart for explaining the music registration operation in the music registration apparatus shown in FIG. 1, and FIG. 5 is a flowchart for explaining the feature data extraction operation in the feature data extraction unit shown in FIG. FIG. 6 is a flowchart for explaining the tempo determination operation in the feature data extraction unit shown in FIG. 1, and FIG. 7 is an explanatory diagram showing an example of a hierarchical neural network used in the impression degree data conversion unit shown in FIG. 8 is an explanatory diagram illustrating an example of a music map in which the music mapping unit illustrated in FIG. 1 maps music data, and FIG. 9 illustrates an example of a search table stored in the music database illustrated in FIG. It is.

楽曲データ入力部11にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部11から楽曲データを入力する(ステップA1)。   A storage medium storing music data such as CD and DVD is set in the music data input section 11 and music data is input from the music data input section 11 (step A1).

圧縮処理部12は、楽曲データ入力部11から入力された楽曲データを圧縮し(ステップA2)、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる(ステップA3)。   The compression processing unit 12 compresses the music data input from the music data input unit 11 (step A2), and stores the compressed music data in the music database 15 together with the bibliographic data such as artist name and music name (step A3). .

特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出する(ステップA4)。   The feature data extraction unit 13 extracts feature data including fluctuation information from the music data input from the music data input unit 11 (step A4).

特徴データ抽出部13における特徴データの抽出動作は、図4乃至図6を参照すると、楽曲データ入力部11にCDプレーヤ等の楽曲再生装置やインターネット等のネットワークから楽曲データが入力されると(ステップB1)、楽曲データ入力部11は、高速化を目的とし、楽曲データ入力部11に入力された楽曲データを44.1kHzから22.05kHzにダウンサンプリングし、ダウンサンプリングした楽曲データを特徴データ抽出部13に出力する。   With reference to FIGS. 4 to 6, the feature data extraction operation in the feature data extraction unit 13 is performed when music data is input to the music data input unit 11 from a music playback device such as a CD player or a network such as the Internet (step). B1) The music data input unit 11 downsamples the music data input to the music data input unit 11 from 44.1 kHz to 22.05 kHz for the purpose of speeding up, and the downsampled music data is a feature data extraction unit. 13 is output.

次に、特徴データ抽出部13は、楽曲データの予め定められたデータ解析開始点(楽曲の先頭から30s)から一定のフレーム長に対してのFFT処理を行い、パワースペクトルを算出する(ステップB2)。なお、本実施の形態においては、特徴データの1つである楽曲のテンポとしてテンポの周期を抽出し、テンポの周期が0.3〜1sの範囲にあることを想定し、サンプリング周期が22.05kHzである楽曲データに対して1024ポイントのFFT処理を行うように構成した。すなわち、FFT処理を行うフレーム長を、1024/22.05kHz≒46msとし、想定した楽曲におけるテンポの周期の最小値よりも短い値としている。   Next, the feature data extraction unit 13 performs FFT processing for a certain frame length from a predetermined data analysis start point (30 s from the beginning of the song) of the song data, and calculates a power spectrum (step B2). ). In the present embodiment, the tempo period is extracted as the tempo of the music, which is one of the feature data, and the sampling period is set to 22 .2 assuming that the tempo period is in the range of 0.3 to 1 s. It was configured to perform 1024-point FFT processing on music data at 05 kHz. That is, the frame length for performing the FFT processing is set to 1024 / 22.05 kHz≈46 ms, which is shorter than the minimum value of the tempo cycle in the assumed music.

次に、特徴データ抽出部13は、Low(0〜200Hz)、Middle(200〜600Hz)、High(600〜11050Hz)の周波数帯域を予め設定しておき、Low、Middle、Highの3帯域のパワースペクトルを積分し、平均パワーを算出し(ステップB3)、ステップB2〜ステップB3の処理動作を行ったフレーム個数が予め定められた設定値(2048)に達したか否かを判断し(ステップB4)、ステップB2〜ステップB3の処理動作を行ったフレーム個数が予め定められた設定値に達していない場合には、データ解析開始点をシフトしながら(ステップB5)、ステップB2〜ステップB3の処理動作を繰り返す。これにより、ステップB2〜ステップB3の処理動作は、予め定められたフレーム個数の設定値分行われることになり、Low、Middle、High3帯域の平均パワーの時系列データをそれぞれ求めることができる。なお、本実施の形態では、解析時間長を60sとし、データ解析開始点を60s*22.05kHz/2048≒646ポイントずつシフトしながらFFT処理を行い、2048ポイント、60sの平均パワーの時系列データを作成するように構成した。   Next, the feature data extraction unit 13 sets frequency bands of Low (0 to 200 Hz), Middle (200 to 600 Hz), and High (600 to 11050 Hz) in advance, and the power of the three bands of Low, Middle, and High. The spectrum is integrated, the average power is calculated (step B3), and it is determined whether or not the number of frames for which the processing operations of steps B2 to B3 have been performed has reached a predetermined set value (2048) (step B4). ) If the number of frames that have undergone the processing operations in steps B2 to B3 has not reached a predetermined set value, the data analysis start point is shifted (step B5) while the processing in steps B2 to B3 is performed. Repeat the operation. As a result, the processing operations of step B2 to step B3 are performed for a set value of a predetermined number of frames, and time series data of average power in the Low, Middle, and High3 bands can be respectively obtained. In this embodiment, the analysis time length is 60 s, the data analysis start point is shifted by 60 s * 22.05 kHz / 2048≈646 points, and FFT processing is performed to obtain time series data of 2048 points and 60 s average power. Configured to create.

次に、特徴データ抽出部13は、ステップB2〜ステップB5の処理動作によって算出したLow、Middle、Highの平均パワーの時系列データに対しそれぞれFFTを行い、ゆらぎ情報を算出する(ステップB6)。なお、本実施の形態では、平均パワーの時系列データに対して2048ポイントのFFT処理を行うように構成した。   Next, the feature data extraction unit 13 performs FFT on the time series data of the average power of Low, Middle, and High calculated by the processing operations of Step B2 to Step B5, and calculates fluctuation information (Step B6). In this embodiment, 2048-point FFT processing is performed on time series data of average power.

次に、特徴データ抽出部13は、Low、Middle、HighにおけるFFT分析結果から、横軸を対数周波数、縦軸を対数パワースペクトルとしたグラフにおける近似直線を最小2乗法等によって算出し(ステップB7)、近似直線の傾きと、近似直線のY切片とを求め(ステップB8)、Low、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片を特徴データとして抽出する。   Next, the feature data extraction unit 13 calculates an approximate straight line in a graph with the logarithmic frequency on the horizontal axis and the logarithmic power spectrum on the vertical axis from the FFT analysis results in Low, Middle, and High by the least square method or the like (step B7 ), The inclination of the approximate straight line and the Y intercept of the approximate straight line are obtained (step B8), and the slope and Y intercept of the approximate straight line in each of Low, Middle, and High are extracted as feature data.

また、特徴データ抽出部13は、LowにおけるFFT分析結果において、ステップB6で算出されたゆらぎ情報と、ステップB7で算出された近似直線との差分を差分情報として算出し(ステップB9)、予め定められたロジックに基づいて算出した差分情報を解析することで、テンポの周期を決定し(ステップB10)、決定したテンポを特徴データとして抽出し、Low、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片と共に印象度データ変換部14に出力する。   Further, the feature data extraction unit 13 calculates, as difference information, a difference between the fluctuation information calculated in Step B6 and the approximate straight line calculated in Step B7 in the FFT analysis result in Low (Step B9). By analyzing the difference information calculated based on the obtained logic, the tempo cycle is determined (step B10), the determined tempo is extracted as feature data, and the slope of the approximate straight line in each of Low, Middle, and High and The result is output to the impression degree data converter 14 together with the Y intercept.

なお、特徴データ抽出部13におけるテンポ決定動作は、図6を参照すると、ステップB9で算出された差分情報を解析することで、まず、周期0.3〜2sにおいて近似直線と1.25dB以上離れている成分があるか否か、すなわち周波数1/0.3〜1/2Hzの範囲内に近似直線と1.25dB以上離れている周波数成分があるか否かを判断し(ステップC1)、近似直線と1.25dB以上離れている周波数成分がある場合には、近似直線と1.25dB以上離れている周波数成分の内、最も周期が長い周波数成分の周期を候補Aとする(ステップC2)。   Note that the tempo determination operation in the feature data extraction unit 13 is, as shown in FIG. 6, first separated from the approximate straight line by 1.25 dB or more in the period 0.3 to 2 s by analyzing the difference information calculated in step B9. It is determined whether there is a frequency component that is more than 1.25 dB away from the approximate line within the frequency range of 1 / 0.3 to 1/2 Hz (step C1). If there is a frequency component separated from the straight line by 1.25 dB or more, the frequency component having the longest period among the frequency components separated from the approximate line by 1.25 dB or more is set as a candidate A (step C2).

次に、特徴データ抽出部13は、候補Aが1s以上か否かを判断し(ステップC3)、候補Aが1s以上である場合には、候補A/2をテンポの周期として決定すると共に(ステップC4)、候補Aが1s以上でない場合には、候補Aをテンポの周期として決定する(ステップC5)。   Next, the feature data extraction unit 13 determines whether or not the candidate A is 1 s or more (step C3). If the candidate A is 1 s or more, the candidate A / 2 is determined as the tempo period ( Step C4) If the candidate A is not 1 s or longer, the candidate A is determined as a tempo period (step C5).

ステップC1で近似直線と1.25dB以上離れている周波数成分がない場合には、特徴データ抽出部13は、周期0.3〜2sにおいて近似直線と0.7dB以上離れている成分があるか否か、すなわち周波数1/0.3〜1/2Hzの範囲内に近似直線と0.7dB以上離れている周波数成分があるか否かを判断し(ステップC6)、近似直線と0.7dB以上離れている周波数成分がある場合には、近似直線と0.7dB以上離れている周波数成分の内、最も周期が長い周波数成分の周期を候補Aとする(ステップC7)。   If there is no frequency component separated from the approximate line by 1.25 dB or more in step C1, the feature data extraction unit 13 determines whether there is a component separated from the approximate line by 0.7 dB or more in the period of 0.3 to 2s. That is, it is determined whether or not there is a frequency component that is separated from the approximate line by 0.7 dB or more within the frequency range of 1 / 0.3 to 1/2 Hz (step C6). If there is a frequency component that is present, among the frequency components that are separated from the approximate line by 0.7 dB or more, the cycle of the frequency component with the longest cycle is set as a candidate A (step C7).

次に、特徴データ抽出部13は、候補Aが1s以上か否かを判断し(ステップC8)、候補Aが1s以上である場合には、候補A/2をテンポの周期として決定すると共に(ステップC9)、候補Aが1s以上でない場合には、候補Aが0.6s以上か否かを判断する(ステップC10)。候補Aが0.6s以上である場合には、候補A以外に近似直線と0.7dB以上離れている周波数成分が2つ以上あるか否かを判断し(ステップC11)、候補A以外に近似直線と0.7dB以上離れている周波数成分が2つ以上ある場合には、候補A/2をテンポの周期として決定する(ステップC9)。ステップC10で候補Aが0.6s以上でない場合と、ステップC11で候補A以外に近似直線と0.7dB以上離れている周波数成分が2つ以上ない場合には、候補Aをテンポの周期として決定する(ステップC12)。   Next, the feature data extraction unit 13 determines whether or not the candidate A is 1 s or longer (step C8), and when the candidate A is 1 s or longer, determines the candidate A / 2 as a tempo period ( Step C9) If the candidate A is not 1 s or longer, it is determined whether the candidate A is 0.6 s or longer (Step C10). When the candidate A is 0.6 s or more, it is determined whether there are two or more frequency components apart from the approximate line by 0.7 dB or more other than the candidate A (step C11). If there are two or more frequency components separated from the straight line by 0.7 dB or more, the candidate A / 2 is determined as the tempo period (step C9). If candidate A is not 0.6 s or more in step C10, and if there are no more than two frequency components apart from the approximate line by 0.7 dB or more other than candidate A in step C11, candidate A is determined as the tempo period. (Step C12).

ステップC11で近似直線と0.7dB以上離れている周波数成分がない場合には、特徴データ抽出部13は、周期0.3〜2sにおいて近似直線と0.6dB以上離れている成分があるか否か、すなわち周波数1/0.3〜1/2Hzの範囲内に近似直線と0.6dB以上離れている周波数成分があるか否かを判断し(ステップC13)、近似直線と0.6dB以上離れている周波数成分がある場合には、近似直線と0.6dB以上離れている周波数成分の内、最も周期が長い周波数成分の周期を候補Aとする(ステップC7)。   If there is no frequency component separated by 0.7 dB or more from the approximate line in step C11, the feature data extraction unit 13 determines whether there is a component separated from the approximate line by 0.6 dB or more in the period of 0.3 to 2 s. That is, it is determined whether or not there is a frequency component that is separated from the approximate line by 0.6 dB or more within the frequency range of 1 / 0.3 to 1/2 Hz (step C13), and the approximate line is separated by 0.6 dB or more. If there is a frequency component that is present, among the frequency components that are separated from the approximate line by 0.6 dB or more, the cycle of the frequency component with the longest cycle is set as a candidate A (step C7).

次に、特徴データ抽出部13は、候補Aが1s以上か否かを判断し(ステップC8)、候補Aが1s以上である場合には、候補A/2をテンポの周期として決定すると共に(ステップC9)、候補Aが1s以上でない場合には、候補Aが0.6s以上か否かを判断する(ステップC10)。候補Aが0.6s以上である場合には、候補A以外に近似直線と0.6dB以上離れている周波数成分が2つ以上あるか否かを判断し(ステップC11)、候補A以外に近似直線と0.6dB以上離れている周波数成分が2つ以上ある場合には、候補A/2をテンポの周期として決定し(ステップC9)、ステップC10で候補Aが0.6s以上でない場合と、ステップC11で候補A以外に近似直線と0.6B以上離れている周波数成分が2つ以上ない場合には、候補Aをテンポの周期として決定する(ステップC12)。   Next, the feature data extraction unit 13 determines whether or not the candidate A is 1 s or longer (step C8), and when the candidate A is 1 s or longer, determines the candidate A / 2 as a tempo period ( Step C9) If the candidate A is not 1 s or longer, it is determined whether the candidate A is 0.6 s or longer (Step C10). If the candidate A is 0.6 s or more, it is determined whether there are two or more frequency components apart from the approximate line by 0.6 dB or more other than the candidate A (step C11). When there are two or more frequency components separated from the straight line by 0.6 dB or more, the candidate A / 2 is determined as the tempo period (step C9), and when the candidate A is not 0.6s or more in step C10, If there are no more than two frequency components apart from the approximate straight line by 0.6B or more other than candidate A in step C11, candidate A is determined as the tempo period (step C12).

ステップC13で近似直線と0.6dB以上離れている周波数成分がない場合には、特徴データ抽出部13は、周期3〜4sにおいて近似直線と0.6dB以上離れている成分があるか否か、すなわち周波数1/3〜1/4Hzの範囲内に近似直線と0.6dB以上離れている周波数成分があるか否かを判断し(ステップC14)、近似直線と0.6dB以上離れている周波数成分がある場合には、近似直線と0.6dB以上離れている周波数成分の内、最も周期が長い周波数成分の周期を候補Aとし(ステップC15)、候補A/4をテンポの周期として決定する(ステップC16)。   If there is no frequency component separated by 0.6 dB or more from the approximate line in step C13, the feature data extraction unit 13 determines whether there is a component separated from the approximate line by 0.6 dB or more in the period 3 to 4s. That is, it is determined whether or not there is a frequency component that is separated from the approximate line by 0.6 dB or more within the frequency range of 1/3 to 1/4 Hz (step C14), and the frequency component that is separated from the approximate line by 0.6 dB or more. If there is a frequency component that is 0.6 dB or more away from the approximate line, the cycle of the frequency component with the longest cycle is set as the candidate A (step C15), and the candidate A / 4 is determined as the cycle of the tempo (step S15). Step C16).

ステップC14で近似直線と0.6dB以上離れている周波数成分がない場合には、特徴データ抽出部13は、周期0.1〜0.3sにおいて近似直線と0.7dB以上離れている成分があるか否か、すなわち周波数1/0.1〜1/0.3Hzの範囲内に近似直線と0.7dB以上離れている周波数成分があるか否かを判断し(ステップC17)、近似直線と0.7dB以上離れている周波数成分がない場合には、1sをテンポの周期として決定すると共に(ステップC18)、近似直線と0.7dB以上離れている周波数成分がある場合には、0.3sをテンポの周期として決定する(ステップC19)。   If there is no frequency component separated by 0.6 dB or more from the approximate line in step C14, the feature data extraction unit 13 has a component separated from the approximate line by 0.7 dB or more in the period of 0.1 to 0.3 s. Whether there is a frequency component that is more than 0.7 dB away from the approximate line within the frequency range of 1 / 0.1 to 1 / 0.3 Hz (step C17). When there is no frequency component separated by .7 dB or more, 1s is determined as the tempo period (step C18), and when there is a frequency component separated by 0.7 dB or more from the approximate line, 0.3 s is set. The tempo period is determined (step C19).

なお、本実施の形態では、楽曲のテンポとしてテンポの周期を抽出するように構成したが、一般にテンポを表す単位として用いられているBPM(beat per minutes)に換算するようにしても良く、さらにテンポの周期を一定の加工方法で加工するようにしても良い。   In the present embodiment, the tempo period is extracted as the tempo of the music, but it may be converted into BPM (beat per minutes) generally used as a unit representing the tempo. You may make it process a tempo period with a fixed processing method.

次に、図4を参照すると、印象度データ変換部14は、図7に示すような入力層(第1層)、中間層(第n層)、出力層(第N層)からなる階層型ニューラルネットワークを用い、入力層(第1層)に特徴データ抽出部13で抽出された特徴データを入力することによって、出力層(第N層)から印象度データを出力、すなわち特徴データを印象度データに変換し(ステップA5)、出力層(第N層)から出力された印象度データを、楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと、出力層(第N層)から出力された印象度データとを、楽曲データと共に楽曲データベース15に記憶させる。なお、中間層(第n層)の各ニューロンの結合重み値wは、評価者によって予め学習が施されている。また、本実施の形態の場合には、入力層(第1層)に入力される特徴データ、すなわち特徴データ抽出部13によって抽出される特徴データの項目は、前述のようにLow、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片と、テンポとの7項目であり、印象度データの評価項目としては、人間の感性によって判断される「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3項目を設定し、各評価項目を7段階評価で表すように設定した。従って、入力層(第1層)のニューロン数Lは、7個、出力層(第N層)のニューロン数Lは、3個となっており、中間層(第n層:n=2,…,N−1)のニューロン数Lnは、適宜設定されている。 Next, referring to FIG. 4, the impression degree data conversion unit 14 is a hierarchical type composed of an input layer (first layer), an intermediate layer (n-th layer), and an output layer (N-th layer) as shown in FIG. By inputting the feature data extracted by the feature data extraction unit 13 into the input layer (first layer) using a neural network, impression level data is output from the output layer (Nth layer), that is, the feature data is converted into the impression level. The data is converted into data (step A5), the impression degree data output from the output layer (Nth layer) is output to the music mapping unit 16, and the feature data input from the feature data extraction unit 13 and the output layer ( The impression degree data output from the (Nth layer) is stored in the music database 15 together with the music data. Note that the connection weight value w of each neuron in the intermediate layer (nth layer) is learned in advance by the evaluator. In the case of this embodiment, the feature data input to the input layer (first layer), that is, the feature data items extracted by the feature data extraction unit 13 are Low, Middle, High as described above. There are seven items, the slope of the approximate straight line and the Y-intercept and the tempo, and the evaluation items of the impression degree data are “bright and dark”, “clear and dark” judged by human sensitivity, Three items of “Intense and Calm” were set, and each evaluation item was set so as to be expressed by a seven-step evaluation. Accordingly, the number of neurons L 1 in the input layer (first layer) is 7, and the number of neurons L N in the output layer (Nth layer) is 3, and the intermediate layer (nth layer: n = 2). ,..., N-1) is set appropriately.

楽曲マッピング部16は、楽曲データ入力部11から入力された楽曲データを楽曲マップ記憶部17に記憶されている楽曲マップの該当箇所にマッピングする(ステップA6)。楽曲マッピング部16におけるマッピング動作に用いられる任意空間である楽曲マップは、複数の部分空間に分割されており、楽曲データは、複数の部分空間のいずれかに配置される。楽曲マップとしては、例えばニューロンが2次元に規則的に配置(図8に示す例では、9*9の正方形)されている自己組織化マップを用いることができ、この場合には、ニューロンが複数の部分空間に対応する。   The music mapping unit 16 maps the music data input from the music data input unit 11 to a corresponding portion of the music map stored in the music map storage unit 17 (step A6). The music map which is an arbitrary space used for the mapping operation in the music mapping unit 16 is divided into a plurality of partial spaces, and the music data is arranged in any of the plurality of partial spaces. As the music map, for example, a self-organizing map in which neurons are regularly arranged in two dimensions (9 * 9 square in the example shown in FIG. 8) can be used. In this case, a plurality of neurons are used. Corresponds to the subspace.

本実施の形態では、楽曲マップとしてニューロンが100*100の正方形に配列された2次元SOMを使用し、楽曲マップの各ニューロンには、(1,1)〜(100,100)の座標が付与され、座標によりニューロン間の距離が認識できるように構成されており、楽曲マッピング部16は、楽曲マップにマッピングされた楽曲データを検索するための検索テーブルを作成し、作成した検索テーブルを楽曲データベース15に記憶させると共に、楽曲データが配置されたニューロンの座標を楽曲データと共に楽曲データベース15に記憶させる。検索テーブルは、該当するニューロンを検索し、検索されたニューロンに配置されている楽曲データを特定するためのものであり、図9に示すように、楽曲マップにおける各ニューロンの座標と、各ニューロンに配置されている楽曲データ(楽曲データを特定する番号等)とからなる。なお、本実施の形態では、楽曲マップとしてニューロンが正方形に配列された2次元SOMを用いたが、ニューロンの配列は、長方形であっても、蜂の巣であっても良く、さらに3次元SOMを用いるようにしても良い。   In this embodiment, a two-dimensional SOM in which neurons are arranged in a square of 100 * 100 is used as a music map, and coordinates (1, 1) to (100, 100) are assigned to each neuron of the music map. The music mapping unit 16 creates a search table for searching for music data mapped to the music map, and uses the created search table as a music database. 15 and the coordinates of the neuron in which the music data is arranged are stored in the music database 15 together with the music data. The search table is for searching for the corresponding neuron and specifying the music data arranged in the searched neuron. As shown in FIG. 9, the coordinates of each neuron in the music map and each neuron It is composed of arranged music data (numbers specifying music data, etc.). In this embodiment, a two-dimensional SOM in which neurons are arranged in a square is used as the music map. However, the arrangement of neurons may be a rectangle or a honeycomb, and a three-dimensional SOM is used. You may do it.

また、楽曲マッピング部16におけるマッピング動作に用いられる楽曲マップは、予め学習が施されており、各ニューロンには、予め学習されたn次元の特徴ベクトルm(t)∈Rが付与されており、楽曲マッピング部16は、印象度データ変換部14によって変換された印象度データと、特徴データ抽出部13によって抽出されたテンポとを入力ベクトルxとし、入力ベクトルxに最も近いニューロン、すなわちユークリッド距離‖x−m‖を最小にするニューロンに、入力された楽曲データを配置し、楽曲データがマッピングされた楽曲マップを楽曲マップ記憶部17に記憶させる。なお、Rは、印象度データの各評価項目の評価段階数を示し、nは、印象度データの項目数を示す。 In addition, the music map used for the mapping operation in the music mapping unit 16 is learned in advance, and each neuron is given a pre-learned n-dimensional feature vector m i (t) εR n. cage, music mapping unit 16, and impression data that has been converted by the impression-data-conversion unit 14, and a tempo extracted by the feature data extraction unit 13 and the input vector x j, nearest neuron to the input vector x j, That is, the input music data is arranged in a neuron that minimizes the Euclidean distance ‖x j −m i 、, and the music map to which the music data is mapped is stored in the music map storage unit 17. Note that R indicates the number of evaluation stages of each evaluation item of impression degree data, and n indicates the number of items of impression degree data.

次に、印象度データ変換部14における変換動作(ステップA5)に用いられる階層型ニューラルネットワークの学習動作について図10を参照して詳細に説明する。
図10は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートである。
Next, the learning operation of the hierarchical neural network used for the conversion operation (step A5) in the impression degree data conversion unit 14 will be described in detail with reference to FIG.
FIG. 10 is a flowchart for explaining the learning operation of the hierarchical neural network in the neural network learning apparatus shown in FIG.

評価者による階層型ニューラルネットワーク(結合重み値w)の学習は、例えば、図2に示すニューラルネットワーク学習装置40を用いて行われ、まず、階層型ニューラルネットワーク(結合重み値w)を事前学習させるための事前学習データ(楽曲データの特徴データ+印象度データ)の入力が行われる。   Learning of the hierarchical neural network (connection weight value w) by the evaluator is performed using, for example, the neural network learning device 40 shown in FIG. 2. First, the hierarchical neural network (connection weight value w) is pre-learned. The pre-learning data (feature data feature data + impression degree data) is input.

楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップD1)、特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから特徴データを抽出する(ステップD2)。なお、特徴データ抽出部43によって抽出する特徴データは、楽曲登録装置10の特徴データ抽出部13で抽出する特徴データと同一である。   A music medium such as a CD or DVD is set in the music data input unit 41, music data is input from the music data input unit 41 (step D1), and the feature data extraction unit 43 inputs the music data. Feature data is extracted from the music data input from the unit 41 (step D2). The feature data extracted by the feature data extraction unit 43 is the same as the feature data extracted by the feature data extraction unit 13 of the music registration device 10.

また、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップD3)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力し(ステップD4)、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号として受け付ける。なお、本実施の形態では、印象度の評価項目としては、人間の感性によって判断される「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3項目を設定し、各評価項目についての7段階評価を印象度データとして印象度データ入力部44で受け付けるように構成した。   The audio output unit 42 outputs the music data input from the music data input unit 41 as audio (step D3), and the evaluator listens to the audio output from the audio output unit 42 to determine the impression level of the music. Evaluation is performed based on sensitivity, and the evaluation result is input as impression degree data from the impression degree data input unit 44 (step D4). The combined weight value learning unit 45 uses the impression degree data input from the impression degree data input unit 44 as a teacher signal. Accept as. In the present embodiment, as the evaluation items for impression degree, three items of “bright, dark”, “clear, fuzzy”, and “violent, gentle” determined by human sensitivity are set. A seven-stage evaluation for the evaluation item is configured to be received by the impression degree data input unit 44 as impression degree data.

次に、特徴データと入力された印象度データとからなる学習データが予め定められたサンプル数Tに達したか否かを判断し(ステップD5)、学習データがサンプル数Tに達するまでステップD1〜ステップD4の動作が繰り返される。 Next, it is determined whether a learning data consisting of characteristic data and the inputted impression data reaches the number of samples T 1 for a predetermined (step D5), until the learning data reaches the number of samples T 1 Steps D1 to D4 are repeated.

結合重み値学習部45における階層型ニューラルネットワークの学習、すなわち各ニューロンの結合重み値wの更新は、誤差逆伝播学習法を用いて行う。
まず、初期値として、中間層(第n層)の全てのニューロンの結合重み値wを乱数によって−0.1〜0.1程度の範囲の小さな値に設定しておき、結合重み値学習部45は、特徴データ抽出部43によって抽出された特徴データを入力信号x(j=1,2,…,8) として入力層(第1層)に入力し、入力層(第1層)から出力層(第N層)に向けて、各ニューロンの出力を計算する。
Learning of the hierarchical neural network in the connection weight value learning unit 45, that is, the update of the connection weight value w of each neuron is performed using an error back propagation learning method.
First, as an initial value, the connection weight value w of all the neurons of the intermediate layer (nth layer) is set to a small value in the range of about −0.1 to 0.1 by a random number, and the connection weight value learning unit 45 inputs the feature data extracted by the feature data extraction unit 43 to the input layer (first layer) as an input signal x j (j = 1, 2,..., 8), and from the input layer (first layer). The output of each neuron is calculated toward the output layer (Nth layer).

次に、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号y(j=1,2,…,8) とし、出力層(第N層)の出力outj と、教師信号yとの誤差から、学習則δj を次式によって計算する。 Next, the combined weight value learning unit 45 uses the impression degree data input from the impression degree data input unit 44 as a teacher signal y j (j = 1, 2,..., 8), and outputs the output layer (Nth layer). The learning rule δ j N is calculated from the error between the output out j N and the teacher signal y j by the following equation.

Figure 2006318384
Figure 2006318384

次に、結合重み値学習部45は、学習則δj を使って、中間層(第n層)の誤差信号 δj n を次式によって計算する。 Next, the joint weight value learning unit 45 calculates the error signal δ j n of the intermediate layer (nth layer) using the learning rule δ j N by the following equation.

Figure 2006318384
Figure 2006318384

なお、数式2において、wは、第 n 層 j 番目と第 n -1 層k番目のニューロンの間の結合重み値を表している。   In Equation 2, w represents a connection weight value between the n-th layer j-th neuron and the (n −1) -th layer k-th neuron.

次に、結合重み値学習部45は、中間層(第n層)の誤差信号 δj n を用いて各ニューロンの結合重み値wの変化量Δwを次式によって計算し、各ニューロンの結合重み値wを更新する(ステップD6)。なお、次式において、ηは、学習率を表し、評価者による学習では、η(0<η≦1)に設定されている。 Next, the connection weight value learning unit 45 calculates the amount of change Δw of the connection weight value w of each neuron using the following equation using the error signal δ j n of the intermediate layer (nth layer), and the connection weight of each neuron. The value w is updated (step D6). In the following equation, η represents a learning rate, and is set to η 1 (0 <η 1 ≦ 1) in learning by the evaluator.

Figure 2006318384
Figure 2006318384

ステップD6では、サンプル数Tの事前学習データのそれぞれについて学習が行われ、次に、次式に示す2乗誤差Eが予め定められた事前学習用の基準値Eよりも小さいか否かが判断され(ステップD7)、2乗誤差Eが基準値Eよりも小さくなるまでステップD6の動作が繰り返される。なお、2乗誤差Eが基準値Eよりも小さくなると想定される学習反復回数Sを予め設定しておき、ステップD6の動作を学習反復回数S回繰り返すようにしても良い。 At step D6, each of the pre-training data sample number T 1 learning is performed, then, or smaller or not than the reference value E 1 for pre-learning is square error E shown in the following equation predetermined There is judged (step D7), the operation of step D6 to the square error E is smaller than the reference value E 1 is repeated. Incidentally, the learning iterations S squared error E is assumed to be smaller than the reference value E 1 is set in advance, may be the operation of step D6 to repeat the learning iterations S times.

Figure 2006318384
Figure 2006318384

ステップD7で2乗誤差Eが基準値Eよりも小さいと判断された場合には、結合重み値学習部45は、事前学習させた各ニューロンの結合重み値wを結合重み値出力部47によって出力し(ステップD8)、結合重み値出力部47から出力された各ニューロンの結合重み値wは、印象度データ変換部14に記憶される。 In the case of the square error E is determined to be smaller than the reference value E 1 Step D7, connection weights learning unit 45, the connection weights output unit 47 the coupling weight value w for each neuron is prior learning The connection weight value w of each neuron outputted and output from the connection weight value output unit 47 is stored in the impression degree data conversion unit 14.

次に、楽曲マッピング部16におけるマッピング動作(ステップA6)に用いられる楽曲マップの学習動作について図11を参照して詳細に説明する。
図11は、図2に示すニューラルネットワーク学習装置における楽曲マップの学習動作を説明するためのフローチャートである。
Next, the music map learning operation used in the mapping operation (step A6) in the music mapping unit 16 will be described in detail with reference to FIG.
FIG. 11 is a flowchart for explaining the music map learning operation in the neural network learning apparatus shown in FIG.

楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップE1)、特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから特徴データとしてテンポを抽出し(ステップE2)、抽出したテンポを楽曲マップ学習部46に出力する。なお、特徴データ抽出部43によって抽出するテンポは、楽曲登録装置10の特徴データ抽出部13で抽出するテンポと同一である。   A music medium such as a CD or DVD is set in the music data input unit 41, music data is input from the music data input unit 41 (step E1), and the feature data extraction unit 43 inputs the music data. The tempo is extracted as feature data from the music data input from the unit 41 (step E2), and the extracted tempo is output to the music map learning unit 46. Note that the tempo extracted by the feature data extraction unit 43 is the same as the tempo extracted by the feature data extraction unit 13 of the music registration device 10.

次に、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップE3)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力する(ステップE4)。   Next, the audio output unit 42 outputs the music data input from the music data input unit 41 as audio (step E3), and the evaluator listens to the audio output from the audio output unit 42 to thereby determine the degree of impression of the music. Is evaluated by sensitivity, and the evaluation result is input as impression degree data from the impression degree data input unit 44 (step E4).

楽曲マップ学習部46は、特徴データ抽出部43から入力されたテンポと、印象度データ入力部44から入力された印象度データとを自己組織化マップへの入力ベクトルとして受け付ける。なお、本実施の形態では、印象度の評価項目としては、人間の感性によって判断される「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3項目を設定し、各評価項目についての7段階評価を印象度データとして印象度データ入力部44で受け付けるように構成した。   The music map learning unit 46 receives the tempo input from the feature data extraction unit 43 and the impression level data input from the impression level data input unit 44 as input vectors to the self-organizing map. In the present embodiment, as the evaluation items for impression degree, three items of “bright, dark”, “clear, fuzzy”, and “violent, gentle” determined by human sensitivity are set. A seven-stage evaluation for the evaluation item is configured to be received by the impression degree data input unit 44 as impression degree data.

楽曲マップ学習部46は、特徴データ抽出部43から入力されたテンポと、印象度データ入力部44から入力された印象度データとを入力ベクトルx(t)∈Rとし、各ニューロンの特徴ベクトルm(t)∈Rを学習させる。なお、tは、学習回数を表し、学習回数を定める設定値Tを予め設定しておき、学習回数t=0,1,…,Tについて学習を行わせる。なお、Rは、各評価項目の評価段階を示し、nは、印象度データの項目数を示す。 The music map learning unit 46 uses the tempo input from the feature data extraction unit 43 and the impression level data input from the impression level data input unit 44 as an input vector x j (t) εR n, and features of each neuron. Train the vector m i (t) εR n . Note that t represents the number of learning times, a preset value T that determines the number of learning times is set in advance, and learning is performed for the learning number t = 0, 1,. Note that R represents the evaluation stage of each evaluation item, and n represents the number of items of impression degree data.

まず、初期値として、全てのニューロンの特徴ベクトルm(0)をそれぞれ0〜1の範囲でランダムに設定しておき、楽曲マップ学習部46は、x(t)に最も近いニューロンc、すなわち‖x(t)−m(t)‖を最小にする勝者ニューロンcを求め、勝者ニューロンcの特徴ベクトルm(t)と、勝者ニューロンcの近傍にある近傍ニューロンiの集合Ncのそれぞれの特徴ベクトルm(t)(i∈Nc)とを、次式に従ってそれぞれ更新する(ステップE5)。なお、近傍ニューロンiを決定するための近傍半径は、予め設定されているものとする。 First, as an initial value, feature vectors m c (0) of all neurons are set at random in the range of 0 to 1, and the music map learning unit 46 determines that the neuron c, which is closest to x j (t), That is, a winner neuron c that minimizes ‖x j (t) −m c (t) ‖ is obtained, and a feature vector m c (t) of the winner neuron c and a set Nc of neighboring neurons i in the vicinity of the winner neuron c Each feature vector m i (t) (iεNc) is updated according to the following equation (step E5). It is assumed that the neighborhood radius for determining the neighborhood neuron i is set in advance.

Figure 2006318384
Figure 2006318384

なお、数式5において、hci(t)は、学習率を表し、次式によって求められる。 In Equation 5, h ci (t) represents a learning rate and is obtained by the following equation.

Figure 2006318384
Figure 2006318384

なお、αinitは学習率の初期値であり、R(t)は、単調減少する一次関数もしくは指数関数が用いられる。 Α init is an initial value of the learning rate, and R 2 (t) is a monotonically decreasing linear function or exponential function.

次に、楽曲マップ学習部46は、学習回数tが設定値Tに達したか否かを判断し(ステップE6)、学習回数tが設定値Tに達するまでステップE1〜ステップE5の処理動作を繰り返し、学習回数tが設定値Tに達すると、再び最初のサンプルから同じ処理動作を行う。この反復回数が予め定められたS回になった時点で、特徴ベクトル出力部48を介して学習させた特徴ベクトルm(T)∈Rを出力する(ステップE7)。出力された各ニューロンiの特徴ベクトルm(T)は、楽曲登録装置10の楽曲マップ記憶部17に楽曲マップとして記憶される。 Next, the music map learning unit 46 determines whether or not the learning count t has reached the set value T (step E6), and performs the processing operations of steps E1 to E5 until the learning count t reaches the set value T. Repeatingly, when the learning count t reaches the set value T, the same processing operation is performed again from the first sample. When the number of iterations reaches a predetermined number of times S, the feature vector m i (T) εR n learned through the feature vector output unit 48 is output (step E7). The output feature vector m i (T) of each neuron i is stored as a music map in the music map storage unit 17 of the music registration device 10.

次に、楽曲登録装置10における楽曲検索動作について図12乃至図17を参照して詳細に説明する。
図12は、図1に示す楽曲登録装置における楽曲検索動作を説明するためのフローチャートであり、図13は、図1に示すPC表示部に表示される検索条件入力画面例を示す図であり、図14は、図1に示すPC表示部に表示される条件検索結果表示画面例を示す図であり、図15は、図1に示すPC表示部に表示される代表曲検索結果表示画面例を示す図であり、図16は、図1に示すPC表示部に表示される楽曲リスト表示画面例を示す図であり、図17は、図1に示すPC表示部に表示される楽曲マップ表示画面例を示す図である。
Next, a music search operation in the music registration apparatus 10 will be described in detail with reference to FIGS.
12 is a flowchart for explaining a music search operation in the music registration device shown in FIG. 1, and FIG. 13 is a diagram showing an example of a search condition input screen displayed on the PC display unit shown in FIG. 14 is a diagram showing an example of a condition search result display screen displayed on the PC display unit shown in FIG. 1, and FIG. 15 is an example of a representative song search result display screen displayed on the PC display unit shown in FIG. 16 is a diagram showing an example of a music list display screen displayed on the PC display unit shown in FIG. 1, and FIG. 17 is a music map display screen displayed on the PC display unit shown in FIG. It is a figure which shows an example.

楽曲検索部18は、PC表示部20に、検索条件を入力する検索条件入力画面51を表示し、PC操作部19からのユーザ入力を受け付ける。検索条件入力画面51は、図13に示すように、検索条件として書誌データを入力する書誌データ入力領域511と、検索の実行を指示する条件検索実行ボタン512と、全曲リスト表示ボタン513と、楽曲マップ表示ボタン514とからなり、ユーザは、検索条件として書誌データをPC操作部19から入力し(ステップF1)、条件検索実行ボタン512をクリックすることで、書誌データに基づく検索を楽曲検索部18に指示する。   The music search unit 18 displays a search condition input screen 51 for inputting search conditions on the PC display unit 20, and accepts user input from the PC operation unit 19. As shown in FIG. 13, the search condition input screen 51 includes a bibliographic data input area 511 for inputting bibliographic data as a search condition, a condition search execution button 512 for instructing execution of a search, an all song list display button 513, A map display button 514 is provided, and the user inputs bibliographic data as a search condition from the PC operation unit 19 (step F1), and clicks the condition search execution button 512 to perform a search based on the bibliographic data. To instruct.

楽曲検索部18は、PC操作部19から入力された書誌データに基づいて楽曲データベース15を検索し(ステップF2)、条件検索結果を表示する条件検索結果表示画面52をPC表示部20に表示させる(ステップF3)。条件検索結果表示画面52は、図14を参照すると、条件検索結果の中から代表曲を選択する代表曲選択領域521と、選択された代表曲に基づく検索を指示する代表曲検索実行ボタン522と、条件検索結果を検索リストとして登録する登録ボタン523とからなる。   The music search unit 18 searches the music database 15 based on the bibliographic data input from the PC operation unit 19 (step F2), and causes the PC display unit 20 to display a condition search result display screen 52 that displays the condition search results. (Step F3). Referring to FIG. 14, the conditional search result display screen 52 has a representative song selection area 521 for selecting a representative song from the conditional search results, and a representative song search execution button 522 for instructing a search based on the selected representative song. And a registration button 523 for registering a condition search result as a search list.

次に、ユーザは、代表曲選択領域521に表示されている条件検索結果の中から代表曲を選択し(ステップF4)、代表曲検索実行ボタン522をクリックすることで、代表曲に基づく検索を楽曲検索部18に指示する。なお、この時点で登録ボタン523がクリックされた場合には、楽曲検索部18は、代表曲選択領域521に表示されている条件検索結果を検索リストとして楽曲データベース15に記憶させる。   Next, the user selects a representative song from the condition search results displayed in the representative song selection area 521 (step F4), and clicks the representative song search execution button 522 to perform a search based on the representative song. The music search unit 18 is instructed. When the registration button 523 is clicked at this time, the music search unit 18 stores the condition search results displayed in the representative song selection area 521 in the music database 15 as a search list.

楽曲検索部18は、選択された代表曲に基づいて楽曲データベース15を検索することで、楽曲マップにおいて代表曲が配置されているニューロン(以下、代表ニューロンと称す)の座標を特定する(ステップF5)。   The music search unit 18 searches the music database 15 based on the selected representative music, thereby specifying the coordinates of a neuron (hereinafter referred to as a representative neuron) in which the representative music is arranged in the music map (step F5). ).

次に、楽曲検索部18は、変数nに0を設定し(ステップF6)、楽曲マップ記憶部17に記憶されている図9に示す検索テーブルを参照することで、ステップF5で特定した代表ニューロンから距離nのニューロンに配置されている楽曲データを検索し(ステップF7)、検索された楽曲数が予め定められた検索数以上であるか否かを判断する(ステップF8)。   Next, the music search unit 18 sets 0 to the variable n (step F6), and refers to the search table shown in FIG. 9 stored in the music map storage unit 17, thereby identifying the representative neuron specified in step F5. Is searched for music data arranged in a neuron at a distance n (step F7), and it is determined whether or not the number of searched music is greater than or equal to a predetermined number of searches (step F8).

ステップF8で検索された楽曲数が予め定められた検索数未満である場合には、楽曲検索部18は、変数nをインクリメントし(ステップF9)、ステップF7に戻り、検索された楽曲数が予め定められた検索数以上になるまでステップF7およびステップF8を繰り返す。   If the number of songs searched in step F8 is less than the predetermined search number, the song search unit 18 increments the variable n (step F9), returns to step F7, and the number of searched songs is preset. Steps F7 and F8 are repeated until the number of searches exceeds a predetermined number.

ステップF8で検索された楽曲数が予め定められた検索数以上である場合には、楽曲検索部18は、検索された楽曲データを予め定められた検索数まで絞り込んだ後(ステップF10)、絞り込んだ楽曲データを代表曲検索結果として代表曲検索結果表示画面53をPC表示部20に表示する(ステップF11)。代表曲検索結果表示画面53は、図15を参照すると、出力する楽曲データを選択する出力楽曲選択領域531と、選択された楽曲データの出力を指示する出力ボタン532とからなる。   If the number of songs searched in step F8 is equal to or greater than the predetermined number of searches, the music search unit 18 narrows down the searched music data to the predetermined number of searches (step F10) and then narrows down. The representative song search result display screen 53 is displayed on the PC display unit 20 with the song data as the representative song search result (step F11). As shown in FIG. 15, the representative song search result display screen 53 includes an output song selection area 531 for selecting song data to be output, and an output button 532 for instructing output of the selected song data.

ステップF10における検索された楽曲データの絞り込みは、代表ニューロンの特徴ベクトルもしくは代表曲の印象度データ変換部14によって変換された印象度データを入力ベクトルxとし、検索された楽曲データの印象度データを検索対象ベクトルXとすると、入力ベクトルxに近い検索対象ベクトルX、すなわちユークリッド距離‖X−x‖が小さいものを順に予め定められた検索数まで検索することで行われる。なお、ステップF10における検索された楽曲データの絞り込みは、代表ニューロンから最も離れたニューロン、すなわち代表ニューロンから検索に用いた変数nの最大値分離れたニューロンに配置されている楽曲データに対してのみ行うようにすると、距離計算を行う対象件数を少なくすることができるため、検索時間(計算時間)を短縮することができる。また、ステップF10における検索された楽曲データの絞り込みを行うことなく、検索された楽曲データの全てを代表曲検索結果として代表曲検索結果表示画面53に表示するようにしても良く、この場合には、距離計算を行うことなく検索を行うことができるため、検索時間(計算時間)をさらに短縮することができる。 In step F10, the searched music data is narrowed down by using the representative neuron feature vector or the impression data converted by the representative music impression data converter 14 as the input vector xj, and the impression data of the searched music data. When the search target vector X j, the input vectors x j closer search target vector X j, i.e. is performed by searching to the Euclidean distance ‖X j -x j searches that ‖ is sequentially predetermined ones less. It should be noted that the music data searched in step F10 is limited only to music data arranged in a neuron farthest from the representative neuron, that is, a neuron separated from the representative neuron by the maximum value of the variable n used for the search. By doing so, the number of objects for which distance calculation is performed can be reduced, so that the search time (calculation time) can be shortened. Further, all of the searched music data may be displayed as the representative music search result on the representative music search result display screen 53 without narrowing down the searched music data in step F10. In this case, Since the search can be performed without calculating the distance, the search time (calculation time) can be further shortened.

次に、楽曲検索部18は、出力ボタン532がクリックされると、出力楽曲選択領域531に表示されている代表曲検索結果を検索リストとして楽曲データベース15に記憶させる(ステップF12)。   Next, when the output button 532 is clicked, the music search unit 18 stores the representative music search result displayed in the output music selection area 531 as a search list in the music database 15 (step F12).

また、検索条件入力画面51において、全曲リスト表示ボタン513がクリックされると、楽曲検索部18は、記憶されている全楽曲データの楽曲リストを表示する楽曲リスト表示画面54をPC表示部20に表示させる。楽曲リスト表示画面54は、図16を参照すると、全楽曲データの楽曲リストの中から代表曲を選択する代表曲選択領域541と、選択された代表曲に基づく検索を指示する代表曲検索実行ボタン542とからなる。   When the all song list display button 513 is clicked on the search condition input screen 51, the song search unit 18 displays a song list display screen 54 that displays a song list of all stored song data on the PC display unit 20. Display. Referring to FIG. 16, the song list display screen 54 is a representative song selection area 541 for selecting a representative song from the song list of all song data, and a representative song search execution button for instructing a search based on the selected representative song. 542.

ユーザが代表曲選択領域541に表示されている楽曲リストの中から代表曲を選択し(ステップF4)、代表曲検索実行ボタン542をクリックすることで、選択された代表曲に基づく検索が楽曲検索部18に指示され、以下、ステップF5〜ステップF12の楽曲検索動作が行われる。   When the user selects a representative song from the song list displayed in the representative song selection area 541 (step F4) and clicks the representative song search execution button 542, a search based on the selected representative song is performed. Instructed by the unit 18, the music search operation in steps F5 to F12 is performed.

さらに、検索条件入力画面51において、楽曲マップ表示ボタン514がクリックされると、楽曲検索部18は、楽曲マップのニューロンをポイントとして表示する楽曲マップ表示画面55をPC表示部20に表示させる。楽曲マップ表示画面55は、図17を参照すると、検索の中心とするニューロンを選択するニューロン選択領域551と、選択されたニューロンに基づく検索を指示するマップ検索実行ボタン552とからなる。   Further, when the music map display button 514 is clicked on the search condition input screen 51, the music search unit 18 causes the PC display unit 20 to display a music map display screen 55 that displays neurons of the music map as points. Referring to FIG. 17, the music map display screen 55 includes a neuron selection area 551 for selecting a neuron as a search center and a map search execution button 552 for instructing a search based on the selected neuron.

ユーザがニューロン選択領域551に表示されているニューロンの中から検索の中心とするニューロンを選択し、マップ検索実行ボタン552をクリックすることで、ステップF5で特定される代表ニューロンの替わりに、ニューロン選択領域551で選択されたニューロンに基づく検索が楽曲検索部18に指示され、以下、ステップF6〜ステップF12の楽曲検索動作が行われる。   When the user selects a neuron as a search center from the neurons displayed in the neuron selection area 551 and clicks the map search execution button 552, the neuron is selected instead of the representative neuron specified in step F5. A search based on the neuron selected in the region 551 is instructed to the music search unit 18, and the music search operation in steps F 6 to F 12 is performed thereafter.

なお、ニューロン選択領域551においては、楽曲データが配置されているニューロンのみが表示され、楽曲がマッピングされているニューロンにカーソルを移動させると、カーソルが位置するニューロンに配置されている楽曲データの楽曲名のポップアップ表示553が行われるように構成されている。   In the neuron selection area 551, only the neuron where the music data is arranged is displayed, and when the cursor is moved to the neuron to which the music is mapped, the music data of the music data arranged in the neuron where the cursor is located A name pop-up display 553 is performed.

次に、楽曲登録装置10から携帯端末装置30への楽曲データの転送動作について詳細に説明する。
図18は、図1に示す楽曲登録装置から携帯端末装置への楽曲データの転送動作を説明するための説明図である。
Next, the music data transfer operation from the music registration device 10 to the mobile terminal device 30 will be described in detail.
FIG. 18 is an explanatory diagram for explaining an operation of transferring music data from the music registration device shown in FIG. 1 to the mobile terminal device.

楽曲登録装置10の楽曲データベース15には、図18に示すように、楽曲データと、当該楽曲データに対応する特徴データ(特徴データ抽出部13で抽出)、書誌データ、印象度データ(印象度データ変換部14で変換)および楽曲マップにおけるニューロンの座標(楽曲マッピング部16でマッピング)と、検索テーブル(楽曲マッピング部16で作成)と、検索リスト(楽曲検索部18で検索)とが記憶されており、携帯端末装置30の端末楽曲データベース32には、楽曲データと、当該楽曲データに対応する書誌データ、印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとが転送される。   In the music database 15 of the music registration device 10, as shown in FIG. 18, music data, feature data corresponding to the music data (extracted by the feature data extraction unit 13), bibliographic data, impression data (impression data) Conversion unit 14), neuron coordinates in the music map (mapped by music mapping unit 16), search table (created by music mapping unit 16), and search list (searched by music search unit 18) are stored. The music data, the bibliographic data corresponding to the music data, the impression data, and the neuron coordinates in the music map, the search table, and the search list are transferred to the terminal music database 32 of the mobile terminal device 30. .

楽曲登録装置10の送受信部21と、携帯端末装置30の送受信部31とは、データ伝送路23によって携帯端末装置30が接続されると、楽曲登録装置10の楽曲データベース15の記憶内容と、携帯端末装置30の端末楽曲データベース32の記憶内容とを比較し、楽曲登録装置10の楽曲データベース15の記憶内容を携帯端末装置30の端末楽曲データベース32に反映させる。   When the portable terminal device 30 is connected to the transmission / reception unit 21 of the music registration device 10 and the transmission / reception unit 31 of the portable terminal device 30 via the data transmission path 23, the stored contents of the music database 15 of the music registration device 10 and the portable The content stored in the terminal music database 32 of the terminal device 30 is compared, and the content stored in the music database 15 of the music registration device 10 is reflected in the terminal music database 32 of the mobile terminal device 30.

次に、携帯端末装置30における楽曲検索動作について図19を参照して詳細に説明する。
図19は、図2に示す携帯端末装置の端末表示部における表示例を示す図である。
Next, the music search operation in the mobile terminal device 30 will be described in detail with reference to FIG.
FIG. 19 is a diagram illustrating a display example in the terminal display unit of the mobile terminal device illustrated in FIG. 2.

楽曲検索部33は、図示しない電源キーによって携帯端末装置30の電源が投入されると、再生する楽曲データを検索する方法として「書誌データによる検索」、「印象度データによる検索」、「検索リストによる検索」のいずれかを選択するための検索方法選択画面351を端末表示部35に表示し、ユーザは、検索方法選択画面351に表示されている検索方法を十字キー341の上下で選択し、決定キー342を押下することで選択した検索方法に基づく楽曲データの検索を楽曲検索部33に指示する。   When the mobile terminal device 30 is turned on by a power key (not shown), the music search unit 33 searches for music data to be reproduced as “search by bibliographic data”, “search by impression data”, “search list”. A search method selection screen 351 for selecting any one of “search by” is displayed on the terminal display unit 35, and the user selects the search method displayed on the search method selection screen 351 with the up and down of the cross key 341, Pressing the enter key 342 instructs the music search unit 33 to search for music data based on the selected search method.

検索方法選択画面351で「書誌データによる検索」が選択された場合には、楽曲検索部33は、「アーティスト」、「アルバム」、「タイトル」の内のいずれかを選択するための一覧表示選択画面352を端末表示部35に表示し、ユーザは、一覧表示選択画面352に表示されている「アーティスト」、「アルバム」、「タイトル」のいずれかを十字キー341の上下で選択し、決定キー342を押下することで選択した一覧の表示を楽曲検索部33に指示する。   When “search by bibliographic data” is selected on the search method selection screen 351, the music search unit 33 selects a list display for selecting one of “artist”, “album”, and “title”. The screen 352 is displayed on the terminal display unit 35, and the user selects one of “artist”, “album”, and “title” displayed on the list display selection screen 352 with the up and down keys of the cross key 341, and presses the enter key. Pressing 342 instructs the music search unit 33 to display the selected list.

一覧表示選択画面352で「アーティスト」もしくは「アルバム」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている全楽曲データに対応する書誌データからアーティスト名もしくはアルバム名を読み出し、アーティスト名もしくはアルバム名の一覧を表示するアーティスト・アルバム一覧画面353を端末表示部35に表示する。ユーザは、アーティスト・アルバム一覧画面353に表示されているアーティスト名もしくはアルバム名のいずれかを十字キー341の上下で選択し、決定キー342を押下することでアーティスト名もしくはアルバム名に基づく検索を楽曲検索部33に指示し、楽曲検索部33は、選択されたアーティスト名もしくはアルバム名に基づいて端末楽曲データベース32を検索し、該当する楽曲データのタイトル一覧を検索結果画面354として端末表示部35に表示する。なお、一覧表示選択画面352で「タイトル」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている全楽曲データに対応するタイトルを読み出し、読み出したタイトル一覧を検索結果画面354として端末表示部35に表示する。   When “artist” or “album” is selected on the list display selection screen 352, the music search unit 33 searches for the artist name or album name from the bibliographic data corresponding to all music data stored in the terminal music database 32. And an artist / album list screen 353 for displaying a list of artist names or album names is displayed on the terminal display unit 35. The user selects either the artist name or the album name displayed on the artist / album list screen 353 with the up and down keys of the cross key 341 and presses the enter key 342 to search for the artist name or album name. The search unit 33 is instructed, and the music search unit 33 searches the terminal music database 32 based on the selected artist name or album name, and displays a title list of the corresponding music data on the terminal display unit 35 as a search result screen 354. indicate. When “title” is selected on the list display selection screen 352, the music search unit 33 reads the titles corresponding to all the music data stored in the terminal music database 32 and searches the read title list. The result screen 354 is displayed on the terminal display unit 35.

検索方法選択画面351で「印象度データによる検索」が選択された場合には、楽曲検索部33は、検索条件として印象度データを入力する印象度データ入力画面355を端末表示部35に表示し、ユーザは、十字キー341の上下左右で印象度データの各項目の値を選択し、決定キー342を押下することで印象度データに基づく検索を楽曲検索部33に指示する。楽曲検索部33は、印象度データに基づく検索が指示されると、検索条件として入力された印象度データに基づいて端末楽曲データベース32に記憶されている楽曲データを検索し、検索した楽曲データのタイトル一覧を検索結果画面354として端末表示部35に表示する。検索条件として入力された印象度データに基づく楽曲データの検索は、検索条件として入力された印象度データを入力ベクトルxとすると共に、端末楽曲データベース32に記憶されている全楽曲データに対応するそれぞれの印象度データを検索対象ベクトルm(t)∈Rとし、ユークリッド距離‖x−m‖が小さい方から所定数を検索する。なお、Rは、印象度データの各評価項目の評価段階数を示し、nは、印象度データの項目数を示す。 When “Search by impression degree data” is selected on the search method selection screen 351, the music search unit 33 displays an impression degree data input screen 355 for inputting impression degree data as a search condition on the terminal display unit 35. The user selects the value of each item of the impression degree data with the up / down / left / right directions of the cross key 341 and presses the enter key 342 to instruct the music search unit 33 to perform a search based on the impression degree data. When the search based on the impression degree data is instructed, the music search unit 33 searches the music data stored in the terminal music database 32 based on the impression degree data input as the search condition, and the searched music data The title list is displayed on the terminal display unit 35 as a search result screen 354. Music retrieval data based on the input impression data as a search condition, with the input vector x j the input impression data as a search condition, corresponding to all music data stored in the terminal song database 32 Each impression degree data is set as a search target vector m i (t) εR n, and a predetermined number is searched from the one having a smaller Euclidean distance ‖x j −m i ‖. Note that R indicates the number of evaluation stages of each evaluation item of impression degree data, and n indicates the number of items of impression degree data.

検索方法選択画面351で「検索リストによる検索」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている検索リストの一覧を検索リスト一覧画面356として端末表示部35に表示し、ユーザは、検索リスト一覧画面356に表示されている検索リストのいずれかを十字キー341の上下で選択し、決定キー342を押下することで選択した検索リストの表示を楽曲検索部33に指示し、楽曲検索部33は、選択された検索リストのタイトル一覧を検索結果画面354として端末表示部35に表示する。   If “search by search list” is selected on the search method selection screen 351, the music search unit 33 uses the search list list 356 as a search list list stored in the terminal music database 32, and the terminal display unit 35. The user selects one of the search lists displayed on the search list list screen 356 with the up and down keys of the cross key 341 and presses the enter key 342 to display the display of the selected search list. The music search unit 33 displays the title list of the selected search list on the terminal display unit 35 as a search result screen 354.

検索結果画面354が表示されている状態で、十字キー341の右が押下されると、楽曲検索部33は、検索結果画面354に表示されたタイトル一覧に対応する楽曲データを端末楽曲データベース32から順次読み出し、読み出した楽曲データを音声出力部22に出力して音声出力させる。また、検索結果画面354が表示されている状態で、十字キー341の上下でいずれかのタイトルを選択した上で十字キー341の左が押下されると、楽曲検索部33は、選択されたタイトルに対応する楽曲データのみを端末楽曲データベース32から読み出し、読み出した楽曲データを音声出力部22に出力して音声出力させる。   When the right side of the cross key 341 is pressed while the search result screen 354 is displayed, the music search unit 33 sends music data corresponding to the title list displayed on the search result screen 354 from the terminal music database 32. Sequentially read out, and the read music data is output to the audio output unit 22 for audio output. When the search result screen 354 is displayed and the left of the cross key 341 is pressed after selecting one of the titles with the up and down keys of the cross key 341, the music search unit 33 selects the selected title. Only the music data corresponding to is read from the terminal music database 32, and the read music data is output to the audio output unit 22 for audio output.

さらに、検索結果画面354が表示されている状態で、十字キー341の上下でいずれかのタイトルを選択した上で、決定キー342が押下されると、楽曲検索部33は、選択されたタイトルを代表曲とする代表曲検索を行い、代表曲検索結果を検索結果画面354として端末表示部35に表示する。なお、楽曲検索部33で行われる代表曲検索は、端末楽曲データベース32に記憶されたニューロンの座標と検索テーブルとに基づいて行われ、上述した楽曲登録装置10の楽曲検索部18で行われる代表曲検索と同様の手順で行われる。   Further, when the search result screen 354 is displayed and one of the titles is selected with the up and down keys of the cross key 341 and then the enter key 342 is pressed, the music search unit 33 selects the selected title. A representative song search as a representative song is performed, and the representative song search result is displayed on the terminal display unit 35 as a search result screen 354. The representative music search performed by the music search unit 33 is performed based on the neuron coordinates and the search table stored in the terminal music database 32, and the representative music search performed by the music search unit 18 of the music registration apparatus 10 described above. The procedure is the same as the song search.

以上説明したように、本実施の形態によれば、楽曲登録装置10においては、特徴データ抽出部13によって入力された楽曲データから物理的な特徴データを抽出し、印象度データ変換部14によって特徴データを人間の感性によって判断される印象度データに変換すると共に、変換した印象度データを楽曲データと共に楽曲データベース15に記憶し、送受信部21によって楽曲データベース15に記憶された楽曲データおよび印象度データを携帯端末装置30に転送するよう構成し、携帯端末装置30においては、送受信部31によって楽曲登録装置10の送受信部21から転送された楽曲データおよび印象度データを端末楽曲データベース32に記憶させ、端末操作部34によって印象度データの検索条件としての入力を受け付け、楽曲検索部33によって検索条件として入力された印象度データに基づいて端末楽曲データベース32を検索して所定数の楽曲データを特定し、音声出力部36によって検索された楽曲データを音声出力するように構成することにより、携帯端末装置30において楽曲登録装置10で楽曲データの特徴データから変換した印象度データを用いて楽曲データの検索が行うことができるため、人間の感性によって判断される印象度データに基づく精度の高い楽曲データの検索を携帯端末装置30で行うことができるという効果を奏する。   As described above, according to the present embodiment, in the music registration device 10, physical feature data is extracted from the music data input by the feature data extraction unit 13, and the feature data is converted by the impression degree data conversion unit 14. The data is converted into impression degree data determined by human sensitivity, the converted impression degree data is stored in the music database 15 together with the music data, and the music data and the impression data stored in the music database 15 by the transmission / reception unit 21. Is transferred to the mobile terminal device 30. In the mobile terminal device 30, the music data and impression degree data transferred from the transmission / reception unit 21 of the music registration device 10 by the transmission / reception unit 31 are stored in the terminal music database 32, The terminal operation unit 34 accepts input as a search condition for impression degree data, The terminal music database 32 is searched based on the impression degree data input as a search condition by the search unit 33 to specify a predetermined number of music data, and the music data searched by the audio output unit 36 is output as a voice. By doing so, the music data can be searched using the impression data converted from the feature data of the music data in the music registration device 10 in the mobile terminal device 30, so that the impression data determined by human sensitivity can be obtained. The mobile terminal device 30 can search for music data with high accuracy based on the above.

さらに、本実施の形態によれば、楽曲登録装置10においては、特徴データ抽出部13によって入力された楽曲データから物理的な特徴データを抽出し、印象度データ変換部14によって特徴データを人間の感性によって判断される印象度データに変換し、楽曲マッピング部16によって楽曲データを座標が付与された複数の部分空間に分割された楽曲マップに印象度データに基づいてマッピングすると共に、部分空間の座標と部分空間に配置されている楽曲データとからなる検索テーブルを作成し、送受信部21によって楽曲データベース15に記憶された楽曲データと共に検索テーブルを携帯端末装置30に転送するように構成し、携帯端末装置30においては、送受信部31によって楽曲登録装置10の送受信部21から転送された楽曲データおよび検索テーブルを端末楽曲データベース32に記憶させ、端末操作部34によって代表曲を特定した代表曲検索の指示入力を受け付け、楽曲検索部33によって代表曲に基づいて検索テーブルを検索して所定数の楽曲データを特定し、音声出力部36によって検索された楽曲データを音声出力するように構成することにより、携帯端末装置30において楽曲登録装置10で楽曲データの特徴データから変換した印象度データを用いてマッピングした楽曲マップに基づく検索が行うことができるため、人間の感性によって判断される印象度データに基づく精度の高い楽曲データの検索を携帯端末装置30で行うことができるという効果を奏する。   Further, according to the present embodiment, in the music registration device 10, physical feature data is extracted from the music data input by the feature data extraction unit 13, and the feature data is converted into human data by the impression degree data conversion unit 14. It is converted into impression degree data determined by sensitivity, and the music mapping unit 16 maps the music data to a music map divided into a plurality of partial spaces to which coordinates are given based on the impression degree data, and also coordinates in the partial space And a song table arranged in the partial space are created, and the search table is transferred together with the song data stored in the song database 15 by the transmission / reception unit 21 to the portable terminal device 30. In the device 30, the music transferred from the transmission / reception unit 21 of the music registration device 10 by the transmission / reception unit 31. The data and the search table are stored in the terminal music database 32, the instruction input of the representative music search specifying the representative music is received by the terminal operation unit 34, the search table is searched based on the representative music by the music search unit 33, and a predetermined number The music degree data converted by the music registration device 10 from the feature data of the music data in the portable terminal device 30 is configured to specify the music data of the music data and output the music data searched by the voice output unit 36 as voice. Since the search based on the music map mapped by using can be performed, the mobile terminal device 30 can search for the music data with high accuracy based on the impression degree data determined by the human sensitivity.

なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。   Note that the present invention is not limited to the above-described embodiments, and it is obvious that the embodiments can be appropriately changed within the scope of the technical idea of the present invention. In addition, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a suitable number, position, shape, and the like in practicing the present invention. In each figure, the same numerals are given to the same component.

本発明に係る楽曲検索システムの実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of embodiment of the music search system which concerns on this invention. 図1に示す携帯端末装置の構成を示す前面図である。It is a front view which shows the structure of the portable terminal device shown in FIG. 図1に示す楽曲登録装置に用いられるニューラルネットワークを事前に学習させるニューラルネットワーク学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the neural network learning apparatus which learns in advance the neural network used for the music registration apparatus shown in FIG. 図1に示す楽曲登録装置における楽曲登録動作を説明するためのフローチャートである。It is a flowchart for demonstrating the music registration operation | movement in the music registration apparatus shown in FIG. 図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートである。It is a flowchart for demonstrating the feature data extraction operation | movement in the feature data extraction part shown in FIG. 図1に示す特徴データ抽出部におけるテンポ決定動作を説明するためのフローチャートである。It is a flowchart for demonstrating the tempo determination operation | movement in the feature data extraction part shown in FIG. 図1に示す印象度データ変換部で用いられる階層型ニューラルネットワーク例を示す説明図である。It is explanatory drawing which shows the hierarchical neural network example used by the impression degree data conversion part shown in FIG. 図1に示す楽曲マッピング部が楽曲データをマッピングする楽曲マップ例を示す説明図である。It is explanatory drawing which shows the example of a music map which a music mapping part shown in FIG. 1 maps music data. 図1に示す楽曲データベースに記憶される検索テーブル例を示す図である。It is a figure which shows the example of a search table memorize | stored in the music database shown in FIG. 図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートである。3 is a flowchart for explaining a learning operation of a hierarchical neural network in the neural network learning apparatus shown in FIG. 図2に示すニューラルネットワーク学習装置における楽曲マップの学習動作を説明するためのフローチャートである。3 is a flowchart for explaining a music map learning operation in the neural network learning apparatus shown in FIG. 2. 図1に示す楽曲登録装置における楽曲検索動作を説明するためのフローチャートである。It is a flowchart for demonstrating the music search operation | movement in the music registration apparatus shown in FIG. 図1に示すPC表示部に表示される検索条件入力画面例を示す図である。It is a figure which shows the example of a search condition input screen displayed on the PC display part shown in FIG. 図1に示すPC表示部に表示される条件検索結果表示画面例を示す図である。It is a figure which shows the example of a condition search result display screen displayed on the PC display part shown in FIG. 図1に示すPC表示部に表示される代表曲検索結果表示画面例を示す図である。It is a figure which shows the example of a representative music search result display screen displayed on the PC display part shown in FIG. 図1に示すPC表示部に表示される楽曲リスト表示画面例を示す図である。It is a figure which shows the example of a music list display screen displayed on the PC display part shown in FIG. 図1に示すPC表示部に表示される楽曲マップ表示画面例を示す図である。It is a figure which shows the example of a music map display screen displayed on the PC display part shown in FIG. 図1に示す楽曲登録装置から携帯端末装置への楽曲データの転送動作を説明するための説明図である。It is explanatory drawing for demonstrating the transfer operation | movement of the music data from the music registration apparatus shown in FIG. 1 to a portable terminal device. 図2に示す携帯端末装置の端末表示部における表示例を示す図である。It is a figure which shows the example of a display in the terminal display part of the portable terminal device shown in FIG.

符号の説明Explanation of symbols

10 楽曲登録装置
11 楽曲データ入力部
12 圧縮処理部
13 特徴データ抽出部
14 印象度データ変換部
15 楽曲データベース
16 楽曲マッピング部
17 楽曲マップ記憶部
18 楽曲検索部
19 PC操作部
20 PC表示部
21 送受信部
22 音声出力部
23 データ伝送路
30 携帯端末装置
31 送受信部
32 端末楽曲データベース
33 楽曲検索部
34 端末操作部
35 端末表示部
36 音声出力部
40 ニューラルネットワーク学習装置
41 楽曲データ入力部
42 音声出力部
43 特徴データ抽出部
44 印象度データ入力部
45 結合重み値学習部
46 楽曲マップ学習部
47 結合重み値出力部
48 特徴ベクトル出力部
51 検索条件入力画面
52 条件検索結果表示画面
53 代表曲検索結果表示画面
54 楽曲リスト表示画面
55 楽曲マップ表示画面
341 十字キー
342 決定キー
351 検索方法選択画面
352 一覧表示選択画面
353 アーティスト・アルバム一覧画面
354 検索結果画面
355 印象度データ入力画面
356 検索リスト一覧画面
511 書誌データ入力領域
512 条件検索実行ボタン
513 全曲リスト表示ボタン
514 楽曲マップ表示ボタン
521 代表曲選択領域
522 代表曲検索実行ボタン
523 登録ボタン
531 出力楽曲選択領域
532 出力ボタン
541 代表曲選択領域
542 代表曲検索実行ボタン
551 ニューロン選択領域
552 マップ検索実行ボタン
553 ポップアップ表示
DESCRIPTION OF SYMBOLS 10 Music registration apparatus 11 Music data input part 12 Compression processing part 13 Feature data extraction part 14 Impression degree data conversion part 15 Music database 16 Music mapping part 17 Music map memory | storage part 18 Music search part 19 PC operation part 20 PC display part 21 Transmission / reception Unit 22 voice output unit 23 data transmission path 30 portable terminal device 31 transmission / reception unit 32 terminal music database 33 music search unit 34 terminal operation unit 35 terminal display unit 36 voice output unit 40 neural network learning device 41 music data input unit 42 voice output unit Reference Signs List 43 Feature data extraction unit 44 Impression degree data input unit 45 Join weight value learning unit 46 Music map learning unit 47 Join weight value output unit 48 Feature vector output unit 51 Search condition input screen 52 Condition search result display screen 53 Representative song search result display Screen 54 Song list Display screen 55 Music map display screen 341 Cross key 342 Enter key 351 Search method selection screen 352 List display selection screen 353 Artist / album list screen 354 Search result screen 355 Impression degree data input screen 356 Search list list screen 511 Bibliographic data input area 512 Condition search execution button 513 All song list display button 514 Music map display button 521 Representative song selection area 522 Representative song search execution button 523 Registration button 531 Output song selection area 532 Output button 541 Representative song selection area 542 Representative song search execution button 551 Neuron selection Area 552 Map search execution button 553 Pop-up display

Claims (7)

入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムであって、
前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、
該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換すると共に、変換した前記印象度データを前記楽曲データと共に前記楽曲データベースに記憶させる印象度データ変換手段と、
前記楽曲データベースに記憶された前記楽曲データおよび前記印象度データを前記携帯端末装置に転送する楽曲データ送信手段とを具備し、
前記携帯端末装置は、前記楽曲登録装置の前記楽曲データ送信手段から転送された前記楽曲データおよび前記印象度データを前記端末楽曲データベースに記憶させる楽曲データ受信手段と、
前記印象度データの検索条件としての入力を受け付ける端末操作手段と、
該端末操作手段から検索条件として入力された前記印象度データに基づいて前記端末楽曲データベースを検索して所定数の前記楽曲データを特定する楽曲検索手段と、
該楽曲検索手段によって検索された前記楽曲データを音声出力する音声出力手段とを具備することを特徴とする楽曲検索システム。
A music registration device that stores input music data in a music database, and a portable terminal device that is configured to be connectable to the music registration device and has a terminal music database to which the music data stored in the music database is transferred A music search system comprising:
The music registration device includes feature data extraction means for extracting physical feature data from the input music data;
Impression degree data conversion means for converting the feature data extracted by the feature data extraction means into impression degree data determined by human sensitivity and storing the converted impression degree data in the music database together with the music data When,
Music data transmission means for transferring the music data and impression data stored in the music database to the mobile terminal device;
The portable terminal device includes music data receiving means for storing the music data and the impression degree data transferred from the music data transmitting means of the music registration device in the terminal music database;
Terminal operating means for receiving input as a search condition for the impression degree data;
Music search means for searching the terminal music database based on the impression data input as search conditions from the terminal operation means to identify a predetermined number of the music data;
A music search system comprising voice output means for outputting the music data searched by the music search means.
前記楽曲検索手段は、前記端末操作手段から検索条件として入力された前記印象度データを入力ベクトルとすると共に、前記端末楽曲データベースに記憶されている前記印象度データを検索対象ベクトルとし、両者のユークリッド距離が小さい順に所定数検索することを特徴とする請求項1記載の楽曲検索システム。   The music search means uses the impression degree data input as a search condition from the terminal operation means as an input vector, and uses the impression degree data stored in the terminal music database as a search target vector. The music search system according to claim 1, wherein a predetermined number is searched in ascending order of distance. 入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムであって、
前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、
該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換する印象度データ変換手段と、
該印象度データ変換手段に変換された前記印象度データに基づいて、入力された前記楽曲データを座標が付与された複数の部分空間に分割された楽曲マップにマッピングすると共に、前記部分空間の座標と前記部分空間に配置されている前記楽曲データとからなる検索テーブルを作成する楽曲マッピング手段と、
前記楽曲データベースに記憶された前記楽曲データと共に前記楽曲マッピング手段によって作成された前記検索テーブルを前記携帯端末装置に転送する楽曲データ送信手段とを具備し、
前記携帯端末装置は、前記楽曲登録装置の前記楽曲データ送信手段から転送された前記楽曲データおよび前記検索テーブルを前記端末楽曲データベースに記憶させる楽曲データ受信手段と、
代表曲を特定した代表曲検索の指示入力を受け付ける端末操作手段と、
該端末操作手段によって特定された前記代表曲に基づいて前記検索テーブルを検索して所定数の前記楽曲データを特定する楽曲検索手段と、
該楽曲検索手段によって検索された前記楽曲データを音声出力する音声出力手段とを具備することを特徴とする楽曲検索システム。
A music registration device that stores input music data in a music database, and a portable terminal device that is configured to be connectable to the music registration device and has a terminal music database to which the music data stored in the music database is transferred A music search system comprising:
The music registration device includes feature data extraction means for extracting physical feature data from the input music data;
Impression degree data converting means for converting the feature data extracted by the feature data extracting means into impression degree data determined by human sensitivity;
Based on the impression degree data converted by the impression degree data converting means, the input music data is mapped to a music map divided into a plurality of partial spaces to which coordinates are given, and coordinates of the partial space And music mapping means for creating a search table comprising the music data arranged in the partial space,
Music data transmission means for transferring the search table created by the music mapping means together with the music data stored in the music database to the mobile terminal device;
The portable terminal device includes music data receiving means for storing the music data transferred from the music data transmitting means of the music registration device and the search table in the terminal music database;
A terminal operation means for receiving an instruction input for representative song search specifying a representative song;
Music search means for searching the search table based on the representative music specified by the terminal operation means and specifying a predetermined number of the music data;
A music search system comprising voice output means for outputting the music data searched by the music search means.
前記楽曲マップは、学習が施された自己組織化マップであり、
複数の前記部分空間は、それぞれ異なる特徴ベクトルが付与された複数のニューロンであり、
前記楽曲マッピング手段は、前記印象度データ変換手段に変換された前記印象度データを入力ベクトルとし、当該入力ベクトルと最も距離が短い前記特徴ベクトルが付与されている前記ニューロンに配置されていることを特徴とする請求項3記載の楽曲検索システム。
The music map is a self-organizing map that has been learned,
The plurality of subspaces are a plurality of neurons each having a different feature vector,
The music mapping means has the impression degree data converted by the impression degree data conversion means as an input vector, and is arranged in the neuron to which the feature vector having the shortest distance from the input vector is assigned. The music search system according to claim 3, wherein:
前記印象度データ変換手段は、前記特徴データ抽出手段によって抽出された特徴データを予め学習が施された階層型ニューラルネットワークを用いて人間の感性によって判断される印象度データに変換することを特徴とする請求項1乃至4記載の楽曲検索システム。   The impression degree data converting means converts the feature data extracted by the feature data extracting means into impression degree data determined by human sensitivity using a previously learned hierarchical neural network. The music search system according to claim 1 to 4. 入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムにおける楽曲検索方法であって、
前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出し、
該抽出した前記特徴データを人間の感性によって判断される印象度データに変換すると共に、変換した前記印象度データを前記楽曲データと共に前記楽曲データベースに記憶し、
前記楽曲データベースに記憶した前記楽曲データおよび前記印象度データを前記携帯端末装置に転送し、
前記携帯端末装置は、前記楽曲登録装置から転送された前記楽曲データおよび前記印象度データを前記端末楽曲データベースに記憶し、
前記印象度データの検索条件としての入力を受け付け、
検索条件として受け付けた前記印象度データに基づいて前記端末楽曲データベースを検索して所定数の前記楽曲データを特定し、
該検索した前記楽曲データを音声出力することを特徴とする楽曲検索方法。
A music registration device that stores input music data in a music database, and a portable terminal device that is configured to be connectable to the music registration device and has a terminal music database to which the music data stored in the music database is transferred A music search method in a music search system comprising:
The music registration device extracts physical feature data from the input music data,
The extracted feature data is converted into impression degree data determined by human sensitivity, and the converted impression degree data is stored in the music database together with the music data,
Transferring the music data and the impression data stored in the music database to the mobile terminal device;
The portable terminal device stores the music data and the impression degree data transferred from the music registration device in the terminal music database,
Accepting input as a search condition for the impression degree data,
The terminal music database is searched based on the impression degree data received as a search condition to identify a predetermined number of the music data,
A music search method comprising: outputting the searched music data by voice.
入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末装置とからなる楽曲検索システムにおける楽曲検索方法であって、
前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出し、
該抽出した前記特徴データを人間の感性によって判断される印象度データに変換し、
該変換した前記印象度データに基づいて、座標が付与された複数の部分空間に分割された楽曲マップにマッピングすると共に、前記部分空間の座標と前記部分空間に配置されている前記楽曲データとからなる検索テーブルを作成し、
前記楽曲データベースに記憶された前記楽曲データと共に前記作成した前記検索テーブルを前記携帯端末装置に転送し、
前記携帯端末装置は、前記楽曲登録装置から転送された前記楽曲データおよび前記検索テーブルを前記端末楽曲データベースに記憶し、
代表曲を特定した代表曲検索の指示入力を受け付け、
該受け付けた前記代表曲に基づいて前記検索テーブルを検索して所定数の前記楽曲データを特定し、
該検索した前記楽曲データを音声出力することを特徴とする楽曲検索方法。
A music registration device that stores input music data in a music database, and a portable terminal device that is configured to be connectable to the music registration device and has a terminal music database to which the music data stored in the music database is transferred A music search method in a music search system comprising:
The music registration device extracts physical feature data from the input music data,
Converting the extracted feature data into impression degree data determined by human sensitivity,
Based on the converted impression degree data, mapping to a music map divided into a plurality of partial spaces to which coordinates are assigned, and from the coordinates of the partial space and the music data arranged in the partial space. Create a search table
Transfer the created search table together with the music data stored in the music database to the mobile terminal device,
The portable terminal device stores the music data and the search table transferred from the music registration device in the terminal music database,
Accepting the instruction input of the representative song search specifying the representative song,
Search the search table based on the accepted representative song to identify a predetermined number of the song data,
A music search method comprising: outputting the searched music data by voice.
JP2005142806A 2005-05-16 2005-05-16 Musical piece retrieval system and musical piece retrieval method Pending JP2006318384A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005142806A JP2006318384A (en) 2005-05-16 2005-05-16 Musical piece retrieval system and musical piece retrieval method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005142806A JP2006318384A (en) 2005-05-16 2005-05-16 Musical piece retrieval system and musical piece retrieval method

Publications (1)

Publication Number Publication Date
JP2006318384A true JP2006318384A (en) 2006-11-24

Family

ID=37538977

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005142806A Pending JP2006318384A (en) 2005-05-16 2005-05-16 Musical piece retrieval system and musical piece retrieval method

Country Status (1)

Country Link
JP (1) JP2006318384A (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278547A (en) * 2001-03-22 2002-09-27 Matsushita Electric Ind Co Ltd Music piece retrieval method, music piece retrieval data registration method, music piece retrieval device and music piece retrieval data registration device
JP2004110422A (en) * 2002-09-18 2004-04-08 Double Digit Inc Music classifying device, music classifying method, and program
JP2005077865A (en) * 2003-09-02 2005-03-24 Sony Corp Music retrieval system and method, information processor and method, program, and recording medium
US20050092161A1 (en) * 2003-11-05 2005-05-05 Sharp Kabushiki Kaisha Song search system and song search method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002278547A (en) * 2001-03-22 2002-09-27 Matsushita Electric Ind Co Ltd Music piece retrieval method, music piece retrieval data registration method, music piece retrieval device and music piece retrieval data registration device
JP2004110422A (en) * 2002-09-18 2004-04-08 Double Digit Inc Music classifying device, music classifying method, and program
JP2005077865A (en) * 2003-09-02 2005-03-24 Sony Corp Music retrieval system and method, information processor and method, program, and recording medium
US20050092161A1 (en) * 2003-11-05 2005-05-05 Sharp Kabushiki Kaisha Song search system and song search method

Similar Documents

Publication Publication Date Title
US7805389B2 (en) Information processing apparatus and method, program and recording medium
US20120290621A1 (en) Generating a playlist
US9576050B1 (en) Generating a playlist based on input acoustic information
JP4611819B2 (en) Music management apparatus and information display method
JP6123143B1 (en) Patent requirement conformity prediction device and patent requirement conformity prediction program
US7576278B2 (en) Song search system and song search method
JP2005301921A (en) Musical composition retrieval system and musical composition retrieval method
JP4607660B2 (en) Music search apparatus and music search method
JP4313343B2 (en) Portable terminal device and information display method
JP4313340B2 (en) Mobile terminal device and music selection method
JP2006317872A (en) Portable terminal device and musical piece expression method
JP4279274B2 (en) Mobile terminal device and music information display method
JP2006323438A (en) Musical piece retrieval system
JP2005309712A (en) Musical piece retrieval system and musical piece retrieval method
JP2006195619A (en) Information retrieval device, and information retrieval method
JP4607659B2 (en) Music search apparatus and music search method
JP4115923B2 (en) Music search system and music search method
JP4246120B2 (en) Music search system and music search method
JP2006318384A (en) Musical piece retrieval system and musical piece retrieval method
JP4246100B2 (en) Music search system and music search method
JP4165645B2 (en) Music search system and music search method
JP4165650B2 (en) Music search system and music search method
JP2007011894A (en) Portable terminal unit
JP4246101B2 (en) Music search system and music search method
KR102623449B1 (en) User vocal evaluation result customized vocal training service providing method, apparatus and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100525

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20101005