JP2005309712A - Musical piece retrieval system and musical piece retrieval method - Google Patents

Musical piece retrieval system and musical piece retrieval method Download PDF

Info

Publication number
JP2005309712A
JP2005309712A JP2004124958A JP2004124958A JP2005309712A JP 2005309712 A JP2005309712 A JP 2005309712A JP 2004124958 A JP2004124958 A JP 2004124958A JP 2004124958 A JP2004124958 A JP 2004124958A JP 2005309712 A JP2005309712 A JP 2005309712A
Authority
JP
Japan
Prior art keywords
music
data
search
input
impression
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004124958A
Other languages
Japanese (ja)
Inventor
Narifumi Nochida
成文 後田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2004124958A priority Critical patent/JP2005309712A/en
Publication of JP2005309712A publication Critical patent/JP2005309712A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a musical piece retrieval system and a musical piece retrieval method capable of performing correction of impression data corresponding to musical piece data under reproduction in a terminal device. <P>SOLUTION: A correction instruction inputted by a terminal operation part 33 is stored in a retrieval result storage part 32. When the terminal device 30 is connected to a musical piece retrieval device 10, the instruction is transmitted to the device 10 by a transceiving part 31. A musical piece retrieval part 18 to which the correction instruction is inputted automatically corrects impression data of a musical piece the correction of which is instructed in a direction leaving a retrieval condition to update the impression data stored in a musical piece database 15 to automatically corrected correction data, and reads characteristic data from the musical piece database 15 to store the correction data and the characteristic data as relearnt data in a correction data storage part 23. <P>COPYRIGHT: (C)2006,JPO&NCIPI

Description

本発明は、HDD等の大容量の記憶手段に大量に記憶されている楽曲データの中から所望の楽曲を検索する楽曲検索システムおよび楽曲検索方法に関し、特に人間の感性によって判断される印象度データに基づいて楽曲の検索が可能な楽曲検索システムおよび楽曲検索方法に関する。   The present invention relates to a music search system and a music search method for searching for desired music from music data stored in large quantities in a large-capacity storage means such as an HDD, and in particular, impression degree data determined by human sensitivity. The present invention relates to a music search system and a music search method capable of searching music based on the above.

近年、HDD等の大容量の記憶手段が開発され、大容量の記憶手段に大量の楽曲データを記憶させることができるようになっている。大容量の記憶手段に記憶されている大量の楽曲データの検索は、アーティスト名や曲名、その他のキーワード等の書誌データを用いて行うのが一般的であるが、書誌データで検索した場合には、楽曲が持っている情感を考慮することができず、印象の異なる楽曲が検索される可能性があり、聴取した際の印象が同じような楽曲を検索したい場合には、不向きである。   In recent years, a large-capacity storage means such as an HDD has been developed, and a large amount of music data can be stored in the large-capacity storage means. Searching for a large amount of music data stored in a large-capacity storage means is generally performed using bibliographic data such as artist names, music titles, and other keywords. This is not suitable when it is not possible to take into account the emotions of a music piece and there is a possibility that a music piece with a different impression will be searched, and it is desired to search for a music piece with a similar impression when listening.

そこで、楽曲に対する主観的な印象に基づいて利用者の希望する楽曲を検索可能にするために、検索を希望する楽曲に対するユーザの主観的な要件を入力して数値化して出力し、その出力から、検索対象の楽曲の印象を数量化した予測印象値を算出し、算出した予測印象値をキーとして、複数の楽曲の音響信号およびその楽曲の印象を数量化した印象値を格納した楽曲データベースを検索することにより、利用者の楽曲に対する主観的なイメージに基づいて、希望する楽曲を検索する装置が提案されている(例えば、特許文献1参照)。   Therefore, in order to make it possible to search for the music desired by the user based on the subjective impression of the music, the user's subjective requirements for the music desired to be searched are input, quantified and output, and the output The music database that stores the estimated impression value obtained by quantifying the impression of the music to be searched and stores the acoustic signal of a plurality of music and the impression value obtained by quantifying the impression of the music using the calculated predicted impression value as a key. There has been proposed an apparatus for searching for desired music based on a subjective image of a user's music by searching (for example, see Patent Document 1).

しかしながら、従来技術では、楽曲の物理的な特徴を変換した印象値を検索するに際し、ユーザの主観的な要件の入力が数値化された予測印象値を用いて行っているため、ユーザによって検索条件として入力される主観的な要件の入力項目が集約されてしまい、主観的な要件に基づく精度の高い楽曲データの検索を実現することができないと共に、楽曲の印象を数量化した印象値が固定されているため、変換後の印象値が必ずしも個々のユーザの嗜好に即しない場合があるという問題点があった。
特開2002−278547号公報
However, in the prior art, when searching for an impression value obtained by converting the physical characteristics of a music piece, the user's subjective requirements are input using a numerical predicted impression value. As a result, the input items of the subjective requirements that are input as are aggregated, and it is not possible to search for music data with high accuracy based on the subjective requirements, and the impression value that quantifies the impression of the music is fixed. Therefore, there is a problem that the impression value after conversion may not always match the preference of individual users.
JP 2002-278547 A

本発明は斯かる問題点を鑑みてなされたものであり、その目的とするところは、階層型ニューラルネットワークによって、楽曲の有する物理的な複数の項目からなる特徴データと、人間の感性によって判断される項目からなる印象度データとを直接関連づけることにより、ユーザによって検索条件として入力される人間の感性によって判断される印象度データの項目が集約されることなく、人間の感性によって判断される印象度データに基づいて精度の高い楽曲データの検索を行うことができ、さらに、端末装置において再生中の楽曲データに対応する印象度データの修正を行うことができる楽曲検索システムおよび楽曲検索方法を提供する点にある。   The present invention has been made in view of such problems, and the object of the present invention is determined by a hierarchical neural network based on feature data consisting of a plurality of physical items of music and human sensitivity. Impression degree judged by human sensibility without aggregating items of impression degree data judged by human sensibility input as search conditions by the user by directly associating with impression degree data consisting of items Provided is a music search system and a music search method capable of searching music data with high accuracy based on data and further correcting impression data corresponding to music data being played back in a terminal device. In the point.

本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の楽曲検索システムは、楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索し、検索した楽曲データを端末装置に出力する楽曲検索システムであって、楽曲データを入力する楽曲データ入力手段と、該楽曲データ入力手段によって入力された楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換する印象度データ変換手段と、該印象度データ変換手段によって変換された前記印象度データを前記楽曲データ入力手段によって入力された楽曲データと共に前記楽曲データベースに記憶させる記憶制御手段と、前記印象度データを検索条件として入力する印象度データ入力手段と、該印象度データ入力手段から入力された前記印象度データに基づいて前記楽曲データベースを検索する楽曲検索手段と、該楽曲検索手段によって検索された楽曲データを前記端末装置に出力する楽曲データ出力手段と、前記端末装置からの前記印象度データの修正指示を受信する修正指示受信手段と、該修正指示受信手段によって受信された前記修正指示に基づいて前記印象度データを前記検索条件から遠ざかる方向に自動修正した修正データを作成し、当該修正データによって前記楽曲データベースに記憶されている前記印象度データを更新する印象度データ更新手段と、を具備することを特徴とする。
In order to solve the above problems, the present invention has the following configuration.
The music search system of the present invention is a music search system that searches for desired music data from a plurality of music data stored in a music database, and outputs the searched music data to a terminal device. Music data input means, feature data extraction means for extracting physical feature data from the music data input by the music data input means, and the feature data extracted by the feature data extraction means according to human sensitivity Impression degree data conversion means for converting the impression degree data to be determined, and storage for storing the impression degree data converted by the impression degree data conversion means in the music database together with the music data input by the music data input means Control means; impression degree data input means for inputting the impression degree data as a search condition; Music search means for searching the music database based on the impression degree data input from the impression degree data input means, and music data output means for outputting the music data searched by the music search means to the terminal device A correction instruction receiving means for receiving a correction instruction for the impression degree data from the terminal device, and automatically moving the impression degree data away from the search condition based on the correction instruction received by the correction instruction receiving means. Impression degree data updating means for creating modified correction data and updating the impression degree data stored in the music database by the correction data.

さらに、本発明の楽曲検索システムは、前記印象度データ変換手段は、予め学習が施された階層型ニューラルネットワークを用いて前記特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される前記印象度データに変換することを特徴とする。   Further, in the music search system according to the present invention, the impression degree data conversion means determines the feature data extracted by the feature data extraction means using a hierarchical neural network that has been learned in advance based on human sensitivity. The impression level data is converted to the impression level data.

さらに、本発明の楽曲検索システムは、前記特徴データ抽出手段は、前記特徴データとしてゆらぎ情報からなる複数の項目を抽出することを特徴とする。   Furthermore, the music search system of the present invention is characterized in that the feature data extraction means extracts a plurality of items including fluctuation information as the feature data.

さらに、本発明の楽曲検索システムは、前記楽曲検索手段は、前記印象度データ入力手段から入力された前記印象度データを入力ベクトルとすると共に、前記楽曲データベースに記憶されている前記印象度データを検索対象ベクトルとし、両者のユークリッド距離が小さい順に検索することを特徴とする。   Furthermore, in the music search system of the present invention, the music search means uses the impression degree data input from the impression degree data input means as an input vector, and uses the impression degree data stored in the music database. The search target vector is used, and the search is performed in ascending order of the Euclidean distance between the two.

また、本発明の楽曲検索システムは、楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索し、検索した楽曲データを端末装置に出力する楽曲検索システムであって、楽曲検索システムであって、楽曲データを入力する楽曲データ入力手段と、該楽曲データ入力手段によって入力された楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換する印象度データ変換手段と、該印象度データ変換手段によって変換された前記印象度データに基づいて、前記楽曲データ入力手段によって入力された楽曲データを予め学習が施された自己組織化マップである楽曲マップにマッピングする楽曲マッピング手段と、該楽曲マッピング手段によってマッピングされた楽曲データが記憶される楽曲マップ記憶手段と、前記楽曲マップにマッピングされている楽曲データの中から代表曲を選択する代表曲選択手段と、該代表曲選択手段によって選択された代表曲に基づいて楽曲マップを検索する楽曲検索手段と、該楽曲検索手段によって検索された楽曲データを前記端末装置に出力する楽曲データ出力手段と、前記端末装置からの前記印象度データの修正指示を受信する修正指示受信手段と、該修正指示受信手段によって受信された前記修正指示に基づいて前記印象度データを前記代表曲から遠ざかる方向に自動修正した修正データを作成する印象度データ修正手段と、を具備し、前記楽曲マッピング手段は、前記印象度データ修正手段によって作成された前記修正データに基づいて楽曲データを前記楽曲マップに再マッピングすることを特徴とする。   The music search system of the present invention is a music search system that searches for desired music data from a plurality of music data stored in a music database and outputs the searched music data to a terminal device. A music data input means for inputting music data, a feature data extraction means for extracting physical feature data from the music data input by the music data input means, and a feature data extraction means Further, the impression data conversion means for converting the feature data into impression data determined by human sensitivity, and the music data input means based on the impression data converted by the impression data conversion means A music map that maps the music data to a music map that is a self-organized map that has been learned in advance. Ping means, music map storage means for storing music data mapped by the music mapping means, representative music selection means for selecting representative music from music data mapped to the music map, and the representative Music search means for searching a music map based on the representative music selected by the music selection means, music data output means for outputting music data searched by the music search means to the terminal device, and from the terminal device A correction instruction receiving unit that receives a correction instruction for the impression degree data, and correction data that automatically corrects the impression degree data in a direction away from the representative song based on the correction instruction received by the correction instruction receiving unit Impression degree data correction means, and the music mapping means is provided by the impression degree data correction means. And wherein the remapping music data to the music map based on the correction data created.

さらに、本発明の楽曲検索システムは、前記印象度データ変換手段は、予め学習が施された階層型ニューラルネットワークを用いて前記特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される前記印象度データに変換することを特徴とする。   Further, in the music search system according to the present invention, the impression degree data conversion means determines the feature data extracted by the feature data extraction means using a hierarchical neural network that has been learned in advance based on human sensitivity. The impression level data is converted to the impression level data.

さらに、本発明の楽曲検索システムは、前記特徴データ抽出手段は、前記特徴データとしてゆらぎ情報からなる複数の項目を抽出することを特徴とする。   Furthermore, the music search system of the present invention is characterized in that the feature data extraction means extracts a plurality of items including fluctuation information as the feature data.

さらに、本発明の楽曲検索システムは、前記楽曲マッピング手段は、前記印象度データ変換手段によって変換された前記印象度データを入力ベクトルとして、当該入力ベクトルに最も近いニューロンに前記楽曲データ入力手段によって入力された楽曲データをマッピングすることを特徴とする。   Further, in the music search system according to the present invention, the music mapping means inputs the impression degree data converted by the impression degree data conversion means as an input vector, and inputs the neuron closest to the input vector by the music data input means. The recorded music data is mapped.

さらに、本発明の楽曲検索システムは、前記楽曲検索手段は、代表曲がマッピングされているニューロンに含まれる楽曲データを検索することを特徴とする。   Furthermore, the music search system of the present invention is characterized in that the music search means searches for music data contained in a neuron to which a representative music is mapped.

さらに、本発明の楽曲検索システムは、前記楽曲検索手段は、代表曲がマッピングされているニューロンと、その近傍ニューロンとに含まれる楽曲データを検索することを特徴とする。   Furthermore, the music search system of the present invention is characterized in that the music search means searches for music data contained in a neuron to which a representative music is mapped and its neighboring neurons.

さらに、本発明の楽曲検索システムは、前記楽曲検索手段において近傍ニューロンを決定するための近傍半径は、任意に設定可能であることを特徴とする。   Furthermore, the music search system of the present invention is characterized in that a neighborhood radius for determining a neighborhood neuron in the music search means can be arbitrarily set.

さらに、本発明の端末装置は、楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索する楽曲検索装置に接続可能に構成されている端末装置であって、前記楽曲検索装置からの楽曲データを入力する検索結果入力手段と、該検索結果入力手段によって入力された楽曲データを記憶する検索結果記憶手段と、該検索結果記憶手段に記憶された楽曲データを再生する音声出力手段と、前記音声出力手段による楽曲データの再生時に、再生中の楽曲データに対応する印象度データの修正指示を入力する修正指示入力手段と、前記楽曲検索装置に接続された時に、前記修正指示入力手段によって入力された前記修正指示を楽曲検索装置に送信する修正指示送信手段と、を具備することを特徴とする。   Furthermore, the terminal device of the present invention is a terminal device configured to be connectable to a music search device that searches for desired music data from a plurality of music data stored in a music database, the music search device Search result input means for inputting the music data from, search result storage means for storing the music data input by the search result input means, and audio output means for reproducing the music data stored in the search result storage means And a correction instruction input means for inputting an impression degree data correction instruction corresponding to the music data being reproduced at the time of reproduction of the music data by the audio output means, and the correction instruction input when connected to the music search device Correction instruction transmitting means for transmitting the correction instruction input by the means to the music search device.

また、本発明の楽曲検索方法は、楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索し、検索した楽曲データを端末装置に出力する楽曲検索方法であって、楽曲データの入力を受け付け、該入力された楽曲データから物理的な特徴データを抽出し、該抽出した前記特徴データを人間の感性によって判断される印象度データに変換し、該変換した印象度データを前記入力された楽曲データと共に前記楽曲データベースに記憶し、検索条件として前記印象度データの入力を受け付け、該入力された前記印象度データに基づいて前記楽曲データベースを検索し、該検索した楽曲データを前記端末装置に出力し、前記端末装置からの前記印象度データの修正指示を受信し、該受信した前記修正指示に基づいて前記印象度データを前記検索条件から遠ざかる方向に自動修正した修正データを作成し、該作成した前記修正データによって前記楽曲データベースに記憶されている前記印象度データを更新することを特徴とする。   The music search method of the present invention is a music search method for searching for desired music data from a plurality of music data stored in a music database and outputting the searched music data to a terminal device. Is extracted, physical feature data is extracted from the input music data, the extracted feature data is converted into impression degree data determined by human sensitivity, and the converted impression degree data is Stored in the music database together with the input music data, accepts input of the impression degree data as a search condition, searches the music database based on the input impression degree data, the searched music data Output to the terminal device, receive a correction instruction of the impression degree data from the terminal apparatus, and based on the received correction instruction, the impression degree Create a modified data automatically correct over data in a direction away from said search condition, and updates the impression data stored in the music database by said modified data said created.

さらに、本発明の楽曲検索方法は、予め学習が施された階層型ニューラルネットワークを用いて前記抽出した前記特徴データを人間の感性によって判断される前記印象度データに変換することを特徴とする。   Furthermore, the music search method of the present invention is characterized in that the extracted feature data is converted into the impression degree data determined by human sensibility using a hierarchical neural network that has been learned in advance.

さらに、本発明の楽曲検索方法は、前記特徴データとしてゆらぎ情報からなる複数の項目を抽出することを特徴とする。   Furthermore, the music search method of the present invention is characterized in that a plurality of items consisting of fluctuation information are extracted as the feature data.

さらに、本発明の楽曲検索方法は、前記受け付けた前記印象度データを入力ベクトルとすると共に、前記楽曲データベースに記憶している前記印象度データを検索対象ベクトルとし、両者のユークリッド距離が小さい順に検索することを特徴とする。   Furthermore, in the music search method of the present invention, the received impression degree data is used as an input vector, and the impression degree data stored in the music database is used as a search target vector, and search is performed in ascending order of the Euclidean distance between the two. It is characterized by doing.

また、本発明の楽曲検索方法は、楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索し、検索した楽曲データを端末装置に出力する楽曲検索方法であって、楽曲データの入力を受け付け、該入力された楽曲データから物理的な特徴データを抽出し、該抽出した前記特徴データを人間の感性によって判断される印象度データに変換し、該変換した前記印象度データに基づいて、前記入力された楽曲データを予め学習が施された自己組織化マップである楽曲マップにマッピングし、前記楽曲マップにマッピングされている楽曲データの中から代表曲を選択し、該選択した代表曲に基づいて前記楽曲マップにマッピングされている楽曲データを検索し、該検索した楽曲データを前記端末装置に出力し、前記端末装置からの前記印象度データの修正指示を受信し、該受信した前記修正指示に基づいて前記印象度データを前記代表曲から遠ざかる方向に自動修正した修正データを作成し、該作成した前記修正データに基づいて楽曲データを前記楽曲マップに再マッピングすることを特徴とする。   The music search method of the present invention is a music search method for searching for desired music data from a plurality of music data stored in a music database and outputting the searched music data to a terminal device. Is extracted, physical feature data is extracted from the input music data, the extracted feature data is converted into impression degree data determined by human sensitivity, and the converted impression degree data is converted into the converted impression degree data. Based on the above, the input music data is mapped to a music map that is a self-organized map that has been learned in advance, a representative music is selected from the music data mapped to the music map, and the selected Search music data mapped to the music map based on the representative music, and output the searched music data to the terminal device. The impression degree data correction instruction is received, and based on the received correction instruction, the impression degree data is automatically corrected in a direction away from the representative song, and the correction data is created. The music data is remapped to the music map.

さらに、本発明の楽曲検索方法は、予め学習が施された階層型ニューラルネットワークを用いて前記抽出した前記特徴データを人間の感性によって判断される前記印象度データに変換することを特徴とする。   Furthermore, the music search method of the present invention is characterized in that the extracted feature data is converted into the impression degree data determined by human sensibility using a hierarchical neural network that has been learned in advance.

さらに、本発明の楽曲検索方法は、前記特徴データとしてゆらぎ情報からなる複数の項目を抽出することを特徴とする。   Furthermore, the music search method of the present invention is characterized in that a plurality of items consisting of fluctuation information are extracted as the feature data.

さらに、本発明の楽曲検索方法は、前記変換した前記印象度データを入力ベクトルとして、当該入力ベクトルに最も近いニューロンに前記入力した楽曲データをマッピングすることを特徴とする。   Furthermore, the music search method of the present invention is characterized in that the input music data is mapped to a neuron closest to the input vector using the converted impression data as an input vector.

さらに、本発明の楽曲検索方法は、前記代表曲がマッピングされているニューロンに含まれる楽曲データを検索することを特徴とする。   Furthermore, the music search method of the present invention is characterized in that music data included in a neuron to which the representative music is mapped is searched.

さらに、本発明の楽曲検索方法は、前記代表曲がマッピングされているニューロンと、その近傍ニューロンとに含まれる楽曲データを検索することを特徴とする。   Furthermore, the music search method of the present invention is characterized by searching music data contained in a neuron to which the representative music is mapped and its neighboring neurons.

さらに、本発明の楽曲検索方法は、近傍ニューロンを決定するための近傍半径は、任意に設定可能であることを特徴とする。   Furthermore, the music search method of the present invention is characterized in that the neighborhood radius for determining the neighborhood neuron can be arbitrarily set.

本発明の楽曲検索システムおよび楽曲検索方法は、階層型ニューラルネットワークによって、楽曲の有する物理的な複数の項目からなる特徴データと、人間の感性によって判断される項目からなる印象度データとを直接関連づけることにより、楽曲データから抽出した特徴データを印象度データに変換して記憶しておき、当該記憶している印象度データをユーザによって入力された印象度データに基づいて検索することができるため、ユーザによって検索条件として入力される人間の感性によって判断される項目が集約されることなく、人間の感性によって判断される印象度データに基づいて精度の高い楽曲データの検索を行うことができ、大容量の記憶手段に記憶されている大量の楽曲データの中から聴取した際の印象が同じような楽曲のみを検索することができ、さらに、端末装置から受信した修正指示に基づいて楽曲データの印象度データを自動修正するように構成することにより、操作ボタンが限られている端末装置において、修正指示を入力するだけで再生中の楽曲データに対応する印象度データの修正を行うことができ、使用期間が長くなるほどユーザの意図に反して検索される楽曲データの数を減少させることができ、検索精度を向上させることができるという効果を奏する。   The music search system and the music search method of the present invention directly associate feature data consisting of a plurality of physical items of music with impression degree data consisting of items determined by human sensitivity, using a hierarchical neural network. Thus, the feature data extracted from the music data can be converted into impression data and stored, and the stored impression data can be searched based on the impression data input by the user. It is possible to search music data with high accuracy based on impression degree data determined by human sensibility without aggregating items determined by human sensibility input as search conditions by the user. A song with the same impression when listening from a large amount of song data stored in the storage means In addition, in the terminal device with a limited number of operation buttons, the correction instruction can be issued by automatically correcting the impression degree data of the music data based on the correction instruction received from the terminal device. Impression data corresponding to the music data being played can be corrected just by inputting, and the number of music data searched against the user's intention can be reduced as the usage period becomes longer. The effect that can be improved.

さらに、本発明の楽曲検索システムおよび楽曲検索方法は、特徴データとしてゆらぎ情報からなる複数の項目を抽出するように構成することにより、楽曲データの物理的な特徴を正確に抽出することができ、特徴データから変換される印象度データの精度を向上させることができるという効果を奏する。   Furthermore, the music search system and the music search method of the present invention are configured to extract a plurality of items including fluctuation information as feature data, thereby accurately extracting the physical features of the music data, There is an effect that the accuracy of the impression degree data converted from the feature data can be improved.

さらに、本発明の楽曲検索システムおよび楽曲検索方法は、特徴データから変換される印象度データと、ユーザによって入力される印象度データとを同一の複数項目とすることにより、多様な項目を設定することができ、ユーザが印象度データに基づく検索を容易に行うことができるという効果を奏する。   Furthermore, the music search system and the music search method of the present invention set various items by setting impression degree data converted from feature data and impression degree data input by a user to the same plurality of items. This is advantageous in that the user can easily perform a search based on the impression degree data.

さらに、本発明の楽曲検索システムおよび楽曲検索方法は、ユーザによって入力された印象度データを入力ベクトルとすると共に、前記楽曲データベースに記憶されている印象度データを検索対象ベクトルとし、両者のユークリッド距離が小さい順に検索するように構成することにより、印象度データの項目を多くしても正確に検索を行うことができ、検索精度を向上させることができるという効果を奏する。   Furthermore, the music search system and the music search method of the present invention use the impression degree data input by the user as an input vector, the impression degree data stored in the music database as a search target vector, and both Euclidean distances. By making the search in ascending order, the search can be performed accurately even if the impression degree data items are increased, and the search accuracy can be improved.

さらに、本発明の楽曲検索システムおよび楽曲検索方法は、予め学習が施された自己組織化マップであり、楽曲データが、当該楽曲データが有する印象度データに基づいてマッピングされている楽曲マップを用いて検索するように構成することにより、代表曲を選択するだけで、大容量の記憶手段に記憶されている大量の楽曲データの中から代表曲と印象が同じような楽曲を素早く検索することができ、さらに、端末装置から受信した修正指示に基づいて楽曲データの印象度データを自動修正するように構成することにより、操作ボタンが限られている端末装置において、修正指示を入力するだけで再生中の楽曲データに対応する印象度データの修正を行うことができ、使用期間が長くなるほどユーザの意図に反して検索される楽曲データの数を減少させることができ、検索精度を向上させることができるという効果を奏する。   Furthermore, the music search system and the music search method of the present invention are self-organized maps that have been previously learned, and use a music map in which music data is mapped based on impression degree data of the music data. By simply selecting a representative song, it is possible to quickly search for a song having the same impression as the representative song from a large amount of song data stored in a large-capacity storage means. In addition, by configuring the impression degree data of the music data to be automatically corrected based on the correction instruction received from the terminal device, playback can be performed by simply inputting the correction instruction on the terminal device with limited operation buttons. The impression degree data corresponding to the music data in the music can be corrected, and the longer the usage period, the more the music data that is searched against the user's intention. It can be reduced, an effect that it is possible to improve search accuracy.

さらに、本発明の楽曲検索システムおよび楽曲検索方法は、楽曲マップとして予め学習が施された自己組織化マップを用いることにより、類似する印象を有する楽曲が近隣に配置されるため、検索効率が向上するという効果を奏する。   Furthermore, the music search system and the music search method of the present invention use a self-organized map that has been learned in advance as a music map, so that music having similar impressions is arranged in the vicinity, thereby improving search efficiency. The effect of doing.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

図1は、本発明に係る楽曲検索システムの実施の形態の構成を示すブロック図であり、図2は、図1に示す楽曲検索装置に用いられるニューラルネットワークを事前に学習させるニューラルネットワーク学習装置の構成を示すブロック図である。   FIG. 1 is a block diagram showing a configuration of an embodiment of a music search system according to the present invention, and FIG. 2 is a diagram of a neural network learning device that learns in advance a neural network used in the music search device shown in FIG. It is a block diagram which shows a structure.

本実施の形態は、図1を参照すると、楽曲検索装置10と、端末装置30とがUSB等のデータ伝送路で接続されており、端末装置30は、楽曲検索装置10から切り離して携帯することができる構成となっている。   In this embodiment, referring to FIG. 1, the music search device 10 and the terminal device 30 are connected by a data transmission path such as a USB, and the terminal device 30 is separated from the music search device 10 and is carried. It has a configuration that can.

楽曲検索装置10は、図1を参照すると、楽曲データ入力部11と、圧縮処理部12と、特徴データ抽出部13と、印象度データ変換部14と、楽曲データベース15と、楽曲マッピング部16と、楽曲マップ記憶部17と、楽曲検索部18と、PC操作部19と、PC表示部20と、送受信部21と、音声出力部22と、修正データ記憶部23と、ニューラルネットワーク学習部24とからなる。   Referring to FIG. 1, the music search device 10 includes a music data input unit 11, a compression processing unit 12, a feature data extraction unit 13, an impression degree data conversion unit 14, a music database 15, and a music mapping unit 16. The music map storage unit 17, the music search unit 18, the PC operation unit 19, the PC display unit 20, the transmission / reception unit 21, the voice output unit 22, the correction data storage unit 23, and the neural network learning unit 24 Consists of.

楽曲データ入力部11は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、圧縮処理部12および特徴データ抽出部13に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して特徴データ抽出部13に出力する。   The music data input unit 11 has a function of reading a storage medium in which music data such as a CD and a DVD is stored. The music data input unit 11 inputs music data from a storage medium such as a CD and a DVD, and extracts a compression processing unit 12 and feature data. To the unit 13. You may comprise so that the music data (delivery data) via networks, such as the internet, other than storage media, such as CD and DVD, may be input. When compressed music data is input, the compressed music data is decompressed and output to the feature data extraction unit 13.

圧縮処理部12は、楽曲の登録時には、楽曲データ入力部11から入力された楽曲データをMP3やATRAC(Adaptive Transform Acoustic Coding )等の圧縮形式で圧縮し、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる。   The compression processing unit 12 compresses the music data input from the music data input unit 11 in a compression format such as MP3 or ATRAC (Adaptive Transform Acoustic Coding) at the time of registration of the music, and the compressed music data includes the artist name and the music title. Are stored in the music database 15 together with bibliographic data such as.

特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを印象度データ変換部14に出力する。   The feature data extraction unit 13 extracts feature data composed of fluctuation information from the music data input from the music data input unit 11 and outputs the extracted feature data to the impression degree data conversion unit 14.

印象度データ変換部14は、予め学習が施された階層型ニューラルネットワークを用いて、特徴データ抽出部13から入力された特徴データを、人間の感性によって判断される印象度データに変換し、変換した印象度データを楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと変換した印象度データとを楽曲データに関連づけて楽曲データベース15に登録する。   The impression degree data conversion unit 14 converts the feature data input from the feature data extraction unit 13 into impression degree data determined by human sensitivity using a hierarchical neural network that has been learned in advance. The impression level data is output to the music mapping unit 16, and the feature data input from the feature data extraction unit 13 and the converted impression level data are associated with the music data and registered in the music database 15.

楽曲データベース15は、HDD等の大容量の記憶手段であり、圧縮処理部12によって圧縮された楽曲データ、書誌データと、特徴データ抽出部13によって抽出された特徴データと、印象度データ変換部14によって変換された印象度データとが関連づけられて記憶される。   The music database 15 is a large-capacity storage unit such as an HDD, and the music data and bibliographic data compressed by the compression processing unit 12, the feature data extracted by the feature data extraction unit 13, and the impression degree data conversion unit 14. Is stored in association with the impression degree data converted by.

楽曲マッピング部16は、印象度データ変換部14から入力された印象度データに基づいて、予め学習が施された自己組織化マップである楽曲マップに楽曲データをマッピングし、楽曲データをマッピングした楽曲マップを楽曲マップ記憶部17に記憶させる。   The music mapping unit 16 maps music data to a music map, which is a self-organized map that has been learned in advance, based on the impression degree data input from the impression degree data conversion unit 14, and the music data is mapped to the music data The map is stored in the music map storage unit 17.

楽曲マップ記憶部17は、HDD等の大容量の記憶手段であり、楽曲マッピング部16によって楽曲データがマッピングされた楽曲マップが記憶される。   The music map storage unit 17 is a large-capacity storage unit such as an HDD, and stores a music map to which music data is mapped by the music mapping unit 16.

楽曲検索部18は、PC操作部19から入力された印象度データおよび書誌データに基づいて楽曲データベース15を検索し、当該検索結果をPC表示部20に表示すると共に、PC操作部19によって選択された代表曲に基づいて楽曲マップ記憶部17を検索し、当該代表曲検索結果をPC表示部20に表示する。また、楽曲検索部18は、送受信部21を介してPC操作部19によって選択された楽曲データを端末装置30に出力する。   The music search unit 18 searches the music database 15 based on the impression data and bibliographic data input from the PC operation unit 19, displays the search result on the PC display unit 20, and is selected by the PC operation unit 19. The music map storage unit 17 is searched based on the representative music, and the representative music search result is displayed on the PC display unit 20. In addition, the music search unit 18 outputs the music data selected by the PC operation unit 19 via the transmission / reception unit 21 to the terminal device 30.

また、楽曲検索部18は、楽曲データおよび印象度データを楽曲データベース15から読み出し、読み出した楽曲データを音声出力部22に出力して音声出力させると共に、音声出力を試聴したユーザの指示に基づいて印象度データを修正し、楽曲データベース15に記憶されている印象度データを更新すると共に、楽曲データベース15から特徴データを読み出して、修正データと特徴データとを再学習データとして修正データ記憶部23に記憶させる。   In addition, the music search unit 18 reads the music data and the impression degree data from the music database 15, outputs the read music data to the audio output unit 22 and outputs the audio, and based on the instruction of the user who auditioned the audio output. The impression degree data is corrected, the impression degree data stored in the music database 15 is updated, the feature data is read from the music database 15, and the correction data and the feature data are used as relearning data in the correction data storage unit 23. Remember.

PC操作部19は、キーボードやマウス等の入力手段であり、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の入力、端末装置30に出力する楽曲データを選択する入力、印象度データの修正入力、印象度データの自動修正を指示する入力、階層型ニューラルネットワークの再学習を指示する入力、楽曲データの再登録を指示する入力が行われる。   The PC operation unit 19 is input means such as a keyboard and a mouse, inputs search conditions for searching for music data stored in the music database 15 and the music map storage unit 17, and selects music data to be output to the terminal device 30. Input, correction input of impression degree data, input for instructing automatic correction of impression degree data, input for instructing re-learning of the hierarchical neural network, and input for instructing re-registration of music data.

PC表示部20は、例えば液晶ディスプレイ等の表示手段であり、楽曲マップ記憶部17に記憶されている楽曲データのマッピング状況の表示、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の表示、検索された楽曲データ(検索結果)の表示等が行われる。   The PC display unit 20 is a display unit such as a liquid crystal display, for example, displays the mapping status of the song data stored in the song map storage unit 17, and the song data stored in the song database 15 and the song map storage unit 17. The search conditions for searching for music, the searched music data (search results), etc. are displayed.

送受信部21は、端末装置30の送受信部31との間をUSB等のデータ伝送路で接続可能に構成されており、楽曲検索部18によって検索され、PC操作部19によって選択された楽曲データを端末装置30の送受信部31に出力すると共に、端末装置30からの修正指示を受信する。   The transmission / reception unit 21 is configured to be connectable to the transmission / reception unit 31 of the terminal device 30 by a data transmission path such as USB, and the music data searched by the music search unit 18 and selected by the PC operation unit 19 is received. While outputting to the transmission / reception part 31 of the terminal device 30, the correction instruction | indication from the terminal device 30 is received.

音声出力部22は、楽曲データベース15に記憶されている楽曲データを伸長して再生するオーディオプレーヤである。   The audio output unit 22 is an audio player that decompresses and reproduces music data stored in the music database 15.

修正データ記憶部23は、修正された印象度データと特徴データとを再学習データとして記憶するHDD等の記憶手段である。   The correction data storage unit 23 is a storage unit such as an HDD that stores the corrected impression degree data and feature data as relearning data.

ニューラルネットワーク学習部24は、印象度データ変換部14で用いられる階層型ニューラルネットワークの再学習を行う手段であり、印象度データ変換部14から各ニューロンの結合重み値を読み出し、読み出した各ニューロンの結合重み値を初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値を再学習させ、印象度データ変換部14の各ニューロンの結合重み値wを再学習させた各ニューロンの結合重み値に更新する。   The neural network learning unit 24 is a means for re-learning the hierarchical neural network used in the impression degree data conversion unit 14, reads out the connection weight value of each neuron from the impression degree data conversion unit 14, and The connection weight value is set as an initial value, and the relearning data stored in the correction data storage unit 23 is used to re-learn the hierarchical neural network, that is, the connection weight value of each neuron is re-learned. The neuron's connection weight value w is updated to the re-learned connection weight value of each neuron.

端末装置30は、HDD等の大容量の記憶手段を有するポータブルオーディオ、MDプレーヤ等の音声再生装置であり、図1を参照すると、送受信部31と、検索結果記憶部32と、端末操作部33、端末表示部34と、音声出力部35とからなる。   The terminal device 30 is an audio playback device such as a portable audio or MD player having a large capacity storage means such as an HDD. Referring to FIG. 1, a transmission / reception unit 31, a search result storage unit 32, and a terminal operation unit 33 are provided. The terminal display unit 34 and the audio output unit 35 are included.

送受信部31は、楽曲検索装置10の送受信部21との間をUSB等のデータ伝送路で接続可能に構成されており、楽曲検索装置10の送受信部21から入力された楽曲データを検索結果記憶部32に記憶させると共に、端末装置30が楽曲検索装置10に接続されると、検索結果記憶部32に記憶された修正指示を楽曲検索装置10に送信する。   The transmission / reception unit 31 is configured to be connectable to the transmission / reception unit 21 of the music search device 10 via a data transmission path such as a USB, and stores the music data input from the transmission / reception unit 21 of the music search device 10 as a search result. When the terminal device 30 is connected to the music search device 10, the correction instruction stored in the search result storage unit 32 is transmitted to the music search device 10.

端末操作部33は、検索結果記憶部32に記憶されている楽曲データの選択・再生を指示する入力、ボリュームコントロールの入力等、楽曲データの再生に係る入力、再生中の楽曲に対応する印象度データの修正を指示する修正指示入力が行われる。   The terminal operation unit 33 is an input for instructing selection / reproduction of music data stored in the search result storage unit 32, an input related to reproduction of music data such as an input of volume control, and an impression degree corresponding to a music being reproduced. A correction instruction input for instructing correction of data is performed.

端末表示部34は、例えば液晶ディスプレイ等の表示手段であり、再生中の曲名や、各種操作ガイダンスが表示される。   The terminal display unit 34 is a display means such as a liquid crystal display, for example, and displays the name of a song being played and various operation guidance.

音声出力部35は、検索結果記憶部32に圧縮されて記憶されている楽曲データを伸長して再生するオーディオプレーヤである。   The audio output unit 35 is an audio player that decompresses and reproduces music data that is compressed and stored in the search result storage unit 32.

ニューラルネットワーク学習装置40は、印象度データ変換部14で用いられる階層型ニューラルネットワークと、楽曲マッピング部16で用いられる楽曲マップとの学習を行う装置であり、図2を参照すると、楽曲データ入力部41と、音声出力部42と、特徴データ抽出部43と、印象度データ入力部44と、結合重み値学習部45と、楽曲マップ学習部46と、結合重み値出力部47と、特徴ベクトル出力部48とからなる。   The neural network learning device 40 is a device that learns the hierarchical neural network used in the impression degree data conversion unit 14 and the music map used in the music mapping unit 16, and referring to FIG. 41, voice output unit 42, feature data extraction unit 43, impression degree data input unit 44, combination weight value learning unit 45, music map learning unit 46, combination weight value output unit 47, and feature vector output Part 48.

楽曲データ入力部41は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、音声出力部42および特徴データ抽出部43に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して音声出力部42および特徴データ抽出部43に出力する。   The music data input unit 41 has a function of reading a storage medium in which music data such as a CD and a DVD is stored. The music data input unit 41 inputs music data from a storage medium such as a CD and a DVD, and extracts an audio output unit 42 and feature data. To the unit 43. You may comprise so that the music data (delivery data) via networks, such as the internet, other than storage media, such as CD and DVD, may be input. When compressed music data is input, the compressed music data is decompressed and output to the audio output unit 42 and the feature data extraction unit 43.

音声出力部42は、楽曲データ入力部41から入力された楽曲データを伸長して再生するオーディオプレーヤである。   The audio output unit 42 is an audio player that decompresses and reproduces music data input from the music data input unit 41.

特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを結合重み値学習部45に出力する。   The feature data extraction unit 43 extracts feature data composed of fluctuation information from the song data input from the song data input unit 41 and outputs the extracted feature data to the connection weight value learning unit 45.

印象度データ入力部44は、音声出力部42からの音声出力に基づく、評価者による印象度データの入力を受け付け、受け付けた印象度データを、階層型ニューラルネットワークの学習に用いる教師信号として結合重み値学習部45に出力すると共に自己組織化マップへの入力ベクトルとして楽曲マップ学習部46に出力する。   The impression degree data input unit 44 accepts input of impression degree data by the evaluator based on the audio output from the audio output unit 42, and uses the received impression degree data as a joint signal as a teacher signal used for learning of the hierarchical neural network. The value is output to the value learning unit 45 and is also output to the music map learning unit 46 as an input vector to the self-organizing map.

結合重み値学習部45は、特徴データ抽出部43から入力された特徴データと、印象度データ入力部44から入力された印象度データとに基づいて階層型ニューラルネットワークに学習を施し、各ニューロンの結合重み値を更新し、結合重み値出力部47を介して更新した結合重み値を出力する。学習が施された階層型ニューラルネットワーク(更新された結合重み値)は、楽曲検索装置10の印象度データ変換部14に移植される。   The connection weight value learning unit 45 performs learning on the hierarchical neural network based on the feature data input from the feature data extraction unit 43 and the impression degree data input from the impression degree data input unit 44, and The connection weight value is updated, and the updated connection weight value is output via the connection weight value output unit 47. The learned hierarchical neural network (updated connection weight value) is transplanted to the impression degree data conversion unit 14 of the music search apparatus 10.

楽曲マップ学習部46は、印象度データ入力部44から入力された印象度データを自己組織化マップへの入力ベクトルとして自己組織化マップに学習を施し、各ニューロンの特徴ベクトルを更新し、特徴ベクトル出力部48を介して更新した特徴ベクトルを出力する。学習が施された自己組織化マップ(更新された特徴ベクトル)は、楽曲マップとして楽曲検索装置10の楽曲マップ記憶部17に記憶される。   The music map learning unit 46 learns the self-organizing map using the impression degree data input from the impression degree data input unit 44 as an input vector to the self-organizing map, updates the feature vector of each neuron, and The updated feature vector is output via the output unit 48. The learned self-organizing map (updated feature vector) is stored in the music map storage unit 17 of the music search device 10 as a music map.

次に、本実施の形態の動作について図3乃至図20を参照して詳細に説明する。
図3は、図1に示す楽曲検索装置における楽曲登録動作を説明するためのフローチャートであり、図4は、図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートであり、図5は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートであり、図6は、図2に示すニューラルネットワーク学習装置における楽曲マップの学習動作を説明するためのフローチャートあり、図7は、図1に示す楽曲検索装置における楽曲検索動作を説明するためのフローチャートであり、図8は、図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習アルゴリズムを説明するための説明図であり、図9は、図2に示すニューラルネットワーク学習装置における楽曲マップの学習アルゴリズムを説明するための説明図であり、図10は、図1に示すPC表示部の表示画面例を示す図であり、図11は、図10に示す検索条件入力領域の表示例を示す図であり、図12および図13は、図10に示す検索結果表示領域の表示例を示す図であり、図14は、図10に示す表示画面例に表示される全楽曲リスト表示領域例を示す図であり、図15は、図10に示す表示画面例に表示されるキーワード検索領域例を示す図であり、図16は、本発明に係る楽曲検索システムの実施の形態の階層型ニューラルネットワークの再学習動作を説明するためのフローチャートであり、図17は、図10に示す表示画面例に表示される修正画面例を示す図であり、図18は、図1に示す印象度データ変換部で用いられる階層型ニューラルネットワークの再学習動作を説明するためのフローチャートであり、図19は、図10に示す表示画面例に表示される再学習指示領域の表示例を示す図であり、図20は、図1に示す楽曲検索装置における楽曲データの再登録動作を説明するためのフローチャートである。
Next, the operation of the present embodiment will be described in detail with reference to FIGS.
FIG. 3 is a flowchart for explaining the music registration operation in the music search apparatus shown in FIG. 1, and FIG. 4 is a flowchart for explaining the feature data extraction operation in the feature data extraction unit shown in FIG. FIG. 5 is a flowchart for explaining the learning operation of the hierarchical neural network in the neural network learning apparatus shown in FIG. 2, and FIG. 6 explains the music map learning operation in the neural network learning apparatus shown in FIG. FIG. 7 is a flowchart for explaining the music search operation in the music search apparatus shown in FIG. 1, and FIG. 8 shows the learning algorithm of the hierarchical neural network in the neural network learning apparatus shown in FIG. FIG. 9 is an explanatory diagram for explanation, and FIG. FIG. 10 is an explanatory diagram for explaining a music map learning algorithm in the neural network learning apparatus, FIG. 10 is a diagram showing an example of a display screen of the PC display unit shown in FIG. 1, and FIG. 11 is a search shown in FIG. FIG. 12 and FIG. 13 are diagrams showing a display example of the search result display region shown in FIG. 10, and FIG. 14 is displayed on the display screen example shown in FIG. FIG. 15 is a diagram showing an example of a keyword search area displayed in the display screen example shown in FIG. 10, and FIG. 16 is a diagram of the music search system according to the present invention. FIG. 17 is a flowchart for explaining a re-learning operation of the hierarchical neural network according to the embodiment, FIG. 17 is a diagram illustrating an example of a correction screen displayed on the display screen example illustrated in FIG. 10, and FIG. FIG. 19 is a flowchart for explaining the relearning operation of the hierarchical neural network used in the impression degree data conversion unit shown in FIG. 19, and FIG. 19 shows a display example of the relearning instruction area displayed in the display screen example shown in FIG. FIG. 20 is a flowchart for explaining the re-registration operation of music data in the music search device shown in FIG.

まず、楽曲検索装置10における楽曲登録動作について図3を参照して詳細に説明する。
楽曲データ入力部11にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部11から楽曲データを入力する(ステップA1)。
First, the music registration operation in the music search apparatus 10 will be described in detail with reference to FIG.
A storage medium storing music data such as CD and DVD is set in the music data input section 11 and music data is input from the music data input section 11 (step A1).

圧縮処理部12は、楽曲データ入力部11から入力された楽曲データを圧縮し(ステップA2)、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる(ステップA3)。   The compression processing unit 12 compresses the music data input from the music data input unit 11 (step A2), and stores the compressed music data in the music database 15 together with the bibliographic data such as artist name and music name (step A3). .

特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出する(ステップA4)。   The feature data extraction unit 13 extracts feature data including fluctuation information from the music data input from the music data input unit 11 (step A4).

特徴データ抽出部13における特徴データの抽出動作は、図4を参照すると、楽曲データの入力を受け付け(ステップB1)、楽曲データの予め定められたデータ解析開始点から一定のフレーム長に対しFFT(高速フーリエ変換)を行い(ステップB2)、パワースペクトルを算出する。なお、ステップB2の前に高速化を目的としてダウンサンプリングを行うようにしても良い。   Referring to FIG. 4, the feature data extraction operation in the feature data extraction unit 13 accepts input of music data (step B1), and performs FFT (FFT) for a certain frame length from a predetermined data analysis start point of music data. (Fast Fourier transform) is performed (step B2), and a power spectrum is calculated. Note that downsampling may be performed for the purpose of speeding up before step B2.

次に、特徴データ抽出部13は、Low、Middle、Highの周波数帯域を予め設定しておき、Low、Middle、Highの3帯域のパワースペクトルを積分し、平均パワーを算出すると共に(ステップB3)、Low、Middle、Highの周波数帯域の内、最大のパワーを持つ帯域をPitchのデータ解析開始点値とし、Pitchを測定する(ステップB4)。   Next, the feature data extraction unit 13 sets the frequency bands of Low, Middle, and High in advance, integrates the power spectrum of the three bands of Low, Middle, and High to calculate the average power (step B3). Among the frequency bands of Low, Middle, and High, the band having the maximum power is set as the data analysis start point value of the pitch, and the pitch is measured (step B4).

ステップB2〜ステップB4の処理動作は、予め定められたフレーム個数分行われ、特徴データ抽出部13は、ステップB2〜ステップB4の処理動作を行ったフレーム個数が予め定められた設定値に達したか否かを判断し(ステップB5)、ステップB2〜ステップB4の処理動作を行ったフレーム個数が予め定められた設定値に達していない場合には、データ解析開始点をシフトしながら(ステップB6)、ステップB2〜ステップB4の処理動作を繰り返す。   The processing operations in step B2 to step B4 are performed for a predetermined number of frames, and the feature data extraction unit 13 determines whether the number of frames for which the processing operations in steps B2 to B4 have been performed has reached a predetermined setting value. (Step B5), and if the number of frames for which the processing operations in steps B2 to B4 have been performed does not reach a predetermined set value, the data analysis start point is shifted (step B6). , The processing operations of Step B2 to Step B4 are repeated.

ステップB2〜ステップB4の処理動作を行ったフレーム個数が予め定められた設定値に達した場合には、特徴データ抽出部13は、ステップB2〜ステップB4の処理動作によって算出したLow、Middle、Highの平均パワーの時系列データに対しFFTを行うと共に、ステップB2〜ステップB4の処理動作によって測定したPitchの時系列データに対しFFTを行う(ステップB7)。   When the number of frames subjected to the processing operations of Step B2 to Step B4 reaches a predetermined set value, the feature data extraction unit 13 calculates Low, Middle, High calculated by the processing operations of Step B2 to Step B4. The FFT is performed on the time series data of the average power and the time series data of the Pitch measured by the processing operations of Step B2 to Step B4 (Step B7).

次に、特徴データ抽出部13は、Low、Middle、High、PitchにおけるFFT分析結果から、横軸を対数周波数、縦軸を対数パワースペクトルとしたグラフにおける回帰直線の傾きと、回帰直線のY切片とをゆらぎ情報として算出し(ステップB8)、Low、Middle、High、Pitchのそれぞれにおける回帰直線の傾きおよびY切片を8項目からなる特徴データとして印象度データ変換部14に出力する。   Next, the feature data extraction unit 13 calculates the slope of the regression line in the graph with the horizontal axis representing the logarithmic frequency and the vertical axis representing the logarithmic power spectrum from the FFT analysis results in Low, Middle, High, and Pitch, and the Y intercept of the regression line. Are calculated as fluctuation information (step B8), and the slope of the regression line and the Y-intercept in each of Low, Middle, High, and Pitch are output to the impression degree data conversion unit 14 as feature data of eight items.

印象度データ変換部14は、図8に示すような入力層(第1層)、中間層(第n層)、出力層(第N層)からなる階層型ニューラルネットワークを用い、入力層(第1層)に特徴データ抽出部13で抽出された特徴データを入力することによって、出力層(第N層)から印象度データを出力、すなわち特徴データを印象度データに変換し(ステップA5)、出力層(第N層)から出力された印象度データを、楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと出力層(第N層)から出力された印象度データとを楽曲データと共に楽曲データベース15に記憶させる。なお、中間層(第n層)の各ニューロンの結合重み値wは、評価者によって予め学習が施されている。また、本実施の形態の場合には、入力層(第1層)に入力される特徴データ、すなわち特徴データ抽出部13によって抽出される特徴データの項目は、前述のように8項目であり、印象度データの項目としては、人間の感性によって判断される(明るい、暗い)、(重い、軽い)、(かたい、やわらかい)、(安定、不安定)、(澄んだ、にごった)、(滑らか、歯切れの良い)、(激しい、穏やか)、(厚い、薄い)の8項目を設定し、各項目を7段階評価で表すように設定した。従って、入力層(第1層)のニューロン数Lと出力層(第N層)のニューロン数Lとは、それぞれ8個になっており、中間層(第n層:n=2,…,N−1)のニューロン数Lnは、適宜設定されている。 The impression data conversion unit 14 uses a hierarchical neural network including an input layer (first layer), an intermediate layer (n-th layer), and an output layer (N-th layer) as shown in FIG. By inputting the feature data extracted by the feature data extraction unit 13 into the first layer), the impression data is output from the output layer (Nth layer), that is, the feature data is converted into impression data (step A5). Impression degree data output from the output layer (Nth layer) is output to the music mapping unit 16, and feature data input from the feature data extraction unit 13 and impression level output from the output layer (Nth layer) The data is stored in the music database 15 together with the music data. Note that the connection weight value w of each neuron in the intermediate layer (nth layer) is learned in advance by the evaluator. In the case of the present embodiment, the feature data input to the input layer (first layer), that is, the feature data extracted by the feature data extraction unit 13 is eight items as described above, Impression data items are determined by human sensitivity (bright, dark), (heavy, light), (hard, soft), (stable, unstable), (clear, fuzzy), ( Eight items of (smooth, crisp), (violent, gentle), (thick, thin) were set, and each item was set to be expressed by a seven-level evaluation. Therefore, the number of neurons L N number of neurons L 1 and the output layer of the input layer (first layer) (the N th layer) is adapted to 8 respectively, the intermediate layer (the n-th layer: n = 2, ... , N−1) is set as appropriate.

楽曲マッピング部16は、楽曲データ入力部11から入力された楽曲を楽曲マップ記憶部17に記憶されている楽曲マップの該当箇所にマッピングする。楽曲マッピング部16におけるマッピング動作に用いられる楽曲マップは、例えばニューロンが2次元に規則的に配置(図9に示す例では、9*9の正方形)されている自己組織化マップ(SOM)であり、教師信号を必要としない学習ニューラルネットワークで、入力パターン群をその類似度に応じて分類する能力を自律的に獲得していくニューラルネットワークである。なお、本実施の形態では、ニューロンが100*100の正方形に配列された2次元SOMを使用したが、ニューロンの配列は、正方形であっても、蜂の巣であっても良い。   The music mapping unit 16 maps the music input from the music data input unit 11 to a corresponding portion of the music map stored in the music map storage unit 17. The music map used for the mapping operation in the music mapping unit 16 is, for example, a self-organizing map (SOM) in which neurons are regularly arranged in two dimensions (9 * 9 square in the example shown in FIG. 9). A learning neural network that does not require a teacher signal, and is a neural network that autonomously acquires the ability to classify input pattern groups according to their similarity. In the present embodiment, a two-dimensional SOM in which neurons are arranged in a 100 * 100 square is used. However, the arrangement of neurons may be a square or a honeycomb.

また、楽曲マッピング部16におけるマッピング動作に用いられる楽曲マップは、予め学習が施されており、各ニューロンには、予め学習されたn次元の特徴ベクトルm(t)∈Rが内包されており、楽曲マッピング部16は、印象度データ変換部14によって変換された印象度データを入力ベクトルxとし、入力ベクトルxに最も近いニューロン、すなわちユークリッド距離‖x−m‖を最小にするニューロンに、入力された楽曲をマッピングし(ステップA6)、マッピングした楽曲マップを楽曲マップ記憶部17に記憶させる。なお、Rは、印象度データの各項目の評価段階数を示し、nは、印象度データの項目数を示す。 The music map used for the mapping operation in the music mapping unit 16 has been learned in advance, and each neuron contains an n-dimensional feature vector m i (t) ∈R n that has been learned in advance. cage, music mapping unit 16, the impression data converted by the impression-data-conversion unit 14 to the input vector x j, nearest neuron to the input vector x j, i.e., the minimum Euclidean distance ‖x j -m i ‖ The input music piece is mapped to the neuron to perform (step A6), and the music piece map storage unit 17 stores the mapped music map. R represents the number of evaluation stages for each item of impression degree data, and n represents the number of items of impression degree data.

次に、印象度データ変換部14における変換動作(ステップA5)に用いられる階層型ニューラルネットワークの学習動作について図5および図8を参照して詳細に説明する。
評価者による階層型ニューラルネットワーク(結合重み値w)の学習は、例えば、図2に示すニューラルネットワーク学習装置40を用いて行われ、まず、階層型ニューラルネットワーク(結合重み値w)を事前学習させるための事前学習データ(楽曲データの特徴データ+印象度データ)の入力が行われる。
Next, the learning operation of the hierarchical neural network used for the conversion operation (step A5) in the impression degree data conversion unit 14 will be described in detail with reference to FIG. 5 and FIG.
Learning of the hierarchical neural network (connection weight value w) by the evaluator is performed using, for example, the neural network learning device 40 shown in FIG. 2. First, the hierarchical neural network (connection weight value w) is pre-learned. The pre-learning data (feature data feature data + impression degree data) is input.

楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップC1)、特徴データ抽出部43は、楽曲データ入力部41から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出する(ステップC2)。   A music medium such as a CD or DVD is set in the music data input unit 41, music data is input from the music data input unit 41 (step C1), and the feature data extraction unit 43 inputs the music data. Feature data composed of fluctuation information is extracted from the music data input from the unit 41 (step C2).

また、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップC3)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力し(ステップC4)、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号として受け付ける。なお、本実施の形態では、印象度の評価項目としては、人間の感性によって判断される(明るい、暗い)、(重い、軽い)、(かたい、やわらかい)、(安定、不安定)、(澄んだ、にごった)、(滑らか、歯切れの良い)、(激しい、穏やか)、(厚い、薄い)の8項目を設定し、各項目についての7段階評価を印象度データとして印象度データ入力部44で受け付けるように構成した。   The audio output unit 42 outputs the music data input from the music data input unit 41 as audio (step C3), and the evaluator listens to the audio output from the audio output unit 42 to determine the impression level of the music. Evaluation is performed based on sensitivity, and the evaluation result is input as impression degree data from the impression degree data input unit 44 (step C4). The combined weight value learning unit 45 uses the impression degree data input from the impression degree data input unit 44 as a teacher signal. Accept as. In this embodiment, the evaluation items for impression degree are determined by human sensitivity (bright, dark), (heavy, light), (hard, soft), (stable, unstable), ( 8 items of clear, sloppy), (smooth, crisp), (violent, gentle), (thick, thin) are set, and impression level data input section with 7-level evaluation for each item as impression level data 44 to accept.

次に、特徴データと入力された印象度データとからなる学習データが予め定められたサンプル数Tに達したか否かを判断し(ステップC5)、学習データがサンプル数Tに達するまでステップC1〜C4の動作が繰り返される。 Next, it is determined whether a learning data consisting of characteristic data and the inputted impression data reaches the number of samples T 1 for a predetermined (step C5), until the learning data reaches the number of samples T 1 Steps C1 to C4 are repeated.

結合重み値学習部45における階層型ニューラルネットワークの学習、すなわち各ニューロンの結合重み値wの更新は、誤差逆伝播学習法を用いて行う。
まず、初期値として、中間層(第n層)の全てのニューロンの結合重み値wを乱数によって−0.1〜0.1程度の範囲の小さな値に設定しておき、結合重み値学習部45は、特徴データ抽出部43によって抽出された特徴データを入力信号x(j=1,2,…,8)として入力層(第1層)に入力し、入力層(第1層)から出力層(第N層)に向けて、各ニューロンの出力を計算する。
The learning of the hierarchical neural network in the connection weight value learning unit 45, that is, the update of the connection weight value w of each neuron is performed using an error back propagation learning method.
First, as an initial value, the connection weight value w of all the neurons of the intermediate layer (nth layer) is set to a small value in the range of about −0.1 to 0.1 by a random number, and the connection weight value learning unit 45 inputs the feature data extracted by the feature data extraction unit 43 to the input layer (first layer) as an input signal x j (j = 1, 2,..., 8), and from the input layer (first layer). The output of each neuron is calculated toward the output layer (Nth layer).

次に、結合重み値学習部45は、印象度データ入力部44から入力された印象度データを教師信号y(j=1,2,…,8) とし、出力層(第N層)の出力outj と、教師信号yとの誤差から、学習則δj を次式によって計算する。 Next, the combined weight value learning unit 45 uses the impression degree data input from the impression degree data input unit 44 as a teacher signal y j (j = 1, 2,..., 8), and outputs the output layer (Nth layer). The learning rule δ j N is calculated from the error between the output out j N and the teacher signal y j by the following equation.

Figure 2005309712
Figure 2005309712

次に、結合重み値学習部45は、学習則δj を使って、中間層(第n層)の誤差信号 δj n を次式によって計算する。 Next, the joint weight value learning unit 45 calculates the error signal δ j n of the intermediate layer (nth layer) using the learning rule δ j N by the following equation.

Figure 2005309712
Figure 2005309712

なお、数式2において、wは、第 n 層 j 番目と第 n -1 層k番目のニューロンの間の結合重み値を表している。   In Equation 2, w represents a connection weight value between the n-th layer j-th neuron and the (n −1) -th layer k-th neuron.

次に、結合重み値学習部45は、中間層(第n層)の誤差信号δj nを用いて各ニューロンの結合重み値wの変化量Δwを次式によって計算し、各ニューロンの結合重み値wを更新する(ステップC6)。なお、次式において、ηは、学習率を表し、評価者による学習では、η(0<η≦1)に設定されている。 Next, the connection weight value learning unit 45 calculates the change amount Δw of the connection weight value w of each neuron by the following equation using the error signal δ j n of the intermediate layer (nth layer), and the connection weight of each neuron. The value w is updated (step C6). In the following equation, η represents a learning rate, and is set to η 1 (0 <η 1 ≦ 1) in learning by the evaluator.

Figure 2005309712
Figure 2005309712

ステップC6では、サンプル数Tの事前学習データのそれぞれについて学習が行われ、次に、次式に示す2乗誤差Eが予め定められた事前学習用の基準値Eよりも小さいか否かが判断され(ステップC7)、2乗誤差Eが基準値Eよりも小さくなるまでステップC6の動作が繰り返される。なお、2乗誤差Eが基準値Eよりも小さくなると想定される学習反復回数Sを予め設定しておき、ステップC6の動作を学習反復回数S回繰り返すようにしても良い。 In step C6, for each of the pre-training data sample number T 1 learning is performed, then, or smaller or not than the reference value E 1 for pre-learning is square error E shown in the following equation predetermined There is judged (step C7), the operation of step C6 to square error E is smaller than the reference value E 1 is repeated. Incidentally, the learning iterations S squared error E is assumed to be smaller than the reference value E 1 is set in advance, may be the operation of the step C6 to repeat the learning iterations S times.

Figure 2005309712
Figure 2005309712

ステップC7で2乗誤差Eが基準値Eよりも小さいと判断された場合には、結合重み値学習部45は、事前学習させた各ニューロンの結合重み値wを結合重み値出力部47によって出力し(ステップC8)、結合重み値出力部47から出力された各ニューロンの結合重み値wは、印象度データ変換部14に記憶される。 In the case of the square error E is determined to be smaller than the reference value E 1 Step C7, connection weights learning unit 45, the connection weights output unit 47 the coupling weight value w for each neuron is prior learning The connection weight value w of each neuron outputted and output from the connection weight value output unit 47 is stored in the impression degree data conversion unit 14.

次に、楽曲マッピング部16におけるマッピング動作(ステップA6)に用いられる楽曲マップの学習動作について図6および図9を参照して詳細に説明する。   Next, the music map learning operation used for the mapping operation (step A6) in the music mapping unit 16 will be described in detail with reference to FIGS.

楽曲データ入力部41にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部41から楽曲データを入力し(ステップD1)、音声出力部42は、楽曲データ入力部41から入力された楽曲データを音声出力し(ステップD2)、評価者は、音声出力部42からの音声出力を聞くことによって、楽曲の印象度を感性によって評価し、評価結果を印象度データとして印象度データ入力部44から入力し(ステップD3)、楽曲マップ学習部46は、印象度データ入力部44から入力された印象度データを自己組織化マップへの入力ベクトルとして受け付ける。なお、本実施の形態では、印象度の評価項目としては、人間の感性によって判断される(明るい、暗い)、(重い、軽い)、(かたい、やわらかい)、(安定、不安定)、(澄んだ、にごった)、(滑らか、歯切れの良い)、(激しい、穏やか)、(厚い、薄い)の8項目を設定し、各項目についての7段階評価を印象度データとして印象度データ入力部44で受け付けるように構成した。   The music data input unit 41 is set with a storage medium storing music data such as CD and DVD, the music data is input from the music data input unit 41 (step D1), and the audio output unit 42 is a music data input unit. The music data input from 41 is output as audio (step D2), and the evaluator listens to the audio output from the audio output unit 42 to evaluate the impression level of the music based on the sensitivity, and the evaluation result is used as impression data. Input from the impression level data input unit 44 (step D3), the music map learning unit 46 accepts the impression level data input from the impression level data input unit 44 as an input vector to the self-organizing map. In this embodiment, the evaluation items for impression degree are determined by human sensitivity (bright, dark), (heavy, light), (hard, soft), (stable, unstable), ( 8 items of clear, sloppy), (smooth, crisp), (violent, gentle), (thick, thin) are set, and impression level data input section with 7-level evaluation for each item as impression level data 44 to accept.

楽曲マップ学習部46は、は、印象度データ入力部44から入力された印象度データを入力ベクトルx(t)∈Rとし、各ニューロンの特徴ベクトルm(t)∈Rを学習させる。なお、tは、学習回数を表し、学習回数を定める設定値Tを予め設定しておき、学習回数t=0,1,…,Tについて学習を行わせる。なお、Rは、各印象度項目の評価段階を示し、nは、印象度データの項目数を示す。 The music map learning unit 46 uses the impression degree data input from the impression degree data input unit 44 as an input vector x j (t) ∈R n and learns a feature vector m i (t) ∈R n of each neuron. Let Note that t represents the number of learning times, a preset value T that determines the number of learning times is set in advance, and learning is performed for the learning number t = 0, 1,. Note that R indicates the evaluation stage of each impression degree item, and n indicates the number of items of impression degree data.

まず、初期値として、全てのニューロンの特徴ベクトルm(0)をそれぞれ0〜1の範囲でランダムに設定しておき、楽曲マップ学習部46は、x(t)に最も近いニューロンc、すなわち‖x(t)−m(t)‖を最小にする勝者ニューロンcを求め、勝者ニューロンcの特徴ベクトルm(t)と、勝者ニューロンcの近傍にある近傍ニューロンiの集合Ncのそれぞれの特徴ベクトルm(t)(i∈Nc)とを、次式に従ってそれぞれ更新する(ステップD4)。なお、近傍ニューロンiを決定するための近傍半径は、予め設定されているものとする。 First, as an initial value, feature vectors m c (0) of all neurons are set at random in the range of 0 to 1, and the music map learning unit 46 determines that the neuron c, which is closest to x j (t), That is, a winner neuron c that minimizes ‖x j (t) −m c (t) ‖ is obtained, and a feature vector m c (t) of the winner neuron c and a set Nc of neighboring neurons i in the vicinity of the winner neuron c Each feature vector m i (t) (iεNc) is updated according to the following equation (step D4). It is assumed that the neighborhood radius for determining the neighborhood neuron i is set in advance.

Figure 2005309712
Figure 2005309712

なお、数式5において、hci(t)は、学習率を表し、次式によって求められる。 In Equation 5, h ci (t) represents a learning rate and is obtained by the following equation.

Figure 2005309712
Figure 2005309712

なお、αinitは学習率の初期値であり、R(t)は、単調減少する一次関数もしくは指数関数が用いられる。 Α init is an initial value of the learning rate, and R 2 (t) is a monotonically decreasing linear function or exponential function.

次に、楽曲マップ学習部46は、学習回数tが設定値Tに達したか否かを判断し(ステップD5)、学習回数tが設定値Tに達するまでステップD1〜ステップD4の処理動作を繰り返し、学習回数tが設定値Tに達すると、再び最初のサンプルから同じ処理動作を行う。この反復回数が予め定められたS回になった時点で、特徴ベクトル出力部48を介して学習させた特徴ベクトルm(T)∈Rを出力する(ステップD6)。出力された各ニューロンiの特徴ベクトルm(T)は、楽曲検索装置10の楽曲マップ記憶部17に楽曲マップとして記憶される。 Next, the music map learning unit 46 determines whether or not the learning count t has reached the set value T (step D5), and performs the processing operations of steps D1 to D4 until the learning count t reaches the set value T. Repeatingly, when the learning count t reaches the set value T, the same processing operation is performed again from the first sample. When the number of iterations reaches a predetermined number of times S, the feature vector m i (T) εR n learned through the feature vector output unit 48 is output (step D6). The output feature vector m i (T) of each neuron i is stored as a music map in the music map storage unit 17 of the music search device 10.

次に、楽曲検索装置10における楽曲検索動作について図7を参照して詳細に説明する。
楽曲検索部18は、PC表示部20に、図10に示すような検索画面50を表示し、PC操作部19からのユーザ入力を受け付ける。検索画面50は、楽曲マップ記憶部17に記憶されている楽曲データのマッピング状況が表示される楽曲マップ表示領域51と、検索条件を入力する検索条件入力領域52と、検索結果が表示される検索結果表示領域53と、階層型ニューラルネットワークの再学習を指示する再学習指示領域70とからなる。図10の楽曲マップ表示領域51に示されている点は、楽曲データがマッピングされている楽曲マップのニューロンを示している。
Next, the music search operation in the music search apparatus 10 will be described in detail with reference to FIG.
The music search unit 18 displays a search screen 50 as shown in FIG. 10 on the PC display unit 20 and accepts user input from the PC operation unit 19. The search screen 50 includes a music map display area 51 in which the mapping status of music data stored in the music map storage unit 17 is displayed, a search condition input area 52 for inputting search conditions, and a search in which search results are displayed. The result display area 53 and a relearning instruction area 70 for instructing relearning of the hierarchical neural network. The points shown in the music map display area 51 in FIG. 10 indicate the neurons of the music map to which the music data is mapped.

検索条件入力領域52は、図11に示すように、検索条件として印象度データを入力する印象度データ入力領域521と、検索条件として書誌データを入力する書誌データ入力領域522と、検索の実行を指示する検索実行ボタン523とからなり、ユーザは、検索条件として印象度データや書誌データをPC操作部19から入力し(ステップE1)、検索実行ボタン523をクリックすることで、印象度データや書誌データに基づく検索を楽曲検索部18に指示する。なお、PC操作部19からの印象度データの入力は、図11に示すように、印象度データの各項目を7段階評価で入力することによって行われる。   As shown in FIG. 11, the search condition input area 52 has an impression degree data input area 521 for inputting impression degree data as a search condition, a bibliographic data input area 522 for input of bibliographic data as a search condition, and executes the search. The search execution button 523 for instructing the user, the user inputs impression degree data and bibliographic data as search conditions from the PC operation unit 19 (step E1), and clicks the search execution button 523, whereby the impression degree data and bibliography are clicked. A search based on data is instructed to the music search unit 18. Note that the impression data is input from the PC operation unit 19 by inputting each item of the impression data in a seven-step evaluation as shown in FIG.

楽曲検索部18は、PC操作部19から入力された印象度データおよび書誌データに基づいて楽曲データベース15を検索し(ステップE2)、図12に示すような検索結果を検索結果表示領域53に表示する。   The music search unit 18 searches the music database 15 based on the impression data and bibliographic data input from the PC operation unit 19 (step E2), and displays the search results as shown in FIG. To do.

PC操作部19から入力された印象度データに基づく検索は、PC操作部19から入力された印象度データを入力ベクトルxとし、楽曲データベース15に楽曲データと共に記憶されている印象度データを検索対象ベクトルXとすると、入力ベクトルxに近い検索対象ベクトルX、すなわちユークリッド距離‖X−x‖が小さい順に検索して行く。検索する件数は、予め定めておいても、ユーザによって任意に設定するようにしても良い。また、印象度データと書誌データとが共に検索条件とされている場合には、書誌データに基づく検索を行った後、印象度データに基づく検索が行われる。 The search based on the impression degree data input from the PC operation unit 19 uses the impression degree data input from the PC operation unit 19 as the input vector xj, and searches the impression degree data stored together with the song data in the song database 15. If the target vector X j, the input vectors x j closer search target vector X j, i.e. go search the Euclidean distance ‖X j -x j || is ascending order. The number of searches may be determined in advance or arbitrarily set by the user. If both impression level data and bibliographic data are set as search conditions, after searching based on bibliographic data, searching based on impression level data is performed.

検索条件入力領域52を用いた検索以外に、楽曲マップ表示領域51を用いた検索を行えるようにしても良い。この場合には、楽曲マップ表示領域51において検索対象領域を指定することで、検索対象領域内にマッピングされている楽曲データを検索結果として検索結果表示領域53に表示する。   In addition to the search using the search condition input area 52, a search using the music map display area 51 may be performed. In this case, by designating the search target area in the music map display area 51, the music data mapped in the search target area is displayed in the search result display area 53 as a search result.

次に、ユーザは、検索結果表示領域53に表示されている検索結果の中から代表曲を選択し(ステップE3)、代表曲検索実行ボタン531をクリックすることで、代表曲に基づく検索を楽曲検索部18に指示する。なお、この時点で出力ボタン532がクリックされた場合には、楽曲検索部18は、送受信部21を介して検索結果表示領域53に表示されている検索結果の楽曲データを端末装置30に出力する。   Next, the user selects a representative song from the search results displayed in the search result display area 53 (step E3), and clicks the representative song search execution button 531 to perform a search based on the representative song. The search unit 18 is instructed. When the output button 532 is clicked at this time, the music search unit 18 outputs the music data of the search result displayed in the search result display area 53 to the terminal device 30 via the transmission / reception unit 21. .

楽曲検索部18は、選択された代表曲に基づいて楽曲マップ記憶部17に記憶されている楽曲マップを検索し(ステップE4)、代表曲がマッピングされているニューロンと、その近傍ニューロンとにマッピングされている楽曲データを代表曲検索結果として検索結果表示領域53に表示する。近傍ニューロンを決定するための近傍半径は、予め定めておいても、ユーザによって任意に設定するようにしても良い。   The music search unit 18 searches the music map stored in the music map storage unit 17 based on the selected representative music (step E4), and maps it to the neuron to which the representative music is mapped and its neighboring neurons. The stored music data is displayed in the search result display area 53 as a representative music search result. The neighborhood radius for determining the neighborhood neuron may be set in advance or arbitrarily set by the user.

次に、ユーザは、検索結果表示領域53に表示されている代表曲検索結果の中から端末装置30に出力する楽曲データを、図13に示すように選択し(ステップE5)、出力ボタン532をクリックすることで、選択した楽曲データの出力を楽曲検索部18に指示し、楽曲検索部18は、送受信部21を介してユーザによって選択された楽曲データを端末装置30に出力する(ステップE6)。   Next, the user selects music data to be output to the terminal device 30 from the representative music search results displayed in the search result display area 53 as shown in FIG. 13 (step E5), and the output button 532 is selected. By clicking, the music search unit 18 is instructed to output the selected music data, and the music search unit 18 outputs the music data selected by the user via the transmission / reception unit 21 to the terminal device 30 (step E6). .

なお、検索条件入力領域52、楽曲マップ表示領域51を用いた代表曲の検索以外に、図14に示すような、記憶されている全楽曲のリストが表示される全楽曲リスト表示領域54を検索画面50に表示させ、全楽曲リストから代表曲を直接選択して、代表曲選択実行ボタン541をクリックすることで、選択された代表曲に基づく検索を楽曲検索部18に指示するように構成しても良い。   In addition to the search for representative songs using the search condition input area 52 and the music map display area 51, a search is made for an all music list display area 54 in which a list of all stored music is displayed as shown in FIG. It is configured to display on the screen 50 and directly select a representative song from the entire song list and click the representative song selection execution button 541 to instruct the music search unit 18 to search based on the selected representative song. May be.

さらに、上述した検索以外に、「明るい曲」、「楽しい曲」、「癒される曲」というように言葉で表現されるキーワードに対応するニューロン(あるいは楽曲)を設定しておき、キーワードを選択することによって楽曲の検索を行えるように構成しても良い。すなわち、図15(a)に示すような、キーワード検索領域55を検索画面50に表示させ、キーワード選択領域551に表示されたキーワードのリストからいずれかを選択し、おまかせ検索ボタン553をクリックすることで、選択されたキーワードに対応するニューロンに基づく検索を楽曲検索部18に指示するように構成する。図15(a)に示す設定楽曲表示領域552には、選択されたキーワードに対応する楽曲が設定されている場合に、当該楽曲が設定楽曲として表示され、この場合には、おまかせ検索ボタン553をクリックすることで、選択されたキーワードに対応する設定楽曲を代表曲とする検索を楽曲検索部18に指示する。また、図15(a)に示す設定楽曲変更ボタン554は、キーワードに対応する楽曲を変更する際に使用されるもので、設定楽曲変更ボタン554をクリックすることで、全楽曲リストが表示されて、全楽曲リストの中から楽曲を選択することで、キーワードに対応する楽曲を変更できるように構成する。なお、キーワードに対応するニューロン(あるいは楽曲)の設定は、キーワードに印象度データを割り付けておき、当該印象度データを入力ベクトルxとし、入力ベクトルxに最も近いニューロン(あるいは楽曲)とを対応づけるようにしても良く、ユーザによって任意に設定できるように構成しても良い。 In addition to the search described above, neurons (or songs) corresponding to keywords expressed in words such as “bright songs”, “fun songs”, and “healed songs” are set and keywords are selected. It may be configured so that music can be searched. That is, as shown in FIG. 15A, a keyword search area 55 is displayed on the search screen 50, one is selected from the keyword list displayed in the keyword selection area 551, and the automatic search button 553 is clicked. Thus, the music search unit 18 is instructed to search based on the neuron corresponding to the selected keyword. In the set music display area 552 shown in FIG. 15A, when a music corresponding to the selected keyword is set, the music is displayed as the set music. In this case, an automatic search button 553 is displayed. By clicking, the music search unit 18 is instructed to search for the set music corresponding to the selected keyword as a representative music. The set music change button 554 shown in FIG. 15A is used when changing the music corresponding to the keyword. When the set music change button 554 is clicked, the entire music list is displayed. The music corresponding to the keyword can be changed by selecting the music from the entire music list. The setting of neurons (or songs) that correspond to the keywords in advance by assigning impression data to the keyword, the impression data as input vectors x j, the nearest neuron to the input vector x j (or music) You may make it match | combine and you may comprise so that it can set arbitrarily by a user.

このように、キーワードに対応するニューロンが設定されている場合には、図15(b)に示すように、楽曲マップ表示領域51において楽曲がマッピンクされているニューロンをクリックすると、クリックされたニューロンに対応するキーワードがキーワード表示511としてポップアップ表示されるように構成すると、楽曲マップ表示領域51を利用した楽曲の検索を容易に行うことができる。   Thus, when the neuron corresponding to the keyword is set, as shown in FIG. 15B, when the neuron to which the music is mapped is clicked in the music map display area 51, the clicked neuron is displayed. If the corresponding keyword is configured to be pop-up displayed as the keyword display 511, it is possible to easily search for a song using the song map display area 51.

次に、楽曲検索装置における印象度データの修正動作について図16および図17を参照して詳細に説明する。   Next, the impression data correction operation in the music search device will be described in detail with reference to FIGS. 16 and 17.

検索結果表示領域53には、図12および図13に示すように、検索された楽曲毎に試聴ボタン533が設けられており、PC操作部19によって試聴ボタン533をクリックすると(ステップF1)、楽曲検索部18は、対応する楽曲の楽曲データおよび印象度データを楽曲データベース15から読み出し、読み出した楽曲データを音声出力部22に出力すると共に、図17に示す修正指示領域60をPC表示部20に表示し、修正データ入力領域61に読み出した印象度データを表示する(ステップF2)。修正データ入力領域61に表示される印象度データは、図17に示すように、項目毎の段階がポイントの位置で表現される。   As shown in FIGS. 12 and 13, the search result display area 53 is provided with a test listening button 533 for each searched music. When the test listening button 533 is clicked by the PC operation unit 19 (step F <b> 1), the music is displayed. The search unit 18 reads the music data and impression degree data of the corresponding music from the music database 15, outputs the read music data to the audio output unit 22, and displays the correction instruction area 60 shown in FIG. 17 on the PC display unit 20. The impression degree data read and displayed in the correction data input area 61 is displayed (step F2). In the impression degree data displayed in the correction data input area 61, as shown in FIG. 17, the stage for each item is expressed by the position of the point.

音声出力部22は、楽曲検索部18から入力された楽曲データを音声出力し(ステップF3)、ユーザは、印象度データや書誌データに基づいて検索された楽曲を試聴して代表曲を選択することができ、また、代表曲に基づいて検索された楽曲を試聴して端末装置30に出力する楽曲を確認することができる。また、試聴中にPC操作部19によって修正指示領域60の音声出力停止ボタン64をクリックすると、楽曲検索部18は、音声出力部22への楽曲データの出力を停止し、音声出力を停止させると共に、修正指示領域60の表示を消す。   The audio output unit 22 outputs the music data input from the music search unit 18 by voice (step F3), and the user auditiones the music searched based on the impression degree data and bibliographic data and selects a representative music. In addition, the music searched based on the representative music can be auditioned and the music output to the terminal device 30 can be confirmed. Further, when the audio output stop button 64 in the correction instruction area 60 is clicked by the PC operation unit 19 during the trial listening, the music search unit 18 stops outputting the music data to the audio output unit 22 and stops the audio output. The display of the correction instruction area 60 is erased.

ユーザが音声出力部22からの音声出力に違和感をおぼえた場合、すなわち修正データ入力領域61に表示されている印象度データが異なると感じた場合や、検索結果として不適であると感じた場合には、以下に示す2つの方法のいずれかによって印象度データを修正することができる。   When the user feels uncomfortable with the sound output from the sound output unit 22, that is, when the impression degree data displayed in the correction data input area 61 is different, or when the user feels that the search result is inappropriate The impression degree data can be corrected by one of the following two methods.

印象度データを修正する第1の方法は、PC操作部19によって修正データ入力領域61に表示されている印象度データの修正入力、すなわち項目毎のポイントの位置の移動を行った後(ステップF4)、修正実行ボタン62をクリックする(ステップF5)。   The first method of correcting the impression degree data is that after the correction input of the impression degree data displayed in the correction data input area 61 by the PC operation unit 19, that is, the position of the point for each item is moved (step F4). ) The correction execution button 62 is clicked (step F5).

修正実行ボタン62のクリックによって、修正された印象度データ(以下、修正された印象度データを修正データと称す)が楽曲検索部18に入力され、楽曲検索部18は、楽曲データベース15に記憶されている印象度データを入力された修正データに更新すると共に、楽曲データベース15から特徴データを読み出して、修正データと特徴データとを再学習データとして修正データ記憶部23に記憶させる(ステップF6)。   When the correction execution button 62 is clicked, the corrected impression degree data (hereinafter, the corrected impression degree data is referred to as correction data) is input to the music search unit 18, and the music search unit 18 is stored in the music database 15. The impression data is updated to the input correction data, the feature data is read from the music database 15, and the correction data and the feature data are stored in the correction data storage unit 23 as relearning data (step F6).

印象度データを修正する第2の方法は、PC操作部19によって自動修正ボタン63をクリックする。自動修正ボタン63がクリックされると(ステップF7)、修正指示が楽曲検索部18に入力され、楽曲検索部18は、修正が指示された楽曲の印象度データを検索条件から遠ざかる方向に自動修正し(ステップF8)、楽曲データベース15に記憶されている印象度データを自動修正した修正データに更新すると共に、楽曲データベース15から特徴データを読み出して、修正データと特徴データとを再学習データとして修正データ記憶部23に記憶させる(ステップF6)。   In the second method of correcting the impression degree data, the automatic correction button 63 is clicked by the PC operation unit 19. When the automatic correction button 63 is clicked (step F7), a correction instruction is input to the music search unit 18, and the music search unit 18 automatically corrects the impression degree data of the music instructed to be corrected away from the search condition. (Step F8), the impression degree data stored in the music database 15 is updated to the corrected data automatically corrected, the feature data is read from the music database 15, and the corrected data and the feature data are corrected as the relearning data. The data is stored in the data storage unit 23 (step F6).

楽曲検索部18による自動修正は、検索が印象度データ入力領域521に入力された印象度データや代表曲の印象度データに基づいて行われた場合に実行され、検索条件である印象度データの内の最も特徴的な項目を特定し、当該項目の段階を所定数遠ざかる方向に移動させる。例えば、検索条件である印象度データが図11の印象度データ入力領域521に示すものである場合には、(明るい、暗い)の段階を示す項目で最も明るい評価となっているため、(明るい、暗い)の段階を示す項目が最も特徴的な項目として特定され、(明るい、暗い)の段階を暗い方向に移動させる。なお、検索が書誌データに基づくものである場合には、第2の方法を選択することができず、この場合には、自動修正ボタン63をクリックできないように制御するか、修正指示領域60から自動修正ボタン63を消去するようにすると良い。   The automatic correction by the music search unit 18 is executed when the search is performed based on the impression degree data input to the impression degree data input area 521 or the impression degree data of the representative song, and the impression degree data as a search condition is changed. The most characteristic item is identified, and the stage of the item is moved in a direction away from the predetermined number. For example, if the impression degree data as the search condition is the one shown in the impression degree data input area 521 in FIG. 11, the item indicating the stage of (bright, dark) is the brightest evaluation, and therefore (bright The item indicating the stage of (dark) is identified as the most characteristic item, and the stage of (bright, dark) is moved in the dark direction. If the search is based on bibliographic data, the second method cannot be selected. In this case, control is performed so that the automatic correction button 63 cannot be clicked, or from the correction instruction area 60. The automatic correction button 63 may be deleted.

楽曲マッピング部16は、楽曲マップ記憶部17に新たな修正データが記憶されると、修正データで楽曲を再マッピングし(ステップF9)、修正データに基づいて再マッピングした楽曲マップを楽曲マップ記憶部17に記憶させる。   When new correction data is stored in the music map storage unit 17, the music mapping unit 16 remaps the music with the correction data (step F9), and the music map that has been remapped based on the correction data is stored in the music map storage unit. 17 to memorize.

次に、端末装置30における印象度データの修正動作について詳細に説明する。
ユーザが端末装置30で楽曲を聴取中に違和感をおぼえた場合、すなわち検索結果として不適であると感じた場合には、再生中の楽曲に対応する印象度データの修正を指示する修正指示入力を端末操作部33によって行う。修正指示入力は、例えば、端末操作部33に修正指示入力を行う専用のボタンを設け、当該ボタンを楽曲の再生中に押下することによって行われる。専用のボタンの代わりに、楽曲の再生中において、いずれかのボタンに修正指示入力の機能を割り当てるようにしても良い。
Next, the impression data correction operation in the terminal device 30 will be described in detail.
When the user feels uncomfortable while listening to the music on the terminal device 30, that is, when the user feels that the search result is inappropriate, a correction instruction input for instructing correction of the impression degree data corresponding to the music being played back is input. This is performed by the terminal operation unit 33. The correction instruction input is performed, for example, by providing a dedicated button for inputting the correction instruction to the terminal operation unit 33 and pressing the button during the reproduction of the music. Instead of the dedicated button, a correction instruction input function may be assigned to any button during the reproduction of the music.

端末操作部33によって入力された修正指示は、検索結果記憶部32に記憶され、端末装置30が楽曲検索装置10に接続されると、送受信部31によって楽曲検索装置10に送信される。端末操作部33からの修正指示は、楽曲検索装置10の送受信部21によって受信され、受信された修正指示は、楽曲検索部18に出力される。   The correction instruction input by the terminal operation unit 33 is stored in the search result storage unit 32, and is transmitted to the music search device 10 by the transmission / reception unit 31 when the terminal device 30 is connected to the music search device 10. The correction instruction from the terminal operation unit 33 is received by the transmission / reception unit 21 of the music search device 10, and the received correction instruction is output to the music search unit 18.

修正指示が入力された楽曲検索部18は、修正が指示された楽曲の印象度データを検索条件から遠ざかる方向に自動修正し、楽曲データベース15に記憶されている印象度データを自動修正した修正データに更新すると共に、楽曲データベース15から特徴データを読み出して、修正データと特徴データとを再学習データとして修正データ記憶部23に記憶させる。   The music search unit 18 to which the correction instruction is input automatically corrects the impression degree data of the music for which the correction is instructed in a direction away from the search condition, and automatically corrects the impression degree data stored in the music database 15. And the feature data is read from the music database 15, and the correction data and the feature data are stored in the correction data storage unit 23 as relearning data.

次に、印象度データ変換部14で用いられる階層型ニューラルネットワークの再学習動作について図18を参照して詳細に説明する。
ニューラルネットワーク学習部24は、修正データ記憶部23に新たに記憶された再学習データの数をカウントしており(ステップG1)、修正データ記憶部23に新たに記憶された再学習データの数が所定数に到達したか否かを判断し(ステップG2)、修正データ記憶部23に新たに記憶された再学習データの数が所定数に到達すると、印象度データ変換部14から各ニューロンの結合重み値wを読み出し(ステップG3)、読み出した各ニューロンの結合重み値wを初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値wを再学習させる(ステップG4)。なお、階層型ニューラルネットワークの再学習を開始する再学習データの数、すなわち所定数は、予め定めておいても良く、ユーザによって設定できるようにしても良い。また、前回階層型ニューラルネットワークの再学習を行った時からの経過時間を計測し、当該経過時間が所定時間に到達した時に階層型ニューラルネットワークの再学習を開始するようにしても良く、階層型ニューラルネットワークの再学習を開始する経過時間、すなわち所定時間は、予め定めておいても良く、ユーザによって設定できるようにしても良い。
Next, the relearning operation of the hierarchical neural network used in the impression degree data conversion unit 14 will be described in detail with reference to FIG.
The neural network learning unit 24 counts the number of re-learning data newly stored in the correction data storage unit 23 (step G1), and the number of re-learning data newly stored in the correction data storage unit 23 is It is determined whether or not the predetermined number has been reached (step G2), and when the number of re-learning data newly stored in the correction data storage unit 23 reaches the predetermined number, the impression data conversion unit 14 connects each neuron. The weight value w is read (step G3), the connection weight value w of each read neuron is set as an initial value, and the relearning data stored in the correction data storage unit 23 is used to re-learn the hierarchical neural network, that is, each neuron. The connection weight value w is relearned (step G4). Note that the number of relearning data for starting relearning of the hierarchical neural network, that is, a predetermined number, may be determined in advance or may be set by the user. In addition, the elapsed time from the last time the relearning of the hierarchical neural network is measured, and when the elapsed time reaches a predetermined time, the relearning of the hierarchical neural network may be started. The elapsed time for starting relearning of the neural network, that is, the predetermined time may be determined in advance or may be set by the user.

ニューラルネットワーク学習部24における階層型ニューラルネットワークの再学習は、ニューラルネットワーク学習装置40で行われる学習方法と同様の方法で行われ、ニューラルネットワーク学習部24は、印象度データ変換部14の各ニューロンの結合重み値wを再学習させた各ニューロンの結合重み値wに更新する(ステップG5)。なお、再学習に使用した再学習データは、修正データ記憶部23から消去するようにしても良いが、修正データ記憶部23に記憶させておき、次回の再学習時に使用するようにすると、階層型ニューラルネットワークの再学習時に使用する再学習データの数が増えるため、再学習の精度が良くなる。但し、再学習に使用した再学習データを修正データ記憶部23に記憶させておく場合には、同一の楽曲に対する新たな修正データが記憶された際に、以前の修正データを消去して同一の楽曲に対して2つの修正データが存在しないようにする必要がある。   Re-learning of the hierarchical neural network in the neural network learning unit 24 is performed by a method similar to the learning method performed by the neural network learning device 40, and the neural network learning unit 24 performs each neuron of the impression degree data conversion unit 14. The connection weight value w is updated to the connection weight value w of each neuron that has been relearned (step G5). Note that the relearning data used for relearning may be deleted from the correction data storage unit 23. However, if the relearning data is stored in the correction data storage unit 23 and used for the next relearning, Since the number of re-learning data used at the time of re-learning of the neural network increases, the accuracy of re-learning is improved. However, when re-learning data used for re-learning is stored in the correction data storage unit 23, when new correction data for the same music is stored, the previous correction data is deleted and the same It is necessary to prevent the two correction data from existing for the music.

ニューラルネットワーク学習部24による階層型ニューラルネットワークの再学習動作は、楽曲登録動作や楽曲検索動作等の他の処理を妨げないように、時分割して行うことができる。すなわち、ニューラルネットワーク学習部24による階層型ニューラルネットワークの再学習中に他の処理が開始されると、再学習動作を中断し、他の処理が終了後に再学習動作を再開するように構成されている。また、ニューラルネットワーク学習部24による階層型ニューラルネットワークの再学習動作を楽曲検索装置10の立ち上げ時のアイドリング中や切断時に終了処理中に分割して行うようにしても良い。   The re-learning operation of the hierarchical neural network by the neural network learning unit 24 can be performed in a time-sharing manner so as not to disturb other processing such as music registration operation and music search operation. In other words, when another process is started during the relearning of the hierarchical neural network by the neural network learning unit 24, the relearning operation is interrupted and the relearning operation is resumed after the other process is completed. Yes. In addition, the re-learning operation of the hierarchical neural network by the neural network learning unit 24 may be performed during idling when starting up the music search apparatus 10 or during termination processing when disconnecting.

なお、階層型ニューラルネットワークの再学習は、ユーザの指示によって行うことができる。検索画面50の再学習指示領域70は、図19に示すように、修正情報表示領域71と、再学習実行ボタン72と、再登録実行ボタン73とからなり、修正情報表示領域71には、修正データ記憶部23に記憶されている修正データの数と、前回階層型ニューラルネットワークの再学習を行った時からの経過時間と、前回楽曲データの再登録を行った時からの経過時間とが表示される。なお、修正情報表示領域71に表示されている修正データの数は、新たに記憶された修正データ(再学習に用いられていない修正データ)の数と、再学習に用いられたことがある修正データの数とが表示され、再学習に用いられたことがある修正データの数が括弧内に表示される。   Note that the relearning of the hierarchical neural network can be performed according to a user instruction. As shown in FIG. 19, the re-learning instruction area 70 of the search screen 50 includes a correction information display area 71, a re-learning execution button 72, and a re-registration execution button 73. The number of correction data stored in the data storage unit 23, the elapsed time since the last re-learning of the hierarchical neural network, and the elapsed time since the last re-registration of the music data are displayed. Is done. The number of correction data displayed in the correction information display area 71 includes the number of correction data newly stored (correction data not used for relearning) and corrections that have been used for relearning. The number of data is displayed, and the number of corrected data that has been used for relearning is displayed in parentheses.

ユーザは、修正情報表示領域71に表示されている情報を確認し、階層型ニューラルネットワークの再学習を行う必要があると判断した場合には、PC操作部19によって再学習実行ボタン72をクリックする。再学習実行ボタン72がクリックされると、ニューラルネットワーク学習部24に再学習指示が出力され、ニューラルネットワーク学習部24は、印象度データ変換部14から各ニューロンの結合重み値wを読み出し、読み出した各ニューロンの結合重み値wを初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値wを再学習させ、印象度データ変換部14の各ニューロンの結合重み値wを再学習させた各ニューロンの結合重み値wに更新する。   When the user confirms the information displayed in the correction information display area 71 and determines that it is necessary to re-learn the hierarchical neural network, the user clicks the re-learn execution button 72 by the PC operation unit 19. . When the re-learning execution button 72 is clicked, a re-learning instruction is output to the neural network learning unit 24, and the neural network learning unit 24 reads the connection weight value w of each neuron from the impression degree data conversion unit 14 and reads it out. Using the connection weight value w of each neuron as an initial value, the relearning data stored in the correction data storage unit 23 is used for relearning of the hierarchical neural network, that is, the connection weight value w of each neuron is relearned, and impression degree data The connection weight value w of each neuron in the conversion unit 14 is updated to the connection weight value w of each neuron that has been relearned.

次に、楽曲検索装置10における楽曲データの再登録動作について図20を参照して詳細に説明する。
修正情報表示領域71において、PC操作部19によって再登録実行ボタン73をクリックすることによって、楽曲データベース15に記憶されている全ての楽曲データの再登録動作が開始される。
Next, the music data re-registration operation in the music search device 10 will be described in detail with reference to FIG.
When the re-registration execution button 73 is clicked by the PC operation unit 19 in the correction information display area 71, the re-registration operation of all the music data stored in the music database 15 is started.

PC操作部19によって再登録実行ボタン73をクリックされると(ステップH1)、ニューラルネットワーク学習部24に再登録指示が出力され、ニューラルネットワーク学習部24は、印象度データ変換部14から各ニューロンの結合重み値wを読み出し(ステップH2)、読み出した各ニューロンの結合重み値wを初期値とし、修正データ記憶部23に記憶されている再学習データによって階層型ニューラルネットワークの再学習、すなわち各ニューロンの結合重み値wを再学習させ(ステップH3)、印象度データ変換部14の各ニューロンの結合重み値wを再学習させた各ニューロンの結合重み値wに更新する(ステップH4)。   When the re-registration execution button 73 is clicked by the PC operation unit 19 (step H1), a re-registration instruction is output to the neural network learning unit 24, and the neural network learning unit 24 outputs each neuron from the impression degree data conversion unit 14. The connection weight value w is read (step H2), the read connection weight value w of each neuron is set as an initial value, and the relearning data stored in the correction data storage unit 23 is used to relearn the hierarchical neural network, that is, each neuron. Are re-learned (step H3), and the connection weight value w of each neuron of the impression degree data converter 14 is updated to the re-learned connection weight value w of each neuron (step H4).

次に、ニューラルネットワーク学習部24は、楽曲マッピング部16に対して楽曲マップにマッピングされている全ての楽曲の消去を指示し、楽曲マッピング部16は、楽曲マップ記憶部17に記憶されている楽曲マップにマッピングされている全ての楽曲を消去する(ステップH5)。   Next, the neural network learning unit 24 instructs the music mapping unit 16 to delete all the music mapped in the music map, and the music mapping unit 16 stores the music stored in the music map storage unit 17. All the music pieces mapped on the map are deleted (step H5).

次に、ニューラルネットワーク学習部24は、印象度データ変換部14に対して楽曲データベース15に記憶されている印象度データの更新を指示し、印象度データ変換部14は、楽曲データベース15に記憶されている楽曲データの特徴データを読み出し(ステップH6)、読み出した特徴データを再学習された階層型ニューラルネットワークを用いて印象度データに変換し(ステップH7)、楽曲データベース15に記憶されている楽曲データの印象度データを更新すると共に(ステップH8)、変換した印象度データを楽曲マッピング部16に出力する。楽曲マッピング部16は、印象度データ変換部14から入力される更新された印象度データに基づいて楽曲を再マッピングする(ステップH9)。   Next, the neural network learning unit 24 instructs the impression degree data conversion unit 14 to update the impression degree data stored in the music database 15, and the impression degree data conversion unit 14 is stored in the music database 15. The feature data of the music data being read is read (step H6), and the read feature data is converted into impression degree data using the relearned hierarchical neural network (step H7), and the music stored in the music database 15 is stored. The impression level data of the data is updated (step H8), and the converted impression level data is output to the music mapping unit 16. The music mapping unit 16 re-maps the music based on the updated impression degree data input from the impression degree data conversion unit 14 (step H9).

ニューラルネットワーク学習部24は、印象度データが更新されていない楽曲データが存在するか否かを判断し(ステップH10)、印象度データが更新されていない楽曲データが存在する場合には、ステップH6〜ステップH9の処理を繰り返し、印象度データが更新されていない楽曲データが存在しない場合、すなわち楽曲データベース15に記憶されている全ての楽曲データの印象度データを更新した場合には、楽曲データの再登録動作を終了する。   The neural network learning unit 24 determines whether or not there is music data whose impression degree data is not updated (step H10), and when there is music data whose impression degree data is not updated, step H6 is performed. When the process of Step H9 is repeated and there is no music data whose impression degree data is not updated, that is, when the impression degree data of all the music data stored in the music database 15 is updated, End the re-registration operation.

以上説明したように、本実施の形態によれば、印象度データ変換部14によって、楽曲の有する物理的な複数の項目からなる特徴データと人間の感性によって判断される項目からなる印象度データとを直接関連づけた階層型ニューラルネットワークを用いて、楽曲データから抽出した特徴データを印象度データに変換し、変換した印象度データを楽曲データベース15に記憶させるように構成すると共に、楽曲検索部18によって楽曲データベース15に記憶されている印象度データをユーザによって入力された印象度データに基づいて検索するように構成することにより、ユーザによって検索条件として入力される人間の感性によって判断される印象度データの項目が集約されることなく、人間の感性によって判断される印象度データに基づいて精度の高い楽曲データの検索を行うことができ、大容量の記憶手段に記憶されている大量の楽曲データの中から聴取した際の印象が同じような楽曲のみを検索することができ、さらに、端末装置30から受信した修正指示に基づいて楽曲データの印象度データを自動修正するように構成することにより、操作ボタンが限られている端末装置30において、修正指示を入力するだけで再生中の楽曲データに対応する印象度データの修正を行うことができ、使用期間が長くなるほどユーザの意図に反して検索される楽曲データの数を減少させることができ、検索精度を向上させることができるという効果を奏する。   As described above, according to the present embodiment, the impression degree data conversion unit 14 performs the characteristic data including a plurality of physical items included in the music and the impression degree data including items determined by human sensitivity. The feature data extracted from the music data is converted into impression data using a hierarchical neural network that directly associates the music data with each other, and the converted impression data is stored in the music database 15. Impression degree data determined by human sensitivity inputted as a search condition by the user by configuring the impression degree data stored in the music database 15 to be searched based on the impression degree data inputted by the user. Based on impression degree data that is judged by human sensitivity without being aggregated The music data can be searched with high accuracy, and only the music with the same impression when listening from a large amount of music data stored in the large-capacity storage means can be searched. Since the impression degree data of the music data is automatically corrected based on the correction instruction received from the terminal device 30, the terminal device 30 with limited operation buttons is being reproduced simply by inputting the correction instruction. Impression degree data corresponding to the music data of the user can be corrected, and the number of music data searched against the user's intention can be reduced and the search accuracy can be improved as the usage period becomes longer. There is an effect.

さらに、本実施の形態によれば、特徴データ抽出部13においてゆらぎ情報からなる複数の項目を特徴データとして抽出するように構成することにより、楽曲データの物理的な特徴を正確に抽出することができ、特徴データから変換される印象度データの精度を向上させることができるという効果を奏する。   Furthermore, according to the present embodiment, the feature data extraction unit 13 is configured to extract a plurality of items of fluctuation information as feature data, thereby accurately extracting the physical features of the music data. It is possible to improve the accuracy of the impression degree data converted from the feature data.

さらに、本実施の形態によれば、印象度データ変換部14によって特徴データから変換される印象度データと、PC操作部19から入力される印象度データとを同一の複数項目とすることにより、多様な項目を設定することができ、ユーザが印象度データに基づく検索を容易に行うことができるという効果を奏する。   Furthermore, according to the present embodiment, the impression degree data converted from the feature data by the impression degree data conversion unit 14 and the impression degree data input from the PC operation unit 19 are made into the same plurality of items, Various items can be set, and the user can easily perform a search based on the impression degree data.

さらに、本実施の形態によれば、楽曲検索部18において、PC操作部19から入力された印象度データを入力ベクトルとすると共に、楽曲データベース15に記憶されている印象度データを検索対象ベクトルとし、両者のユークリッド距離が小さい順に検索するように構成することにより、印象度データの項目を多くしても正確に検索を行うことができ、検索精度を向上させることができるという効果を奏する。   Furthermore, according to the present embodiment, the music search unit 18 uses the impression degree data input from the PC operation unit 19 as an input vector and the impression degree data stored in the music database 15 as a search target vector. By configuring to search in order of increasing Euclidean distance between the two, it is possible to perform an accurate search even if the number of impression degree data items is increased, and it is possible to improve the search accuracy.

さらに、本実施の形態によれば、予め学習が施された自己組織化マップであり、楽曲データが、当該楽曲データが有する印象度データに基づいてマッピングされている楽曲マップを楽曲マップ記憶部17に記憶しておき、楽曲検索部18によって楽曲マップ記憶部17に記憶されている楽曲マップを用いて検索するように構成することにより、代表曲を選択するだけで、大容量の記憶手段に記憶されている大量の楽曲データの中から代表曲と印象が同じような楽曲を素早く検索することができ、さらに、端末装置30から受信した修正指示に基づいて楽曲データの印象度データを自動修正するように構成することにより、操作ボタンが限られている端末装置30において、修正指示を入力するだけで再生中の楽曲データに対応する印象度データの修正を行うことができ、使用期間が長くなるほどユーザの意図に反して検索される楽曲データの数を減少させることができ、検索精度を向上させることができるという効果を奏する。   Further, according to the present embodiment, the music map storage unit 17 is a music map that is a self-organizing map that has been learned in advance, and in which the music data is mapped based on the impression degree data of the music data. The music search unit 18 is configured to search using the music map stored in the music map storage unit 17, so that the representative song is selected and stored in a large-capacity storage unit. It is possible to quickly search for a song having the same impression as the representative song from a large amount of song data that has been recorded, and to automatically correct the impression data of the song data based on the correction instruction received from the terminal device 30. With such a configuration, in the terminal device 30 with limited operation buttons, the impression degree data corresponding to the music data being played can be simply input by inputting a correction instruction. Modifications can be performed, it is possible to reduce the number of music data use period is searched against a user's intention as longer, an effect that it is possible to improve search accuracy.

さらに、本実施の形態によれば、楽曲マップとして予め学習が施された自己組織化マップを用いることにより、類似する印象を有する楽曲が近隣に配置されるため、検索効率が向上するという効果を奏する。   Furthermore, according to the present embodiment, by using a self-organizing map that has been learned in advance as a music map, music having a similar impression is arranged in the vicinity, so that the search efficiency is improved. Play.

なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。   Note that the present invention is not limited to the above-described embodiments, and it is obvious that the embodiments can be appropriately changed within the scope of the technical idea of the present invention. In addition, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a suitable number, position, shape, and the like in practicing the present invention. In each figure, the same numerals are given to the same component.

本発明に係る楽曲検索システムの実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of embodiment of the music search system which concerns on this invention. 図1に示す楽曲検索装置に用いられるニューラルネットワークを事前に学習させるニューラルネットワーク学習装置の構成を示すブロック図である。It is a block diagram which shows the structure of the neural network learning apparatus which learns in advance the neural network used for the music search apparatus shown in FIG. 図1に示す楽曲検索装置における楽曲登録動作を説明するためのフローチャートである。It is a flowchart for demonstrating the music registration operation | movement in the music search apparatus shown in FIG. 図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートである。It is a flowchart for demonstrating the feature data extraction operation | movement in the feature data extraction part shown in FIG. 図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習動作を説明するためのフローチャートである。3 is a flowchart for explaining a learning operation of a hierarchical neural network in the neural network learning apparatus shown in FIG. 図2に示すニューラルネットワーク学習装置における楽曲マップの学習動作を説明するためのフローチャートである。3 is a flowchart for explaining a music map learning operation in the neural network learning apparatus shown in FIG. 2. 図1に示す楽曲検索装置における楽曲検索動作を説明するためのフローチャートである。It is a flowchart for demonstrating the music search operation | movement in the music search apparatus shown in FIG. 図2に示すニューラルネットワーク学習装置における階層型ニューラルネットワークの学習アルゴリズムを説明するための説明図である。It is explanatory drawing for demonstrating the learning algorithm of the hierarchical neural network in the neural network learning apparatus shown in FIG. 図2に示すニューラルネットワーク学習装置における楽曲マップの学習アルゴリズムを説明するための説明図である。It is explanatory drawing for demonstrating the learning algorithm of the music map in the neural network learning apparatus shown in FIG. 図1に示すPC表示部の表示画面例を示す図である。It is a figure which shows the example of a display screen of the PC display part shown in FIG. 図10に示す検索条件入力領域の表示例を示す図である。It is a figure which shows the example of a display of the search condition input area shown in FIG. 図10に示す検索結果表示領域の表示例を示す図である。It is a figure which shows the example of a display of the search result display area shown in FIG. 図10に示す検索結果表示領域の表示例を示す図である。It is a figure which shows the example of a display of the search result display area shown in FIG. 図10に示す表示画面例に表示される全楽曲リスト表示領域例を示す図である。It is a figure which shows the example of all the music list display areas displayed on the example of a display screen shown in FIG. 図10に示す表示画面例に表示されるキーワード検索領域例を示す図である。It is a figure which shows the example of a keyword search area | region displayed on the example of a display screen shown in FIG. 本発明に係る楽曲検索システムの実施の形態の階層型ニューラルネットワークの再学習動作を説明するためのフローチャートである。It is a flowchart for demonstrating the relearning operation | movement of the hierarchical neural network of embodiment of the music search system which concerns on this invention. 図10に示す表示画面例に表示される修正画面例を示す図である。It is a figure which shows the example of a correction screen displayed on the example of a display screen shown in FIG. 図1に示す印象度データ変換部で用いられる階層型ニューラルネットワークの再学習動作を説明するためのフローチャートである。It is a flowchart for demonstrating the relearning operation | movement of the hierarchical neural network used by the impression degree data conversion part shown in FIG. 図10に示す表示画面例に表示される再学習指示領域の表示例を示す図である。It is a figure which shows the example of a display of the relearning instruction | indication area | region displayed on the example of a display screen shown in FIG. 図1に示す楽曲検索装置における楽曲データの再登録動作を説明するためのフローチャートである。It is a flowchart for demonstrating the re-registration operation | movement of the music data in the music search apparatus shown in FIG.

符号の説明Explanation of symbols

10 楽曲検索装置
11 楽曲データ入力部
12 圧縮処理部
13 特徴データ抽出部
14 印象度データ変換部
15 楽曲データベース
16 楽曲マッピング部
17 楽曲マップ記憶部
18 楽曲検索部
19 PC操作部
20 PC表示部
21 送受信部
22 音声出力部
23 修正データ記憶部
24 ニューラルネットワーク学習部
30 端末装置
31 送受信部
32 検索結果記憶部
33 端末操作部
34 端末表示部
35 音声出力部
40 ニューラルネットワーク学習装置
41 楽曲データ入力部
42 音声出力部
43 特徴データ抽出部
44 印象度データ入力部
45 結合重み値学習部
46 楽曲マップ学習部
47 結合重み値出力部
48 特徴ベクトル出力部
50 検索画面
51 楽曲マップ表示領域
52 検索条件入力領域
53 検索結果表示領域
54 全楽曲リスト表示領域
55 キーワード検索領域
60 修正指示領域
61 修正データ入力領域
62 修正実行ボタン
63 自動修正ボタン
64 音声出力停止ボタン
70 再学習指示領域
71 修正情報表示領域
72 再学習実行ボタン
73 再登録実行ボタン
511 キーワード表示
521 印象度データ入力領域
522 書誌データ入力領域
523 検索実行ボタン
531 代表曲検索実行ボタン
532 出力ボタン
533 試聴ボタン
541 代表曲選択実行ボタン
551 キーワード選択領域
552 設定楽曲表示領域
553 おまかせ検索ボタン
554 設定楽曲変更ボタン
DESCRIPTION OF SYMBOLS 10 Music search apparatus 11 Music data input part 12 Compression processing part 13 Feature data extraction part 14 Impression degree data conversion part 15 Music database 16 Music mapping part 17 Music map memory | storage part 18 Music search part 19 PC operation part 20 PC display part 21 Transmission / reception Unit 22 voice output unit 23 correction data storage unit 24 neural network learning unit 30 terminal device 31 transmission / reception unit 32 search result storage unit 33 terminal operation unit 34 terminal display unit 35 voice output unit 40 neural network learning device 41 music data input unit 42 voice Output unit 43 Feature data extraction unit 44 Impression degree data input unit 45 Joint weight value learning unit 46 Music map learning unit 47 Joint weight value output unit 48 Feature vector output unit 50 Search screen 51 Music map display region 52 Search condition input region 53 Search Result display area 54 All music list display area 55 Keyword search area 60 Correction instruction area 61 Correction data input area 62 Correction execution button 63 Automatic correction button 64 Audio output stop button 70 Relearning instruction area 71 Correction information display area 72 Relearning execution button 73 Re-registration Execute button 511 Keyword display 521 Impression degree data input area 522 Bibliographic data input area 523 Search execution button 531 Representative song search execution button 532 Output button 533 Audition button 541 Representative song selection execution button 551 Keyword selection area 552 Setting music display area 553 Automatic search Button 554 Setting music change button

Claims (24)

楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索し、検索した楽曲データを端末装置に出力する楽曲検索システムであって、
楽曲データを入力する楽曲データ入力手段と、
該楽曲データ入力手段によって入力された楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、
該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換する印象度データ変換手段と、
該印象度データ変換手段によって変換された前記印象度データを前記楽曲データ入力手段によって入力された楽曲データと共に前記楽曲データベースに記憶させる記憶制御手段と、
前記印象度データを検索条件として入力する印象度データ入力手段と、
該印象度データ入力手段から入力された前記印象度データに基づいて前記楽曲データベースを検索する楽曲検索手段と、
該楽曲検索手段によって検索された楽曲データを前記端末装置に出力する楽曲データ出力手段と、
前記端末装置からの前記印象度データの修正指示を受信する修正指示受信手段と、
該修正指示受信手段によって受信された前記修正指示に基づいて前記印象度データを前記検索条件から遠ざかる方向に自動修正した修正データを作成し、当該修正データによって前記楽曲データベースに記憶されている前記印象度データを更新する印象度データ更新手段と、を具備することを特徴とする楽曲検索システム。
A music search system that searches for desired music data from a plurality of music data stored in a music database and outputs the searched music data to a terminal device,
Music data input means for inputting music data;
Feature data extraction means for extracting physical feature data from the music data input by the music data input means;
Impression degree data converting means for converting the feature data extracted by the feature data extracting means into impression degree data determined by human sensitivity;
Storage control means for storing the impression degree data converted by the impression degree data conversion means in the music database together with the music data input by the music data input means;
Impression degree data input means for inputting the impression degree data as a search condition;
Music search means for searching the music database based on the impression data input from the impression data input means;
Music data output means for outputting the music data searched by the music search means to the terminal device;
Correction instruction receiving means for receiving a correction instruction for the impression degree data from the terminal device;
Based on the correction instruction received by the correction instruction receiving means, correction data is created by automatically correcting the impression degree data in a direction away from the search condition, and the impression stored in the music database by the correction data. And an impression degree data updating means for updating degree data.
前記印象度データ変換手段は、予め学習が施された階層型ニューラルネットワークを用いて前記特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される前記印象度データに変換することを特徴とする請求項1記載の楽曲検索システム。   The impression degree data converting means converts the feature data extracted by the feature data extracting means into the impression degree data determined by human sensitivity using a hierarchical neural network that has been learned in advance. The music search system according to claim 1, wherein: 前記特徴データ抽出手段は、前記特徴データとしてゆらぎ情報からなる複数の項目を抽出することを特徴とする請求項1又は2記載の楽曲検索システム。   The music search system according to claim 1, wherein the feature data extraction unit extracts a plurality of items including fluctuation information as the feature data. 前記楽曲検索手段は、前記印象度データ入力手段から入力された前記印象度データを入力ベクトルとすると共に、前記楽曲データベースに記憶されている前記印象度データを検索対象ベクトルとし、両者のユークリッド距離が小さい順に検索することを特徴とする請求項1乃至3のいずれかに記載の楽曲検索システム。   The music search means uses the impression degree data input from the impression degree data input means as an input vector, uses the impression degree data stored in the music database as a search target vector, and the Euclidean distance between them is The music search system according to any one of claims 1 to 3, wherein search is performed in ascending order. 楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索し、検索した楽曲データを端末装置に出力する楽曲検索システムであって、
楽曲データを入力する楽曲データ入力手段と、
該楽曲データ入力手段によって入力された楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、
該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換する印象度データ変換手段と、
該印象度データ変換手段によって変換された前記印象度データに基づいて、前記楽曲データ入力手段によって入力された楽曲データを予め学習が施された自己組織化マップである楽曲マップにマッピングする楽曲マッピング手段と、
該楽曲マッピング手段によってマッピングされた楽曲データが記憶される楽曲マップ記憶手段と、
前記楽曲マップにマッピングされている楽曲データの中から代表曲を選択する代表曲選択手段と、
該代表曲選択手段によって選択された代表曲に基づいて楽曲マップを検索する楽曲検索手段と、
該楽曲検索手段によって検索された楽曲データを前記端末装置に出力する楽曲データ出力手段と、
前記端末装置からの前記印象度データの修正指示を受信する修正指示受信手段と、
該修正指示受信手段によって受信された前記修正指示に基づいて前記印象度データを前記代表曲から遠ざかる方向に自動修正した修正データを作成する印象度データ修正手段と、を具備し、
前記楽曲マッピング手段は、前記印象度データ修正手段によって作成された前記修正データに基づいて楽曲データを前記楽曲マップに再マッピングすることを特徴とする楽曲検索システム。
A music search system that searches for desired music data from a plurality of music data stored in a music database and outputs the searched music data to a terminal device,
Music data input means for inputting music data;
Feature data extraction means for extracting physical feature data from the music data input by the music data input means;
Impression degree data converting means for converting the feature data extracted by the feature data extracting means into impression degree data determined by human sensitivity;
A music mapping means for mapping music data input by the music data input means to a music map which is a self-organized map that has been previously learned based on the impression data converted by the impression data conversion means. When,
Music map storage means for storing music data mapped by the music mapping means;
Representative song selection means for selecting a representative song from the song data mapped to the song map;
Music search means for searching a music map based on the representative music selected by the representative music selection means;
Music data output means for outputting the music data searched by the music search means to the terminal device;
Correction instruction receiving means for receiving a correction instruction for the impression degree data from the terminal device;
Impression degree data correction means for creating correction data obtained by automatically correcting the impression degree data in a direction away from the representative song based on the correction instruction received by the correction instruction reception means,
The music search system, wherein the music mapping means re-maps music data to the music map based on the correction data created by the impression degree data correction means.
前記印象度データ変換手段は、予め学習が施された階層型ニューラルネットワークを用いて前記特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される前記印象度データに変換することを特徴とする請求項5記載の楽曲検索システム。   The impression degree data converting means converts the feature data extracted by the feature data extracting means into the impression degree data determined by human sensitivity using a hierarchical neural network that has been learned in advance. The music search system according to claim 5, wherein: 前記特徴データ抽出手段は、前記特徴データとしてゆらぎ情報からなる複数の項目を抽出することを特徴とする請求項5又は6記載の楽曲検索システム。   7. The music search system according to claim 5 or 6, wherein the feature data extraction means extracts a plurality of items including fluctuation information as the feature data. 前記楽曲マッピング手段は、前記印象度データ変換手段によって変換された前記印象度データを入力ベクトルとして、当該入力ベクトルに最も近いニューロンに前記楽曲データ入力手段によって入力された楽曲データをマッピングすることを特徴とする請求項5乃至7のいずれかに記載の楽曲検索システム。   The music mapping means uses the impression degree data converted by the impression degree data conversion means as an input vector, and maps the music data input by the music data input means to a neuron closest to the input vector. The music search system according to any one of claims 5 to 7. 前記楽曲検索手段は、代表曲がマッピングされているニューロンに含まれる楽曲データを検索することを特徴とする請求項5乃至8のいずれかに記載の楽曲検索システム。   9. The music search system according to claim 5, wherein the music search means searches for music data included in a neuron to which a representative music is mapped. 前記楽曲検索手段は、代表曲がマッピングされているニューロンと、その近傍ニューロンとに含まれる楽曲データを検索することを特徴とする請求項5乃至9のいずれかに記載の楽曲検索システム。   The music search system according to any one of claims 5 to 9, wherein the music search means searches for music data contained in a neuron to which a representative music is mapped and its neighboring neurons. 前記楽曲検索手段において近傍ニューロンを決定するための近傍半径は、任意に設定可能であることを特徴とする請求項10記載の楽曲検索システム。   The music search system according to claim 10, wherein a neighborhood radius for determining a nearby neuron in the music search means can be arbitrarily set. 楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索する楽曲検索装置に接続可能に構成されている端末装置であって、
前記楽曲検索装置からの楽曲データを入力する検索結果入力手段と、
該検索結果入力手段によって入力された楽曲データを記憶する検索結果記憶手段と、
該検索結果記憶手段に記憶された楽曲データを再生する音声出力手段と、
前記音声出力手段による楽曲データの再生時に、再生中の楽曲データに対応する印象度データの修正指示を入力する修正指示入力手段と、
前記楽曲検索装置に接続された時に、前記修正指示入力手段によって入力された前記修正指示を楽曲検索装置に送信する修正指示送信手段と、を具備することを特徴とする端末装置。
A terminal device configured to be connectable to a music search device that searches for desired music data from a plurality of music data stored in a music database,
Search result input means for inputting music data from the music search device;
Search result storage means for storing music data input by the search result input means;
Audio output means for reproducing the music data stored in the search result storage means;
A correction instruction input means for inputting a correction instruction for impression degree data corresponding to the music data being reproduced at the time of reproduction of the music data by the audio output means;
A terminal device, comprising: a correction instruction transmission unit that transmits the correction instruction input by the correction instruction input unit to the music search device when connected to the music search device.
楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索し、検索した楽曲データを端末装置に出力する楽曲検索方法であって、
楽曲データの入力を受け付け、
該入力された楽曲データから物理的な特徴データを抽出し、
該抽出した前記特徴データを人間の感性によって判断される印象度データに変換し、
該変換した印象度データを前記入力された楽曲データと共に前記楽曲データベースに記憶し、
検索条件として前記印象度データの入力を受け付け、
該入力された前記印象度データに基づいて前記楽曲データベースを検索し、
該検索した楽曲データを前記端末装置に出力し、
前記端末装置からの前記印象度データの修正指示を受信し、
該受信した前記修正指示に基づいて前記印象度データを前記検索条件から遠ざかる方向に自動修正した修正データを作成し、
該作成した前記修正データによって前記楽曲データベースに記憶されている前記印象度データを更新することを特徴とする楽曲検索方法。
A music search method for searching for desired music data from a plurality of music data stored in a music database and outputting the searched music data to a terminal device,
Accept music data input,
Extract physical feature data from the input music data,
Converting the extracted feature data into impression degree data determined by human sensitivity,
Storing the converted impression data together with the input music data in the music database;
Accept the input of impression degree data as a search condition,
Search the music database based on the input impression data,
Outputting the searched music data to the terminal device;
Receiving a correction instruction of the impression degree data from the terminal device;
Based on the received correction instruction, create correction data that automatically corrects the impression degree data in a direction away from the search condition,
A music search method, wherein the impression degree data stored in the music database is updated by the created correction data.
予め学習が施された階層型ニューラルネットワークを用いて前記抽出した前記特徴データを人間の感性によって判断される前記印象度データに変換することを特徴とする請求項13記載の楽曲検索方法。   14. The music search method according to claim 13, wherein the extracted feature data is converted into the impression degree data determined by human sensitivity using a hierarchical neural network that has been learned in advance. 前記特徴データとしてゆらぎ情報からなる複数の項目を抽出することを特徴とする請求項13又は14記載の楽曲検索方法。   The music search method according to claim 13 or 14, wherein a plurality of items including fluctuation information are extracted as the feature data. 前記受け付けた前記印象度データを入力ベクトルとすると共に、前記楽曲データベースに記憶している前記印象度データを検索対象ベクトルとし、両者のユークリッド距離が小さい順に検索することを特徴とする請求項13乃至15のいずれかに記載の楽曲検索方法。   14. The received impression degree data is used as an input vector, and the impression degree data stored in the music database is used as a search target vector, and a search is performed in ascending order of both Euclidean distances. The music search method according to any one of 15. 楽曲データベースに記憶された複数の楽曲データの中から所望の楽曲データを検索し、検索した楽曲データを端末装置に出力する楽曲検索方法であって、
楽曲データの入力を受け付け、
該入力された楽曲データから物理的な特徴データを抽出し、
該抽出した前記特徴データを人間の感性によって判断される印象度データに変換し、
該変換した前記印象度データに基づいて、前記入力された楽曲データを予め学習が施された自己組織化マップである楽曲マップにマッピングし、
前記楽曲マップにマッピングされている楽曲データの中から代表曲を選択し、
該選択した代表曲に基づいて前記楽曲マップにマッピングされている楽曲データを検索し、
該検索した楽曲データを前記端末装置に出力し、
前記端末装置からの前記印象度データの修正指示を受信し、
該受信した前記修正指示に基づいて前記印象度データを前記代表曲から遠ざかる方向に自動修正した修正データを作成し、
該作成した前記修正データに基づいて楽曲データを前記楽曲マップに再マッピングすることを特徴とする楽曲検索方法。
A music search method for searching for desired music data from a plurality of music data stored in a music database and outputting the searched music data to a terminal device,
Accept music data input,
Extract physical feature data from the input music data,
Converting the extracted feature data into impression degree data determined by human sensitivity,
Based on the converted impression degree data, the input music data is mapped to a music map that is a self-organizing map that has been previously learned,
Select a representative song from the song data mapped to the song map,
Search music data mapped to the music map based on the selected representative music,
Outputting the searched music data to the terminal device;
Receiving a correction instruction of the impression degree data from the terminal device;
Based on the received correction instruction, create correction data that automatically corrects the impression degree data in a direction away from the representative song,
A music search method comprising re-mapping music data on the music map based on the created correction data.
予め学習が施された階層型ニューラルネットワークを用いて前記抽出した前記特徴データを人間の感性によって判断される前記印象度データに変換することを特徴とする請求項17記載の楽曲検索方法。   18. The music search method according to claim 17, wherein the extracted feature data is converted into the impression degree data determined by human sensitivity using a hierarchical neural network that has been learned in advance. 前記特徴データとしてゆらぎ情報からなる複数の項目を抽出することを特徴とする請求項17又は18記載の楽曲検索方法。   The music search method according to claim 17 or 18, wherein a plurality of items including fluctuation information are extracted as the feature data. 前記変換した前記印象度データを入力ベクトルとして、当該入力ベクトルに最も近いニューロンに前記入力した楽曲データをマッピングすることを特徴とする請求項17乃至19のいずれかに記載の楽曲検索方法。   20. The music search method according to claim 17, wherein the converted music impression data is used as an input vector, and the input music data is mapped to a neuron closest to the input vector. 前記代表曲がマッピングされているニューロンに含まれる楽曲データを検索することを特徴とする請求項17乃至20のいずれかに記載の楽曲検索方法。   21. The music search method according to claim 17, wherein music data included in a neuron to which the representative music is mapped is searched. 前記代表曲がマッピングされているニューロンと、その近傍ニューロンとに含まれる楽曲データを検索することを特徴とする請求項17乃至21のいずれかに記載の楽曲検索方法。   The music search method according to any one of claims 17 to 21, wherein music data included in a neuron to which the representative music is mapped and its neighboring neurons are searched. 近傍ニューロンを決定するための近傍半径は、任意に設定可能であることを特徴とする請求項22記載の楽曲検索方法。   23. The music search method according to claim 22, wherein a neighborhood radius for determining a neighborhood neuron can be arbitrarily set. 請求項13乃至23のいずれかに記載の楽曲検索方法をコンピュータに実行させるための楽曲検索プログラム。
A music search program for causing a computer to execute the music search method according to any one of claims 13 to 23.
JP2004124958A 2004-04-21 2004-04-21 Musical piece retrieval system and musical piece retrieval method Pending JP2005309712A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004124958A JP2005309712A (en) 2004-04-21 2004-04-21 Musical piece retrieval system and musical piece retrieval method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004124958A JP2005309712A (en) 2004-04-21 2004-04-21 Musical piece retrieval system and musical piece retrieval method

Publications (1)

Publication Number Publication Date
JP2005309712A true JP2005309712A (en) 2005-11-04

Family

ID=35438443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004124958A Pending JP2005309712A (en) 2004-04-21 2004-04-21 Musical piece retrieval system and musical piece retrieval method

Country Status (1)

Country Link
JP (1) JP2005309712A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172138A (en) * 2005-12-20 2007-07-05 Sony Corp Content reproduction device, list correction unit, content reproduction method and list correction method
WO2007147359A1 (en) * 2006-06-15 2007-12-27 Tencent Technology (Shenzhen) Company Limited System and method for amending information of multimedia file
JP2008003894A (en) * 2006-06-23 2008-01-10 Victor Co Of Japan Ltd Device and program for retrieval and reproduction of musical piece
JP2011081824A (en) * 2010-11-24 2011-04-21 Victor Co Of Japan Ltd Music search and playback device, music search and playback method, and music search and playback program
WO2019049210A1 (en) * 2017-09-05 2019-03-14 楽天株式会社 Estimation system, estimation method, and program
JP2021099778A (en) * 2019-12-20 2021-07-01 ユーアイパス, インコーポレイテッドUiPath, Inc. Dynamic update for artificial intelligence/machine learning model, or retrain and update, in digital processes at runtime

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007172138A (en) * 2005-12-20 2007-07-05 Sony Corp Content reproduction device, list correction unit, content reproduction method and list correction method
US8200350B2 (en) 2005-12-20 2012-06-12 Sony Corporation Content reproducing apparatus, list correcting apparatus, content reproducing method, and list correcting method
WO2007147359A1 (en) * 2006-06-15 2007-12-27 Tencent Technology (Shenzhen) Company Limited System and method for amending information of multimedia file
JP2008003894A (en) * 2006-06-23 2008-01-10 Victor Co Of Japan Ltd Device and program for retrieval and reproduction of musical piece
JP4697601B2 (en) * 2006-06-23 2011-06-08 日本ビクター株式会社 Music search / playback apparatus, music search / playback method, and music search / playback program
JP2011081824A (en) * 2010-11-24 2011-04-21 Victor Co Of Japan Ltd Music search and playback device, music search and playback method, and music search and playback program
WO2019049210A1 (en) * 2017-09-05 2019-03-14 楽天株式会社 Estimation system, estimation method, and program
JP6510153B1 (en) * 2017-09-05 2019-05-08 楽天株式会社 Estimation system, estimation method and program
JP2021099778A (en) * 2019-12-20 2021-07-01 ユーアイパス, インコーポレイテッドUiPath, Inc. Dynamic update for artificial intelligence/machine learning model, or retrain and update, in digital processes at runtime
JP7088989B2 (en) 2019-12-20 2022-06-21 ユーアイパス,インコーポレイテッド Dynamic update, or retraining and updating of artificial intelligence / machine learning models in run-time digital processes
US11822913B2 (en) 2019-12-20 2023-11-21 UiPath, Inc. Dynamic artificial intelligence / machine learning model update, or retrain and update, in digital processes at runtime

Similar Documents

Publication Publication Date Title
JP4274221B2 (en) Information processing apparatus and method, program, and recording medium
JP4611819B2 (en) Music management apparatus and information display method
JP2005301921A (en) Musical composition retrieval system and musical composition retrieval method
EP1530195A2 (en) Song search system and song search method
JP2005309712A (en) Musical piece retrieval system and musical piece retrieval method
JP2007233515A (en) Information processor and information processing method, information providing apparatus and information providing method, and program
JP4607660B2 (en) Music search apparatus and music search method
JP4246101B2 (en) Music search system and music search method
JP4246120B2 (en) Music search system and music search method
JP4115923B2 (en) Music search system and music search method
CN111026904A (en) Content portrait based playlist scoring method
JP3901695B2 (en) Music search system and music search method
JP4339171B2 (en) Music search system and music search method
JP4246100B2 (en) Music search system and music search method
JP4165645B2 (en) Music search system and music search method
JP2006195619A (en) Information retrieval device, and information retrieval method
JP4279274B2 (en) Mobile terminal device and music information display method
JP2006317872A (en) Portable terminal device and musical piece expression method
JP4165650B2 (en) Music search system and music search method
JP4313343B2 (en) Portable terminal device and information display method
JP4313340B2 (en) Mobile terminal device and music selection method
JP4165649B2 (en) Music search system and music search method
JP4607659B2 (en) Music search apparatus and music search method
JP2006323438A (en) Musical piece retrieval system
JP2006301890A (en) Music management system and music management method