JP2006301890A - Music management system and music management method - Google Patents

Music management system and music management method Download PDF

Info

Publication number
JP2006301890A
JP2006301890A JP2005121789A JP2005121789A JP2006301890A JP 2006301890 A JP2006301890 A JP 2006301890A JP 2005121789 A JP2005121789 A JP 2005121789A JP 2005121789 A JP2005121789 A JP 2005121789A JP 2006301890 A JP2006301890 A JP 2006301890A
Authority
JP
Japan
Prior art keywords
music
data
search
registration device
preference
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005121789A
Other languages
Japanese (ja)
Inventor
Kenji Yanagihara
謙志 柳原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2005121789A priority Critical patent/JP2006301890A/en
Publication of JP2006301890A publication Critical patent/JP2006301890A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a music management system comprising a music registration device and a portable terminal connectable thereto and a music management method that select a group of pieces of music according to an impression and a user's preference associated with each piece of music. <P>SOLUTION: The portable terminal generates user preference data reflecting a user's preferences generated as pieces of music are reproduced, and when connected to the music registration device, transfers the generated user preference data to the music registration device. The music registration device extracts impression data based on human sensibility from each music data, and according to the impression data extracted from each music data and the user preference data sent from the portable terminal, selects pieces of music to be transferred to the portable terminal from the pieces of music recorded in the music registration device. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、楽曲データベースに記憶された楽曲データが転送される端末楽曲データベースを有する携帯端末とからなる楽曲管理システムおよび楽曲管理方法に関し、特に各楽曲ごとに対応付けられた印象度とユーザの嗜好度を基に楽曲のまとまりを選出する楽曲管理システムおよび楽曲管理方法に関する。   The present invention relates to a music registration apparatus that stores input music data in a music database, and a portable terminal that is configured to be connectable to the music registration apparatus and that has a terminal music database to which music data stored in the music database is transferred. In particular, the present invention relates to a music management system and a music management method for selecting a group of music based on an impression level associated with each music and a user's preference level.

近年、HDD等の大容量の記憶手段が開発され、大容量の記憶手段に大量の楽曲データを記憶させることができるようになっている。大容量の記憶手段に記憶されている大量の楽曲データの検索は、アーティスト名や曲名、その他のキーワード等の書誌データを用いて行うのが一般的であるが、書誌データで検索した場合には、楽曲が持っている情感を考慮することができず、印象の異なる楽曲が検索される可能性があり、聴取した際の印象が同じような楽曲を検索したい場合には、不向きである。   In recent years, a large-capacity storage means such as an HDD has been developed, and a large amount of music data can be stored in the large-capacity storage means. Searching for a large amount of music data stored in a large-capacity storage means is generally performed using bibliographic data such as artist names, music titles, and other keywords. This is not suitable when it is not possible to take into account the emotions of a music piece and there is a possibility that a music piece with a different impression will be searched, and it is desired to search for a music piece with a similar impression when listening.

そこで、楽曲に対する主観的な印象に基づいて利用者の希望する楽曲を検索可能にするために、検索を希望する楽曲に対するユーザの主観的な要件を入力して数値化して出力し、その出力から、検索対象の楽曲の印象を数量化した予測印象値を算出し、算出した予測印象値をキーとして、複数の楽曲の音響信号およびその楽曲の印象を数量化した印象値を記憶した楽曲データベースを検索することにより、利用者の楽曲に対する主観的なイメージに基づいて、希望する楽曲を検索する装置が提案されている(例えば、特許文献1参照)。   Therefore, in order to make it possible to search for the music desired by the user based on the subjective impression of the music, the user's subjective requirements for the music desired to be searched are input, quantified and output, and the output , A predicted impression value obtained by quantifying the impression of the music to be searched is calculated, and a music database storing an acoustic value of a plurality of music and an impression value obtained by quantifying the impression of the music is calculated using the calculated predicted impression value as a key. There has been proposed an apparatus for searching for desired music based on a subjective image of a user's music by searching (for example, see Patent Document 1).

しかしながら、従来技術では、楽曲の物理的な特徴を変換した印象値を、ユーザの主観的な要件の入力が数値化された予測印象値に基づいて検索を行っているため、ユーザによって検索条件として入力される主観的な要件の入力項目が集約されてしまい、主観的な要件に基づく精度の高い楽曲データの検索を実現することができないという問題点があった。   However, in the prior art, since the impression value obtained by converting the physical characteristics of the music is searched based on the predicted impression value obtained by quantifying the input of the user's subjective requirements, the search condition is set by the user as a search condition. The input items of the subjective requirements that are input are aggregated, and there is a problem that it is not possible to implement a search for music data with high accuracy based on the subjective requirements.

また一方、条件にあった楽曲を選択する際、ユーザの記憶を頼りに思い浮かべるやり方では、ユーザの負担が増えてしまうという問題点があった。
特開2002−278547号公報
On the other hand, there is a problem that the burden on the user increases in the way of thinking based on the user's memory when selecting music that meets the conditions.
JP 2002-278547 A

本発明は斯かる問題点を鑑みてなされたものであり、その目的とするところは、人間の感性によって判断される印象度データに基づき、さらにユーザの嗜好を反映した、精度が高くユーザの操作負担の少ない楽曲管理システムおよび楽曲管理方法を提供する点にある。   The present invention has been made in view of such problems, and the object of the present invention is based on impression degree data determined by human sensibility, and further reflects the user's preference and is highly accurate. The object is to provide a music management system and a music management method with less burden.

本発明は上記課題を解決すべく、以下に掲げる構成とした。
本発明の請求項1に係る発明の要旨は、入力された楽曲データを記憶する楽曲登録装置と、前記楽曲登録装置に接続可能に構成され、接続時、前記楽曲登録装置において選出された楽曲データを転送し記憶する携帯端末とからなる楽曲管理システムであって、前記携帯端末は、楽曲の再生動作に伴い生成される使用者の嗜好状態を反映するユーザ嗜好データを生成する嗜好データ生成手段と、前記楽曲登録装置との接続時、前記生成されたユーザ嗜好データを前記楽曲登録装置に転送する嗜好データ転送手段とを有し、前記楽曲登録装置は、前記入力された各楽曲データから人間の感性によって判断される印象度データを抽出する手段と、各楽曲データから抽出された前記印象度データおよび前記携帯端末から送信されたユーザ嗜好データとに基づき、前記楽曲登録装置に記録される楽曲から前記携帯端末へ転送する楽曲を選出する楽曲選出手段とを有してなることを特徴とする楽曲管理システムにある。
In order to solve the above problems, the present invention has the following configurations.
The gist of the invention according to claim 1 of the present invention is that a music registration device that stores input music data and a music registration device that is connectable to the music registration device and that is selected by the music registration device at the time of connection. A music management system including a portable terminal that transfers and stores the preference data, and the portable terminal generates preference data generation means for generating user preference data that reflects a user's preference status that is generated along with a music playback operation; , And a preference data transfer means for transferring the generated user preference data to the music registration device when connected to the music registration device, and the music registration device receives a human Means for extracting impression degree data determined by sensitivity, the impression degree data extracted from each piece of music data, and user preference data transmitted from the portable terminal; Based, in music management system characterized by comprising and a music selecting means for selecting a music to be transferred to the mobile terminal from the music recorded in the music registration device.

また、本発明の請求項2に係る発明の要旨は、前記ユーザ嗜好データ生成手段は、前記携帯端末における楽曲の再生動作回数をカウントする手段を含んでなることを特徴とする、請求項1に記載の楽曲管理システムにある。   The gist of the invention according to claim 2 of the present invention is that the user preference data generation means includes means for counting the number of music reproduction operations in the portable terminal. It is in the music management system described.

また、本発明の請求項3に係る発明の要旨は、前記ユーザ嗜好データ生成手段は、前記携帯端末における楽曲の再生動作回数をカウントするとともに、各再生がなされた日付あるいは日時に基づく時間的要素を記憶する手段を含んでなることを特徴とする、請求項1に記載の楽曲管理システムにある。   In addition, the gist of the invention according to claim 3 of the present invention is that the user preference data generation means counts the number of times the music is played back on the mobile terminal, and the time element based on the date or date when each playback was performed. The music management system according to claim 1, further comprising means for storing

また、本発明の請求項4に係る発明の要旨は、前記楽曲選出手段は、前記ユーザ嗜好データをスレッショルドとして設定する手段を含んでなることを特徴とする、請求項1乃至3のいずれか1項に記載の楽曲管理システムにある。   The gist of the invention according to claim 4 of the present invention is that the music selection means includes means for setting the user preference data as a threshold. In the music management system described in the section.

また、本発明の請求項5に係る発明の要旨は、前記楽曲選出手段は、前記携帯端末で生成した嗜好データを基に前記印象度の近似度に応じた補間処理をする手段を含んでなることを特徴とする、請求項1乃至4のいずれか1項に記載の楽曲管理システムにある。   The gist of the invention according to claim 5 of the present invention is that the music selection means includes means for performing interpolation processing according to the degree of approximation of the impression degree based on preference data generated by the mobile terminal. It exists in the music management system of any one of Claims 1 thru | or 4 characterized by the above-mentioned.

また、本発明の請求項6に係る発明の要旨は、入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末とからなる楽曲管理システムであって、前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換する印象度データ変換手段と、該印象度データ変換手段に変換された前記印象度データに基づいて、入力された前記楽曲データを座標が付与された複数の部分空間に分割された楽曲マップにマッピングすると共に、前記部分空間の座標と前記部分空間に配置されている前記楽曲データとからなる検索テーブルを作成する楽曲マッピング手段と、前記楽曲データベースに記憶された前記楽曲データと共に前記楽曲マッピング手段によって作成された前記検索テーブルを前記携帯端末に転送する楽曲データ送信手段とを具備し、前記携帯端末は、前記楽曲登録装置の前記楽曲データ送信手段から転送された前記楽曲データおよび前記検索テーブルを前記端末楽曲データベースに記憶させる楽曲データ受信手段と、代表曲を特定した代表曲検索の指示入力を受け付ける端末操作手段と、該端末操作手段によって特定された前記代表曲に基づいて前記検索テーブルを検索して所定数の前記楽曲データを特定する楽曲検索手段と、該楽曲検索手段によって検索された前記楽曲データを音声出力する音声出力手段と音声出力動作の使用者の反映がされたユーザ嗜好データをカウントする、嗜好データカウント手段と、嗜好データを前記楽曲登録装置に転送する嗜好データ送信手段とを具備し、さらにまた、前記楽曲登録装置は、前記携帯端末からの嗜好データを受信し前記楽曲データベースに記憶させる嗜好データ受信手段と、各楽曲ごとに対応付けられた印象度データおよび前記嗜好データを基に、あるまとまりを選出する楽曲選出手段とを具備することを特徴とする楽曲管理システムにある。   The gist of the invention according to claim 6 of the present invention is that a music registration device that stores input music data in a music database, and the music registration device that is connectable to the music registration device and that is stored in the music database. A music management system comprising a mobile terminal having a terminal music database to which music data is transferred, wherein the music registration device includes feature data extraction means for extracting physical characteristic data from the input music data; Based on the impression degree data conversion means for converting the feature data extracted by the feature data extraction means into impression degree data determined by human sensitivity, and the impression degree data converted by the impression degree data conversion means Mapping the input music data to a music map divided into a plurality of subspaces to which coordinates are assigned, The music mapping means for creating a search table comprising the coordinates of the partial space and the music data arranged in the partial space, and the music mapping means created by the music mapping means together with the music data stored in the music database Music data transmission means for transferring a search table to the mobile terminal, and the mobile terminal stores the music data and the search table transferred from the music data transmission means of the music registration device in the terminal music database. Music data receiving means to be stored, terminal operation means for receiving an instruction input for representative song search specifying a representative song, and searching the search table based on the representative song specified by the terminal operation means to obtain a predetermined number of The music search means for specifying the music data, and searched by the music search means Voice output means for outputting recorded music data, preference data counting means for counting user preference data reflected by the user of the voice output operation, and preference data transmission means for transferring preference data to the music registration device; Furthermore, the music registration device receives preference data from the mobile terminal and stores the preference data in the music database, impression degree data and preference data associated with each music And a music selection means for selecting a certain group based on the music management system.

また、本発明の請求項7に係る発明の要旨は、入力された楽曲データを記憶する前記楽曲登録装置と接続可能に構成される携帯端末とからなる楽曲管理システムにおいて、前記携帯端末は、楽曲の再生動作に伴い生成される使用者の嗜好状態を反映するユーザ嗜好データを生成し、前記楽曲登録装置との接続時、前記生成されたユーザ嗜好データを前記楽曲登録装置に転送し、前記楽曲登録装置は、前記入力された各楽曲データから抽出された人間の感性によって判断される印象度データおよび前記携帯端末から送信されたユーザ嗜好データとに基づき、前記楽曲登録装置に記録される楽曲から前記携帯端末へ転送する楽曲を選出することを特徴とする楽曲管理方法にある。   According to a seventh aspect of the present invention, there is provided a music management system including a portable terminal configured to be connectable to the music registration apparatus that stores input music data, wherein the portable terminal The user preference data reflecting the user preference state generated along with the reproduction operation is generated, and when the music registration device is connected, the generated user preference data is transferred to the music registration device, and the music The registration device is configured based on the impression recorded by the human sensibility extracted from each piece of the input music data and the user preference data transmitted from the portable terminal, from the music recorded in the music registration device. In the music management method, music to be transferred to the portable terminal is selected.

本発明の楽曲管理システムおよび楽曲管理方法は、楽曲登録装置においては、印象度データを用いて、マッピングした楽曲マップに基づく検索を行なうシステムにおいて、携帯端末から楽曲登録装置に検索のための情報として嗜好データが転送されることにより、使用者の嗜好に沿った精度のよい選曲を行なえるとともに、代表曲をあらたに指示入力あるいは選択することなく、代表曲を選択する手間を省くことも可能であり、効率のよい選曲が達成できる。また、転送される嗜好データに経時的特徴を含ませるときは、楽曲登録装置において、「印象度」だけでは対応できない、「飽きる」といったユーザの時間的心理変化に対応し、固有の使用者ごとに、満足度を高めることができ、嗜好データに時間的要素を持ち込むことで多彩な、期待通りの選曲を行なうことができる。   The music management system and the music management method according to the present invention provide information for searching from a portable terminal to a music registration apparatus in a music registration apparatus in a system that performs a search based on a mapped music map using impression degree data. By transferring preference data, it is possible to perform accurate music selection according to the user's preference, and it is possible to save time and effort to select a representative song without inputting or selecting a representative song again. Yes, you can achieve efficient music selection. In addition, when including preference over time in the preference data to be transferred, the music registration device can cope with changes in the user's temporal psychology such as “getting tired”, which cannot be handled only by “impression”, In addition, the degree of satisfaction can be increased, and a variety of music selections can be performed as expected by bringing time elements into the preference data.

また、単に選曲された履歴のある楽曲のみに限らず、選曲された履歴のある楽曲のマップ上近傍の履歴の無い楽曲も相当の嗜好データを付与し処理することで、ユーザの嗜好を反映した精度の高い選曲を行なえる。   In addition, not only music with a history of music selection, but also music without a history on the map of music with history of music selection, the user's preference is reflected by giving and processing considerable preference data. Can select music with high accuracy.

また、携帯端末においては、高度な処理を楽曲登録装置で行なうため、楽曲データ転送のついでに処理が加えられた嗜好データの転送を行なうだけで、精度の良い検索用嗜好データを得ることができ携帯端末でより精度良く検索できる。   In addition, in a mobile terminal, since advanced processing is performed by a music registration device, it is possible to obtain accurate search preference data by simply transferring preference data that has been processed after music data transfer. Search more accurately on the terminal.

以下、本発明の実施の形態を図面に基づいて詳細に説明する。
図1は、本発明に係る楽曲管理システムの実施の形態の構成を示すブロック図であり、図2は、図1に示す携帯端末の構成を示す前面図である。
本実施の形態は、図1を参照すると、楽曲登録装置10と、携帯端末30とがUSB等のデータ伝送路23で接続されており、携帯端末30は、楽曲登録装置10から切り離して携帯することができる構成となっている。
楽曲登録装置10は、パーソナルコンピュータ等のプログラム制御で動作する情報処理装置であり、図1を参照すると、楽曲データ入力部11と、圧縮処理部12と、特徴データ抽出部13と、印象度データ変換部14と、楽曲データベース15と、楽曲マッピング部16と、楽曲マップ記憶部17と、楽曲検索部18と、PC操作部19と、PC表示部20と、送受信部21と、音声出力部22とからなる。
Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.
FIG. 1 is a block diagram showing a configuration of an embodiment of a music management system according to the present invention, and FIG. 2 is a front view showing a configuration of the mobile terminal shown in FIG.
In this embodiment, referring to FIG. 1, the music registration device 10 and the portable terminal 30 are connected by a data transmission path 23 such as a USB, and the portable terminal 30 is separated from the music registration device 10 and is carried. It has a configuration that can.
The music registration apparatus 10 is an information processing apparatus that operates under program control such as a personal computer. Referring to FIG. 1, a music data input unit 11, a compression processing unit 12, a feature data extraction unit 13, and impression degree data. Conversion unit 14, music database 15, music mapping unit 16, music map storage unit 17, music search unit 18, PC operation unit 19, PC display unit 20, transmission / reception unit 21, and audio output unit 22 It consists of.

楽曲データ入力部11は、CD、DVD等の楽曲データが記憶されている記憶媒体を読み取る機能を有し、CD、DVD等の記憶媒体から楽曲データを入力し、圧縮処理部12および特徴データ抽出部13に出力する。CD、DVD等の記憶媒体以外にインターネット等のネットワークを経由した楽曲データ(配信データ)を入力するように構成しても良い。なお、圧縮された楽曲データが入力される場合には、圧縮された楽曲データを伸長して特徴データ抽出部13に出力する。
圧縮処理部12は、楽曲登録時には、楽曲データ入力部11から入力された楽曲データをMP3やATRAC(Adaptive Transform Acoustic
Coding )等の圧縮形式で圧縮し、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる。
The music data input unit 11 has a function of reading a storage medium in which music data such as a CD and a DVD is stored. The music data input unit 11 inputs music data from a storage medium such as a CD and a DVD, and extracts a compression processing unit 12 and feature data. To the unit 13. You may comprise so that the music data (delivery data) via networks, such as the internet, other than storage media, such as CD and DVD, may be input. When compressed music data is input, the compressed music data is decompressed and output to the feature data extraction unit 13.
The compression processing unit 12 converts the music data input from the music data input unit 11 into MP3 or ATRAC (Adaptive Transform Acoustic) at the time of music registration.
The compressed music data is stored in the music database 15 together with bibliographic data such as artist names and music titles.

特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出し、抽出した特徴データを印象度データ変換部14に出力する。
印象度データ変換部14は、予め学習が施された階層型ニューラルネットワークを用いて、特徴データ抽出部13から入力された特徴データを、人間の感性によって判断される印象度データに変換し、変換した印象度データを楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと変換した印象度データとを楽曲データに関連づけて楽曲データベース15に登録する。
The feature data extraction unit 13 extracts feature data composed of fluctuation information from the music data input from the music data input unit 11 and outputs the extracted feature data to the impression degree data conversion unit 14.
The impression degree data conversion unit 14 converts the feature data input from the feature data extraction unit 13 into impression degree data determined by human sensitivity using a hierarchical neural network that has been learned in advance. The impression level data is output to the music mapping unit 16, and the feature data input from the feature data extraction unit 13 and the converted impression level data are associated with the music data and registered in the music database 15.

楽曲データベース15は、HDD等の大容量の記憶手段であり、圧縮処理部12によって圧縮された楽曲データ、書誌データと、特徴データ抽出部13によって抽出された特徴データと、印象度データ変換部14によって変換された印象度データとが関連づけられて記憶される。
楽曲マッピング部16は、印象度データ変換部14から入力された印象度データに基づいて、任意空間である楽曲マップに楽曲データをマッピングし、楽曲データをマッピングした楽曲マップを楽曲マップ記憶部17に記憶させると共に、楽曲マップにマッピングされた楽曲データを検索するための検索テーブルを作成し、作成した検索テーブルを楽曲データベース15に記憶させる。
The music database 15 is a large-capacity storage unit such as an HDD, and the music data and bibliographic data compressed by the compression processing unit 12, the feature data extracted by the feature data extraction unit 13, and the impression degree data conversion unit 14. Is stored in association with the impression degree data converted by.
The music mapping unit 16 maps the music data to a music map that is an arbitrary space based on the impression data input from the impression data conversion unit 14, and the music map in which the music data is mapped is stored in the music map storage unit 17. A search table for searching for music data mapped to the music map is created and stored, and the created search table is stored in the music database 15.

楽曲マップ記憶部17は、HDD等の大容量の記憶手段であり、楽曲マッピング部16によって楽曲データがマッピングされた楽曲マップが記憶される。
楽曲検索部18は、PC操作部19から書誌データに基づいて楽曲データベース15を検索し、当該検索結果をPC表示部20に表示すると共に、PC操作部19によって選択された代表曲に基づいて楽曲マップ記憶部17を検索し、当該代表曲検索結果をPC表示部20に表示すると共に検索リストとして楽曲データベース15に記憶させる。
PC操作部19は、キーボードやマウス等の入力手段であり、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の入力、携帯端末30に出力する楽曲データを選択する入力が行われる
The music map storage unit 17 is a large-capacity storage unit such as an HDD, and stores a music map to which music data is mapped by the music mapping unit 16.
The music search unit 18 searches the music database 15 based on the bibliographic data from the PC operation unit 19, displays the search result on the PC display unit 20, and plays music based on the representative music selected by the PC operation unit 19. The map storage unit 17 is searched, and the representative song search result is displayed on the PC display unit 20 and stored in the song database 15 as a search list.
The PC operation unit 19 is input means such as a keyboard and a mouse, and inputs search conditions for searching for music data stored in the music database 15 and the music map storage unit 17 and selects music data to be output to the portable terminal 30. Input to be made

PC表示部20は、例えば液晶ディスプレイ等の表示手段であり、楽曲マップ記憶部17に記憶されている楽曲データのマッピング状況の表示、楽曲データベース15および楽曲マップ記憶部17に記憶されている楽曲データを検索する検索条件の表示、検索された楽曲データ(検索結果)の表示等が行われる。
送受信部21は、携帯端末30の送受信部31との間をUSB等のデータ伝送路23で接続可能に構成されており、楽曲データベース15に記憶されている楽曲データと、当該楽曲データに対応する印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとを携帯端末30の送受信部31に出力する。
音声出力部22は、楽曲データベース15に記憶されている楽曲データを伸長して再生するオーディオプレーヤである。
The PC display unit 20 is a display unit such as a liquid crystal display, for example, displays the mapping status of the song data stored in the song map storage unit 17, and the song data stored in the song database 15 and the song map storage unit 17. The search conditions for searching for music, the searched music data (search results), etc. are displayed.
The transmission / reception unit 21 is configured to be connectable to the transmission / reception unit 31 of the portable terminal 30 through a data transmission path 23 such as a USB, and corresponds to the music data stored in the music database 15 and the music data. The neuron coordinates in the impression degree data and the music map, the search table, and the search list are output to the transmission / reception unit 31 of the mobile terminal 30.
The audio output unit 22 is an audio player that decompresses and reproduces music data stored in the music database 15.

携帯端末30は、HDD等の大容量の記憶手段を有するポータブルオーディオ等の音声再生装置であり、図1を参照すると、送受信部31と、端末楽曲データベース32と、楽曲検索部33と、端末操作部34、端末表示部35と、音声出力部36と、回数カウンタ部37とからなる。   The portable terminal 30 is an audio playback device such as a portable audio having a large capacity storage means such as an HDD. Referring to FIG. 1, a transmission / reception unit 31, a terminal music database 32, a music search unit 33, and a terminal operation Unit 34, terminal display unit 35, audio output unit 36, and number counter unit 37.

送受信部31は、楽曲登録装置10の送受信部21との間をUSB等のデータ伝送路23で接続可能に構成されており、楽曲登録装置10の送受信部21から入力された楽曲データを端末楽曲データベース32に記憶させる。
端末楽曲データベース32は、HDD等の大容量の記憶手段であり、楽曲データベース15に記憶されている楽曲データと、当該楽曲データに対応する印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとが記憶される。
楽曲検索部33は、端末操作部34から書誌データに基づいて端末楽曲データベース32を検索し、当該検索結果を端末表示部35に表示すると共に、端末操作部34によって特定された代表曲に基づいて検索テーブルを検索し、当該検索結果を端末表示部35に表示する。
The transmission / reception unit 31 is configured to be connectable to the transmission / reception unit 21 of the music registration device 10 via a data transmission path 23 such as a USB, and the music data input from the transmission / reception unit 21 of the music registration device 10 is used as the terminal music. Store in the database 32.
The terminal song database 32 is a large-capacity storage unit such as an HDD, and the song data stored in the song database 15, impression degree data corresponding to the song data, the coordinates of neurons in the song map, a search table, The search list is stored.
The music search unit 33 searches the terminal music database 32 based on the bibliographic data from the terminal operation unit 34, displays the search result on the terminal display unit 35, and based on the representative music specified by the terminal operation unit 34. The search table is searched, and the search result is displayed on the terminal display unit 35.

端末操作部34は、楽曲データの再生に係る入力が行われる入力手段であり、図2を参照すると、再生する楽曲データの選択する入力、検索方法を選択する入力、ボリュームコントロールの入力等を行う十字キー341と、選択された楽曲データの出力を指示する入力、選択された検索方法の実行を指示する入力等を行う決定キー342からなる。
端末表示部35は、例えば液晶ディスプレイ等の表示手段であり、端末楽曲データベース32に記憶されている楽曲データを検索する検索条件の表示、検索された楽曲データ(検索結果)の表示等が行われる。
音声出力部36は、端末楽曲データベース32に圧縮されて記憶されている楽曲データを伸長して再生するオーディオプレーヤである。
The terminal operation unit 34 is an input unit for performing input related to the reproduction of music data. Referring to FIG. 2, input for selecting music data to be reproduced, input for selecting a search method, input for volume control, and the like are performed. It consists of a cross key 341 and an enter key 342 for performing an input for instructing output of the selected music data, an input for instructing execution of the selected search method, and the like.
The terminal display unit 35 is a display unit such as a liquid crystal display, for example, and displays search conditions for searching for music data stored in the terminal music database 32 and displays searched music data (search results). .
The audio output unit 36 is an audio player that decompresses and reproduces music data that is compressed and stored in the terminal music database 32.

回数カウンタ部37は、ユーザが携帯端末30に示した嗜好の履歴を計数する手段であり、携帯端末30の端末動作を制御するマイクロコンピュータ用にあらかじめ登録されたプログラムで実行される。
まず、本実施の形態で用いられる印象データを、図3乃至図7を参照して、楽曲登録装置10における楽曲登録動作とともに詳細に説明する。
The number counter unit 37 is a means for counting the history of preferences shown to the mobile terminal 30 by the user, and is executed by a program registered in advance for a microcomputer that controls the terminal operation of the mobile terminal 30.
First, impression data used in the present embodiment will be described in detail together with a music registration operation in the music registration apparatus 10 with reference to FIGS. 3 to 7.

図3は、図1に示す楽曲登録装置10における楽曲登録動作を説明するためのフローチャートであり、図4は、図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートであり、図5は、図1に示す印象度データ変換部で用いられる階層型ニューラルネットワーク例を示す説明図であり、図6は、図1に示す楽曲マッピング部が楽曲データをマッピングする楽曲マップ例を示す説明図であり、図7は、図1に示す楽曲データベースに記憶される検索テーブル例を示す図である。   FIG. 3 is a flowchart for explaining the music registration operation in the music registration device 10 shown in FIG. 1, and FIG. 4 is a flowchart for explaining the feature data extraction operation in the feature data extraction unit shown in FIG. 5 is an explanatory diagram showing an example of a hierarchical neural network used in the impression degree data conversion unit shown in FIG. 1, and FIG. 6 is an example of a music map in which the music mapping unit shown in FIG. 1 maps music data. FIG. 7 is a diagram showing an example of a search table stored in the music database shown in FIG.

楽曲データ入力部11にCD、DVD等の楽曲データが記憶されている記憶媒体をセットし、楽曲データ入力部11から楽曲データを入力する(ステップA1)。
圧縮処理部12は、楽曲データ入力部11から入力された楽曲データを圧縮し(ステップA2)、圧縮した楽曲データを、アーティスト名、曲名等の書誌データと共に楽曲データベース15に記憶させる(ステップA3)。
特徴データ抽出部13は、楽曲データ入力部11から入力された楽曲データから、ゆらぎ情報からなる特徴データを抽出する(ステップA4)。
A storage medium storing music data such as CD and DVD is set in the music data input section 11 and music data is input from the music data input section 11 (step A1).
The compression processing unit 12 compresses the music data input from the music data input unit 11 (step A2), and stores the compressed music data in the music database 15 together with the bibliographic data such as artist name and music name (step A3). .
The feature data extraction unit 13 extracts feature data including fluctuation information from the music data input from the music data input unit 11 (step A4).

特徴データ抽出部13における特徴データの抽出動作は、図3乃至図4を参照すると、楽曲データ入力部11にCDプレーヤ等の楽曲再生装置やインターネット等のネットワークから楽曲データが入力されると(ステップB1)、楽曲データ入力部11は、高速化を目的とし、楽曲データ入力部11に入力された楽曲データを44.1kHzから22.05kHzにダウンサンプリングし、ダウンサンプリングした楽曲データを特徴データ抽出部13に出力する。   With reference to FIGS. 3 to 4, the feature data extraction operation in the feature data extraction unit 13 is performed when music data is input to the music data input unit 11 from a music playback device such as a CD player or a network such as the Internet (steps). B1) The music data input unit 11 downsamples the music data input to the music data input unit 11 from 44.1 kHz to 22.05 kHz for the purpose of speeding up, and the downsampled music data is a feature data extraction unit. 13 is output.

次に、特徴データ抽出部13は、楽曲データの予め定められたデータ解析開始点(楽曲の先頭から30s)から一定のフレーム長に対してのFFT処理を行い、パワースペクトルを算出する(ステップB2)。なお、本実施の形態においては、特徴データの1つである楽曲のテンポとしてテンポの周期を抽出し、テンポの周期が0.3〜1sの範囲にあることを想定し、サンプリング周期が22.05kHzである楽曲データに対して1024ポイントのFFT処理を行うように構成した。すなわち、FFT処理を行うフレーム長を、1024/22.05kHz≒46msとし、想定した楽曲におけるテンポの周期の最小値よりも短い値としている。   Next, the feature data extraction unit 13 performs FFT processing for a certain frame length from a predetermined data analysis start point (30 s from the beginning of the song) of the song data, and calculates a power spectrum (step B2). ). In the present embodiment, the tempo period is extracted as the tempo of the music, which is one of the feature data, and the sampling period is set to 22 .2 assuming that the tempo period is in the range of 0.3 to 1 s. It was configured to perform 1024-point FFT processing on music data at 05 kHz. That is, the frame length for performing the FFT processing is set to 1024 / 22.05 kHz≈46 ms, which is shorter than the minimum value of the tempo cycle in the assumed music.

次に、特徴データ抽出部13は、Low(0〜200Hz)、Middle(200〜600Hz)、High(600〜11050Hz)の周波数帯域を予め設定しておき、Low、Middle、Highの3帯域のパワースペクトルを積分し、平均パワーを算出し(ステップB3)、ステップB2〜ステップB3の処理動作を行ったフレーム個数が予め定められた設定値(2048)に達したか否かを判断し(ステップB4)、ステップB2〜ステップB3の処理動作を行ったフレーム個数が予め定められた設定値に達していない場合には、データ解析開始点をシフトしながら(ステップB5)、ステップB2〜ステップB3の処理動作を繰り返す。これにより、ステップB2〜ステップB3の処理動作は、予め定められたフレーム個数の設定値分行われることになり、Low、Middle、High3帯域の平均パワーの時系列データをそれぞれ求めることができる。なお、本実施の形態では、解析時間長を60sとし、データ解析開始点を60s*22.05kHz/2048≒646ポイントずつシフトしながらFFT処理を行い、2048ポイント、60sの平均パワーの時系列データを作成するように構成した。   Next, the feature data extraction unit 13 sets frequency bands of Low (0 to 200 Hz), Middle (200 to 600 Hz), and High (600 to 11050 Hz) in advance, and the power of the three bands of Low, Middle, and High. The spectrum is integrated, the average power is calculated (step B3), and it is determined whether or not the number of frames for which the processing operations of steps B2 to B3 have been performed has reached a predetermined set value (2048) (step B4). ) If the number of frames that have undergone the processing operations in steps B2 to B3 has not reached a predetermined set value, the data analysis start point is shifted (step B5) while the processing in steps B2 to B3 is performed. Repeat the operation. As a result, the processing operations of step B2 to step B3 are performed for a set value of a predetermined number of frames, and time series data of average power in the Low, Middle, and High3 bands can be respectively obtained. In this embodiment, the analysis time length is 60 s, the data analysis start point is shifted by 60 s * 22.05 kHz / 2048≈646 points, and FFT processing is performed to obtain time series data of 2048 points and 60 s average power. Configured to create.

次に、特徴データ抽出部13は、ステップB2〜ステップB5の処理動作によって算出したLow、Middle、Highの平均パワーの時系列データに対しそれぞれFFTを行い、ゆらぎ情報を算出する(ステップB6)。なお、本実施の形態では、平均パワー記憶部44に記憶された平均パワーの時系列データに対して2048ポイントのFFT処理を行うように構成した。   Next, the feature data extraction unit 13 performs FFT on the time series data of the average power of Low, Middle, and High calculated by the processing operations of Step B2 to Step B5, and calculates fluctuation information (Step B6). In the present embodiment, 2048-point FFT processing is performed on the time series data of the average power stored in the average power storage unit 44.

次に、特徴データ抽出部13は、Low、Middle、HighにおけるFFT分析結果から、横軸を対数周波数、縦軸を対数パワースペクトルとしたグラフにおける近似直線を最小2乗法等によって算出し(ステップB7)、近似直線の傾きと、近似直線のY切片とを求め(ステップB8)、Low、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片を特徴データとして抽出する。
また、特徴データ抽出部13は、LowにおけるFFT分析結果において、ステップB6で算出されたゆらぎ情報とステップ近似直線算出部45によって算出された近似直線との差分を差分情報として算出し(ステップB9)、予め定められたロジックに基づいて算出した差分情報を解析することで、テンポの周期を決定し(ステップB10)、決定したテンポを特徴データとして抽出し、Low、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片と共に印象度データ変換部14に出力する。
Next, the feature data extraction unit 13 calculates an approximate straight line in a graph with the horizontal axis as the logarithmic frequency and the vertical axis as the logarithmic power spectrum from the FFT analysis results at Low, Middle, and High by the least square method or the like (step B7). ), The inclination of the approximate straight line and the Y intercept of the approximate straight line are obtained (step B8), and the slope and Y intercept of the approximate straight line in each of Low, Middle, and High are extracted as feature data.
Further, the feature data extraction unit 13 calculates, as difference information, the difference between the fluctuation information calculated in Step B6 and the approximate straight line calculated by the step approximate straight line calculation unit 45 in the FFT analysis result in Low (Step B9). By analyzing the difference information calculated based on a predetermined logic, the tempo cycle is determined (step B10), the determined tempo is extracted as feature data, and approximate straight lines in each of Low, Middle, and High Are output to the impression degree data conversion unit 14 together with the inclination and the Y intercept.

次に、図3を参照すると、印象度データ変換部14は、図5に示すような入力層(第1層)、中間層(第n層)、出力層(第N層)からなる階層型ニューラルネットワークを用い、入力層(第1層)に特徴データ抽出部13で抽出された特徴データを入力することによって、出力層(第N層)から印象度データを出力、すなわち特徴データを印象度データに変換し(ステップA5)、出力層(第N層)から出力された印象度データを、楽曲マッピング部16に出力すると共に、特徴データ抽出部13から入力された特徴データと、出力層(第N層)から出力された印象度データとを、楽曲データと共に楽曲データベース15に記憶させる。なお、中間層(第n層)の各ニューロンの結合重み値wは、評価者によって予め学習が施されている。また、本実施の形態の場合には、入力層(第1層)に入力される特徴データ、すなわち特徴データ抽出部13によって抽出される特徴データの項目は、前述のようにLow、Middle、Highのそれぞれにおける近似直線の傾きおよびY切片と、テンポとの7項目であり、印象度データの評価項目としては、人間の感性によって判断される「明るい、暗い」、「澄んだ、にごった」、「激しい、穏やか」の3項目を設定し、各評価項目を7段階評価で表すように設定した。従って、入力層(第1層)のニューロン数Lは、7個、出力層(第N層)のニューロン数Lは、3個となっており、中間層(第n層:n=2,…,N−1)のニューロン数Lnは、適宜設定されている。 Next, referring to FIG. 3, the impression degree data conversion unit 14 is a hierarchical type composed of an input layer (first layer), an intermediate layer (n-th layer), and an output layer (N-th layer) as shown in FIG. By inputting the feature data extracted by the feature data extraction unit 13 into the input layer (first layer) using a neural network, impression level data is output from the output layer (Nth layer), that is, the feature data is converted into the impression level. The data is converted into data (step A5), the impression degree data output from the output layer (Nth layer) is output to the music mapping unit 16, and the feature data input from the feature data extraction unit 13 and the output layer ( The impression degree data output from the (Nth layer) is stored in the music database 15 together with the music data. Note that the connection weight value w of each neuron in the intermediate layer (nth layer) is learned in advance by the evaluator. In the case of this embodiment, the feature data input to the input layer (first layer), that is, the feature data items extracted by the feature data extraction unit 13 are Low, Middle, High as described above. There are seven items, the slope of the approximate straight line and the Y-intercept and the tempo, and the evaluation items of the impression degree data are “bright and dark”, “clear and dark” judged by human sensitivity, Three items of “Intense and Calm” were set, and each evaluation item was set so as to be expressed by a seven-step evaluation. Accordingly, the number of neurons L 1 in the input layer (first layer) is 7, and the number of neurons L N in the output layer (Nth layer) is 3, and the intermediate layer (nth layer: n = 2). ,..., N-1) is set appropriately.

楽曲マッピング部16は、楽曲データ入力部11から入力された楽曲データを楽曲マップ記憶部17に記憶されている楽曲マップの該当箇所にマッピングする(ステップA6)。楽曲マッピング部16におけるマッピング動作に用いられる任意空間である楽曲マップは、複数の部分空間に分割されており、楽曲データは、複数の部分空間のいずれかに配置される。楽曲マップとしては、例えばニューロンが2次元に規則的に配置(図6に示す例では、9*9の正方形)されている自己組織化マップ(SOM)を用いることができ、この場合には、ニューロンが複数の部分空間に対応する。   The music mapping unit 16 maps the music data input from the music data input unit 11 to a corresponding portion of the music map stored in the music map storage unit 17 (step A6). The music map which is an arbitrary space used for the mapping operation in the music mapping unit 16 is divided into a plurality of partial spaces, and the music data is arranged in any of the plurality of partial spaces. As the music map, for example, a self-organizing map (SOM) in which neurons are regularly arranged in two dimensions (9 * 9 square in the example shown in FIG. 6) can be used. A neuron corresponds to multiple subspaces.

本実施の形態では、楽曲マップとしてニューロンが100*100の正方形に配列された2次元SOMを使用し、楽曲マップの各ニューロンには、(1,1)〜(100,100)の座標が付与され、座標によりニューロン間の距離が認識できるように構成されており、楽曲マッピング部16は、楽曲マップにマッピングされた楽曲データを検索するための検索テーブルを作成し、作成した検索テーブルを楽曲データベース15に記憶させると共に、楽曲データが配置されたニューロンの座標を楽曲データと共に楽曲データベース15に記憶させる。検索テーブルは、該当するニューロンを検索し、検索されたニューロンに配置されている楽曲データを特定するためのものであり、図7に示すように、楽曲マップにおける各ニューロンの座標と、各ニューロンに配置されている楽曲データ(楽曲データを特定する番号等)とからなる。なお、本実施の形態では、楽曲マップとしてニューロンが正方形に配列された2次元SOMを用いたが、ニューロンの配列は、長方形であっても、蜂の巣であっても良く、さらに3次元SOMを用いるようにしても良い。   In this embodiment, a two-dimensional SOM in which neurons are arranged in a square of 100 * 100 is used as a music map, and coordinates (1, 1) to (100, 100) are assigned to each neuron of the music map. The music mapping unit 16 creates a search table for searching for music data mapped to the music map, and uses the created search table as a music database. 15 and the coordinates of the neuron in which the music data is arranged are stored in the music database 15 together with the music data. The search table is for searching for the corresponding neuron and specifying the music data arranged in the searched neuron. As shown in FIG. 7, the coordinates of each neuron in the music map and each neuron It is composed of arranged music data (numbers specifying music data, etc.). In this embodiment, a two-dimensional SOM in which neurons are arranged in a square is used as the music map. However, the arrangement of neurons may be a rectangle or a honeycomb, and a three-dimensional SOM is used. You may do it.

さらに、本実施の形態では、嗜好テーブルとして、上記印象マップの各座標に、該当する楽曲の再生回数を加えたデータセットを備え、ユーザの聞いた回数に応じて標高が高くなる山の立体のイメージに似たモデルを考える。
図8(a)は、連続的嗜好テーブルを模式的に示した例である。x-y平面に印象マップの座標を対応させ、ユーザの嗜好回数をz軸方向にとった。このモデルを山になぞらえると、z軸方向のある標高を定め等高線を考え、基準より高い部分に対応する楽曲はユーザに嗜好されており、高いほど嗜好度が強いと見なすことができる。連続的嗜好テーブルを用いると、z軸方向の基準値をパラメータとして変化させ、等高線より上の楽曲グループと、等高線より下の楽曲グループにそれぞれ、まとまりのあるグループを選出することができる。連続的嗜好テーブルは、携帯端末30にて得た離散的嗜好テーブル(図8(b)参照)を基に楽曲登録装置10において補間処理にて作成される。以下にさらに詳しく説明する。
Furthermore, in the present embodiment, the preference table includes a data set in which the number of times of reproduction of the corresponding music is added to each coordinate of the impression map, and a three-dimensional mountain with an altitude that increases according to the number of times the user has heard. Consider a model that resembles an image.
FIG. 8A is an example schematically showing a continuous preference table. The coordinates of the impression map were made to correspond to the xy plane, and the number of user preferences was taken in the z-axis direction. If this model is compared to a mountain, a certain altitude in the z-axis direction is determined, and contour lines are considered. The music corresponding to a portion higher than the reference is preferred by the user, and the higher the higher the preference, the higher the preference. By using the continuous preference table, it is possible to change the reference value in the z-axis direction as a parameter, and to select a group of music groups above and below the contour line. The continuous preference table is created by interpolation processing in the music registration device 10 based on the discrete preference table (see FIG. 8B) obtained by the mobile terminal 30. This will be described in more detail below.

なお、図8(a)および図(b)は、図7に示す検索テーブルの座標をx-y平面に、嗜好回数をz軸方向にとり、立体的に表現したものである。特に、図8(a)は補間処理後の検索テーブルに対応し、図8(b)は補間処理前の検索テーブルに対応する。
図9は、図1に示す楽曲登録装置10と携帯端末30を接続時の動作を説明するためのフローチャートの例である。
楽曲登録装置10は、ユーザの自動選曲実行指示を受けた後、携帯端末30との接続確認を行なう(ステップG1)。携帯端末30は楽曲登録装置10との接続が確認できると(ステップG2)、ユーザが携帯端末30に示した嗜好の履歴データである離散的嗜好テーブルのデータと端末楽曲データベース32の空き容量値を送受信部31から楽曲登録装置10の送受信部21に出力する(ステップG3)。
8A and 8B are three-dimensional representations of the search table shown in FIG. 7 with the coordinates in the xy plane and the number of preferences in the z-axis direction. In particular, FIG. 8A corresponds to the search table after the interpolation process, and FIG. 8B corresponds to the search table before the interpolation process.
FIG. 9 is an example of a flowchart for explaining the operation when the music registration device 10 and the mobile terminal 30 shown in FIG. 1 are connected.
After receiving the user's automatic music selection execution instruction, the music registration device 10 confirms the connection with the portable terminal 30 (step G1). When the mobile terminal 30 can confirm the connection with the music registration device 10 (step G2), the user can obtain the data of the discrete preference table, which is the history data of the preference shown by the user on the mobile terminal 30, and the free capacity value of the terminal music database 32. It outputs to the transmission / reception part 21 of the music registration apparatus 10 from the transmission / reception part 31 (step G3).

楽曲登録装置10は、入力した離散的嗜好テーブルのデータを楽曲データベース15内に記憶する(ステップG4)。さらに嗜好テーブルのデータは、印象マップ上の各座標に関し、ユーザの嗜好履歴が無い部分について楽曲マップのニューロン間のユークリッド距離を考慮し嗜好データの補間を行なう(ステップG5)。
楽曲登録装置10では、補間処理された連続的嗜好テーブルを基に、検索テーブルを嗜好評価値順に並べ替えを行ない(ステップG6)、続いて携帯端末30に送信すべき楽曲を選択するための嗜好評価値スレッショルドを先に受信した端末楽曲データベース32の空き容量値を勘案し決定する(ステップG7)。スレッショルドが決定すると、送受信部21より携帯端末30に向け、選曲された楽曲データ及び連続的嗜好テーブルが出力される(ステップG8)。このように連続嗜好テーブルを基に、検索テーブルを嗜好評価値順に並べ替えを行ない、選曲の基準として嗜好評価値スレッショルドをパラメータとして制御することで、あるまとまった楽曲を選曲する手段とすることができる。
The music registration device 10 stores the input discrete preference table data in the music database 15 (step G4). Further, the preference table data is interpolated with respect to each coordinate on the impression map in consideration of the Euclidean distance between neurons of the music map for a portion where there is no user preference history (step G5).
In the music registration device 10, the search table is rearranged in the order of preference evaluation values based on the interpolated continuous preference table (step G 6), and then a preference for selecting a song to be transmitted to the mobile terminal 30. The evaluation value threshold is determined in consideration of the free capacity value of the terminal music database 32 that has received the evaluation value first (step G7). When the threshold is determined, the selected music data and the continuous preference table are output from the transmission / reception unit 21 to the portable terminal 30 (step G8). In this way, based on the continuous preference table, the search table is rearranged in the order of preference evaluation values, and the preference evaluation value threshold is controlled as a parameter as a selection criterion, thereby providing a means for selecting a certain piece of music. it can.

携帯端末30は、端末楽曲データベース32内のデータを送受信部31で入力した楽曲データ及び連続的嗜好テーブルに更新する(ステップG9)。
次に、印象マップ上の座標に対する離散的嗜好テーブルの保存形式について説明する。
図8(b)は、図1に示す携帯端末30における印象マップ上の座標に対する離散的嗜好テーブルの保存形式の例を示している。
印象マップ上の座標ごとに、対応する楽曲の再生回数の累計値が保存される。図8(b)の例では、データ取得時には、対応する楽曲の再生回数の累計値を日付ごとに区分けした。これは後に、時間的推移を考慮した嗜好テーブルを再作成可能とするためである。
The portable terminal 30 updates the data in the terminal music database 32 to the music data input by the transmission / reception unit 31 and the continuous preference table (step G9).
Next, the storage format of the discrete preference table for the coordinates on the impression map will be described.
FIG. 8B shows an example of a storage format of the discrete preference table for the coordinates on the impression map in the mobile terminal 30 shown in FIG.
For each coordinate on the impression map, a cumulative value of the number of times the corresponding music is played is stored. In the example of FIG. 8B, at the time of data acquisition, the cumulative value of the number of reproductions of the corresponding music is divided by date. This is to make it possible to recreate a preference table that takes into account temporal transition later.

さらに、転送される嗜好データの経時的特徴を分析することにより、楽曲登録装置10および携帯端末30においては、「印象度」だけでは対応できない、「聴き飽きた」とか「ひさしぶり」といったユーザの時間的心理変化に対応し、固有の使用者ごとに、満足度を高めることができる。嗜好データに時間的要素を持ち込むことで多彩な、期待通りの選曲を行なうことができるという効果を奏する。
携帯端末30における嗜好ポイントカウント動作について説明する。図10は携帯端末30における嗜好ポイントカウント動作を説明するためのフローチャートの例である。
Furthermore, by analyzing the temporal characteristics of the preference data to be transferred, the music registration device 10 and the mobile terminal 30 are not able to deal with “impression level” alone, such as “I'm tired of listening” or “Long time”. Responding to temporal psychological changes, satisfaction can be increased for each unique user. Bringing time elements into preference data has the effect of making it possible to perform a variety of music selections as expected.
A preference point counting operation in the mobile terminal 30 will be described. FIG. 10 is an example of a flowchart for explaining a preference point counting operation in the mobile terminal 30.

携帯端末30は、ユーザの曲再生指示をチェックし(ステップH1)、指示があったとき、TOC情報から曲の印象MAP座標(x,y)を取得し(ステップH2)、曲の再生を開始する(ステップH3)。曲再生中、ユーザの曲中断指示があるかをチェックし、中断指示があれば曲再生を終了するが、あらかじめ定めた一定の時間に曲中断指示が無ければ(ステップH4)、端末楽曲データベース32内の嗜好ポイントデータを読み取り(ステップH5)、再生中の楽曲に対応する印象マップ上の座標(x,y)に対する嗜好ポイント値を加算更新する(ポイントH6)。指定された楽曲の再生を終えると、連続して次の楽曲を再生するかチェックする(ステップH7)。プレイリスト等で次の楽曲が予定されている場合は、次の楽曲に対しステップH2以降を同様に行なう。次の楽曲の予定が無い場合、曲再生動作を終了する。   The portable terminal 30 checks the user's song playback instruction (step H1), and when there is an instruction, acquires the impression MAP coordinates (x, y) of the song from the TOC information (step H2) and starts playing the song. (Step H3). While the music is being played back, it is checked whether there is a user's music interruption instruction. If there is an interruption instruction, the music reproduction is terminated. If there is no music interruption instruction at a predetermined time (step H4), the terminal music database 32 is displayed. The preference point data is read (step H5), and the preference point value for the coordinates (x, y) on the impression map corresponding to the music being reproduced is added and updated (point H6). When the reproduction of the designated music is finished, it is checked whether or not the next music is reproduced continuously (step H7). When the next music is scheduled in the playlist or the like, the process from step H2 onward is similarly performed on the next music. If there is no schedule for the next music, the music playback operation is terminated.

なお、上記例では楽曲の再生時間でユーザが該楽曲を嗜好した回数を加算する例を示したが、これは一例であって本例に限定するものではなく、例えば楽曲の再生途中に携帯端末30の十字キー341に割り当てられたスキップ動作が指示された際は、ユーザが該楽曲を嗜好しなかったとして、嗜好ポイント値を減算するようにするなど、嗜好ポイントのカウントにはさまざまの方法が考えられる。
次に、携帯端末30における嗜好ポイント算出処理の詳細について説明する。図8(b)を参照すると、本実施例では、各座標の楽曲を選択した回数を、日付ごとに記録しており、各座標ごとに日付けで分散している回数の積算を行ない、累計値を得て嗜好回数用データエリアに記録する。このように処理しておくと、携帯端末30から楽曲登録装置10へ転送すべき嗜好データ量を少なくすることができる。
In the above example, the example in which the number of times that the user likes the music is added in the music playback time is shown as an example, and the present invention is not limited to this example. When a skip operation assigned to the 30 cross key 341 is instructed, there are various methods for counting the preference points, such as subtracting the preference point value, assuming that the user does not like the music. Conceivable.
Next, the details of the preference point calculation process in the mobile terminal 30 will be described. Referring to FIG. 8B, in this embodiment, the number of times that the music of each coordinate is selected is recorded for each date, and the number of times distributed by date for each coordinate is accumulated, The value is obtained and recorded in the data area for the number of preferences. By processing in this way, the amount of preference data to be transferred from the portable terminal 30 to the music registration device 10 can be reduced.

なお、転送する嗜好データ量に制限の無い場合、日付ごとに記録している全嗜好データを転送するようにしても良い。図11は、楽曲登録装置10における離散的嗜好テーブルの補間処理の詳細フローチャートの例である。一例として、アルゴリズムが簡略になる、次の条件に従うものを示した。
(1)印象マップは、x=(0〜N-1), y=(0〜N-1)の解像度を持つ。
(2)印象マップの仮想端の嗜好ポイントはゼロ。すなわち、z(0,y)=0、z(x,0)=0。
(3)ある座標(x,y)に対して、その座標と周辺の計9座標におけるz(x,y)の平均を z'(x,y)として求める。
If there is no limit on the amount of preference data to be transferred, all preference data recorded for each date may be transferred. FIG. 11 is an example of a detailed flowchart of the discrete preference table interpolation processing in the music registration device 10. As an example, we showed that the algorithm is simplified and obeys the following conditions:
(1) The impression map has a resolution of x = (0 to N-1) and y = (0 to N-1).
(2) The preference point at the virtual end of the impression map is zero. That is, z (0, y) = 0 and z (x, 0) = 0.
(3) For a certain coordinate (x, y), the average of z (x, y) in the coordinate and the surrounding nine coordinates is obtained as z ′ (x, y).

楽曲マップ上の楽曲間に距離の考え方が適用できるシステムであるため、単に選曲された履歴のある楽曲のみに限らず、選曲された履歴のある楽曲のマップ上近傍の履歴の無い楽曲にも相当の嗜好データを付与し処理することで、使用者の嗜好に沿った精度のよい選曲を行なえる。
ここでは座標ごとに同一の重みとしたが、その座標と周辺の計25座標におけるz(x,y)の平均を求めるようにするとか、座標ごとに異なる重み付けをするなど、他にも種々の補間方法が考えられる。サンプル数を増やすとか次数を上げる等で、より補間効果を高めることができるが、いずれを用いても、マップ上の距離が近接している楽曲は印象度が近似しているとの代表曲検索の考えを反映しており同様の効果がある。
Since it is a system that can apply the concept of distance between songs on the song map, it is not limited to songs with a history of selected songs, but also equivalent to songs without history in the neighborhood of songs with a selected history By assigning and processing the preference data, it is possible to perform accurate music selection in accordance with the user's preference.
Here, although the same weight is used for each coordinate, various other types of weights such as an average of z (x, y) in the coordinate and the surrounding 25 coordinates, or a different weighting for each coordinate are used. An interpolation method can be considered. Interpolation effect can be enhanced by increasing the number of samples or increasing the order, etc., but using any of them, a representative song search that the degree of impression is approximate for songs that are close to each other on the map The same effect is reflected.

また、補間処理は、サンプル数を増やすとか次数を上げる等で、より補間効果を高めることができるが、このような嗜好データの高度な処理を本実施の形態では楽曲登録装置10で行ない、楽曲データ転送のついでに嗜好データの処理結果のみ転送を合わせて受けるだけでよく、携帯端末側では特段電池寿命を損なうことなく、動作できるという効果を奏する。
なお、楽曲登録装置10にとっては、携帯端末30と異なり一般に電力面での制約は少ないと考えられるため、特に支障はない。
In addition, the interpolation process can further enhance the interpolation effect by increasing the number of samples or increasing the order, etc., but in this embodiment such advanced processing of preference data is performed by the music registration device 10, It is only necessary to receive only the processing result of the preference data along with the data transfer, and the mobile terminal side has an effect that it can operate without impairing the battery life.
Note that, unlike the mobile terminal 30, the music registration device 10 is generally considered to have less power restrictions, so there is no particular problem.

図12は、図1に示す楽曲登録装置10と携帯端末30における楽曲データ、検索テーブルおよび検索リストのデータ構成例を説明するための説明図である。
楽曲登録装置10の楽曲データベース15には、図12に示すように、楽曲データと、当該楽曲データに対応する特徴データ(特徴データ抽出部13で抽出)、印象度データ(印象度データ変換部14で変換)および楽曲マップにおけるニューロンの座標(楽曲マッピング部16でマッピング)と、検索テーブル(楽曲マッピング部16で作成)と、検索リスト(楽曲検索部18で検索)とが記憶されており、携帯端末30の端末楽曲データベース32には、楽曲データと、当該楽曲データに対応する印象度データおよび楽曲マップにおけるニューロンの座標と、検索テーブルと、検索リストとが転送される。前記、嗜好データは楽曲登録装置10および携帯端末30ともに検索テーブル中に座標に対応させて記憶されており、本実施の形態では、楽曲選曲または楽曲検索の際、前述した連続的嗜好テーブルが使用される。
FIG. 12 is an explanatory diagram for explaining a data configuration example of music data, a search table, and a search list in the music registration device 10 and the mobile terminal 30 shown in FIG.
In the music database 15 of the music registration device 10, as shown in FIG. 12, music data, feature data corresponding to the music data (extracted by the feature data extraction unit 13), impression degree data (impression degree data conversion unit 14). And the coordinates of neurons in the music map (mapped by the music mapping unit 16), a search table (created by the music mapping unit 16), and a search list (searched by the music search unit 18). The music data, impression degree data corresponding to the music data, the coordinates of neurons in the music map, a search table, and a search list are transferred to the terminal music database 32 of the terminal 30. The preference data is stored in the search table in association with the coordinates in both the music registration device 10 and the portable terminal 30, and in the present embodiment, the above-mentioned continuous preference table is used for music selection or music search. Is done.

楽曲登録装置10における楽曲検索動作は次のとおりである。図13は、図1に示す楽曲登録装置10における楽曲検索動作を説明するためのフローチャートであり、図14は、図1に示すPC表示部に表示される検索条件入力画面例を示す図であり、図15は、図1に示すPC表示部に表示される条件検索結果表示画面例を示す図であり、図16は、図1に示すPC表示部に表示される代表曲検索結果表示画面例を示す図であり、図17は、図1に示すPC表示部に表示される楽曲リスト表示画面例を示す図であり、図18は、図1に示すPC表示部に表示される楽曲マップ表示画面例を示す図である。   The music search operation in the music registration apparatus 10 is as follows. FIG. 13 is a flowchart for explaining a music search operation in the music registration device 10 shown in FIG. 1, and FIG. 14 is a diagram showing an example of a search condition input screen displayed on the PC display unit shown in FIG. 15 is a diagram showing an example of a condition search result display screen displayed on the PC display unit shown in FIG. 1. FIG. 16 is an example of a representative song search result display screen displayed on the PC display unit shown in FIG. 17 is a diagram showing an example of a music list display screen displayed on the PC display unit shown in FIG. 1, and FIG. 18 is a music map display displayed on the PC display unit shown in FIG. It is a figure which shows the example of a screen.

楽曲検索部18は、PC表示部20に、検索条件を入力する検索条件入力画面51を表示し、PC操作部19からのユーザ入力を受け付ける。検索条件入力画面51は、図14に示すように、検索条件として書誌データを入力する書誌データ入力領域511と、検索の実行を指示する検索実行ボタン512と、全楽曲リスト表示ボタン513と、楽曲マップ表示ボタン514と、自動選曲実行表示ボタン515とからなる。本実施例では、4種類の選曲方法から所望の方法が選択できる。ユーザは、検索条件として書誌データをPC操作部19から入力し(ステップF1)、検索実行ボタン512をクリックすることで、書誌データに基づく検索を楽曲検索部18に指示する。   The music search unit 18 displays a search condition input screen 51 for inputting search conditions on the PC display unit 20, and accepts user input from the PC operation unit 19. As shown in FIG. 14, the search condition input screen 51 includes a bibliographic data input area 511 for inputting bibliographic data as a search condition, a search execution button 512 for instructing execution of a search, an all-music list display button 513, It comprises a map display button 514 and an automatic music selection execution display button 515. In this embodiment, a desired method can be selected from four types of music selection methods. The user inputs bibliographic data as a search condition from the PC operation unit 19 (step F1) and clicks the search execution button 512 to instruct the music search unit 18 to search based on the bibliographic data.

さらに、楽曲検索部18は、PC操作部19から入力された書誌データに基づいて楽曲データベース15を検索し(ステップF2)、条件検索結果を表示する条件検索結果表示画面52をPC表示部20に表示させる(ステップF3)。条件検索結果表示画面52は、図15を参照すると、条件検索結果の中から代表曲を選択する代表曲選択領域521と、選択された代表曲に基づく検索を指示する代表曲検索実行ボタン522と、条件検索結果を検索リストとして登録する登録ボタン523とからなる。
ユーザは、代表曲選択領域521に表示されている検索結果の中から代表曲を選択し(ステップF4)、代表曲検索実行ボタン522をクリックすることで、代表曲に基づく検索を楽曲検索部18に指示する。なお、この時点で登録ボタン523がクリックされた場合には、楽曲検索部18は、検索結果表示領域52に表示されている条件検索結果を検索リストとして楽曲データベース15に記憶させる。
Further, the music search unit 18 searches the music database 15 based on the bibliographic data input from the PC operation unit 19 (step F2), and a condition search result display screen 52 for displaying the condition search result is displayed on the PC display unit 20. Display (step F3). Referring to FIG. 15, the conditional search result display screen 52 includes a representative song selection area 521 for selecting a representative song from the condition search results, and a representative song search execution button 522 for instructing a search based on the selected representative song. And a registration button 523 for registering a condition search result as a search list.
The user selects a representative song from the search results displayed in the representative song selection area 521 (step F4), and clicks the representative song search execution button 522 to search for the song based on the representative song. To instruct. When the registration button 523 is clicked at this time, the music search unit 18 stores the condition search results displayed in the search result display area 52 in the music database 15 as a search list.

楽曲検索部18は、選択された代表曲に基づいて楽曲データベース15を検索することで、楽曲マップにおいて代表曲が配置されているニューロン(以下、代表ニューロンと称す)の座標を特定する(ステップF5)。
さらに、楽曲検索部18は、変数nに0を設定し(ステップF6)、楽曲マップ記憶部17に記憶されている図7に示す検索テーブルを参照することで、ステップF5で特定した代表ニューロンから距離nのニューロンに配置されている楽曲データを検索し(ステップF7)、検索された楽曲数が予め定められた検索数以上であるか否かを判断する(ステップF8)。
The music search unit 18 searches the music database 15 based on the selected representative music, thereby specifying the coordinates of a neuron (hereinafter referred to as a representative neuron) in which the representative music is arranged in the music map (step F5). ).
Further, the music search unit 18 sets 0 to the variable n (step F6), and by referring to the search table shown in FIG. 7 stored in the music map storage unit 17, from the representative neuron specified in step F5. The music data arranged in the neuron of the distance n is searched (step F7), and it is determined whether or not the number of searched music is greater than or equal to a predetermined search number (step F8).

もし、ステップF8で検索された楽曲数が予め定められた検索数未満である場合には、楽曲検索部18は、変数nをインクリメントし(ステップF9)、ステップF7に戻り、検索された楽曲数が予め定められた検索数以上になるまでステップF7およびステップF8を繰り返す。
これに対し、ステップF8で検索された楽曲数が予め定められた検索数以上である場合には、楽曲検索部18は、検索された楽曲データを予め定められた検索数まで絞り込んだ後(ステップF10)、絞り込んだ楽曲データを代表曲検索結果として表示する代表曲検索結果表示画面53をPC表示部20に表示する(ステップF11)。代表曲検索結果表示画面53は、図16を参照すると、出力する楽曲データを選択する出力楽曲選択領域531と、選択された楽曲データの出力を指示する出力ボタン532とからなる。
If the number of songs searched in step F8 is less than the predetermined search number, the song search unit 18 increments the variable n (step F9), returns to step F7, and returns the number of songs searched. Steps F7 and F8 are repeated until is equal to or greater than the predetermined number of searches.
On the other hand, when the number of songs searched in step F8 is equal to or greater than the predetermined number of searches, the music search unit 18 narrows down the searched music data to a predetermined number of searches (step F10) A representative song search result display screen 53 for displaying the narrowed down music data as a representative song search result is displayed on the PC display unit 20 (step F11). Referring to FIG. 16, the representative song search result display screen 53 includes an output song selection area 531 for selecting song data to be output, and an output button 532 for instructing output of the selected song data.

また、ステップF10における検索された楽曲データの絞り込みは、代表ニューロンの特徴ベクトルもしくは代表曲の印象度データ変換部14によって変換された印象度データを入力ベクトルxとし、検索された楽曲データの印象度データを検索対象ベクトルXとすると、入力ベクトルxに近い検索対象ベクトルX、すなわちユークリッド距離‖X−x‖が小さいものを順に予め定められた検索数まで検索することで行われる。
さらに、楽曲検索部18は、登録ボタン532がクリックされると、検索結果表示領域53に表示されている条件検索結果を検索リストとして楽曲データベース15に記憶させる(ステップF12)。
Further, the search of the music data searched in step F10 is performed by using the feature vector of the representative neuron or the impression degree data converted by the impression data conversion unit 14 of the representative music as the input vector xj, and the impression of the searched music data. Assuming that the degree data is the search target vector X j , the search target vector X j close to the input vector x j , that is, the one having a small Euclidean distance ‖X j −x j ‖ is sequentially searched up to a predetermined search number. Is called.
Further, when the registration button 532 is clicked, the music search unit 18 stores the condition search results displayed in the search result display area 53 as a search list in the music database 15 (step F12).

また、検索条件入力画面51において、楽曲リスト表示ボタン513がクリックされると、楽曲検索部18は、記憶されている全楽曲データの楽曲リストを表示する楽曲リスト表示画面54をPC表示部20に表示させる。楽曲リスト表示画面54は、図17を参照すると、全楽曲データの楽曲リストの中から代表曲を選択する代表曲選択領域541と、選択された代表曲に基づく検索を指示する代表曲検索実行ボタン542とからなる。
ユーザが代表曲選択領域541に表示されている楽曲リストの中から代表曲を選択し(ステップF4)、代表曲検索実行ボタン542をクリックすることで、選択された代表曲に基づく検索が楽曲検索部18に指示され、以下、ステップF5〜ステップF12の楽曲検索動作が行われる。
When the music list display button 513 is clicked on the search condition input screen 51, the music search unit 18 displays a music list display screen 54 that displays a music list of all stored music data on the PC display unit 20. Display. Referring to FIG. 17, the song list display screen 54 is a representative song selection area 541 for selecting a representative song from the song list of all song data, and a representative song search execution button for instructing a search based on the selected representative song. 542.
When the user selects a representative song from the song list displayed in the representative song selection area 541 (step F4) and clicks the representative song search execution button 542, a search based on the selected representative song is performed. Instructed by the unit 18, the music search operation in steps F5 to F12 is performed.

なお、本実施の形態では、楽曲登録装置10において、ユーザの嗜好データを備えているため、楽曲リストの中から代表曲を選択する際(ステップF4)、嗜好度の高い楽曲を優先しリスト表示するようにすると、ユーザの選択したい楽曲が早期に表示される頻度が向上し、代表曲選択を効率よく行なうようにすることができる。
また、検索条件入力画面51において、楽曲マップ表示ボタン514がクリックされると、楽曲検索部18は、楽曲マップのニューロンをポイントとして表示する楽曲マップ表示画面55をPC表示部20に表示させる。楽曲マップ表示画面55は、図18を参照すると、検索の中心とするニューロンを選択するニューロン選択領域551と、選択されたニューロンに基づく検索を指示するマップ検索実行ボタン552とからなる。
In the present embodiment, since the music registration device 10 includes user preference data, when a representative song is selected from the song list (step F4), a song with a high preference is given priority. By doing so, the frequency with which the music that the user wants to select is displayed at an early stage can be improved, and the representative music can be selected efficiently.
When the music map display button 514 is clicked on the search condition input screen 51, the music search unit 18 causes the PC display unit 20 to display a music map display screen 55 that displays the music map neurons as points. Referring to FIG. 18, the music map display screen 55 includes a neuron selection area 551 for selecting a neuron as a search center and a map search execution button 552 for instructing a search based on the selected neuron.

ユーザがニューロン選択領域551に表示されているニューロンの中から検索の中心とするニューロンを選択し、マップ検索実行ボタン552をクリックすることで、ステップF5で特定される代表ニューロンの替わりに、ニューロン選択領域551で選択されたニューロンに基づく検索が楽曲検索部18に指示され、以下、ステップF6〜ステップF12の楽曲検索動作が行われる。
なお、ニューロン選択領域551においては、楽曲データが配置されているニューロンのみが表示され、楽曲がマッピンクされているニューロンにカーソルを移動させると、カーソルが位置するニューロンに配置されている楽曲データの楽曲名のポップアップ表示553が行われるように構成されている。
When the user selects a neuron as a search center from the neurons displayed in the neuron selection area 551 and clicks the map search execution button 552, the neuron is selected instead of the representative neuron specified in step F5. A search based on the neuron selected in the region 551 is instructed to the music search unit 18, and the music search operation in steps F 6 to F 12 is performed thereafter.
In the neuron selection area 551, only the neuron where the music data is arranged is displayed, and when the cursor is moved to the neuron where the music is mapped, the music data of the music data arranged in the neuron where the cursor is located A name pop-up display 553 is performed.

また、検索条件入力画面51において、自動選曲実行ボタン515がクリックされると、楽曲検索部18は、携帯端末30の端末楽曲データベース32の空き容量に応じ、ユーザの嗜好度の強い楽曲を優先し容量が越えない範囲で最適な選曲を自動で行なう。
ここで本実施の形態における自動選曲の動作につき、以下にさらに詳細に説明する。図8(a)を参照すると、嗜好データのモデルとして、x-y平面に印象マップの座標を対応させ、ユーザの嗜好回数をz軸方向にとった。このモデルを山になぞらえると、z軸方向のある標高を定め等高線を考え、基準より高い部分に対応する楽曲はユーザに嗜好されており、高いほど嗜好度が強いと見なすことができる。楽曲マップ上の楽曲間に距離の考え方が適用できるシステムであるため、単に選曲された履歴のある楽曲のみに限らず、選曲された履歴のある楽曲のマップ上近傍の履歴の無い楽曲にも相当の嗜好データを付与し処理することで、使用者の嗜好に沿った精度のよい選曲を行なえる。連続的嗜好テーブルを用いると、z軸方向の基準値をパラメータとして変化させ、等高線より上の楽曲グループと、等高線より下の楽曲グループにそれぞれ、まとまりのあるグループを選出することができる。
When the automatic music selection execution button 515 is clicked on the search condition input screen 51, the music search unit 18 gives priority to the music with a strong user preference according to the free space of the terminal music database 32 of the mobile terminal 30. Automatically selects the best songs as long as the capacity is not exceeded.
Here, the operation of automatic music selection in the present embodiment will be described in more detail below. Referring to FIG. 8A, as a model of preference data, the coordinates of the impression map are associated with the xy plane, and the user's preference count is taken in the z-axis direction. If this model is compared to a mountain, a certain altitude in the z-axis direction is determined, and contour lines are considered. The music corresponding to a portion higher than the reference is preferred by the user, and the higher the higher the preference, the higher the preference. Since it is a system that can apply the concept of distance between songs on the song map, it is not limited to songs with a history of selected songs, but also equivalent to songs without history in the neighborhood of songs with a selected history By assigning and processing the preference data, it is possible to perform accurate music selection in accordance with the user's preference. By using the continuous preference table, it is possible to change the reference value in the z-axis direction as a parameter, and to select a group of music groups above and below the contour line.

単に、代表曲による検索だけでは、印象マップ上局所的に選曲ができるに過ぎず、一度におよそ10曲選曲できる程度である。したがって数百曲から数千曲の楽曲を保存できる携帯端末30に大量の楽曲を選曲し転送する場合、ユーザは代表曲を多数指示せねばならない。また、単に、楽曲に対する嗜好回数の大小で選曲するだけでは、潜在的に嗜好されている楽曲を見捨ててしまうことになり好ましくない。これに対し、本実施の形態によれば、ユーザが携帯端末30に示した嗜好の履歴データを用いて代表曲を入手できるため、ユーザの記憶を頼りに代表曲を選択入力するという手間が省け、選択時のユーザの負担を軽減できるという効果を奏する。   Simply searching with a representative song only allows local selection of music on the impression map, and only about 10 songs can be selected at a time. Therefore, when a large number of songs are selected and transferred to the portable terminal 30 that can store hundreds to thousands of songs, the user must designate a number of representative songs. Also, simply selecting a song based on the number of times of preference for music is not preferable because it would abandon the music that is potentially preferred. On the other hand, according to the present embodiment, since the user can obtain the representative song using the preference history data shown on the portable terminal 30, the labor of selecting and inputting the representative song depending on the user's memory can be saved. There is an effect that the burden on the user at the time of selection can be reduced.

特に、自動選曲実行ボタン515がクリックされたときの自動選曲動作については、上述したように、z軸方向の基準値を決めると、等高線より上の楽曲グループと、等高線より下の楽曲グループにそれぞれ、まとまりのあるグループを選別できることから、例えば前記等高線より上の楽曲のデータ容量の総数を算出できる。そこで、予め判っている携帯端末30データ空き容量を越えない範囲で前記データ容量の総数が最大になるよう、z軸方向の基準値をパラメータとして変化させ、転送にふさわしい楽曲を選出する方法をもちいることができ、処理時にはユーザの負担がほとんどなく自動的に、しかもユーザの嗜好を反映した効率の良い選曲が行なえる。   In particular, with regard to the automatic music selection operation when the automatic music selection execution button 515 is clicked, as described above, when the reference value in the z-axis direction is determined, the music group above the contour line and the music group below the contour line respectively. Since a group of groups can be selected, for example, the total number of data capacities of songs above the contour line can be calculated. Therefore, there is a method of selecting music suitable for transfer by changing the reference value in the z-axis direction as a parameter so that the total number of the data capacity is maximized within a range not exceeding the known mobile terminal 30 data free capacity. Thus, there is almost no burden on the user at the time of processing, and an efficient music selection reflecting the user's preference can be performed.

また、楽曲登録装置10や携帯端末30において、記憶容量の制約等から、楽曲データの消去が必要となる場面がある。いわば消極的選曲をする場合、代表曲検索のようにユーザの記憶を頼りにリストアップできる性格のものでもない。例えて言えば、明るい光のスポットライトを当てることはできても、暗い光のスポットライトを当てることができないことに似ている。本実施の形態では、嗜好データを基に、印象マップ上の距離の関係から演算処理を行ない、嗜好評価値を数値化及び序列化し、定めた基準値との大小比較により、あるまとまりを選出するようにしたため、嗜好評価値が基準値以下のまとまりを消去するとすることで、ユーザの記憶に過度に頼らず迅速にかつ合理的に決定できるようにした。   In the music registration device 10 and the portable terminal 30, there is a scene where the music data needs to be erased due to storage capacity restrictions or the like. In other words, when passive music selection is performed, it is not of a character that can be listed based on the user's memory as in the case of representative song search. For example, it is similar to being able to shine a bright spotlight but not a dark spotlight. In the present embodiment, based on the preference data, calculation processing is performed from the relationship of the distance on the impression map, the preference evaluation values are quantified and ordered, and a certain group is selected by comparing with a predetermined reference value. As a result, it is possible to determine quickly and rationally without relying excessively on the user's memory by deleting the group whose preference evaluation value is below the reference value.

なお、携帯端末30では、送られた連続的嗜好テーブルのデータを参照し、端末楽曲データベース32内のデータを一部削除する必要が生じた場合、連続的嗜好テーブルの嗜好評価値が低い楽曲から順に削除候補決定、又は返送すると良い。従来の単なる嗜好履歴データをそのまま使用する方法では、前記した潜在的に嗜好されている楽曲を区別できず、消去してしまうことになっていた。この操作は楽曲登録装置10との接続を切った後行ってもよい。
図19は、携帯端末30における楽曲検索動作を説明するための端末表示部における表示例である。
In addition, in the portable terminal 30, when it becomes necessary to delete the data in the terminal music database 32 with reference to the data of the sent continuous preference table, from the music with the low preference evaluation value of the continuous preference table. Deletion candidates should be determined or returned in order. In the conventional method of using simple preference history data as it is, the above-described potentially favorite music cannot be distinguished and is to be deleted. This operation may be performed after disconnecting from the music registration device 10.
FIG. 19 is a display example on the terminal display unit for explaining the music search operation in the mobile terminal 30.

楽曲検索部33は、図示しない電源キーによって携帯端末30の電源が投入されると、再生する楽曲データを検索する方法として「書誌データによる検索」、「印象度データによる検索」、「検索リストによる検索」のいずれかを選択するための検索方法選択画面351を端末表示部35に表示し、ユーザは、検索方法選択画面351に表示されている検索方法を十字キーの上下で選択し、決定キー342を押下することで選択した検索方法に基づく楽曲データの検索を楽曲検索部33に指示する。   When the mobile terminal 30 is turned on by a power key (not shown), the music search unit 33 uses “bibliographic data search”, “search by impression degree data”, “search by search list” as a method of searching for music data to be reproduced. A search method selection screen 351 for selecting one of “search” is displayed on the terminal display unit 35, and the user selects a search method displayed on the search method selection screen 351 with the up and down keys of the cross key, and presses the enter key. Pressing 342 instructs the music search unit 33 to search for music data based on the selected search method.

検索方法選択画面351で「書誌データによる検索」が選択された場合には、楽曲検索部33は、「アーティスト」、「アルバム」、「タイトル」の内のいずれかを選択するための一覧表示選択画面352を端末表示部35に表示し、ユーザは、一覧表示選択画面352に表示されている「アーティスト」、「アルバム」、「タイトル」のいずれかを十字キーの上下で選択し、決定キー342を押下することで選択した一覧の表示を楽曲検索部33に指示する。   When “search by bibliographic data” is selected on the search method selection screen 351, the music search unit 33 selects a list display for selecting one of “artist”, “album”, and “title”. The screen 352 is displayed on the terminal display unit 35, and the user selects one of “artist”, “album”, and “title” displayed on the list display selection screen 352 with the up and down keys of the cross key, and the enter key 342. By pressing, the music search unit 33 is instructed to display the selected list.

一覧表示選択画面352で「アーティスト」もしくは「アルバム」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている全楽曲データに対応する書誌データからアーティスト名もしくはアルバム名を読み出し、アーティスト名もしくはアルバム名の一覧を表示するアーティスト・アルバム一覧画面353を端末表示部35に表示する。ユーザは、アーティスト・アルバム一覧画面353に表示されているアーティスト名もしくはアルバム名のいずれかを十字キーの上下で選択し、決定キー342を押下することでアーティスト名もしくはアルバム名に基づく検索を楽曲検索部33に指示し、楽曲検索部33は、選択されたアーティスト名もしくはアルバム名に基づいて端末楽曲データベース32を検索し、該当する楽曲データのタイトル一覧を検索結果画面354として端末表示部35に表示する。なお、一覧表示選択画面352で「タイトル」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている全楽曲データに対応するタイトルを読み出し、読み出したタイトル一覧を検索結果画面354として端末表示部35に表示する。   When “artist” or “album” is selected on the list display selection screen 352, the music search unit 33 searches for the artist name or album name from the bibliographic data corresponding to all music data stored in the terminal music database 32. And an artist / album list screen 353 for displaying a list of artist names or album names is displayed on the terminal display unit 35. The user selects either the artist name or album name displayed on the artist / album list screen 353 with the up / down arrow keys and presses the enter key 342 to search for music based on the artist name or album name. The music search unit 33 searches the terminal music database 32 based on the selected artist name or album name, and displays a title list of the corresponding music data on the terminal display unit 35 as a search result screen 354. To do. When “title” is selected on the list display selection screen 352, the music search unit 33 reads the titles corresponding to all the music data stored in the terminal music database 32 and searches the read title list. The result screen 354 is displayed on the terminal display unit 35.

検索方法選択画面351で「印象度データによる検索」が選択された場合には、楽曲検索部33は、検索条件として印象度データを入力する印象度データ入力画面355を端末表示部35に表示し、ユーザは、十字キーの上下左右で印象度データの各項目の値を選択し、決定キー342を押下することで印象度データに基づく検索を楽曲検索部33に指示する。楽曲検索部33は、印象度データに基づく検索が指示されると、検索条件として入力された印象度データに基づいて端末楽曲データベース32に記憶されている楽曲データを検索し、検索した楽曲データのタイトル一覧を検索結果画面354として端末表示部35に表示する。検索条件として入力された印象度データに基づく楽曲データの検索は、検索条件として入力された印象度データを入力ベクトルxとすると共に、端末楽曲データベース32に記憶されている全楽曲データに対応するそれぞれの印象度データを検索対象ベクトルm(t)∈Rとし、ユークリッド距離‖x−m‖が小さい方から所定数を検索する。なお、Rは、印象度データの各評価項目の評価段階数を示し、nは、印象度データの項目数を示す。 When “Search by impression degree data” is selected on the search method selection screen 351, the music search unit 33 displays an impression degree data input screen 355 for inputting impression degree data as a search condition on the terminal display unit 35. The user selects the value of each item of the impression degree data with the up / down / left / right directions of the cross key and presses the enter key 342 to instruct the music search unit 33 to perform a search based on the impression degree data. When the search based on the impression degree data is instructed, the music search unit 33 searches the music data stored in the terminal music database 32 based on the impression degree data input as the search condition, and the searched music data The title list is displayed on the terminal display unit 35 as a search result screen 354. Music retrieval data based on the input impression data as a search condition, with the input vector x j the input impression data as a search condition, corresponding to all music data stored in the terminal song database 32 Each impression degree data is set as a search target vector m i (t) εR n, and a predetermined number is searched from the one having a smaller Euclidean distance ‖x j −m i ‖. Note that R indicates the number of evaluation stages of each evaluation item of impression degree data, and n indicates the number of items of impression degree data.

なお、携帯端末30においては、楽曲マップ上の楽曲間距離に応じ処理を加えた検索用嗜好データを得ることができることから、検索結果画面354のリスト表示に加えて、例えば、図8(a)に示したような立体表現のマップを表示し、リストアップされた楽曲の前記立体表現マップ上での位置をユーザにわかりやすく表示を行ない、より精度良く検索することもできる。   In addition, in the portable terminal 30, since the preference data for search which added the process according to the distance between music on a music map can be obtained, in addition to the list display of the search result screen 354, for example, FIG. The map of the three-dimensional expression as shown in Fig. 2 is displayed, and the position of the listed music on the three-dimensional expression map is displayed in an easy-to-understand manner for the user, so that the search can be performed with higher accuracy.

検索方法選択画面351で「検索リストによる検索」が選択された場合には、楽曲検索部33は、端末楽曲データベース32に記憶されている検索リストの一覧を検索リスト一覧画面356として端末表示部35に表示し、ユーザは、検索リスト一覧画面356に表示されている検索リストのいずれかを十字キーの上下で選択し、決定キー342を押下することで選択した検索リストの表示を楽曲検索部33に指示し、楽曲検索部33は、選択された検索リストのタイトル一覧を検索結果画面354として端末表示部35に表示する。   If “search by search list” is selected on the search method selection screen 351, the music search unit 33 uses the search list list 356 as a search list list stored in the terminal music database 32, and the terminal display unit 35. The user selects one of the search lists displayed on the search list list screen 356 with the up and down keys of the cross key and presses the enter key 342 to display the display of the selected search list. The music search unit 33 displays the title list of the selected search list on the terminal display unit 35 as a search result screen 354.

検索結果画面354が表示されている状態で、十字キー341の右が押下されると、楽曲検索部33は、検索結果画面354が表示されたタイトル一覧に対応する楽曲データを端末楽曲データベース32から順次読み出し、読み出した楽曲データを音声出力部22に出力して音声出力させる。また、検索結果画面354が表示されている状態で、十字キー341の上下でいずれかのタイトルを選択した上で十字キー341の左が押下されると、楽曲検索部33は、選択されたタイトルに対応する楽曲データのみを端末楽曲データベース32から読み出し、読み出した楽曲データを音声出力部22に出力して音声出力させる。   When the right side of the cross key 341 is pressed while the search result screen 354 is displayed, the music search unit 33 sends the music data corresponding to the title list on which the search result screen 354 is displayed from the terminal music database 32. Sequentially read out, and the read music data is output to the audio output unit 22 for audio output. When the search result screen 354 is displayed and the left of the cross key 341 is pressed after selecting one of the titles with the up and down keys of the cross key 341, the music search unit 33 selects the selected title. Only the music data corresponding to is read from the terminal music database 32, and the read music data is output to the audio output unit 22 for audio output.

さらに、検索結果画面354が表示されている状態で、十字キー341の上下でいずれかのタイトルを選択した上で、決定キー342が押下されると、楽曲検索部33は、選択されたタイトルを代表曲とする代表曲検索を行い、代表曲検索結果を検索結果画面354として端末表示部35に表示する。なお、楽曲検索部33で行われる代表曲検索は、端末楽曲データベース32に記憶されたニューロンの座標と検索テーブルとに基づいて行われ、上述した楽曲登録装置10の楽曲検索部18で行われる代表曲検索と同様の手順で行われる。   Further, when the search result screen 354 is displayed and one of the titles is selected with the up and down keys of the cross key 341 and then the enter key 342 is pressed, the music search unit 33 selects the selected title. A representative song search as a representative song is performed, and the representative song search result is displayed on the terminal display unit 35 as a search result screen 354. The representative music search performed by the music search unit 33 is performed based on the neuron coordinates and the search table stored in the terminal music database 32, and the representative music search performed by the music search unit 18 of the music registration apparatus 10 described above. The procedure is the same as the song search.

また、携帯端末30に転送されている楽曲についていえば、例えば、特定の楽曲がある期間集中的に再生され、印象マップ上の近傍の楽曲に見向きもされない状態であっても、本実施の形態によれば、印象マップ上の近傍の楽曲も漏れることなく携帯端末30に転送され続け、あるとき特定の楽曲が聞き飽きられる状況になった時、近傍の楽曲の中からユーザの嗜好に合った代替曲を速やかに選ぶことができる。すなわち、単なる嗜好履歴データと比べより潜在的に嗜好されている楽曲を漏らさず、精度高く検索できる。
なお、指定された楽曲が再生されれば前述のとおり、端末楽曲データベース32内の、再生中の楽曲に対応する印象マップ上の座標(x,y)に対する嗜好ポイント値は加算更新され、楽曲登録装置10と携帯端末30の接続時、離散的嗜好テーブルとして転送される。
Further, regarding the music transferred to the mobile terminal 30, for example, even if a specific music is played intensively for a certain period and is not viewed by nearby music on the impression map, the present embodiment According to the above, music in the vicinity on the impression map continues to be transferred to the mobile terminal 30 without leaking, and when a particular music becomes tired of listening at a certain time, it matches the user's preference from among the music in the vicinity You can quickly choose alternative songs. That is, it is possible to search with high accuracy without leaking a song that is potentially preferred compared to simple preference history data.
If the designated music is played, the preference point value for the coordinates (x, y) on the impression map corresponding to the music being played in the terminal music database 32 is added and updated as described above, and the music is registered. When the device 10 and the mobile terminal 30 are connected, the data is transferred as a discrete preference table.

以上説明したように、本実施の形態によれば、楽曲登録装置10においては、ユーザが携帯端末30に示した嗜好の履歴データの転送を受け、嗜好データを用いて代表曲検索に基づく精度の高い選曲ができる。さらに、ユーザが携帯端末30に示した嗜好の履歴データを用いて代表曲を入手できるため、ユーザの記憶を頼りに代表曲を選択入力するという手間が省け、選択時のユーザの負担を軽減できるという効果を奏する。また、楽曲マップ上の楽曲間に距離の考え方が適用できるシステムであるため、単に選曲された履歴のある楽曲のみに限らず、選曲された履歴のある楽曲のマップ上近傍の履歴の無い楽曲にも相当の嗜好データを付与し処理することで、使用者の嗜好に沿った精度のよい選曲を行なえる。   As described above, according to the present embodiment, in the music registration device 10, the user receives the transfer of the preference history data shown on the mobile terminal 30, and the accuracy based on the representative song search using the preference data. High music selection. Furthermore, since the user can obtain the representative song using the preference history data shown on the mobile terminal 30, it is possible to save the user from having to select and input the representative song depending on the user's memory, and to reduce the burden on the user at the time of selection. There is an effect. In addition, since it is a system that can apply the concept of distance between songs on the song map, it is not limited to songs with a history of selected songs, but also songs without history on the map of songs with a selected history. In addition, by assigning and processing considerable preference data, it is possible to select music with high accuracy in accordance with the user's preference.

また、携帯端末30においては、楽曲マップ上の楽曲間距離に応じ処理を加えた検索用嗜好データを得ることができることから、例えば、特定の楽曲がある期間集中的に再生され、印象マップ上の近傍の楽曲に見向きもされない状態であっても、本実施の態様によれば、印象マップ上の近傍の楽曲も漏れることなく携帯端末30に転送され続け、あるとき特定の楽曲が聞き飽きられる状況になった時、近傍の楽曲の中からユーザの嗜好に合った代替曲を速やかに選ぶことができる。すなわち、単なる嗜好履歴データと比べより潜在的に嗜好されている楽曲を漏らさず、精度高く選曲できる。   In addition, since the mobile terminal 30 can obtain the search preference data that is processed according to the distance between songs on the song map, for example, the particular song is played back intensively for a certain period and is displayed on the impression map. Even in a state in which the neighboring music is not viewed, according to this embodiment, the neighboring music on the impression map continues to be transferred to the mobile terminal 30 without leaking, and a certain music can be tired of hearing at some time. Then, it is possible to quickly select an alternative song that suits the user's preference from nearby songs. That is, it is possible to select music with high accuracy without leaking a song that is potentially preferred compared to simple preference history data.

さらに、転送される嗜好データの経時的特徴を分析することにより、楽曲登録装置10および携帯端末30においては、「印象度」だけでは対応できない、「聴き飽きた」とか「ひさしぶり」といったユーザの時間的心理変化に対応し、固有の使用者ごとに、満足度を高めることができる。嗜好データに時間的要素を持ち込むことで多彩な、期待通りの選曲を行なうことができるという効果を奏する。
また、補間処理は、サンプル数を増やすとか次数を上げる等で、より補間効果を高めることができるが、このような嗜好データの高度な処理を本実施の形態では楽曲登録装置10で行ない、楽曲データ転送のついでに嗜好データの処理結果のみ転送を合わせて受けるだけでよく、携帯端末30側では特段電池寿命を損なうことなく、動作できるという効果を奏する。
Furthermore, by analyzing the temporal characteristics of the preference data to be transferred, the music registration device 10 and the mobile terminal 30 are not able to deal with “impression level” alone, such as “I'm tired of listening” or “Long time”. Responding to temporal psychological changes, satisfaction can be increased for each unique user. Bringing time elements into preference data has the effect of making it possible to perform a variety of music selections as expected.
In addition, the interpolation process can further enhance the interpolation effect by increasing the number of samples or increasing the order, etc., but in this embodiment such advanced processing of preference data is performed by the music registration device 10, Only the processing result of the preference data needs to be received together with the data transfer, and the mobile terminal 30 can be operated without deteriorating the battery life.

また、楽曲登録装置10や携帯端末30において、記憶容量の制約等から、楽曲データの消去が必要となる場面では、嗜好データを基に、印象マップ上の距離の関係から演算処理を行ない、嗜好評価値を数値化及び序列化し、定めた基準値との大小比較により、あるまとまりを選出するようにしたため、嗜好評価値が基準値以下のまとまりを消去するとすることで、ユーザの記憶に過度に頼らず迅速にかつ合理的に決定できる。   In addition, in the music registration device 10 or the mobile terminal 30, in a scene where erasure of music data is necessary due to storage capacity restrictions, etc., calculation processing is performed based on the relationship between distances on the impression map based on preference data. Since the evaluation values are digitized and ordered, and a certain group is selected by comparing with the set reference value, it is excessively stored in the user's memory by deleting the group whose preference evaluation value is below the reference value Make decisions quickly and reasonably without reliance.

なお、本発明が上記各実施の形態に限定されず、本発明の技術思想の範囲内において、各実施の形態は適宜変更され得ることは明らかである。また、上記構成部材の数、位置、形状等は上記実施の形態に限定されず、本発明を実施する上で好適な数、位置、形状等にすることができる。なお、各図において、同一構成要素には同一符号を付している。   Note that the present invention is not limited to the above-described embodiments, and it is obvious that the embodiments can be appropriately changed within the scope of the technical idea of the present invention. In addition, the number, position, shape, and the like of the constituent members are not limited to the above-described embodiment, and can be set to a suitable number, position, shape, and the like in practicing the present invention. In each figure, the same numerals are given to the same component.

本発明に係る楽曲管理システムの実施の形態の構成を示すブロック図である。It is a block diagram which shows the structure of embodiment of the music management system which concerns on this invention. 図1に示す携帯端末の構成を示す前面図である。It is a front view which shows the structure of the portable terminal shown in FIG. 図1に示す楽曲登録装置における楽曲登録動作を説明するためのフローチャートである。It is a flowchart for demonstrating the music registration operation | movement in the music registration apparatus shown in FIG. 図1に示す特徴データ抽出部における特徴データ抽出動作を説明するためのフローチャートである。It is a flowchart for demonstrating the feature data extraction operation | movement in the feature data extraction part shown in FIG. 図1に示す印象度データ変換部で用いられる階層型ニューラルネットワーク例を示す説明図である。It is explanatory drawing which shows the hierarchical neural network example used by the impression degree data conversion part shown in FIG. 図1に示す楽曲マッピング部が楽曲データをマッピングする楽曲マップ例を示す説明図である。It is explanatory drawing which shows the example of a music map which a music mapping part shown in FIG. 1 maps music data. 図1に示す楽曲データベースに記憶される検索テーブル例を示す図である。It is a figure which shows the example of a search table memorize | stored in the music database shown in FIG. 図1に示す携帯端末における印象マップ上の座標に対する嗜好テーブルの保存形式の例である。It is an example of the preservation | save format of the preference table with respect to the coordinate on the impression map in the portable terminal shown in FIG. 図1に示す楽曲登録装置と携帯端末を接続時の動作を説明するためのフローチャートの例である。It is an example of the flowchart for demonstrating the operation | movement at the time of connecting the music registration apparatus and portable terminal which are shown in FIG. 図1に示す携帯端末における嗜好ポイントカウント動作を説明するためのフローチャートの例である。It is an example of the flowchart for demonstrating the preference point count operation | movement in the portable terminal shown in FIG. 図9に示す楽曲登録装置における嗜好テーブルの補間処理の詳細フローチャートの例である。It is an example of the detailed flowchart of the interpolation process of the preference table in the music registration apparatus shown in FIG. 図1に示す楽曲登録装置と携帯端末における楽曲データ、検索テーブルおよび検索リストのデータ構成例を説明するための説明図である。It is explanatory drawing for demonstrating the data structural example of the music data in the music registration apparatus shown in FIG. 1, and a portable terminal, a search table, and a search list. 図1に示す楽曲登録装置における楽曲検索動作を説明するためのフローチャートである。It is a flowchart for demonstrating the music search operation | movement in the music registration apparatus shown in FIG. 図1に示すPC表示部に表示される検索条件入力画面例を示す図である。It is a figure which shows the example of a search condition input screen displayed on the PC display part shown in FIG. 図1に示すPC表示部に表示される条件検索結果表示画面例を示す図である。It is a figure which shows the example of a condition search result display screen displayed on the PC display part shown in FIG. 図1に示すPC表示部に表示される代表曲検索結果表示画面例を示す図である。It is a figure which shows the example of a representative music search result display screen displayed on the PC display part shown in FIG. 図1に示すPC表示部に表示される楽曲リスト表示画面例を示す図である。It is a figure which shows the example of a music list display screen displayed on the PC display part shown in FIG. 図1に示すPC表示部に表示される楽曲マップ表示画面例を示す図である。It is a figure which shows the example of a music map display screen displayed on the PC display part shown in FIG. 図2に示す携帯端末の端末表示部における表示例を示す図である。It is a figure which shows the example of a display in the terminal display part of the portable terminal shown in FIG.

符号の説明Explanation of symbols

10 楽曲登録装置
11 楽曲データ入力部
12 圧縮処理部
13 特徴データ抽出部
14 印象度データ変換部
15 楽曲データベース
16 楽曲マッピング部
17 楽曲マップ記憶部
18 楽曲検索部
19 PC操作部
20 PC表示部
21 送受信部
22 音声出力部
23 データ伝送路
30 携帯端末
31 送受信部
32 端末楽曲データベース
33 楽曲検索部
34 端末操作部
35 端末表示部
36 音声出力部
37 回数カウンタ部
DESCRIPTION OF SYMBOLS 10 Music registration apparatus 11 Music data input part 12 Compression processing part 13 Feature data extraction part 14 Impression degree data conversion part 15 Music database 16 Music mapping part 17 Music map memory | storage part 18 Music search part 19 PC operation part 20 PC display part 21 Transmission / reception Unit 22 audio output unit 23 data transmission path 30 portable terminal 31 transmission / reception unit 32 terminal music database 33 music search unit 34 terminal operation unit 35 terminal display unit 36 audio output unit 37 number counter unit

Claims (7)

入力された楽曲データを記憶する楽曲登録装置と、前記楽曲登録装置に接続可能に構成され、接続時、前記楽曲登録装置において選出された楽曲データを転送し記憶する携帯端末とからなる楽曲管理システムであって、
前記携帯端末は、楽曲の再生動作に伴い生成される使用者の嗜好状態を反映するユーザ嗜好データを生成する嗜好データ生成手段と、前記楽曲登録装置との接続時、前記生成されたユーザ嗜好データを前記楽曲登録装置に転送する嗜好データ転送手段とを有し、
前記楽曲登録装置は、前記入力された各楽曲データから人間の感性によって判断される印象度データを抽出する手段と、各楽曲データから抽出された前記印象度データおよび前記携帯端末から送信されたユーザ嗜好データとに基づき、前記楽曲登録装置に記録される楽曲から前記携帯端末へ転送する楽曲を選出する楽曲選出手段とを有してなることを特徴とする楽曲管理システム。
A music management system comprising: a music registration device that stores input music data; and a portable terminal that is configured to be connectable to the music registration device and transfers and stores music data selected by the music registration device when connected Because
The mobile terminal generates the user preference data generated when connecting the preference data generating means for generating user preference data reflecting the user's preference status generated along with the music playback operation and the music registration device. And a preference data transfer means for transferring to the music registration device,
The music registration device includes: means for extracting impression degree data determined by human sensibility from the input music data; the impression data extracted from each music data; and a user transmitted from the portable terminal A music management system comprising music selection means for selecting music to be transferred to the mobile terminal from music recorded in the music registration device based on preference data.
前記ユーザ嗜好データ生成手段は、前記携帯端末における楽曲の再生動作回数をカウントする手段を含んでなることを特徴とする、請求項1に記載の楽曲管理システム。   The music management system according to claim 1, wherein the user preference data generation means includes means for counting the number of music reproduction operations in the portable terminal. 前記ユーザ嗜好データ生成手段は、前記携帯端末における楽曲の再生動作回数をカウントするとともに、各再生がなされた日付あるいは日時に基づく時間的要素を記憶する手段を含んでなることを特徴とする、請求項1に記載の楽曲管理システム。   The user preference data generation means includes means for counting the number of music reproduction operations in the portable terminal and storing a time element based on the date or date when each reproduction was performed. Item 2. The music management system according to Item 1. 前記楽曲選出手段は、前記ユーザ嗜好データをスレッショルドとして設定する手段を含んでなることを特徴とする、請求項1乃至3のいずれか1項に記載の楽曲管理システム。   The music management system according to any one of claims 1 to 3, wherein the music selection means includes means for setting the user preference data as a threshold. 前記楽曲選出手段は、前記携帯端末で生成した嗜好データを基に前記印象度の近似度に応じた補間処理をする手段を含んでなることを特徴とする、請求項1乃至4のいずれか1項に記載の楽曲管理システム。   The music selection means includes means for performing interpolation processing according to the degree of approximation of the impression degree based on preference data generated by the portable terminal. The music management system according to item. 入力された楽曲データを楽曲データベースに記憶させる楽曲登録装置と、当該楽曲登録装置に接続可能に構成され、前記楽曲データベースに記憶された前記楽曲データが転送される端末楽曲データベースを有する携帯端末とからなる楽曲管理システムであって、
前記楽曲登録装置は、入力された前記楽曲データから物理的な特徴データを抽出する特徴データ抽出手段と、該特徴データ抽出手段によって抽出された前記特徴データを人間の感性によって判断される印象度データに変換する印象度データ変換手段と、該印象度データ変換手段に変換された前記印象度データに基づいて、入力された前記楽曲データを座標が付与された複数の部分空間に分割された楽曲マップにマッピングすると共に、前記部分空間の座標と前記部分空間に配置されている前記楽曲データとからなる検索テーブルを作成する楽曲マッピング手段と、前記楽曲データベースに記憶された前記楽曲データと共に前記楽曲マッピング手段によって作成された前記検索テーブルを前記携帯端末に転送する楽曲データ送信手段とを具備し、
前記携帯端末は、前記楽曲登録装置の前記楽曲データ送信手段から転送された前記楽曲データおよび前記検索テーブルを前記端末楽曲データベースに記憶させる楽曲データ受信手段と、代表曲を特定した代表曲検索の指示入力を受け付ける端末操作手段と、該端末操作手段によって特定された前記代表曲に基づいて前記検索テーブルを検索して所定数の前記楽曲データを特定する楽曲検索手段と、該楽曲検索手段によって検索された前記楽曲データを音声出力する音声出力手段と音声出力動作の使用者の反映がされたユーザ嗜好データをカウントする、嗜好データカウント手段と、嗜好データを前記楽曲登録装置に転送する嗜好データ送信手段とを具備し、
さらにまた、前記楽曲登録装置は、前記携帯端末からの嗜好データを受信し前記楽曲データベースに記憶させる嗜好データ受信手段と、各楽曲ごとに対応付けられた印象度データおよび前記嗜好データを基に、あるまとまりを選出する楽曲選出手段とを具備することを特徴とする楽曲管理システム。
From a music registration device for storing input music data in a music database, and a portable terminal configured to be connectable to the music registration device and having a terminal music database to which the music data stored in the music database is transferred A music management system
The music registration device includes: feature data extraction means for extracting physical feature data from the input music data; and impression degree data for judging the feature data extracted by the feature data extraction means based on human sensitivity An impression degree data converting means for converting to music, and a music map obtained by dividing the input music data into a plurality of partial spaces to which coordinates are assigned based on the impression degree data converted to the impression degree data converting means The music mapping means for creating a search table comprising the coordinates of the partial space and the music data arranged in the partial space, and the music mapping means together with the music data stored in the music database Music data transmission means for transferring the search table created by the mobile terminal to the portable terminal.
The portable terminal includes a song data receiving unit that stores the song data and the search table transferred from the song data transmission unit of the song registration apparatus in the terminal song database, and a representative song search instruction that specifies a representative song. A terminal operating means for receiving an input; a music searching means for searching the search table based on the representative song specified by the terminal operating means to specify a predetermined number of the music data; Voice output means for outputting the music data as voice, preference data counting means for counting user preference data reflected by the user of the voice output operation, and preference data transmission means for transferring the preference data to the music registration device. And
Furthermore, the music registration device is based on preference data receiving means for receiving preference data from the mobile terminal and storing it in the music database, impression degree data associated with each song, and the preference data. A music management system comprising music selection means for selecting a certain unit.
入力された楽曲データを記憶する前記楽曲登録装置と接続可能に構成される携帯端末とからなる楽曲管理システムにおいて、
前記携帯端末は、楽曲の再生動作に伴い生成される使用者の嗜好状態を反映するユーザ嗜好データを生成し、前記楽曲登録装置との接続時、前記生成されたユーザ嗜好データを前記楽曲登録装置に転送し、
前記楽曲登録装置は、前記入力された各楽曲データから抽出された人間の感性によって判断される印象度データおよび前記携帯端末から送信されたユーザ嗜好データとに基づき、前記楽曲登録装置に記録される楽曲から前記携帯端末へ転送する楽曲を選出することを特徴とする楽曲管理方法。
In a music management system including a portable terminal configured to be connectable with the music registration device that stores input music data,
The portable terminal generates user preference data that reflects a user's preference state generated along with a music playback operation, and the generated user preference data is stored in the music registration device when connected to the music registration device. Forward to
The music registration device is recorded in the music registration device based on impression degree data determined by human sensibility extracted from each input music data and user preference data transmitted from the mobile terminal. A music management method comprising selecting music to be transferred from a music to the portable terminal.
JP2005121789A 2005-04-20 2005-04-20 Music management system and music management method Pending JP2006301890A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005121789A JP2006301890A (en) 2005-04-20 2005-04-20 Music management system and music management method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005121789A JP2006301890A (en) 2005-04-20 2005-04-20 Music management system and music management method

Publications (1)

Publication Number Publication Date
JP2006301890A true JP2006301890A (en) 2006-11-02

Family

ID=37470111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005121789A Pending JP2006301890A (en) 2005-04-20 2005-04-20 Music management system and music management method

Country Status (1)

Country Link
JP (1) JP2006301890A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134484A (en) * 2007-11-30 2009-06-18 Nec Corp Content selection support device, content selection support method and program thereof
JP2010020133A (en) * 2008-07-11 2010-01-28 Sony Corp Playback apparatus, display method, and display program

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271644A (en) * 2002-03-18 2003-09-26 Sharp Corp Information selection system
JP2004171096A (en) * 2002-11-18 2004-06-17 Pioneer Electronic Corp Musical piece searching method, musical piece searching device, and musical piece searching program
JP2005031644A (en) * 2003-06-17 2005-02-03 Matsushita Electric Ind Co Ltd Musical piece selection apparatus and musical piece distribution system

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003271644A (en) * 2002-03-18 2003-09-26 Sharp Corp Information selection system
JP2004171096A (en) * 2002-11-18 2004-06-17 Pioneer Electronic Corp Musical piece searching method, musical piece searching device, and musical piece searching program
JP2005031644A (en) * 2003-06-17 2005-02-03 Matsushita Electric Ind Co Ltd Musical piece selection apparatus and musical piece distribution system

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009134484A (en) * 2007-11-30 2009-06-18 Nec Corp Content selection support device, content selection support method and program thereof
JP2010020133A (en) * 2008-07-11 2010-01-28 Sony Corp Playback apparatus, display method, and display program
JP4640463B2 (en) * 2008-07-11 2011-03-02 ソニー株式会社 Playback apparatus, display method, and display program
US8106284B2 (en) 2008-07-11 2012-01-31 Sony Corporation Playback apparatus and display method

Similar Documents

Publication Publication Date Title
US10885110B2 (en) Analyzing captured sound and seeking a match based on an acoustic fingerprint for temporal and geographic presentation and navigation of linked cultural, artistic, and historic content
JP4622808B2 (en) Music classification device, music classification method, music classification program
EP1215834A1 (en) Information sequence extraction and building apparatus e.g. for producing personalised music title sequences
JP4577412B2 (en) Information processing apparatus, information processing method, and information processing program
KR101090388B1 (en) Method for navigation within a set of audio documents by means of a graphic interface and receiver for navigation by said method
US11093544B2 (en) Analyzing captured sound and seeking a match for temporal and geographic presentation and navigation of linked cultural, artistic, and historic content
JP4962067B2 (en) Music playback device, music playback method, and music playback program
JP4611819B2 (en) Music management apparatus and information display method
JP2011107808A (en) Device, method and program for recommending content
CN100456268C (en) Content distributing server, content distributing method, and content distributing program
CN101256586B (en) Information processing apparatus, information processing method, and program
WO2012173021A1 (en) Information processing device, information processing method and program
JP2006301890A (en) Music management system and music management method
JP2010015441A (en) Information processor, content information retrieval method, and information processing system
JP2013003685A (en) Information processing device, information processing method and program
JP4279274B2 (en) Mobile terminal device and music information display method
JP4313343B2 (en) Portable terminal device and information display method
JP2005309712A (en) Musical piece retrieval system and musical piece retrieval method
JP2006323438A (en) Musical piece retrieval system
JP5834514B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP5195879B2 (en) Music search / playback apparatus, music search / playback method, and music search / playback program
JP2007012222A (en) Portable terminal equipment and song selecting method
TWI780333B (en) Method for dynamically processing and playing multimedia files and multimedia play apparatus
JP4246101B2 (en) Music search system and music search method
JP2006195619A (en) Information retrieval device, and information retrieval method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070822

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20100210

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20100615