JP2004086189A - Musical piece retrieval system - Google Patents

Musical piece retrieval system Download PDF

Info

Publication number
JP2004086189A
JP2004086189A JP2003185334A JP2003185334A JP2004086189A JP 2004086189 A JP2004086189 A JP 2004086189A JP 2003185334 A JP2003185334 A JP 2003185334A JP 2003185334 A JP2003185334 A JP 2003185334A JP 2004086189 A JP2004086189 A JP 2004086189A
Authority
JP
Japan
Prior art keywords
music
unit
impression
situation
parameter
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2003185334A
Other languages
Japanese (ja)
Inventor
Junichi Tagawa
田川 潤一
Masayuki Misaki
三▲さき▼ 正之
Hiroaki Yamane
山根 裕明
Masako Ono
小野 雅子
Ryoichi Yagi
矢木 良一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Holdings Corp
Original Assignee
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Matsushita Electric Industrial Co Ltd filed Critical Matsushita Electric Industrial Co Ltd
Priority to JP2003185334A priority Critical patent/JP2004086189A/en
Publication of JP2004086189A publication Critical patent/JP2004086189A/en
Withdrawn legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To provide a musical piece retrieval system which enables a user to easily listen to music meeting situations. <P>SOLUTION: The musical piece retrieval system for performing retrieval of musical pieces is provided with a musical piece data storage section 19, a position acquiring section 16, a parameter conversion section 17, a musical piece retrieval section 20, and a reproducing section 15. The storage section 19 coordinates a plurality of musical piece data and musical piece parameters and stores the same. The acquiring section 16 acquires the situation parameters. The conversion section 17 converts the situation parameters acquired by the acquiring section 16 to musical piece parameters. The retrieval section 20 performs the retrieval of the musical pieces stored into the storage section 19 by using the musical piece parameters converted by the conversion section 17 and selects the musical pieces to be reproduced. The reproducing section 15 reproduces the musical pieces selected by the retrieval section 20. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、楽曲検索システムおよび方法に関し、より特定的には、シチュエーションに応じて、ユーザが聞きたいと思われる楽曲を検索する楽曲検索システムに関する。
【0002】
【従来の技術】
従来、カーオーディオ分野等で、その場のシチュエーションに応じた音楽を自動的に再生する技術が考えられている。例えば、経路情報や車の位置情報に応じて、予め指定しておいた音楽ソース(例えば、CD、ラジオ、カセットテープ等)で音楽を再生する技術がある(例えば、特許文献1参照。)。この技術では、経路情報や車両の位置と音楽を再生すべき音楽ソースとをユーザが予め対応付けておく。
【0003】
図21は、従来の音楽再生装置の構成を示す図である。音楽再生装置は、位置取得部91と、ソース選択部92と、位置−ソース対応テーブル93と、ソース切替部94と、再生部95とを備える。位置取得部91は、車両の現在位置の情報を取得する。ソース選択部92は、位置−ソース対応テーブル93を参照して、位置取得部91によって取得された現在位置の情報に基づいて、再生すべき音楽ソースを選択する。位置−ソース対応テーブル93には、位置情報と、当該位置情報により示される位置およびその位置付近で選択すべき音楽ソースとが対応付けられている。ソース切替部94は、各音楽ソースからの音楽信号を入力し、ソース選択部92によって選択された音楽ソースからの信号を再生部95に出力する。再生部95は、入力された音楽信号を再生する。
【0004】
図21に示す音楽再生装置では、音楽ソースが対応付けられた位置に車両が到達すると、複数の音楽ソース、例えば、CD、ラジオおよびカセットテープ等の中から1つが選択され、選択された音楽ソースで音楽が再生される。これによって、ユーザは、シチュエーションに応じた音楽を自動的に再生することができる。例えば、ユーザは、海沿いをドライブしている時はCDの音楽を聞き、市街地に入ればラジオを聞く、といったことを自動的に行うことができる。さらに、車両の位置と音楽ソースを楽曲単位で設定することによって、例えば海沿いをドライブしている時は海が似合う楽曲が再生されるように設定することもできる。
【0005】
【特許文献1】
特開平8−63946号公報
【0006】
【発明が解決しようとする課題】
上記の技術では、ユーザは、位置とその位置で再生すべき音楽ソースとを予め設定しておかなければならない。従って、シチュエーションに応じた楽曲が再生されるように設定するためには、再生すべき楽曲をユーザが予めチェックしておかなければならない。つまり、設定作業において、ユーザは、楽曲1つ1つについてシチュエーションに合った楽曲か否かを判断しなければならない。以上より、上記の技術では、ユーザの設定作業が煩雑であり、ユーザの負担が大きかった。
【0007】
それ故に、本発明の目的は、シチュエーションに合った音楽を容易に聴くことができる楽曲検索システムを提供することである。
【0008】
【課題を解決するための手段および発明の効果】
上記の目的を達成するため、本発明は、以下に示す特徴を有する。すなわち、本発明は、楽曲の検索を行う楽曲検索システムであって、楽曲データ格納部と、状況取得部と、パラメータ変換部と、楽曲検索部と、再生部とを備えている。楽曲データ格納部は、複数の楽曲のデータと、楽曲の特徴を示す楽曲パラメータとを対応付けて格納する。状況取得部は、ユーザの周囲の状況を示すシチュエーションパラメータを取得する。パラメータ変換部は、状況取得部によって取得されたシチュエーションパラメータを楽曲パラメータに変換する。楽曲検索部は、パラメータ変換部によって変換された楽曲パラメータを用いて楽曲データ格納部に格納されている楽曲の検索を行い、再生すべき楽曲を選択する。再生部は、楽曲検索部によって選択された楽曲を再生する。
【0009】
上記によれば、シチュエーションパラメータが楽曲パラメータに変換され、楽曲パラメータを用いて楽曲の検索が行われる。従って、検索結果として、シチュエーションパラメータを反映した楽曲が選択され、シチュエーションに合った楽曲を再生することができる。さらに、楽曲パラメータによって検索が行われるので、ユーザが特定の楽曲を予め指定する必要がない。従って、煩雑な設定作業が不要であり、ユーザは、シチュエーションに合った音楽を容易に聴くことができる。
【0010】
なお、楽曲パラメータは、楽曲に対して聴者が受ける印象を数量化した印象値であってもよい。ユーザにとって理解しやすい印象値を用いることによって、設定の変更等の作業が容易になる。
【0011】
また、楽曲検索システムは、シチュエーションパラメータと、楽曲パラメータとを対応付けた変換テーブルを格納する変換テーブル格納部をさらに備えていてもよい。このとき、パラメータ変換部は、変換テーブルを用いてシチュエーションパラメータを楽曲パラメータに変換する。これによって、シチュエーションパラメータから楽曲パラメータへの変換を容易に行うことができる。
【0012】
また、楽曲検索システムは、記録受付部と、対応記録部とをさらに備えていてもよい。記録受付部は、ユーザから記録指示を受け付ける。対応記録部は、再生部によって楽曲が再生されている際に記録受付部が記録指示を受け付けた場合、再生中の楽曲の楽曲パラメータと、現時点におけるシチュエーションパラメータとの組を変換テーブルに追加する。これによって、シチュエーションとそのシチュエーションで聞きたい楽曲との対応をユーザによって追加することができる。しかも、ユーザの現在のシチュエーションについて上記対応を追加することができるので、ユーザは、その時点で再生されている楽曲がその場のシチュエーションに合っていると判断すれば、その時点の楽曲とシチュエーションの対応を変換テーブルに追加すればよい。従って、ユーザは変換テーブルへの追加処理を容易に行うことができる。
【0013】
また、楽曲検索システムが移動体に搭載される場合、シチュエーションパラメータは、ユーザとともに移動する移動体の移動状況を示す移動パラメータであってもよい。移動パラメータは、移動体の位置や、移動体の速度を含む概念である。移動パラメータは、ユーザの周囲のシチュエーションに大きな影響を与える。移動パラメータが変化すれば、ユーザの周囲のシチュエーションも変化し、シチュエーションに合った楽曲も変化する。従って、シチュエーションパラメータとして移動パラメータを用いることによって、シチュエーションを合った楽曲を適切に検索することができる。
【0014】
また、移動パラメータは、移動体の位置を示す位置座標であってもよい。このとき、楽曲検索システムは、位置テーブル格納部と、印象値テーブル格納部とをさらに備えていてもよい。位置テーブル格納部は、位置座標と、当該位置座標により示される位置の特徴を表現する位置カテゴリとを対応付けた位置テーブルを格納する。印象値テーブル格納部は、位置カテゴリと、当該位置カテゴリにおいて再生すべき楽曲の印象値とを対応付けた印象値テーブルを格納する。パラメータ変換部は、位置テーブルを用いて、状況取得部によって取得された位置座標を、対応する位置カテゴリに変換する位置カテゴリ変換部と、印象値テーブルを用いて、位置カテゴリ変換部によって変換された位置カテゴリを、対応する印象値に変換する印象値変換部とを含む。
【0015】
上記によれば、シチュエーションパラメータである位置座標は、位置カテゴリに変換された後、印象値に変換される。位置カテゴリは、例えば、「高速道路」や「公園」のように、人間に理解しやすい表現であるので、印象値テーブルの変更はユーザにとって非常に容易である。従って、ユーザは、印象値テーブルを変更することによって楽曲検索システムの設定を容易に変更することができる。
【0016】
また、移動パラメータは、移動体の位置を示す位置座標である場合、以下のようにしてもよい。すなわち、楽曲検索システムは、印象語テーブル格納部と、印象値テーブル格納部とをさらに備えていてもよい。印象語テーブル格納部は、位置座標と、当該位置座標により示される位置において再生すべき楽曲の印象を表現する印象語とを対応付けた印象語テーブルを格納する。印象値テーブル格納部は、印象語と印象値とを対応付けた印象値テーブルを格納する。パラメータ変換部は、印象語テーブルを用いて、状況取得部によって取得された位置座標を、対応する印象語に変換する印象語変換部と、印象値テーブルを用いて、印象語変換部によって変換された印象語を、対応する印象値に変換する印象値変換部とを含む。
【0017】
上記によれば、シチュエーションパラメータである位置座標は、印象語に変換された後、印象値に変換される。印象語は、例えば、「軽快な曲」や「落ち着いた曲」のように、人間に理解しやすい表現であるので、印象語テーブルの変更はユーザにとって非常に容易である。従って、ユーザは、印象語テーブルを変更することによって楽曲検索システムの設定を容易に変更することができる。
【0018】
また、移動パラメータは、移動体の位置を示す位置座標である場合、以下のようにしてもよい。すなわち、楽曲検索システムは、位置テーブル格納部と、印象語テーブル格納部と、印象値テーブル格納部とをさらに備えていてもよい。位置テーブル格納部は、位置座標と、当該位置座標により示される位置の特徴を表現する位置カテゴリとを対応付けた位置テーブルを格納する。印象語テーブル格納部は、位置カテゴリと、当該位置カテゴリにより表現される位置において再生すべき楽曲の印象を表現する印象語とを対応付けた印象語テーブルを格納する。印象値テーブル格納部は、印象語と印象値とを対応付けた印象値テーブルを格納する。パラメータ変換部は、位置カテゴリ変換部と、印象語変換部と、印象値変換部とを含んでいる。位置カテゴリ変換部は、位置テーブルを用いて、状況取得部によって取得された位置座標を、対応する位置カテゴリに変換する。印象語変換部は、印象語テーブルを用いて、位置カテゴリ変換部によって変換された位置カテゴリを、対応する印象語に変換する。印象値変換部は、印象値テーブルを用いて、位置カテゴリ変換部によって変換された位置カテゴリを、対応する印象値に変換する。
【0019】
上記によれば、シチュエーションパラメータから印象値への変換の際に、位置カテゴリおよび印象語が用いられるので、ユーザは、印象語テーブルおよび/または印象値テーブルを変更することによって楽曲検索システムの設定を容易に変更することができる。
【0020】
また、楽曲検索システムは、経路生成部と、地点決定部と、リスト作成部とをさらに備えていてもよい。経路生成部は、所定の2地点間の経路を生成する。地点決定部は、経路上の所定の地点を決定する。リスト作成部は、楽曲検索部によって選択された楽曲のリストを作成する。このとき、状況取得部は、所定の地点の位置座標をシチュエーションパラメータとして取得する。再生部は、リストに従って楽曲を再生する。
【0021】
上記によれば、経路上の地点について、その地点のシチュエーションに合った楽曲を予め検索しておくことができる。従って、実際に経路を移動している間には楽曲の検索処理を行う必要がないので、経路の移動中における楽曲検索システムの処理負担を低減することができる。
【0022】
また、楽曲検索システムは、移動体端末と、当該移動体端末と通信可能なサーバとを備える構成であってもよい。このとき、移動体端末は、状況取得部と、再生部とを含む。サーバは、楽曲データ格納部と、パラメータ変換部と、楽曲検索部とを含む。そして、状況取得部は、取得したシチュエーションパラメータをサーバに送信する。パラメータ変換部は、状況取得部から送信されてくるシチュエーションパラメータを楽曲パラメータに変換する。楽曲検索部は、選択した楽曲のデータを移動体端末へ送信する。再生部は、楽曲検索部から送信されてくる楽曲のデータを受信し、当該楽曲を再生する。
【0023】
上記によれば、移動体端末側では楽曲の検索処理を行う必要がないので、移動体端末の処理負担を低減することができる。さらに、楽曲のデータは、多数の楽曲のデータを保持しておくことが一般的に可能であるサーバに保持されるので、移動体端末において楽曲を保持する場合と比べて、検索対象となる楽曲の数を大幅に増加することができる。従って、シチュエーションに合った楽曲として選択される楽曲の幅が広がり、より多くの楽曲をユーザに提供することができる。
【0024】
また、楽曲データ格納部は、楽曲を識別するための楽曲IDを楽曲のデータと対応付けて格納していてもよい。このとき、楽曲検索システムは、移動体端末と、当該移動体端末と通信可能なサーバとを備える構成である。このとき、移動体端末は、楽曲データ格納部と、状況取得部と、再生部とを含む。サーバは、パラメータ変換部と、楽曲検索部と、サーバ側データ格納部とを含む。サーバ側データ格納部は、楽曲データ格納部に格納されている内容と同内容の情報を少なくとも格納している。そして、状況取得部は、取得したシチュエーションパラメータをサーバに送信する。パラメータ変換部は、状況取得部から送信されてくるシチュエーションパラメータを楽曲パラメータに変換する。楽曲検索部は、選択した楽曲を識別するための楽曲IDを移動体端末へ送信する。再生部は、楽曲検索部から送信されてくる楽曲IDにより示される楽曲を再生する。
【0025】
上記によれば、移動体端末側では楽曲の検索処理を行う必要がないので、移動体端末の処理負担を低減することができる。また、サーバから移動体端末へ楽曲のデータを送信する必要がないので、サーバと移動体端末との間の通信量を低減することができる。
【0026】
なお、本発明に係る楽曲検索システムは、プログラムによって実現することが可能であり、これを記録媒体に記録して移送することにより、独立した他のコンピュータシステムで容易に実施することができる。
【0027】
【発明の実施の形態】
(実施の形態1)
図1は、実施の形態1に係る楽曲検索システムの構成を示すブロック図である。実施の形態1では、楽曲検索システムは、カーナビゲーションシステムの一機能として実現される形態とするが、本システムは、専用の機器であってもよい。図1において、楽曲検索システムは、記憶装置1と、CPU2と、表示装置3と、音声出力装置4と、入力部5と、信号処理部6と、通信制御部7とを備えている。また、信号処理部6は、GPS受信器8と接続されている。
【0028】
記憶装置1は、HDDやメモリ等であり、種々のデータを記憶する。なお、記憶装置1には、音楽CD等の外部記録媒体も含まれる。CPU2は、所定のプログラムによって後述する楽曲検索処理等の各処理を行う。表示装置3は、例えば液晶ディスプレイであり、地図等を表示する。音声出力装置4は、増幅器およびスピーカ等によって構成され、経路案内の際の音声案内に用いられる他、音楽を再生する。入力部5は、ボタンやリモコン等によって構成され、ユーザからの各種入力を受け付ける。信号処理部6は、GPS受信器8からの信号を入力して現在位置情報をCPU2へ出力する。GPS受信器8は、車両に搭載されたアンテナ等によってGPS電波を受信し、車両の現在位置を示す緯度・経度情報を信号処理部6へ出力する。通信制御部7は、インターネット網との通信を確立するインターフェースである。典型的には、通信制御部7は携帯電話等の通信端末(図示しない)を介してインターネットに接続される。なお、実施の形態1では、本システムはカーナビゲーションシステムとして車両に搭載される形態とするが、この形態に限定されず、例えば、ユーザが保持する携帯端末の一機能として実現されてもよい。
【0029】
図2は、実施の形態1に係る楽曲検索システムの機能的な構成を示すブロック図である。図2において、楽曲検索システムは、楽曲データ格納部19と、位置取得部16と、パラメータ変換部17と、変換テーブル格納部18と、楽曲検索部20と、再生部15と、印象値算出部11とを備えている。楽曲検索部20は、印象値検索部13と、楽曲選択部14とを含んでいる。楽曲データ格納部19は、楽曲データベース10と、印象値データベース12とを含んでいる。ここで、楽曲データベース10、印象値データベース12、および変換テーブル格納部18は、記憶装置1によって実現される。位置取得部16、パラメータ変換部17、楽曲検索部20、および印象値算出部11は、所定のプログラム動作を行うCPU2によって実現される。再生部15は、音声出力部4によって実現される。
【0030】
まず、図2の構成の概要を説明する。楽曲データ格納部19は、複数の楽曲のデータと楽曲パラメータとを対応付けて格納する。ここで、楽曲パラメータとは、楽曲の特徴を示すパラメータであり、後述する印象値や特徴量を含む概念である。位置取得部16は、車両の現在位置の情報をGPS受信器8から取得する。ここで、楽曲検索システムは、現在位置の情報に限らず、ユーザの周囲の状況を示す情報を取得するものであればよい。なお、ユーザの周囲の状況を示すパラメータを、シチュエーションパラメータと呼ぶ。シチュエーションパラメータとしては、車両の速度、周囲の騒音、温度、ユーザの脈拍、周囲の明るさ、および現在位置の高度等のパラメータが考えられる。パラメータ変換部17は、位置取得部16によって取得された現在位置の情報を楽曲パラメータに変換する。楽曲検索部20は、パラメータ変換部17によって変換された楽曲パラメータを用いて楽曲データ格納部19に格納されている楽曲の検索を行い、再生すべき楽曲を選択する。再生部15は、楽曲検索部20によって選択された楽曲を再生する。以下、各部の詳細を説明する。
【0031】
楽曲データベース10は、上述の記憶装置1によって構成され、複数の楽曲について音楽信号を格納する。これらの音楽信号は、楽曲を識別するための曲ID(例えば、曲名や曲番号等)によって、所望の音楽信号のデータが呼び出される。これらの音楽信号は、例えば、リニアPCMによる波形データや、AACなどの圧縮されたデータとして格納されている。
【0032】
印象値算出部11は、楽曲データベース10に格納されている楽曲について、印象値を算出する。具体的には、楽曲データベース10から入力される音楽信号の物理的な特徴量を分析し、特徴量を重み付け加算した印象値を算出する。物理的な特徴量としては、スペクトル変化度(所定の時間長のフレーム間でのスペクトル変化の度合い)、平均発音数(楽曲中で発音される音の発音頻度)、発音非周期性(楽曲中で発音される音の非周期性の度合い)、拍周期(楽曲の4分音符に相当する時間長)、拍周期比率(楽曲の4分音符に相当する音と、優勢に発音されている音との周期比率)、第1拍強度(拍周期の概ね半分に相当する周期で発音されている音の強度)、第2拍強度(拍周期の概ね1/4に相当する周期で発音されている音の強度)、拍強度比(第1拍強度と第2拍強度の比率)などが解析される。印象値算出部11は、解析によって得られた、これらの特徴量に対して所定の重み付け加算を行い、印象値を算出する。印象値は、1つ以上、一般的には、2つから5つとする。印象値が2つの場合、楽曲は、2次元空間上の点として表すことができる。5つの場合、楽曲は5次元空間上の点として表される。つまり、楽曲データベース10に格納されている楽曲は、この空間にそれぞれの印象値の座標値を保有することになる。従って、これらの印象値の組によって、楽曲データベース10に格納されている各楽曲を区別、判別することができる。
【0033】
印象値とは、激しさ、躍動感、爽快感、素朴さ、ソフトさ、等のように、人が音楽を聴いたときに感ずる感覚や情緒を表す指標値である。印象値は、それぞれ、上記複数種類の特徴量の線形あるいは非線型の関数として表すことができる。激しさ、躍動感、爽快感、素朴さ、およびソフトさの5種類の印象値を用いれば、楽曲は5次元空間上の点として表される。さらに、激しさおよび躍動感の2つを統合して能動因子とし、爽快感、素朴さ、およびソフトさの3つを統合して情動因子として、5種類の印象値を能動因子と情動因子との2つの印象値にまとめると、楽曲は2次元空間上の点として表される。このような、楽曲の印象値を表した空間座標系を以後、印象空間と呼ぶ。印象値は楽曲を聞いた印象を示す数量である。従って、印象空間上に複数の楽曲の印象値を布置すると、楽曲に対する印象の類似性に応じて印象値が布置されることとなる。すなわち、印象の類似する楽曲は、印象空間上においても近接した位置に布置される。なお、以下の実施の形態の説明においては、印象値は、印象値Xおよび印象値Yの2種類であるとする。
【0034】
図3は、印象空間の例を示す図である。なお、図3は、能動因子および情動因子を印象値として用いた場合の2次元の印象空間である。本実施の形態では、以上に説明したような、特徴量や印象値のデータ登録や楽曲検索を行う方法、略称して、印象検索法を用いるものとする。以上のように算出された印象値は、印象値データベース12に格納される。
【0035】
印象値データベース12は、印象値算出部11により算出された印象値を、楽曲データベース10内の各楽曲の曲IDと対応付けて格納する。実施の形態1では、楽曲データベース10および印象値データベース12という2つのデータベースによって楽曲データ格納部19が構成される。ここで、楽曲データ格納部19は、複数の楽曲のデータと、印象値とを対応付けて格納するものであればよく、1つのデータベースで構成されてもよい。
【0036】
楽曲検索部20は、印象値を用いて楽曲データベース10に格納されている楽曲の検索を行い、再生すべき楽曲を選択する。実施の形態1では、楽曲検索部20は、印象値検索部13と楽曲選択部14とによって構成される。
【0037】
印象値検索部13には、後述するパラメータ変換部17から検索中心座標値が入力される。検索中心座標値は、再生すべき楽曲の、印象空間における座標値である。なお、検索中心座標値の位置に楽曲が実在するとは限らない。印象値検索部13は、印象値データベース12に格納されている楽曲IDと印象値との組を参照して、上記印象空間を生成する。そして、検索中心座標値を中心として、これに近い位置にある楽曲を選択する。具体的には、検索中心座標値と、各楽曲の印象値との間のユークリッド距離を計算し、ユークリッド距離が最も小さいものから優先して1曲または数曲を選択し、選択した楽曲の曲IDを楽曲選択部14へ出力する。ユークリッド距離が小さいということは、検索中心座標値の印象値に近い印象値を有する楽曲が選択されるということである。言い換えると、激しさ、躍動感、爽快感、素朴さ、およびソフトさの値、あるいは、能動因子値および情動因子値がよく似た楽曲が選ばれる。
【0038】
楽曲選択部14は、印象値検索部13から入力される曲IDが複数の場合、その中から1つを選択する。選択は、予め設定されている所定の基準に従って行われる。所定の基準は、どのような基準であってもよく、例えば、以前に再生されていない曲を選ぶようにしたり、ユーザが好きなアーティスト(予め登録しておく)を選ぶようにしてもよい。さらに、楽曲選択部14は、選択した曲IDにより示される楽曲の音楽信号を楽曲データベース10から取得し、再生部15に与える。なお、印象値検索部13が曲IDを1つだけ出力した場合、楽曲選択部14は、その曲IDにより示される楽曲の音楽信号を楽曲データベース10から取得し、再生部15に与える。
【0039】
再生部15は、上述の音声出力装置4によって実現され、楽曲選択部14から入力される音楽信号を再生する。なお、ここでは、再生部15として、増幅器、スピーカを含むものとしたが、再生部15は、楽曲データベース10に格納された音楽信号を、再生するためのものであれば何でもよい。例えば、楽曲データベース10にリニアPCM形式で音楽信号が格納されている場合、再生部15は、DA変換器を含んでいてもよい。楽曲データベース10に圧縮音声符号化情報が格納されている場合は、再生部15は、圧縮を解く伸長部を含んでいてもよい。
【0040】
位置取得部16は、車両の現在位置の情報をGPS受信器8から取得する。そして、取得した現在位置の情報を、緯度・経度情報としてパラメータ変換部17へ出力する。
【0041】
パラメータ変換部17は、変換テーブル格納部18に格納されている変換テーブルを参照して、位置取得部16から入力された緯度・経度情報を、上記検索中心座標値に変換する。変換テーブルは、緯度・経度情報と印象空間における座標値とを対応させたテーブルである。
【0042】
図4は、変換テーブルの一例を示す図である。図4に示すように、変換テーブルにおいては、地図上の地点(緯度・経度情報)と、その地点(シチュエーション)に合った楽曲の印象値(検索中心座標値)とが対応付けられている。つまり、変換テーブルは、地図上の各地点について、その地点で再生すべき楽曲の印象値を示すものである。なお、変換テーブルは、カーナビゲーション装置が有する地図データと組み合わせて、地図上の緯度経度の各位置あるいは主要な位置に印象値を割り当てたデータベースとしておくことができる。また、他の実施の形態においては、変換テーブルは、地図上の範囲と印象値とを対応付けて格納してもよい。
【0043】
パラメータ変換部17は、位置取得部16から緯度・経度情報が入力されると、入力された緯度・経度情報に近い地点が変換テーブル中にないかどうかを調べる。そして、入力された緯度・経度情報に近い地点が変換テーブル中にあった場合、当該地点に対応する印象値XおよびYの値を検索中心座標値とする。以上のように変換された検索中心座標値が、印象値検索部13に入力される。印象値検索部13に検索中心座標値が入力されることによって、当該検索中心座標値に近い(または同じ)値を有する楽曲が検索され、検索によって決定された楽曲が再生されることとなる。
【0044】
以下、実施の形態1に係る楽曲検索システムの処理の流れを説明する。図5は、実施の形態1に係る楽曲検索システムの処理の流れを示すフローチャートである。ここで、実施の形態1の処理は、楽曲の検索を行う際に必要な印象値データベースを作成する処理(ステップS11〜S13)と、車両の位置から当該位置に適した楽曲を自動的に検索して再生する処理(楽曲検索処理)(ステップS21〜S25)との2つに分けられる。これらの処理は、CPU2が所定のプログラム動作を行うことによって実行される。
【0045】
まず、図5に示すステップS11〜S13の処理を説明する。この処理は、車両の走行前に予め実行されておくことが好ましい。図5において、楽曲のデータが楽曲データベース10に格納される(ステップS11)。次に、印象値算出部11は、格納された各楽曲について印象値を算出する(ステップS12)。具体的には、格納された楽曲のデータの音楽信号を分析し、楽曲の特徴量を算出する。そして、算出した特徴量を重み付け加算して印象値を算出する。最後に、印象値算出部11は、算出した印象値を楽曲データベース10内の各楽曲の曲IDと対応付けて、印象値データベース12に格納する(ステップS13)。以上によって、印象値を用いて楽曲の検索を行うために必要となる楽曲データベース10と印象値データベース12とが生成される。なお、他の実施の形態においては、楽曲データベース10および印象値データベース12が予め生成されて提供されても構わない。すなわち、楽曲データベース10および印象値データベース12を記憶した記憶媒体を楽曲検索システムに読み込ませることによって、これらのデータベースを生成してもよい。
【0046】
次に、図5に示すステップS21〜S25の処理を説明する。この処理は、車両の走行中に実行される。この処理は、ユーザからの指定(例えば、検索開始ボタンが押される等)によって開始されてもよいし、所定の時間間隔で定期的に行われるものであってもよい。まず、位置取得部16は、GPS受信器8から信号を入力し、車両の現在位置を表す緯度・経度情報を取得する(ステップS21)。取得された緯度・経度情報は、パラメータ変換部17に渡される。
【0047】
次に、パラメータ変換部17は、上記変換テーブルを参照して、位置取得部16から入力された緯度・経度情報を印象値に変換する(ステップS22)。さらに、変換した印象値を、検索中心座標値として楽曲検索部20へ出力する。検索中心座標値が楽曲検索部20に入力されることによって、楽曲データベース10内の楽曲の検索が行われる。
【0048】
印象値検索部13は、印象値の組(能動因子および情動因子の組)が、入力された検索中心座標値に近い座標値となる楽曲を選択する(ステップS23)。ステップS23の処理の際に、ステップS13で生成された印象値データベース12が参照される。なお、ステップS23で選択される楽曲の数は、1つであってもよいし複数であってもよい。例えば、検索中心座標値に最も近い座標値となる楽曲のみを選択してもよいし、検索中心座標値から所定の距離内にある楽曲をすべて選択するようにしてもよい。選択された楽曲の曲IDは、楽曲選択部14へ出力される。
【0049】
次に、楽曲選択部14は、入力される曲IDの中から1つを選択して、選択した曲IDにより示される楽曲のデータを再生部15へ出力する(ステップS24)。再生部15は、楽曲選択部14から入力された楽曲のデータを再生する(ステップS25)。以上によって、楽曲検索処理が完了する。この楽曲検索処理によって、車両の現在位置に応じたイメージの楽曲が自動的に再生されることとなる。
【0050】
以上のように、実施の形態1によれば、ユーザは、煩雑な操作や設定処理を行わずに、その場のシチュエーションに応じたイメージの楽曲を楽しむことができる。具体的には、ユーザが検索開始ボタンを押すと、現在位置に対応した印象値に近い曲が選ばれて、再生されることが可能である。さらに、ユーザが選曲操作を行う度に、その地点に適した印象の楽曲が選択される。
【0051】
また、連続再生モード(楽曲の再生が終われば、楽曲検索処理を開始する。)にしておけば、車の移動位置に対応して、その時々の最適な印象の楽曲が次々と再生されるようにすることも可能である。なお、楽曲検索処理に時間がかかる場合は、楽曲の再生が終わる少し前から検索中心座標値を更新して距離計算を始めておいてもよい。この場合、楽曲の再生が終わる時点での車両の位置を予測するようにしてもよい。
【0052】
(実施の形態2)
以下、実施の形態2に係る楽曲検索システムについて説明する。実施の形態2に係る楽曲検索システムは、現在位置の情報(緯度・経度情報)を印象値(検索中心座標値)に直接変換するのではなく、現在位置の情報を、位置カテゴリおよび印象語を介して、印象値に変換する。実施の形態2は、このような変換を行うことによって、設定変更をユーザがより容易に行うことができるようにしたものである。なお、実施の形態2においても実施の形態1と同様、楽曲検索システムはカーナビゲーションシステムに組み込まれた形態であるとする。
【0053】
図6は、実施の形態2に係る楽曲検索システムの機能的な構成を示すブロック図である。なお、実施の形態2に係る楽曲検索システムの機能的な構成は、パラメータ変換部17および変換テーブル格納部18の内部構成が異なる点以外は、図2に示す構成と同様であるので、全体の構成を省略する。実施の形態2では、パラメータ変換部17は、位置カテゴリ変換部171と、印象語変換部172と、印象値変換部173とを備えている。変換テーブル格納部18は、位置テーブル格納部181と、印象語テーブル格納部182と、印象値テーブル格納部183とを備えている。
【0054】
図6において、位置カテゴリ変換部171は、位置取得部16の出力する現在位置の情報を入力し、位置カテゴリに変換する。位置カテゴリとは、特徴のある場所を区別する分類語であり、例えば、高速道路、サービスエリア、インタチェンジ、普通道路、公園、海辺、飛行場等である。位置カテゴリは、位置の特徴を示す語句で表現される。位置カテゴリへの変換には、位置テーブル格納部181に格納される位置テーブルが参照される。図7は、位置テーブルの一例を示す図である。図7に示すように、位置テーブルは、緯度・経度情報と、位置カテゴリとを対応付けるものである。例えば、緯度・経度情報が、「北緯34°40’15.4”、東経135°32’09.9”」である場合(および、この地点から所定範囲内の緯度・経度情報である場合)、位置カテゴリは、「高速道路」と判断される。
【0055】
位置カテゴリ変換部171が出力する位置カテゴリは、印象語変換部172に入力される。印象語変換部22は、入力された位置カテゴリを印象語に変換する。印象語とは、楽曲の印象を表現する語句であり、例えば、「軽快な曲」、「なごみ系」、「ラップ調」等、直感的に音楽を表現する言葉である。なお、印象語は、印象値として用いられる語句がそのまま用いられてもよいし、それ以外の語句が用いられてもよい。位置カテゴリから印象語への変換には、印象語テーブル格納部182に格納される印象語テーブルが参照される。図8は、印象語テーブルの一例を示す図である。図8に示すように、印象語テーブルは、位置カテゴリと、印象語とを対応付けるものである。印象語テーブルは、人間にとって非常にわかりやすい(イメージしやすい)語句で表現されているので、テーブルの内容の変更が非常に容易である。なお、例えば、位置カテゴリが「高速道路」である場合、印象語は、「軽快な曲」と判断される。
【0056】
印象値変換部173は、印象語変換部172によって変換された印象語を、印象値に変換する。この変換には、印象値テーブル格納部183に格納される印象値テーブルが参照される。図9は、印象値テーブルの一例を示す図である。印象値テーブルは、印象語と印象値とを対応付けるものである。例えば、印象語が「軽快な曲」である場合、印象値は(印象値X,印象値Y)=(1.35,−0.58)と判断される。なお、印象値テーブルは、印象語と印象値の範囲(例えば、0.3<印象値X<0.6)とを対応付けるものであってもよい。
【0057】
以上のように印象値変換部173によって変換された印象値が、検索中心座標として楽曲検索部20へ出力される。なお、検索中心座標値に対する後の動作処理は、実施の形態1と同じであるので説明を省略する。
【0058】
図10は、実施の形態2における位置情報から印象値への変換処理の詳細を示すフローチャートである。図10に示す処理は、図5のステップS22の処理に対応する。つまり、実施の形態2における全体の処理は図5に示す処理と同様であり、ステップS22の処理に代えて図10に示す処理が行われる。
【0059】
実施の形態2においては、ステップS21の次に、位置カテゴリ変換部171は、位置取得部16から入力された現在位置の情報を位置カテゴリに変換する(ステップS221)。次に、印象語変換部172は、ステップS221において変換された位置カテゴリを印象語に変換する。さらに、印象値変換部173は、ステップS222において変換された印象語を印象値に変換する(ステップS223)。ステップS223の終了後、図5に示すステップS23以降の処理が行われる。
【0060】
なお、実施の形態2で用いられる変換テーブル格納部18の各テーブルは、以下のように作成される。まず、位置カテゴリおよび印象語を予め用意しておく。次に、用意した位置カテゴリに対応する位置情報(緯度・経度情報)を設定し、用意した印象語に対応する印象値を設定する。例えば、位置カテゴリ「高速道路」について、(緯度、経度)が(X1、Y1)から(X2、Y2)を経由して(X3、Y3)までの地点を設定する。また、印象語「踊りたい曲」について、印象空間の座標(ZX1、ZY1)と設定し、印象語「眠りたい曲」について、(ZX2、ZY2)と設定する。最後に、位置カテゴリと印象語との対応付けを行う。この対応付けは、ユーザが行ってもよいし、ユーザによって適宜変更することができるようにしてもよい。位置カテゴリと印象語との組は、例えば「高速道路」と「踊りたい曲」とのような組であるので、ユーザにとって理解しやすい表現であるので、変更が容易である。また、位置カテゴリと印象語との対応付けは、ユーザによっても異なるし、一人のユーザであってもその時の気分やドライブの目的等によって異なる。従って、この対応付けをユーザが容易に変更することができるようにすることは非常に有効である。
【0061】
以上のように、実施の形態2によれば、ユーザは、位置カテゴリおよび印象語を用いて、検索の設定を容易に変更することができる。さらに、ユーザ個人の好みの印象語変換テーブルをプリセットとして作成することできる。
【0062】
なお、実施の形態2においては、位置テーブル、印象語テーブル、および印象値テーブルという3つのテーブルを用いて位置情報を印象値に変換した。ここで、他の実施形態においては、次のような方法で変換を行ってもよい。すなわち、位置情報を位置カテゴリに変換した後、位置カテゴリを印象値に変換する方法であってもよい。つまり、印象値テーブルにおいて、位置カテゴリと印象値とを対応付けるようにしてもよい。このとき、位置カテゴリと印象語とを対応付ける印象語テーブルは不要である。また、位置情報を印象語に変換した後、印象語を印象値に変換してもよい。つまり、印象語テーブルにおいて、位置情報と印象語とを対応付けるようにしてもよい。このとき、位置情報と位置カテゴリとを対応付ける位置テーブルは不要である。
【0063】
(実施の形態3)
以下、実施の形態3に係る楽曲検索システムについて説明する。実施の形態3に係る楽曲検索システムは、ユーザが気に入った楽曲が再生されているときに、その楽曲を楽曲データベース10に追加して印象値による検索を可能にし、位置・印象値変換テーブルに新たな対応を追加することを可能にしたものである。なお、実施の形態3においても実施の形態1と同様、楽曲検索システムはカーナビゲーションシステムに組み込まれた形態であるとする。また、図1には図示していないが、実施の形態3では、音楽を再生する音楽ソースとして、CDプレーヤ、ラジオ等、複数の音楽ソースがシステムに組み込まれているものとする。
【0064】
図11は、実施の形態3に係る楽曲検索システムの機能的な構成を示すブロック図である。図11は、記録受付部31と、対応記録部32と、音楽信号入力部33とをさらに備える点で、図1に示すシステムと異なっている。以下、図1との相違点を中心に説明する。
【0065】
記録受付部31は、入力部5によって実現され、ユーザから記録開始の指示を受け付ける。ユーザは、その時点で再生されている楽曲がその場のシチュエーションに合っていると感じた場合、記録開始を指示するものとする。ここでは、入力部5に「お気に入りボタン」が含まれており、ユーザは、当該お気に入りボタンを押すことによって記録開始を指示することができるものとする。記録開始の指示は、対応記録部32および音響信号入力部33へ出力される。対応記録部32は、記録受付部31から記録開始の指示を入力すると、位置取得部16から現在位置を取得し、かつ、印象値データベース12から印象値を取得する。さらに、取得した現在位置と印象値との対応を変換テーブル格納部18の変換テーブルに追加する。
【0066】
音響信号入力部33は、CDプレーヤやFMラジオ等の音楽ソースから出力される音響信号が随時入力されている。音響信号入力部33は、記録受付部31から記録開始の指示を入力すると、入力した音響信号を、印象値算出部11が解析可能な音楽信号に変換し、印象値算出部11へ出力する。印象値算出部11は、入力された音楽信号について、実施の形態1と同様の方法で、印象値を算出し、印象値データベース12に格納する。
【0067】
以下、楽曲再生中の処理について説明する。図12は、実施の形態3における楽曲再生中の処理の流れを示すフローチャートである。ここで、図12に示す処理は、再生中の楽曲のデータを格納し、印象値を算出する処理(ステップS31〜S35)と、変換テーブルを更新する処理(ステップS36〜S39)との2つに分けられる。これらの処理は、CPU2が所定のプログラム動作を行うことによって実行される。
【0068】
音楽の再生が開始されると、音響信号入力部33は、音楽ソースから出力される音響信号の入力を開始する(ステップS31)。次に、記録受付部31は、記録開始指示があったか否かを判定する(ステップS32)。記録開始指示があるまで記録受付部31は待機する。記録開始指示があると、音響信号入力部33は、入力している楽曲のデータを楽曲データベース10に格納する(ステップS33)。次に、印象値算出部11は、音響信号入力部33から入力される音楽信号の印象値を算出し(ステップS34)、算出した印象値を印象値データベース12に格納する(ステップS35)。以上の処理によって、楽曲の再生中にユーザがお気に入りボタンを押すことによって、当該楽曲を記録し、印象値を算出することができる。
【0069】
次に、変換テーブルを更新する処理を説明する。音楽の再生が開始されると、位置取得部16は、GPS受信器8から現在位置の情報を取得する(ステップS36)。次に、記録受付部31は、記録開始指示があったか否かを判定する(ステップS37)。記録開始指示がない場合、処理はステップS36に戻り、記録開始指示があるまでステップS36およびS37の処理を繰り返す。一方、記録開始指示があった場合、記録受付部31は、対応記録部32に対してテーブルの更新を行うように指示する。これに応じて、対応記録部32は、位置取得部16から現在位置の情報を取得するとともに、印象値データベース12から再生中の楽曲の印象値を取得する(ステップS38)。最後に、対応記録部32は、取得した現在位置の情報と印象値との対応を、変換テーブルに追加するように更新する(ステップS39)。
【0070】
以上のように、実施の形態3によれば、現在位置のシチュエーションにあった楽曲が再生されている場合に、ユーザが「お気に入りボタン」を押すことによって、変換テーブルに新たな内容が追加される。従って、その場所に次回に来たときには、ユーザは、特別の手間を掛けずに、同じ曲、あるいは、よく似た印象の曲を聴くことができる。なお、実施の形態3においても、実施の形態1と同様、現在位置に基づいて導出される印象値に基づいて楽曲が検索されて再生される処理が行われる。
【0071】
なお、実施の形態3において、ユーザは、再生中の楽曲の終わり近くでお気に入りボタンを押すことも考えられる。従って、再生中の楽曲は、お気に入りボタンが押される前から、楽曲データベース10に仮格納し、印象値の算出も仮に始めておくようにしてもよい。そして、お気に入りボタンが押された場合にその時点の現在位置を仮に記憶し、印象値の算出が完了してから変換テーブルを更新するようにしてもよい。なお、この場合、お気に入りボタンが押されなければ、仮格納、仮算出したデータは削除すればよい。
【0072】
また、実施の形態3の方法は、実施の形態2のように、位置カテゴリおよび印象語を用いる場合にも適用可能である。この場合は、例えば、「お気に入りボタン」が押された位置から位置カテゴリおよび印象語を導出し、導出した印象語と再生中の楽曲の印象値との対応を追加するように、印象値テーブルを更新すればよい。なお、印象値テーブルを更新する他、印象語テーブルを更新するようにしてもよい。
【0073】
(実施の形態4)
以下、実施の形態4に係る楽曲検索システムについて説明する。実施の形態4に係る楽曲検索システムは、現在位置に加えてその他の条件も考慮して、楽曲の検索を行うものである。なお、実施の形態4においても実施の形態1と同様、楽曲検索システムはカーナビゲーションシステムに組み込まれた形態であるとする。また、図1には図示していないが、実施の形態4では、後述する環境パラメータを検出するためのセンサ(例えば、温度センサや光センサ)が、図1に示す信号処理部6に接続されているものとする。
【0074】
図13は、実施の形態4に係る楽曲検索システムの機能的な構成を示すブロック図である。図13は、環境情報取得部41と、印象値修正部42とをさらに備える点で、図1に示すシステムと異なっている。以下、図1との相違点を中心に説明する。
【0075】
環境情報取得部41は、カーナビゲーションシステムに組み込まれている各種センサから環境パラメータを取得する。環境パラメータとは、例えば、騒音、温度、ユーザの脈拍、周囲の明るさ、および現在位置の高度等を示すパラメータである。騒音は、町中か郊外か、屋外か室内かなどに関係する。温度は、季節や天候に関係する。ユーザの脈拍は、その心理状態に関係する。明るさは、昼か夜か、室内の状況などに関係する。高度は平地か山上かなどに関係する。従って、このような環境パラメータが、ユーザの周囲のシチュエーションに影響を与えるものであると言える。実施の形態4では、位置情報の他に、ユーザの心理に影響を与える因子をも考慮して、検索に用いる印象値(検索中心座標値)を算出する。なお、環境情報取得部41が取得した環境パラメータは、印象値修正部42へ出力される。また、ここでは、カーナビゲーションシステムには温度センサが組み込まれており、環境情報取得部41は環境パラメータとして温度を取得するものとする。
【0076】
印象値修正部42は、パラメータ変換部17から入力された検索中心座標値に対して、その座標値を修正する。この修正は、環境情報取得部41から入力される環境パラメータに基づいて行われる。具体的には、次の方法で修正を行う。すなわち、検索中心座標値を修正するための修正式は、環境パラメータの値と検索中心座標値の関数で表現される。簡単な例としては、検索中心座標値を環境パラメータの値に応じて、所定の方向へシフトするものがある。具体的には、検索中心座標値に含まれる印象値Xの値をx1、環境パラメータの値をx2、修正後の印象値Xの値をx’として、
x’=x1+a*(x2−b)(a、bは定数)
のような修正式を用いればよい。また、
x’=x1*[1+a*(x2−b)]
のような修正式でもよい。
【0077】
次に、実施の形態4に係る楽曲検索システムの処理の流れを説明する。図14は、実施の形態4に係る楽曲検索システムの処理の流れを示すフローチャートである。ここで、実施の形態4においても、実施の形態1と同様、印象値データベースを作成する処理(図1に示すステップS11〜S13)と楽曲検索処理との2つの処理が行われるが、印象値データベースを作成する処理は実施の形態1と同様であるため、図14では省略している。すなわち、図14は、実施の形態1と異なる処理である楽曲検索処理の流れを示す。この処理は、CPU2が所定のプログラム動作を行うことによって実行される。また、図5と同様の処理については、同じステップ番号を付す。
【0078】
ステップS21の処理は図5と同様である。ステップS21の次に、環境情報取得部41は、環境パラメータを取得する(ステップS41)。次に、図1と同様の処理であるステップS22が行われる。ステップS22の次に、印象値修正部42は、ステップS41において取得された環境パラメータに基づいて、ステップS22において変換された印象値を修正する(ステップS42)。この修正は、上述したような関数を用いて行われる。ステップS23以降の処理は、図1と同様である。
【0079】
以上のように、実施の形態4によれば、位置情報のみならず、ユーザの周囲の環境を示す環境パラメータをも用いて楽曲の検索が行われることとなる。例えば、周囲の騒音の音量をセンサで検知する場合には、周囲の騒がしさに応じて検索結果が変わるような検索を行うことができる。具体的には、周囲が騒がしい場合には、より激しい曲が選択されるようにしたり、逆に、より穏やかな曲を選択するように楽曲検索システムを設定することできる。このように、環境パラメータを用いて楽曲の検索を行うことによって、ユーザの周囲のシチュエーションをより細やかに検知することができ、検索結果のバリエーションをより多彩にすることができる。
【0080】
なお、実施の形態4では、1種類の環境パラメータを用いる場合を説明したが、複数の環境パラメータを用いてもよい。また、複数の環境パラメータを用いる場合、環境パラメータの種類ごとに修正式を用意してもよいし、複数種類の環境パラメータの変数を含む1つの修正式を用意してもよい。
【0081】
(実施の形態5)
以下、実施の形態5に係る楽曲検索システムについて説明する。実施の形態5に係る楽曲検索システムは、経路情報に基づいて再生すべき楽曲のリスト(プレイリスト)を作成するものである。なお、実施の形態5においても実施の形態1と同様、楽曲検索システムはカーナビゲーションシステムに組み込まれた形態であるとする。
【0082】
図15は、実施の形態5に係る楽曲検索システムの機能的な構成を示すブロック図である。図15は、経路生成部51と、地点決定部52と、リスト作成部53とをさらに備える点で、図2に示すシステムと異なっている。以下、図2との相違点を中心に説明する。
【0083】
経路生成部51は、カーナビゲーションシステムに格納されている地図データベースや経路データベースから最適経路(以下、単に「経路」と呼ぶ。)を探索し、走行時間等を算出するもので、カーナビゲーション技術では周知のものである。経路生成部51によって生成された経路は、地点決定部52へ出力される。
【0084】
地点決定部52は、平均の曲時間長および車両の平均速度に基づいて、再生する楽曲が切り替わる地点(曲開始地点)を決定する。この決定方法は、例えば、以下のように行われる。具体的には、まず、経路の出発地点を最初の曲開始地点に決定する。最初の曲開始地点に車両が到達すると、最初の楽曲が再生される。次に、平均の曲時間長と車両の平均速度とを乗じて、最初の曲開始地点から次の曲開始地点までの距離を算出する。算出した距離と最初の曲開始地点とに基づいて、2つ目の曲開始地点を決定する。以降、算出した距離と決定した曲開始地点とに基づいて次の曲開始地点を順次決定することによって、経路上の曲開始地点を決定することができる。決定された曲開始地点の緯度・経度情報は、位置取得部16へ出力される。
【0085】
位置取得部16によって取得された緯度・経度情報は、パラメータ変換部17によって印象値に変換され、変換された印象値を用いて楽曲の検索が行われる。検索の結果選択された楽曲が、曲開始地点で再生すべき楽曲となる。楽曲検索部20は、位置取得部16によって取得される各曲開始地点について楽曲を選択する。
【0086】
リスト作成部53は、楽曲検索部20によって選択された楽曲のリストを作成する。リストは、楽曲検索部20から入力される楽曲のデータを含むものであってもよいし、楽曲のIDのみからなるものであってもよい。リストには、楽曲を再生すべき曲開始地点の情報が楽曲毎に対応付けられる。再生部15は、リストに従って、楽曲を再生する。具体的には、現在位置が曲開始地点に到達した時点で、当該曲開始地点に対応する楽曲が再生される。
【0087】
次に、実施の形態5に係る楽曲検索システムの処理の流れを説明する。図16は、実施の形態5に係る楽曲検索システムの処理の流れを示すフローチャートである。図16に示す処理は、車両の走行前に行われる。まず、経路生成部51は、経路を生成する(ステップS51)。経路の出発地および目的地は、例えば、ユーザによって入力されることによって設定される。次に、地点決定部52は、ステップS51において生成された経路上の曲開始地点を決定する(ステップS52)。さらに、ステップS52において決定された各曲開始地点について、曲開始地点のシチュエーションに合った楽曲が選出される(ステップS53)。この処理は、実施の形態1におけるステップS21〜S24の処理と同様である。最後に、リスト作成部53は、ステップS53において選出された楽曲のリストを作成する(ステップS54)。実施の形態5においては、以上の処理が車両の走行前に行われ、車両の走行中には、リストに従って楽曲が再生される。
【0088】
以上のように、実施の形態5によれば、実際にその場所に到達する前に、当該場所のシチュエーションに合った楽曲を予め選出しておくことができる。このように、本発明に係る楽曲検索システムは、現在のシチュエーションに合った楽曲の検索を行うものに限らず、予想されるシチュエーション(実施の形態5の場合は、後に通過すると予想される地点)に合った楽曲を検索するものであってもよい。実施の形態5によれば、走行中に検索処理を行う必要がないので、カーナビゲーションシステムにおける走行中の処理負担を減らすことができる。
【0089】
また、作成されたリストのデータを他の音楽再生装置に移送することによって、当該他の音楽再生装置においてもリストに従った楽曲再生を行うことが可能となる。これによって、印象検索・選曲再生部を持たない音楽再生装置においても、シチュエーションに合った楽曲を検索・再生することができる。
【0090】
さらに、出発地点の出発時刻がわかる場合には、曲開始地点に到達する到達時刻を予想することができる。この到達時刻を楽曲と対応付けてリストに記述しておけば、走行中に現在位置を検出する必要がない。従って、このようなリストは、GPS受信器を持たない音楽再生装置においても利用することができる。
【0091】
(実施の形態6)
以下、実施の形態6に係る楽曲検索システムについて説明する。実施の形態6に係る楽曲検索システムは、移動体端末とサーバとを含む構成である。図17は、実施の形態6に係る楽曲検索システムの構成を示すブロック図である。図17のように、楽曲検索システムは、移動体端末61と、サーバ62とを備えている。移動体端末61とサーバ62とは、インターネット網63を介して通信可能である。
【0092】
図18は、移動体端末61およびサーバ62の詳細な構成を示すブロック図である。なお、図18において、図1と同様の機能を有する構成要素については、同じ番号を付す。移動体端末61は、位置取得部16と、再生部15と、端末側通信部64とを備える。サーバ62は、楽曲データ格納部19と、パラメータ変換部17と、変換テーブル格納部18と、楽曲検索部20と、印象値算出部11と、サーバ側通信部65とを備えている。端末側通信部64は、インターネット網63を介してサーバ62との間でデータの送受信を行う。サーバ側通信部65は、インターネット網63を介して移動体端末61との間でデータの送受信を行う。なお、図18においては、インターネット網63は図示していない。
【0093】
実施の形態6では、移動体端末61において位置取得部16が移動体端末61の現在位置の情報を取得すると、取得された現在位置の情報は端末側通信部64によってサーバ62へ送信される。現在位置の情報を受信したサーバ62は、パラメータ変換部17および楽曲検索部20によって移動体端末61の位置のシチュエーションに合った楽曲を選出する。選出された楽曲のデータおよび曲IDは、サーバ側通信部65によって移動体端末61へ送信される。楽曲のデータを受信した移動体端末61は、再生部15によって当該楽曲を再生する。
【0094】
以上のように実施の形態6によれば、移動体端末61は楽曲の検索処理を行う必要がないので、移動体端末61の処理負担を減らすことができる。さらに、移動体端末61では楽曲のデータを格納しておく必要がなく、サーバ62で楽曲のデータを格納しておけばよいので、多数の楽曲のデータを検索の対象とすることができる。従って、多数の楽曲をユーザに提供することができ、よりシチュエーションに合った楽曲をユーザに提供することができる。
【0095】
なお、実施の形態6では、サーバ62から移動体端末61へ楽曲のデータが送信されたが、他の実施の形態では、楽曲のIDのみを送信してもよい。この場合、移動体端末61は、楽曲データベースを持っておく必要がある。さらに、サーバ62は、移動体端末61の楽曲データベースの内容を知っておく必要がある。つまり、サーバ62は、移動体端末61の楽曲データベースに格納されている内容と同内容の情報を少なくとも格納する必要がある。例えば、移動体端末61は、予め楽曲データベースの内容をサーバ62へ送信しておくことが考えられる。
【0096】
また、実施の形態6では、サーバ62によって決定された1つの楽曲が移動体端末61へ送信されたが、他の実施の形態では、複数の楽曲を候補として移動体端末61へ送信するようにしてもよい。図19は、他の実施の形態における構成を示す図である。図19においては、サーバ62の印象値検索部13によって複数の楽曲が選択され、それらの楽曲のデータおよび曲IDが送信される。移動体端末61では、受信した複数の楽曲から1つの楽曲が楽曲選択部14によって選択され、選択された楽曲が再生される。
【0097】
また、実施の形態6では、移動体端末61は楽曲を検索する機能を有しない構成であったが、他の実施の形態では、当該機能を有する構成であってもよい。具体的には、移動体端末61を上記実施の形態1〜5のカーナビゲーションシステムとしてもよい。この場合、移動体端末61とサーバ62との双方で楽曲の検索が行われ、検索結果の中から1つを選択して再生するようにしてもよい。また、移動体端末61において適切な楽曲が見つからなかった場合に、サーバ62が楽曲の検索を行うようにしてもよい。
【0098】
なお、以上の説明において、変換テーブルは1つでなく、所定の条件に応じて複数のテーブルを使い分けるようにしてもよい。例えば、変換テーブルを朝用、昼用、および夜用の3種類を用意しておき、朝用は、より爽やかな楽曲が選択されるようなテーブルとし、夜用は、より穏やかな楽曲が選択されるようなテーブルとするように、時間に応じて使い分けるようにしてもよい。なお、実施の形態2で用いられた各テーブル(位置テーブル、印象語テーブル、および印象値テーブル)についても変換テーブルと同様に、所定の条件に応じて複数のテーブルを使い分けるようにしてもよい。
【0099】
また、これらのテーブル(変換テーブル、位置テーブル、印象語テーブル、および印象値テーブル)は、楽曲検索システムの外部から別途配信することによって取得されてもよい。配信には、インターネットやリムーバブルメディアを使用することができる。また、楽曲データベース10に格納される楽曲のデータも同様に、楽曲検索システムの外部から別途配信することによって取得されてもよい。例えば、新曲については、配信による供給が有力な方法の一つである。
【0100】
また、実施の形態1〜5では、楽曲検索システムをカーナビゲーションシステムに組み込んだ形態について説明したが、楽曲検索システムの形態はこれに限られない。楽曲検索システムは、携帯型のミュージックサーバや半導体プレーヤで多数の曲を蓄積したポータブルオーディオ機器と、個人用のGPS装置と、印象値を用いて楽曲の検索を行う機能とを組み合わせることによって実現できる。携帯可能な移動体端末によって楽曲検索システムを実現すれば、本システムを列車での旅行等でも利用することができる。
【0101】
また、実施の形態1〜6では、シチュエーションパラメータとして位置情報を用いたが、シチュエーションパラメータはこれに限られない。例えば、車両の速度等を用いてもよい。図20は、変換テーブルの変形例を示す図である。なお、図20では、印象値Xについては速度との対応がない。この場合、速度の情報は印象値Yのみに変換され、印象値Yのみを用いて楽曲の検索が行われる。このように、1種類の印象値のみを用いて楽曲の検索を行うことも可能である。シチュエーションパラメータとして位置情報および速度情報を用い、位置情報を印象値Xに、速度情報を印象値Yにそれぞれ変換するようにしてもよい。
【0102】
さらに、シチュエーションパラメータとしては、周囲の騒音、温度、ユーザの脈拍、周囲の明るさ、および現在位置の高度等のパラメータが考えられる。その他、渋滞情報等の交通情報を道路上の車両に提供するVICSシステムが知られているが、このVICSシステムによって得られる渋滞情報シチュエーションパラメータとしてもよい。具体的には、楽曲検索システムが渋滞情報を受信した場合には、より和む楽曲が選択されるような変換テーブルを作成するとよい。また、実施の形態4では、楽曲検索システムが渋滞情報を受信した場合には、より和む楽曲が選択されるように印象値を修正するとよい。
【0103】
なお、連続して楽曲の再生が行われる場合には、シチュエーションパラメータとして同じ値が取得されることから、前に聞いた楽曲が再び再生されてしまうことも考えられる。例えば、シチュエーションパラメータとして位置情報を用いる場合、信号待ちや渋滞等で車両があまり移動せず、前回とほぼ同じ位置の位置情報が取得されてしまうことが考えられる。このような場合を回避するために、再生した楽曲の履歴情報をメモリに記録しておいて、過去の所定時間以内に再生された楽曲が選択されないようにしてもよい。具体的には、当該履歴情報に含まれている楽曲は検索の対象としないようにする。このとき、所定時間以上前に再生された楽曲は履歴情報から削除するようにするとよい。なお、逆に、よく聴く曲を履歴情報メモリに記録しておいて、履歴情報に記録されている楽曲については選択の優先度を上げるようにしてもよい。
【0104】
なお、実施の形態1〜6では、印象値のみを用いて楽曲の検索を行うようにしたが、楽曲のタイトル、アーティスト名、楽曲のジャンル名等の書誌情報を印象値とともに用いるようにしてもよい。例えば、ユーザが、アーティスト名やジャンル名を予め入力している場合には、その中から、楽曲の検索を行うようにしてもよい。また、例えば、タイトルに「浜辺」という語句が含まれる楽曲を対象として楽曲の検索を行うことも可能である。さらに、ユーザが特定のアーティスト名を入力しておくことによって、そのアーティストの持ち歌の中から検索が行われ、ワンマンコンサート形式の演奏を楽しむことも可能である。
【0105】
また、実施の形態1〜6では、楽曲の検索によって再生すべき楽曲として選択される楽曲は、検索中心座標値に最も近い印象値を有する楽曲とした。なお、楽曲の選択の方法としては、検索中心座標値から所定の距離以内に含まれる印象値を有する楽曲の中から、乱数を用いてランダムに選択するようにしてもよい。
【0106】
また、実施の形態5では、経路からリストを作成する例を説明したが、逆に、ユーザが楽曲のリストをまず作成し、リストから経路を導出することも可能である。このように導出された経路に沿って運転計画を作成すれば、ユーザは、音楽進行によって運転経路を決める、という遊びを楽しむことができる。このような遊びを音楽ラリーと呼ぶこともできる。
【0107】
また、実施の形態1〜6に係る楽曲検索システムを、スケジュール管理機能に利用することが可能である。例えば、時間をシチュエーションパラメータとし、予定の時間に遅れそうな場合には、急がしてくれそうな楽曲が再生されるようにする。また、例えば、スケジュール管理用のデータテーブルとしてスケジュールの進行の予定時刻を格納するテーブルを用意しておく。そして、スケジュールの進行の予定時刻と現在時刻とを比較し、余裕が一定範囲を割ると、テンポの早い印象値の曲が再生されるようにする。
【0108】
また、シチュエーションパラメータとして、乗り物情報、例えば、乗車した鉄道会社の情報を検知するようにしてもよい。この乗り物情報を位置カテゴリに変換して、各鉄道会社の印象、あるいは、沿線にちなんだ印象語を選んで、印象値に変換し、曲目を検索してもよい。例えば、琵琶湖周辺の湖西線であれば、湖や浜辺、ボート、ヨット等を思い浮かべるような印象語に変換されるようにする。
【0109】
また、楽曲検索システムが他の機器との通信を行うことが可能な場合には、シチュエーションパラメータとして、所定の機器の位置情報を用いてもよい。つまり、所定の機器から位置情報と機器のIDとを受信し、受信した位置情報と自己の現在位置が一定距離以内になると、予め定められた印象値を有する楽曲を再生する。これによって、所定の機器が接近することによって、何らかのイベントが発生するようにできる。例えば、ユーザの知人が近づいてくると、その知人をイメージする楽曲が再生されるようにする。徘徊老人や迷子の位置検知機能を有する個人用端末機器や携帯電話機が開発されているが、そのような機器に楽曲検索・再生機能を組み合わせることによって、以上のような機能を実現することができる。
【0110】
また、実施の形態1〜6において、変換テーブルが動的に配信されるようにしてもよい。例えば、ファーストフード店の近辺では、店のテーマソングに似た印象の楽曲が選択されるような変換テーブルを配信する。これによって、店の印象をユーザに与えることができ、再来店が期待できる。さらに、変換テーブルが配信されると、ポイントサービスのポイントがユーザに与えられるようにしてもよい。
【0111】
また、変換テーブル等の内容を追加する機能を付加した場合(実施の形態3参照)には、追加したテーブルの内容をフィードバックすることができる。フィードバックとは、追加された各テーブル(変換テーブル、位置テーブル、印象語テーブル、および印象値テーブル)の内容を、収集センターに送信することである。これによって、ユーザが行った各テーブルにおける対応付けを、収集センターで収集することができる。そして、収集センターが収集した対応付けを他のユーザに配信することによって、他のユーザは、その対応付けを自己のシステムのテーブルに追加することができる。従って、自分が行っていない場所での適切な印象値や印象語を容易に得ることができる。これによって、ユーザは、ある場所を訪れたときの感覚、情緒を、他のユーザと共有することができる。
【0112】
また、収集センターによって、ある場所に対するユーザの印象を容易に集計することができる。例えば、当該ある場所が店である場合、その店にはどのような印象の曲がマッチしているとユーザが感じているかをモニタすることができる。楽曲の印象が店の印象であると考えると、店の雰囲気をどう感じているかをモニタリングできることになる。
【0113】
さらに、収集センターが各テーブルや楽曲を提供する場合には、収集センターは、ユーザから得られた情報に基づいて当該ユーザの嗜好を判断することによって、ユーザの嗜好に合致したテーブルや楽曲を提供することができる。
【0114】
以上に説明したフィードバックを行うためには、図17と同様の構成をとればよい。すなわち、収集センターと楽曲検索システムとの間の通信回線を確立すればよい。
【図面の簡単な説明】
【図1】実施の形態1に係る楽曲検索システムの構成を示すブロック図である。
【図2】実施の形態1に係る楽曲検索システムの機能的な構成を示すブロック図である。
【図3】印象空間の例を示す図である。
【図4】変換テーブルの一例を示す図である。
【図5】実施の形態1に係る楽曲検索システムの処理の流れを示すフローチャートである。
【図6】実施の形態2に係る楽曲検索システムの機能的な構成を示すブロック図である。
【図7】位置テーブルの一例を示す図である。
【図8】印象語テーブルの一例を示す図である。
【図9】印象値テーブルの一例を示す図である。
【図10】実施の形態2における位置情報から印象値への変換処理の詳細を示すフローチャートである。
【図11】実施の形態3に係る楽曲検索システムの機能的な構成を示すブロック図である。
【図12】実施の形態3における楽曲再生中の処理の流れを示すフローチャートである。
【図13】実施の形態4に係る楽曲検索システムの機能的な構成を示すブロック図である。
【図14】実施の形態4に係る楽曲検索システムの処理の流れを示すフローチャートである。
【図15】実施の形態5に係る楽曲検索システムの機能的な構成を示すブロック図である。
【図16】実施の形態5に係る楽曲検索システムの処理の流れを示すフローチャートである。
【図17】実施の形態6に係る楽曲検索システムの構成を示すブロック図である。
【図18】移動体端末61およびサーバ62の詳細な構成を示すブロック図である。
【図19】他の実施の形態における構成を示す図である。
【図20】変換テーブルの変形例を示す図である。
【図21】従来の音楽再生装置の構成を示す図である。
【符号の説明】
15 再生部
16 位置取得部
17 パラメータ変換部
19 楽曲データ格納部
20 楽曲検索部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a music search system and method, and more particularly, to a music search system that searches for a music that a user wants to hear according to a situation.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, in the field of car audio and the like, a technology for automatically reproducing music according to the situation at the place has been considered. For example, there is a technique of playing music from a music source (for example, a CD, a radio, a cassette tape, or the like) specified in advance according to route information or car position information (for example, see Patent Document 1). In this technique, a user previously associates route information, a position of a vehicle, and a music source from which music is to be reproduced.
[0003]
FIG. 21 is a diagram showing a configuration of a conventional music playback device. The music playback device includes a position acquisition unit 91, a source selection unit 92, a position-source correspondence table 93, a source switching unit 94, and a playback unit 95. The position acquisition unit 91 acquires information on the current position of the vehicle. The source selection unit 92 refers to the position-source correspondence table 93 and selects a music source to be reproduced based on the information on the current position acquired by the position acquisition unit 91. In the position-source correspondence table 93, position information is associated with a position indicated by the position information and a music source to be selected near the position. The source switching unit 94 receives a music signal from each music source and outputs a signal from the music source selected by the source selection unit 92 to the reproduction unit 95. The reproduction unit 95 reproduces the input music signal.
[0004]
In the music reproducing apparatus shown in FIG. 21, when the vehicle reaches a position associated with a music source, one of a plurality of music sources, for example, a CD, a radio, a cassette tape, or the like is selected, and the selected music source is selected. Will play the music. This allows the user to automatically play music according to the situation. For example, the user can automatically listen to CD music while driving along the sea, listen to the radio when entering the city, and so on. Further, by setting the position of the vehicle and the music source in music units, for example, when driving along the sea, it is possible to set so that music that matches the sea is reproduced.
[0005]
[Patent Document 1]
JP-A-8-63946
[0006]
[Problems to be solved by the invention]
In the above technique, the user has to set a position and a music source to be reproduced at the position in advance. Therefore, in order to set the music to be reproduced according to the situation, the user has to check in advance the music to be reproduced. In other words, in the setting operation, the user has to determine whether or not each piece of music is suitable for the situation. As described above, in the above technique, the setting work of the user is complicated, and the burden on the user is large.
[0007]
Therefore, an object of the present invention is to provide a music search system that can easily listen to music that matches a situation.
[0008]
Means for Solving the Problems and Effects of the Invention
In order to achieve the above object, the present invention has the following features. That is, the present invention is a music search system for searching for music, and includes a music data storage unit, a status acquisition unit, a parameter conversion unit, a music search unit, and a playback unit. The music data storage unit stores a plurality of music data and music parameters indicating characteristics of the music in association with each other. The situation acquisition unit acquires a situation parameter indicating a situation around the user. The parameter conversion unit converts the situation parameters acquired by the situation acquisition unit into music parameters. The music search unit searches for music stored in the music data storage unit using the music parameters converted by the parameter conversion unit, and selects music to be reproduced. The reproduction unit reproduces the music selected by the music search unit.
[0009]
According to the above, the situation parameters are converted into music parameters, and music search is performed using the music parameters. Therefore, a music piece that reflects the situation parameters is selected as a search result, and a music piece that matches the situation can be reproduced. Furthermore, since the search is performed by the music parameter, the user does not need to specify a specific music in advance. Therefore, complicated setting work is not required, and the user can easily listen to music suitable for the situation.
[0010]
The music parameter may be an impression value obtained by quantifying the impression received by the listener for the music. By using an impression value that is easy for the user to understand, operations such as changing settings are facilitated.
[0011]
The music search system may further include a conversion table storage unit that stores a conversion table in which the situation parameters are associated with the music parameters. At this time, the parameter conversion unit converts the situation parameters into music parameters using the conversion table. Thereby, the conversion from the situation parameters to the music parameters can be easily performed.
[0012]
Further, the music search system may further include a record receiving unit and a correspondence recording unit. The recording receiving unit receives a recording instruction from a user. When the recording receiving unit receives the recording instruction while the music is being reproduced by the reproducing unit, the corresponding recording unit adds a set of the music parameter of the music being reproduced and the current situation parameter to the conversion table. This allows the user to add a correspondence between the situation and the music desired to be heard in the situation. In addition, since the above-described correspondence can be added to the current situation of the user, if the user determines that the music being played at that time matches the situation at that time, the user can compare the music at that time with the situation at that time. What is necessary is just to add correspondence to a conversion table. Therefore, the user can easily perform the addition processing to the conversion table.
[0013]
When the music search system is mounted on a moving object, the situation parameter may be a movement parameter indicating a moving state of the moving object moving with the user. The movement parameter is a concept including the position of the moving object and the speed of the moving object. The movement parameter has a great influence on the situation around the user. If the movement parameter changes, the situation around the user also changes, and the music that matches the situation also changes. Therefore, by using the movement parameter as the situation parameter, it is possible to appropriately search for a music piece that matches the situation.
[0014]
Further, the movement parameter may be position coordinates indicating the position of the moving object. At this time, the music search system may further include a position table storage unit and an impression value table storage unit. The position table storage unit stores a position table in which the position coordinates are associated with a position category representing a feature of the position indicated by the position coordinates. The impression value table storage unit stores an impression value table in which a position category is associated with an impression value of a song to be reproduced in the position category. The parameter conversion unit converts the position coordinates obtained by the situation obtaining unit into a corresponding position category using the position table, and the position category conversion unit converts the position coordinates using the impression value table. An impression value conversion unit that converts the position category into a corresponding impression value.
[0015]
According to the above, the position coordinates, which are the situation parameters, are converted into position categories, and then converted into impression values. Since the position category is an expression that is easy for humans to understand, such as “highway” or “park”, for example, it is very easy for the user to change the impression value table. Therefore, the user can easily change the settings of the music search system by changing the impression value table.
[0016]
When the movement parameter is position coordinates indicating the position of the moving object, the following may be performed. That is, the music search system may further include an impression word table storage unit and an impression value table storage unit. The impression word table storage unit stores an impression word table in which position coordinates are associated with impression words expressing an impression of a music piece to be reproduced at a position indicated by the position coordinates. The impression value table storage stores an impression value table in which impression words and impression values are associated with each other. The parameter conversion unit converts the position coordinates acquired by the situation acquisition unit into a corresponding impression word by using the impression word table, and is converted by the impression word conversion unit by using the impression value table. And a corresponding impression value conversion unit for converting the impression word into a corresponding impression value.
[0017]
According to the above, the position coordinates, which are the situation parameters, are converted into impression words and then into impression values. Impression words are expressions that are easy for humans to understand, such as “light songs” and “calm songs”, so that it is very easy for the user to change the impression word table. Therefore, the user can easily change the settings of the music search system by changing the impression word table.
[0018]
When the movement parameter is position coordinates indicating the position of the moving object, the following may be performed. That is, the music search system may further include a position table storage, an impression word table storage, and an impression value table storage. The position table storage unit stores a position table in which the position coordinates are associated with a position category representing a feature of the position indicated by the position coordinates. The impression word table storage unit stores an impression word table in which a position category is associated with an impression word expressing an impression of a song to be reproduced at a position represented by the position category. The impression value table storage stores an impression value table in which impression words and impression values are associated with each other. The parameter conversion unit includes a position category conversion unit, an impression word conversion unit, and an impression value conversion unit. The position category conversion unit converts the position coordinates acquired by the situation acquisition unit into a corresponding position category using the position table. The impression word conversion unit converts the position category converted by the position category conversion unit into a corresponding impression word using the impression word table. The impression value conversion unit converts the position category converted by the position category conversion unit into a corresponding impression value using the impression value table.
[0019]
According to the above, the position category and the impression word are used at the time of conversion from the situation parameter to the impression value, so that the user can change the setting of the music search system by changing the impression word table and / or the impression value table. Can be easily changed.
[0020]
The music search system may further include a route generation unit, a point determination unit, and a list creation unit. The route generator generates a route between two predetermined points. The point determination unit determines a predetermined point on the route. The list creation unit creates a list of the songs selected by the song search unit. At this time, the situation obtaining unit obtains the position coordinates of the predetermined point as the situation parameters. The reproducing unit reproduces the music according to the list.
[0021]
According to the above, for a point on the route, it is possible to search in advance for a song that matches the situation at that point. Therefore, there is no need to perform music search processing while actually moving on the route, so that the processing load of the music search system during movement of the route can be reduced.
[0022]
Further, the music search system may include a mobile terminal and a server that can communicate with the mobile terminal. At this time, the mobile terminal includes a status acquisition unit and a playback unit. The server includes a music data storage unit, a parameter conversion unit, and a music search unit. Then, the situation acquisition unit transmits the acquired situation parameters to the server. The parameter conversion unit converts the situation parameters transmitted from the situation acquisition unit into music parameters. The music search unit transmits the data of the selected music to the mobile terminal. The playback unit receives the music data transmitted from the music search unit and plays the music.
[0023]
According to the above, it is not necessary for the mobile terminal to perform a music search process, so that the processing load on the mobile terminal can be reduced. Further, the music data is stored in a server that can generally store data of a large number of music, so that the music to be searched can be compared with the case where the music is stored in the mobile terminal. Can be greatly increased. Therefore, the range of songs selected as songs suitable for the situation is expanded, and more songs can be provided to the user.
[0024]
Further, the music data storage unit may store a music ID for identifying a music in association with music data. At this time, the music search system is configured to include a mobile terminal and a server that can communicate with the mobile terminal. At this time, the mobile terminal includes a music data storage unit, a status acquisition unit, and a playback unit. The server includes a parameter conversion unit, a music search unit, and a server-side data storage unit. The server-side data storage unit stores at least information having the same content as the content stored in the music data storage unit. Then, the situation acquisition unit transmits the acquired situation parameters to the server. The parameter conversion unit converts the situation parameters transmitted from the situation acquisition unit into music parameters. The music search unit transmits a music ID for identifying the selected music to the mobile terminal. The reproduction unit reproduces the music indicated by the music ID transmitted from the music search unit.
[0025]
According to the above, it is not necessary for the mobile terminal to perform a music search process, so that the processing load on the mobile terminal can be reduced. Further, since there is no need to transmit music data from the server to the mobile terminal, the communication amount between the server and the mobile terminal can be reduced.
[0026]
The music search system according to the present invention can be realized by a program, and can be easily implemented by another independent computer system by recording and transferring the program on a recording medium.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
(Embodiment 1)
FIG. 1 is a block diagram showing a configuration of the music search system according to the first embodiment. In the first embodiment, the music search system is realized as one function of a car navigation system. However, the present system may be a dedicated device. 1, the music search system includes a storage device 1, a CPU 2, a display device 3, an audio output device 4, an input unit 5, a signal processing unit 6, and a communication control unit 7. Further, the signal processing unit 6 is connected to the GPS receiver 8.
[0028]
The storage device 1 is an HDD, a memory, or the like, and stores various data. Note that the storage device 1 also includes an external recording medium such as a music CD. The CPU 2 performs various processes such as a music search process described later by a predetermined program. The display device 3 is, for example, a liquid crystal display and displays a map or the like. The audio output device 4 includes an amplifier, a speaker, and the like, and is used for audio guidance during route guidance and reproduces music. The input unit 5 includes buttons, a remote controller, and the like, and receives various inputs from a user. The signal processing unit 6 receives a signal from the GPS receiver 8 and outputs current position information to the CPU 2. The GPS receiver 8 receives GPS radio waves via an antenna or the like mounted on the vehicle, and outputs latitude / longitude information indicating the current position of the vehicle to the signal processing unit 6. The communication control unit 7 is an interface for establishing communication with the Internet network. Typically, the communication control unit 7 is connected to the Internet via a communication terminal (not shown) such as a mobile phone. In the first embodiment, the present system is configured to be mounted on a vehicle as a car navigation system. However, the present invention is not limited to this mode, and may be realized as one function of a mobile terminal held by a user, for example.
[0029]
FIG. 2 is a block diagram showing a functional configuration of the music search system according to the first embodiment. 2, the music search system includes a music data storage unit 19, a position acquisition unit 16, a parameter conversion unit 17, a conversion table storage unit 18, a music search unit 20, a reproduction unit 15, an impression value calculation unit 11 is provided. The music search section 20 includes an impression value search section 13 and a music selection section 14. The music data storage unit 19 includes a music database 10 and an impression value database 12. Here, the music database 10, the impression value database 12, and the conversion table storage unit 18 are realized by the storage device 1. The position acquisition unit 16, the parameter conversion unit 17, the music search unit 20, and the impression value calculation unit 11 are realized by the CPU 2 performing a predetermined program operation. The reproduction unit 15 is realized by the audio output unit 4.
[0030]
First, the outline of the configuration in FIG. 2 will be described. The music data storage unit 19 stores a plurality of music data and music parameters in association with each other. Here, the song parameter is a parameter indicating a feature of the song, and is a concept including an impression value and a feature amount described later. The position acquisition unit 16 acquires information on the current position of the vehicle from the GPS receiver 8. Here, the music search system is not limited to the information on the current position, and may be any system that obtains information indicating the situation around the user. Note that a parameter indicating a situation around the user is called a situation parameter. As the situation parameters, parameters such as the speed of the vehicle, the surrounding noise, the temperature, the pulse of the user, the surrounding brightness, and the altitude of the current position can be considered. The parameter conversion unit 17 converts the information on the current position acquired by the position acquisition unit 16 into music parameters. The music search unit 20 searches for music stored in the music data storage unit 19 using the music parameters converted by the parameter conversion unit 17, and selects music to be reproduced. The reproduction unit 15 reproduces the music selected by the music search unit 20. Hereinafter, details of each unit will be described.
[0031]
The music database 10 is configured by the storage device 1 described above, and stores music signals for a plurality of music pieces. For these music signals, desired music signal data is called out by a song ID (for example, song name or song number) for identifying the song. These music signals are stored, for example, as waveform data by linear PCM or compressed data such as AAC.
[0032]
The impression value calculation unit 11 calculates an impression value for a song stored in the song database 10. Specifically, the physical feature of the music signal input from the music database 10 is analyzed, and an impression value obtained by weighting and adding the feature is calculated. The physical feature amount includes a spectrum change degree (a degree of spectrum change between frames of a predetermined time length), an average number of pronunciations (sounding frequency of a sound pronounced in a music piece), and a sound non-periodicity (in a music piece) , The beat cycle (time length equivalent to a quarter note of the music), the beat cycle ratio (the sound equivalent to the quarter note of the music, and the sound that is predominantly sounded) , The first beat intensity (the intensity of a sound that is pronounced at a cycle corresponding to approximately half of the beat period), and the second beat intensity (at a period corresponding to approximately 1/4 of the beat period) The intensity of the sound that is present, the beat intensity ratio (the ratio of the first beat intensity to the second beat intensity), and the like are analyzed. The impression value calculation unit 11 performs predetermined weighted addition on these feature amounts obtained by the analysis to calculate an impression value. The number of impression values is one or more, generally two to five. When there are two impression values, the music can be represented as a point in a two-dimensional space. In the five cases, the music is represented as a point in a five-dimensional space. That is, the music stored in the music database 10 has the coordinate values of each impression value in this space. Therefore, each music stored in the music database 10 can be distinguished and determined by the set of these impression values.
[0033]
The impression value is an index value that represents a feeling or emotion that a person feels when listening to music, such as intenseness, dynamism, exhilaration, simplicity, and softness. Each impression value can be represented as a linear or non-linear function of the plurality of types of feature amounts. If five types of impression values of intenseness, dynamism, exhilaration, simplicity, and softness are used, a musical piece is represented as a point in a five-dimensional space. Furthermore, the two factors of intenseness and dynamism are integrated into an active factor, and the three factors of exhilaration, naiveness, and softness are integrated into an emotional factor. The music is represented as a point in a two-dimensional space. Such a spatial coordinate system representing an impression value of a music is hereinafter referred to as an impression space. The impression value is a quantity indicating the impression of listening to the music. Therefore, when the impression values of a plurality of music pieces are laid out on the impression space, the impression values are laid out according to the similarity of the impressions to the music pieces. In other words, music pieces having similar impressions are laid out at close positions in the impression space. In the following description of the embodiments, it is assumed that there are two types of impression values, an impression value X and an impression value Y.
[0034]
FIG. 3 is a diagram illustrating an example of an impression space. FIG. 3 shows a two-dimensional impression space when an active factor and an emotion factor are used as impression values. In the present embodiment, as described above, a method of performing data registration of feature amounts and impression values and music search, which is abbreviated as an impression search method, is used. The impression values calculated as described above are stored in the impression value database 12.
[0035]
The impression value database 12 stores the impression value calculated by the impression value calculation unit 11 in association with the song ID of each song in the song database 10. In the first embodiment, the music data storage unit 19 is configured by two databases, the music database 10 and the impression value database 12. Here, the music data storage unit 19 only needs to store data of a plurality of music pieces and impression values in association with each other, and may be constituted by one database.
[0036]
The music search unit 20 searches for music stored in the music database 10 using the impression value, and selects music to be reproduced. In the first embodiment, the music search unit 20 includes the impression value search unit 13 and the music selection unit 14.
[0037]
The impression center search value is input to the impression value search unit 13 from a parameter conversion unit 17 described later. The search center coordinate value is a coordinate value of the music to be reproduced in the impression space. Note that the music does not always exist at the position of the search center coordinate value. The impression value search unit 13 generates the impression space by referring to a set of the music ID and the impression value stored in the impression value database 12. Then, a music piece located close to the search center coordinate value is selected. Specifically, the Euclidean distance between the search center coordinate value and the impression value of each song is calculated, and one or several songs are preferentially selected from the one with the smallest Euclidean distance, and the song of the selected song is selected. The ID is output to the music selection unit 14. A small Euclidean distance means that a song having an impression value close to the impression value of the search center coordinate value is selected. In other words, songs with similar values of intenseness, dynamism, exhilaration, simplicity, and softness, or active factor values and emotion factor values are selected.
[0038]
When there are a plurality of music IDs input from the impression value search unit 13, the music selection unit 14 selects one of them. The selection is performed according to a predetermined standard set in advance. The predetermined criterion may be any criterion. For example, a tune that has not been reproduced before may be selected, or a user may select a favorite artist (registered in advance). Further, the music selection unit 14 acquires the music signal of the music indicated by the selected music ID from the music database 10 and provides the music signal to the reproduction unit 15. When the impression value search unit 13 outputs only one song ID, the song selection unit 14 acquires the music signal of the song indicated by the song ID from the song database 10 and provides the music signal to the playback unit 15.
[0039]
The reproduction unit 15 is realized by the above-described audio output device 4 and reproduces a music signal input from the music selection unit 14. Here, the reproducing unit 15 includes an amplifier and a speaker, but the reproducing unit 15 may be anything as long as it reproduces the music signal stored in the music database 10. For example, when the music signal is stored in the music database 10 in the linear PCM format, the reproducing unit 15 may include a DA converter. In the case where the compressed voice encoding information is stored in the music database 10, the reproduction unit 15 may include an expansion unit that decompresses the audio data.
[0040]
The position acquisition unit 16 acquires information on the current position of the vehicle from the GPS receiver 8. Then, the obtained information on the current position is output to the parameter conversion unit 17 as latitude / longitude information.
[0041]
The parameter conversion unit 17 refers to the conversion table stored in the conversion table storage unit 18 and converts the latitude / longitude information input from the position acquisition unit 16 into the search center coordinate values. The conversion table is a table that associates the latitude / longitude information with the coordinate values in the impression space.
[0042]
FIG. 4 is a diagram illustrating an example of the conversion table. As shown in FIG. 4, in the conversion table, a point (latitude / longitude information) on a map is associated with an impression value (search center coordinate value) of a music piece that matches the point (situation). In other words, the conversion table indicates, for each point on the map, the impression value of the music to be reproduced at that point. In addition, the conversion table can be combined with the map data of the car navigation device, and can be a database in which impression values are assigned to each position or major position of the latitude and longitude on the map. Further, in another embodiment, the conversion table may store the range on the map and the impression value in association with each other.
[0043]
When the latitude / longitude information is input from the position acquisition unit 16, the parameter conversion unit 17 checks whether a point close to the input latitude / longitude information exists in the conversion table. Then, when a point close to the input latitude / longitude information is present in the conversion table, the values of the impression values X and Y corresponding to the point are set as search center coordinate values. The search center coordinate values converted as described above are input to the impression value search unit 13. By inputting the search center coordinate value to the impression value search unit 13, a music piece having a value close to (or the same as) the search center coordinate value is searched, and the music piece determined by the search is reproduced.
[0044]
Hereinafter, a processing flow of the music search system according to the first embodiment will be described. FIG. 5 is a flowchart showing a flow of processing of the music search system according to the first embodiment. Here, the processing according to the first embodiment includes processing for creating an impression value database necessary for searching for music (steps S11 to S13) and automatically searching for a music suitable for the position from the position of the vehicle. And music reproduction processing (music search processing) (steps S21 to S25). These processes are executed by the CPU 2 performing a predetermined program operation.
[0045]
First, the processing of steps S11 to S13 shown in FIG. 5 will be described. This processing is preferably executed in advance before the vehicle runs. In FIG. 5, music data is stored in the music database 10 (step S11). Next, the impression value calculation unit 11 calculates an impression value for each of the stored music pieces (step S12). More specifically, a music signal of the stored music data is analyzed to calculate the feature amount of the music. Then, the calculated feature amount is weighted and added to calculate an impression value. Finally, the impression value calculation unit 11 stores the calculated impression value in the impression value database 12 in association with the song ID of each song in the song database 10 (step S13). As described above, the music database 10 and the impression value database 12 necessary for searching for a music using the impression value are generated. In another embodiment, the music database 10 and the impression value database 12 may be generated and provided in advance. That is, these databases may be generated by reading a storage medium storing the music database 10 and the impression value database 12 into the music search system.
[0046]
Next, the processing of steps S21 to S25 shown in FIG. 5 will be described. This process is executed while the vehicle is running. This process may be started by a designation from the user (for example, a search start button is pressed), or may be periodically performed at a predetermined time interval. First, the position acquisition unit 16 receives a signal from the GPS receiver 8 and acquires latitude / longitude information indicating the current position of the vehicle (step S21). The acquired latitude / longitude information is passed to the parameter conversion unit 17.
[0047]
Next, the parameter conversion unit 17 converts the latitude / longitude information input from the position acquisition unit 16 into an impression value with reference to the conversion table (step S22). Further, the converted impression value is output to the music search unit 20 as a search center coordinate value. When the search center coordinate value is input to the music search unit 20, a search for the music in the music database 10 is performed.
[0048]
The impression value searching unit 13 selects a music piece whose impression value set (active factor and emotional factor set) has a coordinate value close to the input search center coordinate value (step S23). In the process of step S23, the impression value database 12 generated in step S13 is referred to. The number of music pieces selected in step S23 may be one or more. For example, only songs having coordinate values closest to the search center coordinate value may be selected, or all songs within a predetermined distance from the search center coordinate value may be selected. The song ID of the selected song is output to the song selector 14.
[0049]
Next, the music selection unit 14 selects one of the input music IDs, and outputs data of the music indicated by the selected music ID to the reproduction unit 15 (step S24). The reproduction unit 15 reproduces the music data input from the music selection unit 14 (Step S25). Thus, the music search process is completed. By the music search process, a music having an image corresponding to the current position of the vehicle is automatically reproduced.
[0050]
As described above, according to the first embodiment, the user can enjoy the music of the image according to the situation at the place without performing complicated operations and setting processing. Specifically, when the user presses the search start button, it is possible to select and reproduce a tune close to the impression value corresponding to the current position. Further, each time the user performs a music selection operation, a music piece having an impression suitable for that point is selected.
[0051]
In addition, by setting the continuous reproduction mode (the music search process is started when the reproduction of the music is completed), the music having the optimal impression at each time is reproduced one after another in accordance with the moving position of the car. It is also possible to If the music search process takes a long time, the search center coordinates may be updated and the distance calculation may be started shortly before the end of the music playback. In this case, the position of the vehicle at the time when the reproduction of the music ends may be predicted.
[0052]
(Embodiment 2)
Hereinafter, a music search system according to Embodiment 2 will be described. The music search system according to the second embodiment does not directly convert information on the current position (latitude / longitude information) into an impression value (search center coordinate value), but converts the information on the current position into a position category and an impression word. To convert into impression values. In the second embodiment, by performing such a conversion, the setting can be changed more easily by the user. Note that, in the second embodiment, as in the first embodiment, the music search system is assumed to be incorporated in a car navigation system.
[0053]
FIG. 6 is a block diagram showing a functional configuration of the music search system according to the second embodiment. The functional configuration of the music search system according to Embodiment 2 is the same as the configuration shown in FIG. 2 except that the internal configurations of the parameter conversion unit 17 and the conversion table storage unit 18 are different. The configuration is omitted. In the second embodiment, the parameter conversion unit 17 includes a position category conversion unit 171, an impression word conversion unit 172, and an impression value conversion unit 173. The conversion table storage unit 18 includes a position table storage unit 181, an impression word table storage unit 182, and an impression value table storage unit 183.
[0054]
6, a position category conversion unit 171 inputs information on the current position output from the position acquisition unit 16 and converts the information into a position category. The position category is a classification word for distinguishing a characteristic place, for example, an expressway, a service area, an interchange, an ordinary road, a park, a seaside, an airfield, and the like. The position category is represented by a phrase indicating a feature of the position. The conversion into the position category refers to a position table stored in the position table storage unit 181. FIG. 7 is a diagram illustrating an example of the position table. As shown in FIG. 7, the position table associates the latitude / longitude information with the position category. For example, when the latitude / longitude information is “34 ° 40′15.4” north latitude, 135 ° 32′09.9 ″ east longitude (and when the latitude / longitude information is within a predetermined range from this point) , The position category is determined to be “highway”.
[0055]
The position category output by the position category conversion unit 171 is input to the impression word conversion unit 172. The impression word conversion unit 22 converts the input position category into an impression word. The impression word is a word that expresses the impression of the music, and is a word that intuitively expresses the music, such as “light song”, “relief”, and “rap style”. As the impression word, a word used as an impression value may be used as it is, or another word may be used. The conversion from the position category to the impression word refers to the impression word table stored in the impression word table storage unit 182. FIG. 8 is a diagram illustrating an example of the impression word table. As shown in FIG. 8, the impression word table associates the position category with the impression word. Since the impression word table is expressed by words that are very easy for humans to understand (images are easy to understand), it is very easy to change the contents of the table. For example, when the position category is “highway”, the impression word is determined to be “light music”.
[0056]
The impression value conversion unit 173 converts the impression word converted by the impression word conversion unit 172 into an impression value. For this conversion, an impression value table stored in the impression value table storage unit 183 is referred to. FIG. 9 is a diagram illustrating an example of the impression value table. The impression value table associates impression words with impression values. For example, when the impression word is “light song”, the impression value is determined to be (impression value X, impression value Y) = (1.35, −0.58). Note that the impression value table may associate the impression word with a range of impression values (for example, 0.3 <impression value X <0.6).
[0057]
The impression value converted by the impression value conversion unit 173 as described above is output to the music search unit 20 as search center coordinates. The subsequent operation processing for the search center coordinate value is the same as in the first embodiment, and a description thereof will not be repeated.
[0058]
FIG. 10 is a flowchart showing details of the process of converting position information to an impression value in the second embodiment. The processing illustrated in FIG. 10 corresponds to the processing in step S22 in FIG. That is, the entire process in the second embodiment is the same as the process shown in FIG. 5, and the process shown in FIG. 10 is performed instead of the process in step S22.
[0059]
In the second embodiment, after step S21, the position category conversion unit 171 converts the information on the current position input from the position acquisition unit 16 into a position category (step S221). Next, impression word conversion section 172 converts the position category converted in step S221 into an impression word. Further, impression value conversion section 173 converts the impression word converted in step S222 into an impression value (step S223). After the end of step S223, the processing of step S23 and thereafter shown in FIG. 5 is performed.
[0060]
Each table of the conversion table storage unit 18 used in the second embodiment is created as follows. First, a position category and an impression word are prepared in advance. Next, position information (latitude / longitude information) corresponding to the prepared position category is set, and an impression value corresponding to the prepared impression word is set. For example, for the position category "highway", a point whose (latitude, longitude) is from (X1, Y1) to (X3, Y3) via (X2, Y2) is set. Further, the impression word “song to be danced” is set as coordinates of the impression space (ZX1, ZY1), and the impression word “song to sleep” is set as (ZX2, ZY2). Finally, the position category is associated with the impression word. This association may be performed by the user or may be appropriately changed by the user. The combination of the position category and the impression word is, for example, a combination of “expressway” and “song to be danced”, and is an expression that is easy for the user to understand, so that the change is easy. In addition, the association between the position category and the impression word varies depending on the user, and even a single user varies depending on the mood at that time, the purpose of driving, and the like. Therefore, it is very effective that the user can easily change this association.
[0061]
As described above, according to Embodiment 2, the user can easily change the search setting using the position category and the impression word. Furthermore, a personalized impression word conversion table can be created as a preset.
[0062]
In the second embodiment, the position information is converted into the impression value using three tables: the position table, the impression word table, and the impression value table. Here, in another embodiment, the conversion may be performed by the following method. That is, a method of converting the position category into the impression value after converting the position information into the position category may be employed. That is, the position category and the impression value may be associated with each other in the impression value table. At this time, an impression word table for associating the position category with the impression word is unnecessary. Further, after converting the position information into the impression word, the impression word may be converted into the impression value. That is, in the impression word table, the position information and the impression word may be associated with each other. At this time, a position table for associating the position information with the position category is unnecessary.
[0063]
(Embodiment 3)
Hereinafter, a music search system according to Embodiment 3 will be described. The music search system according to the third embodiment allows a user to add a music that the user likes to the music database 10 and perform a search by an impression value when the music that the user likes is reproduced, and to newly add the music to the position / impression value conversion table. This makes it possible to add an appropriate response. Note that, in the third embodiment, as in the first embodiment, it is assumed that the music search system is incorporated in a car navigation system. Although not shown in FIG. 1, in the third embodiment, it is assumed that a plurality of music sources such as a CD player and a radio are incorporated in the system as music sources for playing music.
[0064]
FIG. 11 is a block diagram showing a functional configuration of a music search system according to Embodiment 3. FIG. 11 differs from the system shown in FIG. 1 in further including a recording receiving unit 31, a correspondence recording unit 32, and a music signal input unit 33. The following description focuses on the differences from FIG.
[0065]
The recording receiving unit 31 is realized by the input unit 5 and receives a recording start instruction from a user. If the user feels that the music being played at that time matches the situation at that moment, the user shall instruct recording start. Here, it is assumed that the input unit 5 includes a “favorite button”, and the user can instruct recording start by pressing the favorite button. The recording start instruction is output to the correspondence recording unit 32 and the audio signal input unit 33. When the recording start instruction is input from the recording accepting unit 31, the correspondence recording unit 32 acquires the current position from the position acquisition unit 16 and acquires an impression value from the impression value database 12. Further, the correspondence between the acquired current position and the impression value is added to the conversion table in the conversion table storage unit 18.
[0066]
The audio signal input unit 33 receives an audio signal output from a music source such as a CD player or FM radio at any time. When receiving an instruction to start recording from the recording accepting unit 31, the acoustic signal input unit 33 converts the input acoustic signal into a music signal that can be analyzed by the impression value calculation unit 11, and outputs the music signal to the impression value calculation unit 11. Impression value calculation section 11 calculates an impression value for the input music signal in the same manner as in the first embodiment, and stores it in impression value database 12.
[0067]
Hereinafter, processing during music reproduction will be described. FIG. 12 is a flowchart showing a flow of a process during music reproduction according to the third embodiment. Here, there are two processes shown in FIG. 12: a process of storing the data of the music being reproduced and calculating an impression value (steps S31 to S35) and a process of updating the conversion table (steps S36 to S39). Divided into These processes are executed by the CPU 2 performing a predetermined program operation.
[0068]
When the reproduction of music is started, the audio signal input unit 33 starts inputting an audio signal output from the music source (step S31). Next, the recording accepting unit 31 determines whether or not there has been a recording start instruction (step S32). The recording accepting unit 31 waits until there is a recording start instruction. When there is a recording start instruction, the audio signal input unit 33 stores the data of the input music in the music database 10 (step S33). Next, the impression value calculation unit 11 calculates an impression value of the music signal input from the audio signal input unit 33 (Step S34), and stores the calculated impression value in the impression value database 12 (Step S35). By the above processing, when the user presses the favorite button during the reproduction of the music, the music can be recorded and the impression value can be calculated.
[0069]
Next, a process of updating the conversion table will be described. When the reproduction of the music is started, the position acquisition unit 16 acquires information on the current position from the GPS receiver 8 (Step S36). Next, the recording accepting unit 31 determines whether or not there has been a recording start instruction (step S37). If there is no recording start instruction, the process returns to step S36, and repeats the processing of steps S36 and S37 until there is a recording start instruction. On the other hand, when there is a recording start instruction, the recording receiving unit 31 instructs the correspondence recording unit 32 to update the table. In response to this, the correspondence recording unit 32 acquires the current position information from the position acquisition unit 16 and acquires the impression value of the music being reproduced from the impression value database 12 (step S38). Lastly, the correspondence recording unit 32 updates the correspondence between the acquired information on the current position and the impression value so as to add it to the conversion table (step S39).
[0070]
As described above, according to the third embodiment, when a song corresponding to the situation at the current position is being played, a new content is added to the conversion table by pressing the “favorite button” by the user. . Therefore, the next time the user comes to the place, the user can listen to the same tune or a tune having a similar impression without any special effort. In the third embodiment as well, similar to the first embodiment, a process of searching for and reproducing a music piece based on an impression value derived based on the current position is performed.
[0071]
In the third embodiment, the user may press the favorite button near the end of the music being reproduced. Therefore, the music being reproduced may be temporarily stored in the music database 10 before the favorite button is pressed, and the calculation of the impression value may be started temporarily. Then, when the favorite button is pressed, the current position at that time may be temporarily stored, and the conversion table may be updated after the calculation of the impression value is completed. In this case, if the favorite button is not pressed, the temporarily stored and temporarily calculated data may be deleted.
[0072]
Further, the method according to the third embodiment is also applicable to a case where a position category and an impression word are used as in the second embodiment. In this case, for example, the position category and the impression word are derived from the position where the "favorite button" is pressed, and the impression value table is added so as to add the correspondence between the derived impression word and the impression value of the music being reproduced. Update it. In addition to updating the impression value table, the impression word table may be updated.
[0073]
(Embodiment 4)
Hereinafter, a music search system according to Embodiment 4 will be described. The music search system according to the fourth embodiment searches for music in consideration of other conditions in addition to the current position. In the fourth embodiment, as in the first embodiment, the music search system is assumed to be incorporated in a car navigation system. Although not shown in FIG. 1, in the fourth embodiment, a sensor (for example, a temperature sensor or an optical sensor) for detecting an environmental parameter described later is connected to the signal processing unit 6 shown in FIG. It is assumed that
[0074]
FIG. 13 is a block diagram showing a functional configuration of the music search system according to Embodiment 4. FIG. 13 differs from the system shown in FIG. 1 in further including an environment information acquisition unit 41 and an impression value correction unit 42. The following description focuses on the differences from FIG.
[0075]
The environment information acquisition unit 41 acquires environment parameters from various sensors incorporated in the car navigation system. The environmental parameters are, for example, parameters indicating noise, temperature, user's pulse, ambient brightness, altitude of the current position, and the like. Noise is related to whether it is in town or suburbs, outdoors or indoors. Temperature is related to season and weather. The user's pulse is related to their mental state. The brightness is related to day or night, indoor conditions, and the like. The altitude is related to the level or the mountain. Therefore, it can be said that such environmental parameters affect situations around the user. In the fourth embodiment, an impression value (search center coordinate value) used for a search is calculated in consideration of factors that affect the user's psychology, in addition to the position information. The environment parameters acquired by the environment information acquisition unit 41 are output to the impression value correction unit 42. Here, a temperature sensor is incorporated in the car navigation system, and the environment information acquisition unit 41 acquires temperature as an environment parameter.
[0076]
The impression value correction unit 42 corrects the coordinate value of the search center coordinate value input from the parameter conversion unit 17. This correction is performed based on the environment parameters input from the environment information acquisition unit 41. Specifically, the correction is performed by the following method. That is, the correction formula for correcting the search center coordinate value is expressed by a function of the value of the environment parameter and the search center coordinate value. A simple example is to shift the search center coordinate value in a predetermined direction according to the value of the environment parameter. Specifically, the value of the impression value X included in the search center coordinate value is x1, the value of the environment parameter is x2, and the value of the corrected impression value X is x '.
x '= x1 + a * (x2-b) (a and b are constants)
A correction formula such as the following may be used. Also,
x '= x1 * [1 + a * (x2-b)]
A modified expression such as
[0077]
Next, the flow of processing of the music search system according to Embodiment 4 will be described. FIG. 14 is a flowchart showing a flow of processing of the music search system according to Embodiment 4. Here, also in the fourth embodiment, as in the first embodiment, two processes of a process of creating an impression value database (steps S11 to S13 shown in FIG. 1) and a music search process are performed. Since the process of creating a database is the same as that of the first embodiment, it is omitted in FIG. That is, FIG. 14 shows a flow of a music search process which is a process different from the first embodiment. This process is executed by the CPU 2 performing a predetermined program operation. Also, the same processes as those in FIG. 5 are denoted by the same step numbers.
[0078]
The processing in step S21 is the same as in FIG. Subsequent to step S21, the environment information acquisition unit 41 acquires environment parameters (step S41). Next, step S22, which is the same processing as in FIG. 1, is performed. Subsequent to step S22, the impression value correction unit 42 corrects the impression value converted in step S22 based on the environment parameters acquired in step S41 (step S42). This correction is performed using the function as described above. The processing after step S23 is the same as in FIG.
[0079]
As described above, according to the fourth embodiment, music search is performed using not only the position information but also the environment parameters indicating the environment around the user. For example, when the volume of the surrounding noise is detected by the sensor, a search can be performed such that the search result changes according to the surrounding noise. Specifically, when the surroundings are noisy, the music search system can be set so that a more intense song is selected, or conversely, a more gentle song is selected. As described above, by searching for music using the environment parameters, situations around the user can be more finely detected, and variations in search results can be made more diverse.
[0080]
In the fourth embodiment, a case where one type of environmental parameter is used has been described, but a plurality of environmental parameters may be used. When a plurality of environment parameters are used, a correction formula may be prepared for each type of environment parameter, or one correction formula including variables of a plurality of types of environment parameters may be prepared.
[0081]
(Embodiment 5)
Hereinafter, a music search system according to Embodiment 5 will be described. The music search system according to the fifth embodiment creates a list (playlist) of music to be reproduced based on path information. In the fifth embodiment, as in the first embodiment, the music search system is assumed to be incorporated in a car navigation system.
[0082]
FIG. 15 is a block diagram showing a functional configuration of a music search system according to Embodiment 5. FIG. 15 differs from the system shown in FIG. 2 in further including a route generation unit 51, a point determination unit 52, and a list creation unit 53. Hereinafter, the description will focus on the differences from FIG.
[0083]
The route generation unit 51 searches for an optimum route (hereinafter, simply referred to as “route”) from a map database or a route database stored in a car navigation system, and calculates a travel time and the like. It is well known. The route generated by the route generation unit 51 is output to the point determination unit 52.
[0084]
The point determination unit 52 determines a point (tune start point) at which the music to be played is switched based on the average music time length and the average speed of the vehicle. This determination method is performed, for example, as follows. Specifically, first, the starting point of the route is determined as the first music start point. When the vehicle reaches the first song start point, the first song is played. Next, the average music time length is multiplied by the average speed of the vehicle to calculate the distance from the first music start point to the next music start point. The second music start point is determined based on the calculated distance and the first music start point. Thereafter, the music start point on the route can be determined by sequentially determining the next music start point based on the calculated distance and the determined music start point. The latitude / longitude information of the determined music start point is output to the position acquisition unit 16.
[0085]
The latitude / longitude information acquired by the position acquisition unit 16 is converted into an impression value by the parameter conversion unit 17, and a music search is performed using the converted impression value. The music selected as a result of the search is the music to be reproduced at the music start point. The music search unit 20 selects a music for each music start point acquired by the position acquisition unit 16.
[0086]
The list creation unit 53 creates a list of the music pieces selected by the music search unit 20. The list may include music data input from the music search unit 20, or may include only music IDs. In the list, information of a music start point at which music is to be reproduced is associated with each music. The reproduction unit 15 reproduces music according to the list. Specifically, when the current position reaches the music start point, the music corresponding to the music start point is reproduced.
[0087]
Next, a flow of processing of the music search system according to the fifth embodiment will be described. FIG. 16 is a flowchart showing the flow of the process of the music search system according to Embodiment 5. The processing shown in FIG. 16 is performed before the vehicle runs. First, the route generation unit 51 generates a route (Step S51). The starting point and the destination of the route are set, for example, by being input by the user. Next, the point determination unit 52 determines a music start point on the route generated in step S51 (step S52). Further, for each music start point determined in step S52, a music piece that matches the situation of the music start point is selected (step S53). This processing is the same as the processing in steps S21 to S24 in the first embodiment. Finally, the list creation unit 53 creates a list of the music pieces selected in step S53 (step S54). In the fifth embodiment, the above processing is performed before the vehicle travels, and the music is played according to the list while the vehicle travels.
[0088]
As described above, according to the fifth embodiment, before actually arriving at the place, it is possible to select a music piece suitable for the situation of the place in advance. As described above, the music search system according to the present invention is not limited to the search for music that matches the current situation, but may be expected situations (in the case of the fifth embodiment, points expected to pass later) The search may be made for a song that fits. According to the fifth embodiment, since it is not necessary to perform the search processing during traveling, the processing load during traveling in the car navigation system can be reduced.
[0089]
In addition, by transferring the data of the created list to another music playback device, it is possible to perform music playback according to the list in the other music playback device. As a result, even in a music playback device that does not have an impression search / song selection playback unit, it is possible to search for and play back songs that match the situation.
[0090]
Furthermore, if the departure time at the departure point is known, the arrival time at which the music start point is reached can be predicted. If this arrival time is described in the list in association with the music, there is no need to detect the current position during traveling. Therefore, such a list can also be used in a music reproducing device without a GPS receiver.
[0091]
(Embodiment 6)
Hereinafter, a music search system according to Embodiment 6 will be described. The music search system according to Embodiment 6 has a configuration including a mobile terminal and a server. FIG. 17 is a block diagram showing a configuration of a music search system according to Embodiment 6. As shown in FIG. 17, the music search system includes a mobile terminal 61 and a server 62. The mobile terminal 61 and the server 62 can communicate via the Internet 63.
[0092]
FIG. 18 is a block diagram showing a detailed configuration of the mobile terminal 61 and the server 62. Note that, in FIG. 18, components having the same functions as those in FIG. 1 are given the same numbers. The mobile terminal 61 includes a position acquisition unit 16, a reproduction unit 15, and a terminal-side communication unit 64. The server 62 includes a music data storage unit 19, a parameter conversion unit 17, a conversion table storage unit 18, a music search unit 20, an impression value calculation unit 11, and a server-side communication unit 65. The terminal-side communication unit 64 transmits and receives data to and from the server 62 via the Internet 63. The server communication section 65 transmits and receives data to and from the mobile terminal 61 via the Internet 63. Note that the Internet network 63 is not shown in FIG.
[0093]
In the sixth embodiment, when the position acquisition unit 16 of the mobile terminal 61 acquires information on the current position of the mobile terminal 61, the acquired information on the current position is transmitted to the server 62 by the terminal-side communication unit 64. The server 62, which has received the information on the current position, selects a song that matches the situation of the position of the mobile terminal 61 by the parameter conversion unit 17 and the song search unit 20. The data of the selected music and the music ID are transmitted to the mobile terminal 61 by the server-side communication section 65. The mobile terminal 61 that has received the music data reproduces the music by the reproduction unit 15.
[0094]
As described above, according to the sixth embodiment, the mobile terminal 61 does not need to perform a music search process, so that the processing load on the mobile terminal 61 can be reduced. Further, the mobile terminal 61 does not need to store the music data, and the server 62 only needs to store the music data. Therefore, a large number of music data can be searched. Therefore, a large number of music pieces can be provided to the user, and music pieces more suited to the situation can be provided to the user.
[0095]
In the sixth embodiment, the music data is transmitted from the server 62 to the mobile terminal 61. However, in another embodiment, only the music ID may be transmitted. In this case, the mobile terminal 61 needs to have a music database. Further, the server 62 needs to know the contents of the music database of the mobile terminal 61. That is, the server 62 needs to store at least information of the same content as the content stored in the music database of the mobile terminal 61. For example, the mobile terminal 61 may transmit the contents of the music database to the server 62 in advance.
[0096]
In the sixth embodiment, one music piece determined by the server 62 is transmitted to the mobile terminal 61. In another embodiment, a plurality of music pieces are transmitted to the mobile terminal 61 as candidates. You may. FIG. 19 is a diagram showing a configuration according to another embodiment. In FIG. 19, a plurality of songs are selected by the impression value search unit 13 of the server 62, and data and song IDs of those songs are transmitted. In the mobile terminal 61, one music piece is selected from the plurality of received music pieces by the music selection unit 14, and the selected music piece is reproduced.
[0097]
Further, in the sixth embodiment, the mobile terminal 61 is configured not to have the function of searching for music, but in another embodiment, the mobile terminal 61 may be configured to have the function. Specifically, the mobile terminal 61 may be the car navigation system according to the first to fifth embodiments. In this case, music search may be performed on both the mobile terminal 61 and the server 62, and one of the search results may be selected and played. Further, when an appropriate music is not found in the mobile terminal 61, the server 62 may search for a music.
[0098]
In the above description, the number of conversion tables is not limited to one, and a plurality of tables may be selectively used according to predetermined conditions. For example, three types of conversion tables are prepared for morning use, day use, and night use, and in the morning use a table in which more refreshing songs are selected, and in the night use, gentler songs are selected. The table may be used according to time so as to make a table as shown in FIG. As for the tables (position table, impression word table, and impression value table) used in the second embodiment, a plurality of tables may be selectively used according to predetermined conditions, similarly to the conversion table.
[0099]
Further, these tables (the conversion table, the position table, the impression word table, and the impression value table) may be acquired by separately distributing them from outside the music search system. For distribution, the Internet and removable media can be used. Similarly, the music data stored in the music database 10 may be obtained by separately distributing the data from outside the music search system. For example, distribution of a new song is one of the most effective methods.
[0100]
Further, in the first to fifth embodiments, the form in which the music search system is incorporated in the car navigation system has been described, but the form of the music search system is not limited to this. The music search system can be realized by combining a portable music server or a portable audio device storing a large number of music in a semiconductor player, a personal GPS device, and a function of searching for music using an impression value. . If the music search system is realized by a portable mobile terminal, the present system can be used even when traveling by train.
[0101]
In the first to sixth embodiments, the position information is used as the situation parameter, but the situation parameter is not limited to this. For example, the speed of the vehicle may be used. FIG. 20 is a diagram illustrating a modification of the conversion table. In FIG. 20, the impression value X does not correspond to the speed. In this case, the speed information is converted into only the impression value Y, and a music search is performed using only the impression value Y. As described above, it is also possible to search for music using only one type of impression value. The position information and the speed information may be used as the situation parameters, and the position information may be converted into the impression value X and the speed information may be converted into the impression value Y.
[0102]
Further, as the situation parameters, parameters such as ambient noise, temperature, user's pulse, ambient brightness, and altitude of the current position can be considered. In addition, a VICS system that provides traffic information such as traffic information to vehicles on a road is known, but it may be a traffic information situation parameter obtained by this VICS system. Specifically, when the music search system receives the traffic congestion information, it is preferable to create a conversion table that allows the user to select a softer music. In the fourth embodiment, when the music search system receives the traffic congestion information, the impression value may be corrected so that a softer music is selected.
[0103]
When music is continuously played, the same value is obtained as a situation parameter, so that a previously heard music may be played again. For example, when position information is used as a situation parameter, the vehicle may not move much due to signal waiting, traffic congestion, or the like, and position information at almost the same position as the previous time may be obtained. In order to avoid such a case, the history information of the reproduced music may be recorded in the memory, and the music reproduced within a predetermined time in the past may not be selected. Specifically, the music included in the history information is not searched. At this time, the music played before the predetermined time or more may be deleted from the history information. Conversely, music that is frequently listened to may be recorded in the history information memory, and the priority of selection of the music recorded in the history information may be increased.
[0104]
In the first to sixth embodiments, music search is performed using only impression values. However, bibliographic information such as music titles, artist names, and music genre names may be used together with impression values. Good. For example, when the user has input an artist name or a genre name in advance, music search may be performed from the input. Also, for example, it is possible to search for a song whose title includes the phrase “beach”. Further, when the user inputs a specific artist name, a search is performed from songs owned by the artist, and it is possible to enjoy a one-man concert style performance.
[0105]
In the first to sixth embodiments, the music piece selected as the music piece to be reproduced by the music search is the music piece having the impression value closest to the search center coordinate value. As a method of selecting a song, a random number may be selected from among songs having an impression value included within a predetermined distance from the search center coordinate value using a random number.
[0106]
In the fifth embodiment, an example in which a list is created from a route has been described. Conversely, a user may first create a music list and derive a route from the list. If the driving plan is created along the route derived in this way, the user can enjoy the play of determining the driving route by music progression. Such a play can also be called a music rally.
[0107]
Further, the music search systems according to Embodiments 1 to 6 can be used for a schedule management function. For example, the time is set as a situation parameter, and if the time is about to be delayed, the music that seems to be in a hurry is reproduced. Also, for example, a table for storing the scheduled time of the progress of the schedule is prepared as a data table for schedule management. Then, the scheduled time of the progress of the schedule is compared with the current time, and if the margin falls below a certain range, a song having an impression value with a fast tempo is reproduced.
[0108]
Alternatively, vehicle information, for example, information on a boarding railway company may be detected as the situation parameter. The vehicle information may be converted into a position category, and an impression of each railway company or an impression word associated with a railway line may be selected, converted into an impression value, and a tune may be searched. For example, if it is a Kosai Line around Lake Biwa, it will be converted into impression words that remind you of lakes, beaches, boats, yachts, etc.
[0109]
When the music search system can communicate with another device, position information of a predetermined device may be used as a situation parameter. That is, when the position information and the device ID are received from a predetermined device, and the received position information and the current position of the device are within a certain distance, a music piece having a predetermined impression value is reproduced. Thus, when a predetermined device approaches, an event can be generated. For example, when an acquaintance of the user approaches, music that images the acquaintance is reproduced. Personal terminal devices and mobile phones having the function of detecting the position of a wandering elderly or lost child have been developed, but the functions described above can be realized by combining such a device with a music search / playback function. .
[0110]
In Embodiments 1 to 6, the conversion table may be dynamically distributed. For example, in the vicinity of a fast food restaurant, a conversion table is selected so that a song having an impression similar to the theme song of the restaurant is selected. Thereby, the impression of the store can be given to the user, and return to the store can be expected. Furthermore, when the conversion table is distributed, points of the point service may be given to the user.
[0111]
In addition, when a function of adding contents such as a conversion table is added (see Embodiment 3), the contents of the added table can be fed back. Feedback means transmitting the contents of the added tables (conversion table, position table, impression word table, and impression value table) to the collection center. Thereby, the association in each table performed by the user can be collected at the collection center. Then, by distributing the association collected by the collection center to other users, the other users can add the association to a table of their own system. Therefore, it is possible to easily obtain an appropriate impression value or an impression word in a place where the user does not go. This allows the user to share the feeling and emotion when visiting a certain place with other users.
[0112]
In addition, the collection center allows the user's impression of a certain place to be easily counted. For example, if the certain place is a store, it is possible to monitor what impression of the song the user feels matches the store. If you think that the impression of the song is the impression of the store, you can monitor how you feel the atmosphere of the store.
[0113]
Further, when the collection center provides each table or music, the collection center determines the user's preference based on information obtained from the user, and provides a table or music that matches the user's preference. can do.
[0114]
In order to perform the above-described feedback, a configuration similar to that in FIG. 17 may be employed. That is, a communication line between the collection center and the music search system may be established.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a music search system according to a first embodiment.
FIG. 2 is a block diagram showing a functional configuration of the music search system according to the first embodiment.
FIG. 3 is a diagram illustrating an example of an impression space.
FIG. 4 is a diagram showing an example of a conversion table.
FIG. 5 is a flowchart showing a processing flow of the music search system according to the first embodiment.
FIG. 6 is a block diagram showing a functional configuration of a music search system according to Embodiment 2.
FIG. 7 is a diagram illustrating an example of a position table.
FIG. 8 is a diagram illustrating an example of an impression word table.
FIG. 9 is a diagram illustrating an example of an impression value table.
FIG. 10 is a flowchart showing details of a process of converting position information into an impression value in the second embodiment.
FIG. 11 is a block diagram showing a functional configuration of a music search system according to Embodiment 3.
FIG. 12 is a flowchart showing a flow of a process during music reproduction according to the third embodiment.
FIG. 13 is a block diagram showing a functional configuration of a music search system according to Embodiment 4.
FIG. 14 is a flowchart showing a processing flow of the music search system according to the fourth embodiment.
FIG. 15 is a block diagram showing a functional configuration of a music search system according to Embodiment 5.
FIG. 16 is a flowchart showing a processing flow of the music search system according to the fifth embodiment.
FIG. 17 is a block diagram showing a configuration of a music search system according to Embodiment 6.
FIG. 18 is a block diagram showing a detailed configuration of a mobile terminal 61 and a server 62.
FIG. 19 is a diagram showing a configuration according to another embodiment.
FIG. 20 is a diagram showing a modification of the conversion table.
FIG. 21 is a diagram showing a configuration of a conventional music playback device.
[Explanation of symbols]
15 Reproduction unit
16 Position acquisition unit
17 Parameter converter
19 Music data storage
20 Music search section

Claims (14)

楽曲の検索を行う楽曲検索システムであって、
複数の楽曲のデータと、楽曲の特徴を示す楽曲パラメータとを対応付けて格納する楽曲データ格納部と、
ユーザの周囲の状況を示すシチュエーションパラメータを取得する状況取得部と、
前記状況取得部によって取得されたシチュエーションパラメータを楽曲パラメータに変換するパラメータ変換部と、
前記パラメータ変換部によって変換された楽曲パラメータを用いて前記楽曲データ格納部に格納されている楽曲の検索を行い、再生すべき楽曲を選択する楽曲検索部と、
前記楽曲検索部によって選択された楽曲を再生する再生部とを備える、楽曲検索システム。
A music search system for searching for music,
A music data storage unit for storing data of a plurality of music pieces and music parameters indicating characteristics of the music pieces in association with each other;
A situation acquisition unit that acquires a situation parameter indicating a situation around the user;
A parameter conversion unit that converts the situation parameters acquired by the situation acquisition unit into music parameters,
A music search unit that searches for music stored in the music data storage unit using the music parameters converted by the parameter conversion unit, and selects a music to be played,
A music search system, comprising: a playback unit that plays the music selected by the music search unit.
前記楽曲パラメータは、楽曲に対して聴者が受ける印象を数量化した印象値である、請求項1に記載の楽曲検索システム。The music search system according to claim 1, wherein the music parameter is an impression value obtained by quantifying an impression received by a listener for the music. シチュエーションパラメータと、楽曲パラメータとを対応付けた変換テーブルを格納する変換テーブル格納部をさらに備え、
前記パラメータ変換部は、変換テーブルを用いてシチュエーションパラメータを楽曲パラメータに変換する、請求項1に記載の楽曲検索システム。
Further comprising a conversion table storage unit for storing a conversion table in which the situation parameters and the music parameters are associated with each other;
The music search system according to claim 1, wherein the parameter conversion unit converts the situation parameters into music parameters using a conversion table.
ユーザから記録指示を受け付ける記録受付部と、
前記再生部によって楽曲が再生されている際に前記記録受付部が記録指示を受け付けた場合、再生中の楽曲の楽曲パラメータと、現時点におけるシチュエーションパラメータとの組を前記変換テーブルに追加する対応記録部とをさらに備える、請求項3に記載の楽曲検索システム。
A recording receiving unit for receiving a recording instruction from a user,
When the recording receiving unit receives a recording instruction while the music is being reproduced by the reproducing unit, a corresponding recording unit that adds a set of a music parameter of the music being reproduced and a current situation parameter to the conversion table. The music search system according to claim 3, further comprising:
前記シチュエーションパラメータは、ユーザとともに移動する移動体の移動状況を示す移動パラメータであり、
前記移動体に搭載される、請求項1に記載の楽曲検索システム。
The situation parameter is a movement parameter indicating a movement state of a moving body that moves with the user,
The music search system according to claim 1, wherein the music search system is mounted on the moving body.
前記移動パラメータは、前記移動体の位置を示す位置座標であり、
位置座標と、当該位置座標により示される位置の特徴を表現する位置カテゴリとを対応付けた位置テーブルを格納する位置テーブル格納部と、
位置カテゴリと、当該位置カテゴリにおいて再生すべき楽曲の印象値とを対応付けた印象値テーブルを格納する印象値テーブル格納部とをさらに備え、
前記パラメータ変換部は、
前記位置テーブルを用いて、前記状況取得部によって取得された位置座標を、対応する位置カテゴリに変換する位置カテゴリ変換部と、
前記印象値テーブルを用いて、前記位置カテゴリ変換部によって変換された位置カテゴリを、対応する印象値に変換する印象値変換部とを含む、請求項5に記載の楽曲検索システム。
The movement parameter is position coordinates indicating a position of the moving body,
A position table storage unit that stores a position table that associates the position coordinates with a position category that represents a feature of the position indicated by the position coordinates;
A position category, and an impression value table storage unit that stores an impression value table in which an impression value of a song to be reproduced in the position category is associated with the position category,
The parameter conversion unit,
Using the position table, a position category conversion unit that converts the position coordinates obtained by the situation obtaining unit into a corresponding position category,
The music search system according to claim 5, further comprising: an impression value conversion unit that converts the position category converted by the position category conversion unit into a corresponding impression value using the impression value table.
前記移動パラメータは、前記移動体の位置を示す位置座標であり、
位置座標と、当該位置座標により示される位置において再生すべき楽曲の印象を表現する印象語とを対応付けた印象語テーブルを格納する印象語テーブル格納部と、
印象語と印象値とを対応付けた印象値テーブルを格納する印象値テーブル格納部とをさらに備え、
前記パラメータ変換部は、
前記印象語テーブルを用いて、前記状況取得部によって取得された位置座標を、対応する印象語に変換する印象語変換部と、
前記印象値テーブルを用いて、前記印象語変換部によって変換された印象語を、対応する印象値に変換する印象値変換部とを含む、請求項5に記載の楽曲検索システム。
The movement parameter is position coordinates indicating a position of the moving body,
An impression word table storage unit that stores an impression word table in which the position coordinates are associated with an impression word expressing an impression of a song to be reproduced at a position indicated by the position coordinates;
An impression value table storage unit that stores an impression value table in which impression words and impression values are associated with each other;
The parameter conversion unit,
Using the impression word table, an impression word conversion unit that converts the position coordinates acquired by the situation acquisition unit into a corresponding impression word,
The music search system according to claim 5, further comprising: an impression value conversion unit configured to convert the impression word converted by the impression word conversion unit into a corresponding impression value using the impression value table.
前記移動パラメータは、前記移動体の位置を示す位置座標であり、
位置座標と、当該位置座標により示される位置の特徴を表現する位置カテゴリとを対応付けた位置テーブルを格納する位置テーブル格納部と、
位置カテゴリと、当該位置カテゴリにより表現される位置において再生すべき楽曲の印象を表現する印象語とを対応付けた印象語テーブルを格納する印象語テーブル格納部と、
印象語と印象値とを対応付けた印象値テーブル格納部とをさらに備え、
前記パラメータ変換部は、
前記位置テーブルを用いて、前記状況取得部によって取得された位置座標を、対応する位置カテゴリに変換する位置カテゴリ変換部と、
前記印象語テーブルを用いて、前記位置カテゴリ変換部によって変換された位置カテゴリを、対応する印象語に変換する印象語変換部と、
前記印象値テーブルを用いて、前記位置カテゴリ変換部によって変換された位置カテゴリを、対応する印象値に変換する印象値変換部とを含む、請求項5に記載の楽曲検索システム。
The movement parameter is position coordinates indicating a position of the moving body,
A position table storage unit that stores a position table that associates the position coordinates with a position category that represents a feature of the position indicated by the position coordinates;
An impression word table storage unit that stores an impression word table that associates a position category with an impression word that expresses an impression of a song to be reproduced at a position represented by the position category;
An impression value table storage unit that associates impression words with impression values;
The parameter conversion unit,
Using the position table, a position category conversion unit that converts the position coordinates obtained by the situation obtaining unit into a corresponding position category,
An impression word conversion unit that converts the position category converted by the position category conversion unit into a corresponding impression word using the impression word table;
The music search system according to claim 5, further comprising: an impression value conversion unit that converts the position category converted by the position category conversion unit into a corresponding impression value using the impression value table.
所定の2地点間の経路を生成する経路生成部と、
前記経路上の所定の地点を決定する地点決定部と、
前記楽曲検索部によって選択された楽曲のリストを作成するリスト作成部とをさらに備え、
前記状況取得部は、前記所定の地点の位置座標を前記シチュエーションパラメータとして取得し、
前記再生部は、前記リストに従って楽曲を再生する、請求項1に記載の楽曲検索システム。
A route generation unit that generates a route between two predetermined points;
A point determination unit that determines a predetermined point on the route,
A list creation unit that creates a list of songs selected by the song search unit,
The situation obtaining unit obtains position coordinates of the predetermined point as the situation parameters,
The music search system according to claim 1, wherein the reproduction unit reproduces music according to the list.
移動体端末と、当該移動体端末と通信可能なサーバとを備え、
前記移動体端末は、
前記状況取得部と、
前記再生部とを含み、
前記サーバは、
前記楽曲データ格納部と、
前記パラメータ変換部と、
前記楽曲検索部とを含み、
前記状況取得部は、取得したシチュエーションパラメータを前記サーバに送信し、
前記パラメータ変換部は、前記状況取得部から送信されてくるシチュエーションパラメータを楽曲パラメータに変換し、
前記楽曲検索部は、選択した楽曲のデータを前記移動体端末へ送信し、
前記再生部は、前記楽曲検索部から送信されてくる楽曲のデータを受信し、当該楽曲を再生する、請求項1に記載の楽曲検索システム。
A mobile terminal, a server capable of communicating with the mobile terminal,
The mobile terminal,
The status acquisition unit;
Including the playback unit,
The server comprises:
The music data storage unit;
The parameter conversion unit;
Including the music search unit,
The situation obtaining unit transmits the obtained situation parameter to the server,
The parameter conversion unit converts the situation parameters transmitted from the situation acquisition unit to music parameters,
The music search unit transmits data of the selected music to the mobile terminal,
The music search system according to claim 1, wherein the playback unit receives music data transmitted from the music search unit and plays the music.
前記楽曲データ格納部は、楽曲を識別するための楽曲IDを楽曲のデータと対応付けて格納しており、
移動体端末と、当該移動体端末と通信可能なサーバとを備え、
前記移動体端末は、
前記楽曲データ格納部と、
前記状況取得部と、
前記再生部とを含み、
前記サーバは、
前記パラメータ変換部と、
前記楽曲検索部と、
前記楽曲データ格納部に格納されている内容と同内容の情報を少なくとも格納するサーバ側楽曲データ格納部とを含み、
前記状況取得部は、取得したシチュエーションパラメータを前記サーバに送信し、
前記パラメータ変換部は、前記状況取得部から送信されてくるシチュエーションパラメータを楽曲パラメータに変換し、
前記楽曲検索部は、選択した楽曲を識別するための楽曲IDを前記移動体端末へ送信し、
前記再生部は、前記楽曲検索部から送信されてくる楽曲IDにより示される楽曲を再生する、請求項1に記載の楽曲検索システム。
The song data storage unit stores a song ID for identifying a song in association with song data,
A mobile terminal, a server capable of communicating with the mobile terminal,
The mobile terminal,
The music data storage unit;
The status acquisition unit;
Including the playback unit,
The server comprises:
The parameter conversion unit;
The music search unit;
A server-side music data storage unit that stores at least information of the same contents as the contents stored in the music data storage unit,
The situation obtaining unit transmits the obtained situation parameter to the server,
The parameter conversion unit converts the situation parameters transmitted from the situation acquisition unit to music parameters,
The music search unit transmits a music ID for identifying the selected music to the mobile terminal,
The music search system according to claim 1, wherein the reproduction unit reproduces a music indicated by a music ID transmitted from the music search unit.
楽曲の検索を行う楽曲検索方法であって、
複数の楽曲のデータと、楽曲の特徴を示す楽曲パラメータとを対応付けて格納しておき、
ユーザの周囲の状況を示すシチュエーションパラメータを取得する状況取得ステップと、
前記状況取得ステップにおいて取得されたシチュエーションパラメータを楽曲パラメータに変換するパラメータ変換ステップと、
前記パラメータ変換ステップにおいて変換された楽曲パラメータを用いて前記格納されている楽曲の検索を行い、再生すべき楽曲を選択する楽曲検索ステップと、
前記楽曲検索ステップにおいて選択された楽曲を再生する再生ステップとを備える、楽曲検索方法。
A music search method for searching for music,
A plurality of music data and music parameters indicating characteristics of the music are stored in association with each other,
A situation acquisition step of acquiring a situation parameter indicating a situation around the user;
A parameter conversion step of converting the situation parameters acquired in the situation acquisition step to music parameters,
Performing a search for the stored music using the music parameters converted in the parameter conversion step, a music search step of selecting a music to be reproduced,
A reproducing step of reproducing the music selected in the music searching step.
楽曲の検索を行う楽曲検索方法をコンピュータに実行させるためのプログラムであって、
前記コンピュータには、複数の楽曲のデータと、楽曲の特徴を示す楽曲パラメータとが対応付けて格納されており、
ユーザの周囲の状況を示すシチュエーションパラメータを取得する状況取得ステップと、
前記状況取得ステップにおいて取得されたシチュエーションパラメータを楽曲パラメータに変換するパラメータ変換ステップと、
前記パラメータ変換ステップにおいて変換された楽曲パラメータを用いて前記格納されている楽曲の検索を行い、再生すべき楽曲を選択する楽曲検索ステップと、
前記楽曲検索ステップにおいて選択された楽曲を再生する再生ステップとを、前記コンピュータに実行させるプログラム。
A program for causing a computer to execute a music search method for performing music search,
The computer stores a plurality of music data and music parameters indicating characteristics of the music in association with each other.
A situation acquisition step of acquiring a situation parameter indicating a situation around the user;
A parameter conversion step of converting the situation parameters acquired in the situation acquisition step to music parameters,
Performing a search for the stored music using the music parameters converted in the parameter conversion step, a music search step of selecting a music to be reproduced,
And a reproducing step of reproducing the music selected in the music searching step.
楽曲の検索を行う楽曲検索方法をコンピュータに実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体であって、前記コンピュータには、複数の楽曲のデータと、楽曲の特徴を示す楽曲パラメータとが対応付けて格納されており、
ユーザの周囲の状況を示すシチュエーションパラメータを取得する状況取得ステップと、
前記状況取得ステップにおいて取得されたシチュエーションパラメータを楽曲パラメータに変換するパラメータ変換ステップと、
前記パラメータ変換ステップにおいて変換された楽曲パラメータを用いて前記格納されている楽曲の検索を行い、再生すべき楽曲を選択する楽曲検索ステップと、
前記楽曲検索ステップにおいて選択された楽曲を再生する再生ステップとを、前記コンピュータに実行させるプログラムを記録した記録媒体。
A computer-readable recording medium storing a program for causing a computer to execute a music search method for performing music search, wherein the computer has data of a plurality of music and music parameters indicating characteristics of the music. Is stored in association with
A situation acquisition step of acquiring a situation parameter indicating a situation around the user;
A parameter conversion step of converting the situation parameters acquired in the situation acquisition step to music parameters,
Performing a search for the stored music using the music parameters converted in the parameter conversion step, a music search step of selecting a music to be reproduced,
A recording medium storing a program for causing the computer to execute a reproduction step of reproducing the music selected in the music search step.
JP2003185334A 2002-07-02 2003-06-27 Musical piece retrieval system Withdrawn JP2004086189A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003185334A JP2004086189A (en) 2002-07-02 2003-06-27 Musical piece retrieval system

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2002193047 2002-07-02
JP2003185334A JP2004086189A (en) 2002-07-02 2003-06-27 Musical piece retrieval system

Publications (1)

Publication Number Publication Date
JP2004086189A true JP2004086189A (en) 2004-03-18

Family

ID=32071915

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003185334A Withdrawn JP2004086189A (en) 2002-07-02 2003-06-27 Musical piece retrieval system

Country Status (1)

Country Link
JP (1) JP2004086189A (en)

Cited By (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292730A (en) * 2004-04-05 2005-10-20 Sony Corp Information presentation apparatus and method
WO2006030612A1 (en) * 2004-09-16 2006-03-23 Sony Corporation Content creating device and content creating method
WO2006038429A1 (en) * 2004-09-30 2006-04-13 Matsushita Electric Industrial Co., Ltd. Music content reproduction device
JP2006214750A (en) * 2005-02-01 2006-08-17 Pioneer Electronic Corp Broadcast controller, its method, its program, and storage medium storing program
WO2006095808A1 (en) * 2005-03-11 2006-09-14 Pioneer Corporation Video reproduction device, video reproduction method, video reproduction program, and computer-readable recording medium
JP2006262254A (en) * 2005-03-18 2006-09-28 Sony Ericsson Mobilecommunications Japan Inc Mobile terminal device
JP2006331496A (en) * 2005-05-24 2006-12-07 Xanavi Informatics Corp Music recording and reproducing device, and onboard information terminal
JP2007172138A (en) * 2005-12-20 2007-07-05 Sony Corp Content reproduction device, list correction unit, content reproduction method and list correction method
JP2007264584A (en) * 2006-03-03 2007-10-11 Victor Co Of Japan Ltd Music reproducing device and music reproducing program
JP2008090441A (en) * 2006-09-29 2008-04-17 Denso It Laboratory Inc Music providing device
JP2008242052A (en) * 2007-03-27 2008-10-09 Yamaha Corp Music reproduction controller
JP2009500777A (en) * 2005-06-30 2009-01-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Electronic device and method for generating a sequence of content items
JP2009251276A (en) * 2008-04-07 2009-10-29 Sony Corp Music piece reproducing apparatus, music piece reproducing method and music piece reproducing program
JP2010049270A (en) * 2006-12-29 2010-03-04 Harman Internatl Industries Inc Vehicle infotainment system with personalized content
US7743049B2 (en) 2004-11-04 2010-06-22 Panasonic Corporation Content data retrieval apparatus
JP2010537229A (en) * 2007-08-14 2010-12-02 ソニー エリクソン モバイル コミュニケーションズ, エービー System and method for incorporating music into non-music applications using music metadata
JP2011086302A (en) * 2010-11-24 2011-04-28 Victor Co Of Japan Ltd Device, method and program for retrieving and reproducing musical piece
WO2011148452A1 (en) * 2010-05-24 2011-12-01 株式会社フォーサイド・ドット・コム Digital book system and content server
JP2013125572A (en) * 2011-12-16 2013-06-24 Mic Ware:Kk Information system, server device, terminal device, method for transmitting music piece, method for reproducing music piece, program, and data structure
JP2014522027A (en) * 2011-07-22 2014-08-28 エス エム エンターテインメント カンパニー リミテッド Social music service providing method and system using LBS, and recording medium on which program for executing the providing method is recorded
JP5954884B1 (en) * 2015-08-21 2016-07-20 株式会社でむこやん Music search system, music search method, server device, and program
JPWO2018079850A1 (en) * 2016-10-31 2019-09-19 ヤマハ株式会社 Signal processing apparatus, signal processing method, and program
CN113226883A (en) * 2018-12-20 2021-08-06 罗伯特·博世有限公司 Device and method for controlling the output of driver information and for maintaining the driver's attention of an automated vehicle
JP7323142B1 (en) 2022-06-16 2023-08-08 株式会社ソケッツ Content selection apparatus and method

Cited By (38)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005292730A (en) * 2004-04-05 2005-10-20 Sony Corp Information presentation apparatus and method
US8199937B2 (en) 2004-04-05 2012-06-12 Sony Corporation Contents reproduction apparatus and method thereof
WO2006030612A1 (en) * 2004-09-16 2006-03-23 Sony Corporation Content creating device and content creating method
US7960638B2 (en) 2004-09-16 2011-06-14 Sony Corporation Apparatus and method of creating content
US7460919B2 (en) 2004-09-30 2008-12-02 Panasonic Corporation Music contents reproducing apparatus
WO2006038429A1 (en) * 2004-09-30 2006-04-13 Matsushita Electric Industrial Co., Ltd. Music content reproduction device
US7743049B2 (en) 2004-11-04 2010-06-22 Panasonic Corporation Content data retrieval apparatus
JP2006214750A (en) * 2005-02-01 2006-08-17 Pioneer Electronic Corp Broadcast controller, its method, its program, and storage medium storing program
WO2006095808A1 (en) * 2005-03-11 2006-09-14 Pioneer Corporation Video reproduction device, video reproduction method, video reproduction program, and computer-readable recording medium
JP2006262254A (en) * 2005-03-18 2006-09-28 Sony Ericsson Mobilecommunications Japan Inc Mobile terminal device
JP2006331496A (en) * 2005-05-24 2006-12-07 Xanavi Informatics Corp Music recording and reproducing device, and onboard information terminal
JP2009500777A (en) * 2005-06-30 2009-01-08 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Electronic device and method for generating a sequence of content items
US8200350B2 (en) 2005-12-20 2012-06-12 Sony Corporation Content reproducing apparatus, list correcting apparatus, content reproducing method, and list correcting method
JP2007172138A (en) * 2005-12-20 2007-07-05 Sony Corp Content reproduction device, list correction unit, content reproduction method and list correction method
JP2007264584A (en) * 2006-03-03 2007-10-11 Victor Co Of Japan Ltd Music reproducing device and music reproducing program
JP4517401B2 (en) * 2006-03-03 2010-08-04 日本ビクター株式会社 Music playback apparatus, music playback program, music playback method, music selection apparatus, music selection program, and music selection method
JP2008090441A (en) * 2006-09-29 2008-04-17 Denso It Laboratory Inc Music providing device
JP2010049270A (en) * 2006-12-29 2010-03-04 Harman Internatl Industries Inc Vehicle infotainment system with personalized content
JP2011076709A (en) * 2006-12-29 2011-04-14 Harman Internatl Industries Inc Vehicle infotainment system with personalized content
JP2008242052A (en) * 2007-03-27 2008-10-09 Yamaha Corp Music reproduction controller
JP2010537229A (en) * 2007-08-14 2010-12-02 ソニー エリクソン モバイル コミュニケーションズ, エービー System and method for incorporating music into non-music applications using music metadata
KR101534346B1 (en) * 2008-04-07 2015-07-06 소니 주식회사 Music piece reproducing apparatus, music piece reproducing method and recording medium
GB2459008B (en) * 2008-04-07 2010-11-10 Sony Corp Music piece reproducing apparatus and music piece reproducing method
JP4623124B2 (en) * 2008-04-07 2011-02-02 ソニー株式会社 Music playback device, music playback method, and music playback program
US8076567B2 (en) 2008-04-07 2011-12-13 Sony Corporation Music piece reproducing apparatus and music piece reproducing method
JP2009251276A (en) * 2008-04-07 2009-10-29 Sony Corp Music piece reproducing apparatus, music piece reproducing method and music piece reproducing program
WO2011148452A1 (en) * 2010-05-24 2011-12-01 株式会社フォーサイド・ドット・コム Digital book system and content server
JP2011086302A (en) * 2010-11-24 2011-04-28 Victor Co Of Japan Ltd Device, method and program for retrieving and reproducing musical piece
US9271115B2 (en) 2011-07-22 2016-02-23 S.M. Entertainment Co., Ltd. Method and system for providing a social music service using an LBS, and recording medium for recording a program for executing the method
JP2014522027A (en) * 2011-07-22 2014-08-28 エス エム エンターテインメント カンパニー リミテッド Social music service providing method and system using LBS, and recording medium on which program for executing the providing method is recorded
JP2013125572A (en) * 2011-12-16 2013-06-24 Mic Ware:Kk Information system, server device, terminal device, method for transmitting music piece, method for reproducing music piece, program, and data structure
JP5954884B1 (en) * 2015-08-21 2016-07-20 株式会社でむこやん Music search system, music search method, server device, and program
WO2017033220A1 (en) * 2015-08-21 2017-03-02 株式会社でむこやん Music search system, music search method, server device, and program
US10776421B2 (en) 2015-08-21 2020-09-15 Demucoyan, Inc. Music search system, music search method, server device, and program
JPWO2018079850A1 (en) * 2016-10-31 2019-09-19 ヤマハ株式会社 Signal processing apparatus, signal processing method, and program
CN113226883A (en) * 2018-12-20 2021-08-06 罗伯特·博世有限公司 Device and method for controlling the output of driver information and for maintaining the driver's attention of an automated vehicle
JP2022513521A (en) * 2018-12-20 2022-02-08 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング Devices and methods for controlling the output of driver information for self-driving vehicles and maintaining the driver's attention.
JP7323142B1 (en) 2022-06-16 2023-08-08 株式会社ソケッツ Content selection apparatus and method

Similar Documents

Publication Publication Date Title
US7227071B2 (en) Music search system
JP2004086189A (en) Musical piece retrieval system
US11874124B2 (en) Duration-based customized media program
US8199937B2 (en) Contents reproduction apparatus and method thereof
US6975938B2 (en) Driving plan producing device and method, and navigation apparatus
KR101233800B1 (en) Musical content reproducing device and music content reproducing method
US7529676B2 (en) Audio device control device, audio device control method, and program
US6801852B2 (en) Apparatus for and method of controlling electronic system for movable body, electronic system for movable body, program storage device and computer data signal embodied in carrier wave
US11755280B2 (en) Media content system for enhancing rest
JP2005038352A (en) Reproduction device, reproduction system and reproduction control method
JP2006146630A (en) Content selection reproduction device, content selection reproduction method, content distribution system and content retrieval system
JP2003140664A (en) Audio reproducing device and information providing device, and audio reproducing program and information reproducing program
JP2007334685A (en) Content retrieval device and content retrieval method, and program
JP2004294262A (en) Vehicle mounted information apparatus, creation method for pathway music information database, retrieval method for music information, method for information processing and computer program
JP2006293697A (en) Onboard music device
JP2004348895A (en) Onboard reproducing device and its control method, and control program and recording medium
JP2009043353A (en) Title giving device, title giving method, title giving program, and recording medium
JP2021139674A (en) Content output system and content output method
JP6858567B2 (en) Information output device and information output method
JP4314002B2 (en) Map information storage medium and map information storage disk
JP4353994B2 (en) Sound reproduction device, navigation device, sound reproduction system
JP2004347959A (en) Music reproducing device, distribution server, control method of music reproducing device, control program and recording medium
JP2003022282A (en) Retrieval system and retrieval method
JP2023077685A (en) Karaoke system and server device
JP2010277617A (en) On-board device, and on-board device control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060331

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080418

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080708

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080901

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080926

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20081118

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20110826