JP4322691B2 - 選曲装置 - Google Patents

選曲装置 Download PDF

Info

Publication number
JP4322691B2
JP4322691B2 JP2004014197A JP2004014197A JP4322691B2 JP 4322691 B2 JP4322691 B2 JP 4322691B2 JP 2004014197 A JP2004014197 A JP 2004014197A JP 2004014197 A JP2004014197 A JP 2004014197A JP 4322691 B2 JP4322691 B2 JP 4322691B2
Authority
JP
Japan
Prior art keywords
music
sensitivity
word
sensitivity word
selection
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004014197A
Other languages
English (en)
Other versions
JP2005209276A (ja
Inventor
康悟 鈴木
智 小田川
泰輝 児玉
岳彦 塩田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2004014197A priority Critical patent/JP4322691B2/ja
Priority to EP04030499A priority patent/EP1557818A3/en
Priority to US11/034,851 priority patent/US7247786B2/en
Publication of JP2005209276A publication Critical patent/JP2005209276A/ja
Application granted granted Critical
Publication of JP4322691B2 publication Critical patent/JP4322691B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/0033Recording/reproducing or transmission of music for electrophonic musical instruments
    • G10H1/0041Recording/reproducing or transmission of music for electrophonic musical instruments in coded form
    • G10H1/0058Transmission between separate instruments or between individual components of a musical system
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/075Musical metadata derived from musical analysis or for use in electrophonic musical instruments
    • G10H2240/085Mood, i.e. generation, detection or selection of a particular emotional content or atmosphere in a musical piece

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、複数の楽曲の中から選曲する選曲装置関する。
複数の楽曲の中からユーザ好みの楽曲を選曲するための方法としては、楽曲の物理的特徴をデータとして抽出し、その抽出結果に応じて複数の楽曲を分類しておき、選曲に用いることが知られている。楽曲の物理的特徴データとしては、例えば、楽曲データからパワースペクトルデータを得る方法が公知である(特許文献1参照)。また、楽曲の再生音の周波数帯域や音の長さ、楽譜に基づいてNグラム法で時系列変化をパターン化することにより物理的特徴データを得ることも知られている。
特開平10−134549号公報
しかしながら、かかる従来の選曲方法では、物理的特徴データはユーザの感性とは相関を持ったデータではないので、ユーザがイメージするような楽曲が必ずしも選曲されるとは限らないという問題点があった。
そこで、本発明が解決しようとする課題には、上記の問題点が一例として挙げられ、ユーザの感性に適合した楽曲を提示することができる選曲装置提供することが本発明の目的である。
本願請求項1に係る発明の選曲装置は、複数の楽曲のうちから入力操作に応じて選曲する選曲装置であって、前記複数の楽曲各々について前記複数の楽曲各々の和音変化度と、前記複数の楽曲各々の前記和音変化度以外の特徴を示す少なくとも1の特徴パラメータとを含む楽曲特徴量をデータとして保存した第1保存手段と、予め定められた互いに異なる複数の人物特性のうちのいずれか1の人物特性を前記入力操作に応じて設定する第1設定手段と、曲用の感性語を前記入力操作に応じて設定する第2設定手段と、前記第2設定手段によって設定された選曲用の感性語が予め定められた複数の感性語のうちの1の感性語であるときには、前記第1設定手段によって設定された前記人物特性と前記第2設定手段によって設定された前記1の感性語とに対応した楽曲特徴量を有する楽曲を前記第1保存手段に保存された前記複数の楽曲各々の楽曲特徴量に応じて選曲し、前記第2設定手段によって設定された選曲用の感性語が前記複数の感性語以外の感性語であるときには、前記第1保存手段に保存された前記複数の楽曲からランダムに楽曲を選曲する選曲手段と、前記選曲手段によって選曲された楽曲が前記選曲用の感性語と合致するか否かを前記入力操作に応じて判別する合致判別手段と、前記合致判別手段の判別結果に応じて前記第1設定手段によって設定された前記人物特性について前記選曲手段における選曲の際の前記複数の感性語各々及び前記複数の感性語以外の感性語と前記複数の楽曲各々の楽曲特徴量との間の対応関係を学習してその対応関係を変化させる学習手段と、を備えたことを特徴としている。
以下、本発明の実施例を図面を参照しつつ詳細に説明する。
図1は本発明による選曲装置を示している。この選曲装置は、楽曲入力装置1、操作入力装置2、データ蓄積装置3,4,5、制御装置6、表示装置7、楽曲再生装置8、ディジタル/アナログ変換装置9及びスピーカ10を備えている。
楽曲入力装置1は制御装置6及びデータ蓄積装置3に接続され、ディジタル化された楽曲のオーディオ信号(例えば、PCMデータ)を本選曲装置に入力するための装置である。楽曲入力装置1としては、例えば、CD等のディスクを差制するディスクプレーヤ、或いは楽曲データのストリーミング配信を受け入れるストリーミングインターフェースである。操作入力装置2は本選曲装置に対してユーザが操作してデータや指令を入力するための装置である。操作入力装置2には、文字キー及びテンキーの他に、「YES」キー、「NO」キー、「終了」キー、「次曲」キー等の専用キーが設けられている。操作入力装置2の出力は制御装置6に接続されている。なお、操作入力装置2のキーの種類については上記のものに特に限定されない。
第3保存手段であるデータ蓄積装置3には楽曲入力装置1から供給された楽曲データがファイルとして記憶される。楽曲データは楽曲の再生音を示すデータであり、例えば、PCMデータ、MP3データ、MIDIデータなどである。また、データ蓄積装置3には楽曲毎の曲名、歌手名などの楽曲情報も保存されている。データ蓄積装置3に蓄積されている楽曲データは複数の楽曲1〜n(nは複数)に対応している。データ蓄積装置4には、データ蓄積装置3に楽曲データとして蓄積されたn曲数分の楽曲各々の和音変化度(1)、和音変化度(2)、和音変化度(3)、ビート(単位時間当たりの拍数)、ビート最大レベル、平均振幅レベル、最大振幅レベル、及びキーからなる特徴パラメータ各々の特徴値が特徴パラメータデータベース(第1保存手段)として保存されている。和音変化度(1)は楽曲の1分間当たりの和音数、和音変化度(2)は楽曲に使用されている和音の種類数、和音変化度(3)は不協和音等の和音進行中で楽曲の印象を与えるような変化点数である。
なお、和音そのものは、楽曲に深みを付けたり、人に対して緊張感などを与えたりする要素を持っている。また、和音進行によって楽曲に雰囲気を付けることもできる。このような心理的に訴える要素を持っている和音は、感性語による楽曲の選曲装置に使用する楽曲特徴量として最適であり、単に曲調の特徴に限らず、歌詞の内容を含む作者の意図も少なからず反映されていると考えられるので、和音を特徴パラメータの一部としている。
また、データ蓄積装置4には、予め定められた感性語毎に和音変化度(1)、和音変化度(2)、和音変化度(3)、ビート、ビート最大レベル、平均振幅レベル、最大振幅レベル、及びキーからなる特徴パラメータ各々に対する平均値及び不偏分散値が年代及び性別毎にデフォルトデータベース(第2保存手段)として保存されている。平均値及び不偏分散値は特徴パラメータ各々の特徴値と共に感性適合値を算出するために用いられる補正値である。平均値及び不偏分散値については後述する。年代は10代、20代、30代、40代及び50代以上に分けられ、後述の図5に示すように、それらの年代毎に性別として男性用データテーブルと女性用データテーブルとがある。
図2は、そのデフォルトデータベース内の1つのデータテーブルの内容、すなわち感性語毎の特徴パラメータ各々の平均値及び不偏分散値を表によって示している。
ここで、感性語とは、人間が楽曲を聴いたとき感じるフィーリングを表す語句である。例えば、「ノリがいい」、「静かな」、「明るい」、「悲しい」、「癒される」及び「せつない」などである。
データ蓄積装置5には、合致曲データベース(第4保存手段)及び非合致曲データベース(第6保存手段)が形成される。それらのデータベース各々には感性語毎に50曲分のデータが保存される。50曲分以上の曲データについては書き込みが最も古いデータを消去しつつ新たなデータを書き込むことが行われる。なお、合致曲データベース及び非合致曲データベース各々の保存楽曲数は50曲に限定されず、他の曲数でも良いことは勿論である。
制御装置6は、例えば、マイクロコンピュータからなり、後述するようにユーザの入力操作に応じて選曲動作を行う。
表示装置7には制御装置6の制御における選択項目、楽曲入力装置1において入力された内容及びユーザに提示する曲リストが表示される。
楽曲再生装置8は、ユーザによって選曲された楽曲の楽曲データをデータ蓄積装置3から読み出して再生し、ディジタルオーディオ信号として順次出力する。ディジタル/アナログ変換装置9は楽曲再生装置8によって再生されたディジタルオーディオ信号をアナログオーディオ信号に変換してスピーカ10に供給する。
次に、かかる構成の選曲システムの選曲動作について説明する。なお、選曲装置を利用するユーザは1人としているが、複数のユーザが利用する装置の場合には選曲動作を開始するに当たってユーザを特定するためにユーザIDを操作入力装置2を介して入力する必要がある。これは後述する個人学習値を利用するユーザを特定するためである。
制御装置6は選曲動作を開始すると、図3及び図4に示すように、先ず、ユーザの年代及び性別の選択を要求するための映像を表示装置7に表示させる(ステップS1)。表示装置7の画面には、年代では10代、20代、30代、40代及び50代以上が選択肢として表示され、性別では男性と女性とが選択肢として表示される。これらの年代及び性別各々の選択肢のうちからいずれか1の選択を促す指示が表示される。このような表示に従ってユーザはユーザ自身の年代及び性別の操作入力を操作入力装置2を介して行うことができる。制御装置6は、ステップS1の実行後、操作入力があったか否かを判別する(ステップS2)。その操作入力があったならば、入力内容、すなわちユーザの年代及び性別を保持し(ステップS3)、感性語の選択を要求するための映像を表示装置7に表示させる(ステップS4)。表示装置7の画面には、選曲のための感性語として、「ノリがいい」、「静かな」、「明るい」、「悲しい」、「癒される」及び「せつない」などの選択肢が表示され、更に「他の感性語」という選択肢が表示される。同時に、これらの表示された選択肢のうちからいずれか1の選択の指示が表示される。このような表示に従ってユーザは感性語又は他の感性語の選択のための操作入力を操作入力装置2を介して行うことができる。制御装置6は、ステップS4の実行後、操作入力があったか否かを判別する(ステップS5)。その操作入力があったならば、表示された感性語のうちのいずれか1の選択か否かを操作入力装置2の出力に応じて判別する(ステップS6)。すなわち、表示された感性語のうちのいずれか1の感性語と「他の感性語」とのどちらであるかが判別される。
制御装置6は、表示された感性語のうちのいずれか1が選択された場合にはその選択された感性語を取り込み(ステップS7)、その選択された感性語についての個人学習値が存在するか否かを判別する(ステップS8)。個人学習値とは、選択された感性語に対するユーザ専用の特徴パラメータ各々の平均値及び不偏分散値であり、その平均値及び不偏分散値は後述のステップにおいて演算され、データ蓄積装置4に個人学習値データベース(第5保存手段)として保存される。データ蓄積装置4に選択された感性語についての個人学習値が存在しないならば、デフォルトデータベース内のユーザの年代及び性別によって定まるデータテーブルを選択し(ステップS9)、そのデータテーブルから選択された感性語に対応した特徴パラメータ各々の平均値及び不偏分散値を読み出す(ステップS10)。制御装置6は、図5に示すように、年代及び選別に対応するデータテーブルを決定するための表データを有し、ステップS9ではその表データを用いてデータテーブルを選択する。
一方、データ蓄積装置5に選択された感性語についての個人学習値が存在するならば、個人学習値を利用して選曲するか否かをユーザに尋ねるための映像を表示装置7に表示させる(ステップS11)。この表示に従ってユーザは個人学習値を利用するか否かの選択のための「YES」キー又は「NO」キーの操作入力を操作入力装置2を介して行うことができる。制御装置6は、ステップS11の実行後、「YES」キーと「NO」キーとのうちのいずれの操作入力があったか否かを判別する(ステップS12)。個人学習値を利用することを示す「YES」キーの操作入力があった場合には、個人学習値データベースから選択された感性語に対応した特徴パラメータ各々の平均値及び不偏分散値を読み出す(ステップS13)。個人学習値を利用しないことを示す「NO」キーの操作入力があった場合には、ステップS9及びS10に移行してデフォルトデータベース内のユーザの年代及び性別によって定まるデータテーブルから、選択された感性語に対応した特徴パラメータ各々の平均値及び不偏分散値を読み出す。
制御装置6は、ステップS10又はステップS13において特徴パラメータ各々の平均値及び不偏分散値を読み出すと、n曲分の楽曲各々の感性適合値(マッチング値)を算出する(ステップS14)。i番目の楽曲の感性適合値は次のように算出される。
感性適合値=(1/|a(i)-Ma|)×(1/Sa)+(1/|b(i)-Mb|)×(1/Sb)+(1/|c(i)-Mc|)×1/Sc)+(1/|d(i)-Md|)×(1/Sd)+(1/|e(i)-Me|)×(1/Se)+(1/|f(i)-Mf|)×(1/Sf)+(1/|g(i)-Mg|)×(1/Sg)+(1/|h(i)-Mh|)×(1/Sh)
この算出式において、i番目の楽曲の和音変化度(1)をa(i)、bはi番目の楽曲の和音変化度(2)をb(i)、i番目の楽曲の和音変化度(3)をc(i)、i番目の楽曲のビートをd(i)、i番目の楽曲のビート最大レベルをe(i)、i番目の楽曲の平均振幅レベルをf(i)、i番目の楽曲の最大振幅レベルをg(i)、i番目の楽曲のキーをh(i)とする。また、選択された感性語をAとし、その感性語Aの平均値,不偏分散値を和音変化度(1)についてはMa,Sa、和音変化度(2)についてはMb,Sb、和音変化度(3)についてはMc,Sc、ビートについてはMd,Sd、ビート最大レベルについてはMe,Se、平均振幅レベルについてはMf,Sf、最大振幅レベルについてはMg,Sg、キーについてはMh,Shである。
制御装置6は、n曲分の楽曲各々の感性適合値を算出すると、感性適合値が大なる楽曲順を示す楽曲リストを作成し(ステップS15)、その楽曲リストを示す映像を表示装置7に表示させる(ステップS16)。表示装置7の画面には、楽曲名、歌手名等の楽曲情報がデータ蓄積装置3から読み出されて感性適合値が大なる楽曲順に表示される。
制御装置6は、ステップS6において「他の感性語」が選択された場合、すなわち、ユーザが予め用意された感性語以外の感性語に適合した楽曲を望んでいる場合である。この場合には、感性語の入力を要求するための映像を表示装置7に表示させる(ステップS17)。この表示に従ってユーザは自由な感性語を文字によって操作入力装置2を介して操作入力することができる。制御装置6は、ステップS17の実行後、文字の操作入力があったか否かを判別する(ステップS18)。制御装置6は、操作入力があったならば、その操作入力された文字を感性語として取り込んで保存する(ステップS19)。制御装置6は、データ蓄積装置3に楽曲データが蓄積されている楽曲1〜nを用いてランダムな楽曲リストを作成し(ステップS20)、上記のステップS16に進んでその楽曲リストを示す映像を表示装置7に表示させる。表示装置7の画面には、楽曲名、歌手名等の楽曲情報がランダムな楽曲順に表示される。
ステップS16の実行後、変数mを1と設定し(ステップS21)、その楽曲リストのうちの第m番目の楽曲の楽曲データをデータ蓄積装置3から読み出して楽曲再生装置8に供給することにより楽曲再生を指示する(ステップS22)。楽曲再生装置8は供給された第m番目の楽曲の楽曲データを再生し、それがディジタル信号としてディジタル/アナログ変換装置9に供給される。ディジタル/アナログ変換装置9においてアナログオーディオ信号に変換された後、スピーカ10から第m番目の楽曲再生音が出力されることになる。よって、ユーザはその楽曲再生音を聴取することができる。
再生中の楽曲について個人学習をするか否かをユーザに尋ねるための映像を表示装置7に表示させる(ステップS23)。この表示に従ってユーザは再生中の楽曲について個人学習するか否かの選択のための「YES」キー又は「NO」キーの操作入力を操作入力装置2を介して行うことができる。制御装置6は、ステップS23の実行後、「YES」キーと「NO」キーとのうちのいずれの操作入力があったか否かを判別する(ステップS24)。個人学習をすることを示す「YES」キーの操作入力があったならば、学習ルーチンに移行する(ステップS31)。
個人学習をしないことを示す「NO」キーの操作入力があった場合には、楽曲リストのうちの再生中の楽曲の次順番の楽曲の再生に移行するかどうか、或いは選曲を止めるかどうかをユーザに尋ねるための映像を表示装置7に表示させる(ステップS25)。この表示に従ってユーザが操作入力装置2を入力操作することにより、表示された楽曲リストのうちの再生中の楽曲の次の楽曲の再生に移行することができ、また選曲を途中で中止することもできる。制御装置6は、ステップS25の実行後、「次曲」キーの操作入力があったか否かを判別する(ステップS26)。「次曲」キーの操作入力がないならば、「終了」キーの操作入力があったか否かを判別する(ステップS27)。
「次曲」キーの操作入力があったならば、変数mに1を加算して新たな変数mの値を求め(ステップS28)、変数mが楽曲リストの最終番MAXより大であるか否かを判別する(ステップS29)。m>MAXならば、選曲動作を終了する。その終了の際には楽曲リストの最終番まで楽曲再生したことをユーザに知らせるための映像を表示装置7に表示させても良い。一方、m≦MAXならば、ステップS22に戻って上記の動作を繰り返す。
「終了」キーの操作入力があったならば、楽曲再生装置8に対して楽曲再生の中止を指示する(ステップS30)。これによって制御装置6による選曲動作が終了するが、ステップS1又はS4に戻っても良い。
制御装置6は、上記の学習ルーチンの実行を開始した場合には、図6に示すように、先ず、再生中の楽曲が選択或いは入力した感性語と一致する楽曲であるか否かをユーザに尋ねるための映像を表示装置7に表示させる(ステップS41)。この表示に従ってユーザは再生中の楽曲が感性語と一致する楽曲であるか否かの選択のための「YES」又は「NO」の操作入力を操作入力装置2を介して行うことができる。制御装置6は、ステップS41の実行後、「YES」キーと「NO」キーとのうちのいずれの操作入力があったか否かを判別する(ステップS42)。再生中の楽曲が感性語と一致することを示す「YES」キーの操作入力があったならば、その楽曲を示す合致曲データをデータ蓄積装置5の合致曲データベースに書き込む(ステップS43)。この合致曲データの書き込みは感性語毎に分類されて行われる。再生中の楽曲が感性語と一致しないことを示す「NO」キーの操作入力があったならば、学習ルーチンを終了して上記のステップS25に移行する。
制御装置6は、ステップS43の実行後、合致曲データベースに合致曲データとして書き込まれた合致曲数が10曲(所定の曲数)に達した感性語があるか否かを判別する(ステップS44)。合致曲数が10曲以上であると判別した場合には、データ蓄積装置5の合致曲データベースから合致曲データを読み出し(ステップS45)、その読み出しデータを用いて統計的処理による個人学習値を演算する(ステップS46)。なお、ステップS44においては、所定の曲数を10曲と定めているが、この曲数以外の値でも良い。
個人学習値の演算については、合致曲数が10曲以上となった感性語をAとして説明すると、図7に示すように、合致曲データベースにおいて感性語Aに対応する合致曲データが示す楽曲毎に特徴パラメータ(和音変化度(1)、和音変化度(2)、和音変化度(3)、ビート、ビート最大レベル、平均振幅レベル、最大振幅レベル、及びキー)各々の特徴値をデータ蓄積装置4の特徴パラメータデータベースから読み出し(ステップS51)、特徴パラメータ毎に特徴値の平均値Maveを算出する(ステップS52)。更に、特徴パラメータ毎に不偏分散値Sを算出する(ステップ53)。感性語Aの1の特徴パラメータの不偏分散値Sの算出に当たって、ここで、感性語Aに対応する合致曲データが示す楽曲がM1〜Mj(ただし、50≧j≧10)であるとし、楽曲M1〜Mj各々の1の特徴パラメータの特徴値C1〜Cjとすると、1の特徴パラメータの特徴値C1〜Cjの平均値Maveは、
Mave=C1+C2+……+Cj/j
と表すことができる。感性語Aの1の特徴パラメータの不偏分散値Sは、
S=[(Mave−C1)2+(Mave−C2)2+……+(Mave−Cj)2]/(j−1)
と表すことができる。
制御装置6は、特徴パラメータ毎に算出した平均値Mave及び不偏分散値Sを個人学習値データベースの感性語Aに対応する各特徴パラメータの欄に書き込む(ステップS54)。
制御装置6は、このように個人学習値を演算した後、上記したステップS25に移行し、上記した如き動作を行う。
このような選曲動作により、ユーザの年齢及び性別に並びに選択した感性語に適合した楽曲順に楽曲をユーザに提供することができるので、選曲精度を向上させることができる。すなわち、ユーザの年齢及び性別によって同じ感性語に対する楽曲イメージが異なることに対応した選曲ができる。また、個人学習値を用いた選曲の場合には、ユーザが本選曲システムを利用するに従ってユーザの感性により適合した楽曲を提供することができる。
なお、上記した実施例においては、年齢グループを10代、20代、30代、40代及び50代以上の如き年代によるグループとしたが、これに限定されない。更に、年齢そのもので分けたり、或いは年代毎に前半と後半とに分けるように年齢グループを細かく分けても良いし、30歳未満及び30歳以上の如く粗く分けても良い。
加えて、上記した実施例においては、年齢グループと性別との双方に応じてデフォルトデータベース内のデータテーブルを選択したが、年齢グループと性別とのいずれか一方に応じてデフォルトデータベース内のデータテーブルを選択しても良い。例えば、年齢グループだけの入力操作の場合には、男性用データテーブルだけを用いてデータテーブルを入力操作に応じて選択し、性別だけの入力操作の場合には、20代男性用データテーブルと20代女性用データテーブルとのいずれか一方を入力操作に応じて選択することが行われる。また、上記した実施例においては単一のユーザについての選曲動作を示したが、複数のユーザに共通する好みの楽曲を選曲するために選曲動作を行う場合、例えば20代、30代のように個別のデータテーブルを使って各々の感性適合値を計算し、その合算に応じて楽曲を選択するようにして良い。
更に、上記した実施例においては、人物特性を年代と性別とに応じて設定しているが、これに限定されない。人種、職業、民族、血液型、髪の毛の色、目の色、信仰宗教、居住地等の人物特性、すなわち人的キャラクタ或いは人的属性を特定できる要件を用いることができる。
また、上記した実施例においては、データ蓄積装置3に保存された複数の楽曲の全てが選曲対象となっているが、年代によって選曲対象の楽曲が異なるようにしても良い。例えば、ユーザの年齢が10代又は20代の場合には演歌の楽曲を除き、50代以上の場合には最近のヒット曲を除いて選曲を行うのである。
また、上記した実施例においては、楽曲特徴量として和音変化度(1)、和音変化度(2)、和音変化度(3)、ビート、ビート最大レベル、平均振幅レベル、最大振幅レベル、及びキーを示したが、これに限定されない。また、和音変化度(1)〜(3)のうちの少なくとも1つに関して感性適合値を算出しても良い。
更に、和音変化度としては、上記した楽曲の1分間当たりの和音数、楽曲に使用されている和音の種類数、及び不協和音等の和音進行中で楽曲の印象を与えるような変化点数に限らない。例えば、和音の根音の変化量、メジャーからマイナーへの変化のように他の種類の和音への変化回数などを和音変化度として用いることもできる。
また、上記した実施例においては、補正値として平均値と不偏分散値とを用いているが、これに限定されない。不偏分散値に代えて例えば、和音変化度等の特徴値を補正する乗算係数、分散値等の重み付け値でも良い。不偏分散値に代えて分散値を用いる場合には、上記の感性語Aの1の特徴パラメータの分散値は、次式によって表すことができる。
分散値=[(Mave−C1)2+(Mave−C2)2+……+(Mave−Cj)2]/j
更に、上記した実施例においては、再生中の楽曲が感性語と一致しないことを示す「NO」キーの操作入力があった場合に、その楽曲を示す非合致曲データをデータ蓄積装置5の非合致曲データベースに書き込んでおき、合致曲データによる個人学習値の演算と同様に、非合致曲データについてもデータ蓄積装置5の非合致曲データベースから非合致曲データを読み出し、その読み出しデータを用いて統計的処理による個人学習値を演算しても良い。非合致曲データに基づいて演算された個人学習値は図8に示すように第2個人学習値データベース(第7保存手段)として保存される。この非合致曲データによる個人学習値(平均値,不偏分散値)は次のように感性適合値の算出の際に補正値αa,αb,αc,αd,αe,αf,αg,αhとして反映される。
感性適合値=[(1/|a(i)-Ma|)×(1/Sa)-αa]+[(1/|b(i)-Mb|)×(1/Sb)-αb]+[(1/|c(i)-Mc|)×(1/Sc)-αc]+[(1/|d(i)-Md|)×(1/Sd)-αd]+[(1/|e(i)-Me|)×(1/Se)-αe]+[(1/|f(i)-Mf|)×(1/Sf)-αf]+[(1/|g(i)-Mg|)×(1/Sg)-αg]+[(1/|h(i)-Mh|)×(1/Sh)-αh]
補正値αa,αb,αc,αd,αe,αf,αg,αhは特徴パラメータ毎に読み出された非合致曲データによる個人学習値である平均値,不偏分散値に応じて設定され、感性適合値を小さくするように作用する。
また、上記した実施例においては、選択される感性語として「ノリがいい」、「静かな」、「明るい」、「悲しい」、「癒される」及び「せつない」を示したが、これに限定されない。例えば、「嬉しい」等の他の感性語を用いても良いことは勿論である。
以上の如く、本発明によれば、複数の楽曲各々の楽曲特徴量をデータとして保存した第1保存手段と、入力操作に応じて人物特性を設定する第1設定手段と、入力操作に応じて選曲用の感性語を設定する第2設定手段と、設定された人物特性と設定された感性語とに対応した楽曲特徴量を有する楽曲を複数の楽曲各々の楽曲特徴量に応じて検出する選曲手段と、を備えたので、ユーザの年齢及び性別等のキャラクタ並びに感性に適合した楽曲をユーザに対して提示することができ、ユーザの選曲が容易になる。
本発明による選曲装置の構成を示すブロック図である。 デフォルトデータベース内の1つのデータテーブルを示す図である。 選曲動作を示すフローチャートである。 図3の選曲動作に続き部分を示すフローチャートである。 データテーブル選択用の表データの内容を示す図である。 学習ルーチンを示すフローチャートである。 個人学習値演算動作を示すフローチャートである。 非合致曲データによる第2個人学習値データベースを示す図である。
符号の説明
1 楽曲入力装置
2 操作入力装置
3,4,5 データ蓄積装置
6 制御装置
7 表示装置
8 楽曲再生装置
9 ディジタル/アナログ変換装置
10 スピーカ

Claims (10)

  1. 複数の楽曲のうちから入力操作に応じて選曲する選曲装置であって、
    前記複数の楽曲各々について前記複数の楽曲各々の和音変化度と、前記複数の楽曲各々の前記和音変化度以外の特徴を示す少なくとも1の特徴パラメータとを含む楽曲特徴量をデータとして保存した第1保存手段と、
    予め定められた互いに異なる複数の人物特性のうちのいずれか1の人物特性を前記入力操作に応じて設定する第1設定手段と、
    曲用の感性語を前記入力操作に応じて設定する第2設定手段と、
    前記第2設定手段によって設定された選曲用の感性語が予め定められた複数の感性語のうちの1の感性語であるときには、前記第1設定手段によって設定された前記人物特性と前記第2設定手段によって設定された前記1の感性語とに対応した楽曲特徴量を有する楽曲を前記第1保存手段に保存された前記複数の楽曲各々の楽曲特徴量に応じて選曲し、前記第2設定手段によって設定された選曲用の感性語が前記複数の感性語以外の感性語であるときには、前記第1保存手段に保存された前記複数の楽曲からランダムに楽曲を選曲する選曲手段と、
    前記選曲手段によって選曲された楽曲が前記選曲用の感性語と合致するか否かを前記入力操作に応じて判別する合致判別手段と、
    前記合致判別手段の判別結果に応じて前記第1設定手段によって設定された前記人物特性について前記選曲手段における選曲の際の前記複数の感性語各々及び前記複数の感性語以外の感性語と前記複数の楽曲各々の楽曲特徴量との間の対応関係を学習してその対応関係を変化させる学習手段と、を備えたことを特徴とする選曲装置。
  2. 前記第1設定手段は、予め定められた複数の年齢グループ及び性別のうちから年齢グループ及び性別を前記入力操作に応じて選択してそれを前記人物特性として設定し、
    前記選曲手段は、前記予め定められた複数の年齢グループ及び性別各々に対応した前記複数の感性語各々の補正値を示すデータを保存した第2保存手段と、
    前記第2設定手段によって設定された選曲用の感性語が前記複数の感性語以外の感性語であるときには、前記第1設定手段によって設定された前記年齢グループ及び性別と前記1の感性語とに対応する補正値を前記第2保存手段から読み出す読出手段と、
    前記読出手段によって読み出された補正値によって前記複数の楽曲各々の楽曲特徴量に対して補正を行って感性適合値を算出する補正手段と、
    前記補正手段によって算出された前記複数の楽曲各々の感性適合値に応じた楽曲順番にて前記複数の楽曲を提示する提示手段と、を備えたことを特徴とする請求項1記載の選曲装置。
  3. 前記第2設定手段によって設定された選曲用の感性語が前記複数の感性語以外の感性語であるときには、前記提示手段は前記複数の楽曲をランダム順に提示することを特徴とする請求項2記載の選曲装置。
  4. 前記第2保持手段は、前記予め定められた複数の年齢グループ及び性別毎に前記複数の感性語各々の補正値を前記和音変化度及び前記特徴パラメータ各々についてデータとして保存し、
    前記読出手段は、前記第1設定手段によって設定された前記年齢グループ及び性別と前記1の感性語とに対応する補正値を前記和音変化度及び前記特徴パラメータ各々について前記第2保存手段から読み出し、
    前記補正手段は、前記読出手段によって読み出された補正値によって前記複数の楽曲各々の前記和音変化度及び前記特徴パラメータ各々に対して補正を行ってその補正結果の合計値を感性適合値とし、
    前記提示手段は、前記補正手段によって算出された前記複数の楽曲各々の感性適合値に応じた楽曲順番にて前記複数の楽曲を提示することを特徴とする請求項記載の選曲装置。
  5. 前記提示手段は、前記複数の楽曲各々の再生音を示す楽曲データを保存した第3保存手段と、
    前記複数の楽曲各々の感性適合値に応じた楽曲順番にて前記第3保存手段から楽曲データを読み出し、その読出楽曲データに応じた再生音を出力する音響出力手段と、を備えたことを特徴とする請求項4記載の選曲装置。
  6. 前記合致判別手段は、前記提示手段によって提示された楽曲が前記選曲用の感性語と合致するか否かを前記入力操作に応じて判別し、
    前記学習手段は、前記合致判別手段によって前記提示された楽曲と前記選曲用の感性語とが合致すると判別されたときその合致した楽曲を前記複数の感性語及び前記複数の感性語以外の感性語毎に保存する第4保存手段と、
    前記第4保存手段に保存された楽曲が所定の曲数以上となった感性語に対応する前記補正値をその所定の曲数以上の保存楽曲の楽曲特徴量に応じて算出する合致学習手段と、
    前記楽曲特徴量について前記学習手段によって算出された前記補正値を前記複数の感性語各々及び前記複数の感性語以外の感性語に対応させて保存する第5保存手段と、
    前記第2設定手段によって設定された前記選択用の感性語に対応する補正値が前記第5保存手段に存在するか否かを判別する学習判別手段と、を備え、
    前記読出手段は、前記学習判別手段によって前記選択用の感性語に対応する補正値が前記第5保存手段に存在するときに前記選択用の感性語に対応する補正値を前記第2保存手段に代えて前記第5保存手段から読み出すことを特徴とする請求項2記載の選曲装置。
  7. 前記読出手段は、前記選択用の感性語に対応する補正値の読み出しを入力操作に応じて前記第2保存手段から前記第5保存手段に切り替えることを特徴とする請求項6記載の選曲装置。
  8. 前記学習手段は、前記合致判別手段によって前記提示された楽曲と前記選曲用の感性語とが非合致であると判別されたときその非合致の楽曲を前記複数の感性語及び前記複数の感性語以外の感性語毎に保存する第6保存手段と、
    前記第4保存手段に保存された楽曲が所定の曲数以上となった感性語に対応する前記補正値を第6保存手段に保存された非合致楽曲の楽曲特徴量に応じて算出する非合致学習手段と、
    前記楽曲特徴量について前記非合致学習手段によって算出された前記補正値を前記複数の感性語各々及び前記複数の感性語以外の感性語に対応させて保存する第7保存手段と、を備え、
    前記補正手段は、前記選択用の感性語に対応する補正値を前記第7保存手段から読み出して前記適合感性値をその読出補正値に応じて補正することを特徴とする請求項6記載の選曲装置。
  9. 前記合致判別手段は、前記提示手段によって提示された楽曲が前記選曲用の感性語と合致するか否かを入力操作に応じて判別し、
    前記学習手段は、前記合致判別手段によって前記提示された楽曲と前記選曲用の感性語とが合致すると判別されたときその合致した楽曲を前記複数の感性語及び前記複数の感性語以外の感性語毎に前記和音変化度及び前記特徴パラメータ各々について保存する第4保存手段と、
    前記第4保存手段に保存された楽曲が所定の曲数以上となった感性語に対応する前記和音変化度及び前記特徴パラメータ各々について前記補正値をその所定の曲数以上の保存楽曲の前記和音変化度及び前記特徴パラメータ各々の保存値に応じて個別に算出する合致学習手段と、
    前記和音変化度及び前記特徴パラメータ各々について前記学習手段によって算出された前記補正値を前記複数の感性語各々及び前記複数の感性語以外の感性語に対応させて保存する第5保存手段と、
    前記第2設定手段によって設定された前記選択用の感性語に対応する補正値が前記第5保存手段に存在するか否かを判別する学習判別手段と、を備え、
    前記読出手段は、前記学習判別手段によって前記選択用の感性語に対応する補正値が前記第5保存手段に存在するときに前記選択用の感性語に対応する補正値を前記第2保存手段に代えて前記第5保存手段から読み出すことを特徴とする請求項4記載の選曲装置。
  10. 前記和音変化度は、楽曲の1分間当たりの和音数、楽曲に使用されている和音の種類数及び不協和音等の和音進行中で楽曲の印象を変えるような変化点数のうちの少なくとも1であることを特徴とする請求項4記載の選曲装置。
JP2004014197A 2004-01-22 2004-01-22 選曲装置 Expired - Fee Related JP4322691B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2004014197A JP4322691B2 (ja) 2004-01-22 2004-01-22 選曲装置
EP04030499A EP1557818A3 (en) 2004-01-22 2004-12-22 Song selection apparatus and method
US11/034,851 US7247786B2 (en) 2004-01-22 2005-01-14 Song selection apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004014197A JP4322691B2 (ja) 2004-01-22 2004-01-22 選曲装置

Publications (2)

Publication Number Publication Date
JP2005209276A JP2005209276A (ja) 2005-08-04
JP4322691B2 true JP4322691B2 (ja) 2009-09-02

Family

ID=34631925

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004014197A Expired - Fee Related JP4322691B2 (ja) 2004-01-22 2004-01-22 選曲装置

Country Status (3)

Country Link
US (1) US7247786B2 (ja)
EP (1) EP1557818A3 (ja)
JP (1) JP4322691B2 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USRE43379E1 (en) * 2003-10-09 2012-05-15 Pioneer Corporation Music selecting apparatus and method
US20060083119A1 (en) * 2004-10-20 2006-04-20 Hayes Thomas J Scalable system and method for predicting hit music preferences for an individual
US20080098027A1 (en) * 2005-01-04 2008-04-24 Koninklijke Philips Electronics, N.V. Apparatus For And A Method Of Processing Reproducible Data
DE102005052890B4 (de) * 2005-11-07 2009-04-16 Kristoffer Schwarz Elektronisches Notenpult
US7612280B2 (en) * 2006-05-22 2009-11-03 Schneider Andrew J Intelligent audio selector
JP2008015595A (ja) * 2006-07-03 2008-01-24 Sony Corp コンテンツ選択推薦方法、サーバ、コンテンツ再生装置、コンテンツ記録装置およびコンテンツ選択推薦用プログラム
CN101114288A (zh) * 2006-07-26 2008-01-30 鸿富锦精密工业(深圳)有限公司 具有点歌功能的便携式电子装置
US7873634B2 (en) * 2007-03-12 2011-01-18 Hitlab Ulc. Method and a system for automatic evaluation of digital files
JP4697165B2 (ja) * 2007-03-27 2011-06-08 ヤマハ株式会社 音楽再生制御装置
JP4470189B2 (ja) 2007-09-14 2010-06-02 株式会社デンソー 自動車用音楽再生システム
US20090150445A1 (en) * 2007-12-07 2009-06-11 Tilman Herberger System and method for efficient generation and management of similarity playlists on portable devices
JP5259212B2 (ja) * 2008-02-26 2013-08-07 Kddi株式会社 音楽連動型広告配信方法、装置およびシステム
JP2012008623A (ja) * 2010-06-22 2012-01-12 Jvc Kenwood Corp プレイリスト作成装置、プレイリスト作成方法、及びプレイリスト作成プログラム
BE1025967B1 (nl) 2018-01-31 2019-09-03 Stephan Kliché Werkwijze en interface voor het adaptief creëren van multimedia afspeellijsten

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10134549A (ja) 1996-10-30 1998-05-22 Nippon Columbia Co Ltd 楽曲検索装置
US6504089B1 (en) * 1997-12-24 2003-01-07 Canon Kabushiki Kaisha System for and method of searching music data, and recording medium for use therewith
US6545209B1 (en) * 2000-07-05 2003-04-08 Microsoft Corporation Music content characteristic identification and matching
US7532943B2 (en) * 2001-08-21 2009-05-12 Microsoft Corporation System and methods for providing automatic classification of media entities according to sonic properties
US6913466B2 (en) * 2001-08-21 2005-07-05 Microsoft Corporation System and methods for training a trainee to classify fundamental properties of media entities
AU2001296621A1 (en) * 2000-10-05 2002-04-15 Digitalmc Corporation Method and system to classify music
KR100401012B1 (ko) * 2000-12-15 2003-10-30 김연경 감정상태에 기초한 선곡기능을 가진 음악제공시스템 및 방법
JP4037081B2 (ja) * 2001-10-19 2008-01-23 パイオニア株式会社 情報選択装置及び方法、情報選択再生装置並びに情報選択のためのコンピュータプログラム
US6987221B2 (en) * 2002-05-30 2006-01-17 Microsoft Corporation Auto playlist generation with multiple seed songs
US7166791B2 (en) * 2002-07-30 2007-01-23 Apple Computer, Inc. Graphical user interface and methods of use thereof in a multimedia player
EP1528536A1 (en) * 2003-10-09 2005-05-04 Pioneer Corporation Music selecting apparatus and method

Also Published As

Publication number Publication date
US7247786B2 (en) 2007-07-24
EP1557818A3 (en) 2005-08-03
EP1557818A2 (en) 2005-07-27
US20050160901A1 (en) 2005-07-28
JP2005209276A (ja) 2005-08-04

Similar Documents

Publication Publication Date Title
US7247786B2 (en) Song selection apparatus and method
US7960638B2 (en) Apparatus and method of creating content
JP4067372B2 (ja) 運動補助装置
JP5039785B2 (ja) 楽曲をブラウズするための方法及びシステム
JP5313196B2 (ja) 難易度算出装置、難易度算出方法及びコンピュータプログラム
JP2023025013A (ja) 音楽療法のための歌唱補助装置
JP2004117632A (ja) プレイリスト生成装置、音楽再生装置、音楽配信システム及びその方法、プログラム、記録媒体
JP2007264569A (ja) 検索装置、制御方法及びプログラム
JP2007271977A (ja) 評価基準判定装置、制御方法及びプログラム
JP6288197B2 (ja) 評価装置及びプログラム
JP4799333B2 (ja) 楽曲分類方法、楽曲分類装置及びコンピュータプログラム
JP2007256619A (ja) 評価装置、制御方法及びプログラム
JP6102076B2 (ja) 評価装置
USRE43379E1 (en) Music selecting apparatus and method
JP2007292979A (ja) 失語症練習支援装置
JP4698606B2 (ja) 楽曲処理装置
JP4723222B2 (ja) 選曲装置及び方法
JP2007304489A (ja) 楽曲練習支援装置、制御方法及びプログラム
US7385130B2 (en) Music selecting apparatus and method
JPH1195775A (ja) 音楽再生装置
JP2008242064A (ja) 音楽再生制御装置
JP4395493B2 (ja) カラオケ装置
US20080000345A1 (en) Apparatus and method for interactive
JP2005037846A (ja) 音楽再生装置の情報設定装置及び情報設定方法
KR102559460B1 (ko) 음악기반 다중작업 훈련, 가창 훈련 및 악기변별 훈련을이용한 청각 기능 개선 장치

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20061207

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080717

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081202

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090202

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090324

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20090602

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20090603

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120612

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130612

Year of fee payment: 4

LAPS Cancellation because of no payment of annual fees