JP2004070495A - Data reproducing device, data retrieval method, data reproducing method, and program making computer implement data retrieval method of data reproducing device reproducing content data - Google Patents

Data reproducing device, data retrieval method, data reproducing method, and program making computer implement data retrieval method of data reproducing device reproducing content data Download PDF

Info

Publication number
JP2004070495A
JP2004070495A JP2002226157A JP2002226157A JP2004070495A JP 2004070495 A JP2004070495 A JP 2004070495A JP 2002226157 A JP2002226157 A JP 2002226157A JP 2002226157 A JP2002226157 A JP 2002226157A JP 2004070495 A JP2004070495 A JP 2004070495A
Authority
JP
Japan
Prior art keywords
data
date
time information
content data
reproduction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002226157A
Other languages
Japanese (ja)
Inventor
Yoshio Omori
大森 良夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denon Ltd
Original Assignee
Denon Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denon Ltd filed Critical Denon Ltd
Priority to JP2002226157A priority Critical patent/JP2004070495A/en
Publication of JP2004070495A publication Critical patent/JP2004070495A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)
  • Management Or Editing Of Information On Record Carriers (AREA)
  • Storage Device Security (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a data reproducing device which easily selects and reproduces content data supposed to be suitably selected. <P>SOLUTION: A control part 104 generates reproduction history data in which content data reproduced by a recording/reproduction part 101 in the past and reproduction date and time information on the date and time of the reproduction of the content data are related to each other. The control part 104 retrieves and extracts content data supposed to be suitably reproduced at present by using the birthday of a user stored in a birthday storage part 108, current date and time information generated by a date and time information generation part 107, and the reproduction history data. The recording/reproduction part 101 reproduces the extracted content data. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、音声情報や映像情報などのコンテンツデータを再生するデータ再生装置、該データ再生装置においての再生するにふさわしいコンテンツデータの検索方法、およびデータ再生方法並びにコンテンツデータを再生するデータ再生装置におけるデータ検索方法をコンピュータに実行させるためのプログラムに関する。
【0002】
【従来の技術】
近年、ハードディスク等の記録媒体の大容量化、低価格化により、音声情報や映像情報などのコンテンツデータを、デジタルデータのまま記録媒体に記録し、このデジタルデータを再生することが可能な装置が出現している。また、データ圧縮技術の進歩に伴い、上記デジタルデータに、情報の劣化を低く抑えながら、高効率な圧縮を施すことにより、より多くのコンテンツデータを記録することが可能となってきている。
【0003】
図2に、記録媒体としてハードディスクを備え、コンテンツデータとして楽曲データを扱う再生装置の概略構成図を示す。
【0004】
図2に示す再生装置2は、バス200に接続された記録・再生部201と、バス200に接続されたハードディスク(図においては、HDと記す)202と、バス200に接続された制御部204と、バス200に接続された表示部205と、バス200に接続された入力部206とを備える。ハードディスク202は、データベース(図においては、DBと記す)203を有する。記録・再生部201は、入力インターフェイス(図においては、INPUTと記す)2011と、出力インターフェイス(図においては、OUTPUTと記す)2012とを有する。制御部204は、CPU(Central Processing Unit)2041を有する。制御部204は、図示せぬ記憶部に格納されたプログラムを、CPU2041で実行することにより、その機能を実現することができる。
【0005】
再生される楽曲データは、入力インターフェイス2011から記録・再生部201に入力される。入力された楽曲データがアナログデータである場合には、記録・再生部201において、アンプ(図示せず)にて適正な振幅とされた後に、AD(アナログデジタル)コンバータ(図示せず)にてデジタル化される。入力された楽曲データがデジタルデータである場合には、入力インターフェイス2011を介してデータ部分が抽出されるが、デジタル入力においては、楽曲データの著作権者の意向によって、デジタルでのコピー、リッピング等を禁止する信号が記録されていることもある。そこで、記録・再生部201において、上記信号を検出し、コピー、リッピング等の動作を行わないよう制御する回路が備わっている場合がある。
【0006】
デジタルデータは、データサイズを縮小する場合に、記録・再生部201のエンコード部(図示せず)にて圧縮される。楽曲データの圧縮方法としては、多くの種類が存在するが、一例として、MPEG audio layer 3(MP3)、Adaptive Transform Acoustic Coding 3(ATRAC3)、Windows Media Audio(WMA)などが使用されている。ここで、「ATRAC」および「Windows Media」は、各々登録商標である。
【0007】
そして、デジタルデータ(楽曲データ)は、記録・再生部201により、ハードディスク202に記録される。
【0008】
一例として、ハードディスクの容量を20GB(ギガバイト=10の9乗バイト)、圧縮方法としてMP3、ビットレートを128kbpsとした場合、約20000分の記録が可能となる。これは、楽曲データを1曲4分として、約5000曲、アルバムを10曲入りとして500枚に相当するものである。
【0009】
ハードディスク202に記録された楽曲データの各々は、他の楽曲データと識別するためのユニークな識別IDを制御部204により付与されて、データベース203に登録される。図3に、このような楽曲データ登録時の管理データベース例を示す。
【0010】
図3に示す管理データベースは、上記識別ID(登録ID)301と、該登録ID301で示される楽曲データ本体を示すファイル名303と、該ファイル名303のファイルが存在するハードディスク202内の場所を特定するための情報であるパス名302と、前記ファイル名303のファイルが登録された日時を示す登録日時304とを、関連付けて格納する。この管理データベースを格納するハードディスク202のファイルフォーマットによっては、ファイル名303を、登録ID301と兼ねることも可能である。
【0011】
この登録IDを用いれば、記録された楽曲データを特定することが可能であるが、使用者が希望する楽曲を、たくさんのデータの中から登録IDのみで探し出すことは困難なので、通常、使用者が楽曲データを特定しやすい情報を、関連付けることが行われている。
【0012】
使用者は、楽曲データをハードディスクに記録する際、その楽曲データのアーティスト名やアルバム名、曲名等と、登録IDと楽曲データとをデータベースに関連付けることで、簡単に希望する楽曲データを選択することが可能となる。
【0013】
図7に楽曲データの登録画面例を、図4から図6にそれぞれの管理データベース例を示す。
【0014】
使用者は、図2の概略構成図における表示部205に表示されている登録画面に対して、入力部206により、記録した楽曲データの関連情報を登録する。図7に示した登録画面例においては、使用者は、登録画面に対して、楽曲データの関連情報として、曲名701と、アーティスト名702と、アルバム名703とを登録することができる。また、アルバム単位で登録した場合に、トラック番号順に再生するために、トラック番号(図においては、トラックNoと記す)704を登録することもできる。
【0015】
登録された曲名は、制御部204により、ユニークな値を有する楽曲IDと共に、図4に示すようなデータベースに管理される。図4に示したデータベースによれば、楽曲ID401と、曲名402と、トラックNo403とを、関連付けて管理することができる。この時、登録IDに対して直接曲名を関連付けてもよいが、このように楽曲IDで関連付けることによって、例えば、アーティストが異なる同名の楽曲が存在した場合に、混同することなく、検索および再生をおこなうことができる。
【0016】
同様にして、アーティスト名やアルバム名についても、ユニークな識別番号と関連付けられたデータベースを、制御部204により作成する。これらのデータベース例を、図5および図6に示す。図5に示したデータベースによれば、アーティストID501と、アーティスト名502とを、関連付けることができる。図6に示したデータベースによれば、アルバムID601と、アルバム名602とを、関連付けることができる。
【0017】
これらの、曲名、アーティスト名、アルバム名などは、楽曲ID、アーティストID、アルバムIDなどにより、図8に示すように、登録ID毎に対応付けられて、データベースにて管理される。図8に示したデータベースによれば、登録ID801と、楽曲ID802と、アーティストID803と、アルバムID804と、トラックNo805とを、関連付けることができる。
【0018】
このように管理されたデータベースを用いると、使用者が、曲名、アーティスト名、アルバム名から、登録した楽曲データを入力部206により指定して、ハードディスク202から選択することが可能となり、希望する楽曲データを、記録・再生部201で再生することができる。
【0019】
一例として、アーティスト名から選択する場合、制御部204により、図5のデータベースから、登録されているアーティスト名を表示部205に表示させて、使用者に入力部206により選択させる。例えば、「BBBB」を選択した場合、対応するアーティストIDは、「RA00002」であることが、制御部204により、図5のデータベースからわかる。図8のデータベースにより、アーティストID「RA00002」に対応する登録IDは、「AA00002」、「AA00003」、および「AA00004」であることが、制御部204によりわかる。さらに、制御部204により、図8のデータベースから、登録IDに対応する楽曲IDがわかり、図4のデータベースから、この楽曲IDに対応する曲名がわかるので、表示部205により、曲名をも表示することができる。
【0020】
上記例においては、楽曲の関連情報を、使用者自らが、再生装置に対して入力していたが、楽曲データの記録媒体によっては、楽曲の関連情報を、自動的に入手できるものがある。
【0021】
例えば、CD−TEXTは、ディスク内のサブコードに、楽曲の関連情報が記録されている。また、モデムやNIC(NETWORK INTERFACE CARD)を介して、インターネット上に存在するCDDB(CD Data Base)からも、CDのTOC(Table of Contents)情報などを用いて、使用者が入力することなく、関連情報を入手することが可能である。
【0022】
このように、楽曲の関連情報を自動的に入手し、使用者がアーティスト名やアルバム名等を選択して指定し、この指定に基づいて楽曲データを再生するオーディオプレイヤの一例が、特開2002−23771号公報に開示されている。
【0023】
【発明が解決しようとする課題】
しかし、上記方法以外で楽曲データを選択するとなると、使用者が予め楽曲データの検索に用いるための分類を行い、楽曲データの関連情報の入力と同様に、検索用のデータベースを作成する必要がある。しかし、楽曲が予め所有している関連情報以外の検索とは、使用者の趣味、嗜好、環境等、個人的なものであり、一意的に定義できるものではない。したがって、使用者が検索したい項目でユニークなIDを作成して、対応する楽曲データと関連させる必要がある。
【0024】
たとえば、「気分が落ち込んでいる時に聞きたい楽曲」や「体調がよい時に聞きたい楽曲」として選択したい場合、「気分が落ち込んでいる時に聞きたいID」や「体調がよい時に聞きたいID」を作成して、対応する楽曲IDと関連付けて登録しておき、希望する項目に対応するこれまでに登録している楽曲IDの中から、使用者が選択しなければならない。
【0025】
そこで、本発明の目的は、上記課題とするところのデータ再生装置に記録されたデータを選択する際に、選択するにふさわしいと推測されるデータを容易に選択することができる、データ再生装置、データ検索方法、およびデータ再生方法を提供することである。
【0026】
より具体的には、本発明の目的は、上記課題とするところのデータ再生装置に記録されたデータを選択する際に、直接データを指定する方法でも、全くランダムに指定する方法でもない方法で、かつ、使用者が希望すると推測されるデータを検索することができ、かつ、選択するために必要な登録作業等を強いることのない、データ再生装置、データ検索方法、およびデータ再生方法を提供することである。
【0027】
【課題を解決するための手段】
上記課題を解決するために、本発明によれば、コンテンツデータを再生するデータ再生装置において、使用者の生年月日と現在の日時情報とから算出される情報と、使用者の生年月日と使用者が過去にコンテンツデータを再生した時の日時情報とから算出される情報をもとに、現在再生するにふさわしいと推測されるコンテンツデータを検索するものである。
【0028】
より具体的には、本発明によれば、
コンテンツデータを再生するデータ再生装置であって、
特定の日時情報(使用者の生年月日)を記憶する日時情報記憶手段と、
現在の日時情報を生成する日時情報生成手段と、
コンテンツデータに対する使用者の選択を受け付けて、この選択に基づいてコンテンツデータを再生した場合に、再生されたコンテンツデータと、再生をおこなった日時についての情報である再生日時情報とを関連付けた再生履歴データを生成する再生履歴データ生成手段と、
前記日時情報記憶手段により記憶された特定の日時情報と、前記日時情報生成手段により生成された現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索して抽出するコンテンツデータ検索手段と、
該コンテンツデータ検索手段により検索して抽出されたコンテンツデータを再生する再生手段と、
を、有することを特徴とするデータ再生装置を提供することができる。
【0029】
また、本発明によれば、
コンテンツデータを再生するデータ再生装置であって、
特定の日時情報(使用者の生年月日)と、現在の日時情報と、過去に再生されたコンテンツデータと該コンテンツデータが再生された日時についての情報である再生日時情報とを関連付けた再生履歴データとを取得し、
前記特定の日時情報と、前記現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索して抽出するコンテンツデータ検索手段と、
該コンテンツデータ検索手段により検索して抽出されたコンテンツデータを再生する再生手段と、
を、有することを特徴とするデータ再生装置を提供することもできる。
【0030】
【発明の実施の形態】
本発明の実施の形態を説明する。
【0031】
図1に、本発明の実施の形態の一例であるところの再生装置の概略構成図を示す。
【0032】
図1に示す再生装置1は、バス100に接続された記録・再生部101と、バス100に接続されたハードディスク(図においては、HDと記す)102と、バス100に接続された制御部104と、バス100に接続された表示部105と、バス100に接続された入力部106と、バス100に接続された日時情報生成部107と、バス100に接続された生年月日記憶部108とを備える。ハードディスク102は、データベース(図においては、DBと記す)103を有する。記録・再生部101は、入力インターフェイス(図においては、INPUTと記す)1011と、出力インターフェイス(図においては、OUTPUTと記す)1012とを有する。制御部104は、CPU(Central Processing Unit)1041を有する。制御部104は、図示せぬ記憶部に格納されたプログラムを、CPU1041で実行することにより、その機能を実現することができる。
【0033】
図1に示す再生装置1には、上記従来技術で説明した再生装置2に加えて、日時情報生成部107と、生年月日記憶部108とが設けられている。
【0034】
日時情報生成部107は、現在の日時・時刻を取得するためのもので、水晶等の正確なパルス発振器からのパルス数を制御部104がカウントして、設定した初期値から秒・分・日時情報に変換している。また、装置の電源が切れた場合でも大丈夫なように電池等によるバックアップを行うなどの対策を施す場合もある。
【0035】
生年月日記憶部108は、使用者の生年月日を登録・記憶するためのもので、再生装置1を最初に起動した際に、表示部105にて使用者の生年月日を登録する旨の生年月日登録画面を表示して、キーボード等による入力部106により使用者の生年月日を入力して記憶する。図9に、上記生年月日登録画面の一例を示す。また、図1においては生年月日記憶部108は独立して存在しているが、ハードディスク102等の記録媒体中に生年月日を記録してもよい。また、生年月日は、生年月日記憶部108又はハードディスク102等の記録媒体に更新登録することもできる。
【0036】
この再生装置1において、ハードディスク102に登録IDを付与した楽曲データを記録しておき、これらの楽曲データを記録・再生部101にて再生する。この再生の際に、制御部104は、日時情報生成部107から取得した情報である再生日時情報を、再生した楽曲データの登録IDと関連付けて、データベースに自動的に記録していく。このデータベースを再生履歴データベースと称する。
【0037】
図10に、上記再生履歴データベースの一例を示す。図10に示した再生履歴データベースにおいては、再生日時情報1001と、登録ID1002とが格納されている。
【0038】
図11に、上記再生日時情報を用いて、上記再生履歴データベースを作成する処理のフローチャートを示す。
【0039】
まず、使用者により、入力部106から楽曲データの再生指示がなされる(ステップS1101)。すると、制御部104は、その時の再生日時情報を、日時情報生成部107から取得する(ステップS1102)。次に、制御部104は、取得した再生日時情報を、再生を指示された楽曲データの登録IDと関連付けて、再生履歴データベースへ登録する(ステップS1103)。
【0040】
この再生履歴データベースの内容は、再生すべく選択した楽曲データと、この楽曲データを再生した日時情報との関連付けなので、同一の楽曲を複数回選択した場合でも、全ての時刻が登録されることになる。
【0041】
再生日時情報の再生履歴データベースへの登録方法として、楽曲データを設定時間以上再生した場合のみ、再生したと判断して再生日時情報を記録し、楽曲データの再生を設定時間未満で停止した場合、もしくは他の楽曲へ変更した場合は、使用者が目的とする楽曲データではないと判断して、再生日時情報を記録しないこととしてもよい。
【0042】
図12に、このような再生時間による再生履歴データベースへの登録の分岐処理のフローチャートを示す。
【0043】
使用者が、入力部106により楽曲データの再生を指示したならば(ステップS1201)、制御部104は、再生日時情報を日時情報生成部107から取得する(ステップS1202)。再生開始から、予め定められた設定時間tが経過したかどうかを判定し(ステップS1203)、再生開始から設定時間tが経過したと判定された場合には、再生日時情報を再生履歴データベースへ登録して(ステップS1204)、終了する。ステップS1203において、再生開始から設定時間tが経過していないと判定された場合には、再生日時情報を再生履歴データベースへ登録せずに終了する。
【0044】
さらに、再生日時情報の再生履歴データベースへの他の登録方法として、再生された楽曲データの選択方法がランダムによる選択の場合など、使用者が楽曲データを特定して選択していない場合には、再生日時情報を再生履歴データベースへ記録しないこととしてもよい。
【0045】
図13に、このような選択方法による再生履歴データベースへの登録の分岐処理のフローチャートを示す。
【0046】
使用者が、入力部106により楽曲データの再生を指示したならば(ステップS1301)、再生を指示された楽曲データの選択方法が、使用者が楽曲名やアーティスト名、アルバム名などを特定して選択したものであるか、ランダム指定による選択であるかを判定する(ステップS1302)。
【0047】
ステップS1302において、使用者が楽曲名やアーティスト名、アルバム名などを特定して選択したものであると判定された場合には、制御部104は、再生日時情報を日時情報生成部107から取得し(ステップS1303)、再生日時情報を再生履歴データベースへ登録して(ステップS1304)、終了する。
【0048】
ステップS1302において、ランダム指定による選択であると判定された場合には、そのまま終了する。すなわち、この場合には、再生日時情報は再生履歴データベースへ登録されない。
【0049】
このようにして、使用者の生年月日と、過去に再生した楽曲データの日時履歴とをとることで、本発明が目的とする検索方法を可能とすることができる。
【0050】
ところで、人間の体調や感情、思考能力の良し悪しを数値として図る手法については、気学、生物学、統計学等数多く発表されている。
【0051】
その中のひとつとして、生まれた日を基準として、特定の周期で人間の様々な状態が変化すると云われるものがあり、たとえば「バイオリズム」「四柱推命」「九星気学」「占星術」などである。
【0052】
以下に、そのうちのひとつである「バイオリズム」を用いて、具体的に説明する。
【0053】
「バイオリズム」とは、生物時計と云われる、人間がもつ一定周期のリズムで様々な状態が変化するというもので、身体・感情・知性の3種類の状態によって決まると云われている。
【0054】
図14に、身体・感情・知性それぞれのリズムの周期を示す。
【0055】
身体リズム1401とは、体力・耐久力などを表し、23日周期で繰り返される。
【0056】
感情リズム1402とは、感情・気分などを表し、28日周期で繰り返される。
【0057】
知性リズム1403とは、知力・思考力などを表し、33日周期で繰り返される。
【0058】
それぞれの周期において、前半の半周期を活動期(高調期)、後半の半周期を休息期(低調期)と呼ぶ。また、活動期から休息期、休息期から活動期に移る時を、特に要注意日としている。
【0059】
これら3種のリズムは、人の誕生日を基点として計算することで、任意の日の状態を算出することができる。そして、この算出された状態に基づいて、再生装置において、再生すべき楽曲データを検索して再生することができる。
【0060】
使用者が、この方法による検索を選択したならば、まず、使用者のその時の状態を算出する。この処理のフローチャートを、図15に示す。
【0061】
制御部104は、生年月日記憶部108に予め登録してある使用者の生年月日から、日時情報生成部107で得られる現在の日時までの日数を求める(ステップS1501)。
【0062】
ステップS1501で求められた日数により、使用者の身体リズム、感情リズム、知性リズムのそれぞれの現在の状態を算出する(ステップS1502)。使用者の身体リズム、感情リズム、知性リズムは、使用者の誕生日を基点とした一定周期を有する正弦波に置き換えることが可能である。そして、使用者の身体リズム、感情リズム、知性リズムのそれぞれの現在の状態は、位相、または振幅を1とした場合の次の式で表される。
【0063】
【数1】

Figure 2004070495
【0064】
ここで、tは使用者の誕生日から現在の日時までの日数、Tは求める状態リズムの周期、()内の単位はrad(ラジアン)である。位相を、単位を度として表す場合には、tをTで割った値の小数部分に、360を乗じた値となる。
【0065】
具体的な例として、使用者の生年月日を西暦1970年5月20日、現在の日時を西暦2001年11月17日とした場合、使用者の生年月日から現在までの日数は11504日である(ステップS1501)。
【0066】
次に、それぞれのリズムの状態を上記式(数1)により算出する(ステップS1502)。
【0067】
身体リズムは、23日周期なので、
【0068】
【数2】
Figure 2004070495
【0069】
位相は63度である。
【0070】
次に、感情リズムは、28日周期なので、
【0071】
【数3】
Figure 2004070495
【0072】
位相は309度である。
【0073】
次に、知性リズムは、33日周期なので、
【0074】
【数4】
Figure 2004070495
【0075】
位相は218度である。
【0076】
以上により、バイオリズムによるところの現在の状態は、身体リズムは活動期であり、感情リズムは休息期であり、知性リズムは休息期であることがわかる。
【0077】
使用者の現在の状態が求められたので、次に、使用者がこれまで再生装置において選択し再生した楽曲データについての再生日時情報を、再生履歴データベースから取得する。そして、取得された再生日時における使用者の身体リズム、感情リズム、知性リズムの状態を、同様に演算し、既に求められた現在の使用者の状態と一致、または現在の使用者の状態に対して設定した範囲内に当てはまる楽曲データを検索する。
【0078】
ここで、上記の使用者の状態に対する範囲の設定方法の一例について説明する。
【0079】
上記のように、バイオリズムは、身体リズム、感情リズム、知性リズムの組み合わせで、人間の状態を計算しており、誕生日を基点として、身体リズムを23日周期、感情リズムを28日周期、知性リズムを33日周期の正弦波として表すことができる。
【0080】
また、上記のように、バイオリズムの周期については、正弦波の前半の半周期を活動期(高調期)、後半の半周期を休息期(低調期)と呼ぶ。また、高調期から低調期に移る時、および、低調期から高調期に移る時を、特に要注意日としている。したがって、バイオリズムの分類としては、高調期、低調期、要注意日(高調期から低調期に移る時)、要注意日(低調期から高調期に移る時)の4つを考えることができる。
【0081】
また、要注意日に対して、高調期および低調期の頂点付近を安定期とし、さらに、高調期および低調期をそれぞれ2分割して、前半を上昇期(要注意日から高調期に移る時、また、要注意日から低調期に移る時)、後半を下降期(高調期から要注意日に移る時、また、低調期から要注意日に移る時)と、分類することができる。
【0082】
図16に、バイオリズムの周期を正弦波で表した図を示す。
【0083】
本実施の形態においては、正弦波の位相で表し、高調期を10度以上170度未満、要注意日(高調期から低調期に移る時)を170度以上190度未満、低調期を190度以上350度未満、要注意日(低調期から高調期に移る時)を350度以上10度未満と考えることとする。位相の数値は、これに限るものではないが、ここでは、一例として、上記のように考えることとする。
【0084】
バイオリズムを、高調期、低調期、要注意日(高調期から低調期に移る時)、および、要注意日(低調期から高調期に移る時)の4つに分類した場合、要注意日が1日から2日程度であり、ほとんどが高調期または低調期となる。本実施の形態においては、なるべく使用者の体調(気分)にあった楽曲の検索を行うようにするために、要注意日に対して、80度以上100度未満、260度以上280度未満を安定期と考える。また、高調期および低調期をそれぞれ2分割して、前半を上昇期、後半を下降期と考える。
【0085】
以上のような観点から、本実施の形態においては、検索用の分類を、
10度以上80度未満  :高調期の上昇期
80度以上100度未満 :高調期の安定期
100度以上170度未満:高調期の下降期
170度以上190度未満:要注意日
190度以上260度未満:低調期の上昇期
260度以上280度未満:低調期の安定期
280度以上350度未満:低調期の下降期
350度以上10度未満 :要注意日
とし、上記現在の使用者の状態に対する範囲の設定方法の一例とする。
【0086】
上記楽曲データの検索の具体的な例を、図10に示した再生履歴データベースの例と、図18に示す検索画面構成例と、図17に示す検索処理のフローチャートを用いて説明する。
【0087】
まず、制御部104により使用者の現在の状態が求められた時点で、図18に示した検索画面の上半分に示すように、使用者の生年月日、現在の日時、使用者の現在の状態、および、検索ボタン1801が、表示部105に表示される。この検索画面において、使用者が、検索ボタン1801をマウス等でクリックするなどして指示する(入力部106により指示する)と、制御部104により図17に示した検索処理が開始される。
【0088】
まず、再生履歴データベースに格納された全ての登録IDに対応する楽曲データについて、使用者の生年月日から再生日時までの日数を算出し、上述したような方法により、その楽曲を再生した際の使用者の状態を演算する(ステップS1701)。
【0089】
次に、ステップS1701における演算結果が、上記現在の使用者の状態に対する設定範囲内であるかどうかを判定する(ステップS1702)。
【0090】
ステップS1702において、上記現在の使用者の状態に対する設定範囲内であると判定された場合には、ステップS1703へ進み、該当データを、検索画面へ表示する。この後、ステップS1704へ進む。ステップS1702において、設定範囲内でないと判定された場合には、ステップS1704へ進む。
【0091】
ステップS1704においては、再生履歴データベース内の全てのデータについて処理が終了したか否かを判定する。ステップS1704において、再生履歴データベース内の全てのデータについて処理が終了したと判定された場合には、処理を終了する。ステップS1704において、まだ処理が終了していないデータがあると判定された場合には、ステップS1701に戻る。
【0092】
図10に示した再生履歴データベースに格納された登録IDに対応する楽曲データについて、演算を行うと、まず、1999年8月10日に再生した登録ID、AA00001については、身体リズム31度、感情リズム77度、知性リズム164度であり、現在の状態と異なる分類(設定範囲)となる。
【0093】
次に、1999年10月12日に再生した登録ID、AA00002については、身体リズム297度、感情リズム167度、知性リズム131度であり、現在の状態と異なる分類となる。
【0094】
同様にして、再生履歴データベースに格納されたすべての登録IDに対応する楽曲データについて、演算を行っていく。すると、2001年6月6日に再生した登録ID、AA00002について、身体リズム63度、感情リズム347度、知性リズム207度となり、現在の状態と同じ分類となる。そこで、この情報を、図18に示した検索画面の下半分に示すように、表示する。再生履歴データベース内の全てのデータについて検索処理が終了しているので、ここで、図18に示した再生ボタン1802をマウス等でクリックするなどして指示する(入力部106により指示する)と、登録ID、AA00002に対応した楽曲データを、記録・再生部101により再生する。
【0095】
以上のようにして検索された楽曲データは、使用者が現在の状態と近い状態のときに、使用者自ら選択した実績のある楽曲データなので、全くランダムに選択した場合や、第三者が予め定めた検索IDを用いて検索した場合より、使用者の現在の状態に相応した楽曲データを選択することが可能となる。
【0096】
また、図19のフローチャートに示すように、上記のように検索処理を行った結果、同一の楽曲データが複数検索された場合、より現在の状態で再生されるべき楽曲データとして、検索回数の多い順に再生してもよい。
【0097】
ここで、図19のフローチャートの処理について説明する。上記図17に示した検索処理が終了すると(ステップS1901)、制御部104は、登録IDごとに、現在の状態と同じ分類の状態において再生された回数(検索された回数)をカウントする(ステップS1902)。そして、制御部104は、検索された回数が多い順に、登録IDを表示部105に表示される検索画面に表示し、使用者から入力部106により再生指示を受けた場合に、制御部104の制御により検索された回数が多い順に、登録IDに対応する楽曲データを記録・再生部101により再生する(ステップS1903)。
【0098】
また、検索結果を再生する場合に、たとえ複数回検索された楽曲データでも、1回として再生するようにしてもよい。前述した実施形態では、表示部105に図18に示す画面を表示し、使用者が入力部106を用いて指示することにより、楽曲データの検索と検索により抽出された楽曲データの再生とを実行しているが、使用者が生年月日に基づく楽曲再生を実行するモードを選択(例えば、入力部106が備える「バイオリズム再生」のモードの選択)した場合に、自動的に楽曲データの検索・再生を行うようにしてもよい。
【0099】
【発明の効果】
以上説明したとおり、本発明によれば、データ再生装置に記録されたデータを選択する際に、選択するにふさわしいと推測されるデータを容易に選択することができる、データ再生装置、データ検索方法、およびデータ再生方法を提供することができる。
【0100】
より具体的には、本発明によれば、データ再生装置に記録されたデータを選択する際に、直接データを指定する方法でも、全くランダムに指定する方法でもない方法で、かつ、使用者が希望すると推測されるデータを検索することができ、かつ、選択するために必要な登録作業等を強いることのない、データ再生装置、データ検索方法、およびデータ再生方法を提供することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態の一例であるところの再生装置の概略構成図。
【図2】従来の再生装置の概略構成図。
【図3】楽曲データ登録時の管理データベース例を示すデータ構成図。
【図4】管理データベース例を示すデータ構成図。
【図5】管理データベース例を示すデータ構成図。
【図6】管理データベース例を示すデータ構成図。
【図7】楽曲データの登録画面例を示す説明図。
【図8】管理データベース例を示すデータ構成図。
【図9】生年月日の登録画面例を示す説明図。
【図10】再生履歴データベース例を示すデータ構成図。
【図11】再生履歴データベースを作成する処理のフローチャート。
【図12】再生時間による再生履歴データベースへの登録の分岐処理のフローチャート。
【図13】選択方法による再生履歴データベースへの登録の分岐処理のフローチャート。
【図14】身体・感情・知性それぞれのリズムの周期を示す説明図。
【図15】使用者の状態を算出する処理のフローチャート。
【図16】バイオリズムの周期を正弦波で表した説明図。
【図17】検索処理のフローチャート。
【図18】検索画面例を示す説明図。
【図19】検索回数の多い順にデータを再生する処理のフローチャート。
【符号の説明】
101,201 記録・再生部
1011,2011 入力インターフェイス
1012,2012 出力インターフェイス
102,202 ハードディスク
103,203 データベース
104,204 制御部
1041,2041 CPU
105,205 表示部
106,206 入力部
107 日時情報生成部
108 生年月日記憶部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a data reproducing apparatus for reproducing content data such as audio information and video information, a search method for content data suitable for reproduction in the data reproducing apparatus, a data reproducing method, and a data reproducing apparatus for reproducing content data. The present invention relates to a program for causing a computer to execute a data search method.
[0002]
[Prior art]
In recent years, due to the increase in capacity and cost of recording media such as hard disks, devices that can record content data such as audio information and video information on recording media as digital data and reproduce the digital data have become available. Has appeared. Further, with the advancement of data compression technology, it has become possible to record more content data by performing high-efficiency compression on the digital data while suppressing deterioration of information.
[0003]
FIG. 2 is a schematic configuration diagram of a reproducing apparatus that includes a hard disk as a recording medium and handles music data as content data.
[0004]
The playback device 2 shown in FIG. 2 includes a recording / playback unit 201 connected to a bus 200, a hard disk (denoted as HD in the figure) 202 connected to the bus 200, and a control unit 204 connected to the bus 200. And a display unit 205 connected to the bus 200 and an input unit 206 connected to the bus 200. The hard disk 202 has a database (denoted as DB in the figure) 203. The recording / reproducing unit 201 has an input interface (shown as INPUT in the figure) 2011 and an output interface (shown as OUTPUT in the figure) 2012. The control unit 204 has a CPU (Central Processing Unit) 2041. The control unit 204 can realize its function by causing the CPU 2041 to execute a program stored in a storage unit (not shown).
[0005]
The music data to be reproduced is input from the input interface 2011 to the recording / reproducing unit 201. If the input music data is analog data, the recording / reproducing unit 201 sets the amplitude to an appropriate level by an amplifier (not shown) and then an AD (analog-digital) converter (not shown). Digitized. When the input music data is digital data, a data portion is extracted through the input interface 2011. In the digital input, digital copying, ripping, and the like are performed according to the intention of the copyright holder of the music data. May be recorded. Therefore, the recording / reproducing unit 201 may include a circuit that detects the signal and controls so as not to perform operations such as copying and ripping.
[0006]
When reducing the data size, digital data is compressed by an encoding unit (not shown) of the recording / reproducing unit 201. There are many types of music data compression methods, and for example, MPEG Audio layer 3 (MP3), Adaptive Transform Acoustic Coding 3 (ATRAC3), Windows Media Audio (WMA), etc. are used. Here, "ATRAC" and "Windows Media" are registered trademarks.
[0007]
Then, the digital data (song data) is recorded on the hard disk 202 by the recording / reproducing unit 201.
[0008]
As an example, when the capacity of the hard disk is 20 GB (gigabyte = 10 9 bytes), the compression method is MP3, and the bit rate is 128 kbps, about 20,000 minutes of recording can be performed. This is equivalent to about 5,000 songs with one song and four minutes of song data and 500 albums with ten songs.
[0009]
Each piece of music data recorded on the hard disk 202 is given a unique identification ID for identifying it from other music data by the control unit 204 and registered in the database 203. FIG. 3 shows an example of a management database when such music data is registered.
[0010]
The management database shown in FIG. 3 specifies the identification ID (registration ID) 301, the file name 303 indicating the music data body indicated by the registration ID 301, and the location in the hard disk 202 where the file of the file name 303 exists. For example, a path name 302 as information for performing registration and a registration date and time 304 indicating the date and time when the file having the file name 303 is registered are stored in association with each other. Depending on the file format of the hard disk 202 that stores the management database, the file name 303 can also serve as the registration ID 301.
[0011]
If this registration ID is used, it is possible to specify the recorded music data. However, it is difficult for a user to search for a desired music piece from a large amount of data using only the registration ID. Is associated with information that makes it easy to identify music data.
[0012]
When recording music data on the hard disk, the user can easily select desired music data by associating the artist name, album name, music name, etc. of the music data with the registration ID and the music data with the database. Becomes possible.
[0013]
FIG. 7 shows an example of a music data registration screen, and FIGS. 4 to 6 show examples of respective management databases.
[0014]
The user uses the input unit 206 to register the relevant information of the recorded music data on the registration screen displayed on the display unit 205 in the schematic configuration diagram of FIG. In the example of the registration screen shown in FIG. 7, the user can register a song name 701, an artist name 702, and an album name 703 as related information of music data on the registration screen. Also, in the case of registration in album units, a track number (in the figure, described as a track number) 704 can be registered in order to play back in track number order.
[0015]
The registered music titles are managed by the control unit 204 in a database as shown in FIG. 4 together with music IDs having unique values. According to the database shown in FIG. 4, the music ID 401, the music title 402, and the track No. 403 can be managed in association with each other. At this time, the song name may be directly associated with the registration ID. By associating with the song ID in this way, for example, when there is a song with the same name but a different artist, search and reproduction can be performed without confusion. Can do it.
[0016]
Similarly, for the artist name and the album name, the control unit 204 creates a database associated with a unique identification number. Examples of these databases are shown in FIGS. According to the database shown in FIG. 5, the artist ID 501 and the artist name 502 can be associated with each other. According to the database shown in FIG. 6, the album ID 601 and the album name 602 can be associated with each other.
[0017]
These song names, artist names, album names, and the like are managed by a database in association with each registration ID by a song ID, an artist ID, an album ID, and the like, as shown in FIG. According to the database shown in FIG. 8, the registration ID 801, the music ID 802, the artist ID 803, the album ID 804, and the track No 805 can be associated.
[0018]
By using the database managed in this manner, the user can specify the registered music data from the music title, the artist name, and the album name by using the input unit 206 and select the music data from the hard disk 202. The data can be reproduced by the recording / reproducing unit 201.
[0019]
As an example, when selecting from the artist name, the control unit 204 causes the display unit 205 to display the registered artist name from the database of FIG. For example, when “BBBB” is selected, the control unit 204 knows from the database in FIG. 5 that the corresponding artist ID is “RA00002”. From the database of FIG. 8, the control unit 204 knows that the registration IDs corresponding to the artist ID “RA00002” are “AA00002”, “AA00003”, and “AA00004”. Further, since the control unit 204 knows the song ID corresponding to the registration ID from the database of FIG. 8 and the database of FIG. 4 knows the song name corresponding to this song ID, the song name is also displayed on the display unit 205. be able to.
[0020]
In the above-described example, the user himself / herself inputs the music-related information to the playback device. However, depending on the recording medium of the music data, the user can automatically obtain the music-related information depending on the recording medium.
[0021]
For example, in the case of CD-TEXT, music-related information is recorded in subcodes on a disc. In addition, the user can also input from a CDDB (CD Data Base) existing on the Internet via a modem or an NIC (NETWORK INTERFACE CARD) using the TOC (Table of Contents) information of the CD without the user inputting. Related information can be obtained.
[0022]
As described above, an example of an audio player that automatically obtains music-related information, a user selects and specifies an artist name, an album name, and the like, and reproduces music data based on the specification is disclosed in Japanese Patent Application Laid-Open Publication No. 2002-2002. -23771.
[0023]
[Problems to be solved by the invention]
However, when music data is selected by a method other than the above method, it is necessary for the user to perform classification for use in music data search in advance, and to create a search database in the same manner as inputting music data related information. . However, the search other than the related information that the music has in advance is a personal search such as a user's hobby, taste, environment, and the like, and cannot be uniquely defined. Therefore, it is necessary for a user to create a unique ID for an item to be searched for and associate it with the corresponding music data.
[0024]
For example, if you want to select "Songs you want to hear when you are feeling down" or "Songs you want to hear when you feel good", "ID you want to hear when you feel down" or "ID you want to hear when you feel good" It must be created and registered in association with the corresponding song ID, and the user must select from the previously registered song IDs corresponding to the desired item.
[0025]
Therefore, an object of the present invention is to provide a data reproducing apparatus which can easily select data that is presumed to be suitable for selecting data recorded in the data reproducing apparatus, An object of the present invention is to provide a data search method and a data reproduction method.
[0026]
More specifically, an object of the present invention is to select data recorded in a data reproducing apparatus, which is the subject of the present invention, by a method that directly specifies data or a method that is not specified at random. A data reproducing apparatus, a data retrieving method, and a data reproducing method capable of retrieving data presumed to be desired by a user and not requiring registration work required for selection. It is to be.
[0027]
[Means for Solving the Problems]
In order to solve the above problems, according to the present invention, in a data reproducing apparatus for reproducing content data, information calculated from a user's birth date and current date and time information, Based on information calculated from the date and time information when the user played back the content data in the past, the content data that is presumed to be suitable for the current playback is searched for.
[0028]
More specifically, according to the present invention,
A data playback device that plays back content data,
Date and time information storage means for storing specific date and time information (birth date of the user);
Date and time information generating means for generating current date and time information;
When a user's selection of the content data is received and the content data is reproduced based on the selection, a reproduction history in which the reproduced content data is associated with reproduction date / time information which is information on the date / time when the reproduction was performed. Playback history data generation means for generating data;
Using the specific date and time information stored by the date and time information storage unit, the current date and time information generated by the date and time information generation unit, and the playback history data, content data that is estimated to be suitable for current playback Content data search means for searching and extracting
Reproducing means for reproducing the content data searched and extracted by the content data searching means;
Can be provided.
[0029]
According to the present invention,
A data playback device that plays back content data,
A reproduction history in which specific date / time information (birth date of the user), current date / time information, and content data reproduced in the past and reproduction date / time information which is information on the date / time when the content data was reproduced are associated with each other. And get the data,
Using the specific date and time information, the current date and time information, and the playback history data, content data search means for searching and extracting content data that is estimated to be suitable for current playback,
Reproducing means for reproducing the content data searched and extracted by the content data searching means;
Can be provided.
[0030]
BEST MODE FOR CARRYING OUT THE INVENTION
An embodiment of the present invention will be described.
[0031]
FIG. 1 shows a schematic configuration diagram of a reproducing apparatus which is an example of an embodiment of the present invention.
[0032]
The playback apparatus 1 shown in FIG. 1 includes a recording / playback unit 101 connected to a bus 100, a hard disk (denoted as HD in the figure) 102 connected to the bus 100, and a control unit 104 connected to the bus 100. A display unit 105 connected to the bus 100, an input unit 106 connected to the bus 100, a date and time information generation unit 107 connected to the bus 100, and a birth date storage unit 108 connected to the bus 100. Is provided. The hard disk 102 has a database (denoted as DB in the figure) 103. The recording / reproducing unit 101 has an input interface (shown as INPUT in the figure) 1011 and an output interface (shown as OUTPUT in the figure) 1012. The control unit 104 has a CPU (Central Processing Unit) 1041. The control unit 104 can realize its function by causing the CPU 1041 to execute a program stored in a storage unit (not shown).
[0033]
The playback device 1 shown in FIG. 1 includes a date / time information generation unit 107 and a birth date storage unit 108 in addition to the playback device 2 described in the above-described related art.
[0034]
The date / time information generation unit 107 is for acquiring the current date / time / time. The control unit 104 counts the number of pulses from an accurate pulse oscillator such as a crystal, and calculates the second / minute / date / time from the set initial value. Is converted into information. In some cases, countermeasures such as backing up with a battery or the like are performed so as to be safe even when the power of the apparatus is cut off.
[0035]
The date of birth storage unit 108 is for registering and storing the date of birth of the user. When the playback device 1 is first started, the date of birth of the user is registered on the display unit 105. Is displayed, and the user's date of birth is input and stored by the input unit 106 using a keyboard or the like. FIG. 9 shows an example of the date of birth registration screen. Although the date of birth storage unit 108 is provided independently in FIG. 1, the date of birth may be recorded in a recording medium such as the hard disk 102. The date of birth can also be updated and registered in a storage medium such as the date of birth storage unit 108 or the hard disk 102.
[0036]
In the reproducing apparatus 1, music data to which a registration ID is assigned is recorded on the hard disk 102, and the music data is reproduced by the recording / reproducing unit 101. At the time of the reproduction, the control unit 104 automatically records the reproduction date / time information, which is the information acquired from the date / time information generation unit 107, in the database in association with the registration ID of the reproduced music data. This database is called a reproduction history database.
[0037]
FIG. 10 shows an example of the reproduction history database. In the playback history database shown in FIG. 10, playback date / time information 1001 and registration ID 1002 are stored.
[0038]
FIG. 11 shows a flowchart of a process for creating the playback history database using the playback date and time information.
[0039]
First, the user issues an instruction to reproduce music data from the input unit 106 (step S1101). Then, the control unit 104 acquires the reproduction date / time information at that time from the date / time information generation unit 107 (step S1102). Next, the control unit 104 registers the acquired reproduction date and time information in the reproduction history database in association with the registration ID of the music data instructed to be reproduced (step S1103).
[0040]
Since the contents of the playback history database are associated with the music data selected to be played and the date and time information when the music data was played, even if the same music is selected a plurality of times, all times are registered. Become.
[0041]
As a method of registering the playback date and time information in the playback history database, only when the music data has been played for a set time or longer, it is determined that the playback has been performed, the playback date and time information is recorded, and when the playback of the music data is stopped for less than the set time, Alternatively, when the music data is changed to another music, the user may determine that the music data is not the desired music data, and may not record the reproduction date / time information.
[0042]
FIG. 12 shows a flowchart of a branching process of registration in the playback history database based on such a playback time.
[0043]
If the user instructs reproduction of music data by the input unit 106 (step S1201), the control unit 104 acquires reproduction date / time information from the date / time information generation unit 107 (step S1202). It is determined whether or not a predetermined set time t has elapsed from the start of playback (step S1203). If it is determined that the set time t has elapsed since the start of playback, the playback date and time information is registered in the playback history database. Then (step S1204), and ends. If it is determined in step S1203 that the set time t has not elapsed since the start of playback, the process ends without registering the playback date and time information in the playback history database.
[0044]
Further, as another method of registering the reproduction date and time information in the reproduction history database, when the user has not specified and selected the music data, such as when the selection method of the reproduced music data is a random selection method, The reproduction date and time information may not be recorded in the reproduction history database.
[0045]
FIG. 13 shows a flowchart of a branching process of registration in the reproduction history database by such a selection method.
[0046]
If the user instructs the reproduction of the music data by the input unit 106 (step S1301), the method of selecting the music data instructed to be reproduced is such that the user specifies a music name, an artist name, an album name, and the like. It is determined whether the selected item is selected or selected by random designation (step S1302).
[0047]
If it is determined in step S1302 that the user has specified and selected a song name, an artist name, an album name, and the like, the control unit 104 acquires reproduction date / time information from the date / time information generation unit 107. (Step S1303), the reproduction date / time information is registered in the reproduction history database (Step S1304), and the processing ends.
[0048]
If it is determined in step S1302 that the selection is made by random designation, the process ends. That is, in this case, the reproduction date / time information is not registered in the reproduction history database.
[0049]
In this way, by obtaining the date of birth of the user and the date and time history of music data reproduced in the past, it is possible to enable the search method aimed at by the present invention.
[0050]
By the way, many methods, such as pneumatics, biology, and statistics, have been published as methods for numerically determining the quality of human physical condition, emotion, and thinking ability.
[0051]
As one of them, there are things that various states of humans change in a specific cycle based on the date of birth, such as "biorhythm", "four pillars fate", "Kyusei Kiyoshi", "astrology" .
[0052]
A specific description will be given below using one of them, "biorhythm".
[0053]
The "biorhythm" is a biological clock, which means that various states change with a constant rhythm of a human being, and is said to be determined by three states of body, emotion, and intelligence.
[0054]
FIG. 14 shows the rhythm cycle of the body, emotion, and intelligence.
[0055]
The physical rhythm 1401 indicates physical strength, endurance, and the like, and is repeated every 23 days.
[0056]
The emotion rhythm 1402 indicates emotion, mood, and the like, and is repeated every 28 days.
[0057]
The intellectual rhythm 1403 represents intellect, thinking ability, and the like, and is repeated every 33 days.
[0058]
In each cycle, the first half is called an active period (higher period), and the second half is called a rest period (lower period). In addition, the time when the transition from the active period to the rest period and from the rest period to the active period is set as a day requiring special attention.
[0059]
These three types of rhythms can be calculated on the basis of a person's birthday to calculate the state of an arbitrary day. Then, based on the calculated state, the reproducing device can search for and reproduce the music data to be reproduced.
[0060]
If the user selects the search by this method, first, the current state of the user is calculated. FIG. 15 shows a flowchart of this processing.
[0061]
The control unit 104 obtains the number of days from the user's date of birth registered in advance in the date of birth storage unit 108 to the current date and time obtained by the date and time information generation unit 107 (step S1501).
[0062]
Based on the number of days obtained in step S1501, the current state of each of the user's physical rhythm, emotion rhythm, and intellectual rhythm is calculated (step S1502). The user's physical rhythm, emotional rhythm, and intellectual rhythm can be replaced with a sine wave having a fixed period based on the user's birthday. The current state of each of the user's physical rhythm, emotional rhythm, and intellectual rhythm is expressed by the following equation when the phase or the amplitude is 1.
[0063]
(Equation 1)
Figure 2004070495
[0064]
Here, t is the number of days from the user's birthday to the current date and time, T is the period of the state rhythm to be obtained, and the unit in () is rad (radian). If the phase is expressed in degrees, the fractional value of the value obtained by dividing t by T is multiplied by 360.
[0065]
As a specific example, when the date of birth of the user is May 20, 1970 AD and the current date and time is November 17, 2001, the number of days from the date of birth of the user to the present is 11,504 days. (Step S1501).
[0066]
Next, the state of each rhythm is calculated by the above equation (Equation 1) (step S1502).
[0067]
Since the body rhythm is a 23-day cycle,
[0068]
(Equation 2)
Figure 2004070495
[0069]
The phase is 63 degrees.
[0070]
Next, since the emotional rhythm is a 28-day cycle,
[0071]
[Equation 3]
Figure 2004070495
[0072]
The phase is 309 degrees.
[0073]
Next, since the intellectual rhythm is a 33-day cycle,
[0074]
(Equation 4)
Figure 2004070495
[0075]
The phase is 218 degrees.
[0076]
From the above, it can be seen that the current state based on the biorhythm is that the body rhythm is in the active period, the emotional rhythm is in the rest period, and the intellectual rhythm is in the rest period.
[0077]
Since the current state of the user has been obtained, next, the reproduction date and time information of the music data selected and reproduced by the user in the reproducing apparatus is acquired from the reproduction history database. Then, the state of the user's physical rhythm, emotional rhythm, and intellectual rhythm at the obtained reproduction date and time is calculated in the same manner, and the calculated state matches the already obtained current state of the user or the current state of the user. Search for music data that falls within the range set in Step 2.
[0078]
Here, an example of a method of setting the range with respect to the user's state will be described.
[0079]
As described above, the biorhythm calculates a human state by a combination of a body rhythm, an emotional rhythm, and an intellectual rhythm. Based on a birthday, the body rhythm is a 23-day cycle, an emotional rhythm is a 28-day cycle, and an intellectual rhythm. The rhythm can be represented as a 33-day sine wave.
[0080]
As described above, regarding the cycle of the biorhythm, the first half of the sine wave is called an active period (higher harmonic period), and the latter half of the sine wave is called a rest period (lower period). In addition, a time when the transition from the harmonic period to the low adjustment period and a time when the transition from the low adjustment period to the high adjustment period is set as a day requiring special attention. Therefore, four types of biorhythms can be considered: a high-harmonic period, a low-tone period, a day of caution (when shifting from the high-harmonic period to the low-harmonic period), and a day of caution (when shifting from the low-tone period to the high-harmonic period).
[0081]
In addition, for the cautionary date, the vicinity of the peak of the harmonic period and the low adjustment period is set as the stable period, and the high harmonic period and the low adjustment period are divided into two, and the first half is the rising period (when shifting from the cautionary date to the higher harmonic period). In addition, the second half can be classified into a falling period (when shifting from a high-sensitivity period to a low-key period) or a falling period (when shifting from a high-harmonic period to a low-key period).
[0082]
FIG. 16 shows a diagram in which the cycle of the biorhythm is represented by a sine wave.
[0083]
In the present embodiment, the phase is represented by a sine wave, the harmonic period is 10 degrees or more and less than 170 degrees, the day of caution (when the transition from the harmonic period to the low period) is 170 degrees or more and less than 190 degrees, and the low period is 190 degrees. It is assumed that the date of caution (at the time of shifting from the low-tone period to the high-harmonic period) is 350 degrees or more and less than 10 degrees. The numerical value of the phase is not limited to this, but here, as an example, the above is considered.
[0084]
If the biorhythm is classified into four periods, a high period, a low period, a day requiring caution (when moving from the low period to the high period), and a day requiring caution (when moving from the low period to the high period), It is about one to two days, and most of the time is a high or low tone period. In the present embodiment, in order to search for a song that matches the user's physical condition (feel) as much as possible, the angle between 80 degrees and less than 100 degrees, and between 260 degrees and less than 280 degrees with respect to the day of caution is required. Think of it as a stable period. In addition, the harmonic period and the low-tone period are each divided into two, and the first half is considered to be the rising period and the second half is considered to be the falling period.
[0085]
From the above viewpoints, in the present embodiment, the classification for search is
10 degrees or more and less than 80 degrees: Rise period of harmonic period
80 degrees or more and less than 100 degrees: Harmonic period stable period
100 degrees or more and less than 170 degrees: falling period of the harmonic period
170 degrees or more and less than 190 degrees: Day of caution
190 degrees or more and less than 260 degrees: rising period of low tone
260 degrees or more and less than 280 degrees: stable period of low tone
280 degrees or more and less than 350 degrees: falling period of low tone
350 degrees or more and less than 10 degrees: Day of caution
This is an example of a method of setting a range for the current user state.
[0086]
A specific example of the music data search will be described with reference to the example of the reproduction history database shown in FIG. 10, the search screen configuration example shown in FIG. 18, and the search processing flowchart shown in FIG.
[0087]
First, when the current state of the user is obtained by the control unit 104, as shown in the upper half of the search screen shown in FIG. 18, the date of birth of the user, the current date and time, and the current time of the user The state and the search button 1801 are displayed on the display unit 105. When the user gives an instruction by clicking the search button 1801 with a mouse or the like on the search screen (instruction by the input unit 106), the control unit 104 starts the search processing shown in FIG.
[0088]
First, for the music data corresponding to all the registration IDs stored in the reproduction history database, the number of days from the user's birth date to the reproduction date and time is calculated, and when the music is reproduced by the above-described method. The state of the user is calculated (step S1701).
[0089]
Next, it is determined whether the calculation result in step S1701 is within the setting range for the current user state (step S1702).
[0090]
If it is determined in step S1702 that the current user state is within the set range, the process proceeds to step S1703, and the corresponding data is displayed on the search screen. Thereafter, the process proceeds to step S1704. If it is determined in step S1702 that the value is not within the set range, the process advances to step S1704.
[0091]
In step S1704, it is determined whether the processing has been completed for all data in the playback history database. If it is determined in step S1704 that the processing has been completed for all data in the playback history database, the processing ends. If it is determined in step S1704 that there is data that has not been processed yet, the process returns to step S1701.
[0092]
When the music data corresponding to the registration ID stored in the reproduction history database shown in FIG. 10 is operated, first, for the registration ID and AA00001 reproduced on August 10, 1999, the body rhythm is 31 degrees and the emotion is The rhythm is 77 degrees and the intelligence rhythm is 164 degrees, and the classification (setting range) is different from the current state.
[0093]
Next, the registered ID and AA00002 reproduced on October 12, 1999 have a body rhythm of 297 degrees, an emotion rhythm of 167 degrees, and an intellectual rhythm of 131 degrees, and are classified differently from the current state.
[0094]
Similarly, calculations are performed on music data corresponding to all registered IDs stored in the playback history database. Then, for the registered ID and AA00002 reproduced on June 6, 2001, the body rhythm is 63 degrees, the emotional rhythm is 347 degrees, and the intellectual rhythm is 207 degrees, which is the same classification as the current state. Therefore, this information is displayed as shown in the lower half of the search screen shown in FIG. Since the search process has been completed for all data in the playback history database, if the playback button 1802 shown in FIG. 18 is instructed by clicking with a mouse or the like (instructed by the input unit 106), The music data corresponding to the registration ID and AA00002 is reproduced by the recording / reproducing unit 101.
[0095]
The music data retrieved as described above is music data that has been selected by the user himself when the user is in a state close to the current state, so if the music data is selected completely randomly, The music data corresponding to the current state of the user can be selected from the case where the search is performed using the determined search ID.
[0096]
Further, as shown in the flowchart of FIG. 19, when a plurality of pieces of the same music data are searched as a result of performing the search processing as described above, the music data to be reproduced in the current state is frequently searched. They may be played back in order.
[0097]
Here, the processing of the flowchart in FIG. 19 will be described. When the search process illustrated in FIG. 17 is completed (step S1901), the control unit 104 counts, for each registered ID, the number of times of reproduction (the number of times of search) in a state of the same classification as the current state (step S1901). S1902). Then, the control unit 104 displays the registration ID on the search screen displayed on the display unit 105 in descending order of the number of times of search, and when a reproduction instruction is received from the input unit 106 from the user, the control unit 104 The music data corresponding to the registration ID is reproduced by the recording / reproducing unit 101 in the descending order of the number of times searched by the control (step S1903).
[0098]
Further, when the search result is reproduced, even the music data searched a plurality of times may be reproduced as one time. In the above-described embodiment, the screen shown in FIG. 18 is displayed on the display unit 105, and when the user gives an instruction using the input unit 106, the search of the music data and the reproduction of the music data extracted by the search are executed. However, when the user selects a mode for executing music playback based on the date of birth (for example, selecting a “biorhythm playback” mode provided in the input unit 106), the search / search for music data is automatically performed. Reproduction may be performed.
[0099]
【The invention's effect】
As described above, according to the present invention, when selecting data recorded in a data reproducing apparatus, a data reproducing apparatus and a data search method that can easily select data that is presumed to be suitable for selection , And a data reproduction method.
[0100]
More specifically, according to the present invention, when data recorded in the data reproducing apparatus is selected, the method is not a method of directly specifying data, a method of specifying data at all at all, and a method in which a user It is possible to provide a data reproducing apparatus, a data retrieving method, and a data reproducing method that can retrieve data that is presumed to be desired and that do not require registration work required for selection.
[Brief description of the drawings]
FIG. 1 is a schematic configuration diagram of a reproducing apparatus which is an example of an embodiment of the present invention.
FIG. 2 is a schematic configuration diagram of a conventional reproducing apparatus.
FIG. 3 is a data configuration diagram showing an example of a management database when registering music data.
FIG. 4 is a data configuration diagram showing an example of a management database.
FIG. 5 is a data configuration diagram showing an example of a management database.
FIG. 6 is a data configuration diagram showing an example of a management database.
FIG. 7 is an explanatory diagram showing an example of a registration screen for music data.
FIG. 8 is a data configuration diagram showing an example of a management database.
FIG. 9 is an explanatory view showing an example of a registration screen of a date of birth.
FIG. 10 is a data configuration diagram showing an example of a reproduction history database.
FIG. 11 is a flowchart of processing for creating a reproduction history database.
FIG. 12 is a flowchart of a branch process of registration in a playback history database based on a playback time.
FIG. 13 is a flowchart of a branching process of registration in a reproduction history database by a selection method.
FIG. 14 is an explanatory diagram showing a rhythm cycle of each of body, emotion, and intelligence.
FIG. 15 is a flowchart of a process for calculating a state of a user.
FIG. 16 is an explanatory diagram in which the cycle of biorhythm is represented by a sine wave.
FIG. 17 is a flowchart of a search process.
FIG. 18 is an explanatory diagram showing an example of a search screen.
FIG. 19 is a flowchart of a process of reproducing data in descending order of the number of searches.
[Explanation of symbols]
101, 201 Recording / playback unit
1011,2011 input interface
1012, 2012 output interface
102, 202 Hard disk
103, 203 database
104, 204 control unit
1041, 2041 CPU
105, 205 display unit
106, 206 input unit
107 Date and time information generation unit
108 Date of birth storage

Claims (13)

コンテンツデータを再生するデータ再生装置であって、
特定の日時情報を記憶する日時情報記憶手段と、
現在の日時情報を生成する日時情報生成手段と、
コンテンツデータに対する使用者の選択を受け付けて、この選択に基づいてコンテンツデータを再生した場合に、再生されたコンテンツデータと、再生をおこなった日時についての情報である再生日時情報とを関連付けた再生履歴データを生成する再生履歴データ生成手段と、
前記日時情報記憶手段により記憶された特定の日時情報と、前記日時情報生成手段により生成された現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索して抽出するコンテンツデータ検索手段と、
該コンテンツデータ検索手段により検索して抽出されたコンテンツデータを再生する再生手段と、
を、有することを特徴とするデータ再生装置。
A data playback device that plays back content data,
Date and time information storage means for storing specific date and time information;
Date and time information generating means for generating current date and time information;
When a user's selection of the content data is received and the content data is reproduced based on the selection, a reproduction history in which the reproduced content data is associated with reproduction date / time information which is information on the date / time when the reproduction was performed. Playback history data generation means for generating data;
Using the specific date and time information stored by the date and time information storage unit, the current date and time information generated by the date and time information generation unit, and the playback history data, content data that is estimated to be suitable for current playback Content data search means for searching and extracting
Reproducing means for reproducing the content data searched and extracted by the content data searching means;
A data reproducing apparatus, comprising:
コンテンツデータを再生するデータ再生装置であって、
特定の日時情報と、現在の日時情報と、過去に再生されたコンテンツデータと該コンテンツデータが再生された日時についての情報である再生日時情報とを関連付けた再生履歴データとを取得し、
前記特定の日時情報と、前記現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索して抽出するコンテンツデータ検索手段と、
該コンテンツデータ検索手段により検索して抽出されたコンテンツデータを再生する再生手段と、
を、有することを特徴とするデータ再生装置。
A data playback device that plays back content data,
Acquiring specific date and time information, current date and time information, and reproduction history data that associates content data reproduced in the past with reproduction date and time information that is information on the date and time when the content data was reproduced,
Using the specific date and time information, the current date and time information, and the playback history data, content data search means for searching and extracting content data that is estimated to be suitable for current playback,
Reproducing means for reproducing the content data searched and extracted by the content data searching means;
A data reproducing apparatus, comprising:
請求項1または請求項2記載のデータ再生装置であって、
前記特定の日時情報が、使用者の生年月日であることを特徴とするデータ再生装置。
The data reproducing apparatus according to claim 1 or 2, wherein:
The data reproducing apparatus, wherein the specific date and time information is a date of birth of a user.
請求項1記載のデータ再生装置であって、
前記再生履歴データ生成手段は、コンテンツデータに対する使用者の選択を受け付けて、この選択に基づいてコンテンツデータを、予め定められた時間以上再生した場合にのみ、前記再生履歴データを生成することを特徴とするデータ再生装置。
The data reproducing apparatus according to claim 1, wherein
The reproduction history data generation means receives a user's selection of the content data and generates the reproduction history data only when the content data is reproduced for a predetermined time or more based on the selection. Data reproducing device.
請求項1または請求項2記載のデータ再生装置であって、
前記コンテンツデータ検索手段は、前記特定の日時情報と、前記再生日時情報と、前記再生履歴データとを用いて、前記データ再生装置の使用者の体調を推測し、該推測された使用者の体調に基づいて、現在再生するにふさわしいと推測されるコンテンツデータを検索して抽出することを特徴とするデータ再生装置。
The data reproducing apparatus according to claim 1 or 2, wherein:
The content data search unit estimates the physical condition of the user of the data reproducing device using the specific date and time information, the reproduction date and time information, and the reproduction history data, and calculates the estimated physical condition of the user. A data reproducing apparatus for searching and extracting content data that is presumed to be suitable for current reproduction based on the content data.
請求項1または請求項2記載のデータ再生装置であって、
前記再生手段は、前記コンテンツデータ検索手段により検索して抽出されたコンテンツデータが複数存在した場合に、抽出回数が多い順にコンテンツデータを再生することを特徴とするデータ再生装置。
The data reproducing apparatus according to claim 1 or 2, wherein:
The data reproducing device, wherein, when there are a plurality of pieces of content data searched and extracted by the content data searching means, the reproducing means reproduces the content data in descending order of the number of times of extraction.
請求項1または請求項2記載のデータ再生装置であって、
前記再生手段は、前記コンテンツデータ検索手段により検索して、同一のコンテンツデータが複数回抽出された場合に、該コンテンツデータを1回だけ再生することを特徴とするデータ再生装置。
The data reproducing apparatus according to claim 1 or 2, wherein:
A data reproducing apparatus, wherein the reproducing means reproduces the content data only once when the same content data is extracted a plurality of times by the content data searching means.
コンテンツデータを再生するデータ再生装置におけるデータ検索方法であって、
特定の日時情報を記憶し、
現在の日時情報を生成し、
コンテンツデータに対する使用者の選択を受け付けて、この選択に基づいてコンテンツデータを再生した場合に、再生されたコンテンツデータと、再生をおこなった日時についての情報である再生日時情報とを関連付けた再生履歴データを生成し、
前記特定の日時情報と、前記現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索することを特徴とするデータ検索方法。
A data search method in a data playback device that plays back content data,
Remember specific date and time information,
Generate current date and time information,
When a user's selection of the content data is received and the content data is reproduced based on the selection, a reproduction history in which the reproduced content data is associated with reproduction date / time information which is information on the date / time when the reproduction was performed. Generate data,
A data search method, characterized by using the specific date and time information, the current date and time information, and the playback history data to search for content data that is estimated to be suitable for current playback.
コンテンツデータを再生するデータ再生装置におけるデータ検索方法であって、
特定の日時情報と、現在の日時情報と、過去に再生されたコンテンツデータと該コンテンツデータが再生された日時についての情報である再生日時情報とを関連付けた再生履歴データとを取得し、
前記特定の日時情報と、前記現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索することを特徴とするデータ検索方法。
A data search method in a data playback device that plays back content data,
Acquiring specific date and time information, current date and time information, and reproduction history data that associates content data reproduced in the past with reproduction date and time information that is information on the date and time when the content data was reproduced,
A data search method, characterized by using the specific date and time information, the current date and time information, and the playback history data to search for content data that is estimated to be suitable for current playback.
コンテンツデータを再生するデータ再生装置におけるデータ再生方法であって、
特定の日時情報を記憶し、
現在の日時情報を生成し、
コンテンツデータに対する意図的な選択を受け付けて、この選択に基づいてコンテンツデータを再生した場合に、再生されたコンテンツデータと、該コンテンツデータが再生された日時についての情報である再生日時情報とを関連付けた再生履歴データを生成し、
前記特定の日時情報と、前記現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索して抽出し、
該抽出されたコンテンツデータを再生することを特徴とするデータ再生方法。
A data playback method in a data playback device that plays back content data,
Remember specific date and time information,
Generate current date and time information,
When an intentional selection of the content data is received and the content data is reproduced based on the selection, the reproduced content data is associated with reproduction date / time information which is information on the date / time when the content data was reproduced. Generated playback history data,
Using the specific date and time information, the current date and time information, and the playback history data, search and extract content data that is estimated to be suitable for current playback,
A data reproducing method characterized by reproducing the extracted content data.
コンテンツデータを再生するデータ再生装置におけるデータ再生方法であって、
特定の日時情報と、現在の日時情報と、過去に再生されたコンテンツデータと該コンテンツデータが再生された日時についての情報である再生日時情報とを関連付けた再生履歴データとを取得し、
前記特定の日時情報と、前記現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索して抽出し、
該抽出されたコンテンツデータを再生することを特徴とするデータ再生方法。
A data playback method in a data playback device that plays back content data,
Acquiring specific date and time information, current date and time information, and reproduction history data that associates content data reproduced in the past with reproduction date and time information that is information on the date and time when the content data was reproduced,
Using the specific date and time information, the current date and time information, and the playback history data, search and extract content data that is estimated to be suitable for current playback,
A data reproducing method characterized by reproducing the extracted content data.
コンテンツデータを再生するデータ再生装置におけるデータ検索方法をコンピュータに実行させるためのプログラムであって、
特定の日時情報を記憶する機能と、
現在の日時情報を生成する機能と、
コンテンツデータに対する選択を受け付けて、この選択に基づいてコンテンツデータを再生した場合に、再生されたコンテンツデータと、再生をおこなった日時についての情報である再生日時情報とを関連付けた再生履歴データを生成し、前記特定の日時情報と、前記現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索する機能と、
をコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute a data search method in a data playback device that plays back content data,
A function of storing specific date and time information,
A function to generate current date and time information,
When the selection of the content data is received and the content data is reproduced based on the selection, the reproduction history data is generated in which the reproduced content data is associated with the reproduction date and time information which is information on the date and time when the reproduction was performed. And a function of using the specific date and time information, the current date and time information, and the reproduction history data to search for content data that is estimated to be suitable for current reproduction,
Which causes a computer to execute the program.
コンテンツデータを再生するデータ再生装置におけるデータ検索方法をコンピュータに実行させるためのプログラムであって、
特定の日時情報と、現在の日時情報と、過去に再生されたコンテンツデータと該コンテンツデータが再生された日時についての情報である再生日時情報とを関連付けた再生履歴データとを取得し、
前記特定の日時情報と、前記現在の日時情報と、前記再生履歴データとを用いて、現在再生するにふさわしいと推測されるコンテンツデータを検索する機能をコンピュータに実行させることを特徴とするプログラム。
A program for causing a computer to execute a data search method in a data playback device that plays back content data,
Acquiring specific date and time information, current date and time information, and reproduction history data that associates content data reproduced in the past with reproduction date and time information that is information on the date and time when the content data was reproduced,
A program for causing a computer to execute a function of searching for content data that is estimated to be suitable for current reproduction using the specific date and time information, the current date and time information, and the reproduction history data.
JP2002226157A 2002-08-02 2002-08-02 Data reproducing device, data retrieval method, data reproducing method, and program making computer implement data retrieval method of data reproducing device reproducing content data Pending JP2004070495A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002226157A JP2004070495A (en) 2002-08-02 2002-08-02 Data reproducing device, data retrieval method, data reproducing method, and program making computer implement data retrieval method of data reproducing device reproducing content data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002226157A JP2004070495A (en) 2002-08-02 2002-08-02 Data reproducing device, data retrieval method, data reproducing method, and program making computer implement data retrieval method of data reproducing device reproducing content data

Publications (1)

Publication Number Publication Date
JP2004070495A true JP2004070495A (en) 2004-03-04

Family

ID=32013591

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002226157A Pending JP2004070495A (en) 2002-08-02 2002-08-02 Data reproducing device, data retrieval method, data reproducing method, and program making computer implement data retrieval method of data reproducing device reproducing content data

Country Status (1)

Country Link
JP (1) JP2004070495A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005285285A (en) * 2004-03-30 2005-10-13 Clarion Co Ltd Content read system and musical piece reproduction apparatus
WO2006080295A1 (en) * 2005-01-31 2006-08-03 Matsushita Electric Industrial Co., Ltd. Information recording device and information reproducing device
JP2007058481A (en) * 2005-08-24 2007-03-08 Fujitsu Ten Ltd Reproducing device and musical piece information providing method
WO2011129119A1 (en) * 2010-04-15 2011-10-20 有限会社アストロハート Biorhythm signal output device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005285285A (en) * 2004-03-30 2005-10-13 Clarion Co Ltd Content read system and musical piece reproduction apparatus
WO2006080295A1 (en) * 2005-01-31 2006-08-03 Matsushita Electric Industrial Co., Ltd. Information recording device and information reproducing device
JP2007058481A (en) * 2005-08-24 2007-03-08 Fujitsu Ten Ltd Reproducing device and musical piece information providing method
WO2011129119A1 (en) * 2010-04-15 2011-10-20 有限会社アストロハート Biorhythm signal output device
JP5788870B2 (en) * 2010-04-15 2015-10-07 有限会社アストロハート Biorhythm signal output device

Similar Documents

Publication Publication Date Title
US7899564B2 (en) Procedure and apparatus for generating automatic replay of recordings
CN101256811B (en) Apparatus and method for producing play list
CN101028561B (en) Contents reproducing list generating device and method
JP5039785B2 (en) Method and system for browsing music
JP4033944B2 (en) Online karaoke system characterized by recommended music selection function according to music to be played
US7953504B2 (en) Method and apparatus for selecting an audio track based upon audio excerpts
KR100722356B1 (en) Method and apparatus for information processing, and medium for storing information
JP2011043710A (en) Audio processing device, audio processing method and program
CN101103412B (en) Music reproduction device, method, and integrated circuit
JP4898272B2 (en) Playlist search device and playlist search method
JP2006337914A (en) Music player capable of musical piece remixing, musical piece remixing method, and program
JP4027405B2 (en) Music searching device, music searching method, program thereof and recording medium
JP2008041043A (en) Information processing apparatus
JP2001306580A (en) Music database retrieving device
JP2004070495A (en) Data reproducing device, data retrieval method, data reproducing method, and program making computer implement data retrieval method of data reproducing device reproducing content data
JP2005044391A (en) Audio recording and reproducing apparatus using play list and play list creation method
Zhu et al. Perceptual visualization of a music collection
Tzanetakis Musescape: A tool for changing music collections into libraries
JP2007226880A (en) Reproduction device, search method, and computer program
JP2002055993A (en) Music reproducing device
Tzanetakis MUSESCAPE: An interactive content-aware music browser
WO2017219481A1 (en) Playlist sorting method and device
JP2004241095A (en) Audio playback unit
JP4413643B2 (en) Music search and playback device
JP2004326907A (en) Audio reproducing device