JP4759281B2 - Information processing apparatus, information processing method, information processing program, and recording medium on which information processing program is recorded - Google Patents

Information processing apparatus, information processing method, information processing program, and recording medium on which information processing program is recorded Download PDF

Info

Publication number
JP4759281B2
JP4759281B2 JP2005033152A JP2005033152A JP4759281B2 JP 4759281 B2 JP4759281 B2 JP 4759281B2 JP 2005033152 A JP2005033152 A JP 2005033152A JP 2005033152 A JP2005033152 A JP 2005033152A JP 4759281 B2 JP4759281 B2 JP 4759281B2
Authority
JP
Japan
Prior art keywords
music
information
music data
tone
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005033152A
Other languages
Japanese (ja)
Other versions
JP2006221715A (en
Inventor
正史 田辺
直哉 岩橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pioneer Corp
Original Assignee
Pioneer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pioneer Corp filed Critical Pioneer Corp
Priority to JP2005033152A priority Critical patent/JP4759281B2/en
Publication of JP2006221715A publication Critical patent/JP2006221715A/en
Application granted granted Critical
Publication of JP4759281B2 publication Critical patent/JP4759281B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Indexing, Searching, Synchronizing, And The Amount Of Synchronization Travel Of Record Carriers (AREA)

Description

本発明は、楽曲データの曲調を認識する情報処理装置、情報処理方法、情報処理プログラム、および、情報処理プログラムを記録した記録媒体に関する。 The present invention relates to an information processing apparatus that recognizes the tune of music data, an information processing method, an information processing program, and a recording medium on which the information processing program is recorded.

従来、例えば楽曲などのオーディオ情報を再生するオーディオ情報提供装置が知られている(例えば、特許文献1参照)。この特許文献1に記載のオーディオ情報提供装置は、記憶手段と、特徴決定部と、印象座標値リスト取得部と、再生装置と、などを備えている。   2. Description of the Related Art Conventionally, an audio information providing apparatus that reproduces audio information such as music is known (see, for example, Patent Document 1). The audio information providing apparatus described in Patent Document 1 includes a storage unit, a feature determination unit, an impression coordinate value list acquisition unit, a playback device, and the like.

記憶手段は、オーディオ情報などの情報を記憶する。特徴決定部は、記憶手段が新たなオーディオ情報を記憶する際、記憶されるオーディオ情報の再生時間を算出し、このオーディオ情報における楽曲のテンポ、コード進行、楽器構成等の音楽的特徴を自動抽出する。そして、これらの音楽的特徴を用いてオーディオ情報の印象座標値を算出する。ここで、特徴座標値とは、「明るい」、「激しい」、「爽快」、「シャープ」といったオーディオ情報の主観的な特徴を表す座標系の座標値である。さらに、特徴決定部は、オーディオ情報の特徴座標値および再生時間を示す関連情報をオーディオ情報とともに記憶手段に記憶させる。印象座標値リスト取得部は、利用者のイメージに適した連続したオーディオ情報を提供するための、利用者のイメージに適した印象座標値を時系列に連続して並べた印象座標値リストを取得する。再生装置は、印象座標値リストに示される順序にしたがって一組のオーディオ情報を再生する。これにより、利用者がその時々の気分にしたがって聴きたいオーディオ情報を、例えば「明るい」などの特徴で指定することにより、指定された特徴と対応するオーディオ情報を連続再生する構成が採られている。   The storage means stores information such as audio information. When the storage means stores new audio information, the feature determination unit calculates the playback time of the stored audio information, and automatically extracts musical features such as the tempo of the music, chord progression, instrument configuration, etc. in the audio information To do. And the impression coordinate value of audio information is calculated using these musical features. Here, the feature coordinate value is a coordinate value of a coordinate system representing subjective features of audio information such as “bright”, “violent”, “exhilarating”, and “sharp”. Further, the feature determination unit causes the storage means to store the feature coordinate value of the audio information and the related information indicating the reproduction time together with the audio information. The impression coordinate value list acquisition unit acquires an impression coordinate value list in which impression coordinate values suitable for the user's image are arranged in time series in order to provide continuous audio information suitable for the user's image. To do. The playback device plays back a set of audio information according to the order shown in the impression coordinate value list. As a result, the audio information that the user wants to listen to according to his / her mood is designated by a feature such as “bright”, and the audio information corresponding to the designated feature is continuously reproduced. .

特開2003−15666(第6頁右欄−第9頁左欄)JP2003-15666 (right column on page 6-left column on page 9)

しかしながら、上述した特許文献1のような構成では、多種多様な特徴を備えたオーディオ情報に対して1つの音楽的特徴しか関連づけられていないので、再生されたオーディオ情報の中には利用者がイメージした音楽的特徴とは異なる部分が含まれるおそれがある。このため、利用者の気分に合わない部分も再生されるおそれがある、などの問題が一例として挙げられる。   However, in the configuration as described in Patent Document 1 described above, only one musical feature is associated with audio information having a variety of features. There is a possibility that a portion different from the musical feature is included. For this reason, the problem that there is a possibility that a portion that does not match the user's mood may be reproduced is an example.

本発明は、上述したような問題点に鑑みて、楽曲データの曲調を良好に認識できる情報処理装置、情報処理方法、情報処理プログラム、および情報処理プログラムを記録した記録媒体を提供することを1つの目的とする。 In view of the above-described problems, the present invention provides an information processing apparatus, an information processing method, an information processing program, and a recording medium on which an information processing program is recorded that can recognize the tone of music data satisfactorily. One purpose.

請求項1に記載の発明は、楽曲データを取得するデータ取得手段と、前記楽曲データの曲調を認識する特性認識手段と、前記特性認識手段により認識した前記曲調に基づいて前記楽曲データにおける曲調が異なるパートを認識する区間認識手段と、前記楽曲データのパートにおける前記曲調に関する特性情報を前記パートの位置を特定する区間特定情報に関連付けて区間特性情報を生成する区間特性情報生成手段と、を具備し、前記特性認識手段は、前記データ取得手段で楽曲データを取得すると、前記楽曲データの再生時間に対応した少なくとも1つの曲調の度合いを数値化した曲調ポイントに関する曲調ポイント情報を生成し、前記区間認識手段は、前記特性認識手段により認識した曲調ポイントが再生時間の全体を通して変化する変化位置を認識して前記曲調が異なるパートを認識することを特徴とした情報処理装置である。 According to one aspect of the present invention, a data obtaining unit for obtaining music data, a characteristic of recognizing recognition means the tune of the music data, the tune is in the music data based on the melody recognized by the characteristic recognizing means Section recognition means for recognizing different parts, and section characteristic information generation means for generating section characteristic information by associating the characteristic information related to the music tone in the part of the music data with the section specifying information for specifying the position of the part. The characteristic recognition means, when the data acquisition means obtains the music data, generates music tone point information relating to the music tone point in which at least one music tone degree corresponding to the reproduction time of the music data is quantified, and the section The recognizing means is a change in which the tone point recognized by the characteristic recognizing means changes throughout the reproduction time. Wherein recognizes the location tune an information processing apparatus characterized by recognizing a different part.

請求項11に記載の発明は、演算手段により楽曲データに関する所定の情報を生成する情報処理方法であって、前記楽曲データを取得し、前記楽曲データの曲調を認識し、前記曲調に基づいて前記楽曲データにおける曲調が異なるパートを認識し、前記曲調データのパートにおける前記曲調に関する特性情報を前記パートの位置を特定する区間特定情報に関連付けて区間特性情報を生成し、前記演算手段は、前記楽曲データを取得すると、前記楽曲データの再生時間に対応した少なくとも1つの曲調の度合いを数値化した曲調ポイントに関する曲調ポイント情報を生成し、この生成した曲調ポイントが再生時間の全体を通して変化する変化位置を認識して前記曲調が異なるパートを認識することを特徴とする情報処理方法である。 The invention according to claim 11, the computing means An information processing method for generating a predetermined information about the music data, acquires the music data, recognizes the tune of the music data, on the basis of the said melody recognizes the music tone different part of the song data, the characteristic information on the tune in part of the melody data to generate segment characteristic information in association with the section identifying information for identifying the position of said part, said computing means, said music When the data is acquired, the music tone point information related to the music tone point in which at least one music tone degree corresponding to the playback time of the music data is quantified is generated, and the change position where the generated music tone point changes throughout the playback time is determined. It is an information processing method characterized by recognizing and recognizing parts having different tunes .

請求項12に記載の発明は、演算手段を本発明の情報処理装置として機能させることを特徴とする情報処理プログラムである。 According to a twelfth aspect of the present invention , there is provided an information processing program that causes a computing means to function as the information processing apparatus of the present invention .

請求項13に記載の発明は、本発明の情報処理方法を演算手段に実行させることを特徴とする情報処理プログラムである。 A thirteenth aspect of the present invention is an information processing program that causes an arithmetic means to execute the information processing method of the present invention .

請求項14に記載の発明は、本発明の情報処理プログラムが演算手段にて読取可能に記録されたことを特徴とする情報処理プログラムを記録した記録媒体である。 The invention according to claim 14 is a recording medium on which an information processing program according to the present invention is recorded so that the information processing program can be read by an arithmetic means.

以下に、本発明の一実施の形態を図面に基づいて説明する。本実施の形態では、本発明の情報処理装置を有する楽曲再生装置を備えた楽曲再生システムであって、楽曲データの曲調を認識して楽曲データを再生出力する構成を備えたシステムを例示して説明する。そして、以下において、楽曲データの特性としての曲調が変更する変更位置間の区間をパートと称して説明する。図1は、本発明の一実施の形態に係る楽曲再生システムの概略構成を示すブロック図である。図2は、プレイリストの概略構成を示す模式図である。図3は、楽曲再生装置の処理部の内部構成を示すブロック図である。図4は、楽曲の曲調の一例を示す図である。図5は、プレイリスト画面の一例を示す図である。図6は、再生画面の一例を示す図である。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings. The present embodiment exemplifies a music playback system including a music playback device having the information processing apparatus of the present invention, the system having a configuration for recognizing the tone of music data and reproducing and outputting the music data. Explain . Their to, the following describes the interval between change position for changing the tune of the characteristics of the music data is referred to as a part. FIG. 1 is a block diagram showing a schematic configuration of a music playback system according to an embodiment of the present invention. FIG. 2 is a schematic diagram showing a schematic configuration of a playlist. FIG. 3 is a block diagram showing the internal configuration of the processing unit of the music playback device. FIG. 4 is a diagram illustrating an example of the tone of a song. FIG. 5 is a diagram illustrating an example of a playlist screen. FIG. 6 is a diagram illustrating an example of a playback screen.

〔楽曲再生システムの構成〕
図1において、100は楽曲再生システムである。この楽曲再生システム100は、楽曲データの曲調を複数のパート毎に認識し、認識した曲調に基づいて適宜楽曲データを再生するシステムである。そして、楽曲再生システム100は、音声出力装置200と、楽曲再生装置300と、などを備えている。
[Configuration of music playback system]
In FIG. 1, reference numeral 100 denotes a music playback system. The music reproduction system 100 is a system that recognizes the tune of music data for each of a plurality of parts and appropriately reproduces the music data based on the recognized tune. The music playback system 100 includes an audio output device 200, a music playback device 300, and the like.

音声出力装置200は、例えば、図示しないスピーカなどの発音手段などを備えている。この音声出力装置200は、楽曲再生装置300と各種情報が送受信可能に接続されており、楽曲再生装置300から送信される楽曲データを発音手段から音声として再生出力する。なお、例えば、楽曲再生システム100を移動体としての車両に設ける構成の場合、音声出力装置200は、発音手段としてのスピーカが例えばインストルメントパネル部、ドア部、リアダッシュボード部など、車両の室内空間における前方部分や後方部分の左右側にそれぞれ配設された構成などとすることが例示できる。   The audio output device 200 includes, for example, sounding means such as a speaker (not shown). The audio output device 200 is connected to the music reproducing device 300 so that various information can be transmitted and received, and reproduces and outputs the music data transmitted from the music reproducing device 300 as sound from the sound generation means. Note that, for example, in the case where the music playback system 100 is provided in a vehicle as a moving body, the audio output device 200 includes a speaker as a sound generation means such as an instrument panel portion, a door portion, a rear dashboard portion, etc. For example, it may be configured to be respectively disposed on the left and right sides of the front part and the rear part in the space.

楽曲再生装置300は、車両に搭載される車載型、携帯型、PDA(Personal Digital Assistant)、携帯電話、PHS(Personal Handyphone System)、デスクトップ型パーソナルコンピュータ、携帯型パーソナルコンピュータなどである。この楽曲再生装置300は、楽曲データの曲調をパート毎に関連付けて認識し、認識した曲調に基づいて楽曲データを適宜再生する。そして、楽曲再生装置300は、入力部310と、表示手段としてのタッチパネル320と、コンテンツデータ記憶手段としての楽曲データ記憶手段330と、メモリ340と、演算手段としての処理部350と、などを備えている。   The music reproducing device 300 is a vehicle-mounted type, a portable type, a PDA (Personal Digital Assistant), a mobile phone, a PHS (Personal Handyphone System), a desktop personal computer, a portable personal computer or the like mounted on a vehicle. The music reproducing device 300 recognizes the music tone of the music data in association with each part, and appropriately reproduces the music data based on the recognized music tone. The music reproducing device 300 includes an input unit 310, a touch panel 320 as a display unit, a music data storage unit 330 as a content data storage unit, a memory 340, a processing unit 350 as a calculation unit, and the like. ing.

入力部310は、ケース体の例えば正面に臨んで入力操作可能に配設された図示しない各種操作ボタンや操作つまみなどを有している。そして、入力部310は、例えば楽曲再生装置300の動作内容の設定などの設定事項の入力操作により、各種情報を入力信号として処理部350へ出力して設定させる。なお、入力部310としては、例えばタッチパネル320に設けられたタッチパネルによる入力操作や音声による入力操作など、各種設定事項を設定入力可能ないずれの構成が例示できる。   The input unit 310 includes various operation buttons (not shown), operation knobs, and the like that are arranged so that an input operation can be performed facing the front of the case body. And the input part 310 outputs various information to the process part 350 as an input signal by the input operation of setting matters, such as the setting of the operation content of the music reproduction apparatus 300, for example, and makes it set it. In addition, as the input unit 310, any configuration capable of setting and inputting various setting items such as an input operation using a touch panel provided on the touch panel 320 and an input operation using voice can be exemplified.

タッチパネル320は、処理部350から画像信号として送信される映像信号を表示させる。また、タッチパネル320は、例えば利用者により接触された位置を認識し、その位置情報を処理部350に出力する。このタッチパネル320は、図示しない表示部と、センサ部と、信号出力部と、などを備えている。なお、このタッチパネル320は、楽曲再生システム100を移動体としての車両に設ける構成の場合、例えば車両の図示しないダッシュボードの前面側に配設される。   The touch panel 320 displays a video signal transmitted as an image signal from the processing unit 350. The touch panel 320 recognizes the position touched by the user, for example, and outputs the position information to the processing unit 350. The touch panel 320 includes a display unit (not shown), a sensor unit, a signal output unit, and the like. In addition, this touch panel 320 is arrange | positioned in the front side of the dashboard which is not shown in figure, for example of the structure which provides the music reproduction system 100 in the vehicle as a moving body.

表示部は、処理部350から出力される映像信号に基づく映像や後述するプレイリスト画面600と、後述する再生画面700と、などを表示する。この表示部としては、例えば液晶表示パネルや有機EL(Electro Luminescence)パネル、PDP(Plasma Display Panel)、CRT(Cathode-Ray Tube)、FED(Field Emission Display)、電気泳動ディスプレイパネルなどが例示できる。そして、表示部の表示面は、ガラスやプラスチックなどの強度が強く、傷が付きにくい透光性部材で覆われている。   The display unit displays a video based on the video signal output from the processing unit 350, a playlist screen 600 described later, a playback screen 700 described later, and the like. Examples of the display unit include a liquid crystal display panel, an organic EL (Electro Luminescence) panel, a PDP (Plasma Display Panel), a CRT (Cathode-Ray Tube), an FED (Field Emission Display), and an electrophoretic display panel. And the display surface of a display part is covered with the translucent member with strong intensity | strength, such as glass and a plastic, and being hard to be damaged.

センサ部は、表示部の表示面を覆う透光性部材に設けられている。このセンサ部は、利用者が透光性部材に触れた際に、触れた位置を検知して、その座標位置を認識する。このセンサ部の構成としては、例えば、透光性部材に透明なフィルムを覆い、この透光性部材とフィルムとの隙間に電気回路を配線することにより構成される、いわゆる抵抗膜式センサや、透光性部材の表面の静電容量の変化を検地する静電容量式センサなどが挙げられるが、これに限らない。   The sensor part is provided in the translucent member which covers the display surface of a display part. When the user touches the translucent member, the sensor unit detects the touched position and recognizes the coordinate position. As a configuration of the sensor unit, for example, a transparent film is covered on the translucent member, and a so-called resistive film type sensor configured by wiring an electric circuit in a gap between the translucent member and the film, Examples include, but are not limited to, a capacitance sensor that detects changes in the capacitance of the surface of the translucent member.

信号出力部は、センサ部にて検知した接触位置の座標を処理部350に接触座標信号として出力する。ここで送信される座標は、表示部における接触位置の絶対位置に関する座標であってもよく、表示部全体からみた接触位置の相対位置であってもよい。   The signal output unit outputs the coordinates of the contact position detected by the sensor unit to the processing unit 350 as a contact coordinate signal. The coordinates transmitted here may be coordinates relating to the absolute position of the contact position on the display unit, or may be a relative position of the contact position as viewed from the entire display unit.

楽曲データ記憶手段330は、楽曲個別データを適宜読み出し可能に記憶する。この楽曲データ記憶手段330としては、HDなどの磁気ディスク、CDやDVDなどの光ディスク、メモリカードなど、各種記録媒体に読み出し可能に記憶するドライブやドライバなどを備えた構成が例示できる。   The music data storage means 330 stores the individual music data so that they can be read out appropriately. Examples of the music data storage means 330 include a configuration including a drive and a driver that are readable and stored in various recording media such as a magnetic disk such as an HD, an optical disk such as a CD and a DVD, and a memory card.

楽曲個別データは、1つの楽曲に関する情報である。そして、楽曲個別データは、コンテンツデータとしての楽曲データと、楽曲内容情報と、などが1つのデータ構造として構成されたテーブル構造である。なお、楽曲個別データは、楽曲データのみで構成される場合もある。楽曲データは、楽曲の再生の際に用いられるデータであり、例えばMIDI(Musical Instrument Digital Interface)形式やWAVE形式あるいはMPEG(Moving Picture Experts Group)形式などの楽曲を再生可能な形式により記録されている。楽曲内容情報は、楽曲データにより再生される楽曲に関する情報、すなわち例えば楽曲名、演奏者、再生時間、ジャンルなどに関する情報である。   The individual music data is information related to one music. The music individual data has a table structure in which music data as content data, music content information, and the like are configured as one data structure. Note that the music individual data may be composed only of music data. The music data is data used when the music is played back, and is recorded in a format capable of playing back music such as MIDI (Musical Instrument Digital Interface), WAVE, or MPEG (Moving Picture Experts Group). . The music content information is information relating to the music reproduced by the music data, that is, information relating to the music title, the performer, the reproduction time, the genre, and the like.

メモリ340は、入力部310で入力操作される設定事項、例えば図2に示すような楽曲関連情報500や図示しないプレイリストなどの処理部350で取得したり生成した各種情報、基準となる曲調に関するデータ、音声データや画像データ、楽曲再生装置300全体を動作制御するOS(Operating System)上に展開される各種プログラムなどを記憶している。このメモリ340としては、例えば停電などにより突然電源が落ちた際にも記憶が保持される構成のメモリ、例えばフラッシュメモリなどを用いることが望ましい。なお、メモリ340としては、HD、DVD、光ディスクなどの記録媒体に読み出し可能に記憶するドライブやドライバなどを備えた構成としてもよい。   The memory 340 relates to setting items input by the input unit 310, for example, various pieces of information acquired or generated by the processing unit 350 such as the music related information 500 as shown in FIG. Data, audio data, image data, various programs developed on an OS (Operating System) that controls the operation of the entire music reproducing device 300, and the like are stored. As the memory 340, it is desirable to use a memory having a configuration that retains memory even when the power is suddenly turned off due to a power failure, for example, a flash memory. Note that the memory 340 may be configured to include a drive, a driver, and the like that are readable and stored in a recording medium such as an HD, a DVD, or an optical disk.

楽曲関連情報500は、楽曲データ記憶手段330に記憶された楽曲データに関する情報である。そして、楽曲関連情報500は、少なくとも1つの楽曲個別情報510が1つのデータ構造として関連付けられて構成されている。   The music related information 500 is information related to the music data stored in the music data storage means 330. The music related information 500 is configured by associating at least one piece of music individual information 510 as one data structure.

楽曲個別情報510は、楽曲データ記憶手段330に記憶された所定の楽曲データに関する情報である。この楽曲個別情報510は、楽曲データ特定情報511と、ジャンル情報513と、区間特性情報としての少なくとも1つのパート情報514と、などが1つのデータ構造として関連付けられて構成されている。   The individual music information 510 is information relating to predetermined music data stored in the music data storage means 330. The music individual information 510 is configured by associating music data specifying information 511, genre information 513, at least one part information 514 as section characteristic information, and the like as one data structure.

楽曲データ特定情報511は、楽曲データ記憶手段330に記憶された所定の楽曲データを特定するための情報である。この楽曲データ特定情報511としては、楽曲データ記憶手段330に記憶された楽曲データのファイル名や楽曲名に関する情報などが例示できる。   The music data specifying information 511 is information for specifying predetermined music data stored in the music data storage means 330. As this music data specific information 511, the file name of the music data memorize | stored in the music data storage means 330, the information regarding a music name, etc. can be illustrated.

ジャンル情報513は、楽曲データ特定情報511により特定される楽曲データのジャンルに関する情報である。ここで、ジャンルとしては、例えば、「歌謡曲」、「フォークソング」、「ポップス」、「ロック」、「ジャズ」、「クラシック」などが挙げられる。   The genre information 513 is information relating to the genre of music data specified by the music data specifying information 511. Here, examples of the genre include “kayokyoku”, “folk song”, “pops”, “rock”, “jazz”, “classic”, and the like.

パート情報514は、楽曲データ特定情報511により特定される楽曲データの複数のパートのうち所定のパートに関連付けられた曲調や内容に関する情報である。このパート情報514は、区間特定情報としてのパート特定情報514Aと、特性情報、特性度合情報、および全体特性度合情報としての曲調ポイント情報514Bと、特性情報としての曲調情報514Cと、キーワード情報514Dと、特徴区間情報としてのサビフラグ情報514Eと、などが1つのデータ構造として関連付けられて構成されている。   The part information 514 is information related to the tone and content associated with a predetermined part among a plurality of parts of the music data specified by the music data specifying information 511. This part information 514 includes part specifying information 514A as section specifying information, music tone point information 514B as characteristic information, characteristic degree information, and overall characteristic degree information, music tone information 514C as characteristic information, and keyword information 514D. The rust flag information 514E as the feature section information is associated with one data structure.

パート特定情報514Aは、楽曲データ特定情報511により特定される楽曲データにおける所定のパートの位置を特定する情報である。すなわち、パート特定情報514Aは、パートの先端位置およびパートの後端位置が楽曲データの先端位置からの再生経過時間として記載されている。   The part specifying information 514A is information for specifying the position of a predetermined part in the music data specified by the music data specifying information 511. That is, in the part specifying information 514A, the leading edge position of the part and the trailing edge position of the part are described as the elapsed playback time from the leading edge position of the music data.

曲調ポイント情報514Bは、パート特定情報514Aにより特定されるパートにおける再生時間に対応した複数の曲調の曲調ポイントに関する情報である。ここで、曲調ポイントとは、例えば再生時間に対応した楽曲のコードなどの和音要素、楽曲のBPM(Beat Par Minute)や拍子などのテンポ要素、楽曲の音量などの音量要素、などの各曲調要素を数値化したポイントである。また、コードとは、1つの楽器により奏でられた和音や、複数の楽器によりそれぞれ奏でられた単音により構成される和音などであり、例えばCメジャー(C)やCマイナー(Cm)などが挙げられる。なお、曲調ポイント情報514Bは、例えば、「明るい」、「悲しい」、「ノリが良い」、「静かな」などの曲調におけるそれぞれの曲調ポイントを備えている。また、これら各曲調ポイントは、基準となる各曲調に基づいて、それぞれ例えば0から100ポイントまでのいずれかに設定される。   The music tone point information 514B is information related to music tone points of a plurality of music tones corresponding to the playback time in the part specified by the part specifying information 514A. Here, the tune point is, for example, each tune element such as a chord element such as a music chord corresponding to the playback time, a tempo element such as BPM (Beat Par Minute) or time signature of the music, and a volume element such as the volume of the music. It is the point which expressed numerically. The chord is a chord played by one musical instrument or a chord composed of single notes played by a plurality of musical instruments, and examples thereof include C major (C) and C minor (Cm). . Note that the tune point information 514B includes tune points in tunes such as “bright”, “sad”, “good”, “quiet”. Also, each music tone point is set to any one of 0 to 100 points, for example, based on each standard music tone.

曲調情報514Cは、パート特定情報514Aにより特定されるパートの中で最も代表的な曲調および最大音量に関する情報である。ここで、代表的な曲調とは、パート特定情報514Aにより特定されるパートにおいて、曲調ポイント情報514Bにおけるそれぞれの曲調ポイントの総和のうちその曲調ポイントの総和が最大となる曲調であり、例えばテキスト形式などで記述されている。すなわち、例えば、パート特定情報514Aにより特定されるパートにおいて、それぞれの曲調ポイント情報514Bにおける曲調ポイントの総和が、「明るい」が30ポイント、「悲しい」が0ポイント、「ノリが良い」が50ポイント、「静かな」が30ポイントである場合、このパートにおける代表的な曲調は「ノリが良い」となる。また、最大音量とは、パート特定情報514Aにより特定されるパートにおいて、音量レベルが最大となる部分の音量である。   The tune information 514C is information on the most representative tune and the maximum volume among the parts specified by the part specifying information 514A. Here, the representative music tone is a music tone in which the sum of the music tone points is the maximum among the sum of the music tone points in the music tone point information 514B in the part specified by the part specifying information 514A. It is described by. That is, for example, in the part specified by the part specifying information 514A, the sum of the music tone points in each music tone point information 514B is 30 points for “bright”, 0 points for “sad”, and 50 points for “good”. When “quiet” is 30 points, the typical tune in this part is “good”. The maximum volume is the volume of the part where the volume level is maximum in the part specified by the part specifying information 514A.

キーワード情報514Dは、パート特定情報514Aにより特定されるパートにおけるキーワードに関する情報である。ここで、キーワードとは、例えば、「大好きな」、「懐かしい」、「元気が出る」、「泣ける」、「落ち着く」、「高揚する」など、利用者がパート特定情報514Aにより特定されるパートを聴いた際にそのパートに対して抱いた主観的かつ情緒的な印象を示す言葉である。このキーワード情報514Dは、例えばテキスト形式で記述されている。   The keyword information 514D is information regarding keywords in the part specified by the part specifying information 514A. Here, the keyword is, for example, a part in which the user is specified by the part specifying information 514A, such as “I love”, “Nostalgic”, “Energetic”, “Crying”, “Relax”, “Uplift”, etc. This is a word that indicates the subjective and emotional impression of the part. This keyword information 514D is described in a text format, for example.

サビフラグ情報514Eは、楽曲データにおけるいわゆるサビとなるパートであるか否かを示すフラグ情報である。ここで、サビとは、楽曲全体の中で最も代表的かつ盛り上がる主題の部分であり、楽曲データを特徴付けるパートである。このサビは、例えば楽曲中で最も多く繰り返されるパートや、楽曲の演奏に関わる楽器構成の数が最大となるパートなどが例示できる。具体的には、サビフラグ情報514Eは、1であればパート特定情報514Aで特定されたパートがサビである旨を示し、0であればサビでない旨を示す。   The rust flag information 514E is flag information indicating whether the part is a so-called rust part in the music data. Here, the chorus is the most representative and exciting subject part of the entire music, and is a part that characterizes the music data. This rust can be exemplified by, for example, a part that is repeated most frequently in a music piece or a part that has the largest number of musical instrument configurations related to the performance of the music piece. Specifically, the rust flag information 514E indicates that the part specified by the part specifying information 514A is rust if it is 1, and indicates that it is not rust if it is 0.

プレイリストは、例えば利用者の嗜好に合わせて選択的に関連付けられた、あるいはいわゆるアルバムとして販売されたり配信され演奏者や制作者により関連付けられた少なくとも1つの楽曲のリストである。そして、プレイリストは、プレイリスト名情報と、少なくとも1つの登録曲情報と、などが1つのデータ構造として関連付けられて構成されている。プレイリスト名情報は、所定のプレイリストの名称に関する情報である。登録曲情報は、楽曲関連情報500における楽曲データ特定情報511の内容が記載された情報である。   The playlist is, for example, a list of at least one piece of music that is selectively associated with a user's preference, or sold or distributed as a so-called album and associated by a performer or producer. The playlist is configured by associating playlist name information, at least one registered song information, and the like as one data structure. The playlist name information is information relating to the name of a predetermined playlist. The registered song information is information in which the content of the song data specifying information 511 in the song related information 500 is described.

処理部350は、図示しない各種入出力ポート、例えば入力部310が接続されるキー入力ポート、タッチパネル320が接続される表示ポート、楽曲データ記憶手段330が接続される楽曲記憶ポート、メモリ340が接続されるメモリポート、音声出力装置200が接続される発音ポートなどを有する。そして、処理部350は、各種プログラムとして、図3に示すように、入力認識手段351と、データ取得手段、特性認識手段、および区間認識手段として機能する特性認識手段352と、区間特性情報生成手段、および区間キーワード情報生成手段として機能する楽曲関連情報生成手段353と、再生処理手段354と、全体特性度合認識手段、全体特性出力制御手段、および区間特性表示制御手段として機能する画面生成手段355と、計時手段356と、などを備えている。   The processing unit 350 is connected to various input / output ports (not shown) such as a key input port to which the input unit 310 is connected, a display port to which the touch panel 320 is connected, a music storage port to which the music data storage unit 330 is connected, and a memory 340. A memory port, a sound generation port to which the audio output device 200 is connected, and the like. As shown in FIG. 3, the processing unit 350 includes an input recognition unit 351, a data acquisition unit, a characteristic recognition unit, a characteristic recognition unit 352 that functions as a section recognition unit, and a section characteristic information generation unit. And music related information generation means 353 that functions as section keyword information generation means, reproduction processing means 354, overall characteristic degree recognition means, overall characteristic output control means, and screen generation means 355 that functions as section characteristic display control means , Clocking means 356, and the like.

入力認識手段351は、入力部310から送信される入力信号から楽曲再生システム100における各種処理についての要求を認識する。また、入力認識手段351は、タッチパネル320の信号出力部から出力される接触座標信号を取得し、取得した接触座標信号に基づいて楽曲再生システム100における各種処理についての要求を認識する。具体的には、入力認識手段351は、認識する要求として、所定の楽曲データの楽曲個別情報510を生成する旨の生成要求と、所定のパートの曲調情報514Cについて設定変更する旨の曲調の設定要求と、所定のパートのキーワード情報514Dについて設定変更する旨のキーワードの設定要求と、所定の楽曲データのジャンル情報513について設定変更する旨のジャンルの設定要求と、プレイリストを生成する旨のプレイリスト生成要求と、などを認識する。   The input recognition unit 351 recognizes requests for various processes in the music playback system 100 from the input signal transmitted from the input unit 310. Further, the input recognition unit 351 acquires a contact coordinate signal output from the signal output unit of the touch panel 320, and recognizes requests for various processes in the music reproduction system 100 based on the acquired contact coordinate signal. Specifically, the input recognizing unit 351 generates, as a request for recognition, a generation request for generating the music individual information 510 of predetermined music data and a music tone setting for changing the setting of the music information 514C of the predetermined part. A request for setting a keyword for changing the setting of keyword information 514D for a predetermined part, a request for setting a genre for changing the setting of genre information 513 for predetermined music data, and a play for generating a playlist. Recognize list generation requests.

また、入力認識手段351は、所定の楽曲データまたは所定の楽曲データの所定のパートを再生する旨の再生要求と、所定の曲調のパートを連続的に再生する旨のフィーリングプレイ要求と、サビとなるパートのうち所定の曲調のパートを連続的に再生する旨のフィーリングダイジェストプレイ要求と、などを認識する。   Further, the input recognition means 351 includes a reproduction request for reproducing predetermined music data or a predetermined part of predetermined music data, a feeling play request for continuously reproducing parts of a predetermined music tone, A feeling digest play request for continuously reproducing a part having a predetermined musical tone among the parts to be recognized is recognized.

さらに、入力認識手段351は、現在再生中のパートの前後いずれかのパートを再生する旨の曲調スキップ要求と、現在再生中の楽曲データにおける後端のパートと略同一の曲調のパートを楽曲の先端に有した楽曲データを再生する旨のしりとり再生をする旨のしりとり再生要求と、所定の楽曲データを再生停止する旨の停止要求と、所定のプレイリストを表示する旨の表示要求と、などを認識する。   Further, the input recognizing means 351 selects a music tone skip request for reproducing any part before or after the part currently being played back, and a part having the same tone as the rear end part of the music data currently being played back. A bookmark request for playing back the song data to play the song data at the tip, a stop request to stop playing the specified song data, a display request to display the given playlist, etc. Recognize

特性認識手段352は、楽曲データ記憶手段330に記憶された所定の楽曲データを取得する。具体的には、特性認識手段352は、入力認識手段351にて所定の楽曲データの楽曲個別情報510を生成する旨の生成要求が認識されると、楽曲個別情報510を生成する対象となる楽曲データを楽曲データ記憶手段330から認識する。そして、認識した楽曲データについて、楽曲データを特定するための情報および楽曲データのジャンルに関する情報を認識する。すなわち、特性認識手段352は、楽曲データ記憶手段330に記録された所定の楽曲データに対応する楽曲内容情報から、例えば楽曲名などの楽曲データを特定するための情報を認識し、楽曲データのジャンルに関する情報を認識する。   The characteristic recognizing unit 352 acquires predetermined music data stored in the music data storage unit 330. Specifically, when the generation recognizing request for generating the music individual information 510 of the predetermined music data is recognized by the input recognizing means 351, the characteristic recognizing means 352 is the music for which the music individual information 510 is generated. Data is recognized from the music data storage means 330. And about the recognized music data, the information for specifying music data and the information regarding the genre of music data are recognized. That is, the characteristic recognizing means 352 recognizes information for specifying music data such as a music name from the music content information corresponding to the predetermined music data recorded in the music data storage means 330, and the genre of the music data Recognize information about.

そして、特性認識手段352は、取得した楽曲データの少なくとも1つの曲調を認識する。具体的には、特性認識手段352は、楽曲個別情報510を生成する対象となる楽曲データを認識すると、楽曲データ記憶手段330に記録された所定の楽曲データから楽曲の再生時間に対応した少なくとも1つの曲調を認識する。そして、メモリ340に記憶された基準となる様々な曲調に関するデータを認識する。さらに、認識した楽曲データの曲調と基準となる様々な曲調とを比較することにより、例えば図4に示すような楽曲データの曲調ポイントを認識する。すなわち、図4(A)や図4(B)に示すような「明るい」や「悲しい」などについての曲調ポイントは、例えば、コードやコード進行などの和音要素から認識する。この楽曲の和音要素から曲調ポイントを認識する方法としては、12音階の各周波数に対応した基準波形とデジタル化された楽曲の波形とに基づいて、演算を適宜実施することによりコードを認識する方法が例示できるがこれに限られない。また、図4(C)や図4(D)に示すような「ノリが良い」や「静かな」などについての曲調ポイントは、例えば、楽曲のBPMや拍子などのテンポ要素や、楽曲の音量などの音量要素から認識する。この楽曲のBPMを認識する方法としては、例えば楽曲の波形から得られる音量エンベロープを微分処理し、この微分処理した値が閾値以上となる位置の間隔からBPMを認識する方法が例示できるがこれに限られない。   And the characteristic recognition means 352 recognizes at least one music tone of the acquired music data. Specifically, when the characteristic recognizing means 352 recognizes music data for which the individual music information 510 is to be generated, at least one corresponding to the reproduction time of the music from the predetermined music data recorded in the music data storage means 330. Recognize one tone. Then, the data related to various musical tones serving as the reference stored in the memory 340 is recognized. Further, by comparing the tune of the recognized music data with various tunes serving as a reference, for example, the tune point of the music data as shown in FIG. 4 is recognized. That is, the tone points for “bright” and “sad” as shown in FIGS. 4A and 4B are recognized from chord elements such as chords and chord progressions. As a method of recognizing the tone point from the chord element of the music, a method of recognizing a chord by appropriately performing a calculation based on a reference waveform corresponding to each frequency of 12 scales and a digitized waveform of the music However, it is not limited to this. Also, the tune points for “good” and “quiet” as shown in FIG. 4C and FIG. 4D are tempo elements such as BPM and time signature of the music, and the volume of the music. Recognize from the volume element. As a method for recognizing the BPM of this song, for example, a method of differentiating the volume envelope obtained from the waveform of the song and recognizing the BPM from the interval between positions where the differentiated value is equal to or greater than the threshold can be exemplified. Not limited.

また、特性認識手段352は、認識した楽曲データの曲調ポイントに基づいて、楽曲データのパートを認識する。具体的には、特性認識手段352は、例えば図4に示すような各曲調の曲調ポイントを認識すると、各曲調のうちいずれかの曲調の曲調ポイントが楽曲全体を通して大きく変化している変化位置を認識する。また、後述する計時手段356にて計時された時間に基づいて、曲調の変化位置を楽曲データの先端部からの再生経過時間として認識する。そして、それぞれの曲調のうちいずれかの曲調の変化位置間における区間をパートとして認識し、所定のパートの先端位置およびパートの後端位置を認識する。すなわち、特性認識手段352は、例えば、図4に示すような各曲調の曲調ポイントからパートを認識する場合、領域Iについては、図4(A)に示す明るい曲調の曲調ポイントや図4(B)に示す悲しい曲調の曲調ポイントなどから認識する。領域II、領域III、領域IVについては、図4(A)に示す明るい曲調の曲調ポイントなどから認識する。領域Vについては、図4に示すいずれの曲調の曲調ポイントから認識する。   Further, the characteristic recognizing means 352 recognizes the part of the music data based on the music tone point of the recognized music data. Specifically, when the characteristic recognizing means 352 recognizes the tone point of each tone as shown in, for example, FIG. recognize. Further, based on the time counted by the time measuring means 356 described later, the music tone change position is recognized as the elapsed playback time from the leading end of the music data. Then, a section between the change positions of any of the music tones is recognized as a part, and the leading end position of the predetermined part and the rear end position of the part are recognized. That is, for example, when the characteristic recognizing means 352 recognizes a part from the tone point of each tone as shown in FIG. Recognize from the key points of the sad melody shown in). The region II, the region III, and the region IV are recognized from the tone points of the bright tone shown in FIG. The region V is recognized from the tune point of any tune shown in FIG.

さらに、特性認識手段352は、所定のパートの中で最も代表的な曲調および最大音量を認識する。具体的には、特性認識手段352は、楽曲データの少なくとも1つのパートを認識すると、所定のパートにおける各曲調の曲調ポイントの総和をそれぞれ算出し、総和した値が最大となる曲調ポイントに対応する曲調を所定のパートの中で最も代表的な曲調であることを認識する。そして、認識した全てのパートについて、それぞれのパートの代表的な曲調を認識する。すなわち、例えば、特性認識手段352は、所定のパートにおいて、「明るい」曲調の曲調ポイントの総和が30ポイント、「悲しい」曲調の曲調ポイントの総和が0ポイント、「ノリが良い」曲調の曲調ポイントの総和が50ポイント、「静かな」曲調の曲調ポイントの総和が30ポイントである場合、このパートにおける代表的な曲調は「ノリが良い」であることを認識する。また、特性認識手段352は、それぞれのパートにおける最大音量を認識する。   Furthermore, the characteristic recognizing means 352 recognizes the most representative music tone and maximum volume among the predetermined parts. Specifically, when the characteristic recognizing means 352 recognizes at least one part of the music data, the characteristic recognizing means 352 calculates the total sum of the music tone points of each music tone in the predetermined part, and corresponds to the music tone point at which the total value becomes the maximum. Recognize that the tune is the most representative tune in a given part. Then, for all recognized parts, the representative tone of each part is recognized. That is, for example, in the predetermined part, the characteristic recognizing means 352 has 30 points for the sum of the tone points for the “bright” tone, 0 points for the sum of the tone points for the “sad” tone, and the tone point for the “good” tone. When the total sum of the music is 50 points and the sum of the music points of the “quiet” music tone is 30 points, it is recognized that the representative music tone in this part is “good”. Further, the characteristic recognizing means 352 recognizes the maximum sound volume in each part.

また、特性認識手段352は、楽曲データの少なくとも1つのパートのうち、所定のパートがサビであるか否かを認識する。具体的には、特性認識手段352は、楽曲データの少なくとも1つのパートを認識すると、各パートにおいて認識した各曲調ポイントに基づいて、互いに類似するパートを認識する。そして、例えば、楽曲中で最も多く繰り返されるパートが楽曲データを特徴付けるパート、すなわちサビとなるパートであることを認識する。   Further, the characteristic recognizing means 352 recognizes whether or not a predetermined part is chorus among at least one part of the music data. Specifically, when recognizing at least one part of the music data, the characteristic recognizing means 352 recognizes parts that are similar to each other based on the music tone points recognized in each part. Then, for example, it is recognized that the most frequently repeated part in the music is a part characterizing the music data, that is, a part that becomes a chorus.

楽曲関連情報生成手段353は、少なくとも1つのパート情報514を生成する。具体的には、楽曲関連情報生成手段353は、特性認識手段352にて楽曲データの所定のパートの位置が認識されると、このパートの位置を記載したパート特定情報514Aを生成する。そして、特性認識手段352にて認識された楽曲データの少なくとも1つの曲調についての曲調ポイントを記載した曲調ポイント情報514Bを生成する。さらに、特性認識手段352にて認識された代表的な曲調に基づいて、曲調情報514Cを生成する。また、入力認識手段351にて認識された所定のパートの曲調情報514Cについて設定変更する旨の曲調の設定要求に基づいて、曲調情報514Cを生成する。   The music related information generating unit 353 generates at least one part information 514. Specifically, when the characteristic recognizing unit 352 recognizes the position of a predetermined part of the music data, the music related information generating unit 353 generates part specifying information 514A describing the position of this part. Then, the music tone point information 514B describing the music tone points for at least one music tone of the music data recognized by the characteristic recognizing means 352 is generated. Further, tune information 514C is generated based on the typical tune recognized by the characteristic recognition means 352. Further, based on the music tone setting request to change the setting of the music tone information 514C of the predetermined part recognized by the input recognition unit 351, the music tone information 514C is generated.

さらに、楽曲関連情報生成手段353は、入力認識手段351にて認識されたキーワードの設定要求に基づいてキーワード情報514Dを生成する。また、特性認識手段352にて所定のパートがサビとなるパートであると認識された場合、このパートがサビとなるパートである旨を示す「1」のフラグ情報を組み込んだサビフラグ情報514Eを生成する。一方、特性認識手段352にて所定のパートがサビとなるパートでないと認識された場合、このパートがサビとなるパートでない旨を示す「0」のフラグ情報を組み込んだサビフラグ情報514Eを生成する。そして、楽曲関連情報生成手段353は、パート特定情報514Aと、曲調ポイント情報514Bと、曲調情報514Cと、キーワード情報514Dと、サビフラグ情報514Eと、を1つのデータ構造として関連付けて構成したパート情報514を生成する。   Further, the music related information generation unit 353 generates the keyword information 514D based on the keyword setting request recognized by the input recognition unit 351. Further, when the characteristic recognizing means 352 recognizes that the predetermined part is a rust part, it generates rust flag information 514E incorporating flag information “1” indicating that the part is a rust part. To do. On the other hand, when the characteristic recognizing unit 352 recognizes that the predetermined part is not a chorus part, it generates chorus flag information 514E incorporating flag information “0” indicating that the part is not a chorus part. Then, the music related information generating means 353 includes part information 514A, music tone point information 514B, music tone information 514C, keyword information 514D, and chorus flag information 514E associated with each other as one data structure. Is generated.

そして、楽曲関連情報生成手段353は、楽曲関連情報500を生成する。具体的には、楽曲関連情報生成手段353は、楽曲個別情報510の生成要求の対象となる所定の楽曲データについて少なくとも1つのパート情報514を生成すると、特性認識手段352にて認識された楽曲データを特定するための情報に基づいて楽曲データ特定情報511を生成する。また、特性認識手段352にて認識された楽曲データのジャンルに関する情報に基づいてジャンル情報513を生成する。そして、楽曲関連情報生成手段353は、楽曲データ特定情報511と、ジャンル情報513と、少なくとも1つのパート情報514と、などを1つのデータ構造として関連付けて構成した楽曲個別情報510を生成する。さらに、楽曲関連情報生成手段353は、新たに生成した楽曲個別情報510を楽曲関連情報500に組み込む、すなわち、楽曲関連情報500を生成し、これをメモリ340に記憶させる。   Then, the music related information generating unit 353 generates the music related information 500. Specifically, when the music-related information generating unit 353 generates at least one part information 514 for predetermined music data that is a target of the generation request of the music individual information 510, the music data recognized by the characteristic recognizing unit 352 is used. The music data identification information 511 is generated based on the information for identifying the music data. Also, genre information 513 is generated based on information related to the genre of the music data recognized by the characteristic recognition means 352. The music related information generating unit 353 generates music individual information 510 configured by associating music data specifying information 511, genre information 513, at least one part information 514, and the like as one data structure. Further, the music related information generation unit 353 incorporates the newly generated music individual information 510 into the music related information 500, that is, generates music related information 500 and stores it in the memory 340.

さらに、楽曲関連情報生成手段353は、プレイリストを生成する。具体的には、楽曲関連情報生成手段353は、入力認識手段351にて認識されたプレイリスト生成要求に基づいて、プレイリスト名情報を生成し、楽曲関連情報500における楽曲データ特定情報511に基づいて少なくとも1つの登録曲情報を生成する。そして、プレイリスト名情報と、少なくとも1つの登録曲情報と、などを1つのデータ構造として関連付けて構成したプレイリストを生成する。そして、生成したプレイリストをメモリ340に記憶させる。   Furthermore, the music related information generation unit 353 generates a playlist. Specifically, the music related information generation unit 353 generates playlist name information based on the playlist generation request recognized by the input recognition unit 351, and based on the music data specifying information 511 in the music related information 500. To generate at least one registered music piece information. Then, a playlist is generated by associating playlist name information, at least one registered song information, and the like as one data structure. Then, the generated playlist is stored in the memory 340.

再生処理手段354は、楽曲データを再生する際に機能する。この再生処理手段354は、キーワードコンテンツ検索手段、異特性区間認識手段、後端特性認識手段、コンテンツ端部検索手段、および、特定コンテンツ検索手段として機能する再生対象認識手段354Aと、再生制御手段354Bと、を備えている。   The reproduction processing unit 354 functions when reproducing music data. The reproduction processing unit 354 includes a keyword content search unit, a different characteristic section recognition unit, a rear end characteristic recognition unit, a content end search unit, a reproduction target recognition unit 354A that functions as a specific content search unit, and a reproduction control unit 354B. And.

再生対象認識手段354Aは、入力認識手段351にて所定の楽曲データまたは所定の楽曲データの所定のパートを再生する旨の再生要求が認識されると、再生対象となるコンテンツデータあるいは所定のコンテンツデータの特定のパートを認識する。具体的には、再生対象認識手段354Aは、入力認識手段351にて所定の楽曲データまたは所定の楽曲データの所定のパートを再生する旨の再生要求が認識されると、メモリ340に記憶された楽曲関連情報500におけるパート情報514に基づいて、所定の楽曲データ、所定のジャンルの楽曲データ、所定の楽曲データのうち所定のパート、所定の曲調のパート、所定のキーワードに対応するパート、などを検索する。そして、これら所定の楽曲データ、所定の楽曲データのうち所定のパートを再生対象として認識する。   When the input recognition unit 351 recognizes a reproduction request to reproduce the predetermined music data or the predetermined part of the predetermined music data, the reproduction target recognition unit 354A recognizes the content data to be reproduced or the predetermined content data. Recognize specific parts of Specifically, the reproduction target recognition unit 354A is stored in the memory 340 when the input recognition unit 351 recognizes a reproduction request for reproducing predetermined music data or a predetermined part of the predetermined music data. Based on the part information 514 in the music related information 500, predetermined music data, music data of a predetermined genre, predetermined parts of predetermined music data, parts of a predetermined music tone, parts corresponding to predetermined keywords, etc. Search for. Then, a predetermined part of the predetermined music data and the predetermined music data is recognized as a reproduction target.

また、再生対象認識手段354Aは、入力認識手段351にてフィーリングプレイ要求が認識されると、所定の曲調のパートを再生対象として認識する。具体的には、再生対象認識手段354Aは、入力認識手段351にてフィーリングプレイ要求が認識されると、特定の曲調の曲調情報514Cに関連付けられたパートを有する楽曲データを楽曲データ記憶手段330から検索する。すなわち、楽曲関連情報500に組み込まれた楽曲個別情報510の中から、特定の曲調を含む曲調情報514Cと関連付けられた楽曲個別情報510を全て検索する。そして、検索した特定の曲調を含むパートの全てを再生対象として認識する。   Further, when the input recognition unit 351 recognizes a feeling play request, the reproduction target recognition unit 354A recognizes a part having a predetermined musical tone as a reproduction target. Specifically, when the input recognition unit 351 recognizes the feeling play request, the reproduction target recognition unit 354A stores the music data having a part associated with the music tone information 514C of a specific music tone as the music data storage unit 330. Search from. That is, the music individual information 510 associated with the music tone information 514 </ b> C including the specific music tone is searched from the music individual information 510 incorporated in the music related information 500. Then, all the parts including the searched specific music tone are recognized as reproduction targets.

さらに、再生対象認識手段354Aは、入力認識手段351にてフィーリングダイジェストプレイ要求が認識されると、サビとなるパートのうち所定の曲調のパートを再生対象として認識する。すなわち、再生対象認識手段354Aは、入力認識手段351にてフィーリングダイジェストプレイ要求が認識されると、特定の曲調の曲調情報514Cに関連付けられたサビとなるパートを含む楽曲データを楽曲データ記憶手段330から検索する。すなわち、楽曲関連情報500に組み込まれた楽曲個別情報510の中から、サビフラグ情報514Eのフラグが「1」に設定されたパートに対応するパート情報514を検索し、さらに、検索したサビとなるパートのうち特定の曲調を含む曲調情報514Cと関連付けられたパート情報514を検索する。そして、検索したサビとなるパートのうち所定の曲調のパートの全てを再生対象として認識する。   Further, when the feeling recognition play request is recognized by the input recognizing unit 351, the reproduction target recognizing unit 354A recognizes a part having a predetermined tune tone as a reproduction target among the parts that become chorus. In other words, when the input recognition unit 351 recognizes the feeling digest play request, the reproduction target recognition unit 354A stores the music data including the chorus part associated with the music tone information 514C of a specific music tone as music data storage means. Search from 330. That is, the part information 514 corresponding to the part in which the flag of the chorus flag information 514E is set to “1” is searched from the music individual information 510 incorporated in the music related information 500, and further, the part that becomes the searched chorus The part information 514 associated with the tune information 514C including the specific tune is searched. Then, all of the parts having a predetermined musical tone among the searched parts to be rusted are recognized as reproduction targets.

また、再生対象認識手段354Aは、入力認識手段351にて曲調スキップ要求が認識されると、現在再生中のパートの前後いずれかのパートを再生対象として認識する。具体的には、再生対象認識手段354Aは、入力認識手段351にて現在再生中のパートの前のパートを再生する旨の曲調ステップ要求が認識されると、現在再生中のパートの前のパートに対応するパート特定情報514Aを認識し、このパートを再生対象として認識する。また、再生対象認識手段354Aは、入力認識手段351にて現在再生中のパートの後のパートを再生する旨の曲調ステップ要求が認識されると、現在再生中のパートの後のパートに対応するパート特定情報514Aを認識し、このパートを再生対象として認識する。   Further, when the input recognition unit 351 recognizes the music tone skip request, the reproduction target recognition unit 354A recognizes any part before or after the part currently being reproduced as a reproduction target. Specifically, when the input recognition unit 351 recognizes a tune step request to play the part preceding the part currently being played back, the playback target recognition unit 354A recognizes the part before the part currently being played back. The part identification information 514A corresponding to is recognized, and this part is recognized as a reproduction target. In addition, when the input recognition unit 351 recognizes a tune step request to reproduce the part after the part currently being reproduced, the reproduction target recognition unit 354A corresponds to the part after the part currently being reproduced. The part identification information 514A is recognized, and this part is recognized as a reproduction target.

さらに、再生対象認識手段354Aは、入力認識手段351にてしりとり再生要求が認識されると、現在再生中の楽曲データの後端のパートにおける代表的な曲調と略同一の代表的な曲調を楽曲データの先端のパートに有した楽曲データを次の再生対象として認識する。具体的には、再生対象認識手段354Aは、入力認識手段351にてしりとり再生要求が認識されると、現在再生中の楽曲データにおける後端のパートに関連付けられた曲調情報514Cを認識する。そして、先端のパートに関連付けられた曲調情報514Cの代表的な曲調が認識した後端のパートの代表的な曲調と略同一の楽曲データに対応する楽曲個別情報510を楽曲関連情報500からランダムに検索する。さらに、検索した楽曲データを現在再生中の楽曲データの再生が終了した直後に再生させる対象であると認識する。なお、再生対象認識手段354Aは、入力認識手段351にて停止要求が認識されるまで、次の再生対象を認識し続ける。   Further, when the input recognition unit 351 recognizes the reproduction request by the input recognition unit 351, the reproduction target recognition unit 354A reproduces the representative musical tone that is substantially the same as the representative musical tone in the rear end part of the currently reproduced musical piece data. The music data held in the top part of the data is recognized as the next reproduction target. Specifically, when the input recognition unit 351 recognizes a shiritori reproduction request, the reproduction target recognition unit 354A recognizes the tune information 514C associated with the rear end part of the currently reproduced music data. Then, the music individual information 510 corresponding to the music data substantially the same as the representative music tone of the rear end part recognized by the representative music tone of the music tone information 514C associated with the leading part is randomly selected from the music related information 500. Search for. Furthermore, the retrieved music data is recognized as a target to be reproduced immediately after the reproduction of the currently reproduced music data is completed. Note that the reproduction target recognition unit 354A continues to recognize the next reproduction target until the input recognition unit 351 recognizes the stop request.

再生制御手段354Bは、再生対象認識手段354Aにて認識された再生対象を再生可能な状態に制御する。具体的には、再生制御手段354Bは、入力認識手段351にて楽曲データを再生する旨の要求が認識され、さらに再生対象認識手段354Aにて再生対象となる所定の楽曲データまたは所定のパートが認識されると、再生対象認識手段354Aにて認識された再生対象と対応する楽曲データまたは所定のパートを再生させる。すなわち、再生制御手段354Bは、再生対象認識手段354Aにて認識された再生対象と対応する楽曲データまたは所定のパートを楽曲データ記憶手段330に読み出させる。そして、楽曲データ記憶手段330に読み出させた楽曲データまたは所定のパートを適宜処理し、処理した楽曲データまたは所定のパートを音声出力装置200に出力させる。また、再生制御手段354Bは、入力認識手段351にて停止要求が認識されると、楽曲データ記憶手段330に楽曲データまたは所定のパートの読み出しを停止させ、音声出力装置200に楽曲データまたは所定のパートの出力を停止させる。   The reproduction control unit 354B controls the reproduction target recognized by the reproduction target recognition unit 354A so that it can be reproduced. Specifically, in the reproduction control unit 354B, the input recognition unit 351 recognizes the request to reproduce the music data, and the reproduction target recognition unit 354A further determines the predetermined music data or the predetermined part to be reproduced. When recognized, the music data corresponding to the reproduction object recognized by the reproduction object recognition means 354A or a predetermined part is reproduced. That is, the reproduction control unit 354B causes the music data storage unit 330 to read out music data or a predetermined part corresponding to the reproduction target recognized by the reproduction target recognition unit 354A. Then, the music data or the predetermined part read by the music data storage unit 330 is appropriately processed, and the processed music data or the predetermined part is output to the audio output device 200. When the input recognition unit 351 recognizes a stop request, the playback control unit 354B causes the music data storage unit 330 to stop reading the music data or the predetermined part, and causes the audio output device 200 to store the music data or the predetermined data. Stop part output.

また、再生制御手段354Bは、入力認識手段351にて認識されたフィーリングプレイ要求に基づいて、再生対象認識手段354Aが所定の曲調のパートを再生対象として認識すると、再生対象認識手段354Aで認識された全ての再生対象と対応する楽曲データのパートを連続的に再生する。そして、再生した楽曲データを音声出力装置200に出力させる。なお、再生制御手段354Bは、入力認識手段351にて停止要求が認識されるまで、全ての再生対象を繰り返して連続的に再生する。   In addition, the reproduction control unit 354B recognizes the reproduction target recognition unit 354A when the reproduction target recognition unit 354A recognizes a part having a predetermined musical tone as the reproduction target based on the feeling play request recognized by the input recognition unit 351. The music data parts corresponding to all the reproduction targets are continuously reproduced. Then, the reproduced music data is output to the audio output device 200. Note that the reproduction control unit 354B repeatedly reproduces all reproduction objects continuously until the input recognition unit 351 recognizes a stop request.

そして、再生制御手段354Bは、入力認識手段351にて認識されたフィーリングダイジェストプレイ要求に基づいて、再生対象認識手段354Aがサビとなるパートのうち所定の曲調のパートを再生対象として認識すると、再生対象認識手段354Aで認識された全ての再生対象に対応する楽曲データのパートを連続的に再生する。そして、再生した楽曲データを音声出力装置200に出力させる。なお、再生制御手段354Bは、入力認識手段351にて停止要求が認識されるまで、全ての再生対象を繰り返して連続的に再生する。   Then, based on the feeling digest play request recognized by the input recognition unit 351, the reproduction control unit 354B recognizes a part having a predetermined tune tone as a reproduction target among the parts to be reproduced by the reproduction target recognition unit 354A. Part of music data corresponding to all reproduction objects recognized by the reproduction object recognition means 354A is continuously reproduced. Then, the reproduced music data is output to the audio output device 200. Note that the reproduction control unit 354B repeatedly reproduces all reproduction objects continuously until the input recognition unit 351 recognizes a stop request.

また、再生制御手段354Bは、入力認識手段351にて認識された曲調スキップ要求に基づいて、再生対象認識手段354Aが現在再生中のパートの前後いずれかのパートを再生対象として認識すると、現在再生中のパートに変えて再生対象認識手段354Aで認識された再生対象に対応するパートの再生を開始させる。すなわち、再生対象認識手段354Aが現在再生中のパートの前のパートを再生対象として認識すると、再生対象認識手段354Aで認識されたパート特定情報514Aに基づいて現在再生中のパートの前のパートを再生開始し、音声出力装置200に出力させる。一方、再生対象認識手段354Aが現在再生中のパートの後のパートを再生対象として認識すると、再生対象認識手段354Aで認識されたパート特定情報514Aに基づいて現在再生中のパートの後のパートを再生開始し、音声出力装置200に出力させる。   Further, the reproduction control unit 354B, based on the music tone skip request recognized by the input recognition unit 351, recognizes that the reproduction target recognition unit 354A recognizes any part before or after the part currently being reproduced as a reproduction target. The reproduction of the part corresponding to the reproduction object recognized by the reproduction object recognition means 354A is started instead of the inside part. That is, when the reproduction target recognition unit 354A recognizes the part preceding the part currently being reproduced as a reproduction target, the part preceding the part currently being reproduced is determined based on the part specifying information 514A recognized by the reproduction target recognition unit 354A. Playback is started and output to the audio output device 200. On the other hand, when the reproduction target recognition unit 354A recognizes the part after the part currently being reproduced as a reproduction target, the part after the part currently being reproduced is determined based on the part specifying information 514A recognized by the reproduction target recognition unit 354A. Playback is started and output to the audio output device 200.

さらに、再生制御手段354Bは、入力認識手段351にて認識されたしりとり再生要求に基づいて、再生対象認識手段354Aが次の再生対象を認識すると、現在再生中の楽曲データの再生が終了した後に再生対象認識手段354Aで認識された次の再生対象を再生する。具体的には、再生制御手段354Bが現在所定の楽曲データを再生しており、再生対象認識手段354Aが現在再生中の楽曲データにおける後端のパートの代表的な曲調と略同一の代表的な曲調を楽曲データの先端部に有した楽曲データを次の再生対象として認識する。そして、再生制御手段354Bは、再生中の楽曲データの再生が終了すると、再生対象認識手段354Aで認識された次の再生対象となる楽曲データの再生を開始させる。なお、再生制御手段354Bは、入力認識手段351にて停止要求が認識されるまで、この処理を連続的に繰り返す。   Further, the reproduction control unit 354B, after the reproduction target recognition unit 354A recognizes the next reproduction target based on the shiritori reproduction request recognized by the input recognition unit 351, after the reproduction of the currently reproduced music data is completed. The next reproduction target recognized by the reproduction target recognition unit 354A is reproduced. Specifically, the reproduction control means 354B is currently reproducing predetermined music data, and the reproduction target recognition means 354A is a representative music that is substantially the same as the representative music tone of the rear part in the music data currently being reproduced. The music data having the music tone at the front end of the music data is recognized as the next reproduction target. Then, when the reproduction of the music data being reproduced is finished, the reproduction control unit 354B starts reproduction of the music data to be reproduced next recognized by the reproduction target recognition unit 354A. The reproduction control unit 354B continuously repeats this process until the input recognition unit 351 recognizes a stop request.

画面生成手段355は、入力認識手段351により所定のプレイリストの表示要求が認識されると、要求された所定のプレイリストを表示させる。具体的には、画面生成手段355は、入力認識手段351により認識された所定のプレイリストの表示要求に基づいて、メモリ340に記憶されたプレイリストから表示させるプレイリストを特定する。そして、特定したプレイリストのプレイリスト名情報に関連付けられた登録曲情報に対応する楽曲データ特定情報511を楽曲関連情報500から検索して認識する。また、認識した楽曲データ特定情報511に関連付けられた少なくとも1つの曲調ポイント情報514Bのそれぞれに基づいて、認識した楽曲データ特定情報511に対応する楽曲データのそれぞれについて全体特性度合情報としての全体曲調ポイントを認識する。   When the input recognition unit 351 recognizes a predetermined playlist display request, the screen generation unit 355 displays the requested predetermined playlist. Specifically, the screen generation unit 355 specifies a playlist to be displayed from the playlist stored in the memory 340 based on a predetermined playlist display request recognized by the input recognition unit 351. The music data specifying information 511 corresponding to the registered music information associated with the playlist name information of the specified playlist is searched from the music related information 500 and recognized. Further, based on each of the at least one music tone point information 514B associated with the recognized music data specifying information 511, the overall music tone points as the overall characteristic degree information for each piece of music data corresponding to the recognized music data specifying information 511 Recognize

すなわち、画面生成手段355は、認識した楽曲データ特定情報511のうち所定の楽曲データ特定情報511に関連付けられた少なくとも1つの曲調ポイント情報514Bを認識する。そして、認識した曲調ポイント情報514Bからさらに明るい曲調についての曲調ポイントと、悲しい曲調についての曲調ポイントと、ノリが良い曲調についての曲調ポイントと、静かな曲調についての曲調ポイントと、をそれぞれ認識する。また、所定の楽曲データの全てのパートにおいて認識した各曲調ポイントを、各曲調ポイント毎に加算して4種の曲調に対応した4つの全体曲調ポイントをそれぞれ認識する。そして、プレイリストに登録された全ての楽曲データのそれぞれについて、各楽曲データ毎にそれぞれ4つの全体曲調ポイントを認識する。さらに、各楽曲データ毎に認識した4つの全体曲調ポイントを、例えば図5に示すようなプレイリスト画面600に盛り込んでタッチパネル320に一覧表示させる。   That is, the screen generation unit 355 recognizes at least one piece of music tone point information 514B associated with the predetermined piece of music data specifying information 511 among the recognized piece of music data specifying information 511. Then, from the recognized music tone point information 514B, a music tone point for a brighter music tone, a music tone point for a sad music tone, a music tone point for a good music tone, and a music tone point for a quiet music tone are recognized. Further, the respective music tone points recognized in all the parts of the predetermined music data are added for each music tone point to recognize the four overall music tone points corresponding to the four types of music tone. Then, for each piece of music data registered in the playlist, four overall tone points are recognized for each piece of music data. Furthermore, the four overall tone points recognized for each piece of music data are included in, for example, a playlist screen 600 as shown in FIG.

ここで、プレイリスト画面600について図5に基づいて説明する。プレイリスト画面600は、プレイリストに登録された楽曲データの楽曲名や4つの全体曲調ポイントなどを一覧表示した画面である。このプレイリスト画面600は、プレイリスト名領域610と、曲調ポイント項目領域620と、個別楽曲情報領域630と、などを備えている。なお、プレイリスト画面600は、所定の曲調のパートを検索する際、所定のキーワードを含むパートを検索する際、所定のジャンルの楽曲データを検索する際、などにおいても適用できる。   Here, the playlist screen 600 will be described with reference to FIG. The playlist screen 600 is a screen that displays a list of song names of the song data registered in the playlist, four overall tone points, and the like. The playlist screen 600 includes a playlist name area 610, a music tone point item area 620, an individual music information area 630, and the like. Note that the playlist screen 600 can also be applied when searching for a part having a predetermined tune, searching for a part including a predetermined keyword, searching for music data of a predetermined genre, and the like.

プレイリスト名領域610は、画面上部に設けられた領域であり、画面生成手段355にて認識されたプレイリスト名情報に基づいてプレイリスト名が表示される。曲調ポイント項目領域620は、画面中央部において画面行方向に沿って並列した複数の矩形状の領域であり、各曲調のそれぞれの曲調名が表示される。この曲調ポイント項目領域620は、明るい領域621と、悲しい領域622と、ノリが良い領域623と、静かな領域624と、を備えている。明るい領域621は、明るい曲調の全体曲調ポイントについての表示領域である。悲しい領域622は、悲しい曲調の全体曲調ポイントについての表示領域である。ノリが良い領域623は、ノリが良い曲調の全体曲調ポイントについての表示領域である。静かな領域624は、静かな曲調の全体曲調ポイントについての表示領域である。   The playlist name area 610 is an area provided in the upper part of the screen, and the playlist name is displayed based on the playlist name information recognized by the screen generating means 355. The music tone point item area 620 is a plurality of rectangular areas arranged in parallel along the screen row direction in the center of the screen, and displays the music title name of each music tone. The music tone point item area 620 includes a bright area 621, a sad area 622, a smooth area 623, and a quiet area 624. The bright area 621 is a display area for the overall tone point of a bright tone. The sad area 622 is a display area for the whole music tone point of the sad music tone. The area 623 with a good twist is a display area for the whole tone point of a song with a good twist. The quiet area 624 is a display area for the entire music tone point of a quiet music tone.

個別楽曲情報領域630は、画面中央部において画面行方向に沿って延びた長尺矩形状の領域であり、特定したプレイリストに登録された楽曲データの数分だけ画面列方向に並列して設けられる。この個別楽曲情報領域630には、プレイリストに登録されたそれぞれの楽曲データの各種情報が表示される。そして、個別楽曲情報領域630には、それぞれ楽曲タイトル領域631と、明るい曲調ポイント領域632と、悲しい曲調ポイント領域633と、ノリが良い曲調ポイント領域634と、静かな曲調ポイント領域635と、が画面行方向に沿って並ぶ状態に配設されている。   The individual music information area 630 is a long rectangular area extending along the screen row direction in the center of the screen, and is provided in parallel in the screen row direction by the number of music data registered in the specified playlist. It is done. In the individual music information area 630, various pieces of information of each music data registered in the playlist are displayed. The individual music information area 630 includes a music title area 631, a bright music tone point area 632, a sad music tone point area 633, a good music tone point area 634, and a quiet music tone point area 635. They are arranged in a line along the row direction.

楽曲タイトル領域631は、個別楽曲情報領域630の画面行方向の左側に配設され、楽曲データ特定情報511に基づいて、プレイリストに登録されたそれぞれの楽曲データのタイトル名が表示される。明るい曲調ポイント領域632は、明るい領域621と対応する位置に設けられ、楽曲データ特定情報511に関連付けられた曲調ポイント情報514Bに基づいて、明るい曲調の全体曲調ポイントが表示される。悲しい曲調ポイント領域633は、悲しい領域622と対応する位置に設けられ、楽曲データ特定情報511に関連付けられた曲調ポイント情報514Bに基づいて、悲しい曲調の全体曲調ポイントが表示される。ノリが良い曲調ポイント領域634は、ノリが良い領域623と対応する位置に設けられ、楽曲データ特定情報511に関連付けられた曲調ポイント情報514Bに基づいて、ノリが良い曲調の全体曲調ポイントが表示される。静かな曲調ポイント領域635は、静かな領域624と対応する位置に設けられ、楽曲データ特定情報511に関連付けられた曲調ポイント情報514Bに基づいて、ノリが良い曲調の全体曲調ポイントが表示される。また、これら明るい曲調ポイント領域632と、悲しい曲調ポイント領域633と、ノリが良い曲調ポイント領域634と、静かな曲調ポイント領域635とには、それぞれ各曲調の全体曲調ポイントに対応する数値が表示され、これと並んだ状態で長辺の長さが全体曲調ポイントに対応した長尺矩形が表示される。   The song title area 631 is arranged on the left side of the individual song information area 630 in the screen row direction, and displays the title name of each song data registered in the playlist based on the song data specifying information 511. The bright music tone point area 632 is provided at a position corresponding to the bright area 621, and the overall music tone points of the bright music tone are displayed based on the music tone point information 514B associated with the music data specifying information 511. The sad music tone point area 633 is provided at a position corresponding to the sad area 622, and the overall music tone points of the sad music tone are displayed based on the music tone point information 514B associated with the music data specifying information 511. The melody point area 634 having a good flare is provided at a position corresponding to the area 623 having a good flare, and based on the tune point information 514B associated with the music data specifying information 511, the overall tune point of the tune having a good flare is displayed. The The quiet music tone point area 635 is provided at a position corresponding to the quiet area 624, and based on the music tone point information 514 </ b> B associated with the music data specifying information 511, the overall music tone point with a good music tone is displayed. The bright tone point area 632, the sad tone point area 633, the good tone point area 634, and the quiet tone point area 635 display numerical values corresponding to the overall tone points of each tone. In this state, a long rectangle whose long side corresponds to the entire music tone point is displayed.

また、画面生成手段355は、入力認識手段351により所定の楽曲データの再生要求が認識されると、再生制御手段354Bの制御により再生中の所定の楽曲データにおける所定のパートに関連付けられたパート情報514をタッチパネル320で出力させる。そして、楽曲データの再生位置に関する再生位置情報を、再生位置を含むパートに関連付けられた曲調情報514Cの曲調に対応する出力形態でタッチパネル320に表示させる。すなわち、画面生成手段355は、例えば、図6に示すような再生画面700を生成し、タッチパネル320に表示させる。   In addition, when the input recognition unit 351 recognizes a reproduction request for predetermined music data, the screen generation unit 355 controls part information associated with a predetermined part in the predetermined music data being reproduced under the control of the reproduction control unit 354B. 514 is output on the touch panel 320. Then, the reproduction position information related to the reproduction position of the music data is displayed on the touch panel 320 in an output form corresponding to the music tone of the music tone information 514C associated with the part including the playback position. That is, the screen generation unit 355 generates, for example, a reproduction screen 700 as shown in FIG.

ここで、再生画面700について図6に基づいて説明する。再生画面700は、所定の楽曲データを再生する際に示される画面であり、再生中の所定のパートの各種情報を設定する設定画面としても機能する。この再生画面700は、第1再生楽曲表示領域710と、第2再生楽曲表示領域720と、現在再生位置領域725と、設定領域730と、曲調スキップ領域740と、を備えている。なお、再生画面700は、フィーリングプレイ要求による再生時、フィーリングダイジェストプレイ要求による再生時、しりとり再生要求による再生時、などにおいても使用される。   Here, the reproduction screen 700 will be described with reference to FIG. The playback screen 700 is a screen displayed when playing back predetermined music data, and also functions as a setting screen for setting various information of a predetermined part being played back. The reproduction screen 700 includes a first reproduction music display area 710, a second reproduction music display area 720, a current reproduction position area 725, a setting area 730, and a music tone skip area 740. Note that the playback screen 700 is also used during playback by a feeling play request, playback by a feeling digest play request, playback by a shiritori playback request, and the like.

第1再生楽曲表示領域710は、画面上部に設けられた領域であり、再生中の楽曲データについての各種情報が表示される。この第1再生楽曲表示領域710は、タイトル領域711と、曲調領域712と、再生時間領域713と、を備えている。タイトル領域711は、画面上部の左側に設けられた領域であり、楽曲データ特定情報511に基づいて再生中の楽曲データのタイトル名が表示される。曲調領域712は、画面上部の左側でタイトル領域711に並列して設けられた領域であり、曲調情報514Cに基づいて再生中のパートの代表的な曲調が表示される。再生時間領域713は、画面上部の右側に設けられた領域であり、後述する計時手段356にて計時された時間情報に基づいて、現在の再生時間が表示される。   The first reproduction music display area 710 is an area provided at the upper part of the screen, and displays various information about the music data being reproduced. The first reproduction music display area 710 includes a title area 711, a music tone area 712, and a reproduction time area 713. The title area 711 is an area provided on the left side of the upper part of the screen, and displays the title name of the music data being played based on the music data specifying information 511. The music tone area 712 is an area provided in parallel with the title area 711 on the left side of the upper part of the screen, and a representative music tone of the part being reproduced is displayed based on the music tone information 514C. The reproduction time area 713 is an area provided on the right side of the upper part of the screen, and displays the current reproduction time based on the time information measured by the time measuring means 356 described later.

第2再生楽曲表示領域720は、画面略中央部において設けられ、長尺が画面行方向に延びた長尺矩形状の領域である。この第2再生楽曲表示領域720は、再生中の楽曲データについての各種情報が再生時間順に並んだタイムテーブル状に表示されている。そして、第2再生楽曲表示領域720には、タイトル領域721と、曲調領域722と、区間位置情報としてのキーワード領域723と、ジャンル領域724と、が設けられている。   The second reproduction music display area 720 is a long rectangular area that is provided substantially in the center of the screen and has a long length extending in the screen row direction. The second playback music display area 720 is displayed in a time table in which various pieces of information about the music data being played are arranged in order of playback time. In the second reproduction music display area 720, a title area 721, a music tone area 722, a keyword area 723 as section position information, and a genre area 724 are provided.

タイトル領域721は、第2再生楽曲表示領域720の上部に設けられた長尺矩形状の領域であり、楽曲データ特定情報511に基づいて再生中の楽曲データのタイトル名が表示される。曲調領域722は、タイトル領域721の下側に並列して設けられた長尺矩形状の領域であり、曲調情報514Cに基づいて楽曲データの複数のパートにおけるそれぞれの代表的な曲調が再生時間順に並んで表示される。キーワード領域723は、曲調領域722の下側に並列して設けられた長尺矩形状の領域であり、キーワード情報514Dに基づいて楽曲データの複数のパートにおけるそれぞれのキーワードが再生時間順に並んで表示される。ジャンル領域724は、キーワード領域723の下側に並列して設けられた長尺矩形状の領域であり、ジャンル情報513に基づいて再生中の楽曲データのジャンルが表示される。   The title area 721 is a long rectangular area provided in the upper part of the second reproduction music display area 720, and the title name of the music data being reproduced is displayed based on the music data specifying information 511. The music tone area 722 is a long rectangular area provided in parallel below the title area 721. Based on the music tone information 514C, the representative music tones in a plurality of parts of the music data are arranged in the order of playback time. Displayed side by side. The keyword area 723 is an elongated rectangular area provided in parallel below the music tone area 722, and the keywords in a plurality of parts of the music data are displayed in order of reproduction time based on the keyword information 514D. Is done. The genre area 724 is a long rectangular area provided in parallel below the keyword area 723, and the genre of the music data being reproduced is displayed based on the genre information 513.

現在再生位置領域725は、第2再生楽曲表示領域720の上側に設けられ、略矩形状の枠の一端側に矢印が形成された形状の領域である。この現在再生位置領域725は、現在の再生位置を示す表示であり、後述する計時手段356にて計時された時間情報に基づいて、楽曲データの再生時間と対応させて楽曲データの先端部から最後部へ向かう方向に移動する状態で表示される。そして、現在再生位置領域725は、曲調領域722のうち現在再生中のパートの代表的な曲調や、キーワード領域723のうち現在再生中のパートのキーワードが表示された部位を指し示す形態で表示される。また、現在再生位置領域725の略矩形状の枠中には、曲調情報514Cに基づいて最大音量が表示され、また後述する計時手段356にて計時された時間情報に基づいて、現在の再生時間が表示される。   The current playback position area 725 is an area that is provided above the second playback music display area 720 and has an arrow formed on one end side of a substantially rectangular frame. The current playback position area 725 is a display showing the current playback position. Based on the time information timed by the time measuring unit 356 described later, the current playback position area 725 is associated with the playback time of the music data from the end of the music data. It is displayed in a state of moving in the direction toward the part. The current playback position area 725 is displayed in a form indicating a part in which a representative music tone of the part currently being played in the music tone area 722 and a keyword of the part currently being played in the keyword area 723 are displayed. . Further, in the substantially rectangular frame of the current playback position area 725, the maximum volume is displayed based on the music tone information 514C, and the current playback time is based on the time information measured by the clock means 356 described later. Is displayed.

設定領域730は、画面下部側において設けられ、長尺が画面行方向に延びた略長尺矩形状の領域である。この設定領域730には、曲調設定領域731と、キーワード設定領域732と、ジャンル設定領域733と、が設けられている。なお、タッチパネル320の表示面における設定領域730のいずれかの表示に対応する部位を利用者が選択する、すなわち触れることにより、タッチパネル320の信号出力部から入力認識手段351に接触座標信号が出力される。また、入力認識手段351は、接触座標信号に基づいて、再生中の所定のパートの各種情報を設定する旨の設定要求を認識する。   The setting area 730 is an area of a substantially long rectangular shape provided on the lower side of the screen and having a long length extending in the screen row direction. The setting area 730 includes a music tone setting area 731, a keyword setting area 732, and a genre setting area 733. Note that when the user selects, that is, touches, a part corresponding to any display in the setting area 730 on the display surface of the touch panel 320, a contact coordinate signal is output from the signal output unit of the touch panel 320 to the input recognition unit 351. The Further, the input recognition unit 351 recognizes a setting request for setting various information of a predetermined part being reproduced based on the contact coordinate signal.

曲調設定領域731は、設定領域730における上部に設けられた長尺矩形状の領域であり、現在再生中のパートの代表的な曲調を所定の曲調に設定するための表示である。この曲調設定領域731には、複数の曲調が表示されており、タッチパネル320の表示面におけるいずれかの表示を利用者が触れることにより、入力認識手段351は再生中の所定のパートの曲調情報514Cを設定変更する旨の曲調の設定要求を認識する。そして、この曲調の設定要求に基づいて、楽曲関連情報生成手段353により所定のパートの曲調情報514Cが変更され、画面生成手段355により曲調領域712および曲調領域722の表示が変更される。   The music tone setting area 731 is a long rectangular area provided in the upper part of the setting area 730, and is a display for setting a representative music tone of the currently reproduced part to a predetermined music tone. In the music tone setting area 731, a plurality of music tones are displayed. When the user touches any display on the display surface of the touch panel 320, the input recognition unit 351 has the music tone information 514 </ b> C of a predetermined part being reproduced. Recognizes the music tone setting request to change the setting. Based on the music tone setting request, the music related information generating unit 353 changes the music tone information 514C of a predetermined part, and the screen generating unit 355 changes the display of the music tone region 712 and the music tone region 722.

キーワード設定領域732は、設定領域730の略中間に設けられた長尺矩形状の領域であり、現在再生中の楽曲データのパートに所定のキーワードを関連付けて設定するための表示である。このキーワード設定領域732には、複数のキーワードが表示されており、タッチパネル320の表示面におけるいずれかの表示を利用者が触れることにより、入力認識手段351は、再生中の所定のパートのキーワード情報514Dを設定する旨のキーワードの設定要求を認識する。そして、このキーワードの設定要求に基づいて、楽曲関連情報生成手段353により所定のパートのキーワード情報514Dが生成され、画面生成手段355によりキーワード領域723の表示が変更される。   The keyword setting area 732 is a long rectangular area provided approximately in the middle of the setting area 730, and is a display for setting a predetermined keyword in association with the part of the music data currently being reproduced. In the keyword setting area 732, a plurality of keywords are displayed. When the user touches any display on the display surface of the touch panel 320, the input recognizing unit 351 causes the keyword information of a predetermined part being reproduced. A keyword setting request for setting 514D is recognized. Then, based on the keyword setting request, the music related information generating unit 353 generates keyword information 514D of a predetermined part, and the screen generating unit 355 changes the display of the keyword area 723.

ジャンル設定領域733は、設定領域730における下部に設けられた長尺矩形状の領域であり、現在再生中の楽曲データのジャンルを設定変更するための表示である。このジャンル設定領域733には、複数種のジャンルが表示されており、タッチパネル320の表示面におけるいずれかの表示を利用者が触れることにより、入力認識手段351は、再生中の楽曲データのジャンル情報513を設定変更する旨のジャンルの設定要求を認識する。そして、このジャンルの設定要求に基づいて、楽曲関連情報生成手段353により所定の楽曲データのジャンル情報513が生成され、画面生成手段355によりジャンル領域724の表示が変更される。   The genre setting area 733 is a long rectangular area provided in the lower part of the setting area 730, and is a display for changing the genre of the music data currently being reproduced. In the genre setting area 733, a plurality of types of genres are displayed. When the user touches any display on the display surface of the touch panel 320, the input recognition unit 351 causes the genre information of the music data being reproduced. The genre setting request to change the setting of 513 is recognized. Based on the genre setting request, the music related information generating unit 353 generates genre information 513 of predetermined music data, and the screen generating unit 355 changes the display of the genre area 724.

曲調スキップ領域740は、画面下側に設けられ、曲調先送りボタン741と、曲調前戻りボタン742と、を備えている。曲調先送りボタン741は、現在再生中のパートの後のパートを再生させるための表示である。曲調前戻りボタン742は、現在再生中のパートの前のパートを再生させるための表示である。そして、タッチパネル320の表示面における曲調先送りボタン741または曲調前戻りボタン742のいずれかの表示を利用者が触れることにより、入力認識手段351は現在再生中のパートの前後いずれかのパートを再生する旨の曲調スキップ要求を認識する。   The music tone skip area 740 is provided on the lower side of the screen, and includes a music tone advance button 741 and a music tone pre-return button 742. The music tone advance button 741 is a display for reproducing the part after the part currently being reproduced. The music tone pre-return button 742 is a display for reproducing the part before the part currently being reproduced. Then, when the user touches the display of either the music tone advance button 741 or the music tone pre-return button 742 on the display surface of the touch panel 320, the input recognition unit 351 reproduces any part before or after the part currently being reproduced. Recognize the request to skip the tune.

計時手段356は、例えば内部クロックなどの基準パルスに基づいて時間を計時し、計時した時間に関する時間情報を生成する。   The time measuring means 356 measures time based on a reference pulse such as an internal clock, for example, and generates time information regarding the time measured.

〔楽曲データ記録再生システムの動作〕
次に、楽曲再生システム100の動作を図面に基づいて適宜説明する。
[Operation of music data recording / playback system]
Next, the operation of the music playback system 100 will be described as appropriate based on the drawings.

(楽曲個別情報生成処理)
まず、楽曲再生システム100の動作として、コンテンツ記録処理について図7に基づいて説明する。図7は、楽曲個別情報生成処理の動作を示すフローチャートである。
(Music individual information generation process)
First, as an operation of the music playback system 100, content recording processing will be described with reference to FIG. FIG. 7 is a flowchart showing the operation of the music individual information generation process.

楽曲再生システム100の電源がONの状態で利用者からの入力を待機している状態において、利用者からの入力操作により所定の楽曲データの楽曲個別情報510の生成が要求されると、入力認識手段351は、入力部310から送信される入力信号に基づいて、所定の楽曲データの楽曲個別情報510の生成要求を認識する。そして、特性認識手段352は、入力認識手段351にて認識された楽曲個別情報510の生成処理の要求に基づいて、所定の楽曲データを取得する(ステップS101)。また、取得した楽曲データの曲調を認識し、認識した曲調と基準となる曲調とを比較することにより、例えば図4に示すような楽曲データの曲調ポイントを認識する(ステップS102)。さらに、特性認識手段352は、認識した曲調ポイントに基づいて複数のパートを認識し(ステップS103)、そのパート数Nを認識する(ステップS104)。そして、所定のパートを識別する旨の識別番号Kを1(K=1)と認識する、すなわち所定の楽曲データにおける先端のパートについてパート情報514を生成することを認識する(ステップS105)。   When generation of the music individual information 510 of predetermined music data is requested by an input operation from the user in a state where the music reproduction system 100 is on and waiting for input from the user, input recognition is performed. The means 351 recognizes the generation request for the music individual information 510 of the predetermined music data based on the input signal transmitted from the input unit 310. Then, the characteristic recognizing means 352 acquires predetermined music data based on the request for the process of generating the music individual information 510 recognized by the input recognizing means 351 (step S101). Further, by recognizing the tune of the acquired music data and comparing the recognized tune with the reference tune, for example, a tune point of the music data as shown in FIG. 4 is recognized (step S102). Further, the characteristic recognizing means 352 recognizes a plurality of parts based on the recognized music tone points (step S103), and recognizes the number N of the parts (step S104). Then, it recognizes that the identification number K for identifying the predetermined part is 1 (K = 1), that is, recognizes that the part information 514 is generated for the leading part in the predetermined music data (step S105).

この後、楽曲関連情報生成手段353は、計時手段356により生成された時間情報に基づいて当該先端のパートについてのパート特定情報514Aを生成する(ステップS106)。さらに、楽曲関連情報生成手段353は、特性認識手段352にて認識されたこのパートにおける曲調ポイントに基づいて、曲調ポイント情報514Bを生成し(ステップS107)、また、曲調情報514Cを生成する(ステップS108)。   Thereafter, the music-related information generating unit 353 generates part specifying information 514A for the tip part based on the time information generated by the time measuring unit 356 (step S106). Further, the music related information generating means 353 generates music tone point information 514B based on the music tone points in this part recognized by the characteristic recognition means 352 (step S107), and generates music tone information 514C (step S107). S108).

この後、入力認識手段351は、キーワードの設定要求がされているか否かを認識する(ステップS109)。そして、入力認識手段351にてキーワードの設定要求が認識された場合、楽曲関連情報生成手段353は、認識されたキーワードの設定要求に基づいて、キーワード情報514Dを生成する(ステップS110)。さらに、特性認識手段352は、現在認識しているパートがサビであるか否かを認識する(ステップS111)。一方、ステップS109において、入力認識手段351にてキーワードの設定要求がされていないと認識された場合、特性認識手段352は、ステップS111の処理を実施する。   Thereafter, the input recognition unit 351 recognizes whether or not a keyword setting request has been made (step S109). When the keyword setting request is recognized by the input recognition unit 351, the music related information generation unit 353 generates the keyword information 514D based on the recognized keyword setting request (step S110). Further, the characteristic recognizing means 352 recognizes whether or not the currently recognized part is rust (step S111). On the other hand, in step S109, when the input recognition unit 351 recognizes that no keyword setting request has been made, the characteristic recognition unit 352 performs the process of step S111.

そして、ステップS111において、特性認識手段352にて現在認識されているパートがサビであると認識された場合、楽曲関連情報生成手段353は、「1」に設定されたフラグ情報を組み込んだサビフラグ情報514Eを生成する(ステップS112)。一方、ステップS111において、特性認識手段352にて現在認識されているパートがサビでないと認識された場合、楽曲関連情報生成手段353は、「0」に設定されたフラグ情報を組み込んだサビフラグ情報514Eを生成する(ステップS113)。そして、楽曲関連情報生成手段353は、パート特定情報514Aと、曲調ポイント情報514Bと、曲調情報514Cと、キーワード情報514Dと、サビフラグ情報514Eと、を1つのデータ構造として関連付けて構成したパート情報514を生成する。   In step S111, if the characteristic recognition unit 352 recognizes that the currently recognized part is chorus, the music related information generation unit 353 includes the chorus flag information in which the flag information set to “1” is incorporated. 514E is generated (step S112). On the other hand, in step S111, when the characteristic recognition unit 352 recognizes that the currently recognized part is not rust, the music related information generation unit 353 includes the climax flag information 514E in which the flag information set to “0” is incorporated. Is generated (step S113). Then, the music related information generating means 353 includes part information 514A, music tone point information 514B, music tone information 514C, keyword information 514D, and chorus flag information 514E associated with each other as one data structure. Is generated.

この後、曲調認識手段は、識別番号Kがパート数Nに等しいか否かを判断し(ステップS114)、識別番号Kがパート数Nに等しくないと判断された場合、識別番号Kに1を加える(K=K+1)処理、すなわち次のパートのパート情報514を生成することを認識する(ステップS115)。この後、楽曲関連情報生成手段353は、ステップS106の処理を実施する。   Thereafter, the music tone recognizing means determines whether or not the identification number K is equal to the number of parts N (step S114). It is recognized that the addition (K = K + 1) processing, that is, generation of the part information 514 of the next part is generated (step S115). Thereafter, the music related information generating unit 353 performs the process of step S106.

一方、ステップS114において、曲調認識手段にて識別番号Kがパート数Nに等しいと認識された場合、すなわち所定の楽曲データの全てのパートについてパート情報514が生成されたことを認識すると、楽曲関連情報生成手段353は、楽曲個別情報510を生成する(ステップS116)。すなわち、楽曲データ特定情報511と、ジャンル情報513と、を生成し、楽曲データ特定情報511と、ジャンル情報513と、少なくとも1つのパート情報514と、などを1つのデータ構造として関連付けて構成した楽曲個別情報510を生成する。さらに、楽曲関連情報生成手段353は、新たに生成した楽曲個別情報510を楽曲関連情報500に組み込む。   On the other hand, when it is recognized in step S114 that the identification number K is equal to the number of parts N by the music tone recognition means, that is, when it is recognized that the part information 514 has been generated for all parts of the predetermined music data, The information generation unit 353 generates the music individual information 510 (step S116). In other words, music data specifying information 511 and genre information 513 are generated, and music data specifying information 511, genre information 513, at least one part information 514, and the like are associated with each other as one data structure. Individual information 510 is generated. Further, the music related information generating unit 353 incorporates the newly generated music individual information 510 into the music related information 500.

(プレイリスト表示処理)
次に、楽曲再生システム100の動作として、プレイリスト表示処理について図8に基づいて説明する。図8は、プレイリスト表示処理の動作を示すフローチャートである。
(Playlist display processing)
Next, as an operation of the music reproduction system 100, a playlist display process will be described with reference to FIG. FIG. 8 is a flowchart showing the operation of the playlist display process.

楽曲再生システム100の電源がONの状態で利用者からの入力を待機する状態において、利用者からの入力操作により所定のプレイリストの表示が要求されると、入力認識手段351は、入力部310から送信される入力信号に基づいて、所定のプレイリストの表示要求を認識する。そして、画面生成手段355は、入力認識手段351にて認識されたプレイリストの表示要求に基づいて、メモリ340に記憶されたプレイリストの中から表示させるプレイリストを特定し(ステップS201)、特定したプレイリストに登録された楽曲データ数である登録曲数Mを認識する(ステップS202)。この後、画面生成手段355は、例えば図5に示すプレイリスト画面600をタッチパネル320に表示させる(ステップS203)。すなわち、プレイリスト名領域610、および曲調ポイント項目領域620における明るい領域621と、悲しい領域622と、ノリが良い領域623と、静かな領域624とを表示させる。   In a state where the music playback system 100 is on and waiting for input from the user, when the display of a predetermined playlist is requested by an input operation from the user, the input recognizing unit 351 includes the input unit 310. Based on the input signal transmitted from, a display request for a predetermined playlist is recognized. Then, the screen generation unit 355 identifies a playlist to be displayed from the playlists stored in the memory 340 based on the playlist display request recognized by the input recognition unit 351 (step S201). The registered music number M, which is the number of music data registered in the play list, is recognized (step S202). Thereafter, the screen generation unit 355 displays, for example, the playlist screen 600 shown in FIG. 5 on the touch panel 320 (step S203). That is, a bright area 621, a sad area 622, a good area 623, and a quiet area 624 in the playlist name area 610 and the music tone point item area 620 are displayed.

さらに、画面生成手段355は、プレイリストに表示させる所定の楽曲データの楽曲個別情報510を識別する旨の識別番号Pを1(P=1)と認識する、すなわち、特定したプレイリストに登録された1番目の楽曲データの楽曲個別情報510を認識する(ステップS204)。そして、画面生成手段355は、個別楽曲情報領域630における楽曲タイトル領域631に1番目の楽曲の曲名を表示させる(ステップS205)。そして、明るい曲調ポイント領域632に1番目の楽曲の明るいポイントすなわち明るい曲調についての全体曲調ポイントを表示させる(ステップS206)。また、悲しい曲調ポイント領域633に1番目の楽曲の悲しいポイントすなわち悲しい曲調についての全体曲調ポイントを表示させる(ステップS207)。さらに、ノリが良い曲調ポイント領域634に1番目の楽曲のノリが良いポイントすなわちノリが良い曲調についての全体曲調ポイントを表示させる(ステップS208)。また、静かな曲調ポイント領域635に、1番目の楽曲の静かなポイントすなわち静かな曲調についての全体曲調ポイントを表示させる(ステップS209)。   Furthermore, the screen generation means 355 recognizes the identification number P for identifying the music individual information 510 of the predetermined music data to be displayed on the playlist as 1 (P = 1), that is, registered in the specified playlist. The music individual information 510 of the first music data is recognized (step S204). Then, the screen generation means 355 displays the song name of the first song in the song title area 631 in the individual song information area 630 (step S205). Then, the bright music tone point area 632 displays the bright music tone point of the first music, that is, the overall music tone points for the bright music tone (step S206). Further, the sad point of the first music, that is, the total music point for the sad music is displayed in the sad music point area 633 (step S207). Further, the overall tone point for the point where the first song has a good score, that is, a song tone with a good score is displayed in the tone point area 634 where the score is good (step S208). Further, the quiet music tone point area 635 displays the overall music tone points for the quiet music key, that is, the quiet music tone (step S209).

そして、画面生成手段355は、識別番号Pが登録曲数Mに等しいか否かを判断し(ステップS210)、識別番号Kが登録曲数Mに等しくないと判断された場合、識別番号Pに1を加える(P=P+1)処理を実施する、すなわち特定したプレイリストに登録された2番目の楽曲データの楽曲個別情報510を認識する(ステップS211)。この後、画面生成手段355は、ステップS205の処理を実施する。一方、ステップS210において、曲調認識手段にて識別番号Pが登録曲数Mに等しいと認識された場合、処理を終了する。   Then, the screen generating means 355 determines whether or not the identification number P is equal to the registered music number M (step S210). 1 is added (P = P + 1), that is, the music individual information 510 of the second music data registered in the specified playlist is recognized (step S211). Thereafter, the screen generation unit 355 performs the process of step S205. On the other hand, if it is recognized in step S210 that the identification number P is equal to the number of registered songs M by the music tone recognition means, the process is terminated.

(再生処理)
次に、楽曲再生システム100の動作として、楽曲データの再生処理について図9に基づいて説明する。図9は、楽曲データの再生処理の動作を示すフローチャートである。
(Reproduction processing)
Next, as an operation of the music playback system 100, music data playback processing will be described with reference to FIG. FIG. 9 is a flowchart showing the operation of the music data reproduction process.

楽曲再生システム100の電源がONの状態で利用者からの入力を待機する状態において、利用者からの入力操作により所定の楽曲データの再生が要求されると、入力認識手段351は、入力部310から送信される入力信号に基づいて、所定の楽曲データの再生要求を認識する。そして、再生対象認識手段354Aは、再生対象を認識する、すなわち、入力認識手段351にて認識された再生要求に基づいて再生対象となる楽曲データに対応する楽曲個別情報510を認識する(ステップS301)。   In a state where the music playback system 100 is on and waiting for an input from the user, when the playback of predetermined music data is requested by an input operation from the user, the input recognizing unit 351 causes the input unit 310 to input. Based on the input signal transmitted from the, a reproduction request for predetermined music data is recognized. The reproduction target recognition unit 354A recognizes the reproduction target, that is, recognizes the individual music information 510 corresponding to the music data to be reproduced based on the reproduction request recognized by the input recognition unit 351 (step S301). ).

そして、再生対象認識手段354Aにて再生対象が認識されると、画面生成手段355は、再生対象認識手段354Aにて認識された楽曲個別情報510に基づいて、例えば図6に示す再生画面700をタッチパネル320に表示させる(ステップS302)。また、再生制御手段354Bは、再生対象認識手段354Aにて認識された楽曲個別情報510に基づいて、所定の楽曲データを再生する(ステップS303)。   Then, when the reproduction target is recognized by the reproduction target recognition unit 354A, the screen generation unit 355 generates, for example, a reproduction screen 700 shown in FIG. 6 based on the music individual information 510 recognized by the reproduction target recognition unit 354A. It is displayed on the touch panel 320 (step S302). Further, the reproduction control means 354B reproduces predetermined music data based on the music individual information 510 recognized by the reproduction object recognition means 354A (step S303).

楽曲データの再生中において、画面生成手段355は、再生画面700における曲調領域712に現在再生中のパートの曲調を再生時間と連動して表示させ、再生時間領域713に現在の再生時間を表示させる。また、現在再生位置領域725を再生時間と対応させて楽曲データの先端から後端へ向かう方向に移動する状態で表示させる。さらに、この現在再生位置領域725の中に最大音量および現在再生時間を表示させる。   During the reproduction of the music data, the screen generation means 355 displays the music tone of the part currently being reproduced in the music tone area 712 on the playback screen 700 in conjunction with the playback time, and displays the current playback time in the playback time area 713. . Further, the current playback position area 725 is displayed in a state of moving in the direction from the front end to the rear end of the music data in association with the playback time. Further, the maximum playback volume and the current playback time are displayed in the current playback position area 725.

そして、再生中において、入力認識手段351は、曲調スキップ要求がされたか否かを認識する(ステップS304)。すなわち、タッチパネル320の表示面における曲調先送りボタン741または曲調前戻りボタン742のいずれかの表示を利用者が触れることにより、入力認識手段351は現在再生中のパートの前後いずれかのパートを再生する旨の曲調スキップ要求を認識する。そして、入力認識手段351にて曲調スキップ要求がされたと認識された場合、再生制御手段354Bは、次のパートまたは前のパートを再生、すなわち、現在再生中のパートの前後いずれかのパートを再生する(ステップS305)。   Then, during playback, the input recognition unit 351 recognizes whether or not a music tone skip request has been made (step S304). That is, when the user touches the display of either the music tone advance button 741 or the music tone pre-return button 742 on the display surface of the touch panel 320, the input recognition unit 351 reproduces any part before or after the part currently being reproduced. Recognize the request to skip the tune. When the input recognizing unit 351 recognizes that the music tone skip request has been made, the reproduction control unit 354B reproduces the next part or the previous part, that is, reproduces any part before or after the part currently being reproduced. (Step S305).

この後、再生中において、入力認識手段351は、曲調の設定要求がされたか否かを認識する(ステップS306)。すなわち、タッチパネル320の表示面に表示された曲調設定領域731におけるいずれかの表示を利用者が触れることにより、入力認識手段351は再生中の所定のパートの曲調情報514Cを設定変更する旨の曲調の設定要求を認識する。一方、ステップS304において、入力認識手段351は、曲調スキップ要求がされていないと認識した場合、ステップS306の処理を実施する。そして、ステップS306において、入力認識手段351にて曲調の設定要求がされたと認識された場合、曲調を設定する(ステップS307)。すなわち、入力認識手段351にて認識された曲調の設定要求に基づいて、楽曲関連情報生成手段353は所定のパートの曲調情報514Cを変更し、画面生成手段355は曲調領域712および曲調領域722の表示を変更する。   Thereafter, during playback, the input recognition unit 351 recognizes whether or not a music tone setting request has been made (step S306). That is, when the user touches any display in the music tone setting area 731 displayed on the display surface of the touch panel 320, the input recognizing unit 351 changes the music tone information 514C of the predetermined part being reproduced. Recognize the setting request. On the other hand, in step S304, when the input recognition unit 351 recognizes that the music tone skip request is not made, the process of step S306 is performed. In step S306, if the input recognizing unit 351 recognizes that a music tone setting request has been made, the music tone is set (step S307). That is, based on the music tone setting request recognized by the input recognition unit 351, the music related information generation unit 353 changes the music tone information 514C of a predetermined part, and the screen generation unit 355 stores the music tone area 712 and the music tone area 722. Change the display.

この後、入力認識手段351は、キーワードの設定要求がされたか否かを認識する(ステップS308)。すなわち、例えば、タッチパネル320をタッチパネル式とした場合、タッチパネル320の表示面に表示されたキーワード設定領域732におけるいずれかの表示を利用者が触れることにより、入力認識手段351は、再生中の所定のパートのキーワード情報514Dを設定する旨のキーワードの設定要求を認識する。一方、ステップS306において、入力認識手段351は、曲調の設定要求がされていないと認識した場合、ステップS308の処理を実施する。   Thereafter, the input recognizing means 351 recognizes whether or not a keyword setting request has been made (step S308). That is, for example, when the touch panel 320 is a touch panel type, when the user touches any display in the keyword setting area 732 displayed on the display surface of the touch panel 320, the input recognition unit 351 causes the predetermined recognition during reproduction. A keyword setting request for setting the keyword information 514D of the part is recognized. On the other hand, in step S306, when the input recognition unit 351 recognizes that the music tone setting request is not made, the process of step S308 is performed.

そして、ステップS308において、入力認識手段351にてキーワードの設定要求がされたと認識された場合、キーワードを設定する(ステップS309)。すなわち、楽曲関連情報生成手段353は、現在再生中のパートに対応するキーワード情報514Dを設定要求に基づいて変更し、同時に、画面生成手段355は、再生画面700におけるキーワード領域723の表示を設定要求に基づいて変更する。そして、入力認識手段351は、利用者からの入力操作により停止要求がされたか否かを認識する(ステップS310)。一方、ステップS308において、入力認識手段351は、曲調の設定要求がされていないと認識した場合、ステップS310の処理を実施する。   In step S308, if the input recognition unit 351 recognizes that a keyword setting request has been made, the keyword is set (step S309). That is, the music related information generation unit 353 changes the keyword information 514D corresponding to the part currently being reproduced based on the setting request, and at the same time, the screen generation unit 355 requests to display the keyword area 723 on the reproduction screen 700. Change based on. Then, the input recognition unit 351 recognizes whether or not a stop request has been made by an input operation from the user (step S310). On the other hand, in step S308, when the input recognition unit 351 recognizes that the music tone setting request has not been made, the process of step S310 is performed.

そして、ステップS310において、入力認識手段351にて停止要求がされたと認識された場合、再生制御手段354Bは、再生を停止する。一方、ステップS310において、入力認識手段351にて停止要求がされていないと認識された場合、ステップS304の処理を実施する。   In step S310, when the input recognizing unit 351 recognizes that a stop request has been made, the reproduction control unit 354B stops reproduction. On the other hand, if it is recognized in step S310 that the input recognition unit 351 has not made a stop request, the process of step S304 is performed.

(フィーリングプレイ処理)
次に、楽曲再生システム100の動作として、フィーリングプレイ処理について説明する。楽曲再生システム100の電源がONの状態で利用者からの入力を待機する状態において、利用者からの入力操作によりフィーリングプレイが要求され、入力認識手段351がフィーリングプレイ要求を認識する。入力認識手段351にてフィーリングプレイ要求が認識されると、再生対象認識手段354Aは、所定の曲調のパートを再生対象として認識する。そして、再生制御手段354Bは、再生対象認識手段354Aにて認識された全ての再生対象を連続的に再生する。この際、画面生成手段355は、図9に示す楽曲データの再生処理において説明したように、再生対象認識手段354Aにて認識された楽曲個別情報510に基づいて、例えば図6に示す再生画面700をタッチパネル320に表示させる。この後、再生制御手段354Bは、入力認識手段351にて停止要求が認識されると、再生を停止する。
(Feeling play process)
Next, as an operation of the music playback system 100, a feeling play process will be described. In a state where the music playback system 100 is on and waiting for input from the user, a feeling play is requested by an input operation from the user, and the input recognition unit 351 recognizes the feeling play request. When the input recognition unit 351 recognizes the feeling play request, the reproduction target recognition unit 354A recognizes a part having a predetermined musical tone as a reproduction target. Then, the reproduction control means 354B continuously reproduces all reproduction objects recognized by the reproduction object recognition means 354A. At this time, as described in the music data reproduction process shown in FIG. 9, the screen generation unit 355, for example, based on the music individual information 510 recognized by the reproduction target recognition unit 354A, for example, the reproduction screen 700 shown in FIG. Is displayed on the touch panel 320. Thereafter, when the input recognition unit 351 recognizes a stop request, the playback control unit 354B stops playback.

(フィーリングダイジェストプレイ処理)
次に、楽曲再生システム100の動作として、フィーリングダイジェストプレイ処理について説明する。楽曲再生システム100の電源がONの状態で利用者からの入力を待機する状態において、利用者からの入力操作によりフィーリングダイジェストプレイが要求され入力認識手段351がフィーリングダイジェストプレイ要求を認識する。入力認識手段351にてフィーリングダイジェストプレイ要求が認識されると、再生対象認識手段354Aは、サビとなるパートのうち所定の曲調のパートを再生対象として認識する。そして、再生制御手段354Bは、再生対象認識手段354Aで認識された全ての再生対象に対応する楽曲データのパートを連続的に再生する。この際、画面生成手段355は、図9に示す楽曲データの再生処理において説明したように、再生対象認識手段354Aにて認識された楽曲個別情報510に基づいて、例えば図6に示す再生画面700をタッチパネル320に表示させる。この後、再生制御手段354Bは、入力認識手段351にて停止要求が認識されると、再生を停止する。
(Feeling digest play process)
Next, as an operation of the music playback system 100, a feeling digest play process will be described. In a state where the music playback system 100 is on and waiting for input from the user, a feeling digest play is requested by an input operation from the user, and the input recognition unit 351 recognizes the feeling digest play request. When the input recognition unit 351 recognizes the feeling digest play request, the reproduction target recognition unit 354A recognizes a part having a predetermined tune tone as a reproduction target among the parts to be rusted. Then, the reproduction control means 354B continuously reproduces the music data parts corresponding to all reproduction objects recognized by the reproduction object recognition means 354A. At this time, as described in the music data reproduction process shown in FIG. 9, the screen generation unit 355, for example, based on the music individual information 510 recognized by the reproduction target recognition unit 354A, for example, the reproduction screen 700 shown in FIG. Is displayed on the touch panel 320. Thereafter, when the input recognition unit 351 recognizes a stop request, the playback control unit 354B stops playback.

(しりとり再生処理)
次に、楽曲再生システム100の動作として、しりとり再生処理について図10に基づいて説明する。図10は、しりとり再生処理の動作を示すフローチャートである。
(Shiritori playback process)
Next, shiritori reproduction processing as the operation of the music reproduction system 100 will be described with reference to FIG. FIG. 10 is a flowchart showing the operation of the shiritori reproduction process.

楽曲再生システム100の電源がONの状態で利用者からの入力を待機する状態において、利用者からの入力操作によりしりとり再生が要求され入力認識手段351がしりとり再生要求を認識すると、再生対象認識手段354Aは、再生対象を認識する(ステップS401)。すなわち、再生対象認識手段354Aは、例えば、ランダムに、楽曲データ記憶手段330に記憶された複数の楽曲データのうち、いずれかの楽曲データを再生対象として認識し、この再生対象となる楽曲データに対応する楽曲個別情報510を認識する。そして、再生制御手段354Bは、再生対象認識手段354Aにて認識された再生対象を再生し、音声出力装置200から再生した楽曲データを出力させる(ステップS402)。この際、画面生成手段355は、再生対象認識手段354Aにて認識された楽曲個別情報510に基づいて、例えば図6に示す再生画面700をタッチパネル320に表示させる。   When the music playback system 100 is in a state of waiting for input from the user while the power is on, when the shiritori playback is requested by an input operation from the user and the input recognition means 351 recognizes the shiritori playback request, the playback target recognition means 354A recognizes the reproduction target (step S401). That is, the reproduction target recognition unit 354A, for example, randomly recognizes any piece of music data among a plurality of pieces of music data stored in the music data storage unit 330 as a reproduction target, and sets the reproduction target music data as the reproduction target music data. The corresponding music individual information 510 is recognized. Then, the reproduction control unit 354B reproduces the reproduction target recognized by the reproduction target recognition unit 354A, and outputs the music data reproduced from the audio output device 200 (step S402). At this time, the screen generation means 355 displays, for example, a reproduction screen 700 shown in FIG. 6 on the touch panel 320 based on the music individual information 510 recognized by the reproduction object recognition means 354A.

そして、再生中において、再生対象認識手段354Aは、楽曲個別情報510における曲調情報514Cに基づいて、現在再生している楽曲データの最終パートにおける曲調を認識する(ステップS403)。そして、再生対象認識手段354Aは、楽曲の先端パートが同じ曲調の楽曲データを検索する(ステップS404)。すなわち、再生対象認識手段354Aは、楽曲個別情報510における曲調情報514Cに基づいて、楽曲データ記憶手段330に記憶された複数の楽曲データのうち、楽曲の先端パートに現在再生している楽曲データの最終パートにおける曲調と同一の曲調を有した楽曲データを検索する。そして、再生対象認識手段354Aは、次の再生対象を認識する、すなわち、検索した楽曲データのうちいずれかの楽曲データをランダムに再生対象として認識し、この再生対象となる楽曲データに対応する楽曲個別情報510を認識する。(ステップS405)。   During reproduction, the reproduction target recognition unit 354A recognizes the tune in the final part of the music data currently being reproduced based on the tune information 514C in the individual music information 510 (step S403). Then, the reproduction target recognizing unit 354A searches for music data having the same musical tone as the leading part of the music (step S404). That is, the reproduction target recognition unit 354A, based on the music tone information 514C in the music individual information 510, among the plurality of music data stored in the music data storage unit 330, The music data having the same musical tone as that of the final part is searched. Then, the reproduction target recognition unit 354A recognizes the next reproduction target, that is, recognizes any music data among the searched music data as a reproduction target at random, and the music corresponding to the music data to be reproduced. The individual information 510 is recognized. (Step S405).

この後、入力認識手段351は、楽曲データの再生を停止する旨の停止要求がされたか否かを認識する(ステップS406)。そして、入力認識手段351により停止要求が認識された場合、再生制御手段354Bは、しりとり再生を停止させる。一方、ステップS406において、入力認識手段351により停止要求がされていないと認識されると、再生制御手段354Bは、ステップS402の処理を実施する、すなわち、再生対象認識手段354Aにより認識された次の再生対象となる楽曲データを再生する。   Thereafter, the input recognition unit 351 recognizes whether or not a stop request for stopping the reproduction of the music data has been made (step S406). When the stop request is recognized by the input recognition unit 351, the playback control unit 354B stops the shiritori playback. On the other hand, in step S406, when the input recognition unit 351 recognizes that the stop request is not made, the reproduction control unit 354B performs the process of step S402, that is, the next recognized by the reproduction target recognition unit 354A. Play the song data to be played.

〔楽曲再生システムの作用効果〕
上述したように、上記実施の形態では、楽曲再生システム100に、楽曲データ記憶手段330に記録された楽曲データの曲調を認識し、この曲調に基づいて楽曲データのパートを認識する特性認識手段352と、楽曲データの所定のパートにおける曲調に関する曲調ポイント情報514Bおよび曲調情報514Cをパートの位置を特定するパート特定情報514Aに関連付けてパート情報514を生成する楽曲関連情報生成手段353と、を設けている。このため、多種多様な曲調を有した楽曲データを複数のパートに分けてパート毎に曲調を認識することができる。したがって、楽曲再生装置300は、楽曲データの曲調を良好に認識することができるので、例えば利用者が聴きたい曲調を指定して再生された楽曲データの中に、利用者がイメージした曲調とは異なる部分が含まれることを防止することができる。
[Effects of music playback system]
As described above, in the above embodiment, the music reproduction system 100 recognizes the tune of the music data recorded in the music data storage means 330 and recognizes the part of the music data based on this tune. And music related information generating means 353 for generating part information 514 by associating the music tone point information 514B and the music tone information 514C relating to the music tone in a predetermined part of the music data with the part specifying information 514A for specifying the position of the part, Yes. For this reason, it is possible to divide music data having various musical tunes into a plurality of parts and recognize the tunes for each part. Therefore, the music reproducing device 300 can recognize the music tone of the music data satisfactorily. For example, the music tone imaged by the user in the music data reproduced by designating the music tone that the user wants to listen to is provided. It is possible to prevent different parts from being included.

そして、特性認識手段352は、例えば図4に示すような各曲調の曲調ポイントを認識すると、各曲調のうちいずれかの曲調の曲調ポイントが楽曲全体を通して大きく変化している変化位置を認識する。そして、各曲調のうちいずれかの曲調の変化位置間における区間をパートとして認識する。このため、特性認識手段352にて認識されたパートは曲調の大きく変化している変化位置に基づくものであるので、1つの楽曲データにおけるパートとパートとの差異を明確化することができる。したがって、楽曲データ記憶手段330に記憶された複数の楽曲データのうち所定の曲調のパートを検索する際、正確な検索が実施できる。また、特性認識手段352は、計時手段356にて計時された時間に基づいて曲調の変化位置を楽曲データの先端部からの再生経過時間で認識し、楽曲関連情報生成手段353は認識された変化位置に基づいてパート特定情報514Aを生成している。このため、時間で楽曲データのパートを特定するという簡単な構成によるデータ処理が実現でき、データ処理の効率を向上できる。   And the characteristic recognition means 352 recognizes the change position where the music tone point of one music tone changes greatly throughout the whole music, for example, if it recognizes the music tone point of each music tone as shown in FIG. Then, the section between the change positions of any of the music tones is recognized as a part. For this reason, the part recognized by the characteristic recognizing means 352 is based on the changing position where the tone of music changes greatly, so that the difference between the parts in one piece of music data can be clarified. Therefore, an accurate search can be performed when searching for a part of a predetermined music tone among a plurality of music data stored in the music data storage means 330. The characteristic recognizing means 352 recognizes the change position of the tune based on the elapsed time from the leading end of the music data based on the time measured by the time measuring means 356, and the music related information generating means 353 recognizes the recognized change. The part specifying information 514A is generated based on the position. For this reason, it is possible to realize data processing with a simple configuration in which parts of music data are specified by time, and the efficiency of data processing can be improved.

また、特性認識手段352は、楽曲データの少なくとも1つの曲調を認識すると、メモリ340に記憶された基準となる様々な曲調に関するデータを認識する。そして、認識した楽曲データの曲調と、基準となる曲調とを比較することにより楽曲データの曲調ポイントを認識する。また、楽曲関連情報生成手段353は、特性認識手段352にて認識された楽曲データの少なくとも1つの曲調についての曲調ポイントに関する曲調ポイント情報514Bを生成する。そして、パート特定情報514Aと、曲調ポイント情報514Bと、を1つのデータ構造として関連付けて構成したパート情報514を生成する。このため、楽曲データの様々な曲調を曲調ポイントとして管理するので、曲調ポイントに基づいた様々な情報処理を実現でき、楽曲再生装置300の用途を拡大することができる。さらに、各パートと各パートにおける曲調ポイントとを互いに関連付けて管理することにより情報処理の簡易化および効率化が図れる。   Further, when the characteristic recognizing means 352 recognizes at least one music tone of the music data, it recognizes data relating to various music tones that are stored in the memory 340 as a reference. Then, the music tone point of the music data is recognized by comparing the music tone of the recognized music data with the standard music tone. The music related information generation unit 353 generates music tone point information 514 </ b> B related to the music tone point for at least one music tone of the music data recognized by the characteristic recognition unit 352. Then, part information 514 configured by associating the part specifying information 514A and the music tone point information 514B as one data structure is generated. For this reason, since various tunes of music data are managed as tune points, various information processing based on the tune points can be realized, and applications of the music playback device 300 can be expanded. Furthermore, by managing each part and the music tone point in each part in association with each other, it is possible to simplify and improve the efficiency of information processing.

そして、画面生成手段355は、楽曲データ特定情報511に関連付けられた複数の曲調ポイント情報514Bに基づいて、少なくとも1つのパートを有する楽曲データの全ての曲調ポイントを認識する。そして、楽曲データの全てのパートにおける曲調ポイントを曲調毎に加算し、1つの楽曲に含まれる複数の曲調の全体曲調ポイントをそれぞれ認識する。そして、認識した全体曲調ポイントを例えば図5に示すようなプレイリスト画面600に盛り込んでタッチパネル320に表示させる。このため、1つの楽曲データにおいてどのような曲調が含まれているのかを認識できるのに留まらず、それぞれの曲調がどれだけ含まれているかを視覚で捉えることができる。したがって、所望の楽曲データを検索する際の検索の効率化が図れ、利用者の利便性を向上できる。   Then, the screen generation unit 355 recognizes all the music tone points of the music data having at least one part based on the plurality of music tone point information 514B associated with the music data specifying information 511. Then, the music tone points in all parts of the music data are added for each music tone, and the overall music tone points of a plurality of music tones included in one music are recognized. Then, the recognized whole music tone points are included in a playlist screen 600 as shown in FIG. For this reason, it is not only possible to recognize what kind of tone is included in one piece of music data, but it is possible to visually grasp how much each tone is included. Therefore, the search efficiency when searching for desired music data can be improved, and the convenience for the user can be improved.

また、楽曲関連情報生成手段353は、入力認識手段351にて所定のパートの曲調情報514Cについて設定変更する旨の曲調の設定要求が認識されると、設定要求された代表的な曲調を記載した曲調情報514Cを生成し、パート特定情報514Aと、曲調情報514Cと、を1つのデータ構造として関連付けて構成したパート情報514を生成する。このため、例えば、利用者が所定の楽曲データの所定のパートを聴いている際、特性認識手段352にて自動的に認識された代表的な曲調と現在聴いているパートの曲調とが矛盾していると利用者が判断した場合、利用者が、現在聴いているパートの曲調に基づいて、現在聴いているパートの代表的な曲調を設定変更することができる。したがって、所定のパートの代表的な曲調をより利用者の感性に近づけることができ、さらに後に再生する楽曲データを曲調で検索する場合にも正確な検索が実現できる。   In addition, the music related information generating unit 353 describes the representative tone of the setting requested when the input recognizing unit 351 recognizes the tone setting information for changing the setting of the tone information 514C of the predetermined part. Musical tone information 514C is generated, and part information 514 configured by associating part specifying information 514A and musical tone information 514C as one data structure is generated. For this reason, for example, when the user is listening to a predetermined part of predetermined music data, the typical music tone automatically recognized by the characteristic recognition means 352 and the music tone of the currently listening part are inconsistent. The user can change the setting of the representative tune of the currently listening part based on the tune of the currently listening part. Therefore, the typical tune of a predetermined part can be brought closer to the user's sensibility, and an accurate search can be realized even when searching for music data to be reproduced later by tune.

そして、再生制御手段354Bは、入力認識手段351にて認識された所定の楽曲データまたは所定のパートを再生する旨の再生要求に基づき、パート情報514に基づいて所定の楽曲データまたは所定のパートを再生させる。このため、楽曲データを検索して再生させる場合に、例えば、特定の曲調、特定のキーワード、特定のジャンルなどで条件を絞り込んで検索して、再生するなど様々な再生が実現できる。したがって、利用者の気分に合致した好適な楽曲データの再生を実現できる。   Then, the reproduction control unit 354B generates the predetermined music data or the predetermined part based on the part information 514 based on the reproduction request for reproducing the predetermined music data or the predetermined part recognized by the input recognition unit 351. Let it play. For this reason, when music data is searched for and played back, for example, various playbacks can be realized such as searching and playing back by narrowing down conditions using a specific music tone, a specific keyword, a specific genre, and the like. Therefore, it is possible to realize reproduction of suitable music data that matches the user's mood.

さらに、画面生成手段355は、入力認識手段351により所定の楽曲データの再生要求が認識されると、例えば図6に示す再生画面700をタッチパネル320に表示させる。このため、例えば、所定の楽曲データを聴いている際、現在再生しているパートの曲調などを視覚で認識することができる。また、現在再生しているパートの曲調ポイントと対応する状態で表示することにより、現在再生しているパートの曲調に見合った様々な視覚効果が実現できる。したがって、利用者は、現在聴いている楽曲データを、視覚および聴覚のいずれからも楽しむことができる。   Further, when the input recognition unit 351 recognizes a reproduction request for predetermined music data, the screen generation unit 355 displays a reproduction screen 700 shown in FIG. For this reason, for example, when listening to predetermined music data, it is possible to visually recognize the tone of the currently reproduced part. In addition, by displaying in a state corresponding to the tone point of the currently playing part, various visual effects corresponding to the tone of the currently playing part can be realized. Therefore, the user can enjoy the music data currently being listened to both visually and auditorily.

そして、画面生成手段355は、再生制御手段354Bの制御により再生中の楽曲データのパートに関連付けられた曲調情報514Cを表示させる。また、再生画面700に現在再生中のパートの代表的な曲調を所定の曲調に設定するための曲調設定領域731を表示させる。そして、タッチパネル320の表示面に表示された曲調設定領域731におけるいずれかの表示を利用者が触れることにより、入力認識手段351は再生中の所定のパートの曲調情報514Cを設定変更する旨の曲調の設定要求を認識する。そして、楽曲関連情報生成手段353は、入力認識手段351にて認識された曲調の設定入力信号に基づいて、再生中のパートにおける曲調を所定の曲調に変更した曲調情報514Cをパート特定情報514Aに関連付けてパート情報514を生成する。このため、所定の楽曲データにおける所定のパートの再生中にそのパートの代表的な曲調を変更する設定をする場合、タッチパネル320の表示面に曲調設定領域731が表示されており、この曲調設定領域731におけるいずれかの曲調についての表示を利用者が触れることにより再生中のパートの代表的な曲調が変更される。したがって、利用者は所定のパートを聞きかつ再生画面700を見ながら、所定のパートにおける代表的な曲調の設定をタッチパネル320の画面上で容易にできるので、利用者の利便性を向上できる。   Then, the screen generation means 355 displays music tone information 514C associated with the part of the music data being played under the control of the playback control means 354B. In addition, a music tone setting area 731 for setting a typical music tone of a currently reproduced part to a predetermined music tone is displayed on the reproduction screen 700. Then, when the user touches any display in the music tone setting area 731 displayed on the display surface of the touch panel 320, the input recognizing unit 351 sets the music tone information 514C of the predetermined part being reproduced. Recognize setting requests. Then, the music related information generation unit 353 changes the music tone information 514C obtained by changing the music tone of the part being reproduced to a predetermined music tone based on the music tone setting input signal recognized by the input recognition unit 351 to the part specifying information 514A. The part information 514 is generated in association with each other. For this reason, when setting to change the representative tune of a predetermined part during reproduction of a predetermined part in the predetermined music data, the tune setting area 731 is displayed on the display surface of the touch panel 320, and this tune setting area When the user touches the display about one of the tunes in 731, the representative tune of the part being played is changed. Therefore, since the user can easily set the representative tone of the predetermined part on the screen of the touch panel 320 while listening to the predetermined part and watching the playback screen 700, the convenience of the user can be improved.

また、画面生成手段355は、再生制御手段354Bの制御により所定の楽曲データが再生されている際、再生画面700において、所定の楽曲データの複数のパートに関連付けられた曲調情報514Cを楽曲データの再生時間順に並べた曲調領域722を表示させる。これと共に、現在再生位置領域725を楽曲データの再生時間と対応させて楽曲データの先端部から最後部へ向かう方向に移動する状態で表示する。このため、各パートの代表的な曲調を示す表示が再生時間順に並べて表示され、かつ現在再生位置領域725により現在再生中のパートが示されているので、複数のパートのうち現在再生中のパートの代表的な曲調を視覚で容易に捉えることができる。また、利用者が再生中のパートの代表的な曲調を変更する設定をする場合、現在再生位置領域725と同一画面上に表示された曲調設定領域731におけるいずれかの曲調を選択することにより、再生中のパートの代表的な曲調が変更される。したがって、利用者は、現在再生中のパートがどのパートであるかを確実に把握できるので、代表的な曲調を変更する際に設定の対象となるパートを間違うことなく設定できる。   Further, when the predetermined music data is being played under the control of the playback control means 354B, the screen generating means 355 displays the music tone information 514C associated with a plurality of parts of the predetermined music data on the playback screen 700. A music tone area 722 arranged in the order of playback time is displayed. At the same time, the current playback position area 725 is displayed in a state where the current playback position area 725 is moved in the direction from the front end to the rear end of the music data in correspondence with the playback time of the music data. For this reason, since the display showing the representative tune of each part is displayed side by side in the order of playback time, and the part currently being played back is indicated by the current playback position area 725, the part currently being played out of a plurality of parts. It is possible to easily grasp the representative tunes of the visual. In addition, when the user sets to change the representative tune of the part being played, by selecting any tune in the tune setting area 731 displayed on the same screen as the current playback position area 725, The typical tune of the part being played is changed. Therefore, since the user can surely understand which part is currently being reproduced, the user can set the part to be set without mistake when changing the representative tune.

そして、楽曲データ記憶手段330は、複数の楽曲データを記憶する。また、楽曲関連情報生成手段353は、入力認識手段351にて認識されたキーワードの設定要求に基づいてキーワード情報514Dを生成する。そして、再生対象認識手段354Aは、入力認識手段351にて認識された所定のキーワードに対応する楽曲データを検索する旨の要求に基づいて、所定のキーワードが設定されたパートを有する楽曲データを楽曲データ記憶手段330から検索する。さらに、再生制御手段354Bは、再生対象認識手段354Aにて検索された楽曲データにおける所定のキーワードが設定されたパートを再生させる。このため、所定の楽曲データの所定のパートに、特性認識手段352にて自動認識された曲調以外に、利用者の主観的なイメージであるキーワードを設定することができる。そして、利用者が、楽曲データ記憶手段330に記憶された複数の楽曲データにおけるそれぞれのパートのうち、例えば「懐かしい」キーワードに関連付けられたパートを検索し、様々な楽曲データの利用者が懐かしいと思うパートのみを再生することができる。したがって、利用者の嗜好に合致した楽曲データの再生を実現できる。   The music data storage means 330 stores a plurality of music data. The music related information generation unit 353 generates the keyword information 514D based on the keyword setting request recognized by the input recognition unit 351. Then, the reproduction target recognizing unit 354A plays music data having a part in which the predetermined keyword is set based on a request for searching for music data corresponding to the predetermined keyword recognized by the input recognizing unit 351. Search from the data storage means 330. Further, the reproduction control unit 354B reproduces a part in which a predetermined keyword is set in the music data searched by the reproduction target recognition unit 354A. For this reason, a keyword that is a subjective image of the user can be set in a predetermined part of predetermined music data in addition to the music tone automatically recognized by the characteristic recognition unit 352. Then, the user searches for a part associated with the “nostalgic” keyword, for example, among the parts in the plurality of music data stored in the music data storage means 330, and the user of various music data is nostalgic. Only the part you want can be played. Therefore, reproduction of music data that matches the user's preference can be realized.

また、画面生成手段355は、現在再生中の所定のパートを示す第2再生楽曲表示領域720と共に、現在再生中の楽曲データのパートに所定のキーワードを関連付けて設定するためのキーワード設定領域732を表示させる。また、タッチパネル320の表示面に表示されたキーワード設定領域732におけるいずれかの表示を利用者が触れることにより、入力認識手段351は、再生中の所定のパートのキーワード情報514Dを設定する旨のキーワードの設定要求を認識する。そして、楽曲関連情報生成手段353は、入力認識手段351にて認識されたキーワードの設定入力信号に基づいて、再生中のパートに対応するパート特定情報514Aに所定のキーワードに関するキーワード情報514Dを関連付けてパート情報514を生成する。このため、所定の楽曲データにおける所定のパートの再生中にそのパートのキーワードを設定する場合、タッチパネル320の表示面にキーワード設定領域732が表示されており、このキーワード設定領域732におけるいずれかのキーワードについての表示を利用者が触れることにより再生中のパートのキーワードが設定される。したがって、利用者は所定のパートを聞きかつ再生画面700を見ながら、所定のパートにおけるキーワードの設定をタッチパネル320の画面上で容易にできるので、利用者の利便性を向上できる。   In addition, the screen generating means 355 includes a keyword setting area 732 for setting a predetermined keyword in association with the part of the currently reproduced music data, together with the second reproduced music display area 720 indicating the predetermined part currently being reproduced. Display. Further, when the user touches any display in the keyword setting area 732 displayed on the display surface of the touch panel 320, the input recognizing unit 351 sets the keyword information 514D of the predetermined part being reproduced. Recognize the setting request. Then, based on the keyword setting input signal recognized by the input recognition unit 351, the music related information generation unit 353 associates the keyword information 514D related to the predetermined keyword with the part specifying information 514A corresponding to the part being reproduced. Part information 514 is generated. For this reason, when setting a keyword of a part during playback of a predetermined part in predetermined music data, the keyword setting area 732 is displayed on the display surface of the touch panel 320, and any keyword in the keyword setting area 732 is displayed. When the user touches the display for, the keyword of the part being reproduced is set. Therefore, the user can easily set the keyword in the predetermined part on the screen of the touch panel 320 while listening to the predetermined part and watching the reproduction screen 700, so that the convenience of the user can be improved.

そして、画面生成手段355は、所定の楽曲データの再生中に、再生画面700に楽曲データの再生位置に関する現在再生位置領域725を表示させる。そして、この現在再生位置領域725の略矩形状の枠中には、曲調情報514Cに基づいて最大音量が表示され、計時手段356により計時された現在の再生時間が表示される。このため、利用者は、現在再生中のパートにおける最大音量がどのように設定されているかを利用者は予め視覚で把握することができる。そして、例えばスピーカのボリュームレベルと現在利用者が聴認しているボリュームレベルとを適宜調整することにより、利用者が再生中のパートにおける最大音量となる部分を視聴した際に、予想外の音量に驚かされるなどの問題を防止することができる。また、例えば、楽曲再生システム100を車両などの移動体に設けた構成の場合、運転者が再生中のパートにおける最大音量となる部分を視聴した際に、予想外の音量に驚かされて運転に支障をきたすなどの問題を予め防止することができる。さらに、再生画面700において現在再生している楽曲データがいずれのパートで現在の再生位置が楽曲データの先端部からの時間がどの辺りなのかを視覚で一度に捉えることができる。したがって、利用者が再生画面700を見た際、現在の再生状況を容易に把握できるので、利便性が向上する。   Then, the screen generation means 355 displays the current playback position area 725 relating to the playback position of the music data on the playback screen 700 during the playback of the predetermined music data. In the substantially rectangular frame of the current playback position area 725, the maximum volume is displayed based on the tune information 514C, and the current playback time measured by the clock means 356 is displayed. For this reason, the user can visually grasp in advance how the maximum volume of the currently reproduced part is set. Then, for example, by appropriately adjusting the volume level of the speaker and the volume level currently being listened to by the user, an unexpected volume when the user views the maximum volume of the part being played back. You can prevent problems such as being surprised. Further, for example, in the case where the music playback system 100 is provided in a moving body such as a vehicle, when the driver views the part of the part being played that has the maximum volume, the driver is surprised by the unexpected volume and starts driving. Problems such as troubles can be prevented in advance. Further, it is possible to visually grasp which part of the music data currently being played back on the playback screen 700 and which time the current playback position is from the leading end of the music data are at a time. Therefore, when the user views the playback screen 700, the current playback status can be easily grasped, and convenience is improved.

また、再生対象認識手段354Aは、入力認識手段351にて曲調スキップ要求が認識されると、現在再生中のパートの前後いずれかのパートを再生対象として認識する。そして、再生制御手段354Bは、再生対象認識手段354Aが現在再生中のパートの前後いずれかのパートを再生対象として認識すると、現在再生中のパートに変えて再生対象認識手段354Aで認識された再生対象に対応するパートの再生を開始させる。このため、利用者は、現在視聴中の楽曲データのパートの曲調が気分に合わないと感じた場合などに、例えば再生画面700に表示された曲調先送りボタン741または曲調前戻りボタン742を選択することにより、現在再生中のパートの前後のパートを再生することができる。したがって、楽曲データの曲調で再生をスキップする再生方法を実現できる。   Further, when the input recognition unit 351 recognizes the music tone skip request, the reproduction target recognition unit 354A recognizes any part before or after the part currently being reproduced as a reproduction target. Then, when the reproduction target recognition unit 354A recognizes any part before or after the part currently being reproduced as a reproduction target, the reproduction control unit 354B changes to the part currently being reproduced and reproduces the reproduction recognized by the reproduction target recognition unit 354A. Start playing the part corresponding to the target. For this reason, when the user feels that the tune of the part of the music data currently being viewed does not suit his / her mood, for example, the user selects the tune key forward button 741 or the tune key previous return button 742 displayed on the playback screen 700. Thus, the parts before and after the part currently being reproduced can be reproduced. Therefore, it is possible to realize a playback method that skips playback in the tone of music data.

さらに、楽曲関連情報500は、楽曲データ記憶手段330に記憶された複数の楽曲データに対応する楽曲個別情報510を備えている。再生対象認識手段354Aは、入力認識手段351にてしりとり再生要求が認識されると、現在再生中の楽曲データにおける後端のパートに関連付けられた曲調情報514Cを認識する。そして、先端のパートに関連付けられた曲調情報514Cの代表的な特性が認識した後端のパートの代表的な特性と略同一の楽曲データに対応する楽曲個別情報510を楽曲関連情報500からランダムに検索する。さらに、検索した楽曲データを現在再生中の楽曲データの再生が終了した直後に再生させる次の再生対象であると認識する。そして、再生制御手段354Bは、再生中の楽曲データの再生が終了すると、再生対象認識手段354Aで認識された次の再生対象となる楽曲データの再生を開始させる。
このため、例えば、利用者は、しりとり再生を要求して所定の楽曲データを聴き、その楽曲データの後端の代表的な曲調が例えば「明るい」曲調であった場合、次に再生される楽曲データが明るい曲調から始まるので、何度も聴いたことのある楽曲データでも楽しく聴くことができる。また、しりとり再生は楽曲データの先端部および後端部における曲調でリレー方式に連続して再生されるので、変化に富んだ楽曲データの再生が実現できる。
Furthermore, the music related information 500 includes music individual information 510 corresponding to a plurality of music data stored in the music data storage means 330. When the input recognition unit 351 recognizes the shiritori reproduction request, the reproduction target recognition unit 354A recognizes the tune information 514C associated with the rear end part of the currently reproduced music data. Then, the music individual information 510 corresponding to the music data substantially the same as the representative characteristic of the rear end part recognized by the representative characteristic of the music tone information 514C associated with the leading part is randomly selected from the music related information 500. Search for. Further, the retrieved music data is recognized as the next reproduction target to be reproduced immediately after the reproduction of the currently reproduced music data is completed. Then, when the reproduction of the music data being reproduced is finished, the reproduction control unit 354B starts reproduction of the music data to be reproduced next recognized by the reproduction target recognition unit 354A.
For this reason, for example, when a user listens to predetermined music data by requesting shiritori reproduction and the typical music tone at the rear end of the music data is, for example, “bright” music, the music to be reproduced next Since the data starts with a bright tone, you can enjoy listening to music data that you have heard many times. In addition, shiritori reproduction is continuously reproduced in a relay manner with the music tone at the leading end and rear end of the music data, so that reproduction of music data rich in change can be realized.

そして、楽曲関連情報500は、楽曲データ記憶手段330に記憶された複数の楽曲データに対応する楽曲個別情報510を備えている。そして、再生対象認識手段354Aは、入力認識手段351にてフィーリングプレイ要求が認識されると、楽曲関連情報500に組み込まれた楽曲個別情報510の中から、特定の曲調を含む曲調情報514Cと関連付けられた楽曲個別情報510を全て検索する。さらに、検索した特定の曲調を含むパートの全てを再生対象として認識する。そして、再生制御手段354Bは、再生対象認識手段354Aが所定の曲調のパートを再生対象として認識すると、再生対象認識手段354Aで認識された全ての再生対象と対応する楽曲データのパートを連続的に再生する。
このため、利用者は、例えば「静かな」曲調でフィーリングプレイ要求した場合、楽曲データ記憶手段330に記憶された複数の楽曲データのうち静かなパートのみが連続的に再生されるので、利用者の気分に合致した再生が実現できる。したがって、利用者が聴きたい曲調を指定して再生された楽曲データの中に、利用者がイメージした曲調とは異なる部分が含まれることを防止することができる。
The music related information 500 includes music individual information 510 corresponding to a plurality of music data stored in the music data storage means 330. Then, when the input recognition unit 351 recognizes the feeling play request, the reproduction target recognition unit 354A includes music tone information 514C including a specific music tone from the music individual information 510 incorporated in the music related information 500. All the associated music individual information 510 is searched. Further, all the parts including the searched specific music tone are recognized as reproduction targets. Then, when the reproduction target recognizing unit 354A recognizes a part having a predetermined musical tone as a reproduction target, the reproduction control unit 354B continuously selects music data parts corresponding to all the reproduction targets recognized by the reproduction target recognition unit 354A. Reproduce.
For this reason, for example, when a user makes a feeling play request in a “quiet” tune, only a quiet part of a plurality of pieces of music data stored in the music data storage unit 330 is continuously reproduced. Reproduction that matches the mood of the user. Therefore, it is possible to prevent the music data reproduced by designating the music tone that the user wants to listen to from including a portion different from the music tone imagined by the user.

また、特性認識手段352は、楽曲データの複数のパートのうちサビとなるパートを認識する。そして、楽曲関連情報生成手段353は、所定のパートがサビであるか否かを示すサビフラグ情報514Eを生成する。また、再生対象認識手段354Aは、入力認識手段351にてフィーリングダイジェストプレイ要求が認識されると、特定の曲調の曲調情報514Cと関連付けられたサビとなるパートを含む楽曲データを楽曲データ記憶手段330から検索する。そして、検索したサビとなるパートのうち所定の曲調のパートの全てを再生対象として認識する。また、再生制御手段354Bは、再生対象認識手段354Aにて再生対象が認識されると、再生対象認識手段354Aで認識された全ての再生対象に対応する楽曲データのパートを連続的に再生する。
このため、利用者は、例えば「ノリが良い」曲調でフィーリングダイジェストプレイ要求をした場合、楽曲データ記憶手段330に記憶された複数の楽曲データのサビとなるパートのうちノリが良いパートのみが連続的に再生されるので、利用者の気分に合致した再生が実現できる。したがって、利用者が聴きたい曲調でかつ楽曲データの中で最も盛り上がるサビとなるパートが連続して再生されるので、楽曲データを存分に楽しむことができる。
Further, the characteristic recognizing means 352 recognizes a chorus part among a plurality of parts of the music data. Then, the music related information generating unit 353 generates rust flag information 514E indicating whether or not the predetermined part is rust. Further, when the input recognition unit 351 recognizes the feeling digest play request, the reproduction target recognition unit 354A stores the music data including the chorus part associated with the music tone information 514C of a specific music tone as music data storage means. Search from 330. Then, all of the parts having a predetermined musical tone among the searched parts to be rusted are recognized as reproduction targets. Further, when the reproduction target recognition unit 354A recognizes the reproduction target, the reproduction control unit 354B continuously reproduces the music data parts corresponding to all the reproduction targets recognized by the reproduction target recognition unit 354A.
For this reason, for example, when a user makes a feeling digest play request with a “good sound” music tone, only a part with a good score is selected from the parts that become rust of a plurality of music data stored in the music data storage unit 330. Since it is continuously played back, playback that matches the user's mood can be realized. Therefore, since the part that is the climax that the user wants to listen to and becomes the most exciting in the music data is continuously played, the music data can be fully enjoyed.

さらに、特性認識手段352は、コンテンツデータとしての楽曲データの曲調を認識し、認識した曲調に基づいて楽曲データにおける曲調が異なる区間をパートとして認識する。このため、画像データなどのデータ容量の大きなコンテンツデータの特性を認識するのに比較して、比較的データ容量の小さな楽曲データの曲調を認識するので、曲調を認識する処理に多くの時間を費やすことを防ぐことができる。   Further, the characteristic recognizing means 352 recognizes the tune of the music data as the content data, and recognizes a section having a different tune in the music data based on the recognized tune as a part. For this reason, compared to recognizing the characteristics of content data having a large data capacity such as image data, the music tone of the music data having a relatively small data capacity is recognized, so that a lot of time is spent on the process of recognizing the music tone. Can be prevented.

そして、処理部350を例えばCPU(Central Processing Unit)などを用いてプログラムとして構成しているので、プログラムをインストールすることで、コンテンツデータの特性を良好に認識できる構成が容易に得られ、利用の拡大が容易に図れる。さらには、そのプログラムを記録媒体に記録し、処理部350、すなわちコンピュータに読み取らせる構成とすることで、コンテンツデータの特性を良好に認識できる構成が得られるとともに、プログラムを容易に取り扱いでき、利用の拡大が容易にできる。なお、本発明における演算手段としては、1つのコンピュータに限らず、複数のコンピュータをネットワーク状に組み合わせた構成、上述したようなCPUやマイクロコンピュータなどの素子、あるいは複数の電子部品が搭載された回路基板などをも含む。   Since the processing unit 350 is configured as a program using, for example, a CPU (Central Processing Unit) or the like, by installing the program, it is possible to easily obtain a configuration capable of recognizing the characteristics of the content data and use it. Enlargement is easy. Furthermore, by recording the program on a recording medium and allowing the processing unit 350, that is, the computer to read the program, it is possible to obtain a configuration in which the characteristics of the content data can be recognized well, and the program can be easily handled and used. Can be easily expanded. The calculation means in the present invention is not limited to a single computer, but a configuration in which a plurality of computers are combined in a network, an element such as a CPU or a microcomputer as described above, or a circuit on which a plurality of electronic components are mounted. Also includes substrates.

また、楽曲関連情報500は、楽曲データ記憶手段330に記憶された複数の楽曲データに対応する楽曲個別情報510を備えている。そして、再生対象認識手段354Aは、入力認識手段351にて所定の特性のパートを有する楽曲データを再生する旨の再生要求が認識されると、楽曲関連情報500から所定の特性のパートを有する楽曲データに対応する楽曲個別情報510を検索する。このため、利用者が、楽曲データ記憶手段330に記憶された複数の楽曲データにおけるそれぞれのパートのうち、例えば「明るい」曲調のパートを検索し、様々な楽曲データの明るい曲調のパートのみを再生することができる。したがって、利用者の気分に合致した楽曲データの再生を実現できる。   The music related information 500 includes music individual information 510 corresponding to a plurality of music data stored in the music data storage means 330. When the input recognition unit 351 recognizes a reproduction request for reproducing music data having a part having a predetermined characteristic, the reproduction target recognition unit 354A recognizes a music having a part having a predetermined characteristic from the music related information 500. The music individual information 510 corresponding to the data is searched. For this reason, the user searches, for example, a “bright” tone part among the parts of the plurality of song data stored in the song data storage means 330, and reproduces only the bright tone part of various song data. can do. Therefore, it is possible to realize reproduction of music data that matches the user's mood.

そして、プレイリスト画面600において、個別楽曲情報領域630は、特定したプレイリストに登録された楽曲データの数分だけ画面列方向に並列して設けられる。そして、個別楽曲情報領域630における明るい曲調ポイント領域632と、悲しい曲調ポイント領域633と、ノリが良い曲調ポイント領域634と、静かな曲調ポイント領域635とは、曲調ポイント項目領域620における明るい領域621と、悲しい領域622と、ノリが良い領域623と、静かな領域624とに、それぞれ対応する位置に設けられている。このため、プレイリスト画面600において、それぞれの楽曲データの各曲調における全体曲調ポイントが比較容易な状態に表示されているので、利用者は一目でそれぞれの楽曲データにおける曲調の差異を把握することができる。   In the playlist screen 600, the individual music information area 630 is provided in parallel in the screen row direction by the number of pieces of music data registered in the specified playlist. The bright music tone point area 632, the sad music tone point area 633, the good music tone point area 634, and the quiet music tone point area 635 in the individual music information area 630 are the bright area 621 in the music tone point item area 620. The sad region 622, the smooth region 623, and the quiet region 624 are provided at corresponding positions. For this reason, in the playlist screen 600, since the overall music tone points in each music tone of each music data are displayed in an easily comparable state, the user can grasp the difference in music tone in each music data at a glance. it can.

さらに、再生画面700におけるジャンル設定領域733には、複数種のジャンルが表示されており、タッチパネル320の表示面におけるいずれかの表示を利用者が触れることにより、入力認識手段351は、再生中の楽曲データのジャンル情報513を設定変更する旨のジャンルの設定要求を認識する。そして、このジャンルの設定要求に基づいて、楽曲関連情報生成手段353により所定の楽曲データのジャンル情報513が生成され、画面生成手段355によりジャンル領域724の表示が変更される。このため、例えば、特性認識手段352にて認識された楽曲データのジャンルが誤っている場合や、特性認識手段352にて認識された楽曲データのジャンルを利用者のイメージするジャンルに変更を設定する場合など、楽曲データのジャンルを利用者が任意に設定できるので利便性を向上できる。   Furthermore, a plurality of types of genres are displayed in the genre setting area 733 on the playback screen 700. When the user touches any display on the display surface of the touch panel 320, the input recognition unit 351 causes the input recognition unit 351 to be playing back. The genre setting request for changing the genre information 513 of the music data is recognized. Based on the genre setting request, the music related information generating unit 353 generates genre information 513 of predetermined music data, and the screen generating unit 355 changes the display of the genre area 724. For this reason, for example, when the genre of the music data recognized by the characteristic recognizing means 352 is incorrect, or the genre of the music data recognized by the characteristic recognizing means 352 is set to a genre imaged by the user. In some cases, the user can arbitrarily set the genre of the music data, so the convenience can be improved.

また、画面生成手段355は、再生制御手段354Bの制御により所定の楽曲データが再生されている際、再生画面700において、再生中の所定の楽曲データの複数のパートの位置と対応する状態にキーワード領域723を表示させる。これと共に、現在再生位置領域725を楽曲データの再生時間と対応させて楽曲データの先端部から最後部へ向かう方向に移動する状態で表示する。このため、各パートを示す表示が再生時間順に並べて表示され、かつ現在再生位置領域725により現在再生中のパートが示されているので、複数のパートのうち現在再生中のパートを視覚で容易に捉えることができる。また、利用者が再生中のパートのキーワードを設定する場合、現在再生位置領域725と同一画面上に表示されたキーワード設定領域732におけるいずれかのキーワードを選択することにより、再生中のパートにキーワードが設定される。したがって、利用者は、現在再生中のパートがどのパートであるかを確実に把握できるので、キーワードを設定する際に設定の対象となるパートを間違うことなく設定できる。   In addition, when the predetermined music data is being played under the control of the playback control means 354B, the screen generating means 355 has a keyword in a state corresponding to the positions of a plurality of parts of the predetermined music data being played on the playback screen 700. A region 723 is displayed. At the same time, the current playback position area 725 is displayed in a state where the current playback position area 725 is moved in the direction from the front end to the rear end of the music data in correspondence with the playback time of the music data. For this reason, since the display showing each part is displayed side by side in the order of the playback time, and the part currently being played back is indicated by the current playback position area 725, the part currently being played back among the plurality of parts can be easily visually confirmed. Can be caught. In addition, when the user sets a keyword for the part being played back, the user selects a keyword in the keyword setting area 732 displayed on the same screen as the current playback position area 725, so that the keyword for the part being played back is selected. Is set. Therefore, since the user can surely understand which part is currently being reproduced, the user can set the part to be set without making a mistake when setting the keyword.

そして、現在再生位置領域725は、第2再生楽曲表示領域720の上側に設けられている。また、この現在再生位置領域725は、後述する計時手段356にて計時された時間情報に基づいて、楽曲データの再生時間と対応させて楽曲データの先端部から最後部へ向かう方向に移動する状態で表示される。さらに、現在再生位置領域725の略矩形状の枠中には、計時手段356により計時された現在の再生時間が表示される。このため、現在再生しているパートが楽曲全体のうちいずれのパートであるのかを容易に認識できる。また、現在再生位置と現在の再生時間とが略同一の箇所に表示されているので、現在再生位置と現在の再生時間とを一目で認識でき、確認時に視線を移動させる必要がない。   The current playback position area 725 is provided above the second playback music display area 720. Further, the current playback position area 725 moves in a direction from the front end to the rear end of the music data in correspondence with the playback time of the music data based on the time information timed by the clock means 356 described later. Is displayed. Further, in the substantially rectangular frame of the current reproduction position area 725, the current reproduction time measured by the time measuring means 356 is displayed. For this reason, it is possible to easily recognize which part of the entire music is the part currently being reproduced. Further, since the current playback position and the current playback time are displayed at substantially the same location, the current playback position and the current playback time can be recognized at a glance, and it is not necessary to move the line of sight at the time of confirmation.

さらに、例えば、楽曲再生システム100を車両などの移動体に設けた構成の場合、運転中にしりとり再生を要求すれば運転者が手で操作する必要がないので、操作の際に気を取られるなどの問題を防止することができ、連続的なしりとり再生を楽しむことができる。また、例えば、運転中に所定の曲調のフィーリングプレイを要求すれば運転者が手で操作する必要がなく、様々な楽曲データにおける所定の曲調のパートを楽しむことができる。この際、例えば、「明るい」曲調のフィーリングプレイを要求すれば、運転者は気分が明るくなり良好な運転ができるなど、運転者を精神的な面で支援する効果を実現できる。また、例えば、運転中に所定の曲調のフィーリングダイジェストプレイを要求すれば運転者が手で操作する必要がなく、様々な楽曲データの所定の曲調のサビを楽しむことができる。   Furthermore, for example, in the case of a configuration in which the music playback system 100 is provided on a moving body such as a vehicle, it is not necessary for the driver to operate by hand if he / she requests playback while driving, so he is distracted during the operation. Such problems can be prevented, and continuous shiretori reproduction can be enjoyed. Further, for example, if a feeling play of a predetermined music tone is requested during driving, the driver does not need to operate by hand, and a part of a predetermined music tone in various music data can be enjoyed. At this time, for example, if a feeling play of “bright” music tone is requested, the driver feels bright and can perform good driving, and thus the effect of assisting the driver mentally can be realized. In addition, for example, if a feeling digest play of a predetermined music tone is requested during driving, the driver does not have to operate by hand, and it is possible to enjoy rusting of a predetermined music tone of various music data.

〔実施の形態の変形〕
なお、本発明は上述した実施の形態に限定されるものではなく、本発明の目的を達成できる範囲で以下に示される変形をも含むものである。
[Modification of Embodiment]
In addition, this invention is not limited to embodiment mentioned above, The deformation | transformation shown below is included in the range which can achieve the objective of this invention.

本実施の形態では、特性認識手段352にて認識する曲調は、例えば和音要素やテンポ要素、音量要素などを例示したがこれに限らず、例えば、楽曲を演奏した楽器などの楽器要素など様々な音楽要素を認識する構成とすることができる。このような構成の場合、楽曲データのうち例えば「ピアノが多い」パートなどを検索して再生することができる。また、特性認識手段352にて認識する曲調は、「明るい」、「暗い」、「ノリが良い」、「静かな」についての4種の曲調を挙げたが、これに限らず、例えば「速い」、「遅い」、「神秘的である」、「音が大きい」、「音が小さい」、「重い」、「軽い」、「激しい」、「歌が多い」、など様々な曲調を認識することができ、認識する曲調が多いほど楽曲再生装置300は多彩な情報処理が可能となる。   In the present embodiment, the tune to be recognized by the characteristic recognition unit 352 is exemplified by a chord element, a tempo element, a volume element, and the like, but is not limited thereto. It can be set as the structure which recognizes a music element. In the case of such a configuration, it is possible to search for and reproduce, for example, a “many piano” part in the music data. The tunes recognized by the characteristic recognizing means 352 include four types of tunes of “bright”, “dark”, “good” and “quiet”. ”,“ Slow ”,“ Mysterious ”,“ Sound is loud ”,“ Sound is small ”,“ Heavy ”,“ Light ”,“ Intense ”,“ Song ”, etc. The music player 300 can perform various types of information processing as the number of tunes to be recognized increases.

特性認識手段352は、各曲調のうちいずれかの曲調の曲調ポイントが楽曲全体を通して大きく変化している変化位置を認識し、それぞれの曲調のうちいずれかの曲調の変化位置間における区間をパートとして認識するとしたが、これに限らない。すなわち、例えば、特性認識手段352は1つの曲調の変化位置を認識し、1つの曲調の変化位置間における区間をパートとして認識する構成などとしてもよい。このような構成の場合、認識する曲調が1つであるので、構成が簡略化され情報処理の迅速化が図れる。また、例えば、特性認識手段352は、所定の曲調の曲調ポイントが閾値を上回った部分を1つのパートとして認識する構成などとしてもよい。このような構成の場合、認識する曲調のうち閾値を上回った、すなわち顕著な特性の部分をパートとして認識しているので、例えば「特に明るい」パートなどを検索することができる。   The characteristic recognizing means 352 recognizes a change position where the tone point of any tone in each tone changes greatly throughout the whole song, and sets a section between the change positions of any tone as a part. Although it was recognized, it is not limited to this. That is, for example, the characteristic recognizing unit 352 may recognize a change position of one tune and recognize a section between the change positions of one tune as a part. In the case of such a configuration, since the number of tunes to be recognized is one, the configuration can be simplified and information processing can be speeded up. Further, for example, the characteristic recognizing means 352 may be configured to recognize, as one part, a portion where the music tone point of a predetermined music tone exceeds a threshold value. In the case of such a configuration, since a portion of the tune to be recognized that exceeds the threshold value, that is, a portion having a remarkable characteristic is recognized as a part, for example, a “particularly bright” part or the like can be searched.

さらに、特性認識手段352にてパートが自動認識されて、楽曲関連情報生成手段353にて生成されたパート特定情報514Aを、操作入力により変更可能な構成としてもよい。例えば再生画面700における曲調領域722に示されたそれぞれのパートの端部を操作入力により移動するなどして、パート特定情報514Aを変更する。また、曲調領域722に示されたパートとパートの境界を操作入力により消去したり、新たなパートを操作入力により付加するなどの構成としてもよい。このような構成の場合、例えば利用者が特性認識手段352にて認識されたパートが正確でないためパートの位置を変更したいと要求した場合に、パートの位置を正確に設定することができる。したがって、正確なパートの設定を実現できる。   Furthermore, the part identifying information 514 </ b> A generated by the music-related information generating unit 353 after the part is automatically recognized by the characteristic recognizing unit 352 may be changed by an operation input. For example, the part specifying information 514A is changed by moving the end of each part indicated by the music tone area 722 in the reproduction screen 700 by an operation input. Further, the configuration may be such that the part-to-part boundary shown in the music tone area 722 is deleted by operation input, or a new part is added by operation input. In such a configuration, for example, when the user requests to change the position of the part because the part recognized by the characteristic recognition unit 352 is not accurate, the position of the part can be set accurately. Therefore, accurate part setting can be realized.

また、特性認識手段352は、複数の曲調を認識する構成としたがこれに限らない。すなわち、例えば、楽曲データから1つの曲調のみを認識し、曲調ポイントを数段階にランク分けすることにより、例えば、「明るいパート」、「やや明るいパート」、「すごく明るいパート」など1つの曲調からパートを検索する構成としてもよい。さらに、図4などで示したように特性認識手段352が認識したパートは複数であるとしたが、これに限らない。すなわち、楽曲データが単調な曲である場合は、1つの楽曲データに対して1つのパートしか認識されない。なお、この場合でも、特性認識手段352は、1つのパートに複数の曲調を認識することができる。   Moreover, although the characteristic recognition means 352 was set as the structure which recognizes a some music tone, it is not restricted to this. That is, for example, by recognizing only one melody from music data and ranking the melody points in several stages, for example, “bright part”, “slightly bright part”, “very bright part”, etc. It is good also as a structure which searches a part. Further, as shown in FIG. 4 and the like, it is assumed that there are a plurality of parts recognized by the characteristic recognition unit 352, but the present invention is not limited to this. That is, when the music data is a monotone music, only one part is recognized for one music data. Even in this case, the characteristic recognizing means 352 can recognize a plurality of tunes in one part.

特性認識手段352は、楽曲データ記憶手段330に記録された楽曲データの少なくとも1つの曲調についての曲調ポイントを認識し、例えば曲調ポイントを0から100ポイントまでに設定するとしたがこれに限らない。すなわち、特性認識手段352は、曲調ポイントを0から10ポイント、あるいは数段階に亘るレベルとして認識するなどの構成としてもよい。このような構成の場合、特性認識手段352が認識する曲調ポイントが少なくて済むので情報処理が簡略化される。   The characteristic recognizing means 352 recognizes the music tone point for at least one music tone of the music data recorded in the music data storage means 330, and for example, the music tone point is set from 0 to 100 points, but this is not restrictive. That is, the characteristic recognizing means 352 may be configured to recognize the music tone point as 0 to 10 points or a level over several stages. In such a configuration, the number of music tone points recognized by the characteristic recognizing means 352 can be reduced, so that information processing is simplified.

本実施の形態において、処理部350から画像信号として送信される映像信号を表示させる手段としてタッチパネル320を採用したが、タッチパネル320でなくてもよい。このような構成の場合、例えば液晶表示パネルなどで処理部350から画像信号として送信される映像信号を表示させれば済み、楽曲再生装置300全体において種々の構成を減らせるので、楽曲再生装置300の製造に当たり製造コストを低減できる。   In the present embodiment, the touch panel 320 is used as a means for displaying a video signal transmitted as an image signal from the processing unit 350. However, the touch panel 320 may not be used. In such a configuration, for example, a video signal transmitted as an image signal from the processing unit 350 may be displayed on a liquid crystal display panel or the like, and various configurations can be reduced in the entire music playback device 300. Manufacturing cost can be reduced.

画面生成手段355は、図5に示すようなプレイリスト画面600を表示させる構成としたが、プレイリスト画面600を表示させない構成としてもよい。このような構成の場合、処理部350の処理負担を軽減することができるので処理速度の向上を図ることができる。   The screen generation unit 355 is configured to display the playlist screen 600 as shown in FIG. 5, but may be configured not to display the playlist screen 600. In such a configuration, the processing load on the processing unit 350 can be reduced, so that the processing speed can be improved.

画面生成手段355は、図5に示すようなプレイリスト画面600を表示する際、楽曲データ特定情報511に関連付けられた複数の曲調ポイント情報514Bに基づいて、それぞれ複数のパートを有する楽曲データの全ての曲調ポイントを認識する。そして、楽曲データの全てのパートにおける曲調ポイントを曲調毎に加算し、1つの楽曲に含まれる複数の曲調の全体曲調ポイントをそれぞれ認識する構成としたが、これに限らない。すなわち、例えば、特性認識手段352は、楽曲データの全てのパートにおける曲調ポイントを曲調毎に加算し、1つの楽曲データに含まれる複数の曲調の全体曲調ポイントをそれぞれ認識する。さらに、認識した複数の曲調の全体曲調ポイントをそれぞれ楽曲データの全再生時間で除算した絶対値としての平均曲調ポイントを認識して、この平均曲調ポイントをプレイリスト画面600の個別楽曲情報領域630にそれぞれ表示する構成としてもよい。このような構成の場合、複数の楽曲データをプレイリスト画面600に表示する場合、絶対値としての平均曲調ポイントを個別楽曲情報領域630にそれぞれ表示するので、それぞれの楽曲データの再生時間の違いによる全体曲調ポイントの著しい差を解消することができる。また、利用者は複数の楽曲データを比較することが容易にできる。   When the screen generating unit 355 displays the playlist screen 600 as shown in FIG. 5, all of the music data having a plurality of parts, respectively, based on the plurality of music tone point information 514 </ b> B associated with the music data specifying information 511. Recognize the melody point. And although it was set as the structure which adds the music tone point in all the parts of music data for every music tone, and recognizes the whole music tone point of the some music tone contained in one music, it is not restricted to this. That is, for example, the characteristic recognizing means 352 adds the tune points in all parts of the music data for each tune, and recognizes the overall tune points of a plurality of tunes included in one piece of music data. Further, an average music tone point is recognized as an absolute value obtained by dividing the overall music tone points of the plurality of music tones divided by the total playback time of the music data, and the average music tone points are recognized in the individual music information area 630 of the playlist screen 600. Each may be configured to display. In the case of such a configuration, when a plurality of music data is displayed on the playlist screen 600, the average music tone point as an absolute value is displayed in the individual music information area 630, so that it depends on the difference in the reproduction time of each music data. A significant difference in the overall music tone points can be eliminated. Further, the user can easily compare a plurality of music data.

画面生成手段355は、入力認識手段351により所定のプレイリストの表示要求が認識されると、例えば図5に示すようなプレイリスト画面600をタッチパネル320に表示させるとしたが、プレイリスト画面はこれに限定されるものではない。すなわち、画面生成手段355は、全体曲調ポイントに基づいて、例えば、図11に示すようなプレイリスト画面600Aを表示してもよい。図11において、プレイリスト画面600Aは、図5に示すプレイリスト画面600における曲調ポイント項目領域620と、個別楽曲情報領域630の構成が変更したものである。曲調ポイント項目領域620は、明るい領域621と、悲しい領域622と、ノリが良い領域623と、静かな領域624とに加えて、全体曲調領域625と、全体キーワード領域626と、を備えている。   When the input recognition unit 351 recognizes a display request for a predetermined playlist, the screen generation unit 355 displays a playlist screen 600 as shown in FIG. 5 on the touch panel 320, for example. It is not limited to. That is, the screen generation means 355 may display a playlist screen 600A as shown in FIG. 11, for example, based on the whole music tone points. 11, the playlist screen 600A is obtained by changing the configuration of the music tone point item area 620 and the individual music information area 630 in the playlist screen 600 shown in FIG. The music tone point item area 620 includes an overall music tone area 625 and an overall keyword area 626, in addition to a bright area 621, a sad area 622, an area with a good twist 623, and a quiet area 624.

全体曲調領域625には「全体曲調」と表示され、全体キーワード領域626には「全体キーワード」と表示される。個別楽曲情報領域630は、楽曲タイトル領域631と、明るい曲調ポイント領域632と、悲しい曲調ポイント領域633と、ノリが良い曲調ポイント領域634と、静かな曲調ポイント領域635とに加えて、全体曲調領域636と、全体キーワード領域637と、を備えている。明るい曲調ポイント領域632には、明るい曲調の全体曲調ポイントに基づいて例えば数段階の明るい顔などが表示される。また、悲しい曲調ポイント領域633には、悲しい曲調の全体曲調ポイントに基づいて例えば数段階の悲しい顔などが表示される。ノリが良い曲調ポイント領域634には、ノリが良い曲調の全体曲調ポイントに基づいて例えば数段階の人が走る状態などが表示される。静かな曲調ポイント領域635には、静かな曲調の全体曲調ポイントに基づいて例えば数段階の人が静止している状態などが表示される。全体曲調領域636は、例えば特性認識手段352にて所定の楽曲データにおける複数の曲調の全体曲調ポイントのうち最大の曲調を楽曲データの代表的な曲調であると認識された全体曲調などが表示される。全体キーワード領域637は、例えば特性認識手段352にて所定の楽曲データの複数のパートに設定されたキーワードのうち、頻出度の高いキーワードをその楽曲データの代表的なキーワードであると認識された全体キーワードなどが表示される。   “Overall melody” is displayed in the overall tune region 625, and “Overall keyword” is displayed in the overall keyword region 626. The individual music information area 630 includes an overall music tone area in addition to a music title area 631, a bright music tone point area 632, a sad music tone point area 633, a good music tone point area 634, and a quiet music tone point area 635. 636 and an entire keyword area 637. In the bright music tone point area 632, for example, several levels of bright faces are displayed based on the overall music tone points of the bright music tone. In the sad tune point area 633, for example, several stages of sad faces are displayed based on the overall tune point of the sad tune. In the melody point area 634 having a good flare, for example, a state in which several people run based on the overall tune point having a good flute is displayed. In the quiet music tone point area 635, for example, a state where several people are stationary is displayed based on the overall music tone point of the quiet music tone. The overall music tone area 636 displays, for example, the overall music tone in which the maximum music tone among the overall music tone points of the plurality of music tones in the predetermined music data is recognized as the representative music tone of the music data by the characteristic recognizing means 352. The In the entire keyword area 637, for example, among the keywords set in the plurality of parts of the predetermined music data by the characteristic recognizing means 352, a keyword having a high frequency of occurrence is recognized as a representative keyword of the music data. Keywords etc. are displayed.

このような構成の場合、楽曲データのそれぞれの曲調がアニメーション表示されているので、利用者は楽曲データがどのような曲調であるかを視覚で捉えることができ容易に理解できる。また、全体曲調や全体キーワードなども表示されているので楽曲データ全体がどのようなものであるかも理解できる。なお、それぞれの曲調の全体曲調ポイントに基づく表示は、図5に示す長尺矩形状による表示や、図11に示すアニメーション表示に限らず、例えば星の数で表示したり、曲調毎に色分けして表示するなど様々な表示形態を採用することができる。また、全体曲調領域636および全体キーワード領域637は図5に示したプレイリスト画面600にも表示する構成としてもよい。   In the case of such a configuration, the music tone of each piece of music data is displayed as an animation, so that the user can visually understand the tone of the music data and can easily understand it. Also, since the overall music tone and overall keywords are displayed, it is possible to understand what the overall music data is. In addition, the display based on the whole music tone point of each music tone is not limited to the long rectangular shape shown in FIG. 5 or the animation display shown in FIG. 11, for example, it is displayed by the number of stars, or is color-coded for each music tone. Various display forms such as display can be adopted. Further, the entire music tone area 636 and the entire keyword area 637 may be displayed on the playlist screen 600 shown in FIG.

再生画面700の曲調設定領域731におけるいずれかの曲調を利用者が選択することにより、再生中の所定のパートの曲調情報514Cを設定変更する旨の曲調の設定入力信号が生成される。そして、楽曲関連情報生成手段353は、入力認識手段351にて認識された曲調の設定入力信号に基づいて、再生中のパートにおける曲調を所定の曲調に変更した曲調情報514Cをパート特定情報514Aに関連付けてパート情報514を生成する構成としたが、これに限らない。すなわち、所定の楽曲データの所定のパートにおける代表的な曲調を設定変更する場合、再生画面700において実施するのみに限らず、楽曲データの再生を停止している状態で所定の設定メニューなどにより設定操作する構成などとしてもよい。また、画面生成手段355は、再生画面700を表示させない構成としてもよい。このような構成の場合、楽曲データの再生における処理を軽減できるので処理速度を向上できる。   When the user selects one of the tunes in the tune setting area 731 of the reproduction screen 700, a tune setting input signal for changing the setting of the tune information 514C of the predetermined part being reproduced is generated. Then, the music related information generation unit 353 changes the music tone information 514C obtained by changing the music tone of the part being reproduced to a predetermined music tone based on the music tone setting input signal recognized by the input recognition unit 351 to the part specifying information 514A. The part information 514 is generated in association with each other, but the present invention is not limited to this. That is, when changing the setting of the representative tune of the predetermined part of the predetermined music data, the setting is not limited to being performed on the playback screen 700, but is set by a predetermined setting menu in a state where the playback of the music data is stopped. It is good also as a structure to operate. Further, the screen generation means 355 may be configured not to display the playback screen 700. In the case of such a configuration, the processing speed can be improved because the processing in reproducing the music data can be reduced.

また、タッチパネル320の表示面に表示された再生画面700の曲調設定領域731と、キーワード設定領域732と、ジャンル設定領域733とにおけるいずれかの表示を触れることにより、各種情報の設定ができる構成としたがこれに限らない。すなわち、入力部310の各種操作ボタンやつまみなどにて入力操作し、例えば再生画面700に表示されたカーソルを移動させて各種情報を設定する構成としても構わない。このような構成の場合においても、再生中の再生画面700にて再生中のパートにおける曲調ポイント情報514Bや、曲調情報514Cを設定することができる。   Further, by touching any display in the music tone setting area 731, keyword setting area 732, and genre setting area 733 of the playback screen 700 displayed on the display surface of the touch panel 320, various information can be set. However, it is not limited to this. That is, a configuration may be adopted in which various types of information are set by performing an input operation using various operation buttons and knobs of the input unit 310 and moving a cursor displayed on the playback screen 700, for example. Even in such a configuration, it is possible to set music tone point information 514B and music tone information 514C for the part being played on the playback screen 700 being played.

画面生成手段355は、例えば図6に示す再生画面700をタッチパネル320に表示させるとしたが、再生中に表示する再生画面はこれに限らず、表示する情報およびその表示配置は適宜自由に設定できる。すなわち、例えば、第1再生楽曲表示領域710は、タイトル領域711と、曲調領域712と、再生時間領域713と、を備えているとしたがこれに限らず、タイトル領域711のみを表示させる構成や、さらに多くの情報を表示する構成としてもよい。また、例えば、第2再生楽曲表示領域720は、長尺が画面行方向に延びた長尺矩形状であるとしたがこれに限らず、少なくとも曲調領域722と、キーワード領域723と、を備え得る形状であればいずれの形状でも構わない。   For example, the screen generation unit 355 displays the playback screen 700 shown in FIG. 6 on the touch panel 320, but the playback screen displayed during playback is not limited to this, and the information to be displayed and the display arrangement thereof can be freely set as appropriate. . That is, for example, the first playback music display area 710 includes a title area 711, a music tone area 712, and a playback time area 713. However, the present invention is not limited thereto, and only the title area 711 is displayed. Further, it may be configured to display more information. Further, for example, the second playback music display area 720 has a long rectangular shape with a long length extending in the screen row direction, but is not limited thereto, and may include at least a music tone area 722 and a keyword area 723. Any shape may be used as long as it has a shape.

そして、現在再生位置領域725は、第2再生楽曲表示領域720の上側に設けられ、略矩形状の枠の一端側に矢印が形成された形状の領域であるとしたがこれに限らない。すなわち、現在再生位置領域725は、現在再生位置を示し得る形態であればいずれの形態でも採用できる。また、現在再生位置領域725の略矩形状の枠中に表示される情報も最大音量および現在の再生時間に限らず、現在再生中のパートの代表的な曲調や、キーワードなどの情報を表示する構成でもよい。さらに、現在再生中のパートの代表的な曲調や曲調ポイントに対応する状態に、曲調領域722のパート毎に仕切られた部分の色を変化させて表示し、これに合わせて現在再生位置領域725に表示する略矩形状の枠や表示される文字なども変化させて表示する構成などとしてもよい。このような構成の場合、現在再生中の曲調を反映させた状態で曲調領域722および現在再生位置領域725の色を変化させて表示するので、利用者は現在再生中の曲調がどのような曲調であるかを一見して把握することができる。   The current playback position area 725 is provided on the upper side of the second playback music display area 720 and is an area in which an arrow is formed on one end side of a substantially rectangular frame, but is not limited thereto. In other words, the current playback position area 725 can adopt any form as long as it can indicate the current playback position. Also, the information displayed in the substantially rectangular frame of the current playback position area 725 is not limited to the maximum volume and the current playback time, but displays information such as representative tunes and keywords of the part currently being played back. It may be configured. Further, the color of the part divided for each part of the music tone area 722 is displayed in a state corresponding to the representative music tone and music tone point of the part currently being played back, and the current playback position area 725 is displayed in accordance with this. A substantially rectangular frame to be displayed on the screen, characters to be displayed, and the like may be changed and displayed. In such a configuration, the color of the music tone area 722 and the current playback position area 725 is changed and displayed while reflecting the music tone currently being played back. At a glance.

さらに、設定領域730は、長尺が画面行方向に延びた略長尺矩形状の領域であるとしたがこれに限らず、少なくとも曲調設定領域731と、キーワード設定領域732と、を備え得る形状であればいずれの形状でも構わない。また、キーワード設定領域732には、利用者が独自で新たなキーワードを設定することを促す表示部を設けて、図6に示したキーワードの一例に限らず、その他のキーワードを設定可能な構成とすることができる。このような構成の場合、より利用者個人の嗜好を反映したキーワード設定ができる。 Further, the setting area 730 is a substantially long rectangular area whose length extends in the screen row direction. However, the setting area 730 is not limited thereto, and may have at least a music tone setting area 731 and a keyword setting area 732. Any shape is acceptable. Further, the keyword setting area 732 is provided with a display unit that prompts the user to set a new keyword independently, and is not limited to the example of the keyword shown in FIG. can do. In the case of such a configuration, it is possible to set a keyword that more reflects the personal preferences of the user.

また、画面生成手段355は、再生中に示す再生画面として例えば図12に示すような再生画面700Aとする構成としてもよい。再生画面700Aは、第1再生楽曲表示領域710と、第2再生楽曲表示領域720Aと、を備えている。第1再生楽曲表示領域710は、再生中の楽曲データのタイトルが表示されるタイトル領域711と、現在の再生時間が表示される再生時間領域713と、を備えている。第2再生楽曲表示領域720Aは、所定の楽曲データにおける現在再生している部分の複数の曲調の曲調ポイントと長尺の長さを対応させた長尺矩形が再生時間に連動して表示される。このような構成の場合、複数の曲調における曲調ポイントに基づいて、再生時間と共に長尺矩形が連動して動く状態にリアルタイムに表示されるので、再生時間と共に変動する曲調の変化を視覚で捉えることができる。したがって、音楽とともに連動して変化する表示を楽しむことができる。   Further, the screen generation means 355 may be configured as a reproduction screen 700A as shown in FIG. 12, for example, as the reproduction screen shown during reproduction. The reproduction screen 700A includes a first reproduction music display area 710 and a second reproduction music display area 720A. The first playback music display area 710 includes a title area 711 where the title of the music data being played back is displayed, and a playback time area 713 where the current playback time is displayed. In the second playback music display area 720A, a long rectangle in which the music tone points of a plurality of music tones and the long length of the currently playing portion of the predetermined music data are associated with the playback time is displayed. . In such a configuration, the long rectangle is displayed in real time in conjunction with the playback time based on the music tone points in a plurality of music tones, so the change in the music tone that fluctuates with the playback time can be captured visually. Can do. Therefore, it is possible to enjoy a display that changes in conjunction with music.

画面生成手段355は、再生中に示す再生画面として例えば、図13に示すような再生画面700Bとする構成としてもよい。図13に示す再生画面700Bは、図12における第2再生楽曲表示領域720Aの構成を第2再生楽曲表示領域720Bに変更したものであるので、同一の構成については説明を省略する。第2再生楽曲表示領域720Bには、楽曲データの曲調毎に三角形や円形などの所定の形状の図形が複数表示される。これらの図形は、その数が所定の楽曲データにおける現在再生している部分の複数の曲調の曲調ポイントと対応して再生時間に連動して増減して表示される。このような構成の場合も、再生している楽曲データにおける現在聴いている部分の複数の曲調における曲調ポイントが、図形の数が増減することによりリアルタイムで画面表示されるので、利用者は現在の再生部分の曲調の変化を視覚で捉えることができる。また、音楽とともに連動して変化する表示を楽しむことができる。   The screen generation means 355 may be configured as a playback screen 700B as shown in FIG. 13, for example, as a playback screen shown during playback. The playback screen 700B shown in FIG. 13 is obtained by changing the configuration of the second playback music display area 720A in FIG. 12 to the second playback music display area 720B, and thus the description of the same configuration is omitted. In the second reproduction music display area 720B, a plurality of figures having a predetermined shape such as a triangle or a circle are displayed for each music tone of music data. These figures are displayed in association with the playback time in association with the playback time corresponding to the music tone points of a plurality of music tones in the part currently being played back in the predetermined music data. Even in such a configuration, the music tone points in a plurality of music tones in the currently listened music data are displayed on the screen in real time as the number of figures increases or decreases, so that the user can The change in the tune of the playback part can be captured visually. It is also possible to enjoy a display that changes in conjunction with music.

画面生成手段355は、再生中に示す再生画面として例えば、図14に示すような再生画面700Cとする構成としてもよい。図14に示す再生画面700Bは、図12における第2再生楽曲表示領域720Aの構成を第2再生楽曲表示領域720Cに変更したものであるので、同一の構成については説明を省略する。第2再生楽曲表示領域720Cには、現在再生中楽曲データの各曲調の曲調ポイントをそれぞれの曲調ポイントに対応した座標軸にプロットして、各プロットを直線で繋いだ形状が表示される。そしてこの形状は、再生時間に連動して変化する状態で表示される。このような構成の場合も、再生している楽曲データにおける現在聴いている部分の複数の曲調における曲調ポイントが、図形の形状の変化によりリアルタイムで画面表示されるので、利用者は現在の再生部分の曲調の変化を視覚で捉えることができる。また、音楽とともに連動して変化する表示を楽しむことができる。なお、図14では4種の曲調ポイントに対応した軸が表示されているが、より多くの曲調の曲調ポイントに対応する軸を設けることにより、さらに多彩な表示が実現できる。   The screen generation unit 355 may be configured as a reproduction screen 700C as shown in FIG. 14, for example, as a reproduction screen shown during reproduction. The playback screen 700B shown in FIG. 14 is obtained by changing the configuration of the second playback music display area 720A in FIG. 12 to the second playback music display area 720C, and thus the description of the same configuration is omitted. In the second reproduction music display area 720C, a shape in which the music tone points of each music tone of the currently playing music data are plotted on the coordinate axes corresponding to the music tone points and the respective plots are connected by a straight line is displayed. This shape is displayed in a state that changes in association with the reproduction time. Even in such a configuration, the music point in a plurality of music tones in the currently listened music data is displayed on the screen in real time due to the change in the shape of the figure, so that the user can The change in the tone of the song can be captured visually. It is also possible to enjoy a display that changes in conjunction with music. In FIG. 14, axes corresponding to four types of music tone points are displayed. However, by providing axes corresponding to more music tone points, more various displays can be realized.

画面生成手段355は、再生中に示す再生画面として例えば、図15に示すような再生画面700Dとする構成としてもよい。図15に示す再生画面700Dは、図12における第2再生楽曲表示領域720Aの構成を第2再生楽曲表示領域720Bに変更したものであるので、同一の構成については説明を省略する。第2再生楽曲表示領域720Dには、6種の曲調の曲調ポイントのそれぞれに対応した座標軸が表示されている。ここで6種の曲調としては、例えば和音成分から得られる「明るい」曲調および「暗い」曲調と、テンポ成分から得られる「速い」曲調および「ゆっくり」な曲調と、音量成分から得られる「激しい」曲調および「静か」な曲調などが挙げられる。これらの曲調は各成分で相反する関係にある。そして、これらの座標軸からなる3次元の座標空間には、再生している楽曲データの再生時間に対応した曲調ポイントの変化を示す軌跡が表示され、現在の再生位置がプロット表示されている。このような構成の場合、現在の再生位置が3次元の座標空間に配置された軌跡上を移動する状態で示され楽曲全体を通して曲調がどのように変化となるかが立体的に表示されるので、楽曲の再生に伴った多彩な表現が実現できる。また、現在再生位置を示すプロットを座標空間に配置された軌跡上で移動させ、移動された後のプロットの位置から楽曲データを再生する構成とすれば、楽曲データのうち所望の曲調の部分から再生できる。したがって、利用者は現在の再生部分の曲調の変化を視覚で捉えることができ、音楽とともに連動して変化する表示を楽しむことができる。   The screen generation means 355 may be configured as a reproduction screen 700D as shown in FIG. 15, for example, as a reproduction screen shown during reproduction. The playback screen 700D shown in FIG. 15 is obtained by changing the configuration of the second playback music display area 720A in FIG. 12 to the second playback music display area 720B, and thus the description of the same configuration is omitted. In the second reproduction music display area 720D, coordinate axes corresponding to each of the six types of music tone points are displayed. Here, as the six types of music, for example, “bright” music and “dark” music obtained from the chord component, “fast” music and “slow” music obtained from the tempo component, and “violent” obtained from the volume component “Tone” and “Quiet”. These tunes are in conflict with each other. In a three-dimensional coordinate space composed of these coordinate axes, a trajectory indicating a change in music tone point corresponding to the reproduction time of the music data being reproduced is displayed, and the current reproduction position is plotted. In such a configuration, the current playback position is shown moving on a trajectory arranged in a three-dimensional coordinate space, and how the tone changes throughout the music is displayed in three dimensions. Various expressions can be realized along with the playback of music. In addition, if the plot showing the current playback position is moved on the locus arranged in the coordinate space and the music data is played back from the position of the plot after the movement, the desired music tone portion of the music data can be reproduced. Can play. Therefore, the user can visually grasp the change in the tone of the current playback portion and can enjoy a display that changes in conjunction with the music.

なお、図12に示した再生画面700Aと、図13に示した再生画面700Bと、図14に示した再生画面700Cと、図15に示した再生画面700Dと、に図6に示した再生画面700における設定領域730を設ける構成としてもよい。このような構成の場合でも、現在再生中のパートの代表的な曲調やキーワードなどを設定することができる。   Note that the playback screen 700A shown in FIG. 12, the playback screen 700B shown in FIG. 13, the playback screen 700C shown in FIG. 14, the playback screen 700D shown in FIG. 15, and the playback screen shown in FIG. A setting area 730 in 700 may be provided. Even in the case of such a configuration, it is possible to set typical tunes and keywords of the part currently being reproduced.

再生対象認識手段354Aは、入力認識手段351にて曲調スキップ要求が認識されると、現在再生中のパートの前後いずれかのパートを再生対象として認識するとしたが、これに限らない。すなわち、例えば、再生対象認識手段354Aは、入力認識手段351にて曲調スキップ要求は、現在再生中のパートに変えて楽曲データの先端のパートを再生させる旨の要求や、サビとなるパートを再生させる旨の要求などをさらに加える構成としてもよい。このような構成の場合、現在再生中のパートに変えて楽曲データの先端パートやサビとなるパートを再生することができるので、利用者の利便性を向上できる。   When the input recognition unit 351 recognizes the music tone skip request, the reproduction target recognition unit 354A recognizes any part before or after the part currently being reproduced as a reproduction target, but the present invention is not limited thereto. That is, for example, the reproduction target recognition unit 354A uses the input recognition unit 351 to change the tune tone skip request to a part that plays the leading part of the music data instead of the part currently being reproduced, or to reproduce the part that becomes a chorus. It may be configured to further add a request to the effect. In the case of such a configuration, it is possible to reproduce the leading part of the music data or the part that becomes a chorus instead of the part currently being reproduced, so that the convenience for the user can be improved.

再生対象認識手段354Aは、入力認識手段351にてしりとり再生要求が認識されると、現在再生中の楽曲データにおける後端のパートに関連付けられた曲調情報514Cを認識する。そして、先端のパートに関連付けられた曲調情報514Cの代表的な特性が認識した後端のパートの代表的な特性と略同一の楽曲データに対応する楽曲個別情報510を楽曲関連情報500からランダムに検索する構成としたがこれに限らない。すなわち、例えば、再生対象認識手段354Aは、曲調ポイント情報514Bに基づいて再生中の楽曲データにおけるパートの最後部の曲調ポイントを認識する。そして、この曲調ポイントと略同一の曲調ポイントをパートの先端部に有したパートを楽曲関連情報500から検索し、次の再生対象として認識する。また、再生制御手段354Bは、現在再生中のパートの再生が終了すると、再生対象認識手段354Aにて認識された次の再生対象となるパートを再生する構成などとしてもよい。このような構成の場合、所定の楽曲データの所定のパートにおける最後部の曲調ポイントと、次に再生される楽曲データの所定のパートにおける先端部の曲調ポイントとが略同一となるので、所定の曲調の余韻を引き継いだまま異なる楽曲データの所定のパートが再生される。したがって、楽曲再生装置300は、多彩な再生が実現でき、利用者は様々な楽曲データを楽しんで聴くことができる。   When the input recognition unit 351 recognizes the shiritori reproduction request, the reproduction target recognition unit 354A recognizes the tune information 514C associated with the rear end part of the currently reproduced music data. Then, the music individual information 510 corresponding to the music data substantially the same as the representative characteristic of the rear end part recognized by the representative characteristic of the music tone information 514C associated with the leading part is randomly selected from the music related information 500. Although it was set as the structure searched, it is not restricted to this. That is, for example, the reproduction target recognition unit 354A recognizes the music point at the end of the part in the music data being reproduced based on the music point information 514B. Then, a part having the same music tone point as the music tone point at the tip of the part is searched from the music related information 500 and recognized as the next reproduction target. Further, the reproduction control unit 354B may be configured to reproduce the next reproduction target part recognized by the reproduction target recognition unit 354A when the reproduction of the part currently being reproduced ends. In such a configuration, the music point at the end of the predetermined part of the predetermined music data is substantially the same as the music point at the front end of the predetermined part of the music data to be reproduced next. A predetermined part of different music data is reproduced while taking over the lingering tone. Therefore, the music reproducing device 300 can realize various reproductions, and the user can enjoy and listen to various music data.

また、しりとり再生は、現在再生中の楽曲データにおける後端のパートにおける代表的な曲調と、次に再生する楽曲データにおける先端のパートにおける代表的な曲調とが、略同一であるとしたが、これに限らない。再生対象認識手段354Aは、次に再生する楽曲データを認識する際、現在再生中の楽曲データにおける後端のパートにおける代表的な曲調と異なる代表的な曲調のパートを楽曲データの先端のパートに有する楽曲データを次の再生対象として認識する構成としてもよい。このような構成の場合、現在聴いている楽曲データの後端における曲調と次に聴く楽曲データの先端における曲調が異なるので、利用者の気分転換を図ることができる。   Also, in Shiritori playback, the representative tune in the rear end part of the currently playing music data and the representative tune in the front part of the music data to be played next are substantially the same, Not limited to this. When the reproduction target recognition unit 354A recognizes the music data to be reproduced next, the reproduction part recognition unit 354A uses the part of the representative music tone different from the representative music tone of the rear end part of the music data currently being reproduced as the leading part of the music data. It is good also as a structure which recognizes the music data which it has as a next reproduction | regeneration object. In such a configuration, the music tone at the rear end of the music data currently being listened to is different from the music tone at the front end of the next music data to be listened to, so that the user can change his mood.

再生対象認識手段354Aは、入力認識手段351にてフィーリングプレイ要求が認識されると、楽曲関連情報500に組み込まれた楽曲個別情報510の中から、特定の曲調を含む曲調情報514Cと関連付けられた楽曲個別情報510を検索するとしたがこれに限らない。すなわち、例えば、フィーリングプレイ要求はキーワードによるフィーリングプレイ要求であってもよい。このような構成の場合、利用者は所望のキーワードによるフィーリングプレイを楽しむことができる。また、パート情報514に所定のパートはフィーリングプレイの対象としない旨のフラグ情報を設け、再生対象認識手段354Aは、このフラグ情報に基づいて適宜フィーリングプレイの対象を検索する構成としてもよい。このような構成の場合、利用者が好まないパートまでフィーリングプレイされることを防止することができる。さらに、再生対象認識手段354Aは、楽曲関連情報500に組み込まれた楽曲個別情報510の中からフィーリングプレイの対象を例えば10パートまでしか検索しないなどの構成でもよい。このような構成の場合、検索の対象が少なくて済むので高速な情報処理が実現できる。   When the input recognition unit 351 recognizes the feeling play request, the reproduction target recognition unit 354A is associated with music tone information 514C including a specific music tone from the music individual information 510 incorporated in the music related information 500. However, the present invention is not limited to this. That is, for example, the feeling play request may be a feeling play request using a keyword. In such a configuration, the user can enjoy a feeling play with a desired keyword. The part information 514 may be provided with flag information indicating that a predetermined part is not subject to feeling play, and the reproduction target recognizing unit 354A appropriately searches for a feeling play target based on the flag information. . In the case of such a configuration, it is possible to prevent a feeling play to a part that the user does not like. Further, the reproduction target recognition unit 354A may be configured to search for the feeling play target, for example, only up to 10 parts from the music individual information 510 incorporated in the music related information 500. In such a configuration, the number of search targets is small, so that high-speed information processing can be realized.

再生対象認識手段354Aは、入力認識手段351にてフィーリングダイジェストプレイ要求が認識されると、特定の曲調の曲調情報514Cと関連付けられたサビとなるパートを含む楽曲データを楽曲データ記憶手段330から検索するとしたが、これに限らない。すなわち、例えば、フィーリングダイジェストプレイ要求はキーワードによるフィーリングダイジェストプレイ要求であってもよい。このような構成の場合、利用者は所望のキーワードによるフィーリングダイジェストプレイを楽しむことができる。また、パート情報514に所定のパートはフィーリングダイジェストプレイの対象としない旨のフラグ情報を設け、再生対象認識手段354Aは、このフラグ情報に基づいて適宜フィーリングダイジェストプレイの対象を検索する構成としてもよい。このような構成の場合、利用者が好まないパートまでフィーリングダイジェストプレイされることを防止することができる。さらに、再生対象認識手段354Aは、楽曲関連情報500に組み込まれた楽曲個別情報510の中からフィーリングダイジェストプレイの対象を例えば10パートまでしか検索しないなどの構成でもよい。このような構成の場合、検索の対象が少なくて済むので高速な情報処理が実現できる。   When the input recognition unit 351 recognizes the feeling digest play request, the reproduction target recognition unit 354A receives from the music data storage unit 330 music data including a part that becomes a chorus associated with the music tone information 514C of a specific music tone. I tried to search, but it is not limited to this. That is, for example, the feeling digest play request may be a feeling digest play request by a keyword. In such a configuration, the user can enjoy a feeling digest play with a desired keyword. Further, the part information 514 is provided with flag information indicating that the predetermined part is not subject to feeling digest play, and the reproduction target recognition unit 354A appropriately searches for the target of feeling digest play based on the flag information. Also good. In the case of such a configuration, it is possible to prevent feeling digest play even for parts that the user does not like. Further, the reproduction target recognizing unit 354A may be configured to search the feeling digest play target, for example, only up to 10 parts from the music individual information 510 incorporated in the music related information 500. In such a configuration, the number of search targets is small, so that high-speed information processing can be realized.

また、本実施の形態において、処理部350は、しりとり再生要求に基づく再生と、フィーリングプレイ要求に基づく再生と、フィーリングダイジェストプレイ要求に基づく再生と、のいずれもが可能な構成としたが、これに限らない。すなわち、処理部350は、しりとり再生要求に基づく再生と、フィーリングプレイ要求に基づく再生と、フィーリングダイジェストプレイ要求に基づく再生とのうちいずれか1つの再生が可能な構成や、あるいは、いずれの再生をも実施しない構成とすることができる。このような構成の場合、処理部350全体としての構成を単純化することができ、また、処理部350の処理負担を軽減できる。そして、本実施の形態に示すいずれの楽曲データの再生処理、および、いずれの表示処理も、適宜自由な組み合わせで構成することができる。   Further, in the present embodiment, the processing unit 350 is configured to be able to perform any of reproduction based on a shiritori reproduction request, reproduction based on a feeling play request, and reproduction based on a feeling digest play request. Not limited to this. That is, the processing unit 350 is configured to be able to perform any one of reproduction based on a shiritori reproduction request, reproduction based on a feeling play request, and reproduction based on a feeling digest play request, or It can be set as the structure which does not implement reproduction | regeneration. In the case of such a configuration, the overall configuration of the processing unit 350 can be simplified, and the processing load on the processing unit 350 can be reduced. Any music data reproduction process and any display process shown in the present embodiment can be appropriately combined in any combination.

その他、本発明の実施の際の具体的な構造および手順は、本発明の目的を達成できる範囲で他の構造などに適宜変更できる。   In addition, the specific structure and procedure for carrying out the present invention can be appropriately changed to other structures and the like within a range in which the object of the present invention can be achieved.

〔実施の形態の作用効果〕
上述したように、上記実施の形態では、楽曲再生システム100に、楽曲データ記憶手段330に記録された楽曲データの曲調を認識し、この曲調に基づいて楽曲データのパートを認識する特性認識手段352と、楽曲データのパートにおける曲調に関する曲調ポイント情報514Bおよび曲調情報514Cをパートの位置を特定するパート特定情報514Aに関連付けてパート情報514を生成する楽曲関連情報生成手段353と、を設けている。このため、多種多様な曲調を有した楽曲データを複数のパートに分けてパート毎に曲調を認識することができる。したがって、楽曲再生装置300は、楽曲データの曲調を良好に認識することができるので、例えば利用者が聴きたい曲調を指定して再生された楽曲データの中に、利用者がイメージした曲調とは異なる部分が含まれることを防止することができる。また、特性認識手段352は、変化位置を計時手段356にて計時された楽曲データの先端部からの再生時間として認識しているので、簡単な構成で楽曲データのパートを特定するデータ処理ができる。したがって、データ処理の効率を向上できる。
[Effects of Embodiment]
As described above, in the above embodiment, the music reproduction system 100 recognizes the tune of the music data recorded in the music data storage means 330 and recognizes the part of the music data based on this tune. And music-related information generating means 353 for generating part information 514 by associating the music tone point information 514B and music tone information 514C relating to the music tone in the music data part with the part specifying information 514A for specifying the position of the part. For this reason, it is possible to divide music data having various musical tunes into a plurality of parts and recognize the tunes for each part. Therefore, the music reproducing device 300 can recognize the music tone of the music data satisfactorily. For example, the music tone imaged by the user in the music data reproduced by designating the music tone that the user wants to listen to is provided. It is possible to prevent different parts from being included. Further, since the characteristic recognizing means 352 recognizes the change position as the reproduction time from the leading end of the music data timed by the time measuring means 356, the data processing for specifying the part of the music data can be performed with a simple configuration. . Therefore, the efficiency of data processing can be improved.

本発明の一実施の形態に係る楽曲再生システムの概略構成を示すブロック図である。It is a block diagram which shows schematic structure of the music reproduction system which concerns on one embodiment of this invention. 本実施の形態におけるプレイリストの概略構成を示す模式図である。It is a schematic diagram which shows schematic structure of the play list in this Embodiment. 本実施の形態における楽曲再生装置の処理部の内部構成を示すブロック図である。It is a block diagram which shows the internal structure of the process part of the music reproduction apparatus in this Embodiment. 本実施の形態における楽曲の曲調の一例を示す図である。It is a figure which shows an example of the music tone of the music in this Embodiment. 本実施の形態におけるプレイリスト画面の一例を示す図である。It is a figure which shows an example of the play list screen in this Embodiment. 本実施の形態における再生画面の一例を示す図である。It is a figure which shows an example of the reproduction | regeneration screen in this Embodiment. 本実施の形態における楽曲個別情報生成処理の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the music separate information generation process in this Embodiment. 本実施の形態におけるプレイリスト表示処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the play list display process in this Embodiment. 本実施の形態における楽曲データの再生処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the reproduction | regeneration processing of the music data in this Embodiment. 本実施の形態におけるしりとり再生処理の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the shiritori reproduction | regeneration processing in this Embodiment. プレイリスト画面の変形例を示す図である。It is a figure which shows the modification of a play list screen. 再生画面の変形例を示す図である。It is a figure which shows the modification of a reproduction | regeneration screen. 再生画面の変形例を示す図である。It is a figure which shows the modification of a reproduction | regeneration screen. 再生画面の変形例を示す図である。It is a figure which shows the modification of a reproduction | regeneration screen. 再生画面の変形例を示す図である。It is a figure which shows the modification of a reproduction | regeneration screen.

符号の説明Explanation of symbols

300 情報処理装置を有した楽曲再生装置
320 出力手段および表示手段としてのタッチパネル
330 コンテンツデータ記憶手段としての楽曲データ記憶手段
350 情報処理装置を有した、演算手段としての処理部
352 データ取得手段、特性認識手段、および、区間認識手段として機能する特性認識手段
353 区間特性情報生成手段、および、区間キーワード情報生成手段として機能する楽曲関連情報生成手段
354A キーワードコンテンツ検索手段、異特性区間認識手段、後端特性認識手段、コンテンツ端部検索手段、および、特定コンテンツ検索手段として機能する再生対象認識手段
354B 再生制御手段
355 全体特性度合認識手段、全体特性出力制御手段、および、区間特性表示制御手段として機能する画面生成手段
514 区間特性情報としてのパート情報
514A 区間特定情報としてのパート特定情報
514B 特性情報、特性度合情報、および、全体特性度合情報としての曲調ポイント情報
514C 特性情報としての曲調情報
514D キーワード情報
514E 特徴区間情報としてのサビフラグ情報
300 Music Reproducing Device 320 with Information Processing Device 320 Touch Panel as Output Unit and Display Unit 330 Music Data Storage Unit 350 as Content Data Storage Unit Processing Unit 352 as Processing Unit with Information Processing Device Data Acquisition Unit, Characteristics Recognizing means and characteristic recognizing means 353 functioning as section recognizing means Section characteristic information generating means and music related information generating means 354A functioning as section keyword information generating means Keyword content searching means, different characteristic section recognizing means, rear end Reproduction target recognition means 354B that functions as characteristic recognition means, content edge search means, and specific content search means Playback control means 355 Functions as overall characteristic degree recognition means, overall characteristic output control means, and section characteristic display control means Screen generation means 514 Part information 514A as section characteristic information Part specification information 514B as section specification information Characteristic information, characteristic degree information, and music tone point information 514C as overall characteristic degree information tone information 514D as characteristic information Keyword information 514E As characteristic section information Rust flag information

Claims (14)

楽曲データを取得するデータ取得手段と、
前記楽曲データの曲調を認識する特性認識手段と、
前記特性認識手段により認識した前記曲調に基づいて前記楽曲データにおける曲調が異なるパートを認識する区間認識手段と、
前記楽曲データのパートにおける前記曲調に関する特性情報を前記パートの位置を特定する区間特定情報に関連付けて区間特性情報を生成する区間特性情報生成手段と、を具備し
前記特性認識手段は、前記データ取得手段で楽曲データを取得すると、前記楽曲データの再生時間に対応した少なくとも1つの曲調の度合いを数値化した曲調ポイントに関する曲調ポイント情報を生成し、
前記区間認識手段は、前記特性認識手段により認識した曲調ポイントが再生時間の全体を通して変化する変化位置を認識して前記曲調が異なるパートを認識する
ことを特徴とする情報処理装置。
Data acquisition means for acquiring music data;
Characteristic recognition means for recognizing the tune of the music data;
Section recognition means for recognizing parts having different tunes in the music data based on the tunes recognized by the characteristic recognition means;
Section characteristic information generating means for generating section characteristic information by associating the characteristic information related to the music tone in the part of the music data with the section specifying information for specifying the position of the part ;
The characteristic recognizing unit, when acquiring the music data by the data acquiring unit, generates music tone point information relating to a music tone point in which the degree of at least one music key corresponding to the reproduction time of the music data is quantified,
The section recognizing means recognizes a part where the music tone is different by recognizing a change position where the music tone point recognized by the characteristic recognizing means changes throughout the reproduction time.
An information processing apparatus characterized by that.
請求項1に記載の情報処理装置であって、  The information processing apparatus according to claim 1,
前記楽曲データの基準となる異なる曲調に関するデータを複数記憶する記憶手段を具備し、  Comprising storage means for storing a plurality of pieces of data relating to different musical tones serving as the basis of the music data;
前記特性認識手段は、前記データ取得手段で楽曲データを取得すると、前記記憶手段に記憶された曲調に関するデータと比較し、前記楽曲データの再生時間に対応した少なくとも1つの曲調の度合いを数値化した曲調ポイントに関する曲調ポイント情報を生成する  When the music recognition data is acquired by the data acquisition means, the characteristic recognition means compares the music tone data stored in the storage means with a numerical value of the degree of at least one music tone corresponding to the reproduction time of the music data. Generate song point information about song points
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
請求項1または請求項2に記載の情報処理装置であって、  The information processing apparatus according to claim 1 or 2,
少なくとも1つの前記パートを有する前記楽曲データにおけるそれぞれの前記パートに関連付けられた前記楽曲ポイント情報に基づいて、前記楽曲データの全体についての前記少なくとも1つの曲調の度合いを認識する全体特性度合認識手段と、  An overall characteristic degree recognizing means for recognizing the degree of the at least one music tone of the whole music data based on the music point information associated with each of the parts in the music data having at least one part; ,
少なくとも1つの前記楽曲データの前記全体についての前記少なくとも1つの曲調の度合いに関する全体特性度合情報を出力手段に出力させる全体特性出力制御手段と、を具備した  Overall characteristic output control means for causing the output means to output overall characteristic degree information related to the degree of the at least one music tone for the whole of the at least one music data;
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
請求項1ないし請求項3のいずれかに記載の情報処理装置であって、  An information processing apparatus according to any one of claims 1 to 3,
前記区間特性情報生成手段は、所定の前記パートの曲調を所定の曲調に設定する旨の入力操作に基づいて、前記所定のパートにおける前記曲調を前記所定の曲調に変更した前記特性情報を前記区間特定情報に関連付けて前記区間特性情報を生成する  The section characteristic information generating means is configured to change the characteristic information obtained by changing the tune of the predetermined part to the predetermined tune based on an input operation for setting the tune of the predetermined part to a predetermined tune. The section characteristic information is generated in association with specific information
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
請求項1ないし請求項4のいずれかに記載の情報処理装置であって、  An information processing apparatus according to any one of claims 1 to 4,
入力操作に基づいて、前記楽曲データの少なくとも1つの前記区間特性情報に基づいて前記楽曲データを再生可能な状態に制御する再生制御手段を具備した  Based on the input operation, a playback control means is provided for controlling the music data to be playable based on at least one section characteristic information of the music data.
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
請求項5に記載の情報処理装置であって、  The information processing apparatus according to claim 5,
前記楽曲データを記憶するコンテンツデータ記憶手段と、  Content data storage means for storing the music data;
所定の前記パートにキーワードを設定する旨の入力操作に基づいて、前記所定のパートの前記区間特定情報に前記キーワードに関するキーワード情報を関連付けて前記区間特性情報を生成する区間キーワード情報生成手段と、  Section keyword information generating means for generating the section characteristic information by associating keyword information related to the keyword with the section specifying information of the predetermined part based on an input operation for setting a keyword for the predetermined part,
所定の前記キーワードに対応する前記楽曲データを検索する旨の入力操作に基づいて、前記キーワードが設定された前記パートを有する前記楽曲データを前記楽曲データ記憶手段から検索するキーワードコンテンツ検索手段と、を具備し、  Keyword content search means for searching the music data having the part set with the keyword from the music data storage means based on an input operation for searching the music data corresponding to the predetermined keyword. Equipped,
前記再生制御手段は、前記キーワードコンテンツ検索手段にて検索された前記楽曲データにおける前記キーワードが設定された前記パートを再生させる  The reproduction control means reproduces the part in which the keyword is set in the music data searched by the keyword content search means.
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
請求項5または請求項6に記載の情報処理装置であって、  An information processing apparatus according to claim 5 or 6, wherein
前記再生制御手段の制御により再生中のパートと異なる曲調のパートを再生する旨の入力操作に基づいて、前記再生中の前記パートと異なる曲調の前記特性情報に関連付けられた前記パートを認識する異特性区間認識手段を具備し、  Based on an input operation for playing a part having a different tone from the part being played under the control of the playback control means, the part associated with the characteristic information having a different tone from the part being played is recognized. It has characteristic section recognition means,
前記再生制御手段は、前記再生中のパートに変えて前記異特性区間認識手段で認識した前記パートの再生を開始させる  The reproduction control means starts reproduction of the part recognized by the different characteristic section recognition means instead of the part being reproduced.
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
請求項5ないし請求項7のいずれかに記載の情報処理装置であって、  An information processing apparatus according to any one of claims 5 to 7,
複数の前記楽曲データが記憶されたコンテンツデータ記憶手段と、  Content data storage means storing a plurality of the music data;
前記再生制御手段の制御により再生中の前記楽曲データにおける後端の前記パートに関連付けられた前記特性情報に基づいて、前記後端のパートの曲調を認識する後端特性認識手段と、  Rear end characteristic recognizing means for recognizing the tone of the rear end part based on the characteristic information associated with the rear end part of the music data being played back under the control of the reproduction control means;
先端の前記パートに関連付けられた前記特性情報の曲調が前記後端特性認識手段で認識した前記後端のパートの曲調と略同一の前記楽曲データを前記コンテンツデータ記憶手段から検索するコンテンツ端部検索手段と、を具備し、  Content end search for searching the music data from the content data storage means for the music data whose tone of the characteristic information associated with the leading part is substantially the same as the tone of the rear end part recognized by the rear end characteristic recognition means Means,
前記再生制御手段は、前記再生中の楽曲データの再生が終了すると前記コンテンツ端部検索手段で検索された前記楽曲データの再生を開始させる  The reproduction control means starts reproduction of the music data searched by the content edge search means when reproduction of the music data being reproduced ends.
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
請求項5ないし請求項8のいずれかに記載の情報処理装置であって、  An information processing apparatus according to any one of claims 5 to 8,
複数の前記楽曲データが記憶されたコンテンツデータ記憶手段と、  Content data storage means storing a plurality of the music data;
特定の曲調のパートを再生する旨の入力操作に基づいて、前記特定の曲調の前記特性情報に関連付けられたパートを有する楽曲データを前記コンテンツデータ記憶手段から検索する特定コンテンツ検索手段を具備し、  Based on an input operation for reproducing a part of a specific music tone, comprising specific content search means for searching music data having a part associated with the characteristic information of the specific music tone from the content data storage means,
前記再生制御手段は、前記特定コンテンツ検索手段で検索された前記楽曲データにおける前記特定の曲調の前記特性情報に関連付けられた前記パートを連続的に再生する  The reproduction control means continuously reproduces the part associated with the characteristic information of the specific music tone in the music data searched by the specific content search means.
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
請求項9に記載の情報処理装置であって、  The information processing apparatus according to claim 9,
前記区間認識手段は、前記楽曲データを特徴付ける前記パートを認識し、  The section recognition means recognizes the part characterizing the music data,
前記区間特性情報生成手段は、前記楽曲データを特徴付けるパートの前記区間特定情報に前記楽曲データを特徴付けるパートである旨の特徴区間情報を関連付けて前記区間特性情報を生成し、  The section characteristic information generating means generates the section characteristic information by associating characteristic section information indicating that the music data is a part characterizing the music data with the section specifying information of the part characterizing the music data,
前記特定コンテンツ検索手段は、前記楽曲データを特徴付けるパートにおける特定の曲調を再生する旨の入力操作に基づいて、前記特定の曲調の特性情報に関連付けられた前記楽曲データを特徴付けるパートを含む楽曲データを前記コンテンツデータ記憶手段から検索し、  The specific content search means includes music data including a part characterizing the music data associated with the characteristic information of the specific music key based on an input operation for reproducing a specific music key in the part characterizing the music data. Search from the content data storage means,
前記再生制御手段は、前記特定コンテンツ検索手段で検索された前記楽曲データにおける前記特徴付けるパートを連続的に再生する  The reproduction control means continuously reproduces the characterizing part in the music data searched by the specific content search means.
ことを特徴とする情報処理装置。  An information processing apparatus characterized by that.
演算手段により楽曲データに関する所定の情報を生成する情報処理方法であって、
前記楽曲データを取得し、
前記楽曲データの曲調を認識し、
前記曲調に基づいて前記楽曲データにおける曲調が異なるパートを認識し、
前記曲調データのパートにおける前記曲調に関する特性情報を前記パートの位置を特定する区間特定情報に関連付けて区間特性情報を生成し、
前記演算手段は、前記楽曲データを取得すると、前記楽曲データの再生時間に対応した少なくとも1つの曲調の度合いを数値化した曲調ポイントに関する曲調ポイント情報を生成し、
この生成した曲調ポイントが再生時間の全体を通して変化する変化位置を認識して前記曲調が異なるパートを認識する
ことを特徴とした情報処理方法。
An information processing method for generating predetermined information related to music data by a calculation means ,
Obtaining the music data;
Recognizing the tone of the song data;
Tune in the music data to recognize the different parts on the basis of the melody,
Generating section characteristic information by associating the characteristic information related to the music tone in the part of the music tone data with the section specifying information for specifying the position of the part ;
The computing means, upon obtaining the music data, generates music tone point information relating to music tone points in which at least one music tone degree corresponding to the reproduction time of the music data is quantified,
The melody points generated to recognize recognize and the melody is different parts changes position which varies throughout the playing time
An information processing method characterized by that.
演算手段を請求項1ないし請求項10のいずれかに記載の情報処理装置として機能させる
ことを特徴とする情報処理プログラム。
An information processing program for causing a calculation means to function as the information processing apparatus according to any one of claims 1 to 10 .
請求項11に記載の情報処理方法を演算手段に実行させる
ことを特徴とする情報処理プログラム。
An information processing program for causing an arithmetic means to execute the information processing method according to claim 11 .
請求項12または請求項13に記載の情報処理プログラムが演算手段にて読取可能に記録された
ことを特徴とする情報処理プログラムを記録した記録媒体。
Recording medium recording the information processing program characterized by claim 12 or the information processing program according to claim 13 is readable recorded by the calculation means.
JP2005033152A 2005-02-09 2005-02-09 Information processing apparatus, information processing method, information processing program, and recording medium on which information processing program is recorded Expired - Fee Related JP4759281B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005033152A JP4759281B2 (en) 2005-02-09 2005-02-09 Information processing apparatus, information processing method, information processing program, and recording medium on which information processing program is recorded

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005033152A JP4759281B2 (en) 2005-02-09 2005-02-09 Information processing apparatus, information processing method, information processing program, and recording medium on which information processing program is recorded

Publications (2)

Publication Number Publication Date
JP2006221715A JP2006221715A (en) 2006-08-24
JP4759281B2 true JP4759281B2 (en) 2011-08-31

Family

ID=36983934

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005033152A Expired - Fee Related JP4759281B2 (en) 2005-02-09 2005-02-09 Information processing apparatus, information processing method, information processing program, and recording medium on which information processing program is recorded

Country Status (1)

Country Link
JP (1) JP4759281B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5098896B2 (en) * 2008-08-28 2012-12-12 ソニー株式会社 Playback apparatus and playback method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4253934B2 (en) * 1999-07-05 2009-04-15 ソニー株式会社 Signal processing apparatus and method
JP4027051B2 (en) * 2001-03-22 2007-12-26 松下電器産業株式会社 Music registration apparatus, music registration method, program thereof and recording medium
JP3886372B2 (en) * 2001-12-13 2007-02-28 松下電器産業株式会社 Acoustic inflection point extraction apparatus and method, acoustic reproduction apparatus and method, acoustic signal editing apparatus, acoustic inflection point extraction method program recording medium, acoustic reproduction method program recording medium, acoustic signal editing method program recording medium, acoustic inflection point extraction method Program, sound reproduction method program, sound signal editing method program

Also Published As

Publication number Publication date
JP2006221715A (en) 2006-08-24

Similar Documents

Publication Publication Date Title
US20080313222A1 (en) Apparatus and Method For Visually Generating a Playlist
US20090217804A1 (en) Music steering with automatically detected musical attributes
US8713069B2 (en) Playlist search device, playlist search method and program
KR20070116853A (en) Scan shuffle for building playlists
JP2004163590A (en) Reproducing device and program
EP2013877A1 (en) System, method and medium browsing media content using meta data
WO2017028686A1 (en) Information processing method, terminal device and computer storage medium
JP2012088402A (en) Information processor, information processing method, and program
JP4316432B2 (en) Music playback apparatus and music playback method
JP3452792B2 (en) Karaoke scoring device
JP4759281B2 (en) Information processing apparatus, information processing method, information processing program, and recording medium on which information processing program is recorded
CN111223470A (en) Audio processing method and device and electronic equipment
JPH11184467A (en) System and method for music retrieval and record medium
JPH11184883A (en) Music retrieval system and method and record medium
JP4447524B2 (en) Karaoke equipment characterized by medley music selection processing with uniform tempo
JP3974059B2 (en) Music performance device and medley editing output device characterized by medley editing system
JP2008003483A (en) Karaoke device
JP2007078724A (en) Electronic musical instrument
JP4846334B2 (en) Music player
JP4223277B2 (en) A music selection device and a music selection program capable of selecting a desired song while continuously playing a part of a plurality of songs narrowed down to a predetermined number or less by keyword search
JP2012247558A (en) Information processing device, information processing method, and information processing program
JP3958174B2 (en) Karaoke device characterized by mood video selection system linked to music search method when selecting desired music
JP4885752B2 (en) Audio equipment
JP5098896B2 (en) Playback apparatus and playback method
JP2007041823A (en) Content retrieval system and its retrieval method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070705

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070814

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20101124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101130

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110127

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110531

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110606

R150 Certificate of patent or registration of utility model

Ref document number: 4759281

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140610

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees