JP5782972B2 - Information processing system, program - Google Patents

Information processing system, program Download PDF

Info

Publication number
JP5782972B2
JP5782972B2 JP2011217294A JP2011217294A JP5782972B2 JP 5782972 B2 JP5782972 B2 JP 5782972B2 JP 2011217294 A JP2011217294 A JP 2011217294A JP 2011217294 A JP2011217294 A JP 2011217294A JP 5782972 B2 JP5782972 B2 JP 5782972B2
Authority
JP
Japan
Prior art keywords
music
data
output
information
lyrics
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011217294A
Other languages
Japanese (ja)
Other versions
JP2013076887A (en
Inventor
典昭 阿瀬見
典昭 阿瀬見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2011217294A priority Critical patent/JP5782972B2/en
Publication of JP2013076887A publication Critical patent/JP2013076887A/en
Application granted granted Critical
Publication of JP5782972B2 publication Critical patent/JP5782972B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、音楽データに対して情報処理を実行する情報処理システム、及びプログラムに関する。   The present invention relates to an information processing system and program for performing information processing on music data.

従来、音楽を再生する音楽再生機器と、音楽再生機器との間でデータ通信を実行する情報処理装置とを備えた情報配信システムが知られている(例えば、特許文献1参照)。
この特許文献1に記載された情報配信システムにおいては、情報処理装置にて、楽曲に関する複数種類のデータ群である音楽データを取得して、その音楽データを音楽再生機器に送信することがなされている。ここでいう“音楽データ”とは、楽曲の楽譜を表し、当該楽曲の進行を表す演奏速度情報と共に、音源モジュールから出力する個々の出力音について、少なくとも音高及び演奏開始タイミングが規定された楽曲楽譜データ(いわゆるMIDIデータ)と、楽曲の歌詞を構成する歌詞構成文字を表す歌詞テロップデータと、歌詞構成文字の出力タイミングである歌詞出力タイミングを規定するデータであり、かつ少なくとも1つの歌詞構成文字に対する歌詞出力タイミングが、楽曲楽譜データ中の少なくとも1つのタイミングに対応付けられた歌詞出力データとを、楽曲ごとに対応付けたものである。
2. Description of the Related Art Conventionally, an information distribution system including a music playback device that plays music and an information processing device that performs data communication between the music playback devices is known (see, for example, Patent Document 1).
In the information distribution system described in Patent Document 1, an information processing apparatus acquires music data, which is a plurality of types of data groups related to music, and transmits the music data to a music playback device. Yes. “Music data” as used herein refers to the musical score of a musical piece, along with performance speed information indicating the progression of the musical piece, and a musical piece in which at least the pitch and performance start timing are specified for each output sound output from the sound module. Musical score data (so-called MIDI data), lyrics telop data representing the lyrics constituting the lyrics of the music, and data defining the lyrics output timing which is the output timing of the lyrics constituting characters, and at least one lyrics constituting character The lyric output timing with respect to the lyric output data associated with at least one timing in the music score data is associated with each tune.

ところで、近年普及した携帯機器は、楽曲を構成する楽音の音圧が時間軸に沿って推移した楽音波形を表す楽曲波形データ(いわゆる、MP3やWAVなどの音声ファイルフォーマット形式のデータ)を再生演奏することで、音楽再生機器として機能させることが可能に構成されている。このような携帯機器の利用方法として、再生演奏した音楽を聴くだけでなく、その音楽の再生演奏の際に、カラオケを楽しみたいという要望がある。   By the way, portable devices that have become popular in recent years play and play music waveform data (so-called audio file format data such as MP3 and WAV) that represents a musical sound waveform in which the sound pressure of the musical sound constituting the music has changed along the time axis. By doing so, it is configured to be able to function as a music playback device. As a method of using such a portable device, there is a demand not only to listen to music played back but also to enjoy karaoke when playing back the music.

特開2008−026674号公報JP 2008-026674 A

しかしながら、携帯機器において、楽曲波形データを有効活用してカラオケを実現するためには、当該楽曲に対応した歌詞データを、携帯機器にて取得する必要がある。ここで、携帯機器にて取得する必要がある歌詞データとは、楽曲の歌詞に関するデータであり、歌詞テロップデータと、歌詞出力データとを含む。   However, in order to realize karaoke by effectively using music waveform data in a mobile device, it is necessary to acquire lyrics data corresponding to the music in the mobile device. Here, the lyric data that needs to be acquired by the portable device is data relating to the lyrics of the music, and includes lyric telop data and lyric output data.

一般的に、歌詞出力データは、楽曲楽譜データに基づく当該楽曲の演奏に、個々の歌詞構成文字の歌詞出力タイミングが対応付くように生成されており、楽曲波形データに基づく当該楽曲の再生演奏に対応付くように生成されてはいない。   Generally, the lyric output data is generated so that the lyric output timing of each lyric constituent character corresponds to the performance of the tune based on the music score data. It is not generated to match.

特に、楽曲楽譜データは、一般的に、楽曲波形データに基づく演奏を聴聞した人物が、個々の出力音の音高や演奏開始タイミングを特定して規定することで生成される。よって、楽曲楽譜データにおいて、出力音の音高や演奏開始タイミングは、楽曲波形データにおける個々の楽音の音高や演奏タイミングと一致せず、ズレが存在する。   In particular, music score data is generally generated by a person who listens to a performance based on music waveform data specifying and defining the pitch of each output sound and the performance start timing. Therefore, in the music score data, the pitch of the output sound and the performance start timing do not coincide with the pitch and performance timing of each musical sound in the music waveform data, and there is a deviation.

このため、携帯機器において、楽曲波形データに基づく当該楽曲の再生演奏と共に、歌詞出力データに基づいて歌詞構成文字の出力(表示)を実行すると、その歌詞構成文字の出力タイミングが、個々の楽音の演奏タイミングに一致しないという問題が生じる。   For this reason, when the portable device outputs (displays) the lyrics constituent characters based on the lyrics output data together with the playback performance of the music based on the music waveform data, the output timing of the lyrics constituent characters is set to the individual musical tone output timing. There arises a problem that it does not coincide with the performance timing.

そこで、本発明は、携帯機器において、楽曲波形データに基づく楽音の演奏タイミングに対する、歌詞構成文字の出力のズレを低減させることを目的とする。   Accordingly, an object of the present invention is to reduce a deviation in the output of lyrics constituent characters with respect to a musical performance timing based on music waveform data in a portable device.

上記目的を達成するためになされた本発明は、楽曲を構成する楽音の音圧が時間軸に沿って推移した楽音推移波形を表す楽曲波形データが、記憶部に記憶される携帯機器と、その携帯機器との間でデータ通信を実行する情報処理装置とを備えた情報処理システムに関する。   The present invention made to achieve the above object is a portable device in which music waveform data representing a music transition waveform in which the sound pressure of a musical sound constituting a music has shifted along the time axis is stored in a storage unit, and The present invention relates to an information processing system including an information processing apparatus that performs data communication with a portable device.

本発明の情報処理システムにおける情報処理装置は、楽曲楽譜データ、歌詞データ、歌詞出力データを取得して、少なくとも歌詞出力データに対して情報処理を実行する装置である。   The information processing apparatus in the information processing system of the present invention is an apparatus that acquires music score data, lyrics data, and lyrics output data, and executes information processing on at least the lyrics output data.

この楽曲楽譜データは、楽曲の楽譜を表し、当該楽曲の進行を表す演奏速度情報と共に、音源モジュールから出力する個々の出力音について、少なくとも音高及び演奏開始タイミングが規定されたデータである。歌詞データは、楽曲の歌詞を構成する歌詞構成文字を表すデータである。歌詞出力データは、歌詞構成文字の出力タイミングである歌詞出力タイミングを規定するデータであり、かつ少なくとも1つの歌詞構成文字に対する歌詞出力タイミングが、楽曲楽譜データ中の少なくとも1つのタイミングに対応付けられたデータである。   This musical score data represents the musical score of the music, and is data in which at least the pitch and the performance start timing are specified for each output sound output from the sound source module together with performance speed information indicating the progress of the music. The lyric data is data representing lyric constituent characters constituting the lyrics of the music. The lyric output data is data defining the lyric output timing which is the output timing of the lyric constituent characters, and the lyric output timing for at least one lyric constituent character is associated with at least one timing in the music score data. It is data.

そして、本発明の情報処理システムにおける携帯機器では、識別情報取得手段が、指定された楽曲である対象楽曲を識別する楽曲識別情報を取得し、その取得した楽曲識別情報を、識別情報送信手段が情報処理装置に送信する。速度情報送信手段が、識別情報取得手段で取得した楽曲識別情報に対応する対象楽曲の楽曲波形データから、該対象楽曲の進行を表す楽曲速度情報を取得して、情報処理装置に送信する。   And in the portable device in the information processing system of the present invention, the identification information acquisition means acquires the music identification information for identifying the target music that is the designated music, and the identification information transmission means obtains the acquired music identification information. Transmit to the information processing device. The speed information transmission means acquires music speed information representing the progress of the target music from the music waveform data of the target music corresponding to the music identification information acquired by the identification information acquisition means, and transmits it to the information processing apparatus.

さらに、本発明の情報処理システムにおける携帯機器では、歌詞情報取得手段が、対象楽曲の歌詞データ、及び情報処理装置にて情報処理が実行された歌詞出力データである修正出力データであって対象楽曲の修正出力データを、情報処理装置から取得し、演奏出力手段が、対象楽曲の楽曲波形データに基づいて当該対象楽曲を演奏すると共に、歌詞情報取得手段で取得した修正出力データに規定された歌詞出力タイミングに従って、歌詞データによって表される歌詞構成文字を順次表示する。   Further, in the portable device in the information processing system of the present invention, the lyric information acquisition means is the lyric data of the target music, and the corrected output data that is the lyric output data processed by the information processing device, and the target music The corrected output data is acquired from the information processing apparatus, and the performance output means plays the target music based on the music waveform data of the target music, and the lyrics defined in the corrected output data acquired by the lyrics information acquisition means The lyrics constituent characters represented by the lyrics data are sequentially displayed according to the output timing.

一方、本発明の情報処理システムにおける情報処理装置では、データ取得手段が、識別情報送信手段で送信された楽曲識別情報に対応する対象楽曲の楽曲楽譜データ、及び歌詞出力データを取得し、その取得した楽曲楽譜データから、演奏速度取得手段が演奏速度情報を取得する。そして、速度情報送信手段にて送信された楽曲速度情報と、演奏速度取得手段で取得した演奏速度情報とを比較した結果に基づき、時間ズレ量導出手段が、出力音の各々の演奏開始タイミングに対する、各出力音に対応する楽音の開始タイミングのズレ量を表す時間ズレ量を導出する。   On the other hand, in the information processing apparatus in the information processing system of the present invention, the data acquisition unit acquires the music score data and the lyrics output data of the target music corresponding to the music identification information transmitted by the identification information transmission unit, and the acquisition Performance speed acquisition means acquires performance speed information from the music score data. Then, based on the result of comparing the music speed information transmitted by the speed information transmitting means and the performance speed information acquired by the performance speed acquiring means, the time lag amount deriving means is configured for each performance start timing of the output sound. Then, a time shift amount representing a shift amount of the start timing of the musical sound corresponding to each output sound is derived.

さらに、本発明の情報処理システムにおける情報処理装置では、データ修正手段が、時間ズレ量導出手段で導出された時間ズレ量に従って、データ取得手段にて取得した歌詞出力データにおける歌詞出力タイミングを、楽音の開始タイミングに一致するように修正した当該歌詞出力データを修正出力データとして生成すると、その生成した修正出力データ、及び楽曲識別情報に対応する対象楽曲の歌詞データを、歌詞送信手段が携帯機器に送信する。   Furthermore, in the information processing apparatus in the information processing system according to the present invention, the data correction unit converts the lyric output timing in the lyric output data acquired by the data acquisition unit according to the amount of time deviation derived by the time deviation amount derivation unit. When the lyric output data corrected to coincide with the start timing is generated as corrected output data, the lyric transmitting means sends the generated corrected output data and the lyric data of the target music corresponding to the music identification information to the portable device. Send.

このような情報処理システムにて生成される修正出力データは、歌詞出力タイミングが、楽曲波形データにおける楽音の出力開始タイミングに一致したものである。よって、携帯機器にて、楽曲波形データに基づいて対象楽曲を演奏するときに、楽音の出力タイミングに一致して歌詞構成文字を順次表示することができ、各歌詞構成文字の表示が、楽曲波形データに基づく楽音の演奏タイミングに対して、ズレが生じることを低減できる。   In the corrected output data generated by such an information processing system, the lyrics output timing coincides with the tone output start timing in the music waveform data. Therefore, when the target music is played on the portable device based on the music waveform data, the lyrics constituent characters can be sequentially displayed in accordance with the output timing of the musical sound, and the display of each lyrics constituent character is the music waveform. It is possible to reduce the occurrence of deviation with respect to the musical performance timing based on the data.

特に、本発明の情報処理装置によれば、情報処理装置から携帯機器に送信するデータを、歌詞データ及び歌詞出力データとすることができるため、情報処理装置から携帯機器への通信量を少量とすることができる。   In particular, according to the information processing apparatus of the present invention, the data transmitted from the information processing apparatus to the portable device can be lyric data and lyric output data, so the amount of communication from the information processing apparatus to the portable device is small. can do.

なお、情報処理装置が取得する「楽曲楽譜データ、歌詞データ、及び歌詞出力データ」は、情報処理装置内に設けられた情報記憶部に格納されていても良いし、情報処理装置とは別個に設けられた装置に格納されていても良い。また、ここでいう「歌詞構成文字」とは、歌詞を構成する文字の各々であっても良いし、その文字の各々を特定の規則に従って一群とした文節やフレーズであっても良い。   The “music score data, lyrics data, and lyrics output data” acquired by the information processing apparatus may be stored in an information storage unit provided in the information processing apparatus, or separately from the information processing apparatus. You may store in the provided apparatus. Further, the “lyric constituent characters” referred to here may be each of characters constituting the lyrics, or may be a phrase or a phrase in which each of the characters is grouped according to a specific rule.

さらに、ここでいう「楽曲の進行」とは、楽曲におけるテンポを表す情報や、ベース楽器が演奏されたタイミングを表すベース波形を含むものである。
ところで、本発明において、携帯機器の速度情報送信手段は、対象楽曲の楽曲波形データに基づいて特定した、対象楽曲のテンポを表すテンポ情報、及び特定の楽器が演奏されたタイミングを表すベース波形情報を、楽曲速度情報として取得しても良い。
Further, “progress of music” here includes information representing the tempo of the music and a bass waveform representing the timing at which the bass instrument is played.
By the way, in the present invention, the speed information transmission means of the portable device specifies the tempo information indicating the tempo of the target music and the base waveform information indicating the timing when the specific musical instrument is played, which is specified based on the music waveform data of the target music. May be acquired as music speed information.

この場合、楽曲楽譜データは、当該楽曲楽譜データに対応する楽曲のテンポを表す情報である楽曲テンポ情報が規定されていると共に、対応する楽曲において演奏される楽器の種類毎に、出力音についての音高及び演奏開始タイミングが規定されていることが好ましく、さらに、情報処理装置の演奏速度取得手段は、楽曲テンポ情報、及び特定の楽器の出力音の演奏開始タイミングが時間軸に沿って推移したベース楽器波形を、演奏速度情報として取得することが好ましい。 In this case, the music score data defines the music tempo information, which is information indicating the tempo of the music corresponding to the music score data, and the output music for each type of instrument played in the corresponding music. It is preferable that the pitch and the performance start timing are defined, and further, the performance speed acquisition means of the information processing apparatus has the music tempo information and the performance start timing of the output sound of a specific instrument changed along the time axis. the base instrument waveform, have preferred to be acquired as performance speed information.

本発明の情報処理システムにおいては、携帯端末側の楽曲波形データに基づいて、対象楽曲のテンポを楽曲速度情報として取得すると共に、ベース波形が出現したタイミングを利用したベース波形情報を楽曲速度情報として取得する。   In the information processing system of the present invention, based on the music waveform data on the mobile terminal side, the tempo of the target music is acquired as music speed information, and the base waveform information using the timing at which the base waveform appears is used as music speed information. get.

したがって、対象楽曲におけるテンポのズレ、対象楽曲に含まれる楽器が演奏されるタイミングのズレを、時間ズレ量導出手段が算出できる。
なお、このような楽曲速度情報、及び演奏速度情報を用いて時間ズレ量を導出する方法としては、様々な方法が考えられる。
Therefore, the time lag amount deriving means can calculate the tempo shift in the target music and the timing shift of the musical instrument included in the target music.
Various methods are conceivable as methods for deriving the amount of time shift using such music speed information and performance speed information.

一例としては、テンポ情報と楽曲テンポ情報とのテンポの比を導出し、その導出したテンポの比を楽曲テンポ情報に乗じることで、楽曲楽譜データ全体のテンポを修正した上でベース楽器波形を取得する。   As an example, the tempo ratio between tempo information and music tempo information is derived, and the music tempo information is multiplied by the derived tempo ratio to obtain the bass instrument waveform after correcting the overall tempo of the music score data. To do.

その上で、ベース波形情報に対して、取得したベース楽器波形を時間軸に沿ってシフトさせるごとに、ベース楽器波形とベース波形情報との相関値を導出し、その相関値が最大となるシフト量を、時間ズレ量として導出することが考えられる。   Then, every time the acquired bass instrument waveform is shifted along the time axis with respect to the base waveform information, the correlation value between the base instrument waveform and the base waveform information is derived and the correlation value is maximized. It is conceivable to derive the amount as a time shift amount.

また、他の例としては、楽曲楽譜データ全体のテンポを修正した上で取得したベース楽器波形の時間軸に沿った最初のピークと、ベース波形情報の時間軸に沿った最初のピークとを一致させるベース楽器波形の時間軸に沿ったシフト量を時間ズレ量として導出することも考えられる。   As another example, the first peak along the time axis of the bass instrument waveform obtained after correcting the tempo of the entire musical score data matches the first peak along the time axis of the bass waveform information. It is also conceivable to derive the shift amount along the time axis of the bass instrument waveform to be generated as the time shift amount.

そして、本発明の情報処理システムによれば、このような時間ズレ量を用いて修正出力データを生成するため、楽曲波形データに基づく楽音の演奏タイミングに対する、歌詞構成文字の出力タイミングのズレを、より確実に低減できる。   And according to the information processing system of the present invention, in order to generate the corrected output data using such a time deviation amount, the deviation of the output timing of the lyrics constituent characters with respect to the musical performance timing based on the music waveform data, It can be reduced more reliably.

ただし、ここでいう“特定の楽器”とは、ベースギターや、コントラバスなどを含んでいても良く、この他に、打楽器(ドラムやシンバルなど)を含んでいても良い。そして、ベース波形情報は、特定の楽器の音の周波数帯の信号を通過させるフィルタに、楽曲波形データを通すことで取得しても良い。   However, the “specific instrument” referred to here may include a bass guitar, a contrabass, or the like, and may also include a percussion instrument (such as a drum or a cymbal). The base waveform information may be acquired by passing the music waveform data through a filter that passes a signal in the frequency band of the sound of a specific instrument.

ところで、本発明において、ベース波形情報は、サンプリング波形である。この場合、携帯機器の速度情報送信手段が送信するベース波形情報は、楽音推移波形のサンプリング周波数よりも低いサンプリング周波数でサンプリングしたものであることが好ましい。 By the way, in the present invention, the base waveform information is a sampling waveform. In this case, the base waveform information portable device speed information transmitting means transmits, it is not preferable in which sampled at a sampling frequency lower than the sampling frequency of the tone transition waveform.

このような情報処理システムによれば、携帯機器から情報処理装置に送信される楽曲速度情報の情報量を抑制できる。
また、本発明の情報処理システムにおいて、携帯機器では、スペクトル送信手段が、対象楽曲の楽曲波形データを取得し、該楽曲波形データによって表された楽音推移波形の周波数スペクトルである楽音スペクトル分布を導出して、情報処理装置に送信しても良い。
According to such an information processing system, the amount of music speed information transmitted from the portable device to the information processing apparatus can be suppressed.
In the information processing system of the present invention, in the portable device, the spectrum transmission means acquires the music waveform data of the target music, and derives the musical sound spectrum distribution that is the frequency spectrum of the musical sound transition waveform represented by the music waveform data. Then, it may be transmitted to the information processing apparatus.

この場合、情報処理装置では、出力音スペクトル導出手段が、対象楽曲の楽曲楽譜データを取得し、該楽曲楽譜データに基づいて、出力音が時間軸に沿って推移した波形である出力音推移波形の周波数スペクトルである出力音スペクトル分布を導出する。そして、音高相関導出手段が、スペクトル送信手段にて送信された楽音スペクトル分布と、出力音スペクトル導出手段で導出された出力音スペクトル分布との相関値を表す音高相関値を、楽音スペクトル分布において予め規定された規定位置から出力音スペクトル分布を周波数軸に沿ってシフトさせるごとに導出する。すると、楽譜データ修正手段が、音高相関導出手段にて導出された音高相関値の中で、値が最大となる音高相関値に対応する規定位置からの周波数軸に沿ったシフト量を音高補正量として、対象楽曲の楽曲楽譜データに規定された出力音の各々の音高をシフトさせることで、新たな楽曲楽譜データを生成することが好ましい。   In this case, in the information processing apparatus, the output sound spectrum deriving means acquires the music score data of the target music, and based on the music score data, the output sound transition waveform is a waveform in which the output sound has shifted along the time axis. The output sound spectrum distribution which is the frequency spectrum of is derived. Then, the pitch correlation deriving means calculates a pitch correlation value representing a correlation value between the musical sound spectrum distribution transmitted by the spectrum transmitting means and the output sound spectrum distribution derived by the output sound spectrum deriving means, as a musical sound spectrum distribution. Is derived each time the output sound spectrum distribution is shifted along the frequency axis from the prescribed position prescribed in advance. Then, the score data correcting means calculates the shift amount along the frequency axis from the specified position corresponding to the pitch correlation value having the maximum value among the pitch correlation values derived by the pitch correlation deriving means. It is preferable to generate new music score data by shifting the pitch of each output sound defined in the music score data of the target music as the pitch correction amount.

なお、演奏速度取得手段は、楽譜データ修正手段で生成された新たな楽曲楽譜データから、演奏速度情報を取得することが好ましい。
このような情報処理システムによれば、楽音の音高に一致するように楽曲楽譜データを修正した上で、演奏速度情報を導出できる。この結果、本発明の情報処理システムによれば、修正出力データに規定される歌詞出力タイミングを、より確実に、楽曲波形データにおける楽音の出力開始タイミングに一致させることができる。
The performance speed acquisition means preferably acquires performance speed information from the new music score data generated by the score data correction means.
According to such an information processing system, it is possible to derive performance speed information after correcting the music score data so as to match the pitch of the musical sound. As a result, according to the information processing system of the present invention, the lyrics output timing defined in the corrected output data can be more reliably matched with the tone output start timing in the music waveform data.

なお、本発明は、携帯機器に備えられたコンピュータに実行させるプログラムであっても良い。ただし、携帯機器は、楽曲楽譜データ、歌詞データ、及び歌詞出力データを取得して、少なくとも歌詞出力データに対して情報処理を実行する情報処理装置との間でデータ通信を実行すると共に、楽曲波形データが記憶部に記憶されている。   Note that the present invention may be a program executed by a computer provided in a portable device. However, the portable device acquires music score data, lyric data, and lyric output data, performs data communication with an information processing apparatus that executes information processing on at least lyric output data, Data is stored in the storage unit.

この本発明のプログラムは、指定された楽曲である対象楽曲を識別する楽曲識別情報を取得する識別情報取得手順と、その取得した楽曲識別情報を、情報処理装置に送信する識別情報送信手順と、楽曲識別情報に対応する対象楽曲の楽曲波形データから、該対象楽曲の進行を表す楽曲速度情報を取得して、情報処理装置に送信する速度情報送信手順と、修正出力データ、及び楽曲識別情報に対応する対象楽曲の歌詞データを、情報処理装置から取得する歌詞情報取得手順と、対象楽曲の楽曲波形データに基づいて当該対象楽曲を演奏すると共に、歌詞情報取得手順で取得した修正出力データに規定された歌詞出力タイミングに従って、歌詞データによって表される歌詞構成文字を順次表示する演奏出力手順とをコンピュータに実行させるものである。
本発明の歌詞情報取得手順で取得される修正出力データは、前記識別情報送信手順で送信された楽曲識別情報に対応する対象楽曲の楽曲楽譜データ、及び歌詞出力データを取得するデータ取得手順と、前記データ取得手順で取得した楽曲楽譜データから前記演奏速度情報を取得する演奏速度取得手順と、前記演奏速度取得手順で取得した前記演奏速度情報と前記速度情報送信手順にて送信された楽曲速度情報と比較した結果に基づき、前記出力音の各々の演奏開始タイミングに対する、各出力音に対応する前記楽音の開始タイミングのズレ量を表す時間ズレ量を導出する時間ズレ量導出手順と、前記時間ズレ量導出手順で導出された時間ズレ量に従って、前記取得した歌詞出力データにおける前記歌詞出力タイミングを、前記楽音の開始タイミングに一致するように修正した当該歌詞出力データを修正出力データとして生成するデータ修正手順とが前記情報処理として実行された結果である。
さらに、本発明のプログラムにおいては、前記速度情報送信手順で、前記対象楽曲の楽曲波形データに基づいて特定した、対象楽曲のテンポを表すテンポ情報、及び特定の楽器が演奏されたタイミングを表すベース波形情報を、前記楽曲速度情報として取得する。そして、前記楽曲楽譜データは、当該楽曲楽譜データに対応する楽曲のテンポを表す情報である楽曲テンポ情報が規定されていると共に、対応する楽曲において演奏される楽器の種類ごとに、出力音についての音高及び演奏開始タイミングが規定されている。
そして、前記演奏速度取得手順で取得する前記演奏速度情報は、前記楽曲テンポ情報、及び前記特定の楽器の出力音の演奏開始タイミングが時間軸に沿って推移したベース楽器波形である。
The program of the present invention includes an identification information acquisition procedure for acquiring music identification information for identifying a target music that is a designated music, an identification information transmission procedure for transmitting the acquired music identification information to an information processing device, From the music waveform data of the target music corresponding to the music identification information, the music speed information indicating the progress of the target music is acquired and transmitted to the information processing apparatus, the speed information transmission procedure, the corrected output data, and the music identification information The lyric data of the corresponding target music is defined in the lyric information acquisition procedure acquired from the information processing device, and the target music is played based on the music waveform data of the target tune, and the corrected output data acquired in the lyric information acquisition procedure The computer to execute a performance output procedure for sequentially displaying the lyrics constituting characters represented by the lyrics data in accordance with the lyrics output timing A.
The correction output data acquired in the lyrics information acquisition procedure of the present invention is a data acquisition procedure for acquiring music score data of the target music corresponding to the music identification information transmitted in the identification information transmission procedure, and lyrics output data; The performance speed acquisition procedure for acquiring the performance speed information from the music score data acquired in the data acquisition procedure, the performance speed information acquired in the performance speed acquisition procedure, and the music speed information transmitted in the speed information transmission procedure And a time shift amount derivation procedure for deriving a time shift amount representing a shift amount of the start timing of the musical sound corresponding to each output sound with respect to the performance start timing of each of the output sounds, and the time shift In accordance with the amount of time deviation derived in the amount derivation procedure, the lyric output timing in the acquired lyric output data is expressed as the start timing of the musical sound. The result of the data correction procedure is performed as the processing for generating the lyric output data modified to match the ring as the corrected output data.
Further, in the program of the present invention, in the speed information transmission procedure, the tempo information indicating the tempo of the target music specified based on the music waveform data of the target music, and the base indicating the timing when the specific musical instrument is played. Waveform information is acquired as the music speed information. The music score data defines music tempo information, which is information representing the tempo of the music corresponding to the music score data, and the output sound for each type of musical instrument played in the corresponding music. The pitch and performance start timing are specified.
Then, the performance speed information acquired by the performance speed acquiring procedure, the music tempo information, and Ru-based instrument waveform der the performance start timing remained along the time axis of the output sound of a particular instrument.

ただし、歌詞情報取得手順にて取得される修正出力データとは、情報処理装置が情報処理を実行した結果であり、楽曲識別情報に対応する対象楽曲の楽曲楽譜データ、及び歌詞出力データを取得し、該取得した楽曲楽譜データから取得した演奏速度情報と速度情報送信手順にて送信された楽曲速度情報と比較した結果に基づき、出力音の各々の演奏開始タイミングに対する、各出力音に対応する楽音の開始タイミングのズレ量を表す時間ズレ量を導出すると共に、該導出された時間ズレ量に従って、歌詞出力データにおける歌詞出力タイミングを、楽音の開始タイミングに一致するように修正した歌詞出力データである。   However, the corrected output data acquired in the lyric information acquisition procedure is a result of information processing performed by the information processing apparatus, and acquires music score data and lyrics output data of the target music corresponding to the music identification information. The musical sound corresponding to each output sound with respect to each performance start timing of the output sound based on the result of comparison between the performance speed information acquired from the acquired music score data and the music speed information transmitted in the speed information transmission procedure Is a lyric output data obtained by deriving a time deviation amount representing a deviation amount of the start timing of the voice and correcting the lyrics output timing in the lyrics output data so as to coincide with the start timing of the musical sound according to the derived time deviation amount .

本発明のプログラムが、このようになされていれば、コンピュータ読み取り可能な記録媒体(例えば、メモリカードなど)に記録し、必要に応じてコンピュータにロードさせて起動することや、必要に応じて通信回線を介してコンピュータに取得させて起動することにより用いることができる。そして、携帯機器のコンピュータに各手順を実行させることで、その携帯機器のコンピュータを、請求項1に記載された情報処理システムを構成する携帯機器(音楽再生機器)として機能させることができる。   If the program of the present invention is made in this way, it can be recorded on a computer-readable recording medium (for example, a memory card) and loaded into the computer as necessary to start up or communicate as necessary. It can be used by being acquired and activated by a computer via a line. Then, by causing the computer of the mobile device to execute each procedure, the computer of the mobile device can function as a mobile device (music playback device) that constitutes the information processing system according to claim 1.

本発明が適用された情報処理システムの概略構成を示すブロック図である。1 is a block diagram showing a schematic configuration of an information processing system to which the present invention is applied. 情報処理システムにて実行される処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the process performed with an information processing system. 楽曲BPMの推定手法を示す図である。It is a figure which shows the estimation method of music BPM. 情報処理サーバにて実行する音高補正処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the pitch correction | amendment process performed in an information processing server. 音高補正処理の処理概要を示す図である。It is a figure which shows the process outline | summary of a pitch correction process. 情報処理サーバにて実行するタイミング補正処理の処理手順を示すフローチャートである。It is a flowchart which shows the process sequence of the timing correction process performed in an information processing server. タイミング補正処理の概要を示す図である。It is a figure which shows the outline | summary of a timing correction process.

以下に本発明の実施形態を図面と共に説明する。
〈情報処理システムについて〉
ここで、図1は、本発明が適用された情報処理システムの概略構成を示すブロック図である。
Embodiments of the present invention will be described below with reference to the drawings.
<Information processing system>
Here, FIG. 1 is a block diagram showing a schematic configuration of an information processing system to which the present invention is applied.

本実施形態の情報処理システム1は、ポータブルオーディオプレーヤとして機能する携帯端末5に対して、処理プログラムに従って処理を実行したデータを配信する情報配信システムである。   The information processing system 1 of this embodiment is an information distribution system that distributes data that has been processed according to a processing program to a portable terminal 5 that functions as a portable audio player.

これを実現するため、情報処理システム1は、記憶部10に格納された楽曲音響データWDを再生可能な、少なくとも一台の携帯端末5A〜5n(nは、携帯端末の台数を表す1以上の自然数)と、楽曲の歌詞に関する歌詞データ群DLを含む音楽データMDに対して、各種処理を実行する情報処理サーバ20とを備えている。そして、情報処理システム1においては、携帯端末5と情報処理サーバ20とは、相互にデータ通信可能に接続されている。   In order to realize this, the information processing system 1 can reproduce at least one portable terminal 5A to 5n (n is one or more representing the number of portable terminals) that can reproduce the music acoustic data WD stored in the storage unit 10. A natural number) and an information processing server 20 that executes various processes on the music data MD including the lyrics data group DL related to the lyrics of the music. In the information processing system 1, the portable terminal 5 and the information processing server 20 are connected to each other so as to be capable of data communication.

すなわち、本実施形態の情報処理システム1では、楽曲音響データWDが記憶された携帯端末5において、その記憶された楽曲音響データWDを再生すると共に、情報処理サーバ20から配信されたデータに基づいて、楽曲音響データWDの再生に併せて歌詞を出力するシステムである。
〈携帯端末について〉
ここで、携帯端末について説明する。
That is, in the information processing system 1 of the present embodiment, the stored music sound data WD is reproduced on the portable terminal 5 in which the music sound data WD is stored, and based on the data distributed from the information processing server 20. This is a system for outputting lyrics along with the reproduction of the music acoustic data WD.
<About mobile devices>
Here, the mobile terminal will be described.

携帯端末5は、図1に示すように、情報受付部6と、表示部7と、音出力部8と、通信部9と、記憶部10と、制御部11とを備え、楽曲音響データWDを再生可能な端末(例えば、周知のポータブルオーディオプレーヤや、オーディオプレーヤとして機能する周知の携帯電話)である。   As shown in FIG. 1, the portable terminal 5 includes an information receiving unit 6, a display unit 7, a sound output unit 8, a communication unit 9, a storage unit 10, and a control unit 11, and music acoustic data WD. (For example, a well-known portable audio player or a well-known mobile phone that functions as an audio player).

このうち、情報受付部6は、入力装置(図示せず)を介して入力された情報を受け付ける。表示部7は、制御部11からの指令に基づいて、少なくとも、文字コードで示される情報を含む画像を表示する。音出力部8は、少なくとも、楽曲音響データWDを再生して音を出力する周知の装置であり、例えば、PCM音源と、スピーカとを備えている。   Among these, the information reception part 6 receives the information input via the input device (not shown). The display unit 7 displays an image including at least information indicated by a character code based on a command from the control unit 11. The sound output unit 8 is a known device that reproduces music acoustic data WD and outputs sound, and includes, for example, a PCM sound source and a speaker.

通信部9は、通信網(例えば、公衆無線通信網やネットワーク回線)を介して、携帯端末5が外部との間で情報通信を行うものである。記憶部10は、記憶内容を読み書き可能に構成された不揮発性の記憶装置(例えば、ハードディスク装置や、フラッシュメモリ)であり、各種処理プログラムや各種データが記憶される。   The communication unit 9 is for the mobile terminal 5 to perform information communication with the outside via a communication network (for example, a public wireless communication network or a network line). The storage unit 10 is a non-volatile storage device (for example, a hard disk device or a flash memory) configured to be able to read and write stored contents, and stores various processing programs and various data.

その記憶部10に記憶される楽曲音響データWDは、1つの楽曲(以下、特定楽曲とする)を構成する全ての楽音の音圧が時間軸に沿って推移したアナログ波形(即ち、楽音推移波形)を標本化(サンプリング)した楽曲波形データDWと、特定楽曲を識別する情報(例えば、識別番号)である楽曲タグデータDDとを備えている。   The music acoustic data WD stored in the storage unit 10 is an analog waveform (that is, a music transition waveform) in which the sound pressures of all the musical sounds constituting one music (hereinafter referred to as a specific music) change along the time axis. ) Sampled (sampled) music waveform data DW and music tag data DD which is information (for example, an identification number) for identifying a specific music.

すなわち、1つの楽曲音響データWDは、楽曲タグデータDDと楽曲波形データDWとが、特定楽曲ごとに対応付けられたデータであり、例えば、WAVやMP3形式の音声ファイルである。なお、本実施形態においては、少なくとも1つの楽曲音響データWDが記憶部10に記憶されており、図1中の符号“m”は、記憶部10に記憶されている楽曲波形データの数(1以上の自然数)を表す。   That is, one piece of music acoustic data WD is data in which song tag data DD and song waveform data DW are associated with each specific song, for example, an audio file in WAV or MP3 format. In the present embodiment, at least one piece of music acoustic data WD is stored in the storage unit 10, and the symbol “m” in FIG. 1 indicates the number of music waveform data stored in the storage unit 10 (1 The above natural number).

また、制御部11は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを格納するROM12と、処理プログラムやデータを一時的に格納するRAM13と、ROM12やRAM13に記憶された処理プログラムに従って各処理(各種演算)を実行するCPU14とを少なくとも有した周知のコンピュータを中心に構成されている。   The control unit 11 is stored in the ROM 12 that stores processing programs and data that need to retain stored contents even when the power is turned off, the RAM 13 that temporarily stores processing programs and data, and the ROM 12 and RAM 13. It is mainly composed of a known computer having at least a CPU 14 that executes each process (various operations) according to the processing program.

なお、ROM12には、情報受付部6を介して指定された楽曲(以下、対象楽曲と称す)に対応する楽曲波形データDWを再生すると共に、情報処理サーバ20から、対象楽曲に対応する歌詞データ群DLを取得して、楽曲波形データDWの再生に併せて歌詞を出力するカラオケ再生処理を、制御部11が実行するためのプログラムが格納されている。
〈情報処理サーバについて〉
次に、情報処理サーバ20について説明する。
The ROM 12 reproduces the music waveform data DW corresponding to the music specified through the information receiving unit 6 (hereinafter referred to as the target music), and the lyrics data corresponding to the target music from the information processing server 20. Stored is a program for the control unit 11 to execute a karaoke playback process of acquiring the group DL and outputting the lyrics along with the playback of the music waveform data DW.
<Information processing server>
Next, the information processing server 20 will be described.

この情報処理サーバ20は、通信部21と、入力受付部22と、表示部23と、音入力部24と、音出力部25と、音源モジュール26と、記憶部27と、制御部30とを備えている。   The information processing server 20 includes a communication unit 21, an input reception unit 22, a display unit 23, a sound input unit 24, a sound output unit 25, a sound source module 26, a storage unit 27, and a control unit 30. I have.

このうち、通信部21は、通信網(例えば、公衆無線通信網やネットワーク回線)を介して、情報処理サーバ20が外部との間で通信を行う。入力受付部22は、外部からの操作に従って情報や指令の入力を受け付ける入力機器(例えば、キーボードやポインティングデバイス)である。   Among these, in the communication unit 21, the information processing server 20 communicates with the outside via a communication network (for example, a public wireless communication network or a network line). The input receiving unit 22 is an input device (for example, a keyboard or a pointing device) that receives input of information and commands in accordance with an external operation.

表示部23は、少なくとも、文字コードで示される情報を含む画像を表示する表示装置(例えば、液晶ディスプレイやCRT等)である。また、音入力部24は、音を電気信号に変換して制御部30に入力する装置(いわゆるマイクロホン)である。音出力部25は、制御部30からの電気信号を音に変換して出力する装置(いわゆるスピーカ)である。さらに、音源モジュール26は、MIDI(Musical Instrument Digital Interface)規格によって規定されたデータに基づいて、音源からの音を模擬した音(即ち、出力音)を出力する装置(例えば、MIDI音源)である。   The display unit 23 is a display device (for example, a liquid crystal display or a CRT) that displays an image including at least information indicated by a character code. The sound input unit 24 is a device (so-called microphone) that converts sound into an electric signal and inputs the electric signal to the control unit 30. The sound output unit 25 is a device (so-called speaker) that converts an electrical signal from the control unit 30 into sound and outputs the sound. Furthermore, the sound source module 26 is a device (for example, a MIDI sound source) that outputs a sound (that is, an output sound) that simulates a sound from a sound source, based on data defined by the MIDI (Musical Instrument Digital Interface) standard. .

記憶部27は、記憶内容を読み書き可能に構成された不揮発性の記憶装置(例えば、ハードディスク装置や、フラッシュメモリ)である。その記憶部27には、音楽データMD1〜MDl(lは、音楽データの数を表す1以上の自然数)が格納されている。
〈音楽データについて〉
本実施形態における音楽データMDには、楽曲MIDIデータDM(特許請求の範囲における楽曲楽譜データに相当)と、歌詞データ群DLとが含まれる。
The storage unit 27 is a non-volatile storage device (for example, a hard disk device or a flash memory) configured to be able to read and write stored contents. The storage unit 27 stores music data MD1 to MDl (l is a natural number of 1 or more representing the number of music data).
<About music data>
The music data MD in the present embodiment includes music MIDI data DM (corresponding to music score data in the claims) and a lyrics data group DL.

このうち、楽曲MIDIデータDMは、周知のMIDI(Musical Instrument Digital Interface)規格によって、特定楽曲を模擬した楽曲の楽譜を表すデータであり、楽曲ごとに予め用意されている。この楽曲MIDIデータDMの各々は、楽曲を区別するデータである識別データと、当該楽曲にて用いられる楽器ごとの楽譜を表す楽譜トラックと、当該楽曲を分割した区間(例えば、Aメロやサビなど)の各々におけるテンポ(いわゆるBPM(Beats Per Minute))を表すテンポデータ(特許請求の範囲における楽曲テンポ情報に相当)とを少なくとも有している。   Of these, the music MIDI data DM is data representing the musical score of a music simulating a specific music according to the well-known MIDI (Musical Instrument Digital Interface) standard, and is prepared in advance for each music. Each of the music MIDI data DM includes identification data that is data for distinguishing music, a music track representing a music score for each musical instrument used in the music, and a section in which the music is divided (for example, A melody or rust). ) At least tempo data (corresponding to music tempo information in the claims) representing tempo (so-called BPM (Beats Per Minute)).

そして、楽譜トラックには、MIDI音源から出力される個々の出力音について、少なくとも、音高(いわゆるノートナンバー)と、音源モジュールが出力音を出力する期間(以下、音符長)とが規定されている。ただし、楽譜トラックの音符長は、当該出力音の出力を開始するまでの当該楽曲の演奏開始からの時間を表す演奏開始タイミング(いわゆるノートオンタイミング)と、当該出力音の出力を終了するまでの当該楽曲の演奏開始からの時間を表す演奏終了タイミング(いわゆるノートオフタイミング)とによって規定されている。   The musical score track defines at least a pitch (so-called note number) and a period during which the sound module outputs the output sound (hereinafter, note length) for each output sound output from the MIDI sound source. Yes. However, the note length of the musical score track is the performance start timing (so-called note-on timing) indicating the time from the start of the performance of the music until the output of the output sound is started, and the output of the output sound is ended. It is defined by the performance end timing (so-called note-off timing) that represents the time from the start of performance of the music.

なお、楽譜トラックは、例えば、鍵盤楽器(例えば、ピアノやパイプオルガンなど)、弦楽器(例えば、バイオリンやビオラ、ギター、ベースギター、琴など)、打楽器(例えば、ドラムやシンバル、ティンパニー、木琴など)、及び管楽器(例えば、クラリネットやトランペット、フルート、尺八など)などの楽器ごとに用意されている。   Note that the musical score track is, for example, a keyboard instrument (eg, piano or pipe organ), a stringed instrument (eg, violin, viola, guitar, bass guitar, koto), or a percussion instrument (eg, drum, cymbal, timpani, xylophone, etc.). , And wind instruments (for example, clarinet, trumpet, flute, shakuhachi, etc.).

一方、歌詞データ群DLは、周知のカラオケ装置を構成する表示装置に表示される歌詞に関するデータであり、特定楽曲の歌詞を構成する文字(以下、歌詞構成文字とする)を表す歌詞テロップデータDTと、歌詞構成文字の出力タイミングである歌詞出力タイミングを、楽曲MIDIデータDMの演奏と対応付けるタイミング対応関係が規定された歌詞出力データDOとを備えている。   On the other hand, the lyric data group DL is data relating to lyrics displayed on a display device constituting a well-known karaoke device, and lyrics telop data DT representing characters constituting the lyrics of a specific musical piece (hereinafter referred to as lyric constituent characters). And lyrics output data DO in which a timing correspondence relationship for associating the lyrics output timing, which is the output timing of the lyrics constituent characters, with the performance of the music MIDI data DM is provided.

具体的に、本実施形態におけるタイミング対応関係は、楽曲MIDIデータDMの演奏を開始するタイミングに、歌詞テロップデータDTの出力を開始するタイミングが対応付けられた上で、特定楽曲の時間軸に沿った各歌詞構成文字の歌詞出力タイミングが、楽曲MIDIデータDMの演奏を開始からの経過時間によって規定されている。なお、ここでいう経過時間とは、例えば、表示された歌詞構成文字の色替えを実行するタイミングを表す時間であり、色替えの速度によって規定されている。また、ここでいう歌詞構成文字は、歌詞を構成する文字の各々であっても良いし、その文字の各々を時間軸に沿った特定の規則に従って一群とした文節やフレーズであっても良い。   Specifically, the timing correspondence relationship in the present embodiment is based on the timing of starting the output of the lyrics telop data DT to the timing of starting the performance of the music MIDI data DM, and along the time axis of the specific music. The lyrics output timing of each lyrics constituent character is defined by the elapsed time from the start of the performance of the music MIDI data DM. The elapsed time referred to here is, for example, a time representing the timing of executing color change of the displayed lyrics constituent characters, and is defined by the color change speed. Further, the lyric constituent characters here may be each of the characters constituting the lyric, or may be a phrase or a phrase in which each of the characters is grouped according to a specific rule along the time axis.

なお、本実施形態においては、楽曲MIDIデータDMと、歌詞データ群DLとは、それぞれ対応する特定楽曲ごとに対応付けて、記憶部27に格納されている。
また、制御部30は、電源が切断されても記憶内容を保持する必要がある処理プログラムやデータを格納するROM31と、処理プログラムやデータを一時的に格納するRAM32と、ROM31やRAM32に記憶された処理プログラムに従って各処理(各種演算)を実行するCPU33とを少なくとも有した周知のコンピュータを中心に構成されている。
In the present embodiment, the music MIDI data DM and the lyrics data group DL are stored in the storage unit 27 in association with each corresponding specific music.
Further, the control unit 30 is stored in the ROM 31 that stores processing programs and data that need to retain stored contents even when the power is turned off, the RAM 32 that temporarily stores processing programs and data, and the ROM 31 and RAM 32. It is mainly composed of a known computer having at least a CPU 33 that executes each process (various operations) according to the processing program.

なお、ROM31には、対象楽曲に対応する歌詞出力データDOの歌詞出力タイミングを、対象楽曲に対応する楽曲波形データDW中の楽音の演奏開始タイミングに一致するように修正した修正出力データDOを生成して出力するデータ修正処理を、制御部30が実行するための処理プログラムが格納されている。
〈カラオケ再生処理及びデータ修正処理の概要について〉
次に、携帯端末5の制御部11が実行するカラオケ再生処理、及び情報処理サーバ20の制御部30が実行するデータ修正処理について説明する。
The ROM 31 generates corrected output data DO in which the lyrics output timing of the lyrics output data DO corresponding to the target music is corrected to coincide with the musical performance start timing in the music waveform data DW corresponding to the target music. A processing program for the control unit 30 to execute the data correction process to be output is stored.
<Overview of Karaoke playback processing and data correction processing>
Next, karaoke reproduction processing executed by the control unit 11 of the portable terminal 5 and data correction processing executed by the control unit 30 of the information processing server 20 will be described.

ここで、図2は、カラオケ再生処理の処理手順、及びデータ修正処理の処理手順を示したフローチャートである。
このカラオケ再生処理は、情報受付部6を介して起動指令が入力されると、起動されるものである。
Here, FIG. 2 is a flowchart showing the processing procedure of the karaoke reproduction processing and the processing procedure of the data correction processing.
This karaoke reproduction process is activated when an activation command is input via the information receiving unit 6.

この図2に示すように、携帯端末5の制御部11が実行するカラオケ再生処理では、対象楽曲に対応する楽曲タグデータDDを、携帯端末5の記憶部10から取得して情報処理サーバ20に送信する(SS10)。さらに、カラオケ再生処理では、携帯端末5の記憶部10から取得した対象楽曲に対応する楽曲波形データDWに対して、各種処理を実行した結果(以下、端末送信情報と称す)を情報処理サーバ20に送信する(SS20,SS30,SS40)。   As shown in FIG. 2, in the karaoke playback process executed by the control unit 11 of the mobile terminal 5, music tag data DD corresponding to the target music is acquired from the storage unit 10 of the mobile terminal 5 and stored in the information processing server 20. Transmit (SS10). Furthermore, in the karaoke playback process, the result of executing various processes on the music waveform data DW corresponding to the target music acquired from the storage unit 10 of the mobile terminal 5 (hereinafter referred to as terminal transmission information) is the information processing server 20. (SS20, SS30, SS40).

一方、情報処理サーバ20の制御部30が実行するデータ修正処理では、携帯端末5からの楽曲タグデータDDを取得すると、その楽曲タグデータDDに対応する特定楽曲の音楽データ、及び携帯端末5からの端末送信情報に基づいて、修正出力データDOを生成する。さらに、データ修正処理では、その生成した修正出力データDO、及び対象楽曲の歌詞テロップデータDTを携帯端末5へと送信する(SS50)。   On the other hand, in the data correction process executed by the control unit 30 of the information processing server 20, when the music tag data DD from the mobile terminal 5 is acquired, the music data of the specific music corresponding to the music tag data DD and the mobile terminal 5 The modified output data DO is generated based on the terminal transmission information. Further, in the data correction process, the generated corrected output data DO and the lyrics telop data DT of the target music are transmitted to the portable terminal 5 (SS50).

この情報処理サーバ20から、修正出力データDO及び対象楽曲の歌詞テロップデータDTを受信した携帯端末5では、カラオケ再生処理にて、対象楽曲に対応する楽曲波形データDWを再生すると共に、楽曲波形データDWの再生に併せて歌詞構成文字を出力する。
〈カラオケ再生処理について〉
次に、携帯端末5の制御部11が実行するカラオケ再生処理について、詳細に説明する。
In the portable terminal 5 that has received the corrected output data DO and the lyrics telop data DT of the target music from the information processing server 20, the music waveform data DW corresponding to the target music is played back and the music waveform data in the karaoke playback process. The lyrics composing characters are output along with the playback of DW.
<About karaoke playback processing>
Next, the karaoke reproduction process executed by the control unit 11 of the mobile terminal 5 will be described in detail.

このカラオケ再生処理は、情報受付部6を介して起動指令が入力されると、起動されるものである。
そして、カラオケ再生処理は、起動されると、まず、情報受付部6を介して入力された情報によって指定された楽曲(即ち、対象楽曲)に対応する楽曲タグデータDDを、携帯端末5の記憶部10から取得する(S110(Sは、ステップを意味する))。続いて、S110にて取得した楽曲タグデータDDを情報処理サーバ20に送信する(SS10)。
This karaoke reproduction process is activated when an activation command is input via the information receiving unit 6.
When the karaoke playback process is started, first, the music tag data DD corresponding to the music (that is, the target music) specified by the information input via the information receiving unit 6 is stored in the portable terminal 5. Obtained from the unit 10 (S110 (S means step)). Subsequently, the music tag data DD acquired in S110 is transmitted to the information processing server 20 (SS10).

さらに、対象楽曲に対応する楽曲波形データDWを取得し(S120)、その取得した楽曲波形データDWから楽曲スペクトルを導出する(S130)。
具体的に、本実施形態のS130では、楽曲波形データDWによって表される楽音推移波形を時間軸に沿って単位時間ごとに切り出した波形素片を周波数分析(例えば、FFT(Fast Fourier transform)による離散フーリエ変換)する。なお、単位時間とは、いわゆる時間窓として予め規定された時間長であり、楽曲波形データDWにおける時間軸に沿って重複して設定されている。
Further, music waveform data DW corresponding to the target music is acquired (S120), and a music spectrum is derived from the acquired music waveform data DW (S130).
Specifically, in S130 of the present embodiment, a waveform segment obtained by cutting out the musical sound transition waveform represented by the music waveform data DW along the time axis for each unit time is analyzed by frequency analysis (for example, FFT (Fast Fourier transform)). Discrete Fourier transform). The unit time is a time length defined in advance as a so-called time window, and is set redundantly along the time axis in the music waveform data DW.

そして、この周波数分析によって導出される全ての波形素片の周波数スペクトルについて、周波数成分ごとの振幅(絶対値)を平均した結果を、楽曲スペクトルとして導出する。   And about the frequency spectrum of all the waveform segments derived | led-out by this frequency analysis, the result of averaging the amplitude (absolute value) for every frequency component is derived | led-out as a music spectrum.

その後、端末送信情報の1つとして、S130で導出した楽曲スペクトルを情報処理サーバ20に送信する(SS20)。
さらに、S120で取得した楽曲波形データDWに基づいて、対象楽曲のテンポ(いわゆるBPM(Beats Per Minute)、以下、楽曲BPMと称す)を推定する(S140)。
Then, the music spectrum derived | led-out by S130 is transmitted to the information processing server 20 as one of terminal transmission information (SS20).
Furthermore, based on the music waveform data DW acquired in S120, the tempo of the target music (so-called BPM (Beats Per Minute), hereinafter referred to as music BPM) is estimated (S140).

ここで、図3は、本実施形態において、楽曲BPMを推定する手法を説明する図である。
具体的に、本実施形態のS140では、楽曲波形データDWによって表される楽音推移波形から、時間軸に沿って単位時間ごとに波形素片を切り出す。そして、打楽器(例えば、ドラム)の楽音の周波数スペクトルを包絡線にて模擬し、かつ予め用意した基準スペクトル(図3(A)参照)を、単位時間ごとに切り出した各波形素片を周波数分析した結果(即ち、周波数スペクトルの包絡線)に照合し、各波形素片の周波数スペクトル(包絡線)に対する基準スペクトルの類似度(以下、スペクトル類似度と称す)を導出する。
Here, FIG. 3 is a diagram illustrating a method for estimating the music BPM in the present embodiment.
Specifically, in S140 of the present embodiment, a waveform segment is cut out for each unit time along the time axis from the musical sound transition waveform represented by the music waveform data DW. Then, the frequency spectrum of the percussion instrument (for example, drum) musical tone is simulated with an envelope, and a reference spectrum (see FIG. 3A) prepared in advance is cut out for each waveform segment for each unit time. The results are compared with each other (that is, the envelope of the frequency spectrum), and the similarity of the reference spectrum (hereinafter referred to as spectrum similarity) with respect to the frequency spectrum (envelope) of each waveform segment is derived.

さらに、図3(B)に示すような、対象楽曲の時間軸に沿ったスペクトル類似度の推移を表す類似度推移を導出し、その類似度推移において、スペクトル類似度の極大値であって、互いに隣接するスペクトル類似度の極大値間の時間間隔(図3(B)中:TI)を求める。そして、図3(C)に示すような、時間間隔TIを階級としたヒストグラムを表す時間間隔分布を生成し、その時間間隔分布において、最も大きな度数に対応する時間間隔(以下、最頻時間間隔と称す)TIの逆数を、楽曲BPMとして推定する。   Furthermore, as shown in FIG. 3B, a similarity transition representing a transition of the spectrum similarity along the time axis of the target music is derived, and in the similarity transition, the maximum value of the spectrum similarity is obtained, A time interval (maximum in FIG. 3B: TI) between the maximum values of the spectral similarity adjacent to each other is obtained. Then, a time interval distribution representing a histogram with the time interval TI as a class as shown in FIG. 3C is generated, and the time interval corresponding to the largest frequency in the time interval distribution (hereinafter, the mode time interval). The reciprocal of TI is estimated as the music BPM.

なお、楽曲BPMの推定方法を、より詳しく説明すると、本実施形態では、最頻時間間隔TIの単位が秒[s:second]であれば、楽曲BPM=60/最頻時間間隔TIにて推定し、最頻時間間隔TIの単位が分[m:minute]であれば、楽曲BPM=1/最頻時間間隔TIにて推定することが好ましい。   The method for estimating the music BPM will be described in more detail. In the present embodiment, if the unit of the most frequent time interval TI is seconds [s: second], the music BPM is estimated at 60 / the most frequent time interval TI. If the unit of the most frequent time interval TI is minutes [m: minute], it is preferable to estimate with the music BPM = 1 / the most frequent time interval TI.

なお、S140における楽曲BPMの推定は、対象楽曲において、歌詞が規定されている歌唱区間(例えば、サビ)などの特定の区間に対して実行しても良いし、対象楽曲の全区間に対して実行しても良い。   The estimation of the music BPM in S140 may be executed for a specific section such as a singing section (for example, rust) in which lyrics are defined in the target music, or for all sections of the target music. May be executed.

カラオケ再生処理では、S140にて推定した楽曲BPMを端末送信情報の1つとして、情報処理サーバ20に送信する(SS30)。その後、楽曲波形データDWによって表される楽音推移波形から、ベースギターの楽音が時間軸に沿って推移した波形であるベース波形情報を抽出する(S150)。具体的に、本実施形態のS150では、ベースギターの楽音の周波数帯域での信号を通過させる帯域制限フィルタを予め用意し、その帯域制限フィルタに、楽曲波形データDWによって表される楽音推移波形を通す。そして、この帯域制限フィルタ通過後の信号波形を、楽音推移波形のサンプリング周波数よりも低いサンプリング周波数で再度サンプリングした信号波形(即ち、ダウンサンプリングした信号波形)を、ベース波形情報として抽出する。   In the karaoke playback process, the music BPM estimated in S140 is transmitted to the information processing server 20 as one of the terminal transmission information (SS30). Thereafter, bass waveform information, which is a waveform in which the tone of the bass guitar has shifted along the time axis, is extracted from the tone transition waveform represented by the music waveform data DW (S150). Specifically, in S150 of the present embodiment, a band limiting filter that allows a signal in the frequency band of the musical sound of the bass guitar to pass is prepared in advance, and a musical sound transition waveform represented by the music waveform data DW is stored in the band limiting filter. Pass through. Then, a signal waveform obtained by re-sampling the signal waveform after passing through the band limiting filter at a sampling frequency lower than the sampling frequency of the musical tone transition waveform (that is, a down-sampled signal waveform) is extracted as base waveform information.

カラオケ再生処理では、端末送信情報の1つとして、ベース波形情報を情報処理サーバ20に送信する(SS40)。
そして、カラオケ再生処理では、情報処理サーバ20からの修正出力データDO及び対象楽曲の歌詞テロップデータDTを受信すると、対象楽曲に対応する楽曲波形データDWを再生すると共に、楽曲波形データDWの再生に併せて歌詞構成文字を表示部7に表示する(S160)。このS160での歌詞構成文字の表示には、表示部7に表示した歌詞構成文字の色を、楽曲波形データDWの再生に併せて変更することを含む。
In the karaoke playback process, the base waveform information is transmitted to the information processing server 20 as one of the terminal transmission information (SS40).
In the karaoke playback process, when the corrected output data DO and the lyrics telop data DT of the target music are received from the information processing server 20, the music waveform data DW corresponding to the target music is played and the music waveform data DW is played back. In addition, the lyrics constituent characters are displayed on the display unit 7 (S160). The display of the lyrics constituent characters in S160 includes changing the color of the lyrics constituent characters displayed on the display unit 7 together with the reproduction of the music waveform data DW.

その後、本カラオケ再生処理を終了する。
〈データ修正処理について〉
次に、情報処理サーバ20の制御部30が実行するデータ修正処理について、詳細に説明する。
Thereafter, the karaoke playback process is terminated.
<About data correction processing>
Next, data correction processing executed by the control unit 30 of the information processing server 20 will be described in detail.

このデータ修正処理は、図2に示すように、起動されると、まず、携帯端末5から楽曲タグデータDDを受信したか否かを判定する(S310)。このS310の判定の結果、楽曲タグデータDDを受信していなければ(S310:NO)、楽曲タグデータDDを受信するまで待機し、携帯端末5からの楽曲タグデータDDを受信すると(S310:YES)、S320へと移行する。   As shown in FIG. 2, when the data correction process is started, it is first determined whether or not the music tag data DD is received from the portable terminal 5 (S310). If the music tag data DD is not received as a result of the determination in S310 (S310: NO), the process waits until the music tag data DD is received, and receives the music tag data DD from the portable terminal 5 (S310: YES). ), The process proceeds to S320.

そのS320では、S310で受信した楽曲タグデータDDによって表される対象楽曲に対応した楽曲MIDIデータDM及び歌詞データ群DLを取得する。そして、S320にて取得した楽曲MIDIデータDM、及び携帯端末5から受信した楽曲スペクトルに基づいて、対象楽曲を構成する楽音の音高に、出力音の音高が一致するように、当該楽曲MIDIデータDMを修正する音高補正処理を実行する(S330)。以下、出力音について修正が実行された楽曲MIDIデータDMを修正楽曲MIDIデータDMと称す。
〈音高補正処理の処理内容について〉
ここで、データ修正処理のS150にて起動される音高補正処理について説明する。
In S320, the music MIDI data DM and the lyrics data group DL corresponding to the target music represented by the music tag data DD received in S310 are acquired. Then, based on the music MIDI data DM acquired in S320 and the music spectrum received from the portable terminal 5, the music MIDI is set so that the pitch of the output sound matches the pitch of the musical sound constituting the target music. A pitch correction process for correcting the data DM is executed (S330). Hereinafter, the music MIDI data DM in which the output sound has been corrected is referred to as corrected music MIDI data DM.
<Pitch correction processing details>
Here, the pitch correction process started in S150 of the data correction process will be described.

この音高補正処理は、起動されると、図4に示すように、先のS320にて取得した楽曲MIDIデータDMに含まれる全ての楽譜トラックに基づいて、全ての出力音が時間軸に沿って推移した波形である出力音推移波形を取得する(S510)。具体的に、本実施形態における出力音推移波形の取得は、MIDI規格のデータから音声信号(波形)を生成する周知のレンダリングによって実行される。   When this pitch correction process is started, as shown in FIG. 4, all output sounds are set along the time axis based on all score tracks included in the music MIDI data DM acquired in the previous S320. An output sound transition waveform that is a waveform that has been shifted is acquired (S510). Specifically, the acquisition of the output sound transition waveform in the present embodiment is executed by well-known rendering that generates an audio signal (waveform) from MIDI standard data.

続いて、その取得した出力音推移波形を、時間軸に沿って設定された単位時間ごとに周波数解析して、各単位時間の出力音推移波形に対する周波数スペクトルを導出する(S520)。そのS520で導出された周波数スペクトルに基づいて、各周波数成分の強度を、時間軸に沿って周波数ごとに相加平均した平均出力音スペクトルを導出する(S530)。その導出した平均出力音スペクトルにおける周波数成分の強度を、境界が互いに隣接するように予め規定された周波数範囲(例えば、半音単位、以下、規定音高範囲)ごとに平均化して代表値とする(S540)。さらに、そのS540で平均化した平均出力音スペクトルにおける周波数成分の強度を、分散「1」、平均「0」となるように正規化した正規化出力音スペクトル(図5(A)参照)を導出する(S550)。   Subsequently, the obtained output sound transition waveform is subjected to frequency analysis for each unit time set along the time axis, and a frequency spectrum for the output sound transition waveform of each unit time is derived (S520). Based on the frequency spectrum derived in S520, an average output sound spectrum obtained by arithmetically averaging the intensity of each frequency component for each frequency along the time axis is derived (S530). The intensity of the frequency component in the derived average output sound spectrum is averaged for each frequency range (for example, semitone unit, hereinafter, the specified pitch range) so that the boundaries are adjacent to each other, and used as a representative value ( S540). Further, a normalized output sound spectrum (see FIG. 5A) is derived by normalizing the intensity of the frequency component in the average output sound spectrum averaged in S540 so that the variance is “1” and the average is “0”. (S550).

続いて、携帯端末5から取得した楽曲スペクトルについて、周波数成分の強度を、規定音高範囲ごとに平均化して代表値とし、その周波数成分の強度を、分散「1」、平均「0」となるように正規化した正規化楽音スペクトル(図5(B)参照)を導出する(S560)。   Subsequently, with respect to the music spectrum acquired from the mobile terminal 5, the intensity of the frequency component is averaged for each specified pitch range to obtain a representative value, and the intensity of the frequency component becomes variance “1” and average “0”. A normalized musical tone spectrum (see FIG. 5B) normalized as described above is derived (S560).

なお、本実施形態のS540,S560にて求める代表値は、規定音高範囲における中心値に対応する周波数における強度を代表値としても良い。この場合、具体的には、20Cent毎(半音の5分の1毎)に、20Centグリッドに一番近い周波数の値(パワー)を抽出する処理を行う。   Note that the representative value obtained in S540 and S560 of the present embodiment may be the intensity at a frequency corresponding to the center value in the specified pitch range. In this case, specifically, for each 20 Cent (every fifth of a semitone), a process of extracting a frequency value (power) closest to the 20 Cent grid is performed.

そして、正規化出力音スペクトルと正規化楽音スペクトルとの相関値(以下、音高相関値とする)を導出する(S570)。そして、正規化楽音スペクトルに対する正規化出力音スペクトルのシフト量が予め規定された上限値以上であるか否かを判定する(S580)。その判定の結果、シフト量が上限値未満であれば(S580:NO)、正規化出力音スペクトルを、周波数軸に沿って予め規定された規定量シフトして(S590)、S570へと戻り、音高相関値を再度導出する。   Then, a correlation value (hereinafter referred to as a pitch correlation value) between the normalized output sound spectrum and the normalized musical sound spectrum is derived (S570). Then, it is determined whether or not the shift amount of the normalized output sound spectrum with respect to the normalized musical sound spectrum is equal to or greater than a predetermined upper limit value (S580). As a result of the determination, if the shift amount is less than the upper limit value (S580: NO), the normalized output sound spectrum is shifted by a predetermined amount along the frequency axis (S590), and the process returns to S570. The pitch correlation value is derived again.

すなわち、本実施形態のS570〜S590では、図5(C)に示すように、正規化楽音スペクトルに対して、正規化出力音スペクトルを周波数軸に沿って下限値から上限値に達するまでシフトさせつつ、その正規化出力音スペクトルをシフトさせるごとに、音高相関値を導出する。   That is, in S570 to S590 of the present embodiment, as shown in FIG. 5C, the normalized output sound spectrum is shifted from the lower limit value to the upper limit value along the frequency axis with respect to the normalized musical sound spectrum. On the other hand, a pitch correlation value is derived each time the normalized output sound spectrum is shifted.

そして、正規化出力音のシフト量が上限値以上となると(S580:YES)、対象楽曲を構成する楽音の音高に、出力音の音高を一致させるための補正量(以下、音高補正量とする)を決定する(S600)。本実施形態のS600では、具体的に、先のS570にて導出された全ての音高相関値の中で、値が最大である音高相関値に対応する正規化出力音スペクトルのシフト量を音高補正量として決定する。   Then, when the shift amount of the normalized output sound is equal to or greater than the upper limit (S580: YES), a correction amount (hereinafter referred to as pitch correction) for matching the pitch of the output sound to the pitch of the musical sound constituting the target music. (S600) is determined. In S600 of the present embodiment, specifically, among the pitch correlation values derived in the previous S570, the shift amount of the normalized output sound spectrum corresponding to the pitch correlation value having the maximum value is calculated. Determined as pitch correction amount.

続いて、その導出された音高補正量に従って、楽曲MIDIデータDMにおける全ての楽譜トラックに規定された個々の出力音の音高を修正することで、修正楽曲MIDIデータDMを生成する(S610)。すなわち、本実施形態のS610にて生成される修正楽曲MIDIデータDMは、全ての出力音の音高が、予め用意された出力音の音高から音高補正量シフトされたものとなる。   Subsequently, the corrected music MIDI data DM is generated by correcting the pitches of the individual output sounds defined for all the score tracks in the music MIDI data DM according to the derived pitch correction amount (S610). . That is, the modified music MIDI data DM generated in S610 of the present embodiment is obtained by shifting the pitch correction amount of the pitch of all output sounds from the pitch of the output sound prepared in advance.

そして、その後、本音高補正処理を終了し、データ修正処理へと戻る。
続いて、図2に示すデータ修正処理では、楽曲MIDIデータDM中に含まれている対象楽曲のテンポデータ、及び携帯端末5からの楽曲BPMに基づいて、楽曲BPMに一致するように、楽曲MIDIデータDMに含まれているテンポデータを修正するBPM補正を実行する(S340)。
After that, the pitch correction process is terminated and the process returns to the data correction process.
Subsequently, in the data correction process shown in FIG. 2, the music MIDI is matched with the music BPM based on the tempo data of the target music included in the music MIDI data DM and the music BPM from the mobile terminal 5. BPM correction for correcting the tempo data included in the data DM is executed (S340).

具体的に、本実施形態のS340では、楽曲MIDIデータDMからテンポデータを抽出し、その抽出したテンポデータ(すなわち、BPM)と、携帯端末5からの楽曲BPMとの比αを導出する。そして、導出した比αを、楽曲MIDIデータの時間軸に沿った全区間のテンポデータに乗じることを、BPM補正として実行する。   Specifically, in S340 of this embodiment, tempo data is extracted from the music MIDI data DM, and a ratio α between the extracted tempo data (ie, BPM) and the music BPM from the portable terminal 5 is derived. Then, multiplying the derived ratio α by the tempo data of all sections along the time axis of the music MIDI data is executed as BPM correction.

さらに、携帯端末5からのベース波形情報に基づいて、音高補正処理によって、出力音の音高が楽音の音高に一致するように修正された出力音(以下、修正出力音とする)の演奏開始タイミングと、楽音の演奏開始タイミングとのズレ量(以下、時間ズレ量と称す)を導出すると共に、対象楽曲を構成する楽音の演奏開始タイミングに一致するように、個々の出力音の演奏開始タイミングを修正した修正楽曲MIDIデータDMを生成するタイミング補正処理を実行する(S350)。   Furthermore, based on the base waveform information from the portable terminal 5, the output sound (hereinafter referred to as a corrected output sound) that has been corrected by the pitch correction process so that the pitch of the output sound matches the pitch of the musical tone. The amount of deviation between the performance start timing and the performance start timing of the musical sound (hereinafter referred to as the time deviation amount) is derived, and the performance of each output sound is matched so as to coincide with the performance start timing of the musical sound constituting the target music. Timing correction processing for generating corrected music MIDI data DM with the start timing corrected is executed (S350).

〈タイミング補正処理の処理内容について〉
次に、データ修正処理のS350にて起動されるタイミング補正処理について説明する。
<Processing details of timing correction processing>
Next, the timing correction process started in S350 of the data correction process will be described.

このタイミング補正処理は、起動されると、図6に示すように、修正楽曲MIDIデータDMに含まれている楽譜トラックのうち、ベースギターに対応する楽譜トラックに基づいて、ベースギターを模擬した出力音が時間軸に沿って推移した波形であるベース楽器波形を取得する(S710)。   When this timing correction process is started, as shown in FIG. 6, an output simulating a bass guitar based on a score track corresponding to the bass guitar among the score tracks included in the modified music MIDI data DM, as shown in FIG. A bass instrument waveform, which is a waveform in which the sound has shifted along the time axis, is acquired (S710).

そして、S710にて取得したベース楽器波形の時間軸上に規定されたベース設定位置を、携帯端末5からのベース波形情報の時間軸上に規定された波形基準位置に一致させて、ベース楽器波形とベース波形情報との相関値(以下、時間相関値とする)を導出する(S720)。   Then, the base instrument waveform is made to match the base setting position defined on the time axis of the base instrument waveform acquired in S710 with the waveform reference position defined on the time axis of the base waveform information from the portable terminal 5. And a correlation value between the base waveform information (hereinafter referred to as a time correlation value) are derived (S720).

続いて、ベース波形情報に対するベース楽器波形の時間軸に沿ったシフト量が、予め規定された上限値(シフト量の上限値)以上であるか否かを判定する(S730)。その判定の結果、ベース楽器波形のシフト量が、シフト量の上限値未満であれば(S730:NO)、ベース楽器波形の波形設定位置を、予め規定されたシフト量(即ち、時間)シフトして(S740)、S720へと戻る。   Subsequently, it is determined whether or not the shift amount along the time axis of the bass instrument waveform with respect to the bass waveform information is equal to or greater than a predetermined upper limit value (upper limit value of the shift amount) (S730). As a result of the determination, if the shift amount of the bass instrument waveform is less than the upper limit value of the shift amount (S730: NO), the waveform setting position of the bass instrument waveform is shifted by a predetermined shift amount (ie, time). (S740), the process returns to S720.

すなわち、本実施形態のS720〜S740では、図7に示すように、携帯端末5からのベース波形情報に対してベース楽器波形を上限値に達するまでシフトさせ、そのベース楽器波形をシフトさせるごとに、時間相関値を導出する。   That is, in S720 to S740 of this embodiment, as shown in FIG. 7, the bass instrument waveform is shifted with respect to the bass waveform information from the portable terminal 5 until it reaches the upper limit value, and each time the bass instrument waveform is shifted. Deriving a time correlation value.

一方、S730での判定の結果、シフト量が、シフト量の上限値以上となると(S730:YES)、対象楽曲を構成する楽音の演奏開始タイミングに、修正出力音の演奏開始タイミングを一致させるための補正量、即ち、時間ズレ量を決定する(S750)。具体的に、本実施形態のS750では、S720で導出された全ての時間相関値の中で値が最大となる時間相関値に対応する、ベース波形情報に対するベース楽器波形のシフト量を、時間ズレ量として決定する。   On the other hand, if the result of determination in S730 is that the shift amount is greater than or equal to the upper limit value of the shift amount (S730: YES), the performance start timing of the modified output sound is made to coincide with the performance start timing of the musical sound constituting the target music. Correction amount, that is, a time shift amount is determined (S750). Specifically, in S750 of the present embodiment, the shift amount of the bass instrument waveform with respect to the bass waveform information corresponding to the time correlation value having the maximum value among all the time correlation values derived in S720 is calculated. Determine as quantity.

続いて、タイミング補正処理にて導出された時間ズレ量に従って、楽曲波形データDWにおける個々の楽音の演奏開始タイミングに一致するように、楽曲MIDIデータDMに規定されている個々の出力音の演奏開始タイミングを補正する(S760)。具体的に、本実施形態のS760では、楽曲MIDIデータDMに規定されている個々の出力音の演奏開始タイミングを、時間軸に沿って時間シフト量シフトする。   Subsequently, the performance start of each output sound specified in the music MIDI data DM so as to coincide with the performance start timing of each music sound in the music waveform data DW according to the amount of time deviation derived in the timing correction processing. The timing is corrected (S760). Specifically, in S760 of the present embodiment, the performance start timing of each output sound defined in the music MIDI data DM is shifted by a time shift amount along the time axis.

その後、図2に示すデータ修正処理へと戻る。
そのデータ修正処理では、タイミング補正処理にて生成された修正楽曲MIDIデータDMに含まれるガイドメロディの各出力音の演奏開始タイミングと、修正前の楽曲MIDIデータDMに含まれているガイドメロディの各出力音の演奏開始タイミングとの時間差分(以下、タイミング差分と称す)を導出する(S360)。
Thereafter, the process returns to the data correction process shown in FIG.
In the data correction process, the performance start timing of each output sound of the guide melody included in the corrected music MIDI data DM generated in the timing correction process, and each of the guide melody included in the music MIDI data DM before correction A time difference (hereinafter referred to as a timing difference) from the performance start timing of the output sound is derived (S360).

続いて、対象楽曲の歌詞出力データDOを取得し、その歌詞出力データDOに規定されている各歌詞構成文字の歌詞出力タイミングが、楽曲波形データDWにおける楽音の演奏開始タイミングに一致するように、当該歌詞出力タイミングを修正した修正出力データDOを生成する(S370)。具体的に、本実施形態のS370では、歌詞構成文字の各々の歌詞出力タイミングを、対象楽曲の時間軸に沿って、S360で導出したタイミング差分シフトさせることで、修正出力データDOを生成する。   Subsequently, the lyric output data DO of the target music is acquired, and the lyric output timing of each lyric constituent character defined in the lyric output data DO matches the musical performance start timing in the music waveform data DW. Corrected output data DO with the lyrics output timing corrected is generated (S370). Specifically, in S370 of the present embodiment, the corrected output data DO is generated by shifting the lyrics output timing of each of the lyrics constituent characters along the time axis of the target music by the timing difference derived in S360.

さらに、対象楽曲の歌詞テロップデータDT、及びS370にて生成した修正出力データDO(図2中:修正歌詞データ)を、S310にて受信した楽曲タグデータDDを送信した携帯端末5へと送信する(S380)。   Further, the lyrics telop data DT of the target music and the corrected output data DO (in FIG. 2: corrected lyrics data) generated in S370 are transmitted to the mobile terminal 5 that has transmitted the music tag data DD received in S310. (S380).

その後、S310へと戻り、新たな楽曲タグデータDDを受信するまで待機する。
[実施形態の効果]
以上説明したように、本実施形態の情報処理システム1を構成する情報処理サーバ20にて生成される修正出力データDOは、歌詞出力タイミングが、楽曲波形データDWに基づく楽音の出力開始タイミングに一致したものとなる。よって、情報処理システム1を構成する携帯端末5にて、楽曲波形データDWに基づいて対象楽曲を演奏するときに、当該対象楽曲の楽音の出力タイミングに一致して歌詞構成文字を順次表示することができ、各歌詞構成文字の表示が、楽音の演奏タイミングに対してズレることを低減できる。
Thereafter, the process returns to S310 and waits until new music tag data DD is received.
[Effect of the embodiment]
As described above, in the corrected output data DO generated by the information processing server 20 constituting the information processing system 1 of the present embodiment, the lyrics output timing coincides with the tone output start timing based on the music waveform data DW. Will be. Therefore, when the target music is played on the portable terminal 5 constituting the information processing system 1 based on the music waveform data DW, the lyrics constituent characters are sequentially displayed in accordance with the musical sound output timing of the target music. It is possible to reduce the deviation of the display of each lyric constituent character from the musical performance timing.

また、本実施形態の情報処理システム1では、楽曲波形データDWに基づくBPMと、楽曲MIDIデータDMに基づくBPMとのズレ、楽曲波形データDWにおいてベースギターが演奏されるタイミングと、楽曲MIDIデータDMにおいてベースギターが出力されるタイミングのズレを導出している。そして、情報処理サーバ20によれば、これらのズレを用いて修正出力データDOを生成するため、その生成された修正出力データDOは、楽曲波形データDWに基づく楽音の演奏タイミングに対する、歌詞構成文字の出力タイミングのズレがより確実に低減されたものとなる。   Further, in the information processing system 1 of the present embodiment, the difference between the BPM based on the music waveform data DW and the BPM based on the music MIDI data DM, the timing at which the bass guitar is played in the music waveform data DW, and the music MIDI data DM The timing deviation of the bass guitar output is derived. Since the information processing server 20 generates the corrected output data DO using these deviations, the generated corrected output data DO is the lyric constituent characters with respect to the musical performance timing based on the music waveform data DW. The deviation of the output timing is more reliably reduced.

しかも、上記実施形態では、情報処理サーバ20から携帯端末5に送信するデータを、歌詞テロップデータDT及び修正出力データDOの2つのデータとしている。このため、情報処理システム1によれば、携帯端末5にて、対象楽曲の楽音の出力タイミングに一致して歌詞構成文字を順次表示するために、情報処理サーバ20から携帯端末5へと送信するデータの通信量を少量とすることができる。   Moreover, in the above-described embodiment, the data transmitted from the information processing server 20 to the portable terminal 5 is two data of the lyrics telop data DT and the corrected output data DO. Therefore, according to the information processing system 1, the mobile terminal 5 transmits the lyrics constituent characters from the information processing server 20 to the mobile terminal 5 in order to sequentially display the lyrics constituent characters in accordance with the output timing of the musical tone of the target music. The amount of data communication can be reduced.

さらに、上記実施形態では、携帯端末5から情報処理サーバ20に送信されるベース波形情報を、帯域制限フィルタ通過後の楽音推移波形を、ダウンサンプリングした信号波形としている。したがって、情報処理システム1によれば、携帯端末5から情報処理サーバ20への通信量を、より確実に低減できる。
[その他の実施形態]
以上、本発明の実施形態について説明したが、本発明は上記実施形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において、様々な態様にて実施することが可能である。
Further, in the above embodiment, the base waveform information transmitted from the mobile terminal 5 to the information processing server 20 is a signal waveform obtained by down-sampling the tone transition waveform after passing through the band limiting filter. Therefore, according to the information processing system 1, the amount of communication from the portable terminal 5 to the information processing server 20 can be reduced more reliably.
[Other Embodiments]
As mentioned above, although embodiment of this invention was described, this invention is not limited to the said embodiment, In the range which does not deviate from the summary of this invention, it is possible to implement in various aspects.

例えば、上記実施形態のカラオケ再生処理では、S110において、対象楽曲の楽曲タグデータDDを情報処理サーバ20に送信していたが、S110において、携帯端末5から送信するデータは、楽曲タグデータDDに限るものではない。すなわち、S110において、携帯端末5から送信するデータは、対象楽曲の演奏開始から予め定められた期間(例えば、いわゆるイントロに相当する期間)分の楽曲波形データDWでも良い。この場合、情報処理サーバ20は、周知の手法により、楽曲波形データDWを分析し楽曲を認識すれば良い。このとき、楽曲タグデータDDは、携帯端末5の記憶部10に記憶されていなくとも良い。   For example, in the karaoke playback process of the above embodiment, the music tag data DD of the target music is transmitted to the information processing server 20 in S110. However, in S110, the data transmitted from the portable terminal 5 is the music tag data DD. It is not limited. That is, in S110, the data transmitted from the portable terminal 5 may be music waveform data DW for a predetermined period (for example, a period corresponding to a so-called intro) from the start of performance of the target music. In this case, the information processing server 20 may recognize the music by analyzing the music waveform data DW by a known method. At this time, the music tag data DD may not be stored in the storage unit 10 of the mobile terminal 5.

換言すれば、情報処理サーバ20が対象楽曲を特定可能であれば、S110において、携帯端末5から送信されるデータは、どのようなデータであっても良い。
また、上記実施形態のタイミング補正処理では、携帯端末5からのベース波形情報に対してベース楽器波形を上限値に達するまでシフトさせ、そのベース楽器波形をシフトさせるごとに、時間相関値を導出した結果の中で、時間相関値の値が最も大きくなるシフト量を時間ズレ量として決定していたが、時間ズレ量を決定する方法は、これに限るものではない。例えば、ベース楽器波形の時間軸に沿った最初のピークと、ベース波形情報の時間軸に沿った最初のピークとが一致するように導出した、ベース波形情報に対するベース楽器波形の時間軸に沿ったシフト量を時間ズレ量として決定しても良い。
In other words, as long as the information processing server 20 can identify the target music piece, the data transmitted from the portable terminal 5 in S110 may be any data.
Further, in the timing correction process of the above embodiment, the base instrument waveform is shifted until the upper limit is reached with respect to the base waveform information from the portable terminal 5, and the time correlation value is derived each time the base instrument waveform is shifted. In the results, the shift amount that maximizes the time correlation value is determined as the time shift amount, but the method for determining the time shift amount is not limited to this. For example, along the time axis of the base instrument waveform with respect to the base waveform information derived so that the first peak along the time axis of the base instrument waveform matches the first peak along the time axis of the base waveform information. The shift amount may be determined as a time shift amount.

また、上記実施形態のカラオケ再生処理では、SS40にて、端末送信情報の1つとして、ベース波形情報を情報処理サーバ20に送信していたが、SS40にて送信するデータは、これに限るものではない。例えば、打楽器の楽音が推移した波形である打楽器波形情報を端末送信情報の1つとして、情報処理サーバ20に送信しても良い。この場合、打楽器波形情報は、ベース波形情報に加えて、端末送信情報とすることが好ましい。
[実施形態と特許請求の範囲との対応関係]
最後に、上記実施形態の記載と、特許請求の範囲の記載との関係を説明する。
In the karaoke playback process of the above embodiment, the base waveform information is transmitted to the information processing server 20 as one of terminal transmission information at SS40. However, the data transmitted at SS40 is limited to this. is not. For example, percussion instrument waveform information that is a waveform in which the musical tone of a percussion instrument has changed may be transmitted to the information processing server 20 as one of the terminal transmission information. In this case, the percussion instrument waveform information is preferably terminal transmission information in addition to the base waveform information.
[Correspondence between Embodiment and Claims]
Finally, the relationship between the description of the above embodiment and the description of the scope of claims will be described.

上記実施形態のカラオケ再生処理におけるS110(SS10)が、特許請求の範囲の記載における識別情報取得手段及び識別情報送信手段に相当し、S140(SS30)及びS150(SS40)が、特許請求の範囲の記載における速度情報送信手段に相当する。さらに、携帯端末5にて、データ修正処理のSS50にて送信されたデータを取得する機能が、特許請求の範囲の記載における歌詞情報取得手段に相当し、カラオケ再生処理におけるS160が、特許請求の範囲の記載における演奏出力手段に相当する。   S110 (SS10) in the karaoke playback process of the above embodiment corresponds to the identification information acquisition unit and the identification information transmission unit in the description of the claims, and S140 (SS30) and S150 (SS40) correspond to the claims. This corresponds to the speed information transmitting means in the description. Furthermore, the function of acquiring the data transmitted at SS50 of the data correction process in the portable terminal 5 corresponds to the lyrics information acquisition means in the description of the claims, and S160 in the karaoke playback process is claimed. This corresponds to the performance output means in the description of the range.

また、上記実施形態のデータ修正処理におけるS320が、特許請求の範囲の記載におけるデータ取得手段に相当し、データ修正処理におけるS340及びタイミング補正処理におけるS710が、特許請求の範囲の記載における演奏速度取得手段に相当する。そして、タイミング補正処理におけるS720〜S750が、特許請求の範囲の記載における時間ズレ量導出手段に相当し、データ修正処理におけるS370が、特許請求の範囲の記載におけるデータ修正手段に相当し、データ修正処理におけるS380が、特許請求の範囲の記載における歌詞送信手段に相当する。   Further, S320 in the data correction process of the above embodiment corresponds to the data acquisition means in the description of the claims, and S340 in the data correction process and S710 in the timing correction process acquire the performance speed in the description of the claims. Corresponds to means. S720 to S750 in the timing correction process correspond to the time deviation amount deriving means in the description of the claims, and S370 in the data correction process corresponds to the data correction means in the description of the claims, and the data correction S380 in the processing corresponds to the lyrics transmitting means in the description of the claims.

また、上記実施形態のカラオケ再生処理におけるS130(SS20)が、特許請求の範囲の記載におけるスペクトル送信手段に相当し、音高補正処理におけるS510〜S550が、特許請求の範囲の記載における出力音スペクトル導出手段に相当し、音高補正処理におけるS570〜S590が、特許請求の範囲の記載における音高相関導出手段に相当し、音高補正処理におけるS600,S610が、特許請求の範囲の記載における楽譜データ修正手段に相当する。   Further, S130 (SS20) in the karaoke playback process of the above embodiment corresponds to the spectrum transmitting means in the description of the claims, and S510 to S550 in the pitch correction process are the output sound spectrum in the description of the claims. S570 to S590 in the pitch correction process corresponds to the derivation means, and the pitch correlation derivation means in the description of the claims corresponds to the pitch correlation, and S600 and S610 in the pitch correction processing correspond to the musical score in the description of the claims. It corresponds to data correction means.

1…情報処理システム 5…携帯端末 6…情報受付部 7…表示部 8…音出力部 9…通信部 10…記憶部 11…制御部 12…ROM 13…RAM 14…CPU 20…情報処理サーバ 21…通信部 22…入力受付部 23…表示部 24…音入力部 25…音出力部 26…音源モジュール 27…記憶部 30…制御部 31…ROM 32…RAM 33…CPU   DESCRIPTION OF SYMBOLS 1 ... Information processing system 5 ... Portable terminal 6 ... Information reception part 7 ... Display part 8 ... Sound output part 9 ... Communication part 10 ... Storage part 11 ... Control part 12 ... ROM 13 ... RAM 14 ... CPU 20 ... Information processing server 21 ... Communication unit 22 ... Input reception unit 23 ... Display unit 24 ... Sound input unit 25 ... Sound output unit 26 ... Sound source module 27 ... Storage unit 30 ... Control unit 31 ... ROM 32 ... RAM 33 ... CPU

Claims (4)

楽曲を構成する楽音の音圧が時間軸に沿って推移した楽音推移波形を表す楽曲波形データが、記憶部に記憶される携帯機器と、前記携帯機器との間でデータ通信を実行する情報処理装置とを備えた情報処理システムであって、
前記情報処理装置は、
楽曲の楽譜を表し、当該楽曲の進行を表す演奏速度情報と共に、音源モジュールから出力する個々の出力音について、少なくとも音高及び演奏開始タイミングが規定された楽曲楽譜データ、楽曲の歌詞を構成する歌詞構成文字を表す歌詞データ、及び前記歌詞構成文字の出力タイミングである歌詞出力タイミングを規定するデータであり、かつ少なくとも1つの前記歌詞構成文字に対する前記歌詞出力タイミングが、前記楽曲楽譜データ中の少なくとも1つのタイミングに対応付けられた歌詞出力データを取得して、少なくとも前記歌詞出力データに対して情報処理を実行する装置であり、
前記携帯機器は、
指定された楽曲である対象楽曲を識別する楽曲識別情報を取得する識別情報取得手段と、
前記識別情報取得手段で取得した楽曲識別情報を、前記情報処理装置に送信する識別情報送信手段と、
前記識別情報取得手段で取得した楽曲識別情報に対応する前記対象楽曲の前記楽曲波形データから、該対象楽曲の進行を表す楽曲速度情報を取得して、前記情報処理装置に送信する速度情報送信手段と、
前記対象楽曲の前記歌詞データ、及び前記情報処理装置にて情報処理が実行された前記歌詞出力データである修正出力データであって前記対象楽曲の修正出力データを、前記情報処理装置から取得する歌詞情報取得手段と、
前記対象楽曲の前記楽曲波形データに基づいて当該対象楽曲を演奏すると共に、前記歌詞情報取得手段で取得した前記修正出力データに規定された歌詞出力タイミングに従って、前記歌詞データによって表される歌詞構成文字を順次表示する演奏出力手段と
を備え、
前記情報処理装置は、
前記識別情報送信手段で送信された楽曲識別情報に対応する対象楽曲の楽曲楽譜データ、及び歌詞出力データを取得するデータ取得手段と、
前記データ取得手段で取得した楽曲楽譜データから、前記演奏速度情報を取得する演奏速度取得手段と、
前記速度情報送信手段にて送信された楽曲速度情報と、前記演奏速度取得手段で取得した演奏速度情報とを比較した結果に基づき、前記出力音の各々の演奏開始タイミングに対する、各出力音に対応する前記楽音の開始タイミングのズレ量を表す時間ズレ量を導出する時間ズレ量導出手段と、
前記時間ズレ量導出手段で導出された時間ズレ量に従って、前記データ取得手段にて取得した前記歌詞出力データにおける前記歌詞出力タイミングを、前記楽音の開始タイミングに一致するように修正した当該歌詞出力データを前記修正出力データとして生成するデータ修正手段と、
前記データ修正手段で生成された修正出力データ、及び前記楽曲識別情報に対応する対象楽曲の歌詞データを、前記携帯機器に送信する歌詞送信手段と
を備え、
前記携帯機器の速度情報送信手段は、
前記対象楽曲の楽曲波形データに基づいて特定した、対象楽曲のテンポを表すテンポ情報、及び特定の楽器が演奏されたタイミングを表すベース波形情報を、前記楽曲速度情報として取得し、
前記楽曲楽譜データは、
当該楽曲楽譜データに対応する楽曲のテンポを表す情報である楽曲テンポ情報が規定されていると共に、対応する楽曲において演奏される楽器の種類ごとに、出力音についての音高及び演奏開始タイミングが規定されており、
前記情報処理装置の演奏速度取得手段は、
前記楽曲テンポ情報、及び前記特定の楽器の出力音の演奏開始タイミングが時間軸に沿って推移したベース楽器波形を、前記演奏速度情報として取得する
ことを特徴とする情報処理システム。
Information processing for performing data communication between a portable device in which music waveform data representing a musical tone transition waveform in which the sound pressure of the musical tone constituting the musical piece has shifted along the time axis is stored in the storage unit, and the portable device An information processing system comprising a device,
The information processing apparatus includes:
A musical score data that represents the musical score of the music, along with performance speed information that represents the progress of the music, and at least the pitch and performance start timing for each output sound that is output from the sound module, and the lyrics that constitute the lyrics of the music Lyric data representing constituent characters, and data defining the lyrics output timing which is the output timing of the lyrics constituent characters, and the lyrics output timing for at least one of the lyrics constituent characters is at least one in the musical score data Is a device that acquires lyric output data associated with one timing and performs information processing on at least the lyric output data;
The portable device is
Identification information acquisition means for acquiring music identification information for identifying the target music that is the designated music;
Identification information transmission means for transmitting the music identification information acquired by the identification information acquisition means to the information processing apparatus;
Speed information transmission means for acquiring music speed information representing the progress of the target music from the music waveform data of the target music corresponding to the music identification information acquired by the identification information acquisition means, and transmitting the music speed information to the information processing apparatus. When,
Lyrics for acquiring from the information processing apparatus the lyrics data of the target music and the correction output data that is the lyrics output data that has been processed by the information processing apparatus, and the correction output data of the target music Information acquisition means;
The lyric constituent characters represented by the lyric data according to the lyric output timing defined in the corrected output data acquired by the lyric information acquisition means while playing the target tune based on the tune waveform data of the tune Performance output means for sequentially displaying
The information processing apparatus includes:
Data acquisition means for acquiring music score data of the target music corresponding to the music identification information transmitted by the identification information transmission means, and lyrics output data;
Performance speed acquisition means for acquiring the performance speed information from the music score data acquired by the data acquisition means,
Corresponding to each output sound with respect to each performance start timing of the output sound based on the result of comparing the music speed information transmitted by the speed information transmitting means and the performance speed information acquired by the performance speed acquiring means A time shift amount deriving means for deriving a time shift amount representing a shift amount of the start timing of the musical sound,
The lyrics output data in which the lyrics output timing in the lyrics output data acquired by the data acquisition means is corrected so as to coincide with the start timing of the music according to the amount of time deviation derived by the time deviation amount deriving means. Data correction means for generating as the corrected output data,
Lyrics transmitting means for transmitting the corrected output data generated by the data correcting means and the lyrics data of the target music corresponding to the music identification information to the portable device,
The mobile device speed information transmitting means includes:
The tempo information indicating the tempo of the target music specified based on the music waveform data of the target music, and the base waveform information indicating the timing when the specific musical instrument is played are acquired as the music speed information,
The music score data is
The music tempo information, which is information representing the tempo of the music corresponding to the music score data, is specified, and the pitch and performance start timing for the output sound are specified for each type of musical instrument played in the corresponding music. Has been
The performance speed acquisition means of the information processing apparatus includes:
An information processing system, wherein the musical instrument tempo information and a bass instrument waveform in which a performance start timing of an output sound of the specific instrument has changed along a time axis are acquired as the performance speed information.
前記ベース波形情報は、サンプリング波形であり、
前記携帯機器の速度情報送信手段が送信する前記ベース波形情報は、
前記楽音推移波形のサンプリング周波数よりも低いサンプリング周波数でサンプリングしたものである
ことを特徴とする請求項1に記載の情報処理システム。
The base waveform information is a sampling waveform,
The base waveform information transmitted by the speed information transmitting means of the portable device is:
The information processing system according to claim 1, wherein the information is sampled at a sampling frequency lower than a sampling frequency of the tone transition waveform.
前記携帯機器は、
前記対象楽曲の楽曲波形データを取得し、該楽曲波形データによって表された楽音推移波形の周波数スペクトルである楽音スペクトル分布を導出して、前記情報処理装置に送信するスペクトル送信手段を備え、
前記情報処理装置は、
前記対象楽曲の楽曲楽譜データを取得し、該楽曲楽譜データに基づいて、出力音が時間軸に沿って推移した波形である出力音推移波形の周波数スペクトルである出力音スペクトル分布を導出する出力音スペクトル導出手段と、
前記スペクトル送信手段にて送信された楽音スペクトル分布と、前記出力音スペクトル導出手段で導出された出力音スペクトル分布との相関値を表す音高相関値を、前記楽音スペクトル分布において予め規定された規定位置から前記出力音スペクトル分布を周波数軸に沿ってシフトさせるごとに導出する音高相関導出手段と、
前記音高相関導出手段にて導出された音高相関値の中で、値が最大となる音高相関値に対応する前記規定位置からの周波数軸に沿ったシフト量を音高補正量として、前記対象楽曲の楽曲楽譜データに規定された前記出力音の各々の音高をシフトさせることで、新たな楽曲楽譜データを生成する楽譜データ修正手段と
を備え、
前記演奏速度取得手段は、
前記楽譜データ修正手段で生成された新たな楽曲楽譜データから、前記演奏速度情報を取得する
ことを特徴とする請求項1または請求項2に記載の情報処理システム。
The portable device is
Obtaining a music waveform data of the target music, deriving a music spectrum distribution which is a frequency spectrum of a music transition waveform represented by the music waveform data, and comprising a spectrum transmission means for transmitting to the information processing apparatus,
The information processing apparatus includes:
Output sound that obtains music score data of the target music and derives an output sound spectrum distribution that is a frequency spectrum of an output sound transition waveform that is a waveform in which the output sound has shifted along the time axis based on the music score data Spectrum derivation means;
A pitch correlation value representing a correlation value between the musical sound spectrum distribution transmitted by the spectrum transmitting means and the output sound spectrum distribution derived by the output sound spectrum deriving means is defined in advance in the musical spectrum distribution. A pitch correlation deriving means for deriving each time the output sound spectrum distribution is shifted from the position along the frequency axis;
Among the pitch correlation values derived by the pitch correlation deriving means, a shift amount along the frequency axis from the specified position corresponding to the pitch correlation value having the maximum value is used as a pitch correction amount. Musical score data correcting means for generating new musical score data by shifting the pitch of each of the output sounds defined in the musical score data of the target music,
The performance speed acquisition means includes
The information processing system according to claim 1 or 2, wherein the performance speed information is acquired from new musical score data generated by the musical score data correcting means.
楽曲の楽譜を表し、当該楽曲の進行を表す演奏速度情報と共に、音源モジュールから出力する個々の出力音について、少なくとも音高及び演奏開始タイミングが規定された楽曲楽譜データ、楽曲の歌詞を構成する歌詞構成文字を表す歌詞データ、及び前記歌詞構成文字の出力タイミングである歌詞出力タイミングを規定するデータであり、かつ少なくとも1つの前記歌詞構成文字に対する前記歌詞出力タイミングが、前記楽曲楽譜データ中の少なくとも1つのタイミングである特定開始タイミングに対応付けられた歌詞出力データを取得して、少なくとも前記歌詞出力データに対して情報処理を実行する情報処理装置との間でデータ通信を実行すると共に、楽曲を構成する楽音の音圧が時間軸に沿って推移した楽音推移波形を表す楽曲波形データが、記憶部に記憶される携帯機器に備えられたコンピュータにて実行されるプログラムであって、
指定された楽曲である対象楽曲を識別する楽曲識別情報を取得する識別情報取得手順と、
前記識別情報取得手順で取得した楽曲識別情報を、前記情報処理装置に送信する識別情報送信手順と、
前記識別情報取得手順で取得した楽曲識別情報に対応する前記対象楽曲の前記楽曲波形データから、該対象楽曲の進行を表す楽曲速度情報を取得して、前記情報処理装置に送信する速度情報送信手順と、
前記識別情報送信手順で送信された楽曲識別情報に対応する対象楽曲の楽曲楽譜データ、及び歌詞出力データを取得するデータ取得手順と、前記データ取得手順で取得した楽曲楽譜データから前記演奏速度情報を取得する演奏速度取得手順と、前記演奏速度取得手順で取得した前記演奏速度情報と前記速度情報送信手順にて送信された楽曲速度情報と比較した結果に基づき、前記出力音の各々の演奏開始タイミングに対する、各出力音に対応する前記楽音の開始タイミングのズレ量を表す時間ズレ量を導出する時間ズレ量導出手順と、前記時間ズレ量導出手順で導出された時間ズレ量に従って、前記取得した歌詞出力データにおける前記歌詞出力タイミングを、前記楽音の開始タイミングに一致するように修正した当該歌詞出力データを修正出力データとして生成するデータ修正手順とが前記情報処理として実行された結果である、前記修正出力データ、及び前記楽曲識別情報に対応する対象楽曲の歌詞データを、前記情報処理装置から取得する歌詞情報取得手順と、
前記対象楽曲の前記楽曲波形データに基づいて当該対象楽曲を演奏すると共に、前記歌詞情報取得手順で取得した前記修正出力データに規定された歌詞出力タイミングに従って、前記歌詞データによって表される歌詞構成文字を順次表示する演奏出力手順とを
前記コンピュータに実行させ、
前記速度情報送信手順では、
前記対象楽曲の楽曲波形データに基づいて特定した、対象楽曲のテンポを表すテンポ情報、及び特定の楽器が演奏されたタイミングを表すベース波形情報を、前記楽曲速度情報として取得し、
前記楽曲楽譜データは、
当該楽曲楽譜データに対応する楽曲のテンポを表す情報である楽曲テンポ情報が規定されていると共に、対応する楽曲において演奏される楽器の種類ごとに、出力音についての音高及び演奏開始タイミングが規定されており、
前記演奏速度取得手順が取得する前記演奏速度情報は、
前記楽曲テンポ情報、及び前記特定の楽器の出力音の演奏開始タイミングが時間軸に沿って推移したベース楽器波形であ
ことを特徴とするプログラム。
A musical score data that represents the musical score of the music, along with performance speed information that represents the progress of the music, and at least the pitch and performance start timing for each output sound that is output from the sound module, and the lyrics that constitute the lyrics of the music Lyric data representing constituent characters, and data defining the lyrics output timing which is the output timing of the lyrics constituent characters, and the lyrics output timing for at least one of the lyrics constituent characters is at least one in the musical score data Lyric output data associated with a specific start timing that is one timing, and at least data communication with an information processing device that performs information processing on the lyric output data, and composes a song Music waveform data that represents the sound transition waveform in which the sound pressure of the music to be played changes along the time axis. Data is a program which is executed by a provided computer to a portable device which is stored in the storage unit,
An identification information acquisition procedure for acquiring music identification information for identifying a target music that is a designated music;
An identification information transmission procedure for transmitting the music identification information acquired in the identification information acquisition procedure to the information processing apparatus;
A speed information transmission procedure for acquiring music speed information representing the progress of the target music from the music waveform data of the target music corresponding to the music identification information acquired in the identification information acquisition procedure, and transmitting it to the information processing apparatus. When,
The music score data of the target music corresponding to the music identification information transmitted in the identification information transmission procedure, the data acquisition procedure for acquiring the lyrics output data, and the performance speed information from the music score data acquired in the data acquisition procedure The performance start timing of each of the output sounds based on the performance speed acquisition procedure to be acquired and the result of comparison between the performance speed information acquired in the performance speed acquisition procedure and the music speed information transmitted in the speed information transmission procedure In accordance with a time deviation amount derivation procedure for deriving a time deviation amount representing the deviation amount of the start timing of the musical sound corresponding to each output sound, and the acquired lyrics according to the time deviation amount derived in the time deviation amount derivation procedure Correct the lyrics output data in which the lyrics output timing in the output data is corrected to match the start timing of the musical sound It is a result in which the data correction step of generating a force data is performed as the processing, word information which the modified output data, and the lyrics data of the target musical piece corresponding to the music identification information, acquires from the information processing apparatus Acquisition procedure;
The lyric constituent characters represented by the lyric data according to the lyric output timing defined in the modified output data acquired in the lyric information acquisition procedure while playing the target tune based on the tune waveform data of the tune And a performance output procedure for sequentially displaying
In the speed information transmission procedure,
The tempo information indicating the tempo of the target music specified based on the music waveform data of the target music, and the base waveform information indicating the timing when the specific musical instrument is played are acquired as the music speed information,
The music score data is
The music tempo information, which is information representing the tempo of the music corresponding to the music score data, is specified, and the pitch and performance start timing for the output sound are specified for each type of musical instrument played in the corresponding music. Has been
The performance speed information acquired by the performance speed acquisition procedure is:
The music tempo information, and program characterized based instruments waveform der Rukoto the performance start timing of the output sound of a particular instrument remained along the time axis.
JP2011217294A 2011-09-30 2011-09-30 Information processing system, program Active JP5782972B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011217294A JP5782972B2 (en) 2011-09-30 2011-09-30 Information processing system, program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011217294A JP5782972B2 (en) 2011-09-30 2011-09-30 Information processing system, program

Publications (2)

Publication Number Publication Date
JP2013076887A JP2013076887A (en) 2013-04-25
JP5782972B2 true JP5782972B2 (en) 2015-09-24

Family

ID=48480388

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011217294A Active JP5782972B2 (en) 2011-09-30 2011-09-30 Information processing system, program

Country Status (1)

Country Link
JP (1) JP5782972B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7298702B2 (en) * 2019-09-27 2023-06-27 ヤマハ株式会社 Acoustic signal analysis method, acoustic signal analysis system and program
WO2024034118A1 (en) * 2022-08-12 2024-02-15 AlphaTheta株式会社 Audio signal processing device, audio signal processing method, and program
WO2024034115A1 (en) * 2022-08-12 2024-02-15 AlphaTheta株式会社 Audio signal processing device, audio signal processing method, and program

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH1124674A (en) * 1997-06-27 1999-01-29 Ricoh Co Ltd Information processing device
JP2004212473A (en) * 2002-12-27 2004-07-29 Matsushita Electric Ind Co Ltd Karaoke machine and karaoke reproducing method
JP4506750B2 (en) * 2006-12-13 2010-07-21 ヤマハ株式会社 Content playback device
JP5141397B2 (en) * 2008-06-24 2013-02-13 ヤマハ株式会社 Voice processing apparatus and program
JP5287617B2 (en) * 2009-09-04 2013-09-11 ヤマハ株式会社 Sound processing apparatus and program

Also Published As

Publication number Publication date
JP2013076887A (en) 2013-04-25

Similar Documents

Publication Publication Date Title
JP6060867B2 (en) Information processing apparatus, data generation method, and program
JP5598516B2 (en) Voice synthesis system for karaoke and parameter extraction device
JP5782972B2 (en) Information processing system, program
JP5267495B2 (en) Musical instrument sound separation device and program
JP6056799B2 (en) Program, information processing apparatus, and data generation method
JP6075314B2 (en) Program, information processing apparatus, and evaluation method
JP6252420B2 (en) Speech synthesis apparatus and speech synthesis system
JP5310677B2 (en) Sound source separation apparatus and program
JP5413380B2 (en) Music data correction device
JP6075313B2 (en) Program, information processing apparatus, and evaluation data generation method
JP2013210501A (en) Synthesis unit registration device, voice synthesis device, and program
JP5810947B2 (en) Speech segment specifying device, speech parameter generating device, and program
JP6141737B2 (en) Karaoke device for singing in consideration of stretch tuning
JP5418525B2 (en) Karaoke equipment
JP5569307B2 (en) Program and editing device
JP5983670B2 (en) Program, information processing apparatus, and data generation method
JP6365483B2 (en) Karaoke device, karaoke system, and program
JP6252421B2 (en) Transcription device and transcription system
JP6011506B2 (en) Information processing apparatus, data generation method, and program
JP5549651B2 (en) Lyric output data correction device and program
JP5541008B2 (en) Data correction apparatus and program
JP5805474B2 (en) Voice evaluation apparatus, voice evaluation method, and program
JP5287782B2 (en) Singing assistance device and program
JP2007233078A (en) Evaluation device, control method, and program
JP6281447B2 (en) Speech synthesis apparatus and speech synthesis system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150331

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150529

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150623

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150706

R150 Certificate of patent or registration of utility model

Ref document number: 5782972

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150