JP4145901B2 - Karaoke control method and karaoke apparatus - Google Patents

Karaoke control method and karaoke apparatus Download PDF

Info

Publication number
JP4145901B2
JP4145901B2 JP2005203698A JP2005203698A JP4145901B2 JP 4145901 B2 JP4145901 B2 JP 4145901B2 JP 2005203698 A JP2005203698 A JP 2005203698A JP 2005203698 A JP2005203698 A JP 2005203698A JP 4145901 B2 JP4145901 B2 JP 4145901B2
Authority
JP
Japan
Prior art keywords
lyrics
block
information
unit
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2005203698A
Other languages
Japanese (ja)
Other versions
JP2007025002A (en
Inventor
恵 早坂
哲治 山元
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Interactive Entertainment Inc
Original Assignee
Sony Computer Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Computer Entertainment Inc filed Critical Sony Computer Entertainment Inc
Priority to JP2005203698A priority Critical patent/JP4145901B2/en
Publication of JP2007025002A publication Critical patent/JP2007025002A/en
Application granted granted Critical
Publication of JP4145901B2 publication Critical patent/JP4145901B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、カラオケの制御技術に関し、特に曲の進行にしたがって歌詞を表示するカラオケの制御方法およびカラオケ装置に関する。   The present invention relates to a karaoke control technique, and more particularly to a karaoke control method and a karaoke apparatus for displaying lyrics according to the progress of a song.

カラオケ装置では、歌唱曲の歌唱部分を除いた伴奏音楽が再生され、歌唱者が再生された伴奏音楽に合わせて歌唱する。カラオケ装置では、歌唱者に歌詞を知らせるために、一般的に、モニタ等の表示装置に歌詞を表示する。さらに、表示装置に表示した歌詞のうち、歌唱者が発声すべき文字を明確にするために、カラオケ装置は、発声すべき文字に対して、予め表示した文字の色から別の色に変更する。   In the karaoke apparatus, the accompaniment music excluding the singing portion of the song is reproduced, and the singer sings along with the reproduced accompaniment music. In the karaoke apparatus, in order to inform the singer of the lyrics, the lyrics are generally displayed on a display device such as a monitor. Furthermore, among the lyrics displayed on the display device, in order to clarify the character that the singer should utter, the karaoke device changes the color of the character displayed in advance to another color for the character to be uttered. .

本発明者はこうした状況下、以下の課題を認識するに至った。一般的に、歌唱者は、曲の進行にしたがって歌唱を実行することによって、カラオケ装置の使用を楽しむ。しかしながら、複数の歌唱者がカラオケ装置を使用する際に、ひとつの曲のうちの別々の部分を順番に歌唱する場合もある。その際、歌唱すべき部分がランダムに選択されるのであれば、歌唱者にとって、遊技性が向上する。しかしながら、曲の切れ目以外の部分にて、歌唱すべき歌唱者が交代するのであれば、新たに歌唱を始める歌唱者にとって、スムーズな歌唱が困難になる。一方、複数の歌唱者によってカラオケ装置を使用するために、通常のカラオケ用のデータと別のデータを作成するのであれば、事業者にとって、データ作成のための処理が増加する。   Under such circumstances, the present inventor has come to recognize the following problems. In general, a singer enjoys using a karaoke device by performing a singing according to the progress of the song. However, when a plurality of singers use the karaoke apparatus, they may sing different portions of one song in order. At that time, if the part to be sung is selected at random, the gameability is improved for the singer. However, if the singer to be sung is changed at a portion other than the break of the song, smooth singing becomes difficult for the singer who newly starts singing. On the other hand, if data different from normal karaoke data is created in order to use the karaoke apparatus by a plurality of singers, processing for data creation increases for the business operator.

本発明はこうした状況に鑑みてなされたものであり、その目的は、複数の歌唱者が交代しながら歌唱を行うことに適するように、カラオケにおいて使用されるデータを加工するカラオケの制御技術を提供することにある。   The present invention has been made in view of such circumstances, and its purpose is to provide a karaoke control technique for processing data used in karaoke so that a plurality of singers can perform singing while changing. There is to do.

本発明のある態様は、プログラムである。このプログラムは、ネットワークを介して、複数のブロックに分割された歌詞と、各ブロックを曲の進行にしたがって順次切りかえながら画面に表示するためのタイミング情報とが含まれた歌詞情報と、歌詞情報に含まれたタイミング情報と関連づけられた演奏音楽とを入力するステップと、入力した歌詞情報に含まれたタイミング情報から、隣接したブロックの間隔をそれぞれ導出し、隣接したブロックの間隔をもとに、再生すべき歌詞の部分を特定するステップと、入力した歌詞情報に含まれた歌詞のうち、特定された部分を画面に表示し、入力した伴奏音楽のうち、特定された部分を再生するステップと、をコンピュータに実行させる。   One embodiment of the present invention is a program. This program includes lyrics information including lyrics divided into a plurality of blocks via the network, timing information for displaying each block on the screen while sequentially switching each block according to the progress of the song, and lyrics information. The step of inputting the performance music associated with the included timing information, and the timing information included in the input lyrics information, respectively, derive the interval between adjacent blocks, based on the interval between adjacent blocks, A step of identifying the portion of the lyrics to be reproduced, a step of displaying the identified portion of the lyrics included in the input lyrics information on the screen, and reproducing the specified portion of the input accompaniment music, and , Execute on the computer.

この態様によると、歌詞情報に対して、隣接したブロックの間隔をもとに、再生すべき歌詞の部分を特定するので、通常のカラオケのデータを使用しつつ、複数の歌唱者が交代しながら歌唱を行うことに適したデータを加工できる。   According to this aspect, for the lyrics information, the portion of the lyrics to be reproduced is specified based on the interval between adjacent blocks, so that a plurality of singers can change while using normal karaoke data. Data suitable for singing can be processed.

特定するステップは、隣接したブロックの間隔をそれぞれ導出するステップと、導出するステップにおいて導出したブロックの間隔のそれぞれをしきい値と比較し、しきい値よりも長いブロックの間隔の後段におけるブロックを選択するステップと、選択するステップにおいて選択したブロックを先頭として、予め規定された歌唱期間よりも長くなるように、連続したブロックを結合するステップと、結合するステップにおいて結合したブロックを再生すべき歌詞の部分として出力するステップと、を備えてもよい。この場合、連続したブロックを結合するので、予め定めた歌唱期間よりも長くなるような部分を選択できる。   The identifying step compares each of the block intervals derived in the step of deriving adjacent block intervals and the block derived in the deriving step with a threshold value, and determines a block in the subsequent stage of the block interval longer than the threshold value. The step of selecting, the step of combining consecutive blocks so that the block selected in the selecting step is the beginning, and being longer than a predetermined singing period, and the lyrics to be reproduced in the combining step And outputting as a part of the above. In this case, since the continuous blocks are combined, a portion that is longer than a predetermined singing period can be selected.

出力するステップは、結合したブロックの中において、隣接したブロックの間隔の割合が大きければ、当該結合したブロックを再生すべき歌詞の部分から除外してもよい。この場合、隣接したブロックの間隔の割合が大きければ、再生すべき歌詞の部分から除外するので、歌唱者が歌うべき期間の短い部分を選択することを回避できる。   The outputting step may exclude the combined block from the portion of the lyrics to be reproduced if the ratio of the interval between adjacent blocks is large in the combined block. In this case, if the ratio of the interval between adjacent blocks is large, it is excluded from the portion of the lyrics to be reproduced, so that it is possible to avoid the singer from selecting a portion having a short period to sing.

歌唱者の人数を受けつけるステップをさらに備え、再生するステップは、受けつけるステップにおいて受けつけた人数の歌唱者のそれぞれに対応させつつ、歌詞の表示と伴奏音の再生を実行してもよい。この場合、複数の歌唱者による歌唱に対応するような再生を実行できる。   The step of receiving the number of singers may be further provided, and the step of playing may execute display of lyrics and reproduction of accompaniment sounds while corresponding to each of the number of singers received in the step of receiving. In this case, reproduction corresponding to singing by a plurality of singers can be executed.

再生するステップは、特定するステップによって特定された部分を組み合わせることによって、複数のグループを生成するステップと、生成するステップにおいて生成した複数のグループのそれぞれを単位にして、グループに含まれた部分のそれぞれを歌唱者へ割り当てるステップと、割り当てるステップによって割り当てた歌唱者を指示しながら、割り当てられた部分に対応した歌詞の表示と伴奏音楽の再生を実行するステップと、を備えてもよい。この場合、ひとりの歌唱者が、同一の部分を歌唱する可能性を低減できる。   The step of reproducing includes combining the parts specified in the specifying step to generate a plurality of groups, and each of the plurality of groups generated in the generating step as a unit. You may provide the step which allocates each to a singer, and performs the display of the lyric corresponding to the allocated part, and reproduction | regeneration of an accompaniment music, instruct | indicating the singer allocated by the step to allocate. In this case, the possibility that one singer sings the same part can be reduced.

実行するステップは、歌唱者とグループの順番を混ぜながら、歌詞の表示と伴奏音楽の再生を実行してもよい。この場合、歌唱者はいつ歌唱すべきかを予想できないので、遊技性を向上できる。   The step of performing may execute display of lyrics and reproduction of accompaniment music while mixing the order of the singer and the group. In this case, since the singer cannot predict when to sing, gameability can be improved.

入力するステップにおいて入力した歌詞情報に含まれたタイミング情報と関連づけられた演奏情報を取得し、演奏情報のうち、曲の進行にしたがって発声すべき文字のそれぞれを演奏するためのタイミング情報を抽出するステップと、抽出するステップにおいて抽出したタイミング情報をもとに、歌唱者に対して、歌唱を開始するタイミングを通知するためのカウントであって、かつ生成するステップにて実行される歌詞の表示と伴奏音楽の再生と同期したカウントを作成し、作成したカウントを画面に表示させるステップと、をさらに備えてもよい。この場合、曲のタイミングに合わせたカウントがなされるので、歌唱をスムーズに開始できる。   The performance information associated with the timing information included in the lyrics information input in the input step is acquired, and the timing information for playing each character to be uttered according to the progress of the music is extracted from the performance information. Based on the timing information extracted in the step and the extracting step, the lyric display is a count for notifying the singer of the timing to start singing and displaying the lyrics executed in the generating step A step of creating a count synchronized with the playback of the accompaniment music and displaying the created count on a screen may be further included. In this case, the singing can be smoothly started because the counting is performed in accordance with the timing of the song.

本発明のある態様は、カラオケ装置である。この装置は、複数のブロックに分割された歌詞と、各ブロックを曲の進行にしたがって順次切りかえながら画面に表示するためのタイミング情報とが含まれた歌詞情報と、歌詞情報に含まれたタイミング情報と関連づけられた演奏音楽とを入力する入力部と、入力部において入力した歌詞情報に含まれたタイミング情報から、隣接したブロックの間隔をそれぞれ導出し、隣接したブロックの間隔をもとに、再生すべき歌詞の部分を特定する特定部と、入力部において入力した歌詞情報に含まれた歌詞のうち、特定部によって特定された部分を画面に表示し、入力部において入力した伴奏音楽のうち、特定部によって特定された部分を再生する指示部と、を備える。   One embodiment of the present invention is a karaoke apparatus. This apparatus includes lyrics information including lyrics divided into a plurality of blocks, timing information for sequentially switching each block according to the progress of the song, and displaying on the screen, and timing information included in the lyrics information The interval between adjacent blocks is derived from the input unit for inputting the performance music associated with and the timing information included in the lyrics information input at the input unit, and playback is performed based on the interval between adjacent blocks. Of the accompaniment music that is displayed on the screen, the part specified by the specific part of the lyrics included in the lyrics information input in the input part and the specific part that specifies the part of the lyrics to be input, And an instruction unit for reproducing the portion specified by the specifying unit.

本発明のある態様は、カラオケの制御方法である。この方法は、曲を複数のブロックに分割し、歌唱者を変えながら、分割したブロックを歌唱者に歌唱させる。   One embodiment of the present invention is a karaoke control method. In this method, a song is divided into a plurality of blocks, and the singer is allowed to sing the divided blocks while changing the singer.

なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。   It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, etc. are also effective as an aspect of the present invention.

本発明によれば、複数の歌唱者が交代しながら歌唱を行うことに適するように、カラオケにおいて使用されるデータを加工できる。   ADVANTAGE OF THE INVENTION According to this invention, the data used in karaoke can be processed so that it may be suitable for performing a song while a plurality of singers change.

本発明を具体的に説明する前に、概要を述べる。本発明の実施例は、ひとりの歌唱者が歌唱を実行する際に、伴奏音楽を出力しつつ、伴奏音楽に対応した歌詞を表示装置に表示するカラオケ装置に関する。さらに、複数の歌唱者がひとつの曲を順番に歌唱するときに、歌唱者が歌唱すべき部分を直前まで隠すことによって、複数の歌唱者に対する遊技性を向上できる。しかしながら、複数の歌唱者のそれぞれが歌唱する部分には、区切りのよいことが望まれる。また、事業者の処理を考慮すれば、複数の歌唱者による歌唱のためのデータには、新たに作成しないことが望まれる。すなわち、複数の歌唱者による歌唱には、通常のカラオケ用のデータを使用したい。これらの要求を解決するために、本実施例に係るカラオケ装置は、以下のように構成される。   Before describing the present invention in detail, an outline will be described. An embodiment of the present invention relates to a karaoke apparatus that displays lyrics corresponding to accompaniment music on a display device while outputting accompaniment music when a single singer performs a song. Furthermore, when a plurality of singers sing one song in order, the playability for the plurality of singers can be improved by concealing the portion that the singer should sing until just before. However, it is desirable that the portions sung by each of the plurality of singers be well separated. In consideration of the processing of the operator, it is desired not to newly create data for singing by a plurality of singers. That is, it is desired to use normal karaoke data for singing by a plurality of singers. In order to solve these requirements, the karaoke apparatus according to the present embodiment is configured as follows.

本実施例に係るカラオケ装置は、ネットワークに接続されており、カラオケ装置は、カラオケ用のデータをネットワークからダウンロードする。なお、カラオケ用のデータには、伴奏を再生するための伴奏音楽、歌詞をモニタに表示するための歌詞情報、歌唱者の歌唱の程度を評価するための演奏情報が含まれている。歌唱情報には、歌唱を行う際の区切りとしてブロックが規定されており、歌唱情報に含まれた歌詞は、複数のブロックに分割されている。また、歌詞情報には、それぞれのブロックの開始時刻と終了時刻に関するタイミング情報も含まれている。カラオケ装置は、タイミング情報をもとに、隣接したブロックの間隔をそれぞれ導出し、これらをしきい値と比較する。カラオケ装置は、しきい値よりも長い間隔の後段に配置されるブロックを選択する。また、選択したブロックを先頭として、予め定められた歌唱期間よりも長くなるまで、連続したブロックが結合される。結合されたブロックがひとつのパートとなる。以上の処理の結果、ひとつの曲あたり生成された複数のパートが、複数の歌唱者にランダムに割り当てられることによって、通常のカラオケ用のデータを使用しつつ、区切りのよい部分を複数の歌唱者のそれぞれに割り当てられる。   The karaoke apparatus according to the present embodiment is connected to a network, and the karaoke apparatus downloads karaoke data from the network. The data for karaoke includes accompaniment music for reproducing accompaniment, lyric information for displaying lyrics on a monitor, and performance information for evaluating the degree of singing by a singer. In the singing information, a block is defined as a break when singing, and the lyrics included in the singing information are divided into a plurality of blocks. The lyrics information also includes timing information regarding the start time and end time of each block. The karaoke apparatus derives the interval between adjacent blocks based on the timing information and compares them with a threshold value. The karaoke apparatus selects a block arranged at a subsequent stage having an interval longer than the threshold value. Also, continuous blocks are combined with the selected block as the head until it becomes longer than a predetermined singing period. The combined block becomes one part. As a result of the above processing, a plurality of parts generated per song are randomly assigned to a plurality of singers, so that normal karaoke data is used, and a portion with a good separation is a plurality of singers. Assigned to each.

図1は、本発明の実施例に係るカラオケ装置100の構成を示す。カラオケ装置100は、ネットワーク10、マイク12、スピーカ14、モニタ16、通信部20、記憶部22、再生部24、歌詞表示部26、モニタ制御部28、操作部30、判定部32、特定部34、指示部36を含む。また、特定部34は、導出部38、選択部40、結合部42を含み、指示部36は、生成部44、割当部46、実行部48を含み、歌詞表示部26は、カウント部50を含む。   FIG. 1 shows a configuration of a karaoke apparatus 100 according to an embodiment of the present invention. The karaoke apparatus 100 includes a network 10, a microphone 12, a speaker 14, a monitor 16, a communication unit 20, a storage unit 22, a playback unit 24, a lyrics display unit 26, a monitor control unit 28, an operation unit 30, a determination unit 32, and a specification unit 34. , An instruction unit 36 is included. The specifying unit 34 includes a derivation unit 38, a selection unit 40, and a combining unit 42, the instruction unit 36 includes a generation unit 44, an allocation unit 46, and an execution unit 48, and the lyrics display unit 26 includes a counting unit 50. Including.

マイク12は、カラオケ機能を実行する際に、歌唱者によって発声された音声を取り込む。スピーカ14は、伴奏音楽を再生すると共に、マイク12に入力された歌唱者による発声を再生する。モニタ16は、歌唱曲の歌詞を表示する。   The microphone 12 captures the voice uttered by the singer when performing the karaoke function. The speaker 14 reproduces accompaniment music and utterances by a singer input to the microphone 12. The monitor 16 displays the lyrics of the song.

ネットワーク10は、カラオケ装置100と接続されており、カラオケ装置100は、ネットワーク10を介して図示しないサーバから、所定のデータを入力する。その際、カラオケ装置100の内部において、通信部20が通信処理を実行する。記憶部22は、通信部20による通信によってサーバから取得したデータを記憶する。また、予め入力したデータも記憶する。なお、記憶部22は、データを記憶するためのハードディスクによって構成されてもよく、データを一時的に記憶できるRAM(Random Access Memory)によって構成されてもよく、あるいはそれらの組合せによって構成されてもよい。   The network 10 is connected to the karaoke device 100, and the karaoke device 100 inputs predetermined data from a server (not shown) via the network 10. At that time, in the karaoke apparatus 100, the communication unit 20 executes communication processing. The storage unit 22 stores data acquired from the server through communication by the communication unit 20. In addition, pre-input data is also stored. The storage unit 22 may be configured by a hard disk for storing data, may be configured by a RAM (Random Access Memory) capable of temporarily storing data, or may be configured by a combination thereof. Good.

ここで、記憶部22に入力されるデータには、歌詞情報、演奏情報、伴奏音楽が含まれており、データは、ひとりの歌唱者によるカラオケ機能を実行する場合、あるいは複数の歌唱者によるカラオケ機能を実行する場合において共通に使用される。歌詞情報は、曲に対応した歌詞と、曲の進行にしたがって発声すべき文字のそれぞれを画面に表示するためのタイミング情報を含む。また、歌詞は、発音の区切りに応じて、複数のブロックに分割されており、タイミング情報は、各ブロックを曲の進行にしたがって順次切りかえながら画面に表示するための情報も含む。また、演奏情報は、MIDI(Musical Instrument Digital Interface)のデータ形式を有し、これは、歌詞情報に含まれたタイミング情報と関連づけられている。伴奏音楽は、ATRAC(Advanced TRansform Acoustic Coding)やMP3(MPEG Audio Layer−3)等のデータ形式を有し、曲の伴奏の再生に使用される。伴奏音楽も、歌詞情報に含まれたタイミング情報と関連づけられている。   Here, the data input to the storage unit 22 includes lyric information, performance information, and accompaniment music. The data is used when performing a karaoke function by a single singer, or karaoke by a plurality of singers. Commonly used when performing functions. The lyrics information includes timing information for displaying on the screen the lyrics corresponding to the song and the characters to be uttered as the song progresses. The lyrics are divided into a plurality of blocks according to pronunciation breaks, and the timing information includes information for displaying each block on the screen while sequentially switching the blocks according to the progress of the music. The performance information has a MIDI (Musical Instrument Digital Interface) data format, which is associated with timing information included in the lyrics information. Accompaniment music has a data format such as Advanced Transform Acoustic Coding (ATRAC) or MP3 (MPEG Audio Layer-3), and is used to reproduce the accompaniment of a song. Accompaniment music is also associated with timing information included in the lyrics information.

図2(a)−(b)は、記憶部22に入力される歌詞情報と演奏情報との関連を示す。図2(a)は、歌詞情報を示し、図2(b)は、演奏情報を示す。図において、横方向が時間軸に相当し、右に行くにつれて時間が経過する。歌詞情報は、時間軸の先頭部分に「タイトル」を配置し、それに続いて「歌詞」を配置する。また、演奏情報は、先頭部分に「無音期間」を配置し、それに続いて「MIDI発音期間」を配置する。「MIDI発音期間」の先頭から、期間「t1」だけ前に進んだ位置に、歌詞情報の「タイトル」の先頭が配置されている。   2A to 2B show the relationship between the lyrics information input to the storage unit 22 and the performance information. FIG. 2A shows the lyrics information, and FIG. 2B shows the performance information. In the figure, the horizontal direction corresponds to the time axis, and time elapses toward the right. In the lyrics information, “Title” is arranged at the beginning of the time axis, and “Lyrics” is arranged subsequently. In the performance information, a “silence period” is arranged at the head portion, and a “MIDI sound generation period” is arranged subsequently to the performance information. The head of the “title” of the lyrics information is arranged at a position advanced from the head of the “MIDI sound generation period” by the time “t1”.

図3は、記憶部22に入力される歌詞情報のデータ構造を示す。図3のごとく、歌詞情報は、ブロック番号欄70、文字列欄72、表示時間欄74、消去時間欄76、開始時間および終了時間欄78を含み、これらのデータが、シリアル形式や、所定ビットのパラレル形式を有する。「ブロック番号欄70」は、歌詞を分割することによって生成された複数のブロックを識別するための番号であり、歌詞の先頭に相当するブロックが「1」になるような番号によって示されている。ここで、「ブロック」とは、歌詞の中のひとつのフレーズ、モニタ16に表示される際の一行などような歌詞の中でのひとつのくくりに相当する。そのため、「ブロック」は、一般的に、複数の文字を含む。なお、ブロックは曲の進行に合わせて順次切りかえられるが、歌詞情報等はブロックが切りかわる前に入力される。「文字列欄72」は、ブロック番号欄70に対応するように、歌詞を分割した複数の文字に相当する。   FIG. 3 shows the data structure of the lyric information input to the storage unit 22. As shown in FIG. 3, the lyrics information includes a block number field 70, a character string field 72, a display time field 74, an erasing time field 76, and a start time and end time field 78. Have a parallel format. The “block number column 70” is a number for identifying a plurality of blocks generated by dividing the lyrics, and is indicated by a number such that the block corresponding to the head of the lyrics is “1”. . Here, the “block” corresponds to one phrase in the lyrics such as one phrase in the lyrics or one line when displayed on the monitor 16. Therefore, the “block” generally includes a plurality of characters. The blocks are sequentially switched in accordance with the progress of the music, but the lyrics information and the like are input before the blocks are switched. The “character string column 72” corresponds to a plurality of characters obtained by dividing the lyrics so as to correspond to the block number column 70.

「表示時間欄74」、「消去時間欄76」、「開始時間および終了時間欄78」は、「表示時間」、「消去時間」、「開始時間」、「終了時間」にそれぞれ相当する。「表示時間」は、モニタ16に、ブロックに含まれた複数の文字を表示すべき時間を示す。カラオケ装置100の内部には、図示しないクロック発生装置が備えられており、例えば、伴奏音楽が開始される際に、クロック発生装置のクロックがリセットされ、伴奏音楽の進行と共に、クロックがカウントアップされる。「表示時間」は、当該クロックによって規定されているものとし、以下、その他の「消去時間」等についても同様である。すなわち、「時間」は、クロックにもとづいて規定されている。「消去時間」は、モニタ16に表示された複数の文字であって、ブロックに含まれた複数の文字を消去すべき時間を示す。   The “display time column 74”, “erase time column 76”, and “start time and end time column 78” correspond to “display time”, “erase time”, “start time”, and “end time”, respectively. The “display time” indicates a time for displaying a plurality of characters included in the block on the monitor 16. The karaoke apparatus 100 is provided with a clock generator (not shown). For example, when accompaniment music is started, the clock of the clock generator is reset, and the clock is counted up as the accompaniment music progresses. The The “display time” is defined by the clock, and the same applies to other “erase times” and the like. That is, “time” is defined based on the clock. “Erase time” indicates a time when a plurality of characters displayed on the monitor 16 should be erased.

「開始時間」とは、表示された複数の文字のそれぞれが、歌唱者によって歌唱されるべき時間を示す。ここで、ブロックは複数の文字を含んでいるので、ひとつのブロックに対して、複数の開始時間が含まれている。また、「終了時間」とは、表示された複数の文字のそれぞれの歌唱が、終了されるべき時間を示し、「開始時間」にそれぞれ対応するように規定されている。なお、図示された数字は、前述のクロックによって規定されている。文字列欄72のそれぞれに複数の文字が存在しているので、開始時間および終了時間欄78の開始時間と終了時間は、複数の文字のそれぞれに対応して規定される。   “Start time” indicates the time at which each of the displayed characters should be sung by the singer. Here, since the block includes a plurality of characters, a plurality of start times are included for one block. The “end time” indicates the time at which each of the displayed characters is to be ended, and is defined so as to correspond to the “start time”. The numbers shown in the figure are defined by the aforementioned clock. Since there are a plurality of characters in each of the character string columns 72, the start time and the end time in the start time and end time column 78 are defined corresponding to each of the plurality of characters.

図4は、記憶部22に入力される演奏情報のデータ構造を示す。演奏情報は、データ番号欄80、時間欄82、音程欄84、強さ欄86を含む。ここで、データ番号欄80は、演奏情報に含まれるデータのそれぞれに対して付与した番号に対応する。例えば、データは、歌詞に含まれる文字のそれぞれや、演奏される音のそれぞれに相当する。時間欄82は、データ番号欄80でのそれぞれのデータを演奏すべきタイミングを示す。演奏すべきタイミングは、演奏を開始すべきタイミングであってもよい。時間欄82でのタイミングは、図2(b)の無音期間の先頭を基準にして規定される。音程欄84は、データ番号欄80でのそれぞれのデータを演奏する際の音程を示す。ここでは、「ド」、「レ」等として示されているが、さらにオクターブの情報が含まれていてもよい。強さ欄86は、データ番号欄80でのそれぞれのデータを演奏する際の音の強さを示す。ここで、「A」は、最も音の弱い状態に相当し、「B」、「C」となるにつれて、音が強くなるものとする。以上のデータ構造によって、演奏情報は、いつ、どれだけの長さで、どの音程を発声すべきかの情報を有する。   FIG. 4 shows the data structure of the performance information input to the storage unit 22. The performance information includes a data number column 80, a time column 82, a pitch column 84, and a strength column 86. Here, the data number column 80 corresponds to the number assigned to each piece of data included in the performance information. For example, the data corresponds to each character included in the lyrics and each sound played. The time column 82 indicates the timing at which each data in the data number column 80 should be played. The timing to perform may be the timing to start the performance. The timing in the time column 82 is defined with reference to the beginning of the silent period in FIG. A pitch column 84 indicates a pitch when performing each data in the data number column 80. Here, “do”, “re” and the like are shown, but octave information may be further included. The strength column 86 indicates the strength of sound when each data in the data number column 80 is played. Here, “A” corresponds to a state where the sound is weakest, and the sound becomes stronger as “B” and “C”. With the above data structure, the performance information includes information on when, how long, and what pitch should be uttered.

図1に戻る。これまでの説明は、ひとりの歌唱者によるカラオケ機能を実行する場合、あるいは複数の歌唱者によるカラオケ機能を実行する場合において共通である。以下において、ひとりの歌唱者によるカラオケ機能を実行する場合の説明を先に行う。歌詞表示部26は、歌詞情報にもとづいて、歌詞を分割した複数のブロックのそれぞれに対して、ブロックに含まれた複数の文字を表示すべき表示時間と、表示された複数の文字を消去すべき消去時間と、表示された複数の文字のそれぞれを歌唱者が発声すべき複数の開始時間と、歌唱者が発声を終了すべき複数の終了時間とを入力する。歌詞表示部26は、ブロックを曲の進行にしたがって順次切りかえつつ、表示時間になれば、ブロックに含まれた複数の文字をモニタ16に表示させる。例えば、図2のブロック番号欄70が「1」の場合、「線路は続くよどこまでも」の文字列を表示させる。ここで、表示される文字は、所定の文字の大きさ、色、形等によって規定されている。歌詞表示部26は、表示の指示をモニタ制御部28に出力する。   Returning to FIG. The description so far is common when executing a karaoke function by a single singer, or when executing a karaoke function by a plurality of singers. In the following, a description will be given first of the case where the karaoke function is performed by a single singer. The lyric display unit 26 erases the displayed characters and the display time for displaying the plurality of characters included in each block for each of the plurality of blocks into which the lyrics are divided based on the lyric information. The erasing time to be input, a plurality of start times for the singer to utter each of the displayed characters, and a plurality of end times for the singer to end the utterance are input. The lyrics display unit 26 causes the monitor 16 to display a plurality of characters included in the block when the display time is reached while sequentially switching the block according to the progress of the song. For example, when the block number column 70 in FIG. 2 is “1”, the character string “the track continues” is displayed. Here, the character to be displayed is defined by the size, color, shape, etc. of the predetermined character. The lyrics display unit 26 outputs a display instruction to the monitor control unit 28.

モニタ制御部28は、歌詞表示部26からの指示にしたがって、複数の文字をモニタ16に表示する。その際、モニタ制御部28は、ひとつのブロックの最初の文字がモニタ16の所定の位置に表示されるように、座標を規定する。例えば、ブロックの文字列が「線路は続くよどこまでも」である場合、最初の「線」の文字の左上の部分が、モニタ16の所定の座標になるように、ブロックに含まれた複数の文字の座標がそれぞれ規定される。ここで、座標は、モニタ16の所定の位置を原点として規定される。また、基準となる文字の座標は、ブロックに含まれる文字数に応じて調節されてもよい。   The monitor control unit 28 displays a plurality of characters on the monitor 16 in accordance with instructions from the lyrics display unit 26. At that time, the monitor control unit 28 defines the coordinates so that the first character of one block is displayed at a predetermined position on the monitor 16. For example, when the character string of the block is “the line continues”, a plurality of characters included in the block so that the upper left portion of the first “line” character is a predetermined coordinate of the monitor 16 Each coordinate is defined. Here, the coordinates are defined with a predetermined position of the monitor 16 as an origin. Further, the coordinates of the reference character may be adjusted according to the number of characters included in the block.

さらに、歌詞表示部26は、モニタ16に表示した複数の文字のうち、現タイミングにて歌唱者が発声すべき文字の表示の形式を変更する。文字の表示の変更は、文字の大きさが変わったり、色が変わったり、形が変わったりすることによって、実現されればよい。例えば、歌唱すべき文字の大きさが、表示されている文字の大きさよりも大きくなる。その際、モニタ16におけるリフレッシュレートに対応した時間間隔に応じて、文字が段階的に大きくなってもよい。その結果、大きくなった文字によって、カラオケ装置100は、歌唱者に対して歌唱すべき文字を知らしめる。歌詞表示部26による以上のような指示も、前述のごとく、モニタ制御部28を介して、モニタ16に出力される。   Further, the lyrics display unit 26 changes the display format of the characters that the singer should utter at the current timing among the plurality of characters displayed on the monitor 16. The change of the character display may be realized by changing the size of the character, the color, or the shape. For example, the size of the character to be sung is larger than the size of the displayed character. At that time, the characters may increase stepwise according to the time interval corresponding to the refresh rate in the monitor 16. As a result, the karaoke apparatus 100 informs the singer of the character to be sung by the enlarged character. The above instruction by the lyrics display unit 26 is also output to the monitor 16 via the monitor control unit 28 as described above.

再生部24は、記憶部22から、伴奏音楽のデータを入力し、これを復号する。再生部24は、復号した伴奏音楽をスピーカ14から出力する。さらに、再生部24は、マイク12から、歌唱者によって発声された歌唱も入力し、伴奏音楽と合成して、スピーカ14から出力する。   The reproducing unit 24 inputs accompaniment music data from the storage unit 22 and decodes it. The playback unit 24 outputs the decoded accompaniment music from the speaker 14. Further, the playback unit 24 also inputs a song uttered by the singer from the microphone 12, synthesizes it with the accompaniment music, and outputs it from the speaker 14.

判定部32は、モニタ16に表示させた複数の文字に対応すべき音声のデータであって、かつ歌唱者によって歌唱された音声のデータをマイク12から入力する。ここでは、歌唱された文字に対応しながら、音声のデータがひとつの文字を単位にして順次入力される。このように、音声のデータは、複数の文字のそれぞれに対応するが、さらに、ひとつの文字に対して複数のポイントにおいてサンプリングされている。なお、音声のデータは、一般的に、音程・音色・音量によって構成されるが、ここでは、音程を対象にする。判定部32は、モニタ16に表示させた複数の文字に対応すべき音程のデータであって、入力した音声のデータの音程と対比されるべき音程のデータを入力する。ここでは、音声のデータと同様に、歌唱された文字に対応しながら、音程のデータがひとつの文字を単位にして順次入力される。なお、音程のデータは、前述の演奏情報に含まれている。   The determination unit 32 inputs voice data that should correspond to a plurality of characters displayed on the monitor 16 and is sung by a singer from the microphone 12. Here, voice data is sequentially input in units of one character while corresponding to the sung character. As described above, the audio data corresponds to each of a plurality of characters, but is further sampled at a plurality of points for one character. Note that audio data is generally composed of a pitch, tone color, and volume, but here the pitch is the target. The determination unit 32 inputs pitch data that should correspond to a plurality of characters displayed on the monitor 16 and should be compared with the pitch of the input voice data. Here, like the voice data, the pitch data is sequentially input in units of one character while corresponding to the sung character. Note that pitch data is included in the performance information described above.

判定部32は、歌唱された文字を単位にして、音声のデータと音程のデータとの間の音程の誤差を導出する。ここでは、音声のデータをFFT(Fast Fourier Transform)して、基本周波数を抽出し、これを音程のデータと比較して、音程の誤差を導出する。前述のごとく、音声のデータは、ひとつの歌唱された文字を複数のポイントによってサンプリングしている。そのため、ひとつの歌唱された文字に対して、複数のFFTウインドウが規定され、複数のFFTウインドウのそれぞれに対応するように、基本周波数が導出される場合がある。その際は、それぞれの基本周波数に対して音程の誤差を導出し、さらにそれらの音程の誤差を積算して、ひとつの文字に対する音程の誤差を導出する。   The determination unit 32 derives a pitch error between voice data and pitch data in units of sung characters. Here, the voice data is subjected to FFT (Fast Fourier Transform) to extract a fundamental frequency, and this is compared with the pitch data to derive a pitch error. As described above, the voice data is obtained by sampling one sung character by a plurality of points. Therefore, a plurality of FFT windows are defined for one sung character, and the fundamental frequency may be derived so as to correspond to each of the plurality of FFT windows. In that case, a pitch error is derived for each fundamental frequency, and these pitch errors are integrated to derive a pitch error for one character.

歌詞表示部26は、導出した音程の誤差の程度に応じて定められたタイミングにてモニタ16から文字を消去させる。すなわち、音程の誤差がしきい値より大きい文字は、ブロック単位で表示が切りかえられるタイミング、すなわち消去時間を基準に、画面からの消去を行う。その際、終了時間から消去時間にわたって、歌詞表示部26は、文字の表示形式を最初の状態に戻して、当該文字を表示する。一方、音程の誤差がしきい値以下になる文字は、当該文字を発声すべきタイミングの終了時点、すなわち終了時間を基準に、画面からの消去を行う。このような処理によって、ひとつのブロックの歌唱が終了した際、正しい音程によって歌唱されなかった文字が表示されている。なお、カウント部50の説明は、後述する。   The lyric display unit 26 deletes characters from the monitor 16 at a timing determined according to the degree of the derived pitch error. That is, the character whose pitch error is larger than the threshold value is erased from the screen based on the timing at which the display is switched in units of blocks, that is, the erase time. At that time, from the end time to the erasing time, the lyrics display unit 26 returns the character display format to the initial state and displays the character. On the other hand, a character whose pitch error is equal to or less than a threshold value is erased from the screen based on the end time of the timing at which the character should be uttered, that is, the end time. By such processing, when the singing of one block is completed, characters that were not sung with the correct pitch are displayed. The count unit 50 will be described later.

以上のような指示も、モニタ制御部28を介して、モニタ16に出力される。モニタ制御部28は、歌詞表示部26の指示にしたがって画像処理を実行する際に、予め把握した文字に対する座標を使用する。例えば、該当する文字に対応した座標上のデータに対して、所定の処理を施す。操作部30は、歌唱者による所定の指示を受けつける。ここで、歌唱者には、歌唱を行っていないユーザも含むものとする。所定の指示は、歌唱曲の選択や音程の変更等を含む。また、操作部30は、リモコン、キーボード、ボタン等によって構成される。   The above instructions are also output to the monitor 16 via the monitor control unit 28. The monitor control unit 28 uses the coordinates for the character grasped in advance when executing the image processing in accordance with the instruction of the lyrics display unit 26. For example, a predetermined process is performed on the data on the coordinates corresponding to the corresponding character. The operation unit 30 receives a predetermined instruction from the singer. Here, singers include users who are not singing. The predetermined instruction includes selection of a song and a change in pitch. The operation unit 30 includes a remote controller, a keyboard, buttons, and the like.

次に、複数の歌唱者によるカラオケ機能を実行する場合を説明する。導出部38は、記憶部22における歌詞情報に含まれたタイミング情報から、隣接したブロックの間隔をそれぞれ導出する。隣接したブロックの間隔は、図3において、所定のブロックに対する「消去時間」と、次のブロックに対する「表示時間」との差によって導出される。例えば、ブロック1とブロック2との間隔は、ブロック1に対する「消去時間」とブロック2に対する「表示時間」との差によって導出される。以上の処理は、すべてのブロックを対象に実行される。すなわち、ブロックの数が「N」である場合、隣接したブロックの間隔は、「N−1」だけ導出される。   Next, a case where a karaoke function by a plurality of singers is executed will be described. The deriving unit 38 derives the interval between adjacent blocks from the timing information included in the lyrics information in the storage unit 22. In FIG. 3, the interval between adjacent blocks is derived by the difference between the “erasing time” for a given block and the “display time” for the next block. For example, the interval between block 1 and block 2 is derived by the difference between the “erasing time” for block 1 and the “display time” for block 2. The above processing is executed for all blocks. That is, when the number of blocks is “N”, the interval between adjacent blocks is derived by “N−1”.

選択部40は、導出部38において導出したブロックの間隔のそれぞれをしきい値と比較する。ここで、しきい値は、予め規定されている。また、比較の結果、選択部40は、しきい値よりも長いブロックの間隔の後段におけるブロックを選択する。例えば、ブロック1とブロック2の間隔がしきい値よりも長ければ、選択部40は、ブロック2を選択する。ここで、選択されたブロックは、歌詞の中の区切りの次に配置されるブロックと想定される。また、以上の処理は、すべての隣接したブロックの間隔に対して実行されるので、通常、複数の後段のブロックが選択される。さらに、ブロック1も選択される。   The selection unit 40 compares each of the block intervals derived by the deriving unit 38 with a threshold value. Here, the threshold value is defined in advance. As a result of the comparison, the selection unit 40 selects a block in the subsequent stage of the block interval longer than the threshold value. For example, if the interval between the block 1 and the block 2 is longer than the threshold value, the selection unit 40 selects the block 2. Here, the selected block is assumed to be a block arranged next to the break in the lyrics. Further, since the above processing is executed for the intervals between all adjacent blocks, a plurality of subsequent blocks are usually selected. Furthermore, block 1 is also selected.

結合部42は、選択部40において選択されたブロックを先頭として、予め規定された歌唱期間よりも長くなるように、連続したブロックを結合する。ここで、歌唱期間とは、ひとりの歌唱者が連続して歌唱すべき最低限の期間である。例えば、歌唱期間は、「30秒」というように決められる。例えば、ブロック1が「10秒」、ブロック2が「15秒」、ブロック3が「15秒」である場合、ブロック1は、歌唱期間よりも短いので、結合部42は、ブロック1とブロック2を結合する。しかしながら、ブロック1とブロック2とを結合しても、歌唱期間よりも短いので、結合部42は、さらにブロック3も結合する。ブロック1から3が結合されると、歌唱期間よりも長くなるので、選択部40は、ブロック1から3をひとつのまとまりとする。なお、結合することによって、歌唱時間よりも長くなっても、ひとつのまとまりに対する削除は実行しない。前述の例において、ブロック1から3の結合では、「40」秒となるが、これに対して「30」秒になるような削除は実行しない。   The combining unit 42 combines consecutive blocks so that the block selected by the selection unit 40 is the head and is longer than a predetermined singing period. Here, the singing period is a minimum period that one singer should sing continuously. For example, the singing period is determined as “30 seconds”. For example, when the block 1 is “10 seconds”, the block 2 is “15 seconds”, and the block 3 is “15 seconds”, the block 1 is shorter than the singing period. Join. However, even if the block 1 and the block 2 are combined, it is shorter than the singing period, so the combining unit 42 also combines the block 3. When the blocks 1 to 3 are combined, it becomes longer than the singing period. Therefore, the selection unit 40 sets the blocks 1 to 3 as one unit. In addition, even if it becomes longer than singing time by combining, the deletion with respect to one unit is not performed. In the above example, the combination of blocks 1 to 3 results in “40” seconds, but no deletion is performed so as to be “30” seconds.

以上の処理は、選択部40において選択されたブロックに対して実行される。そのため、ひとつのブロックが複数のまとまりに含まれる場合もある。例えば、選択部40においてブロック1とブロック2が選択されていた場合、結合部42は、ブロック1から3によって構成されるまとまりと、ブロック2と3によって構成されるまとまりとを生成する。また、結合部42は、ひとつのまとまりブロックをパートとする。例えば、ブロック1から3によって構成されるまとまりは、「パート1」とされる。一般的に、複数のパートが生成される。以上の処理によれば、特定部34は、隣接したブロックの間隔をもとに、パートを特定する。なお、結合部42は、結合したまとまりのうち、隣接したブロックの間隔の割合、すなわち歌のない部分の割合が大きければ、当該結合したまとまりをパートから除外する。ここでは、ひとつのまとまりに対応した期間のうち、隣接したブロックの間隔に対応した期間が「25%」以上であれば、当該まとまりをパートから除外する。なお、「25%」は、例示であって、これ以外の値であってもよい。以上の処理によって、歌唱者の歌唱する部分が少ないということを回避する。   The above processing is executed for the block selected by the selection unit 40. Therefore, one block may be included in a plurality of groups. For example, when the block 1 and the block 2 are selected in the selection unit 40, the combining unit 42 generates a group constituted by the blocks 1 to 3 and a group constituted by the blocks 2 and 3. In addition, the combining unit 42 uses a single block as a part. For example, the group composed of blocks 1 to 3 is “part 1”. In general, multiple parts are generated. According to the above processing, the specifying unit 34 specifies a part based on the interval between adjacent blocks. In addition, if the ratio of the space | interval of an adjacent block, ie, the ratio of the part which does not have a song, is large, the coupling | bond part 42 will exclude the said coupled mass from a part. Here, if the period corresponding to the interval between adjacent blocks among the periods corresponding to one group is “25%” or more, the group is excluded from the part. “25%” is merely an example, and other values may be used. By the above process, it is avoided that there is little part which a singer sings.

操作部30は、ユーザから、歌唱者の人数を受けつける。生成部44は、特定部34によって特定されたパートを組み合わせることによって、複数のグループを生成する。例えば、パート1とパート2から、「グループ1」が生成される。ここで、生成部44では、ひとりの歌唱者が歌唱すべき回数に応じた数のグループを生成する。そのために、生成部44は、操作部30によって受けつけた人数と、ひとりの歌唱者が歌唱すべき回数との関係を予め規定する。例えば、人数が「2」である場合、歌唱すべき回数は「3」回であり、人数が「3」である場合、歌唱すべき回数は「2」回であり、人数が「4」である場合、歌唱すべき回数は「1」回である。そのため、操作部30から受けつけた人数が「2」であれば、生成部44は、「3」つのグループを生成する。   The operation unit 30 receives the number of singers from the user. The generating unit 44 generates a plurality of groups by combining the parts specified by the specifying unit 34. For example, “Group 1” is generated from Part 1 and Part 2. Here, the production | generation part 44 produces | generates the number of groups according to the frequency | count which one singer should sing. Therefore, the production | generation part 44 prescribes | regulates the relationship between the number of people received by the operation part 30, and the frequency | count which one singer should sing. For example, when the number of people is “2”, the number of times to sing is “3”, and when the number of people is “3”, the number of times to sing is “2” and the number of people is “4”. In some cases, the number of times to sing is “1”. Therefore, if the number of people received from the operation unit 30 is “2”, the generation unit 44 generates “3” groups.

また、生成部44では、番号の小さいパートが番号の小さいグループになるように、パートを組み合わせる。例えば、パートが6つあれば、「グループ1」は「パート1」と「パート2」から形成され、「グループ2」は「パート3」と「パート4」から形成され、「グループ3」は「パート5」と「パート6」から形成される。パートの数が6よりも小さければ、生成部44は、番号の大きいグループに含まれるパートの数をひとつにしていく。一方、パートの数が6よりも大きければ、生成部44は、番号の小さいグループに含まれるパートの数を増加し、かつそれぞれのグループに含まれるパートの数を均一にするように、グループを形成する。以上のように、生成部44は、番号の近いグループに、曲の似た部分が含まれるように、パートからグループを生成する。すなわち、番号の近いグループにおいて、同一のパートを含む可能性が高くなる。   In addition, the generation unit 44 combines the parts so that the parts with the lower numbers become groups with the lower numbers. For example, if there are 6 parts, “Group 1” is formed from “Part 1” and “Part 2”, “Group 2” is formed from “Part 3” and “Part 4”, and “Group 3” is “Part 5” and “Part 6” are formed. If the number of parts is smaller than 6, the generation unit 44 keeps the number of parts included in the group with a large number as one. On the other hand, if the number of parts is greater than 6, the generation unit 44 increases the number of parts included in the group with the lower number, and sets the groups so that the number of parts included in each group is uniform. Form. As described above, the generation unit 44 generates a group from parts so that a group having a similar number includes a similar part of a song. That is, there is a high possibility that the same part will be included in groups with similar numbers.

割当部46は、生成部44において生成した複数のグループのそれぞれを単位にして、グループに含まれたパートのそれぞれを歌唱者へ割り当てる。割当は、歌唱者に対して独立に実行する。例えば、グループ1にパート1とパート2が含まれている場合、歌唱者1には、パート1とパート2のいずれかを割り当てる。一方、歌唱者2にも、パート1とパート2のいずれかを割り当てる。なお、歌唱者1に割り当てれたパート以外のパートが、歌唱者2に割り当てられてもよい。すなわち、割当部46は、既に割り当てられてパート以外のパートを他の歌唱者に割り当ててもよい。以上の処理をすべてのグループに対して実行する。   The assigning unit 46 assigns each of the parts included in the group to the singer in units of the plurality of groups generated by the generating unit 44. The assignment is performed independently for the singer. For example, when group 1 includes part 1 and part 2, either one of part 1 and part 2 is assigned to singer 1. On the other hand, one of part 1 and part 2 is also assigned to singer 2. A part other than the part assigned to the singer 1 may be assigned to the singer 2. That is, the assigning unit 46 may assign a part other than a part that has already been assigned to another singer. The above processing is executed for all groups.

実行部48は、割当部46による割当をもとに、歌唱者に歌唱を指示する。なお、実行部48は、歌唱者の順番をランダムに選択する。さらに、パートの順番もランダムに選択する。すなわち、実行部48は、歌唱者とグループの順番を混ぜる。例えば、歌唱者の数が「3」である場合、実行部48は、歌唱者の順番が連続にならないように選択を実行する。さらに、ひとりの歌唱者に対するパートが「パート1」、「パート3」、「パート5」である場合、実行部48は、パートの順番が昇順や降順にならないように選択を実行する。ここで、歌唱者を選択する際に、同一の歌唱者が連続しないようにしてもよい。さらに、実行部48は、歌詞表示部26、モニタ制御部28を介して、歌唱者の名前をモニタ16に表示することによって、歌唱者を指示する。また、実行部48は、再生部24に、選択したパートに対応した演奏音楽の再生を指示し、歌詞表示部26に、選択したパートに対応した歌詞の表示を指示する。   The execution unit 48 instructs the singer to sing based on the assignment by the assignment unit 46. Note that the execution unit 48 randomly selects the order of the singers. Furthermore, the order of the parts is also selected at random. That is, the execution part 48 mixes the order of a singer and a group. For example, when the number of singers is “3”, the execution unit 48 performs selection so that the order of the singers is not continuous. Furthermore, when the parts for one singer are “part 1”, “part 3”, and “part 5”, the execution unit 48 performs selection so that the order of the parts is not in ascending order or descending order. Here, when selecting a singer, the same singer may not be continuous. Further, the execution unit 48 instructs the singer by displaying the name of the singer on the monitor 16 via the lyrics display unit 26 and the monitor control unit 28. Further, the execution unit 48 instructs the playback unit 24 to play back the performance music corresponding to the selected part, and instructs the lyrics display unit 26 to display the lyrics corresponding to the selected part.

すなわち、指示部36は、操作部30において受けつけた歌唱者の名前をそれぞれ表示させながら、歌詞情報に含まれた歌詞のうち、特定部34によって特定されたパートをモニタ16に表示させる。さらに、指示部36は、伴奏音楽のうち、特定部34によって特定されたパートの演奏を再生させる。再生部24は、実行部48からの指示にしたがって、伴奏音楽のうちの特定されたパートを再生する。また、歌詞表示部26は、実行部48からの指示にしたがって、歌詞のうちの特定されたパートをモニタ16に表示する。判定部32は、実行部48からの指示に対応したパートにおいて、前述の判定を実行する。ここで、判定部32は、歌唱者単位に得点をつけ、曲の終了後にその結果をモニタ16に表示してもよい。   That is, the instruction unit 36 causes the monitor 16 to display the part specified by the specifying unit 34 among the lyrics included in the lyrics information while displaying the names of the singers received by the operation unit 30. Further, the instruction unit 36 reproduces the performance of the part specified by the specifying unit 34 among the accompaniment music. The reproduction unit 24 reproduces the specified part of the accompaniment music in accordance with an instruction from the execution unit 48. In addition, the lyrics display unit 26 displays the specified part of the lyrics on the monitor 16 in accordance with an instruction from the execution unit 48. The determination unit 32 performs the above-described determination on the part corresponding to the instruction from the execution unit 48. Here, the determination unit 32 may give a score to each singer and display the result on the monitor 16 after the end of the song.

以上の構成は、ハードウエア的には、任意のコンピュータのCPU、メモリ、その他のLSIで実現でき、ソフトウエア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウエアのみ、ソフトウエアのみ、またはそれらの組合せによっていろいろな形で実現できることは、当業者には理解されるところである。   The above configuration can be realized by a CPU, memory, or other LSI of an arbitrary computer in terms of hardware, and can be realized by a program loaded in the memory in terms of software. It depicts the functional blocks that are realized. Accordingly, those skilled in the art will understand that these functional blocks can be realized in various forms by hardware only, software only, or a combination thereof.

図5(a)−(d)は、特定部34および指示部36において処理されるデータであり、歌詞情報に含まれる歌詞を示す。図5(a)は、記憶部22における歌詞であり、図示のごとく、「ブロック1」から「ブロックN」までの複数のブロックを含む。図5(b)は、選択部40によって選択されたブロックを示す。ここでは、「ブロック3」、「ブロックN−1」等が選択されずに、「ブロック1」、「ブロック2」、「ブロック4」等が選択されている。図5(c)は、結合部42によって結合されたブロック、すなわち生成されたパートを示す。図5(b)において選択されている「ブロック1」を先頭にして「パート1」が形成されており、「ブロック2」を先頭にして「パート2」が形成されており、「ブロック6」を先頭にして「パート3」が形成されている。ここで、図5(b)においては、「ブロック4」も選択されているが、結合によってブロックの間隔の占める割合、すなわち歌のない部分の割合が大きかったために、パートの形成がなされていない。図5(d)は、生成部44によって生成されたグループを示す。「グループ1」から「グループ3」までの3つのグループが生成され、順番の小さいパートが、順番の小さいグループに含まれる。   FIGS. 5A to 5D are data processed in the specifying unit 34 and the instruction unit 36, and indicate lyrics included in the lyrics information. FIG. 5A shows lyrics in the storage unit 22 and includes a plurality of blocks from “block 1” to “block N” as shown in the figure. FIG. 5B shows a block selected by the selection unit 40. Here, “block 1”, “block 2”, “block 4”, and the like are selected without selecting “block 3”, “block N−1”, and the like. FIG. 5C shows blocks that are combined by the combining unit 42, that is, generated parts. “Part 1” is formed starting with “Block 1” selected in FIG. 5B, “Part 2” is formed starting with “Block 2”, and “Block 6”. "Part 3" is formed starting from. Here, in FIG. 5B, “Block 4” is also selected, but the part is not formed because the ratio of the block interval due to the combination, that is, the ratio of the part without the song is large. . FIG. 5D shows a group generated by the generation unit 44. Three groups from “Group 1” to “Group 3” are generated, and the parts with the smallest order are included in the groups with the smallest order.

図6は、導出部38と選択部40における選択処理の手順を示すフローチャートである。導出部38は、隣接したブロックの間隔を計算する(S10)。間隔がしきい値より大きければ(S12のY)、選択部40は、後段のブロックを抽出する(S14)。一方、間隔がしきい値よりも大きくなければ(S12のN)、選択部40は、抽出を行わない。調査しないブロックがあれば(S16のY)、ステップ10からの処理を繰り返す。一方、調査していないブロックがなければ(S16のN)、処理を終了する。   FIG. 6 is a flowchart showing a procedure of selection processing in the derivation unit 38 and the selection unit 40. The deriving unit 38 calculates the interval between adjacent blocks (S10). If the interval is larger than the threshold value (Y in S12), the selection unit 40 extracts a subsequent block (S14). On the other hand, if the interval is not larger than the threshold value (N in S12), the selection unit 40 does not perform extraction. If there is a block not to be examined (Y in S16), the processing from step 10 is repeated. On the other hand, if there is no uninvestigated block (N in S16), the process is terminated.

図7は、結合部42における結合処理の手順を示すフローチャートである。結合部42は、選択部40において抽出されたブロックを選択する(S20)。ブロックに対応した歌唱期間がしきい値よりも長くなければ(S22のN)、結合部42は、連続したブロックを結合し(S24)、ステップ22に戻る。一方、ブロックに対応した歌唱期間がしきい値よりも長く(S22のY)、かつ歌唱のない期間が25%以上でなければ(S26のN)、結合部42は、当該ブロックをパートとして選択する(S28)。一方、歌唱のない期間が25%以上であれば(S26のY)、当該ブロックをパートの対象から除外する。抽出されたブロックが残っていれば(S30のY)、結合部42は、ステップ20に戻る。一方、抽出されたブロックが残っていなければ(S30のN)、結合部42は、処理を終了する。   FIG. 7 is a flowchart showing the procedure of the combining process in the combining unit 42. The combining unit 42 selects the block extracted by the selection unit 40 (S20). If the singing period corresponding to the block is not longer than the threshold (N in S22), the combining unit 42 combines consecutive blocks (S24), and returns to Step 22. On the other hand, if the singing period corresponding to the block is longer than the threshold (Y in S22) and the period without singing is not 25% or more (N in S26), the combining unit 42 selects the block as a part. (S28). On the other hand, if the period when there is no singing is 25% or more (Y of S26), the block is excluded from the part target. If the extracted block remains (Y in S30), the combining unit 42 returns to Step 20. On the other hand, if the extracted block does not remain (N in S30), the combining unit 42 ends the process.

図8は、生成部44におけるグループの生成手順を示すフローチャートである。生成部44は、操作部30から歌唱人数を取得する(S40)。生成部44は、歌唱回数を導出し(S42)、歌唱回数と同じ数のグループを生成する(S44)。パートの数がグループの数よりも多ければ(S46のY)、生成部44は、パートをグループに分類する(S48)。一方、パートの数がグループの数よりも多くなければ(S46のN)、生成部44は、パートを重複させながら、パートをグループに分類する(S50)。   FIG. 8 is a flowchart showing a group generation procedure in the generation unit 44. The generation unit 44 acquires the number of singers from the operation unit 30 (S40). The generation unit 44 derives the number of times of singing (S42), and generates the same number of groups as the number of times of singing (S44). If the number of parts is greater than the number of groups (Y in S46), the generation unit 44 classifies the parts into groups (S48). On the other hand, if the number of parts is not greater than the number of groups (N in S46), the generation unit 44 classifies the parts into groups while overlapping the parts (S50).

図9は、割当部46における割当処理の手順を示すフローチャートである。割当部46は、歌唱者を選択し(S60)、当該歌唱者にいずれかのパートを割り当てる(S62)。歌唱者が残っていれば(S64のY)、割当部46は、ステップ60からの処理を繰り返し実行する。一方、歌唱者が残っていなければ(S64のN)、割当部46は、処理を終了する。   FIG. 9 is a flowchart showing a procedure of assignment processing in the assignment unit 46. The assigning unit 46 selects a singer (S60) and assigns any part to the singer (S62). If the singer remains (Y in S64), the assigning unit 46 repeatedly executes the processing from step 60. On the other hand, if there is no singer (N of S64), the allocation unit 46 ends the process.

以上の構成によるカラオケ装置100の動作を説明する。図10は、カラオケ装置100における遊技の手順を示すフローチャートである。歌詞表示部26は、次に歌唱すべき歌唱者の名前をモニタ16の画面に3秒間表示する(S70)。歌詞表示部26は、歌唱開始の2秒前からモニタ16の画面に歌詞を表示し、再生部24は、伴奏をフェードインする(S72)。歌詞表示部26は、歌い終わるまで、モニタ16の画面に歌詞を表示し、再生部24は、伴奏を再生する(S74)。再生部24は、歌唱終了後、1秒後にフェードアウトする(S76)。歌唱者の指定が終了していなければ(S78のN)、カラオケ装置100は、ステップ70からの処理を繰り返し実行する。一方、歌唱者の指定が終了すれば(S78のY)、判定部32は、結果をモニタ16の画面に表示する(S80)。   The operation of the karaoke apparatus 100 having the above configuration will be described. FIG. 10 is a flowchart showing a game procedure in the karaoke apparatus 100. The lyric display unit 26 displays the name of the singer who should sing next on the screen of the monitor 16 for 3 seconds (S70). The lyrics display unit 26 displays the lyrics on the screen of the monitor 16 from 2 seconds before the start of singing, and the playback unit 24 fades in the accompaniment (S72). The lyrics display unit 26 displays the lyrics on the screen of the monitor 16 until the singing is finished, and the playback unit 24 plays back the accompaniment (S74). The reproducing unit 24 fades out after 1 second after the singing is finished (S76). If the designation of the singer has not ended (N in S78), the karaoke apparatus 100 repeatedly executes the processing from step 70. On the other hand, if the designation of the singer is completed (Y in S78), the determination unit 32 displays the result on the screen of the monitor 16 (S80).

ここで、変形例を説明する。これまで、歌唱者が歌唱を開始する際に、歌唱を開始すべきタイミングを通知していなかった。特に、複数の歌唱者が順番に歌唱を行う場合に、新たな歌唱者が歌唱を開始するときにタイミングを通知していなかった。曲の途中から歌唱を開始する場合、歌唱者はどこから歌唱を開始すればよいか分からなくなることもあり得る。そのため、「3」、「2」、「1」のようなカウントダウンによって、歌唱開始までの秒数を通知することは、歌唱者にとって望ましい。また、曲の途中、例えば、間奏の部分であっても、歌唱開始までの秒が通知されれば、歌唱者は容易に歌唱できる。しかしながら、秒数のカウントダウンと曲のリズムとが異なっていれば、歌唱者にとって、歌唱の開始が困難になることもあり得る。そのため、変形例では、以下の処理を実行する。   Here, a modified example will be described. Until now, when a singer started singing, the timing to start singing was not notified. In particular, when a plurality of singers sing in order, the timing was not notified when a new singer started singing. When singing from the middle of a song, the singer may not know where to start singing. Therefore, it is desirable for the singer to notify the number of seconds until the start of singing by countdown such as “3”, “2”, and “1”. In addition, even in the middle of a song, for example, an interlude part, the singer can easily sing if the seconds until the start of singing are notified. However, if the countdown of seconds differs from the rhythm of the song, it may be difficult for the singer to start singing. Therefore, in the modified example, the following processing is executed.

図1の歌詞表示部26に含まれたカウント部50は、記憶部22における演奏情報のうち、実行部48によって指定されたパートを取得する。ここで、演奏情報には、リズムやテンポに関する情報が含まれている。カウント部50は、当該情報をもとに、カウントを生成する。すなわち、リズムやテンポが速くなれば、早くなるようなカウントを生成する。また、歌唱の開始となるタイミングにおいてカウントが「1」となるように、カウント部50は、逆算を実行する。さらに、カウント部50は、逆算の結果、「3」となるカウントから表示を実行する。カウント部50は、モニタ制御部28を介して、作成したカウントをモニタ16に表示する。このカウントは、指示部36にて実行される歌詞の表示と伴奏音楽の再生と同期している。なお、モニタ16において、カウントは、歌詞とともに表示される。以上の説明とは別に、カウント部50は、歌詞に含まれた文字を発声すべきタイミング情報を使用しながら、ひとつの文字を発声すべき期間を導出してもよい。これは、複数の文字を発生すべき期間を文字数にて除算することによって、導出されればよい。さらに、カウント部50は、導出した期間をもとに、歌唱の開始前から、「3」、「2」、「1」のように、歌唱者に対して、歌唱を開始するタイミングを通知するためのカウントを作成してもよい。   The count unit 50 included in the lyrics display unit 26 in FIG. 1 acquires the part specified by the execution unit 48 from the performance information in the storage unit 22. Here, the performance information includes information on rhythm and tempo. The count unit 50 generates a count based on the information. That is, a count that is faster as the rhythm or tempo is faster is generated. Moreover, the count part 50 performs a reverse calculation so that a count may be set to "1" at the timing which starts a song. Further, the count unit 50 performs display from the count that is “3” as a result of the reverse calculation. The count unit 50 displays the created count on the monitor 16 via the monitor control unit 28. This count is synchronized with the display of lyrics executed by the instruction unit 36 and the reproduction of accompaniment music. On the monitor 16, the count is displayed together with the lyrics. Apart from the above description, the count unit 50 may derive a period in which one character should be uttered while using timing information for uttering a character included in the lyrics. This may be derived by dividing the period in which a plurality of characters should be generated by the number of characters. Furthermore, the count unit 50 notifies the singer of the timing for starting the singing, such as “3”, “2”, and “1”, before starting the singing based on the derived period. You may create a count for

図11は、モニタ16に表示された画面を示す図である。図示のごとく、モニタ16には、ひとつのブロックに対応した歌詞が表示されている。また、歌詞の左上の部分には、カウントされた数字が表示されている。前述のごとく、文字を発声すべきタイミングをもとに、数字が、「3」、「2」、「1」のように変化しながら表示される。   FIG. 11 is a diagram showing a screen displayed on the monitor 16. As shown in the drawing, the lyrics corresponding to one block are displayed on the monitor 16. The counted number is displayed in the upper left part of the lyrics. As described above, the numbers are displayed while changing like “3”, “2”, and “1” based on the timing at which the character should be uttered.

本発明の実施例によれば、歌詞情報に対して、隣接したブロックの間隔がしきい値よりも長ければ、パートの対象にすべきブロックとして選択するので、曲の中の区切りのよい部分を選択できる。また、区切りのよい部分を選択するので、複数の歌唱者による歌唱に適した部分を選択できる。また、通常のカラオケ用のデータを使用するので、事業者に対する処理の増加を抑制できる。また、複数の歌唱者による歌唱を可能にするので、遊技性を向上できる。また、歌唱期間がある程度よりも長くなるようなパートを選択できる。また、歌唱者が歌うべき期間の短いパートを選択することを回避できる。また、複数の歌唱者による歌唱に対応するような再生を実行できる。また、ひとりの歌唱者が、同一のパートを歌唱する可能性を低減できる。また、歌唱者はいつ歌唱すべきかを予想できないので、遊技性を向上できる。また、曲のタイミングに合わせたカウントがなされるので、歌唱をスムーズに開始できる。   According to the embodiment of the present invention, if the interval between adjacent blocks is longer than the threshold for lyrics information, it is selected as a block to be a part target. You can choose. Moreover, since a part with good separation is selected, a part suitable for singing by a plurality of singers can be selected. Moreover, since the data for normal karaoke are used, the increase in the process with respect to a provider can be suppressed. Moreover, since the singing by a plurality of singers is enabled, the playability can be improved. In addition, a part whose singing period is longer than a certain level can be selected. Moreover, it can avoid selecting the part with a short period which a singer should sing. Moreover, reproduction corresponding to singing by a plurality of singers can be executed. Moreover, the possibility that one singer sings the same part can be reduced. In addition, since the singer cannot predict when to sing, gameability can be improved. Moreover, since the count according to the timing of music is made, singing can be started smoothly.

以上、本発明を実施例をもとに説明した。この実施例は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。   In the above, this invention was demonstrated based on the Example. This embodiment is an exemplification, and it will be understood by those skilled in the art that various modifications can be made to the combination of each component and each processing process, and such modifications are also within the scope of the present invention. .

本実施例において、選択部40では、隣接したブロックの間隔が予め定めたしきい値よりも長くなったときに、後段のブロックを選択している。しかしながらこれに限らず例えば、選択部40は、隣接したブロックの間隔を比較し、間隔が長いものから順に所定の数の後段のブロックを選択してもよい。また、隣接したブロックの間隔に対して、統計処理を実行することによってしきい値を決定してもよい。また、演奏情報に含まれたテンポやリズムの情報をもとに、しきい値を決定してもよい。本変形例によれば、曲のテンポに合わせて、ブロックを選択できる。つまり、曲の中において区切りのよい部分が選択されればよい。   In the present embodiment, the selection unit 40 selects a subsequent block when the interval between adjacent blocks becomes longer than a predetermined threshold value. However, the present invention is not limited to this. For example, the selection unit 40 may compare the intervals between adjacent blocks and select a predetermined number of subsequent blocks in order from the longest interval. Further, the threshold value may be determined by performing statistical processing on the interval between adjacent blocks. The threshold value may be determined based on tempo and rhythm information included in the performance information. According to this modification, a block can be selected in accordance with the tempo of the song. That is, it is only necessary to select a portion with good separation in the music.

本実施例において、指示部36は、グループを生成し、グループの中に含まれたパートに対して、歌唱者を割り当てている。しかしながらこれに限らず例えば、指示部36は、グループを生成せずに、パートに対して、歌唱者を割り当ててもよい。その際、既に割り当てたパートは、次に歌唱者を割り当てる際に除外されてもよい。本変形例によれば、グループを生成するための処理を省略できる。つまり、様々なパートが均等になるように割り当てられればよい。   In the present embodiment, the instruction unit 36 generates a group, and assigns a singer to the parts included in the group. However, not limited to this, for example, the instruction unit 36 may assign a singer to a part without generating a group. At that time, the already assigned part may be excluded when the next singer is assigned. According to this modification, the process for generating a group can be omitted. In other words, various parts may be assigned so as to be equal.

本実施例において、カラオケ装置100は、ひとつの曲を複数のパートに分割することによって、パートのそれぞれを生成している。しかしながらこれに限らず例えば、カラオケ装置100は、複数の曲からパートのそれぞれを生成してもよい。本変形例によれば、複数の曲によって構成されるメドレーを生成できる。   In the present embodiment, the karaoke apparatus 100 generates each part by dividing one piece of music into a plurality of parts. However, the present invention is not limited thereto, and for example, the karaoke apparatus 100 may generate each part from a plurality of songs. According to this modification, a medley composed of a plurality of songs can be generated.

本発明の実施例に係るカラオケ装置の構成を示す図である。It is a figure which shows the structure of the karaoke apparatus which concerns on the Example of this invention. 図2(a)−(b)は、図1の記憶部に入力される歌詞情報と演奏情報との関連を示す図である。FIGS. 2A to 2B are diagrams showing the relationship between the lyrics information input to the storage unit of FIG. 1 and the performance information. 図1の記憶部に入力される歌詞情報のデータ構造を示す図である。It is a figure which shows the data structure of the lyric information input into the memory | storage part of FIG. 図1の記憶部に入力される演奏情報のデータ構造を示す図である。It is a figure which shows the data structure of the performance information input into the memory | storage part of FIG. 図5(a)−(d)は、図1の特定部および指示部において処理されるデータを示す図である。FIGS. 5A to 5D are diagrams illustrating data processed in the specifying unit and the instruction unit in FIG. 図1の導出部と選択部における選択処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the selection process in the derivation | leading-out part and selection part of FIG. 図1の結合部における結合処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the coupling | bonding process in the coupling | bond part of FIG. 図1の生成部におけるグループの生成手順を示すフローチャートである。It is a flowchart which shows the production | generation procedure of the group in the production | generation part of FIG. 図1の割当部における割当処理の手順を示すフローチャートである。It is a flowchart which shows the procedure of the allocation process in the allocation part of FIG. 図1のカラオケ装置における遊技の手順を示すフローチャートである。It is a flowchart which shows the procedure of the game in the karaoke apparatus of FIG. 図1のモニタに表示された画面を示す図である。It is a figure which shows the screen displayed on the monitor of FIG.

符号の説明Explanation of symbols

10 ネットワーク、 12 マイク、 14 スピーカ、 16 モニタ、 20 通信部、 22 記憶部、 24 再生部、 26 歌詞表示部、 28 モニタ制御部、 30 操作部、 32 判定部、 34 特定部、 36 指示部、 38 導出部、 40 選択部、 42 結合部、 44 生成部、 46 割当部、 48 実行部、 50 カウント部、 100 カラオケ装置。   10 network, 12 microphone, 14 speaker, 16 monitor, 20 communication unit, 22 storage unit, 24 playback unit, 26 lyrics display unit, 28 monitor control unit, 30 operation unit, 32 determination unit, 34 identification unit, 36 instruction unit, 38 derivation unit, 40 selection unit, 42 combination unit, 44 generation unit, 46 allocation unit, 48 execution unit, 50 count unit, 100 karaoke apparatus.

Claims (11)

複数のブロックに分割された歌詞と、各ブロックを曲の進行にしたがって順次切りかえながら画面に表示するためのタイミング情報とが含まれた歌詞情報と、歌詞情報に含まれたタイミング情報と関連づけられた演奏音楽とを入力するステップと、
入力した歌詞情報に含まれたタイミング情報から、隣接したブロックの間隔をそれぞれ導出し、隣接したブロックの間隔をもとに、再生すべき歌詞の部分を特定するステップと、
入力した歌詞情報に含まれた歌詞のうち、特定された部分を画面に表示し、入力した伴奏音楽のうち、特定された部分を再生するステップと、
をコンピュータに実行させるためのプログラム。
The lyrics information including the lyrics divided into a plurality of blocks , the timing information for displaying each block on the screen while switching sequentially according to the progress of the song, and the timing information included in the lyrics information A step of inputting performance music;
Deriving the interval between adjacent blocks from the timing information included in the input lyrics information, and identifying the portion of the lyrics to be reproduced based on the interval between adjacent blocks;
Displaying the specified portion of the lyrics included in the input lyrics information on the screen and playing the specified portion of the input accompaniment music;
A program that causes a computer to execute.
前記特定するステップは、
隣接したブロックの間隔をそれぞれ導出するステップと、
前記導出するステップにおいて導出したブロックの間隔のそれぞれをしきい値と比較し、しきい値よりも長いブロックの間隔の後段におけるブロックを選択するステップと、
前記選択するステップにおいて選択したブロックを先頭として、予め規定された歌唱期間よりも長くなるように、連続したブロックを結合するステップと、
前記結合するステップにおいて結合したブロックを再生すべき歌詞の部分として出力するステップと、
を備えることを特徴とする請求項1に記載のプログラム。
The identifying step includes:
Deriving the spacing between adjacent blocks respectively;
Comparing each of the block intervals derived in the step of deriving with a threshold value, and selecting a block at a later stage of the block interval longer than the threshold value;
Combining the consecutive blocks so that the block selected in the selecting step is at the head and is longer than a predetermined singing period;
Outputting the combined block in the combining step as a part of the lyrics to be reproduced;
The program according to claim 1, comprising:
前記出力するステップは、結合したブロックの中において、結合したブロックに対して、隣接したブロックの間隔の割合が所定の値よりも大きければ、当該結合したブロックを再生すべき歌詞の部分から除外することを特徴とする請求項2に記載のプログラム。 The outputting step excludes the combined block from the portion of the lyrics to be reproduced if the ratio of the interval between adjacent blocks to the combined block is larger than a predetermined value in the combined block. The program according to claim 2, wherein: 歌唱者の人数を受けつけるステップをさらに備え、
前記再生するステップは、前記受けつけるステップにおいて受けつけた人数の歌唱者のそれぞれに、結合したブロックを対応させつつ、歌詞の表示と伴奏音の再生を実行することを特徴とする請求項1から3のいずれかに記載のプログラム。
Further comprising the step of accepting the number of singers,
4. The reproduction step includes displaying lyrics and reproducing accompaniment sounds while making the combined block correspond to each of the number of singers received in the receiving step. 5. The program according to any one.
前記再生するステップは、
前記特定するステップによって特定された部分を組み合わせることによって、複数のグループを生成するステップと、
前記生成するステップにおいて生成した複数のグループのそれぞれを単位にして、グループに含まれた部分のそれぞれを歌唱者へ割り当てるステップと、
前記割り当てるステップによって割り当てた歌唱者を指示しながら、割り当てられた部分に対応した歌詞の表示と伴奏音楽の再生を実行するステップと、
を備えることを特徴とする請求項4に記載のプログラム。
The reproducing step includes
Generating a plurality of groups by combining the parts identified by the identifying step;
Assigning each of the parts included in the group to the singer in units of each of the plurality of groups generated in the generating step;
Instructing the singer assigned by the assigning step, displaying the lyrics corresponding to the assigned part and playing the accompaniment music;
The program according to claim 4, further comprising:
前記生成するステップでは、ひとりの歌唱者が歌唱すべき回数に応じた数のグループを生成することを特徴とする請求項5に記載のプログラム。   6. The program according to claim 5, wherein in the generating step, a number of groups corresponding to the number of times a single singer should sing is generated. 前記実行するステップは、歌唱者とグループの順番を混ぜながら、歌詞の表示と伴奏音楽の再生を実行することを特徴とする請求項5または6に記載のプログラム。   The program according to claim 5 or 6, wherein the executing step executes display of lyrics and reproduction of accompaniment music while mixing the order of the singer and the group. 前記入力するステップにおいて入力した歌詞情報に含まれたタイミング情報と関連づけられた演奏情報を取得し、演奏情報のうち、曲の進行にしたがって発声すべき文字のそれぞれを演奏するためのタイミング情報を抽出するステップと、
前記抽出するステップにおいて抽出したタイミング情報をもとに、歌唱者に対して、歌唱を開始するタイミングを通知するためのカウントであって、かつ前記生成するステップにて実行される歌詞の表示と伴奏音楽の再生と同期したカウントを作成し、作成したカウントを画面に表示させるステップと、
をさらに備えることを特徴とする請求項1から7のいずれかに記載のプログラム。
The performance information associated with the timing information included in the lyrics information input in the input step is acquired, and the timing information for playing each character to be uttered according to the progress of the song is extracted from the performance information And steps to
Based on the timing information extracted in the extracting step, it is a count for notifying the singer of the timing to start singing, and the lyrics display and accompaniment executed in the generating step Creating a count that is synchronized with the music playback and displaying the created count on the screen;
The program according to claim 1, further comprising:
複数のブロックに分割された歌詞と、各ブロックを曲の進行にしたがって順次切りかえながら画面に表示するためのタイミング情報とが含まれた歌詞情報と、歌詞情報に含まれたタイミング情報と関連づけられた演奏音楽とを入力する入力部と、
前記入力部において入力した歌詞情報に含まれたタイミング情報から、隣接したブロックの間隔をそれぞれ導出し、隣接したブロックの間隔をもとに、再生すべき歌詞の部分を特定する特定部と、
前記入力部において入力した歌詞情報に含まれた歌詞のうち、前記特定部によって特定された部分を画面に表示し、前記入力部において入力した伴奏音楽のうち、前記特定部によって特定された部分を再生する指示部と、
を備えることを特徴とするカラオケ装置。
The lyrics information including the lyrics divided into a plurality of blocks, the timing information for displaying each block on the screen while switching sequentially according to the progress of the song, and the timing information included in the lyrics information An input section for inputting performance music;
From the timing information included in the lyrics information input in the input unit, each of the adjacent block intervals is derived, and based on the adjacent block interval, a specific unit that identifies the portion of the lyrics to be reproduced,
Of the lyrics included in the lyrics information input in the input unit, the part specified by the specifying unit is displayed on the screen, and the part specified by the specifying unit of the accompaniment music input in the input unit is displayed. An instruction unit to play, and
A karaoke apparatus comprising:
複数のブロックに分割された歌詞と、各ブロックを曲の進行にしたがって順次切りかえながら画面に表示するためのタイミング情報とが含まれた歌詞情報と、歌詞情報に含まれたタイミング情報と関連づけられた演奏音楽とを入力するステップと、
入力した歌詞情報に含まれたタイミング情報から、隣接したブロックの間隔をそれぞれ導出し、隣接したブロックの間隔をもとに、再生すべき歌詞の部分を特定するステップと、
入力した歌詞情報に含まれた歌詞のうち、特定された部分を画面に表示し、入力した伴奏音楽のうち、特定された部分を再生するステップと、
を備えることを特徴とするカラオケの制御方法。
The lyrics information including the lyrics divided into a plurality of blocks, the timing information for displaying each block on the screen while switching sequentially according to the progress of the song, and the timing information included in the lyrics information A step of inputting performance music;
Deriving the interval between adjacent blocks from the timing information included in the input lyrics information, and identifying the portion of the lyrics to be reproduced based on the interval between adjacent blocks;
Displaying the specified portion of the lyrics included in the input lyrics information on the screen and playing the specified portion of the input accompaniment music;
Karaoke control method, characterized in that it comprises a.
複数のブロックに分割された歌詞と、各ブロックを曲の進行にしたがって順次切りかえながら画面に表示するためのタイミング情報とが含まれた歌詞情報と、歌詞情報に含まれたタイミング情報と関連づけられた演奏音楽とを入力するステップと、
入力した歌詞情報に含まれたタイミング情報から、隣接したブロックの間隔をそれぞれ導出し、隣接したブロックの間隔をもとに、再生すべき歌詞の部分を特定するステップと、
入力した歌詞情報に含まれた歌詞のうち、特定された部分を画面に表示し、入力した伴奏音楽のうち、特定された部分を再生するステップと、
をコンピュータに実行させるためのプログラムを記憶するための記憶媒体。
The lyrics information including the lyrics divided into a plurality of blocks , the timing information for displaying each block on the screen while switching sequentially according to the progress of the song, and the timing information included in the lyrics information A step of inputting performance music;
Deriving the interval between adjacent blocks from the timing information included in the input lyrics information, and identifying the portion of the lyrics to be reproduced based on the interval between adjacent blocks;
Displaying the specified portion of the lyrics included in the input lyrics information on the screen and playing the specified portion of the input accompaniment music;
A storage medium for storing a program for causing a computer to execute.
JP2005203698A 2005-07-12 2005-07-12 Karaoke control method and karaoke apparatus Expired - Fee Related JP4145901B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005203698A JP4145901B2 (en) 2005-07-12 2005-07-12 Karaoke control method and karaoke apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005203698A JP4145901B2 (en) 2005-07-12 2005-07-12 Karaoke control method and karaoke apparatus

Publications (2)

Publication Number Publication Date
JP2007025002A JP2007025002A (en) 2007-02-01
JP4145901B2 true JP4145901B2 (en) 2008-09-03

Family

ID=37785889

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005203698A Expired - Fee Related JP4145901B2 (en) 2005-07-12 2005-07-12 Karaoke control method and karaoke apparatus

Country Status (1)

Country Link
JP (1) JP4145901B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4798095B2 (en) * 2007-07-31 2011-10-19 ブラザー工業株式会社 Karaoke equipment
JP2010128138A (en) * 2008-11-27 2010-06-10 Daiichikosho Co Ltd System for display and coloration of karaoke lyrics

Also Published As

Publication number Publication date
JP2007025002A (en) 2007-02-01

Similar Documents

Publication Publication Date Title
US11347475B2 (en) Transition functions of decomposed signals
WO2021175458A1 (en) Playback transition from first to second audio track with transition functions of decomposed signals
JP6011064B2 (en) Automatic performance device and program
JP2010531464A (en) System and method for automatically beat-mixing a plurality of songs using an electronic device
JP7143816B2 (en) Electronic musical instrument, electronic musical instrument control method, and program
JP6019803B2 (en) Automatic performance device and program
CN105637579B (en) By switching between multiple groups Wave data come the technology of reproducing waveform
JP3961544B2 (en) GAME CONTROL METHOD AND GAME DEVICE
JP2017111372A (en) Voice synthesis method, voice synthesis control method, voice synthesis device, and voice synthesis controller
JP4650182B2 (en) Automatic accompaniment apparatus and program
WO2015060340A1 (en) Singing voice synthesis
US8612031B2 (en) Audio player and audio fast-forward playback method capable of high-speed fast-forward playback and allowing recognition of music pieces
JP4145901B2 (en) Karaoke control method and karaoke apparatus
JP4170279B2 (en) Lyric display method and apparatus
JP4068069B2 (en) Karaoke device that automatically controls back chorus volume
JP4537490B2 (en) Audio playback device and audio fast-forward playback method
JP4470947B2 (en) Data reproducing apparatus, data reproducing method and program
JP4534926B2 (en) Image display apparatus and program
CN112825244A (en) Dubbing music audio generation method and apparatus
JP6144593B2 (en) Singing scoring system
JP4173475B2 (en) Lyric display method and apparatus
JP4182898B2 (en) Karaoke equipment
JP7158331B2 (en) karaoke device
JP5439994B2 (en) Data collection / delivery system, online karaoke system
JP3948464B2 (en) Performance data generating apparatus and recording medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080303

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080401

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080411

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080617

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080618

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110627

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120627

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130627

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees