JP5887293B2 - カラオケ装置及びプログラム - Google Patents

カラオケ装置及びプログラム Download PDF

Info

Publication number
JP5887293B2
JP5887293B2 JP2013055000A JP2013055000A JP5887293B2 JP 5887293 B2 JP5887293 B2 JP 5887293B2 JP 2013055000 A JP2013055000 A JP 2013055000A JP 2013055000 A JP2013055000 A JP 2013055000A JP 5887293 B2 JP5887293 B2 JP 5887293B2
Authority
JP
Japan
Prior art keywords
data
guide melody
lyrics
music
sound
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013055000A
Other languages
English (en)
Other versions
JP2013145393A (ja
Inventor
幹男 中川
幹男 中川
隆一 成山
隆一 成山
拓弥 ▲高▼橋
拓弥 ▲高▼橋
神谷 伸悟
伸悟 神谷
橘 聡
聡 橘
豪 矢吹
豪 矢吹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Daiichikosho Co Ltd
Original Assignee
Yamaha Corp
Daiichikosho Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp, Daiichikosho Co Ltd filed Critical Yamaha Corp
Priority to JP2013055000A priority Critical patent/JP5887293B2/ja
Publication of JP2013145393A publication Critical patent/JP2013145393A/ja
Application granted granted Critical
Publication of JP5887293B2 publication Critical patent/JP5887293B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)

Description

本発明は、カラオケ装置において旋律をガイドする技術に関する。
カラオケ装置に用いられる楽曲データには、伴奏の内容を示す演奏データと、歌詞に関する情報が記述された歌詞データが含まれている。そして、カラオケ装置においては、演奏データが再生されると共に、歌詞データに基づいて歌詞がモニタ画面に表示されるのが一般的である。そして歌唱者は、画面に表示された歌詞を見ながら歌唱する。
ところで、音程をとるのが苦手な歌唱者が歌唱すべき旋律をガイドする方法が種々提案されている。例えば特許文献1においては、カラオケの伴奏とは別に、歌唱の模範となる旋律を示すガイドメロディを再生する技術が開示されている。
また、特許文献2には、ガイドメロディが表す旋律を演奏の進行に応じて画面に表示する技術が開示されている。その場合、楽曲データにおいては歌詞とガイドメロディとが時系列で対応付けられており、表示された歌詞とガイドメロディを対応させてモニタに表示される。
特開平07−199973号公報 特開2004−205817号公報
上記特許文献2に記載された技術においては、歌詞とガイドメロディとを予め対応付けて楽曲データを生成しなければならない。しかし、既存の多くの楽曲データにおいては、歌詞データは各歌詞の表示タイミングが独立に記述され、また、ガイドメロディデータは各ノートの発音タイミングが独立に記述されている。したがって、特許文献2の技術を適用するなら、既存の大量の楽曲データについて、歌詞とガイドメロディとの対応付けを新たに行わなければならず、その作業量は膨大となり、現実的でないという問題がある。
本発明は、上述した事情に鑑みてなされたものであり、楽曲データを作成する際に、歌詞データとガイドメロディデータとの対応付けを行わなくても、ガイドメロディを歌詞と対応付けて表示する楽曲データ加工装置、カラオケ装置、およびプログラムを提供する。
本発明に係るカラオケ装置は、伴奏音を示す演奏データ、楽曲の進行に応じて同時に表示すべき文字の列と当該文字の列に含まれる文字についてワイプ開始タイミングが記述された歌詞データと、当該楽曲のガイドメロディを構成する各音の発音/消音タイミングが記述されたガイドメロディデータを含む楽曲データを記憶する楽曲データ記憶手段と、前記文字の列に含まれる一部の文字について記述された前記ワイプ開始タイミングと前記ガイドメロディの各音の発音/消音タイミングとを比較して、前記文字の列と前記ガイドメロディの音との対応関係を特定し、特定した対応関係を示す対応関係データを生成する対応関係データ生成手段と前記楽曲データ記憶手段内の楽曲データを読み出す読出手段と、前記読出手段が読み出した当該楽曲データ中の演奏データおよびガイドメロディデータに基づいて演奏を行う演奏手段と、前記文字の列に含まれる各文字を楽曲の進行に応じて表示装置に表示するとともに、表示した各文字について前記歌詞データ中のワイプ開始タイミングに基づくワイプ処理を行う歌詞表示制御手段と、前記歌詞表示制御手段が前記表示装置に表示している文字について、前記対応関係データに基づいて対応するガイドメロディの各音を特定し、特定した各音の属性を示す画像データを生成して、前記表示装置に表示するガイドメロディ表示手段とを具備することを特徴とする。
本発明に係るカラオケ装置の別の態様は、上記の構成において、前記歌詞表示制御手段は、前記各文字を楽曲の進行に応じて前記表示装置に表示するとともに、表示した各文字について前記対応関係データに基づき、当該文字に対応する音の発音タイミングから消音タイミングまでの期間を当該文字の発音の途中として、当該期間にわたり当該文字を部分的に変化させるワイプ処理を行うことを特徴とする。
本発明に係るカラオケ装置の別の態様は、上記の構成において、前記楽曲データ記憶手段は、前記一部の文字として前記文字の列における初めの文字について、前記ワイプ開始タイミングが記述された歌詞データを記憶することを特徴とする。
本発明に係るカラオケ装置の別の態様は、上記の構成において、前記楽曲データ生成手段は、前記一部の文字として前記文字の列における初めと終わりの文字の各々について、前記ワイプ開始タイミングが記述された歌詞データを記憶することを特徴とする。
本発明に係るカラオケ装置の別の態様は、上記の構成において、前記対応関係データ生成手段は、前記ガイドメロディデータに含まれる各音から、前記ワイプ開始タイミングの直後の所定の長さの期間に含まれる音を特定することを特徴とする
本発明に係るカラオケ装置の別の態様は、上記の構成において、前記対応関係データ生成手段は、前記ガイドメロディデータに含まれる各音から、前記ワイプ開始タイミングの直前および直後の所定の長さの期間に含まれる音を特定することを特徴とする
本発明に係るカラオケ装置の別の態様は、上記の構成において、前記対応関係データ生成手段は、前記ガイドメロディデータに含まれる各音から、前記ワイプ開始タイミングと発音タイミングが最も近い音を検索し、前記文字の列と、検索された当該音との対応関係を特定することを特徴とする
本発明に係るカラオケ装置は、上記の構成において、前記楽曲データ記憶手段は、楽曲の特定の区間を示す区間データを更に記憶し、前記ガイドメロディ表示手段は、前記区間データを参照して前記ガイドメロディの各音が前記特定の区間に含まれるか否かを判定し、該判定結果に基づいて前記画像データを生成しても良い。その場合、前記ガイドメロディ表示手段は、前記特定の区間に含まれる音を表す画像データと、前記特定の区間に含まれない音を表す画像データを異なる態様で表示しても良い。また、前記ガイドメロディ表示手段は、前記特定の区間に含まれる音を表す画像データと、前記特定の区間に含まれない音を表す画像データとで、該画像データの周辺領域の表示態様を異ならせるように表示しても良い。
本発明に係るカラオケ装置は、上記の構成において、歌唱音声を収音し、該歌唱音声を表す音声データを生成する収音手段と、前記収音手段により生成された音声データが表す歌唱音声の巧拙を所定のアルゴリズムにより評価する評価手段とを有し、前記ガイドメロディ表示手段は、前記評価手段により評価がなされたガイドメロディの各音に対応する画像データを該評価に基づいて生成しても良い。その場合、前記ガイドメロディ表示手段は、前記評価手段により所定のレベルより高い評価がなされたガイドメロディの各音を表す画像データを、前記評価手段により所定のレベルより低い評価がなされたガイドメロディの各音を表す画像データと異ならせるように表示しても良い。また、前記ガイドメロディ表示手段は、前記評価手段により所定のレベルより高い評価がなされたガイドメロディの各音を表す画像データと、前記評価手段により所定のレベルより低い評価がなされたガイドメロディの各音を表す画像データとで、該画像データの周辺領域の表示態様を異ならせるように表示しても良い。
本発明に係るプログラムは、コンピュータを、伴奏音を示す演奏データ、楽曲の進行に応じて同時に表示すべき文字の列と当該文字の列に含まれる文字についてワイプ開始タイミングが記述された歌詞データと、当該楽曲のガイドメロディを構成する各音の発音/消音タイミングが記述されたガイドメロディデータを含む楽曲データを記憶する楽曲データ記憶手段と、前記文字の列に含まれる一部の文字について記述された前記ワイプ開始タイミングと前記ガイドメロディの各音の発音/消音タイミングとを比較して、前記文字の列と前記ガイドメロディの音との対応関係を特定し、特定した対応関係を示す対応関係データを生成する対応関係データ生成手段と、前記楽曲データ記憶手段内の楽曲データを読み出す読出手段と、前記読出手段が読み出した当該楽曲データ中の演奏データおよびガイドメロディデータに基づいて演奏を行う演奏手段と、前記文字の列に含まれる各文字を楽曲の進行に応じて表示装置に表示するとともに、表示した各文字について前記歌詞データ中のワイプ開始タイミングに基づくワイプ処理を行う歌詞表示制御手段と、前記歌詞表示制御手段が前記表示装置に表示している文字について、前記対応関係データに基づいて対応するガイドメロディの各音を特定し、特定した各音の属性を示す画像データを生成して、前記表示装置に表示するガイドメロディ表示手段として機能させることを特徴とする。
本発明に係る楽曲データ加工装置、カラオケ装置、またはプログラムによれば、楽曲データを作成する際に、歌詞データとガイドメロディデータとの対応付けを行わなくても、ガイドメロディを歌詞と対応付けて表示させることができる。
カラオケ装置の構成を示すブロック図である。 楽曲データの内容を示す図である。 演奏データの内容を示す図である。 ガイドメロディデータの内容を示す図である。 歌詞データの内容を示す図である。 演奏前処理の流れを示すフローチャートである。 歌詞とガイドメロディの対応関係を示す図である。 歌詞と対応するガイドメロディの特定方法を説明するための図である。 カラオケ演奏処理の流れを示すフローチャートである。 モニタ2の画面表示内容を示す図である。 歌詞と対応するガイドメロディの特定方法を説明するための図である。 変形例(2)に関する歌詞データの内容を示す図である。 変形例(2)に関する歌詞とガイドメロディの対応関係を示す図である。 変形例(3)に関するモニタ2の画面表示内容を示す図である。 変形例(3)に関するカラオケ装置1の構成を示す図である。 変形例(3)に関するカラオケ装置1の構成を示す図である。
(A;構成)
以下、図面を参照して、本発明の実施形態について説明する。
(A−1;各部の構成)
図1は本発明の実施形態に係るカラオケ装置の構成を示すブロック図である。
CPU(Central Processing Unit)11は、ROM(Read Only Memory)12に格納されている各種プログラムを実行することで装置各部を制御する。
カラオケ装置本体1は、データの記憶手段としてROM12、RAM(Random Access Memory)13、およびHDD(Hard Disk Drive)14を有する。
ROM12には、本発明に特徴的な機能をCPU11に実行させるための制御プログラムが格納されている。
RAM13は、CPU11によってワークエリアとして利用される。詳しくは、RAM13は、MIDI(Musical Instrument Digital Interface:登録商標)データ記憶領域を有し、HDD14から転送された楽曲データを格納する。
HDD14は、複数の楽曲データを格納している。
操作部16は、カラオケ装置本体1の前面に設けられた操作パネルであり、テンキー、キーコントロールキーなど多数のキーを有している。また、操作部16には、リモコン端末5から出力される信号(赤外線信号、無線信号等)を受信する受信部を有しており、受信部で受信した信号はCPU11へ転送される。
表示制御部17は、CPU11から受取ったデータに基づいて、背景画像、歌詞、ガイドメロディなどをモニタ2に表示させるための制御を行う。
A/Dコンバータ20は、マイク4から受取ったアナログ信号(音声信号)をA/D変換し、デジタルデータ(音声データ)を出力する。
音源装置18は、CPU11から楽曲の進行に応じて読み出される演奏データに対応する音声データを生成し、効果音用DSP19へ出力する。
効果音用DSP19は、音源装置18で生成された音声データに対してリバーブやエコー等の音響効果を付与する。音響効果を付与された音声データは音声出力部21へ出力される。
音声出力部21は、D/Aコンバータとアンプとを有する。D/Aコンバータは、効果音用DSP19から受取った音声データをアナログの音声信号へ変換する。アンプは、該音声信号の振幅(マスタボリューム)を調整する。音声出力部21から出力された音声信号は、スピーカ3において再生される。
以上に説明したカラオケ装置本体1の各部は、バス22を介して互いにデータをやりとりする。
(A−2;楽曲データ)
ここで、HDD14に格納されている楽曲データについて図2を参照して説明する。各々の楽曲データは、管理データとガイドメロディデータと演奏データと背景画像データと歌詞データとを有する。
管理データには、楽曲を特定する曲番号、楽曲の曲名を示す曲名、楽曲のジャンル、楽曲の演奏時間、および楽曲におけるサビの区間が書き込まれている。なお、楽曲におけるサビの区間は、各サビの区間の開始時刻と終了時刻が書き込まれている。ガイドメロディデータは、歌唱者が歌唱すべき旋律を表す。演奏データは、カラオケの伴奏音を表す。背景画像データは、楽曲が演奏されている間にモニタ2において表示される背景画像を表す。歌詞データは、歌唱者が歌唱すべき歌詞を表す。
(A−2−1;演奏データ)
演奏データは、カラオケの伴奏音を表すMIDIデータである。図3は、演奏データを簡略化して示した図である。演奏データにおいては、タイミングデータとイベントデータとが対応付けられている。イベントデータとは、楽曲に含まれる個々の演奏パート(チャンネル)に対する楽音の発音や消音を指示したり、各種音響効果の付与等を指示したりするデータである。タイミングデータとは、イベントデータを実行するタイミングを示すデータであり、楽曲の開始からの経過時間が書き込まれている。イベントデータは、タイミングデータに示されたタイミングで楽曲の進行に応じて読み出される。
図3において、[0h00m12s000ms]−[ノートオン:1ch:E4:74]は、楽曲の演奏開始から12秒000ミリ秒後に第1のチャンネルに割り当てられた音色(本実施例ではピアノ)の音高E4の楽音を音強74で発音することを指示している。
(A−2−2;ガイドメロディデータ)
ガイドメロディデータは、模範的な歌唱における旋律を表すMIDIデータである。図4は、ガイドメロディデータを示した図である。その記載方法は、上記演奏データと同様であるため、説明を省略する。ただし、本実施形態においては、ガイドメロディデータは、歌唱すべき旋律を示すデータであるため、複数の音が同時にノートオンしていることはない。すなわち、ノートオンイベントの次の現れるイベントデータは、必ずノートオフイベントとなっている。
図4において、[0h00m12s000ms]−[ノートオン:2ch:E4:30]、および[0h00m12s500ms]−[ノートオフ:2ch:E4:30]は、楽曲の演奏開始から12秒000ミリ秒後から12秒500ミリ秒後までの間、第2のチャンネルに割り当てられた音色(本実施形態ではフルートの音色)の音高E4の楽音を音強30で発音することを指示している。
(A−2−3;背景画像データ)
背景画像データは、各楽曲に応じた内容の背景画像を表すデータであり、背景画像データに基づいて、楽曲の演奏時に背景画像がモニタ2に表示される。
(A−2−4;歌詞データ)
歌詞データは、楽曲の歌詞を表すデータである。図5は、歌詞データの一例を示した図である。歌詞データにおいては、タイミングデータとイベントデータが対応付けられている。イベントデータには、楽曲の歌詞を表す文字が書き込まれている。タイミングデータは、対応するイベントデータに含まれる文字のモニタ2における表示色を変更(以下、ワイプと呼ぶ)するタイミングを示すデータであり、楽曲の開始からの経過時間で表している。
なお、本実施形態においては、説明の簡略化のため、イベントデータには歌詞がすべてひらがなで記述されている場合について説明する。従って、以下の説明においては歌詞データに含まれる1文字は1つの音(例えば「ゆ」など)を表す。
図5においては、イベントデータ(同図においては「け」と「ま」)の間に割り込んで「改行」情報が書き込まれているように、一連のイベントデータは改行情報により区切られている。そのようにして区切られたイベントデータが表す歌詞のまとまりは、カラオケ演奏中にモニタ2に一度に表示される歌詞を意味しており、以下「行」と表現する。なお、図5では改行情報を「改行」と表示しているが、これは歌詞として表示されるのではなく、表示単位の区切りを示す符号として用いられている。
図5に示す例では、「ゆ」の文字にはワイプを開始するタイミングとして[0h00m11s800ms]が指定されており、「き」の文字にはワイプを開始するタイミングとして[0h00m12s300ms]が指定され、以下同様に、「ど」の文字には[0h00m13s300ms]、「け」の文字には[0h00m13s800ms]が指定されている。「け」の後には、改行情報が書き込まれている。そして次の行の歌詞として、[0h00m15s800ms]に「ま」が書き込まれている。
(B;動作)
次に、カラオケ装置の動作を説明する。なお、以下の説明において歌唱者により指定される楽曲データは、図4のガイドメロディデータ、図3の演奏データ、図5の歌詞データ、および図示しない背景画像データが含まれる。
歌唱者は、操作部16のテンキーやリモコン端末5を用いて曲番号を入力し、カラオケ装置本体1に対して楽曲の演奏開始の指示をする。
CPU11は、演奏開始の指示を受けると、まず「演奏前処理」を行い、演奏前処理が終了すると「カラオケ演奏処理」を行う。以下ではまず演奏前処理について説明する。
(B−1;演奏前処理)
図6は、演奏前処理の流れを示したフローチャートである。
ステップSA100において、CPU11は、受取った曲番号が表す楽曲データをHDD14から読み出し、RAM13のMIDI記憶領域へ転送する。CPU11は、RAM13のMIDI記憶領域から該楽曲データのイベントを順次読み出すことにより、以下に説明する処理を実行する。
ステップSA110において、CPU11は歌詞データを参照し、初めの行、すなわち楽曲の開始から初めての改行情報までのイベントを読み出す。
ステップSA120において、CPU11は、ステップSA110において読み出した歌詞部分(1行分の歌詞)から、該歌詞と対応するガイドメロディを特定する。以下では、該特定方法について説明する。
図7は、歌詞のワイプ開始タイミング(同図下段)と、ガイドメロディの発音タイミング(同図上段)を、楽曲の時間経過(同図中段)と対応付けて概念的に示した図である。同図において、ガイドメロディの旋律を表す楽音は五線譜に示されている。例えば歌詞「ゆ」に対応する音「ミ」は、五線譜において音高に対応するライン上に、音の長さ(500ミリ秒)を表す帯で表示される。その他の楽音についても同様に表示される。
図7に示されているように、歌詞のワイプ開始タイミングは一般にガイドメロディまたはカラオケの伴奏音に対してわずかに(本実施例では200ミリ秒)先行してなされる。なぜならば、歌唱者が歌詞の表示を見てから歌い出すまでにタイムラグがあるからである。例えば、歌詞「ゆ」のワイプ開始タイミングは、「11s800ms」であり、該歌詞に対応するガイドメロディの楽音は、歌詞「ゆ」がワイプされてから200ms後の「12s000ms」に発音される。
図8は、CPU11が、ステップSA110において読み出した歌詞と対応するガイドメロディを特定する方法を説明するための図である。CPU11は、歌詞データを参照し、各文字のワイプ開始タイミングを読出す。続いてCPU11は、ガイドメロディデータを参照し、文字のワイプ開始タイミングの直後300ミリ秒間(図8;区間A1〜4)においてガイドメロディの発音を表すイベント(ノートオン)を検索する。
例えば、歌詞「ゆ」のワイプ開始タイミングは、「11s800ms」であることから、図8における区間A1すなわち「11s800ms」から「12s100ms」の区間においてガイドメロディの発音イベントを検索する。この場合、ガイドメロディデータには、時刻「12s000ms」にノートオンのイベントがある旨が書き込まれていることから、CPU11は、該ガイドメロディの楽音を前記文字と対応付ける。
以上の処理をステップSA110において読み出した歌詞の全てについて行う。すなわち、「き」、「ど」、および「け」の文字についても、それぞれガイドメロディデータの区間A2、A3、およびA4を検索し、それらの文字に対応するガイドメロディの楽音を特定する。CPU11は、以上の処理の結果特定した対応関係を示す「対応関係データ」をRAM13に記憶する。従って、対応関係データを参照すれば、歌詞「ゆきどけ」に対応するガイドメロディの楽音が特定可能である。
なお、1つの文字に対してガイドメロディの楽音が複数見出された場合には、より歌詞の発音タイミングと近いガイドメロディの楽音を該歌詞と対応付ける。
また、上述した区間、すなわち歌詞のワイプ開始タイミングの直後300ミリ秒間に、対応するガイドメロディの楽音が1つも存在しないと判断した場合には、CPU11はガイドメロディデータにおいてワイプ開始タイミングの前後のイベントを読み出し、最も発音(ノートオン)のタイミングが歌詞のワイプ開始タイミングと近い楽音を該歌詞と対応付ける。
ステップSA130において、CPU11は、ステップSA110において読み出した歌詞の全ての文字について、対応するガイドメロディの楽音が特定されたか否か判定する。ステップSA130における判定結果が“NO”である場合には、ステップSA120の処理が引き続き実行される。一方、ステップSA130における判定結果が“YES”である場合には、ステップSA140の処理が実行される。
ステップSA140において、ステップSA130において処理が終了したと判断した歌詞部分が、楽曲における最後の歌詞部分であるか否かを判定する。ステップSA140における判定結果が“NO”である場合には、歌詞データにおいて未だ読み出していないイベントを次の改行情報まで読み出し、該読み出したイベントについてステップSA110以降の処理が実行される。一方、ステップSA140における判定結果が“YES”である場合には、CPU11は演奏前処理を終了する。
以上に説明した演奏前処理により、歌詞の文字それぞれについて対応するガイドメロディの楽音が特定され、その対応関係は「対応関係データ」としてRAM13に書き込まれる。歌詞の文字は、改行情報により複数の「行」にまとめられており、ガイドメロディの各楽音は対応関係データにより歌詞の各文字と対応付けられているため、演奏前処理により生成された対応関係データを参照することにより、歌詞の各行に対応したガイドメロディ部分を特定することが可能となる。
(B−2;カラオケ演奏処理)
CPU11は、演奏前処理が終了すると、次にカラオケ演奏処理を行う。図9は、カラオケ演奏処理の流れを示したフローチャートである。
ステップSB100において、CPU11は、歌唱者により指定された楽曲データにおける演奏データおよび背景画像データを読み出す。そしてCPU11は、演奏データに書き込まれたイベントデータを音源装置18に出力すると共に、読み出した背景画像データを表示制御部17に出力する。この結果、カラオケ伴奏音がスピーカ3から出力される一方、背景画像がモニタ2に表示される。
ステップSB110において、CPU11は、以下のように歌詞データから1行分の歌詞を読み出し、表示制御部17に出力する。すなわち、カラオケ演奏処理の開始後、初めてステップSB110を実行する場合には、CPU11は、楽曲の始まりから1つ目の改行情報までの歌詞を読み出す。一方、後述するステップSB150の判定結果が“NO”となりステップSB110を実行する場合には、CPU11は、既にワイプ処理を終えた歌詞の後に続く1行分の歌詞を読み出す。
本説明においては、まずカラオケ演奏処理の開始後初めてステップSB110を実行する段階について説明するため、楽曲の始まりから1つ目の改行情報までの歌詞を読み出し以下の処理を行う。表示制御部17は、受取った歌詞データが表す歌詞をモニタ2に表示する。
ステップSB120において、CPU11は、演奏前処理においてRAM13に書き込まれた対応関係データを読み出し、ステップSB110において読み出された歌詞部分に対応付けられたガイドメロディ部分を読み出し、表示制御部17に出力する。
図10は、歌詞およびガイドメロディが表示されたモニタ2の画面表示を示した図である。モニタ2の領域AにはステップSB110で読み出された歌詞が、領域BにはステップSB120で読み出されたガイドメロディが表示される。歌詞とガイドメロディは、共に図7と同様に横軸を時間軸として表示されており、ガイドメロディにおいては、五線譜上に楽音の音高と音長を表す帯が表示される。そのようにガイドメロディが表示されることにより、歌唱者は視覚的に直感的に音高および音長を把握することができる。
ステップSB130において、CPU11は、モニタ2に表示された歌詞について以下のようにワイプ処理を行い、ガイドメロディについては、以下のようにタイミング表示処理を行う。まず歌詞のワイプ処理について、図10の画面表示および図5の歌詞データを参照して説明する。
CPU11は、現在時刻を参照し、歌詞の各文字をワイプするタイミングになると、対応する文字の表示色を文字の左側から右側に向かって変化させるよう表示制御部17に指示する。その結果、楽曲の進行に伴いモニタ2に表示された歌詞は左側の文字から順に、そして各文字においては、左側から順に色が変化する。
図10は、例えば現在時刻が「13s000ms」である場合の歌詞表示の例である。この場合、「き」の発音の途中であるが、このタイミングでは、「ゆ」の部分についてはすでにワイプが終了しており、次の「き」の文字についてはワイプが開始されて部分的に表示色が変化している。また、「ど」「け」の部分はまだワイプは開始されておらず、文字の表示色は変化していない。
次に、ガイドメロディのタイミング表示処理について説明する。図10の領域Bにおいて、五線譜に直交して表示された現在位置表示バーCは、現在演奏されているガイドメロディの箇所を示す標識である。図10は、時刻「13s000ms」における画面表示を表す図であるため、現在位置表示バーCは、「ラ」の発音を示すガイドメロディの帯を横切る位置にある。そして現在位置表示バーCは、楽曲の進行に応じて図中左から右方向にスライドする。歌唱者は、現在位置表示バーCを参照して現在歌唱すべき楽音のタイミングを視覚的に知ることが出来る。
歌唱者は、カラオケ伴奏の進行と共に、モニタ2に表示された歌詞およびガイドメロディを見ながらマイク4に向けて歌唱する。
ステップSB140において、CPU11は、ステップSB130における歌詞のワイプが、ステップSB110において読み出した歌詞の全てについて終了したか否かを判定する。ステップSB140の判定結果が“NO”である場合には、ステップSB130の処理を引き続き行う。ステップSB140の判定結果が“YES”である場合には、CPU11は、ステップSB150の処理を行う。
ステップSB150において、CPU11は、ステップSB140までの処理において、楽曲に含まれる歌詞の全てについて処理を終了したか否かを判定する。ステップSB150の判定結果が“NO”である場合には、再びステップSB110以降の処理を行う。ステップSB110において、CPU11は、既に上述のワイプ処理を終えた歌詞の後に続く1行分の歌詞を読み出す。
なお、ステップSB150からステップSB110へと移行する際、表示された全ての文字についてワイプされた歌詞、および表示された全ての楽音について現在位置表示バーCが通過したガイドメロディは画面上から消去される。その際、ガイドメロディの各楽音を表す帯は消去しても、五線譜のラインについては消去しなくても良い。以下、この画面の表示内容を切り換える処理を「ページ切り替え」と呼ぶ。
ステップSB150の判定結果が“YES”である場合には、CPU11は、カラオケ演奏処理を終了する。
以上説明したように、本発明にかかるカラオケ装置においては、演奏前処理において、歌詞に含まれる文字のそれぞれについて、対応するガイドメロディの楽音を特定する。そして、実際のカラオケ演奏処理の際には、一まとまりの歌詞(本実施形態においては1行分の歌詞)をモニタ2に表示すると共に、該表示された歌詞部分に対応するガイドメロディ部分をモニタ2に表示する。
以上に説明したように、本発明においては、歌詞とガイドメロディの対応付けはカラオケ装置においてなされるため、予め楽曲データにおいて両者のタイミングをとるような関連付けは不要である。また、1行分の歌詞を1つの処理単位として処理を行い、対応するガイドメロディが画面に表示されるため、以下のような効果が得られる。すなわち、モニタ2には、一まとまりの歌詞と共に、該歌詞に対応するガイドメロディ部分が表示され、両者は始まりと終わりが対応しているので、歌唱者はこれから歌唱するガイドメロディと歌詞を対応させて把握することができ、スムーズな歌唱を行うことができる。
(C;変形例)
以上、本発明の実施形態について説明したが、本発明は以下のように種々の態様で実施することができる。また、以下の変形例を適宜組み合わせて実施しても良い。
(1)上記実施形態においては、HDD14が、複数の楽曲データを予め記憶している場合について説明した。しかし、カラオケ装置本体1に通信手段を設け、歌唱者により楽曲が指定されるとその都度楽曲データの配信元であるホストコンピュータから新たな楽曲データを受信し、CPU11の制御のもとHDD14へと転送するようにしても良い。
(2)上記実施形態においては、CPU11は、歌詞の各文字と対応するガイドメロディの楽音を、図8に示されるように特定の区間について検索する場合について説明した。しかし、上記特定の区間は、実施形態に示した区間に限定されるものではない。
例えば、各歌詞のワイプ開始タイミングの直後300ミリ秒ではなく直後500ミリ秒などとその長さを変えても良い。また、図11の区間B1〜4に示されているように、各文字のワイプ開始タイミングの直前および直後の所定時間長(図11の例では300ミリ秒間)において、該文字と対応するガイドメロディデータの楽音を検索するようにするなどしても良い。また、歌詞のワイプ開始タイミングと最も近い発音タイミングの楽音を検索するようにしても良い。
また、文字のワイプ開始タイミングと、次の文字のワイプ開始タイミングとを読み出し、読み出したワイプ開始タイミングに挟まれた期間において、ガイドメロディのノートオンイベントを特定するようにしても良い。そのような方法は、歌詞データにおいて、1文字で複数の音を表す文字(漢字など)が含まれている場合などには特に顕著な効果が得られる。以下では、1文字で複数の音を表す文字として漢字を挙げて該処理について説明するが、日本語以外の言語や記号などにおいても同様の処理が可能である。
図12に示す歌詞データを有し、該歌詞データと図13のようにガイドメロディが対応している楽曲データを例にとって説明する。まず、各文字と楽音の対応関係については以下のように特定する。歌詞「お」については、「お」のワイプ開始タイミングと次の歌詞「ぼ」のワイプ開始タイミングとの間に挟まれた楽音を検索し、「12s000ms」に発音される「レ(D5)」が特定される。歌詞「ぼ」および「ろ」についても同様に特定される。さて、「月」のワイプ開始タイミングは、「14s800ms」であり、次の歌詞である「げ」の文字のワイプ開始タイミングは、「19s800ms」であるため、CPU11は、「14s800ms」から「19s800ms」の期間において、ガイドメロディのノートオンイベントを検索し、「15s000ms」の「ミ(E5)」および「16s000ms」の「ド(C5)」を特定する。CPU11は、それら複数のガイドメロディの楽音を「月」に対して対応付けて対応関係データに書き込む。
以上のように対応関係データを生成することによって、1つの文字に2以上の音が対応する場合にも適切な対応関係を生成することができる。特に以下の例のような場合には顕著な効果がある。例えば、「おぼろ月」の例のように歌詞の1行が漢字で終わる場合には、CPU11は、該行末の漢字「月」に対応付けられた複数の楽音(ミおよびド)の中から、最後尾にある楽音(ド)を用いて、1行の歌詞に対応するガイドメロディの部分を特定する。その結果、図13のガイドメロディにおいて示された楽音「レレレミド」が、歌詞「おぼろ月」と対応付けられる。仮に、歌詞のワイプ開始タイミングに最も近い楽音に基づいてガイドメロディの対応部分が選択された場合には、楽音「ド」は「月」と対応する楽音であるにもかかわらず、歌詞「おぼろ月」と対応するガイドメロディから除外されてしまい、次の行にも影響が及んでしまうが、上記処理によれば適切な処理がなされる。
また、上記のように対応関係データが生成された場合には、以下のような漢字のワイプ処理が可能である。すなわち、対応関係データから、1つの漢字に対応するガイドメロディの楽音の数を判別することが可能であるから、漢字1文字をワイプする際のワイプ速度の調整を、該漢字に対応するガイドメロディの楽音の数に基づいて設定することが可能である。例えば、楽音が2つ対応する場合にはスピードを半減し、楽音が3つある場合にはスピードを3分の1にするなどすれば良い。
なお、上述した1文字で複数の音を表す文字についての処理は、例えば「こぶし」などの歌唱技法が用いられる歌詞部分についても適用可能である。例えば、歌詞「あ」に対して「ド(C5)」、「ミ(E5)」、そして再び「ド(C5)」とのガイドメロディが対応付けられ、「あああ」とこぶしを利かせて歌唱する場合には、「あ」に対して「ド」、「ミ」、および「ド」を対応付けた対応関係データを生成し、生成した対応関係データを上述の処理と同様に用いればよい。
(3)上記実施形態においては、モニタ2にガイドメロディおよび歌詞を表示する方法として、図10に示された態様で行う場合について説明した。しかし、その表示方法は、実施形態に示された態様に限定されるものではない。例えば、ガイドメロディを五線譜上に表示するのではなく、各楽音の音名(ミラドミなど)を文字で表示したりしてもよいし、楽器の操作子(例えばピアノの鍵盤)が駆動している様子をモニタ表示することによりメロディを示すなどしても良い。また、ガイドメロディの音長のみ(すなわち、リズム)を表示するようにしても良い。すなわち、表示している文字について、対応するガイドメロディの各音を特定し、特定した各音の属性(音高、音長、アクセントあるいはこぶしやビブラートなどの技法)を示す画像データ(五線譜上の音を示す画像データ、音名を示す文字の画像データ、その他記号など)を生成してモニタに表示すればよい。
以下、ガイドメロディの表示態様について、具体例を挙げて説明する。
(A)サビの区間の表示
上述した実施形態におけるガイドメロディや歌詞の表示態様を、サビの区間を明示するように制御しても良い。CPU11は、カラオケ演奏処理の開始前(例えば、演奏前処理時)に、楽曲データに含まれる管理データを読み出し、楽曲におけるサビの区間を特定する。そして、CPU11は、カラオケ演奏処理時に、モニタ2に表示されたガイドメロディまたは歌詞において、サビの区間に対応する箇所の表示を強調する。例えば、図10のようにガイドメロディが表示されている場合には、サビの区間に含まれる楽音を表す帯の色、太さ、模様、明るさなどを他の区間と異なる態様にするなどしても良い。また、五線譜の線や背景領域の色を変えるなどしても良い。また、サビの区間が演奏されるタイミングで現在位置表示バーCの色を変えるなどしても良い。また、ガイドメロディや歌詞を、サビの区間だけ拡大表示するなどしても良い。
また、ガイドメロディや歌詞のサビの区間に、各種記号、アニメーション、文字などを表示しても良い。例えば、アニメーションを表示する場合について説明する。図14に示すように、ガイドメロディおよび歌詞に加えて、「星マーク」(図中S)などのアニメーションを表示しても良い。同図に示すように、星マークが五線譜の上部に表示されると、該星マークが表示された区間はサビの区間であると歌唱者が認識しやすくなる。
なお、星マークの他に、花火のアニメーションなど他のどのようなアニメーションでも良い。好ましくは、鮮やかな色や特徴的な形・動きなどで、歌唱者の注意を惹くようなアニメーションとすることが望ましい。また、アニメーションに各種記号や文字などを併せて表示しても良い。例えば、星マークに、「盛り上がっていこう!」などの文字(図中W)を併せて表示して、サビの区間の歌唱を盛り上げるようにしても良い。
また、アニメーションの表示位置も、五線譜に沿って配置する態様の他に、歌詞の付近に配置しても良く、要はサビの区間と対応付けた位置にアニメーションを配置すれば良い。また、アニメーションの配置を空間的にサビの区間と対応付けるのではなく、時間的に対応付けても良い。すなわち、カラオケ演奏がサビの区間に差し掛かっている間、継続的にアニメーションが表示され、サビの区間の終了と共にアニメーションの表示が停止されるなどとしても良い。その場合には、アニメーションの位置関係がサビの区間と対応付けられていなくても、歌唱者はアニメーションの表示の有無に基づいてサビの区間が到来したことを認識することができる。
また、楽曲の他の区間においても表示されている表示内容を、サビの区間においてのみ変更することでサビの区間を示しても良い。例えば、楽曲のサビの区間以外では星マークは点滅していないが、サビの区間のガイドメロディ上に配置された星は点滅をするなどしても良い。また、サビの区間以外の演奏中は星マークの星は白色だが、サビの区間の演奏時には黄色に色が変わる、等としても良い。
以上のように、楽曲においてサビの区間を特定し、該サビの区間に対応するガイドメロディ区間の表示態様を変えたり、サビの区間に差し掛かったタイミングで表示態様を変えたりすることにより、歌唱者にサビの区間が差し掛かったことを明示することができる。また、その際、表示態様が、例えば明るい色で表示されたりユーモアのある表示がなされたりすることにより、該表示を見た歌唱者の歌唱を盛り上げる効果がある。
(B)歌唱評価の表示
ROM12に格納された制御プログラムに書き換えや追加を行うことにより、カラオケ装置1が、従来のカラオケ装置に搭載された「歌唱評価」の機能を有するようにしても良く、その場合、ガイドメロディや歌詞の表示態様を、歌唱評価の評価内容と関連付けて制御しても良い。以下、そのような場合のガイドメロディの表示態様について、図15に示すカラオケ装置1の構成図を参照して説明する。
図15において、破線で囲まれた歌唱得点計算部110及び表示制御部111は、CPU11が制御プログラムを実行することにより実現される。歌唱得点計算部110は、カラオケ演奏の進行に伴い、マイク4で収音された歌唱音声から生成された音声データを受取る。そして、歌唱得点計算部110は、HDD14から読み出した楽曲データ(例えば、ガイドメロディ)と音声データとを比較することにより歌唱評価をする。なお、ここで行われる歌唱評価は、どのような評価方法であっても良い。歌唱得点計算部110は、評価結果をリアルタイムに表示制御部111に出力する。さて、表示制御部111は、カラオケ演奏の進行に伴って、楽曲データに基づくガイドメロディや歌詞をモニタ2に供給している。表示制御部111が歌唱得点計算部110から評価結果を受取ると、上記ガイドメロディおよび歌詞をモニタ2に供給する処理と並行して、歌唱の評価結果をモニタ2の表示に反映させるためのデータを生成し、モニタ2に出力する。例えば、歌唱評価が高い場合には、ガイドメロディの背景色を変えたり、各種アニメーションを表示したりしても良い。また、楽曲のどの部分における評価が高かったのかを示すために、ガイドメロディや歌詞の特定の区間において表示態様を制御しても良い。
なお、これら変更された表示態様は、歌唱評価が高かったことを歌唱者に示すために、例えば明るい色を用いて表示されたり動きの多い表示がなされたりすることにより、該表示を見た歌唱者の歌唱を盛り上げるようにするのが好ましい。
また、歌唱評価が高かった場合に、該評価が高かった楽曲部分がサビの区間であるか否かに応じて、表示態様の制御を異ならせても良い。すなわち、サビの区間以外で評価が高かった場合と、サビの区間において評価が高かった場合とで、表示されるアニメーション(例えば、星マーク)の数が異なるようにしても良い。そのようにすれば、歌唱者は、サビの区間が上手に歌唱できた場合に、そのことをはっきりと認識することができる。
また、評価が低かった場合にも、評価が高かった場合と同様の方法でガイドメロディおよび歌詞の表示態様を制御しても良い。
(C)その他の情報の表示
上記(A)、(B)においては、楽曲の「サビの区間」においてガイドメロディや歌詞の表示態様を変更する場合について説明した。しかし、表示態様を変更するのは、「サビの区間」に限定されない。各種歌唱技法(例えば、こぶし、ビブラート、ロングトーンなど)を用いて歌唱する楽音や、歌唱音声にアクセントをつけることが望ましい楽音など、楽曲に含まれる各楽音の属性に応じてガイドメロディや歌詞の表示態様を変更するようにしても良い。
例えば、こぶし技法について、図16に示すカラオケ装置1の構成図を参照して具体的に説明する。同図において、図15と同様の構成については、同じ名称および符号を付す。本カラオケ装置1は、CPU11により実現される手段として、こぶし区間特定手段112を有する。こぶし区間特定手段112とは、従来知られている方法(例えばガイドメロディにおけるピッチの変動を解析する方法など)で「こぶし技法を用いて歌唱する区間(以下、こぶし区間)」を特定する手段である。表示制御部111は、上記こぶし区間特定手段112により特定されたこぶし区間に基づいてガイドメロディや歌詞の表示態様を制御するようにしても良い。なお、楽曲データにこぶし区間を示すデータが含まれている場合には、上記こぶし区間特定手段112を設ける必要はない。その場合、楽曲データに含まれるこぶし区間を示すデータが表示制御部111に直接供給され、表示制御部111は該こぶし区間に基づいてガイドメロディや歌詞の表示態様を制御すれば良い。
また、上記実施形態においてはカラオケ歌唱のガイドのために、記憶されたガイドメロディをそのまま表示していたが、記憶されたガイドメロディそのままではなく、意地悪モードとしてでたらめガイドメロディに変更して表示してもよい。ここで、「でたらめガイドメロディ」とは、上述のガイドメロディとは異なる旋律を表すMIDIデータである。この「でたらめガイドメロディ」は、例えば、CPU11が、上記ガイドメロディを参照して、予め定められたアルゴリズムにより、各ノートオンイベントの音高や、音強、発音のタイミングなどが異なるように生成すればよい。このアルゴリズムは、様々なものを用いることができる。例えば、CPU11が、演奏開始の指示を受けた時刻や楽曲データの識別子などを種として擬似乱数を発生させ、この擬似乱数に応じて、音高・音強を上下させたり、発音のタイミングを前後させたりすればよい。また、CPU11が、上述のガイドメロディに応じて「でたらめガイドメロディ」を生成してもよい。例えば、CPU11が、このガイドメロディのヘッダ部分を参照するなどして音階を検出し、異なる音階に変更した「でたらめガイドメロディ」を生成してもよい。この変更前後の対応関係は、例えば、ガイドメロディの音階がCメジャーであれば「でたらめガイドメロディ」の音階を琉球音階にするなどである。なお、このような変更前後の対応関係は、予めHDD14が記憶しておけばよい。
(4)上記実施形態においては、演奏前処理を行ってから実際のカラオケ演奏処理を行う場合について説明した。しかし、演奏前処理として説明した処理は、必ずしも上記実施形態のように演奏指示を受けてから実際に演奏が始まるまでの期間に行うようにしなくても良い。例えば、楽曲データをHDD14に格納した際に、該楽曲データに含まれる歌詞データとガイドメロディデータを読み出して、予め対応関係データを生成しておき、該楽曲を演奏する際には、対応関係データをそのまま読み出して用いるようにしても良い。
また、演奏前処理として示した処理を、カラオケ演奏中に行うようにしても良い。すなわち、歌詞データを、その時点で演奏している楽曲部分の1行分以上先の部分まで読み出し、先に読み出した歌詞部分について対応するガイドメロディの楽音を特定し、該歌詞部分を表示する時点までに対応関係データを生成しておくようにしておけば良い。
(5)上記実施形態においては、楽曲データには、演奏データに加えてガイドメロディデータが含まれる場合について説明した。しかし、楽曲データにガイドメロディデータが含まれない場合には、演奏データを元にガイドメロディデータに対応するデータ(以下、ガイドデータ)を生成して、上記ガイドメロディデータに代えて用いればよい。例えば、演奏データをフーリエ解析するなどしてカラオケ伴奏におけるピッチを解析し、ピッチの変動を示すガイドデータを生成する。このガイドデータが、上記実施形態におけるガイドメロディデータに相当する。そして、生成されたガイドデータにおいて、ピッチの変化の割合(またはピッチの変動の大きさ)が所定の閾値を超えたタイミング(新たな楽音が発音されたタイミングに相当する)を抽出し、該タイミングを楽曲の開始からの経過時間で表したピッチ変動データを生成する。そしてCPU11は、歌詞の各文字と対応する楽音を判定するにあたり、該文字のワイプ開始タイミングと上記ピッチ変動データに書き込まれたタイミングとを比較し、該文字と対応するガイドデータ部分を特定しても良い。
(6)上記実施形態においては、ガイドメロディデータがMIDIフォーマットに従って記述されており、CPU11はMIDIフォーマットによって示される音名に基づいて五線譜上に表示させる場合について説明した。しかし、ガイドメロディデータがたとえばアナログの音声信号として記述されている場合には、楽曲の進行に従って読み出した該アナログの音声信号をフーリエ解析するなどして、音程や発音の長さなどを示すデータを新たに生成し、生成されたデータを元にガイドメロディを表示するようにしても良い。
(7)上記実施形態においては、歌詞をワイプする方法として、ワイプ開始タイミングに達したときに、その文字の表示色を所定の速度で左から右に変化させる場合について説明した。しかし、ワイプ方法はその様式に限られるものではない。他の方法としては、その文字とその文字以降の所定数の文字(例えば1行の歌詞の最後の文字まで)のワイプ開始タイミングを用い、所定のアルゴリズムに従ってその文字のワイプ速度を演算し、求められたワイプ速度で徐々にワイプする方法がある。また、ワイプ開始タイミングに達したら、その文字の表示色を一度に変化させるようにしても良い。
また、上記実施形態においては、例えば図7に示すように、歌詞のワイプ開始タイミングがカラオケの伴奏音に対して先行している場合について説明したが、歌詞のワイプ開始タイミングと、対応するカラオケの伴奏音の発音タイミングを同時に設定されていても良い。また、楽曲データに書き込まれている歌詞のワイプ開始タイミングよりも所定の時間だけずらして歌詞をワイプすることにより、歌詞のワイプ開始タイミングと、対応するカラオケの伴奏音の発音タイミングを同時にする処理を行っても良い。
(8)上述した実施形態においては、ガイドメロディのタイミング表示方法として、現在位置表示バーCを現在演奏中の楽音と交差するように五線譜上をスライドさせる場合について説明した。しかし、ガイドメロディのタイミング表示方法は、上記実施形態に限定されるものではない。例えば五線譜上に音符を表示し、歌詞のワイプと同様に、該音符の表示色を順次変えるなどしても良い。要は、現在演奏中のガイドメロディを示すことが出来れば良い。
(9)上述した実施形態においては、楽音の長さに応じて五線譜上にガイドメロディの旋律を表示する場合について説明した。さて歌詞データにおいて、行の区切りは一般に言葉としての意味に基づいて決められているため、該歌詞の1行に対応するガイドメロディの長さは各行で異なり、一度に表示されるガイドメロディの長さも変動する。従って、1行分の歌詞に対応するガイドメロディの開始時刻と終了時刻を検出し、ガイドメロディの表示の縮尺を適宜調整し、モニタ2の画面上において歌詞とガイドメロディの表示をバランスよく表示するようにしても良い。
(10)上述した実施形態においては、歌詞を1行分だけモニタ2に表示する場合について説明した。しかし、歌詞の表示量は複数行であっても良い。その場合には、複数行の歌詞について上記実施形態と同様に対応するガイドメロディの部分を選択するようにすれば良い。
(11)上述した実施形態においては、モニタ2に表示される背景画像データが楽曲データに含まれる場合について説明した。しかし、背景画像を表すデータは、各楽曲データの曲名などに対応づけて予めHDD14などに記憶しておいても良い。また、その場合、楽曲のジャンルに対応付けてHDD14などに記憶しておき、演奏する楽曲のジャンルに応じて背景画像を読み出すようにしても良い。また、カラオケ装置本体1に通信手段を設け、該通信手段を介してホストコンピュータから背景画像データを転送するなどしても良い。
(12)上述した実施形態においては、歌詞の全てについて、対応するガイドメロディを特定し、それらの対応関係を明らかにする場合について説明した。しかし、歌詞に含まれる文字の全てについて必ずしも対応するガイドメロディを特定しなくても良い。例えば、一まとまり(例えば1行分)の歌詞の初めと終わりの文字についてのみ対応するガイドメロディの楽音を特定し、その特定された楽音に基づいて一まとまりの歌詞と対応するガイドメロディ部分を特定して対応関係データを生成すれば良い。すなわち、例えば図7において、歌詞「ゆ」に対応するガイドメロディは「12s000ms」に発音される「ミ(E4)」であり、歌詞「け」に対応するガイドメロディは「14s000ms」に発音される「ミ(E5)」であることを特定し対応関係データを生成しておけば、歌詞「き」および「ど」については、その対応するガイドメロディを特定する処理を行わなくても、「ゆ」と「け」の間にある音であることは特定できるから、この関係を用いることで歌詞「ゆきどけ」に対応する全てのガイドメロディ部分を特定することが可能である。
(13)上述した実施形態においては、モニタ2に表示された歌詞のワイプが完了した時点(図9において、ステップSB140の判定結果が“YES”で、ステップSB150の判定結果が“NO”である場合)でページ切り替えを実行する場合について説明した。しかし、ページを切り換える際の態様は、上記実施形態に示した例に限られない。
例えば以下のような態様でも良い。すなわち、1行分の歌詞において最後の文字に対応するガイドメロディの楽音についてのノートオフのタイミングデータを参照し、該ノートオフのタイミングと同時、または該ノートオフのタイミングの一定時間前に表示を切り換えるようにしても良い。
また、現在演奏している行の次の行の歌詞データを先に読み出し、次の行の歌詞における最初の文字のワイプ開始タイミングの一定時間前に表示を切り換えるなどしても良い。
また、例えば、楽曲データに、イントロや間奏部分などを示すデータが含まれている場合には、該データに基づいてページを切り換えるようにしても良い。例えば、間奏の直前の歌詞については、該文字をワイプした直後にページを切り換えるのではなく、対応するガイドメロディの発音が終了してからページを切り換えるようにしても良い。なぜなら該歌詞の直後は間奏であり、即座に次の歌詞を表示する必要が無いからである。
(14)上述のカラオケ装置は、専用のハードウェアにより実現されても良いし、汎用コンピュータにアプリケーションプログラムに従って処理を実行させることにより実現されても良い。
(15)上述した実施形態におけるカラオケ装置本体1のCPU11によって実行されるプログラムは、磁気テープ、磁気ディスク、フロッピー(登録商標)ディスク、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)などの光記録媒体、光磁気記録媒体、ROMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由でカラオケ装置本体1にダウンロードさせることも可能である。
(16)上述した実施形態においては、歌詞およびガイドメロディのタイミングを表示する場合ついて説明したが、それらの表示は必ずしも行わなくても良い。要は、歌詞と、該歌詞に対応するガイドメロディを併せてモニタ2に表示することができれば良い。
(17)上述した実施形態においては、歌詞データに含まれる改行情報に基づいて歌詞のまとまりが判別される場合について説明した。しかし、そのまとまりの判別方法は、改行情報に基づく方法以外に様々な態様が可能である。例えば、歌詞データに含まれる所定の数の文字を一まとまりとしても良いし、次の文字とのワイプ開始タイミングを算出し、算出されたが所定の閾値より大きい場合に、該次の文字との間で区切るなどしても良い。
(18)上述した実施形態では、文字のワイプ開始タイミングデータはワイプ開始のタイミングのみが規定されている場合について説明した。しかし、文字のワイプ(開始)タイミングに加えてワイプ終了タイミングも規定された歌詞データであってもよい。その場合に対応関係データを生成するにあたって、ガイドメロディから楽音を検索する範囲として、上述の実施形態における期間(ワイプ開始タイミングの直後の所定時間長)に代えて、その文字のワイプ開始タイミングから終了タイミングまでの期間に置き換えても良い。
1…カラオケ装置本体、2…モニタ、3…スピーカ、4…マイク、5…リモコン端末、11…CPU、12…ROM、13…RAM、14…HDD、16…操作部、17…表示制御部、18…音源装置、19…効果音用DSP、20…A/Dコンバータ、21…音声出力部、22…バス、110…歌唱得点計算部、111…表示制御部、112…こぶし区間特定手段。

Claims (2)

  1. 伴奏音を示す演奏データ、楽曲の進行に応じて同時に表示すべき文字の列と当該文字の列に含まれる文字についてワイプ開始タイミングが記述された歌詞データと、当該楽曲のガイドメロディを構成する各音の発音/消音タイミングが記述されたガイドメロディデータとを含む楽曲データを記憶する楽曲データ記憶手段と、
    前記文字の列に含まれる一部の文字について記述された前記ワイプ開始タイミングと前記ガイドメロディの各音の発音/消音タイミングとを比較して、前記文字の列と前記ガイドメロディの音との対応関係を特定し、特定した対応関係を示す対応関係データを生成する対応関係データ生成手段と、
    前記楽曲データ記憶手段内の楽曲データを読み出す読出手段と、
    前記読出手段が読み出した当該楽曲データ中の演奏データおよびガイドメロディデータに基づいて演奏を行う演奏手段と、
    前記文字の列に含まれる各文字を楽曲の進行に応じて表示装置に表示するとともに、表示した各文字について前記歌詞データ中のワイプ開始タイミングに基づくワイプ処理を行う歌詞表示制御手段と、
    前記歌詞表示制御手段が前記表示装置に表示している文字について、前記対応関係データに基づいて対応するガイドメロディの各音を特定し、特定した各音の属性を示す画像データを生成して、前記表示装置に表示するガイドメロディ表示手段と、
    を具備することを特徴とするカラオケ装置。
  2. ンピュータを、
    伴奏音を示す演奏データ、楽曲の進行に応じて同時に表示すべき文字の列と当該文字の列に含まれる文字についてワイプ開始タイミングが記述された歌詞データと、当該楽曲のガイドメロディを構成する各音の発音/消音タイミングが記述されたガイドメロディデータとを含む楽曲データを記憶する楽曲データ記憶手段と、
    前記文字の列に含まれる一部の文字について記述された前記ワイプ開始タイミングと前記ガイドメロディの各音の発音/消音タイミングとを比較して、前記文字の列と前記ガイドメロディの音との対応関係を特定し、特定した対応関係を示す対応関係データを生成する対応関係データ生成手段と、
    前記楽曲データ記憶手段内の楽曲データを読み出す読出手段と、
    前記読出手段が読み出した当該楽曲データ中の演奏データおよびガイドメロディデータに基づいて演奏を行う演奏手段と、
    前記文字の列に含まれる各文字を楽曲の進行に応じて表示装置に表示するとともに、表示した各文字について前記歌詞データ中のワイプ開始タイミングに基づくワイプ処理を行う歌詞表示制御手段と、
    前記歌詞表示制御手段が前記表示装置に表示している文字について、前記対応関係データに基づいて対応するガイドメロディの各音を特定し、特定した各音の属性を示す画像データを生成して、前記表示装置に表示するガイドメロディ表示手段
    として機能させるプログラム。
JP2013055000A 2007-03-13 2013-03-18 カラオケ装置及びプログラム Active JP5887293B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013055000A JP5887293B2 (ja) 2007-03-13 2013-03-18 カラオケ装置及びプログラム

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007064064 2007-03-13
JP2007064064 2007-03-13
JP2013055000A JP5887293B2 (ja) 2007-03-13 2013-03-18 カラオケ装置及びプログラム

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2008047808A Division JP5297662B2 (ja) 2007-03-13 2008-02-28 楽曲データ加工装置、カラオケ装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2013145393A JP2013145393A (ja) 2013-07-25
JP5887293B2 true JP5887293B2 (ja) 2016-03-16

Family

ID=39980786

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2008047808A Active JP5297662B2 (ja) 2007-03-13 2008-02-28 楽曲データ加工装置、カラオケ装置、及びプログラム
JP2013055000A Active JP5887293B2 (ja) 2007-03-13 2013-03-18 カラオケ装置及びプログラム

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2008047808A Active JP5297662B2 (ja) 2007-03-13 2008-02-28 楽曲データ加工装置、カラオケ装置、及びプログラム

Country Status (1)

Country Link
JP (2) JP5297662B2 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9064484B1 (en) * 2014-03-17 2015-06-23 Singon Oy Method of providing feedback on performance of karaoke song
WO2016143907A1 (ja) * 2015-03-12 2016-09-15 株式会社Six 楽曲再生システム、データ出力装置、及び楽曲再生方法
JP6587007B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
JP6587008B1 (ja) * 2018-04-16 2019-10-09 カシオ計算機株式会社 電子楽器、電子楽器の制御方法、及びプログラム
CN112380378B (zh) * 2020-11-17 2022-09-02 北京字跳网络技术有限公司 歌词特效展示方法、装置、电子设备及计算机可读介质

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09134173A (ja) * 1995-11-10 1997-05-20 Roland Corp 自動演奏装置の表示制御方法および表示制御装置
JP3673405B2 (ja) * 1998-07-08 2005-07-20 株式会社リコー 演奏曲再生装置
JP2000293183A (ja) * 1999-04-08 2000-10-20 Yamaha Corp カラオケ装置
JP2002014670A (ja) * 1999-09-30 2002-01-18 Kawai Musical Instr Mfg Co Ltd 音楽情報表示装置及び音楽情報表示方法
JP2001318683A (ja) * 2000-05-12 2001-11-16 Victor Co Of Japan Ltd 歌唱情報表示装置及び方法
JP4182750B2 (ja) * 2002-12-25 2008-11-19 ヤマハ株式会社 カラオケ装置
JP2004233875A (ja) * 2003-01-31 2004-08-19 Yamaha Corp カラオケ装置
JP4049014B2 (ja) * 2003-05-09 2008-02-20 ヤマハ株式会社 楽譜表示装置および楽譜表示コンピュータプログラム

Also Published As

Publication number Publication date
JP2013145393A (ja) 2013-07-25
JP5297662B2 (ja) 2013-09-25
JP2008257206A (ja) 2008-10-23

Similar Documents

Publication Publication Date Title
US6703549B1 (en) Performance data generating apparatus and method and storage medium
US7323631B2 (en) Instrument performance learning apparatus using pitch and amplitude graph display
JP3598598B2 (ja) カラオケ装置
US5939654A (en) Harmony generating apparatus and method of use for karaoke
JP5887293B2 (ja) カラオケ装置及びプログラム
JP2008139426A (ja) 評価用データのデータ構造、カラオケ装置及び記録媒体
JP3900188B2 (ja) 演奏データ作成装置
JP3698057B2 (ja) 自動アレンジ装置及び方法
JP2725566B2 (ja) 電子楽器
JP4259532B2 (ja) 演奏制御装置、およびプログラム
JP2006301019A (ja) ピッチ通知装置およびプログラム
JP3879524B2 (ja) 波形生成方法、演奏データ処理方法および波形選択装置
JP5416396B2 (ja) 歌唱評価装置およびプログラム
JP3900187B2 (ja) 演奏データ作成装置
JP3709821B2 (ja) 楽曲情報編集装置及び楽曲情報編集プログラム
JPH08227296A (ja) 音声信号処理装置
JP2002297139A (ja) 演奏データ変更処理装置
JP7425558B2 (ja) コード検出装置及びコード検出プログラム
JP3921817B2 (ja) 自動演奏装置およびフィンガリング記録装置
JP3832147B2 (ja) 曲データ加工方法
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JPH1185174A (ja) 利用者が伴奏音楽を演奏できるカラオケ装置
JP3327188B2 (ja) 和音進行作成支援装置及び和音進行作成支援プログラムを記録した記録媒体
JP3709820B2 (ja) 楽曲情報編集装置及び楽曲情報編集プログラム
JP2004272067A (ja) 演奏練習装置及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140314

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140401

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140528

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20150106

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20150304

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20151006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20151210

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20151218

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160209

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160215

R150 Certificate of patent or registration of utility model

Ref document number: 5887293

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250