JP3743231B2 - 曲データ表示制御装置及び方法 - Google Patents

曲データ表示制御装置及び方法 Download PDF

Info

Publication number
JP3743231B2
JP3743231B2 JP33646499A JP33646499A JP3743231B2 JP 3743231 B2 JP3743231 B2 JP 3743231B2 JP 33646499 A JP33646499 A JP 33646499A JP 33646499 A JP33646499 A JP 33646499A JP 3743231 B2 JP3743231 B2 JP 3743231B2
Authority
JP
Japan
Prior art keywords
display
chord
data
performance
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP33646499A
Other languages
English (en)
Other versions
JP2001154665A (ja
Inventor
トム 蔡
政彦 脇田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP33646499A priority Critical patent/JP3743231B2/ja
Priority to US09/717,578 priority patent/US6582235B1/en
Publication of JP2001154665A publication Critical patent/JP2001154665A/ja
Application granted granted Critical
Publication of JP3743231B2 publication Critical patent/JP3743231B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B5/00Electrically-operated educational appliances
    • G09B5/02Electrically-operated educational appliances with visual presentation of the material to be studied, e.g. using film strip
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/38Chord
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2240/00Data organisation or data communication aspects, specifically adapted for electrophonic musical tools or instruments
    • G10H2240/325Synchronizing two or more audio tracks or files according to musical features or musical timings

Description

【0001】
【発明の属する技術分野】
この発明は、選択された曲データに基づいて再生される楽音にあわせて歌詞や和音名を表示する曲データ表示制御装置及び方法に係り、特に楽音の進行にあわせて歌詞や和音名並びに楽器演奏支援情報をわかりやすく表示する曲データ表示制御装置及び方法に関する。
【0002】
【従来の技術】
従来から知られている電子楽器あるいはカラオケ装置等の自動演奏装置では、ユーザが選択した所望の曲データに基づいて自動演奏(つまり、曲の再生)を行う際に、背景画像(映像)と当該曲の歌詞とを所定の画面上に表示している。また、演奏曲にあわせて同時に楽器の演奏を楽しみたいといったユーザのために、所定区間分の歌詞とともに、当該歌詞に対応した和音名(コード名)をあわせて画面上に表示するものが既に知られている(例えば、特開平6―308991号等)。このような自動演奏装置では、曲データ表示制御装置を用いて背景画像は勿論のこと、画面上に表示した歌詞及び和音名の文字の色を演奏曲の進行にあわせて変化させており、ユーザはその文字の色の変化にあわせてピアノやギター等の楽器を操作することによって、楽器の演奏を演奏曲にあわせて行うことが可能となっている。
【0003】
【発明が解決しようとする課題】
ところで、従来の曲データ表示制御装置では、画面上に表示した歌詞及び和音名の文字の色を演奏曲の進行にあわせて変化する際に、演奏曲の現在の進行位置にある文字の色のみを変えるだけであった。そのため、和音進行と歌詞とを一緒に表示する際に、表示された和音進行の小節幅に歌詞列の幅が納まりきれないような場合には、演奏曲の現在の進行位置にある歌詞文字と次の進行位置にある歌詞文字との間隔が近づいて重なってしまうので非常に見づらい表示となり、画面表示として不適切である、という問題点があった。また、和音名の文字表示についても同様に文字が重なってしまうことが起こり得る。特に、1文字の歌詞を長音で歌唱する場合に複数の和音がその歌詞1文字に対応することがあり、そのような場合に単純に歌詞1文字に対応して複数の和音を表示したとすると、和音表示が重なってしまい、非常に見にくくなる。すなわち、従来にあってはビデオディスプレイにおける歌詞文字列の表示は一定の文字フォント間隔で単に羅列しているだけであったことから、歌詞1文字に対応する表示幅に限度があり、複数の和音表示を付記する場合には重複して和音表示されることがあった。
また、演奏曲にあわせて楽器の演奏を行うユーザのために、画面上に歌詞とともに当該歌詞に対応した和音名(コード名)を表示するだけであったことから、楽器を演奏すべきタイミングや演奏すべき音高がユーザにわからず不便である、という問題点があった。
【0004】
本発明は上述の点に鑑みてなされたもので、所定の画面上に歌詞あるいは和音進行を適宜に見やすい表示態様で表示し、さらに演奏曲の進行にあわせて楽器の演奏タイミングや演奏すべき音高を表示することにより、演奏曲の進行にあわせて楽器演奏を簡単に行うことができるようにした曲データ表示制御装置及び方法を提供しようとするものである。
【0005】
【課題を解決するための手段】
【0010】
請求項1の本発明に係る曲データ表示制御装置は、表示手段と、前記表示手段において演奏曲の進行に合わせて歌詞を表示させる歌詞表示制御手段と、前記表示手段において前記演奏曲の進行に合わせて和音情報を表示させる和音表示制御手段と、前記演奏曲の演奏データを提供する手段と、前記演奏データに基づき和音伴奏の発音タイミングとそのゲートタイムを検出し、検出した発音タイミングとそれに続くゲートタイムの長さを示す表示を前記和音情報の表示に対応づけて表示する演奏タイミング表示制御手段とを具えるものである。また、実施態様として、前記演奏タイミング表示制御手段は、右手パートと左手パートとを区別してこの表示を行う。表示手段に歌詞あるいは和音情報を表示するのみならず、演奏曲の進行にあわせて和音伴奏の発音タイミングとそれに続くゲートタイムの長さを示す表示行うので、楽器演奏者は表示手段上に表示された和音伴奏の発音タイミングとそれに続くゲートタイムの長さにあわせて楽器を操作することで、演奏曲の進行にあわせて楽器演奏を行うことができるようになる。特に、初心者にとっては、どのような発音タイミングとゲートタイムで和音を刻む演奏を行えばよいのかが簡単に判り易い。
【0011】
本発明に係る曲データ表示制御装置は、表示手段と、演奏曲の進行に合わせて歌詞を表示すると共にこの歌詞の表示に対応づけて前記演奏曲の進行に合った伴奏情報を表示する表示画面を作成するものであって、少なくとも時間軸方向の表示スケールが異なる複数の前記表示画面を作成することができる表示画面作成手段と、前記表示画面作成手段で作成可能な複数の表示画面の1つを選択して前記表示手段で表示させる手段とを具える。このように、表示スケールが異なる複数の表示画面を作成し、そのうちの1つの表示画面を選択して表示させることができるので、歌詞文字列や伴奏情報の密集度合い若しくは過疎度合いに応じて最適な表示スケールの画面を選択的に表示することができ、効率的な表示を行うことができるようになる。
【0012】
本発明に係る曲データ表示制御装置は、演奏曲の進行に合わせて、所定の演奏区間にわたる和音進行を和音名で表示する和音名表示手段と、現在の和音進行位置に対応する和音の構成音とその次の和音進行位置に対応する和音の構成音とを区別して表示する和音構成音表示手段とを具える。和音名の表示によって、所定の演奏区間(数小節分)の全体の和音進行を容易に把握することができる一方で、現時点及び次に演奏すべき和音の構成音がそれぞれ区別されて具体的に表示されるので、初心者にやさしい演奏ガイドを行うことができる。
【0013】
本発明に係る曲データ表示制御装置は、演奏用鍵盤と、前記演奏用鍵盤の利用可能音域を判別する判別手段と、演奏曲の和音進行に応じて演奏すべき和音の構成音を表示するものであって、前記判別手段によって判別された利用可能音域に合った和音構成音を指示するよう転回形での和音構成音表示を行いうる和音構成音表示手段とを具える。これによれば、演奏鍵盤の音域が例えば1オクターブしかないような場合であっても、その音域にあわせて転回形で(適宜オクターブシフトを行って)和音構成音が表示されるので、的確な和音演奏ガイドを行うことができる。
【0014】
本発明に係る曲データ表示制御装置は、演奏曲の進行に合わせて、所定の演奏区間にわたる歌詞と該区間の和音進行に従う和音名とを表示する表示手段と、 所定の鍵盤図形を用いて少なくとも現在の和音進行位置に対応する和音の構成音を指示する表示を行う和音構成音表示手段とを具える。歌詞及び和音名の表示によって、所定の演奏区間(例えば数小節分)の全体の歌詞及び和音進行を容易に把握することができる一方で、少なくとも現時点で演奏すべき和音の構成音が鍵盤図形で具体的に表示されるので、初心者にとってわかりやすく操作しやすい演奏ガイドを行うことができる。
【0015】
本発明は、装置の発明として構成し、実施することができるのみならず、方法の発明として構成し、実施することができる。また、本発明は、コンピュータまたはDSP等のプロセッサのプログラムの形態で実施することができるし、そのようなプログラムを記憶した記録媒体の形態で実施することもできる。
【0016】
【発明の実施の形態】
以下、この発明の実施の形態を添付図面に従って詳細に説明する。
【0017】
図1は、この発明に係る曲データ表示制御装置及び自動演奏装置を内蔵した電子楽器の実施の形態を示すハード構成ブロック図である。
この実施の形態においては、マイクロプロセッサユニット(CPU)1、リードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3からなるマイクロコンピュータの制御の下に各種の処理が実行されるようになっている。この実施の形態では、1つのCPU1によって曲データの表示に関する各種処理等を行う電子楽器を例に説明する。CPU1は、この電子楽器全体の動作を制御するものである。このCPU1に対して、データ及びアドレスバス1Dを介してリードオンリメモリ(ROM)2、ランダムアクセスメモリ(RAM)3、鍵盤インタフェース(I/F)4、スイッチインタフェース(I/F)5、ディスプレイインタフェース(I/F)6、音源回路7、効果回路8、外部記憶装置9、MIDIインタフェース(I/F)10および通信インタフェース(I/F)11がそれぞれ接続されている。CPU1はROM2及びRAM3内の各種プログラムや各種データ、及び外部記憶装置9から取り込まれた楽音制御情報(例えば、曲データ)に基づいて当該電子楽器全体の動作を制御する。更に、CPU1には、タイマ割込み処理における割込み時間や各種時間を計時するタイマ1Aが接続されている。
【0018】
ROM2は、CPU1により実行あるいは参照される各種プログラムや各種データ等を格納するものである。RAM3は、自動演奏に関する各種演奏情報やCPU1がプログラムを実行する際に発生する各種データを一時的に記憶するワーキングメモリとして、あるいは現在実行中のプログラムやそれに関連するデータを記憶するメモリ等として使用される。RAM3の所定のアドレス領域がそれぞれの機能に割り当てられ、レジスタやフラグ、テーブル、メモリなどとして利用される。鍵盤4Aは楽音の音高を選択するための複数の鍵を備えており、各鍵に対応してキースイッチを有しており、この鍵盤4Aは楽音演奏のために使用できるのは勿論のこと、曲データ等の選択指示を行うための入力手段として使用することもできる。鍵盤インタフェース(I/F)4は、鍵盤4Aの各鍵の押圧及び離鍵を検出し、検出出力を生じる。スイッチ5Aは曲データの選択指示を入力したり、あるいは演奏曲に関する各種の音楽条件を入力するための各種の操作子を含んで構成される。例えば、数値データ入力用のテンキーや文字データ入力用のキーボード、あるいはパネルスイッチ等である。この他にも音高、音色、効果等を選択・設定・制御するための各種操作子を含んでいてよい。本実施例におけるスイッチ5Aの具体的な例としては、歌詞画面ボタン、タイミング画面ボタン、4小節/8小節ボタン、構成音/キーボードボタンなどの画面表示モード選択用のスイッチがある。これらのスイッチ5Aについての説明は、適宜説明する。スイッチインタフェース(I/F)5は、スイッチ5Aの各操作子の操作状態を検出し、その操作状態に応じたスイッチ情報をデータ及びアドレスバス1Dを介してCPU1に出力する。ディスプレイインタフェース(I/F)6はCPU1の制御状態に関する情報や曲データの内容あるいは楽器の演奏を支援する情報(後述する歌詞画面あるいはタイミング画面など)を、例えば液晶表示パネル(LCD)やCRT等から構成されるディスプレイ6Aに表示するためのインタフェースである。
【0019】
音源回路7は、複数のチャンネルで楽音信号の同時発生が可能であり、データ及びアドレスバス1Dを経由して与えられた演奏情報を入力し、このデータに基づき楽音信号を発生する。音源回路7から発生された楽音信号は、サウンドシステム8Aを介して発音される。また、効果回路8は前記音源回路7から発生された楽音信号に対して各種効果を与える。前記音源回路7における楽音信号発生方式はいかなるものを用いてもよい。例えば、発生すべき楽音の音高に対応して変化するアドレスデータに応じて波形メモリに記憶した楽音波形サンプル値データを順次読み出す波形メモリ読み出し方式、又は上記アドレスデータを位相角パラメータデータとして所定の周波数変調演算を実行して楽音波形サンプル値データを求めるFM方式、あるいは上記アドレスデータを位相角パラメータデータとして所定の振幅変調演算を実行して楽音波形サンプル値データを求めるAM方式等の公知の方式を適宜採用してもよい。すなわち、音源回路の方式は、波形メモリ方式、FM方式、物理モデル方式、高調波合成方式、フォルマント合成方式、VCO+VCF+VCAのアナログシンセサイザ方式、アナログシミュレーション方式等、どのような方式であってもよい。また、専用のハードウェアを用いて音源回路を構成するものに限らず、DSPとマイクロプログラム、あるいはCPUとソフトウェアを用いて音源回路を構成するようにしてもよい。さらに、1つの回路を時分割で使用することによって複数の発音チャンネルを形成するようなものでもよいし、1つの発音チャンネルが1つの回路で形成されるようなものであってもよい。
【0020】
外部記憶装置9は、曲データなどのような楽音制御情報やCPU1が実行する各種プログラム等の制御に関するデータ等を記憶するものである。前記ROM2に制御プログラムが記憶されていない場合、この外部記憶装置9(例えばハードディスク)に制御プログラムを記憶させておき、それを前記RAM3に読み込むことにより、ROM2に制御プログラムを記憶している場合と同様の動作をCPU1にさせることができる。このようにすると、制御プログラムの追加やバージョンアップ等が容易に行える。なお、外部記憶装置9はハードディスク(HD)に限られず、フロッピィーディスク(FD)、コンパクトディスク(CD−ROM・CD−RAM)、光磁気ディスク(MO)、あるいはDVD(Digital Versatile Diskの略)等の着脱自在な様々な形態の外部記憶媒体を利用する記憶装置であってもよい。
【0021】
MIDIインタフェース(I/F)10は、他のMIDI機器10A等からMIDI規格の演奏情報(MIDIデータ)を当該電子楽器へ入力したり、あるいは当該電子楽器からMIDI規格の演奏情報(MIDIデータ)を他のMIDI機器10A等へ出力するためのインタフェースである。通信インタフェース11は、例えばLANやインターネット、電話回線等の通信ネットワーク11Bに接続されており、概通信ネットワーク11Bを介して、サーバコンピュータ11Aと接続され、当該サーバコンピュータ11Aから制御プログラムや各種データを電子楽器側に取り込むためのインタフェースである。すなわち、ROM2やハードディスクに制御プログラムや各種データが記憶されていない場合に、サーバコンピュータ11Aから制御プログラムや各種データをダウンロードするために用いられる。クライアントとなる電子楽器は、通信インターフェース11及び通信ネットワーク11Bを介してサーバコンピュータ11Aへと制御プログラムや各種データのダウンロードを要求するコマンドを送信する。サーバコンピュータ11Aは、このコマンドを受け、要求された制御プログラムやデータを、通信ネットワーク11Bを介して本電子楽器へと配信し、本電子楽器が通信インタフェース11を介して、これら制御プログラムや各種データを受信してハードディスクに蓄積することにより、ダウンロードが完了する。なお、MIDIインタフェース10は専用のMIDIインタフェースを用いるものに限らず、RS232−C、USB(ユニバーサル・シリアル・バス)、IEEE1394(アイトリプルイー1394)等の汎用のインタフェースを用いてMIDIインタフェースを構成するようにしてもよい。この場合、MIDIメッセージ以外のデータをも同時に送受信するようにしてもよい。
【0022】
ここで、曲データの構造について図2を用いて説明する。図2は、曲データのフォーマットの一実施例を示した概略図である。
曲データは、大きく分けてタイミングデータとイベントデータ及びエンドデータとから構成される。タイミングデータは、イベントの発生タイミングを曲の先頭や各小節の先頭からの絶対時間、あるいは1つ前のイベントからの相対時間で示したデータである。イベントデータはその内容によって、演奏イベントデータ、歌詞イベントデータあるいは和音名イベントデータなどの種類に分けられる。演奏イベントデータは、ノートオン、ノートオフ、プログラムチェンジ、ボリューム、エフェクトなどのイベントを示すデータである。演奏イベントデータには複数チャンネルのデータが混在しており、各チャンネルはそれぞれ異なる演奏パート(例えば、メロディパート、リズムパート、ベースパート、キーボードパート等)に対応する。歌詞イベントデータは、メロディに付随する歌詞の文字、前記歌詞の文字を画面上に表示する際の改行や改ページ等のイベントを示すデータである。歌詞の文字は、1つのイベントがメロディの1音符分に対応する。歌詞の文字は対応する音符と同じタイミングに挿入され、改行や改ページはそれらが行われるべきタイミングに挿入される。和音名イベントデータは、和音が変更される位置毎に挿入される和音名(コード名)を示すデータである。エンドデータは、1つの曲データの終了を示すデータである。
【0023】
図1に示した電子楽器では、例えばROM2あるいは外部記憶装置9等からユーザの選択に従った曲データを読み出して自動演奏を行うことは勿論のこと、読み出した曲データの内容をディスプレイ6Aに所定の形式で表示する。図3は、当該電子楽器のCPU1によって実行される曲データ表示制御装置の処理を説明するための機能ブロック図である。図3において、図中の矢印は各機能間におけるデータのやり取りを表すものである。
曲データ記憶部100には、多数の曲データが記憶されている。例えば、図1に示したROM3や外部記憶装置9が曲データ記憶部100に相当する。なお、他のMIDI機器やサーバコンピュータから受信した曲データや、鍵盤演奏を記録したものに歌詞や和音を付与したものを曲データ記憶部100に記憶するようにしてもよい。曲データ読出し部101は、前記曲データ記憶部100に記憶されている多数の曲データの中から選択された曲データを読み出す。曲データの読み出しテンポは、曲データ毎に決まっていてもよいし、ユーザが指定してもよい。また、曲データ毎の読み出しテンポをユーザが修正してもよい。読み出された曲データのうち、演奏イベントデータは演奏データ処理部102へと供給される。また、歌詞イベントデータは歌詞データ処理部103へ、和音名イベントデータは和音名データ処理部104へと供給される。曲データ読出し部101では必要に応じて、演奏イベントデータ、歌詞イベントデータ、和音名イベントデータを先読みする。演奏データ処理部102は、受け取った演奏イベントデータを音源109へと供給するとともに、表示器110に表示する演奏支援表示部の鍵盤部(例えば、表示器110において鍵盤を表示する領域)での表示用データ及び歌詞・和音表示部(例えば、表示器110において歌詞あるいは和音名を表示する領域)での表示用データを作成して、表示用メモリ部105へと供給する。その他にも、曲データ読出し部101への曲データの読み出しテンポの指示や、読出し停止指示等も必要に応じて行う。
【0024】
歌詞データ処理部103は、曲データ読出し部101から受け取った歌詞イベントデータに基づいて表示器110の歌詞・和音表示部での表示用データを作成し、表示用メモリ部105へと供給する。和音名データ処理部104は、曲データ読出し部101から受け取った和音名イベントデータに基づいて、表示器110の演奏支援表示部での表示用データ及び歌詞・和音表示部での表示用データを作成し、表示用メモリ部105へと供給する。また、和音名イベントデータは、和音名→音高変換部106へも供給される。表示用メモリ部105では、演奏データ処理部102、歌詞データ処理部103、和音名データ処理部104から供給された表示用データを一時記憶し、表示器110にこれらの表示用データを供給する。なお、後述するように、表示用メモリ部105は複数の画面に対応した複数個の記憶部を有しており、各記憶部に並列に表示用データを記憶することができる。そして、画面表示モードに応じて選択された記憶部に記憶されている表示用データのみが表示器110に供給される。和音名→音高変換部106では、曲データ読出し部101から供給された和音名イベントデータに基づいて表示器110の演奏支援表示部で表示すべき該和音名に対応した構成音の音高を求め、表示用メモリ部105へと供給する。また、この音高は比較・評価部108へも供給され、鍵盤111から入力された音高データとの比較・評価にも利用される。オクターブ制御部107では、鍵盤111の音域に応じて、表示器110の演奏支援表示部に表示する音高をオクターブシフトするか否かを決定し、オクターブシフトの有無データを和音名データ処理部104及び和音名→音高変換部106へ供給する。前記鍵盤111の音域は、ユーザにより指示されるか、或いは自動的、半自動的に検出する。比較・評価部108では、和音名→音高変換部106からの音高と、鍵盤111から入力された音高とを比較し、鍵盤入力音高の良否を評価する。そして、評価結果を表示用メモリ部105へと供給する。
【0025】
鍵盤111は鍵盤インタフェース(I/F)を介して接続されるもので、異なる鍵数のものを接続可能となっている。接続は、ケーブルを介して行ってもよいし、電波や赤外線等によるワイヤレス接続でもよい。鍵盤111から入力される音高データは、表示用メモリ部105と比較・評価部108へと供給される。また、必要に応じて、オクターブ制御部107へ音高データや音域情報を供給する。表示器110は、歌詞、和音名、押鍵タイミング、音高、評価結果等を歌詞・和音表示部や演奏支援表示部といった所定の表示領域に表示する。
【0026】
ここで、CPU1によって実行される曲データ表示制御装置の処理の一例を図4及び図5の表示例に基づいて説明する。図4は表示器110の歌詞・和音表示部における具体的な表示例であり、図4Aは歌詞・和音表示部に歌詞画面を表示した場合の一実施例である。
表示器110の歌詞・和音表示部に歌詞画面を表示した場合、通常のカラオケ画面のように歌詞(本実施例においては、「風が吹いているよ 寒くなるね そろそ〜ろ 家(うち)に帰ろう」)を表示するとともに、歌詞の上方に和音名(本実施例においては、「Am」「FM7」「G」「Em」「Am」「Dm」「Em」「F」「G」「C」)を表示する。1ページ(すなわち、歌詞・和音表示部で一度に表示することのできる画面)は2行構成であり(ただし、歌詞と歌詞の上方に付された和音名をあわせて1行と考える)、一方の行の終わりまで演奏が進むとその行の表示は消去され、かわりに次の次の行が表示される。例えば、第1行と第2行が既に表示されており、第1行の終わりまで演奏が進むと第1行が消去されて、そこに新たに第3行が表示される。すなわち、第3行と第2行とが表示される。さらに、第2行の終わりまで演奏が進むと第2行が消去されてそこに新たに第4行が表示される。すなわち、第3行と第4行とが表示される。これを演奏の進行に伴い繰り返し行う。したがって、ユーザはこの歌詞画面を上段下段の順に交互に見ていくことで、当該曲の最初から最後まで歌詞及び和音名を続けて見ることができる。なお、演奏の進行位置は歌詞及び和音名の文字の色替え等により表示する。すなわち、表示される歌詞の文字及び和音名の文字の色が演奏の進行にあわせて他の色に変更される。この際に、現在演奏が進行している位置(以下、単に現在位置と呼ぶ)を第1の色(例えば、黄色)で表示し、演奏が次に進行する位置(以下、単に次位置と呼ぶ)を第1の色とは異なる第2の色(例えば、オレンジ色)で表示する。勿論、このような色替えを用いる代わりに文字のフォントの種類や大きさ等を変えたり、あるいは文字の塗りつぶしパターンを変える等により、現在位置及び次位置を表示するようにしてもよい。
このように、現在位置の歌詞や和音名の文字と、次位置の歌詞や和音名の文字とが重なって表示されても識別ができるように、両者を異なる表示態様(例えば、異なる色等)で表示するようにしたことから、たとえ歌詞や和音名の現在位置の文字と次位置の文字が重なったとしても、表示態様が異なるために容易に現在位置の文字と次位置の文字とを識別することができる。
【0027】
また、歌詞のタイミングと和音のタイミングとがずれている場合に、歌詞の文字と文字との間に空間を設けている。図4Aの表示例では、第1行の「よ」と「寒」との間に和音名「G」があるので、「よ」と「寒」との間に空間を設けて表示している。「寒」と「く」との間も同様である。さらに、和音名の変更が頻繁に行われ、歌詞の文字を続けて表示すると当該歌詞に対応する和音名の文字が重なって表示されてしまう場合にも、同様に歌詞の文字と文字との間に空間を設けて表示している。図4Aの表示例では、第2行の「ろ」と「家」との間に和音名「Em」「F」が入っているので、「ろ」と「家」との間の空間が広く設けられている。
このように、歌詞の文字をつめて表示した場合に和音名が重なって表示されそうなときは、歌詞の文字の間隔を広げて、和音名が重なって表示されないようにするため、和音名の重なりを防ぐことができる。
【0028】
図4B〜図4Dは、表示器110における歌詞・和音表示部にタイミング画面を表示した場合の一実施例である。図4B及び図4Cは、和音名変更タイミング表示の例を示したものである。ただし、図4Bは1行につき4小節分の歌詞及び和音名を表示するものであり(以下、便宜的にタイミング画面Aと呼ぶ)、図4Cは1行につき2小節分の歌詞及び和音名を表示するものである(以下、便宜的にタイミング画面Bと呼ぶ)。
表示器110の歌詞・和音表示部にタイミング画面Aあるいはタイミング画面Bを表示する場合、和音の実際の演奏タイミングがわかるように、時間軸(横線)と小節線(長い縦線)や3拍目を示す線(短い縦線:タイミング画面Bのみ)を表示する。また、歌詞画面と同様にタイミング画面A及びタイミング画面Bも2行で表示する。さらに、演奏の進行に伴う画面表示の切り替え方法や現在の位置及び次の位置を表示する際の色替えの方法なども、既に説明した歌詞画面の場合と同様である。タイミング画面では時間軸に沿って歌詞の文字や和音名の文字を表示することから、場所によってはこれらの文字が重なることもある。例えば、タイミング画面Aでは、2行目の「家(うち)」と「に」が一部重なって表示されている。しかし、現在位置の文字(例えば、「家(うち)」)と次位置の文字(例えば、「に」)とを異なる色等で表示すれば、文字が重なって表示されていたとしても比較的区別がしやすくなる。なお、文字が重なって表示されること自体が気に入らないユーザは、タイミング画面Aに代えてタイミング画面Bを表示する(つまり、1行につき2小節分の歌詞及び和音名を表示する)ことにより、文字の重なり部分を減少することができる。すなわち、1行に表示する小節数を少なくすることで歌詞の文字や和音名の文字を表示する間隔が広がることから、歌詞の文字や和音名の文字が重なることが少なくなる。和音名の変更タイミングは黒く塗りつぶした丸(黒丸)によって表示され、また、現在位置は長方形で示すポインタによって表示される。このポインタは、曲の進行にあわせて左側から右側へと移動する。そして、ユーザはポインタの表示位置が黒丸の表示位置にきたタイミングにあわせて鍵盤を押すことにより、歌詞表示にあわせて楽器演奏を行うことができる。なお、和音名の変更タイミングや現在位置の表示態様としては、上記したものに限られるものでないことは言うまでもない。
このように、歌詞や和音名の文字を時間軸に沿って表示するものにおいて、表示倍率(時間方向のスケール)の異なる複数の画面を用意し、選択できるようにしたため、和音変更が頻繁に起こる曲においては広い範囲を表示させて先行する和音を確認しやすくすることができる。また、和音変更があまり起こらない曲においては、狭い範囲を表示させて歌詞の表示間隔を広げて見やすくすることができる。
【0029】
図4Dは、キーボードパート音表示の例を示している。キーボードパート音表示においても、1行につき4小節分の歌詞及び和音名を表示するもの(以下、便宜的にタイミング画面Cと呼ぶ)、1行につき2小節分の歌詞及び和音名を表示するもの(以下、便宜的にタイミング画面Dと呼ぶ)があるが、ここでは1行につき2小節分の歌詞及び和音名を表示するもののみを例に示した。すなわち、タイミング画面Dのみを示している。
図4Dに示すキーボードパート音表示では、歌詞の文字や和音名の文字、現在位置を示すポインタについては、上記タイミング画面A及びB(図4B及び図4C参照)と同様にして表示される。異なる点は、黒丸が和音名の変更タイミングに表示されるのではなく、曲データ中のキーボードパートの音の発音タイミングに表示される点である。また、その音のゲートタイムがユーザからみてわかるように、時間軸とは離れた所定位置に黒丸を基点とした横棒の長さでゲートタイムが表示される。このようなキーボードパート音表示を行うキーボードパートのチャンネルを判定する方法としては、曲データ中のプログラムチェンジを見て判断する(例えば、ピアノやオルガンのプログラムチェンジがあればそのチャンネルをキーボードパートとする)、予め特定のチャンネルをキーボードパートとして決めておく、あるいはユーザがいずれかのチャンネルをキーボードパートであると設定する、などの方法が考えられる。後述するフローチャートでは、プログラムチェンジから判断する例を示している(後述する図9参照)。ユーザは、タイミング画面C(すなわち、キーボードパート音表示における8小節表示:図示せず)、あるいはタイミング画面D(すなわち、キーボードパート音表示における4小節表示:図4Dに示した例)を見ることで、曲データ中のキーボードパートのおおよその演奏内容を把握することができる。このため、表示されている和音を、表示どおりのタイミングで演奏することにより、比較的簡単な演奏で曲データの持つ曲の雰囲気に似せた演奏を行うことが可能となる。また、和音名変更タイミングのみにあわせて演奏を行うよりも、その曲を演奏している気分をよりいっそう味わうことができる。
【0030】
また、表示器110には歌詞や和音名を表示する歌詞・和音名表示部の他に、ユーザの楽器演奏を支援するための画面を表示する演奏支援表示部がある。この演奏支援表示部には、鍵盤(例えば、ピアノやオルガン)、あるいはフレットと弦(例えば、ギター)などが表示され、ユーザの楽器演奏を支援するための表示を行う。このような、表示器110の演奏支援表示部における具体的な表示例を図5A及び図5Bに示す。図5A及び図5Bは、演奏支援表示部に鍵盤を表示した場合の例である。ただし、図5Aは現在和音と次和音の構成音をそれぞれ表示した状態を示しており、図5Bは実際の鍵盤から現在和音を入力した状態を示したものである。この実施例では、現在和音名として「Dm9」が指定され、次和音名として「F9」が指定された状態を示している。
図5Aに示すように、現在和音(「Dm9」)の構成音は画面下側に表示された鍵盤部(現在表示部)に表示され、次和音(「F9」)の構成音は画面上側に表示された鍵盤部(次表示部)に表示される。和音構成音のうち、右手で押すべき音高と左手で押すべき音高は、色等を区別して表示される(ただし、図では塗りつぶしのパターンの違いで、右手で押すべき音高と左手で押すべき音高を区別している。すなわち、格子状に塗りつぶしされている鍵盤が左手で押すべき音高であり、斜線状に塗りつぶされている鍵盤が右手で押すべき音高である)。勿論、これに限らず、例えば鍵盤毎に「右」「左」などのような表示を行うようにしてもよい。ユーザによる実際の鍵盤の操作に伴って、実際の鍵盤から入力された音高に対応するように表示が変化して現在表示部に表示される。図5Bでは画面下側に表示された鍵盤部(現在表示部)の鍵盤のうちグレーで表示した部分が入力された音高であるが、一部の鍵について和音構成音と入力した音高との間で不一致を生じている(ここでは、入力がなかった場合も不一致としている)。なお、実際の鍵盤から入力された各音高が、右手で入力されたのか、左手で入力されたのかは判断できないことから、入力された音高の表示では左右を区別して表示していない。
このように、和音名の対応する構成音を現在和音と次和音とに分けて表示するようにし、この際に現在和音の構成音を第1の鍵盤図形を用いて表示し、次和音の構成音を第2の鍵盤図形を用いて表示するようにしたために、実際の鍵盤との対応関係がわかりやすいものとなる。また、1つの和音名に対応する構成音を表示する際、右手で弾くべき音と左手で弾くべき音を区別して表示するようにしたため、複雑な和音も左右の手を使っての簡単な指使いで演奏を行うことができるようになる。さらに、所定区分の歌詞+和音名を表示するとともに、少なくとも現在弾くべき和音名に対応する音を鍵盤図形を用いて表示するようにしたことから、カラオケ感覚で鍵盤での和音演奏の練習が可能となる。
【0031】
上述したような各種画面の表示内容は表示用メモリ部105に表示用データとして記憶され、そこから表示器110に送られて表示器110に表示される(図3参照)。そこで、この表示用メモリ部105の全体構成についての概略を説明する。図6は、表示用メモリ部105の全体構成の一実施例を示す概略図である。
この実施例において、表示用メモリ部105には歌詞・和音表示部に用いられる表示用データを記憶するためのメモリが5つ用意されている。歌詞画面用メモリ201は、表示器110における歌詞・和音表示部に歌詞画面を表示する際に用いる表示用データを一時記憶するためのメモリである。タイミング画面A用メモリ202、タイミング画面B用メモリ203、タイミング画面C用メモリ204、タイミング画面D用メモリ205は、各々表示器110における歌詞・和音表示部にタイミング画面A〜Dを表示する際に用いる表示用データを一時記憶するためのメモリである。そして、表示用メモリ部105には演奏支援表示部に用いられる表示用データを記憶するメモリも2つ用意されている。和音構成音表示用メモリ301及びキーボードパート音表示用メモリ302は、表示器110における演奏支援表示部に後述する鍵盤部を表示する際に用いる表示用データを一時記憶するためのメモリである。表示モード指定部120から指定される画面表示モード(すなわち、表示画面の指定)に応じて、セレクタ401及び402によりいずれかのメモリが選択されて、歌詞・和音表示部用メモリ501あるいは鍵盤表示部用メモリ502に選択されたメモリ内容が転送され実際の表示に利用する。また、演奏中は全メモリ用のデータを並列して作成し記憶していることから、演奏中に画面表示モードを切り替えた場合であっても、直ちに表示器110に表示する画面を切り替えることができる。すなわち、ユーザは演奏中に画面表示モードを切り替えることにより、画面上に表示する内容を変更することができる。
【0032】
ここで、表示モード指定部120で行われるセレクタ401及び402の選択指示、すなわち、画面表示モードの選択処理について説明する。図7は、上記各ボタンが操作された際にCPU1で実行される表示モード選択処理の一実施例を示したフローチャートである。
ステップS20では、歌詞画面ボタンの操作が行われたか否かを判定する。歌詞画面ボタンの操作が行われていた場合(ステップS20のYES)、歌詞画面モードに設定して(ステップS21)、歌詞画面用メモリを選択する(ステップS22)。歌詞画面ボタンの操作が行われていない場合(ステップS20のNO)、ステップS23へジャンプする。ステップS23では、タイミング画面ボタンの操作が行われたか否かを判定する。タイミング画面ボタンの操作が行われている場合(ステップS23のYES)、画面表示モードをタイミング画面モードに設定して(ステップS24)、ステップS25へ行く。タイミング画面ボタンの操作が行われていない場合(ステップS23のNO)、4小節/8小節ボタンの操作が行われており(ステップS32のYES)、かつ、現在の画面表示モードがタイミング画面モードである場合には(ステップS33のYES)、現在の画面表示モードが4小節モードであるならば8小節モードに、現在の画面表示モードが8小節モードならば4小節モードに画面表示モードを設定して(ステップS34)、ステップS25へ行く。
【0033】
一方、4小節/8小節ボタンの操作が行われていない場合(ステップS32のNO)、あるいは4小節/8小節ボタンの操作が行われているが(ステップS32のYES)、現在の画面表示モードがタイミング画面モードでない場合には(ステップS33のNO)、ステップS35へ行く。ステップS35では、構成音/キーボードボタンの操作が行われたか否かを判定する。構成音/キーボードボタンの操作が行われていない場合(ステップS35のNO)、当該処理を終了する。構成音/キーボードボタンの操作が行われている場合(ステップS35のYES)、現在が和音構成音モードであるならばキーボードパート音モードに、現在がキーボードパート音モードならば和音構成音モードに画面表示モードを設定する(ステップS36)。こうして設定された画面表示モードが和音構成音モードである場合には(ステップS37のYES)和音構成音表示用メモリを選択し(ステップS39)、和音構成音モードでない場合には(ステップS37のNO)キーボードパート音表示用メモリを選択する(ステップS38)。ステップS40では、現在の画面表示モードがタイミング画面モードであるか否かを判定し、タイミング画面モードであるならば(ステップS40のYES)ステップS25へ飛び、タイミング画面モードでないならば(ステップS40のNO)当該処理を終了する。
ステップS25では、現在の画面表示モードが和音構成音モードであるか否かを判定する。和音構成音モードであって、かつ、8小節モードである場合には(ステップS25及びステップS26が共にYES)、タイミング画面A用メモリが選択される(ステップS27)。和音構成音モードであって、かつ、8小節モードでない場合には(ステップS25がYESであってステップS26がNO)、タイミング画面B用メモリが選択される(ステップS28)。和音構成音モードでなく、かつ、8小節モードである場合には(ステップS25がNOであってステップS26がYES)、タイミング画面C用メモリが選択される(ステップS30)。和音構成音モードでなく、かつ、8小節モードでない場合には(ステップS25及びステップS26が共にNO)、タイミング画面D用メモリが選択される(ステップS31)。
【0034】
以上のようにして、画面表示モードを決定し、それに対応するメモリが選択されることにより、表示器110上に表示する画面が決定される。すなわち、歌詞ボタンが操作されると、タイミング画面に替えて歌詞画面が選択される。この際、鍵盤表示には変更がない。タイミング画面ボタンが操作されると、歌詞画面に替えてタイミング画面が選択される。タイミング画面A〜Dのどの画面を選択するかは、その時点で設定されているモード(4小節なのか/8小節表示なのか、構成音なのかキーボードパート音表示なのか)により変化する。8小節&構成音表示の場合、タイミング画面Aが選択される。4小節&構成音表示の場合、タイミング画面Bが選択される。8小節&キーボードパート音表示の場合、タイミング画面Cが選択される。4小節&キーボードパート音表示の場合、タイミング画面Dが選択される。初期状態としては、例えば8小節&構成音表示が設定されており、タイミング画面Aが選択される。4小節/8小節ボタンが操作されると、4小節モードなのか/8小節モードなのかが切り替わる。なお、歌詞画面モードのときに4小節/8小節ボタンが操作された場合には、当該操作は無効となる。すなわち、歌詞画面モードのままである。タイミング画面モードのときに4小節/8小節ボタンが操作された場合には、4小節モード/8小節モードの設定に応じてタイミング画面の種類が切り替わる。構成音/キーボードボタンが操作されると、構成音モードなのかキーボード音モードなのかが切り替わる。これに応じて、和音構成音表示/キーボードパート音表示が切り替わる。また、タイミング画面モードのときに構成音/キーボードボタンが操作された場合には、構成音モード/キーボードパート音モードの設定に応じてタイミング画面の種類が切り替わる。
【0035】
既に説明したように、この実施の形態ではCPU1によって曲データの表示に関する各種処理等を行う。すなわち、曲データ表示制御装置の処理はCPU1が所定のプログラム(ソフトウエア)を実行することにより実施される。勿論、コンピュータソフトウエアの形態に限らず、DSP(ディジタル・シグナル・プロセッサ)によって処理されるマイクロプログラムの形態でも実施可能であり、また、この種のプログラムの形態に限らず、ディスクリート回路又は集積回路若しくは大規模集積回路あるいはゲートアレイ等を含んで構成された専用ハードウエア装置の形態で実施してもよい。
以下、図3に示した各機能毎にCPU1によって実行される本発明に係る曲データ表示制御装置の処理について図8〜図14までのフローチャートを用いて説明する。
【0036】
まず、曲データ読出し部101における処理について図8を用いて説明する。図8は、CPU1で実行される曲データ読出し処理の一実施例を示したフローチャートである。ただし、曲データ読出し時の例外処理(例えば、先頭のタイミングデータの読出し等の処理)の記載は省略している。
ステップS1では、読み込んだ曲データが2小節/4小節分経過したか否かを判定する。2小節/4小節分経過していない場合(ステップS1のNO)、ステップS4の処理へジャンプする。2小節/4小節分経過した場合には(ステップS1のYES)、ステップS2の処理へ進み、2小節/4小節分のキーボードパートのノートイベント、歌詞イベント、和音名イベントを先読みする。そして、先読みした各イベントに基づいて、タイミング画面を作成し、画面上に描画する(ステップS3)。すなわち、タイミング画面C及びDを作成するために利用するキーボードパートのノートイベント、タイミング画面A〜Dを作成するために利用する歌詞イベントと和音名イベントを2小節分又は4小節分先読みする。4小節画面(タイミング画面BとD)では、先読みした2小節分のデータが4小節のうちの半分となり、8小節画面(タイミング画面AとC)では、先読みした4小節分のデータが8小節のうちの半分となる。そして、歌詞文字や和音が時間軸に沿った位置に配置される。ただし、隣り合った歌詞文字や和音のタイミングが近接している場合には、歌詞文字や和音が重なって表示されることもある。
【0037】
ステップS4では、タイミングデータが示す時間が経過したか否かを判定する。つまり、曲データ中からタイミングデータが読み出されると、そのタイミングデータが示す時間の経過が計測される。タイミングデータが示す時間が経過した場合(ステップS4のYES)、イベントを読み出すタイミングであることから、次のイベントデータを読み出す(ステップS5)。この読み出したイベントデータが演奏イベントデータであるか否かを判定する(ステップS6)。演奏イベントである場合(ステップS6のYES)、さらに当該演奏イベントデータがキーボードパートのノートオンイベントであるか否かを判定する(ステップS7)。キーボードパートのノートイベントである場合(ステップS7のYES)、キーボードパートの次のノートオンイベントデータを先読みする(ステップS8)。キーボードパートのノートイベントでない場合には(ステップS7のNO)、キーボードパートの次のノートオンイベントデータの先読み(ステップS8)を行わない。こうして得られたデータは、キーボードパートオン表示用として利用される。その後、演奏データ処理部102が起動される(ステップS9)。
【0038】
ステップS6において、読み出したイベントデータが演奏イベントデータでなく(ステップS6のNO)、和音名イベントデータであった場合には(ステップS10のYES)、次の和音名データも先読みする(ステップS11)。こうして得られたデータは、和音名の表示態様(色等)の変更と和音構成音表示用に利用される。その後、和音名データ処理部104(ステップS12)と和音名→音高変換部106(ステップS13)が起動される。ステップS10において、読み出したイベントデータが和音名イベントデータでない場合には(ステップS10のNO)、当該イベントデータは歌詞イベントデータである。ステップS14では、この歌詞イベントデータが改行/改ページデータであるか否かを判定する。改行/改ページデータであった場合(ステップS14のYES)、次の改行/改ページまでの歌詞イベントデータ、和音名イベントデータを先読みする(ステップS15)。そして、読み出した各イベントデータに基づいて歌詞画面を作成し画面上に描画する(ステップS16)。この際に、得られたデータを歌詞画面に対応するメモリ(歌詞画面用メモリ)だけでなく、上述したタイミング画面A〜Dのそれぞれに対応する表示用メモリ(図6参照)の全てに同時に記憶することによって、タイミング画面A〜Dにおける表示データを同時に作成する。すなわち、このステップS16の処理において、例えばタイミング画面C及びD上に表示されるゲートタイム表示などの表示データも作成される。また、この際に既に選択されている表示モードに従った画面表示を行う。このように、得られたデータは歌詞画面だけでなくタイミング画面の表示用データとしても利用される。そして、この場合における画面の更新においても、上記したタイミング画面と同様に画面の上段・下段の半分ずつ交互に行われる。
一方、歌詞イベントデータが改行/改ページデータでない場合(ステップS14のNO)、すなわち普通の歌詞イベントデータの場合、次の歌詞イベントデータを先読みする(ステップS17)。こうして得られたデータは、歌詞の表示態様(色等)の変更に利用される。その後、歌詞データ処理部103が起動される(ステップS18)。ステップS19では、次のタイミングデータを読み出し、ステップS1の処理へ戻り、ステップS1〜ステップS19までの各処理を繰り返し行う。
【0039】
次に、演奏データ処理部102における処理について図9を用いて説明する。図9は、CPU1で実行される演奏データ処理の一実施例を示したフローチャートである。
ステップS51では、読み出された演奏イベントデータがノートイベントであるか否かを判定する。ノートイベントである場合(ステップS51のYES)、音源へノートイベントを供給する(ステップS52)。さらに、該ノートイベントはキーボードパートのチャンネルか否かを判定する(ステップS53)。読み出されたノートイベントがキーボードパートに設定されているチャンネルである場合(ステップS53のYES)、キーボードパート表示用メモリの現在表示部に、該ノートイベントに対応する音高を描画する(ステップS54)。この際に、該ノートイベントがオンイベントであるならば音高を表示し、オフイベントであるならば音高を消去する。また、オクターブシフトの指示があれば、鍵盤の音域内に音高が入るようにオクターブシフトする。ステップS55では該ノートイベントがノートオンイベントであるか否かを判定し、ノートオンイベントである場合には(ステップS55のYES)、キーボードパート表示用メモリの次表示部の音高表示を消去するとともに(ステップS56)、キーボードパート表示用メモリの次表示部に先読みされた次ノートイベントに対応する音高を描画する(ステップS57)。この場合にも、オクターブシフトの指示があれば、鍵盤の音域内に音高が入るようにオクターブシフトする。当該キーボードパートの表示では、和音構成音の表示とは異なり、右左手の区別はしない。
【0040】
一方、ステップS51においてノートイベントでないと判定された場合(ステップS51のNO)、読み出された演奏イベントデータがプログラムチェンジであるか否かを判定する(ステップS58)。プログラムチェンジが読み出されていた場合には(ステップS58のYES)、音源へプログラムチェンジイベントを供給する(ステップS59)。そして、該プログラムチェンジはキーボード関連の音色か否かを判定する(ステップS60)。キーボード関連の音色であれば(ステップS60のYES)、このプログラムチェンジのチャンネルをキーボードパートに設定する(ステップS61)。すなわち、プログラムチェンジが読み出された場合には、当該プログラムチェンジがキーボード関連の音色(例えば、ピアノ系あるいはオルガン系など)であれば、そのプログラムチェンジのチャンネルをキーボードパートのチャンネルとして設定する。上記の音高表示に用いられるチャンネルは、ここで設定されたチャンネルである。読み出された演奏イベントデータがプログラムチェンジでない場合には(ステップS58のNO)、「その他のイベントの処理」を行う(ステップS62)。当該「その他のイベントの処理」としては、ボリュームイベントに対応するボリューム設定、エフェクト関連イベントに対応するエフェクト設定、テンポイベントに対応する読出しテンポ設定、エンドイベントに対応する読出し停止制御、等の処理がある。
【0041】
歌詞データ処理部103における処理について図10を用いて説明する。図10は、CPU1で実行される歌詞データ表示処理の一実施例を示したフローチャートである。当該処理は、歌詞画面用メモリ、タイミング画面A〜D用メモリ(図6参照)全てに対してデータ描画(すなわち、記憶)及びデータ消去を行う処理である。
まず、第1の色で表示中の歌詞文字(現在歌詞文字)を一旦消去し(ステップS71)、この消去した歌詞文字を通常の表示態様(色等)で描画する(ステップS72)。また、第2の色で表示中の歌詞文字(次歌詞文字)を一旦消去し(ステップS73)、この消去した歌詞文字を第1の表示態様(色等)で描画する(ステップS74)。さらに、先読みした歌詞イベントデータに対応する表示中の歌詞文字を一旦消去し(ステップS75)、この消去した歌詞文字を第2の表示態様(色等)で描画する(ステップS76)。このようにして、画面上に歌詞の文字を色替えしながら表示する。
【0042】
ここで、図10に示した歌詞データ表示処理の動作を説明する。すなわち、上記歌詞データ表示処理により行われる画面上の歌詞の文字の色替えについて、図11を用いて簡単に説明する。図11は、歌詞「家(うち)に帰ろう」(図4Bの第4小節参照)を例に歌詞文字の色替えについて説明するための説明図である。ただし、図11では歌詞の一部分、特に歌詞が重なって表示されている部分を中心に示している。また、図11では斜線を付した文字が第1の色で表示された文字を、塗りつぶした文字が第2の色で表示された文字を、白抜きの文字が通常の色で表示された文字をそれぞれ示すものとする。
図11(A)は、「家(うち)」を現在歌詞文字として表示している状態である。すなわち、「家(うち)」が第1の色で表示され、「に」が第2の色で表示され、「帰」が通常の色で表示されている。このような状態で、「に」を示す歌詞イベントデータが読み出されると、図11(B)に示すように「に」を現在歌詞文字として表示する。この際に、第1の色で表示されていた「家(うち)」が消去されて、新たに通常の色で表示される(図10のステップS71及び72参照)。第2の色で表示されていた「に」が消去されて、新たに第1の色で表示される(図10のステップS73及び74参照)。そして、通常の色で表示されていた「帰」が消去されて、新たに第2の色で表示される(図10のステップS75及び76参照)。このようにして、「家(うち)」から「に」へ現在歌詞文字の表示が移る。
なお、歌詞の文字が重なっている箇所では、どちらかの色を上に優先的に表示するようにしてよい。例えば、現在歌詞文字を示す第1の色を次歌詞文字を示す第2の色の上に表示してもよいし、反対に次歌詞文字を示す第2の色を現在歌詞文字を示す第1の色の上に表示するようにしてもよい。また、上述の例では、第1の色と第2の色と通常の色との3色を使用して文字を表示する例を示したが、文字の表示は現在歌詞文字と次歌詞文字とが区別しうるものであればよく、2色あるいはより多くの複数の色を用いて表示するものであってもよい。
【0043】
和音名データ処理部104における処理について図12を用いて説明する。図12は、CPU1で実行される和音名データ表示処理の一実施例を示したフローチャートである。当該処理は、歌詞画面用メモリ、タイミング画面A〜D用メモリ(図6参照)全てに対してデータ描画(すなわち、記憶)及びデータ消去を行う処理である。
まず、第1の色で表示中の和音名(現在和音名)を一旦消去し(ステップS81)、この消去した和音名を通常の表示態様(色等)で描画する(ステップS82)。また、第2の色で表示中の和音名(次和音名)を一旦消去し(ステップS83)、この消去した和音名を第1の表示態様(色等)で描画する(ステップS84)。さらに、先読みした和音名イベントデータに対応する表示中の和音名を一旦消去し(ステップS85)、この消去した和音名を第2の表示態様(色等)で描画する(ステップS86)。このようにして、画面上に和音名の文字を色替えしながら表示する。
なお、和音名の文字の色替えについても上述の歌詞の文字の色替えと同様であることから、和音名の文字の色替えについての説明は省略する。
【0044】
和音名→音高変換部106における処理について図13を用いて説明する。図13は、CPU1で実行される和音名→音高変換処理の一実施例を示したフローチャートである。
まず、読み出された和音名に基づいて構成音テーブルを参照して、和音名に対応する構成音を得る(ステップS91)。構成音テーブルは、和音名毎にその和音名に対応する複数の構成音の音高を記憶したもので、各構成音を左右どちらの手で押すべきかを示す情報も記憶している。和音構成音表示用メモリの現在表示部の音高表示を消去し、得られた構成音の音高を描画する(ステップS92)。この場合には前記左右手を示す情報に基づいて右手及び左手を区別する。また、オクターブシフトの指示があれば、鍵盤の音域内に音高が入るようにオクターブシフトする。先読みされた和音名に基づいて構成音テーブルを参照して、和音名に対応する構成音を得る(ステップS93)。和音構成音表示用メモリの次表示部の音高表示を消去し、得られた構成音の音高を描画する(ステップS94)。この場合においても、右手及び左手を区別する。また、オクターブシフトの指示があれば、鍵盤の音域内に音高が入るようにオクターブシフトする。このようにして、画面上に和音名に対応する構成音を表示する。
【0045】
オクターブ制御部107における処理について図14を用いて説明する。図14は、CPU1で実行されるオクターブ制御処理の一実施例を示したフローチャートである。
まず、接続されている鍵盤の音域に関する情報を取得する若しくは判別する(ステップS101)。この音域に関する情報の取得方法としては、次のような方法がある。第1に、ユーザが音域を指定する方法がある。例えば、ユーザが「F2〜C5」のように音域を指定する。第2に、ユーザに鍵盤の最高鍵と最低鍵を押させて、それに伴う最高ノートナンバと最低ノートナンバを取得する。第3に、鍵盤に対して音域を要求するコマンドを送り、鍵盤がそれを受信することに伴って音域情報をオクターブ制御部に送信する。ステップS102では、こうして得られた音域に関する情報に対して、オクターブシフトを行う必要があるかないかの判定を行う。すなわち、本装置において表示可能な音高が取得した音域から外れる場合、鍵盤の範囲内に音高が収まるよう、オクターブシフトを行う必要があるかどうかを判定する。オクターブシフトが必要である場合(ステップS102のYES)、オクターブシフトを指示する(ステップS103)。オクターブシフトが必要でない場合(ステップS102のNO)、オクターブシフトを解除する(ステップS104)。このオクターブ制御部から指示されるオクターブシフトは、1オクターブに限らず数オクターブにわたるものでもよい。また、高音側のみ、あるいは低音側のみをシフトするようにしてもよいし、高音側と低音側両方をシフトするようにしてもよい。
このように、接続された鍵盤の音域を判別して、必要に応じてオクターブを折り返して弾くべき音を表示するようにすることにより、転回形での和音構成音表示を行うことができ、音域の狭い鍵盤を用いて手動演奏を行う場合であっても、鍵の存在しない場所の音高を和音構成音として指示する恐れが無くなる。
【0046】
次に、歌詞・和音表示部における表示の変形例について簡単に説明する。図15は、歌詞・和音表示部におけるタイミング画面の変形例を示した図である。ただし、図15は4小節表示の例のみを示した。
タイミング画面C(すなわち、キーボードパート音表示における8小節表示:図示せず)又は、タイミング画面D(すなわち、キーボードパート音表示における4小節表示:図15に示した例)において、右手パートと左手パートを区別して表示する。図中の‘R’で示したのが右手パートであり、‘L’で示したのが左手パートである。このような場合には、異なる2つのチャンネルにキーボードパートを設定しておき、一方を右手パートに、他方を左手パートに対応させる。この左右パートの決定の方法としては次のような方法がある。予め特定のチャンネルをそれぞれ右手パート、左手パートに対応付けて設定しておく。例えば「チャンネル1」は右手パートとし、「チャンネル2」は左手パートとする。あるいは、各チャンネルの演奏データの音域を判定し、高い方を右手パートとし、低い方を左手パートとする。あるいは、各チャンネルの音数を判定し、多い方(和音指定ありとみなす)を右手パート、少ない方(ベース指定とみなす)を左手パートとする。勿論、逆でもよい。すなわち、多い方を左手パートに、少ない方を右手パートとしてもよい。なお、上述の例では右手及び左手の両方を表示した例を示したが、右手表示のみ、あるいは左手表示のみでもよい。そして、右手表示のみ、左手表示のみ、両方表示をユーザが選択できるようにしてもよい。
このように、和音名データに基づいて和音名を表示するとともに、右手パート、左手パートの演奏タイミングを別々に表示するようにすることにより、1つの和音に基づく演奏を両手で行う際にどのようなタイミングで左右の手で演奏を行えばよいのかがユーザにわかりやすくなる、という利点がある。
【0047】
本実施例に係る曲データ表示制御装置を電子楽器に適用した場合、電子楽器は鍵盤楽器の形態に限らず、弦楽器や管楽器、あるいは打楽器等どのようなタイプの形態でもよい。また、そのような場合に、音源装置、自動演奏装置等を1つの電子楽器本体に内蔵したものに限らず、それぞれが別々に構成され、MIDIインタフェースや各種ネットワーク等の通信手段を用いて各装置を接続するように構成されたものにも同様に適用できることはいうまでもない。また、パソコンとアプリケーションソフトウェアという構成であってもよく、この場合処理プログラムを磁気ディスク、光ディスクあるいは半導体メモリ等の記憶メディアから供給したり、ネットワークを介して供給するものであってもよい。さらに、カラオケ装置やゲーム装置、あるいは携帯電話等の携帯型通信端末、自動演奏ピアノ等に適用してもよい。
【0048】
なお、曲データのフォーマットは、イベントの発生時刻を曲や小節内における絶対時間で表した『イベント+絶対時間』形式のもの、イベントの発生時刻を1つ前のイベントからの時間で表した『イベント+相対時間』形式のもの、音符の音高と符長あるいは休符と休符長で曲データを表した『音高(休符)+符長』形式のもの、演奏の最小分解能毎にメモリの領域を確保し、演奏イベントの発生する時刻に対応するメモリ領域にイベントを記憶した『ベタ方式』形式のものなど、どのような形式のものでもよい。また、複数チャンネル分の曲データが存在する場合は、複数のチャンネルのデータが混在した形式であってもよいし、各チャンネルのデータがトラック毎に別れているような形式であってもよい。さらに、曲データの処理方法は、設定されたテンポに応じて処理周期を変更する方法、処理周期は一定で自動演奏中のタイミングデータの値を設定されたテンポに応じて変更する方法、処理周期は一定で1回の処理において曲データ中のタイミングデータの計数の仕方をテンポに応じて変更する方法等、どのようなものであってもよい。
また、メモリ上において、時系列の曲データが連続する領域に記憶されていてもよいし、飛び飛びの領域に散在して記憶されている曲データを、連続するデータとして別途管理するようにしてもよい。すなわち、時系列的に連続する曲データとして管理することができればよく、メモリ上で連続して記憶されているか否かは問題ではない。
【0049】
なお、従来より知られている歌詞色替え技術と本発明とを併用してもよいことは勿論である。例えば、本発明に従って現在演奏中の位置にある1文字と次の演奏が行われる位置にある1文字とを異なる色で表示して、これらの文字の読み取りがはっきりできるようにした上で、従来知られたメロディ進行に応じた連続的な文字色替え(歌詞が終わった箇所を連続的に別の色で表示していく)を適用するようにしてよい。
なお、上述した例ではキーボードパートの和音進行や演奏タイミングを表示するようにしたがこれに限らず、その他の演奏パート(例えば、打楽器等)の演奏タイミングを表示するようにしてもよい。
【0050】
【発明の効果】
本発明によれば、現在の進行位置の歌詞文字や和音名と、次の位置の歌詞文字や和音名が重なっても識別できるように、両者を異なる表示態様(例えば、異なる色等)で表示するようにしたので、たとえ歌詞文字や和音名が重なったとしても、表示態様が異なるために容易に現時位置の文字と次位置の文字とを識別することができる、という効果が得られる。また、歌詞文字や和音名を時間軸に沿って表示するものにおいて、表示倍率(時間方向のスケール)の異なる複数の画面を用意し、選択できるようにしたため、和音変更が頻繁に起こる曲においては広い範囲を表示させて先行する和音を確認しやすくすることができる。和音変更があまり起こらない曲においては、狭い範囲を表示させて歌詞の表示間隔を広げて歌詞を見やすくすることができる。
また、和音名データに基づいて和音名を表示するものにおいて、(和音名とは別の)キーボードパートのノートイベントを検出し、和音の演奏タイミングを表示するようにしたため、曲中のキーボードパートでの演奏タイミングがわかり、単に和音変更タイミングでのみ和音演奏を行うよりも、曲を弾いている気分をより深く味わうことができる、という優れた効果が得られる。
【図面の簡単な説明】
【図1】 この発明に係る曲データ表示制御装置及び自動演奏装置を内蔵した電子楽器の実施の形態を示すハード構成ブロック図である。
【図2】 曲データのフォーマットの一実施例を示した概略図である。
【図3】 図1に示した電子楽器のCPU1によって実行される曲データ表示制御装置の処理を説明するための機能ブロック図である。
【図4A】 歌詞・和音表示部に歌詞画面を表示した場合の一実施例である。
【図4B】 歌詞・和音表示部に和音名変更タイミングを表示した実施例であり、1行につき4小節分の歌詞及び和音名を表示した場合である。
【図4C】 歌詞・和音表示部に和音名変更タイミングを表示した実施例であり、1行につき2小節分の歌詞及び和音名を表示した場合である。
【図4D】 歌詞・和音表示部にキーボードパート音を表示した場合の一実施例である。
【図5A】 演奏支援表示部に鍵盤を表示した場合における表示例であり、現在和音と次和音を表示した状態を示したものである。
【図5B】 演奏支援表示部に鍵盤を表示した場合における表示例であり、実際の鍵盤から現在和音を入力した状態を示したものである。
【図6】 表示用メモリ部の全体構成の一実施例を示す概略図である。
【図7】 各ボタンが操作された際の表示モード選択処理の一実施例を示したフローチャートである。
【図8】 CPU1で実行される曲データ読出し処理の一実施例を示したフローチャートである。
【図9】 CPU1で実行される演奏データ処理の一実施例を示したフローチャートである。
【図10】 CPU1で実行される歌詞データ表示処理の一実施例を示したフローチャートである。
【図11】 図10に示した歌詞データ表示処理の動作を説明するための説明図である。
【図12】 CPU1で実行される和音名データ表示処理の一実施例を示したフローチャートである。
【図13】 CPU1で実行される和音名→音高変換処理の一実施例を示したフローチャートである。
【図14】 CPU1で実行されるオクターブ制御処理の一実施例を示したフローチャートである。
【図15】 歌詞・和音表示部におけるタイミング画面C又はDの変形例を示した図である。
【符号の説明】
1…CPU、1A…タイマ、2…ROM、3…RAM、4…鍵盤インタフェース、4A…鍵盤、5…スイッチインタフェース、5A…スイッチ、6…ディスプレイインタフェース、6A…ディスプレイ、7…音源回路、8…効果回路、8A…サウンドシステム、9…外部記憶装置、10…MIDIインタフェース、10A…他のMIDI機器、11…通信インタフェース、11A…サーバコンピュータ、11B…通信ネットワーク、1D…データ及びアドレスバス

Claims (3)

  1. 表示手段と、
    前記表示手段において演奏曲の進行に合わせて歌詞を表示させる歌詞表示制御手段と、
    前記表示手段において前記演奏曲の進行に合わせて和音情報を表示させる和音表示制御手段と、
    前記演奏曲の演奏データを提供する手段と、
    前記演奏データに基づき和音伴奏の発音タイミングとそのゲートタイムを検出し、検出した発音タイミングとそれに続くゲートタイムの長さを示す表示を前記和音情報の表示に対応づけて表示する演奏タイミング表示制御手段と
    を具える曲データ表示制御装置。
  2. 前記演奏タイミング表示制御手段は、右手パートと左手パートとを区別して前記表示を行う請求項1に記載の曲データ表示制御装置。
  3. 演奏曲の進行に合わせて、所定の演奏区間にわたる歌詞文字列を表示装置に表示するステップと、
    前記表示装置に表示された歌詞文字列の近傍において前記演奏曲の進行に合わせて所定の和音情報を表示するステップと、
    前記演奏曲の演奏データに基づき和音伴奏の発音タイミングとそのゲートタイムを検出し、検出した発音タイミングとそれに続くゲートタイムの長さを示す表示を前記和音情報の表示に対応づけて表示するステップと
    を具える曲データ表示方法。
JP33646499A 1999-11-26 1999-11-26 曲データ表示制御装置及び方法 Expired - Fee Related JP3743231B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP33646499A JP3743231B2 (ja) 1999-11-26 1999-11-26 曲データ表示制御装置及び方法
US09/717,578 US6582235B1 (en) 1999-11-26 2000-11-21 Method and apparatus for displaying music piece data such as lyrics and chord data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP33646499A JP3743231B2 (ja) 1999-11-26 1999-11-26 曲データ表示制御装置及び方法

Publications (2)

Publication Number Publication Date
JP2001154665A JP2001154665A (ja) 2001-06-08
JP3743231B2 true JP3743231B2 (ja) 2006-02-08

Family

ID=18299420

Family Applications (1)

Application Number Title Priority Date Filing Date
JP33646499A Expired - Fee Related JP3743231B2 (ja) 1999-11-26 1999-11-26 曲データ表示制御装置及び方法

Country Status (2)

Country Link
US (1) US6582235B1 (ja)
JP (1) JP3743231B2 (ja)

Families Citing this family (65)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4641083B2 (ja) * 2000-04-19 2011-03-02 ローランド株式会社 楽譜表示装置
JP3597465B2 (ja) * 2000-12-28 2004-12-08 コナミ株式会社 情報記録装置及び情報再生装置
JP2002351473A (ja) * 2001-05-24 2002-12-06 Mitsubishi Electric Corp 音楽配信システム
JP4540902B2 (ja) * 2001-09-28 2010-09-08 ローランド株式会社 電子楽器
US7174510B2 (en) * 2001-10-20 2007-02-06 Hal Christopher Salter Interactive game providing instruction in musical notation and in learning an instrument
US9852649B2 (en) * 2001-12-13 2017-12-26 Mind Research Institute Method and system for teaching vocabulary
US20030177014A1 (en) * 2002-02-13 2003-09-18 Crawford Robert E. System and method for displaying multiple language text during performance or play of a musical work
US20040011188A1 (en) * 2002-03-07 2004-01-22 Smith Larry W. Karaoke keyboard synthesized lyric maker
JP4075565B2 (ja) 2002-03-08 2008-04-16 ヤマハ株式会社 楽譜表示制御装置および楽譜表示制御プログラム
JP2003302984A (ja) * 2002-04-11 2003-10-24 Yamaha Corp 歌詞表示方法、歌詞表示プログラムおよび歌詞表示装置
US8491311B2 (en) * 2002-09-30 2013-07-23 Mind Research Institute System and method for analysis and feedback of student performance
JP2004240257A (ja) * 2003-02-07 2004-08-26 Kawai Musical Instr Mfg Co Ltd 電子楽器
US20040244566A1 (en) * 2003-04-30 2004-12-09 Steiger H. M. Method and apparatus for producing acoustical guitar sounds using an electric guitar
JP4049014B2 (ja) * 2003-05-09 2008-02-20 ヤマハ株式会社 楽譜表示装置および楽譜表示コンピュータプログラム
JP2004348012A (ja) * 2003-05-26 2004-12-09 Oki Electric Ind Co Ltd 携帯端末におけるカラオケシステム
US7094960B2 (en) * 2003-06-27 2006-08-22 Yamaha Corporation Musical score display apparatus
JP4096851B2 (ja) * 2003-09-18 2008-06-04 ヤマハ株式会社 楽譜表示装置及びプログラム
JP4618704B2 (ja) * 2003-09-04 2011-01-26 株式会社河合楽器製作所 コード練習装置
JP4501417B2 (ja) * 2003-11-18 2010-07-14 ヤマハ株式会社 楽譜表示装置および楽譜表示方法を実現するためのプログラム
JP4529489B2 (ja) * 2004-03-08 2010-08-25 ヤマハ株式会社 画像生成装置および楽器
JP4622415B2 (ja) * 2004-09-22 2011-02-02 ヤマハ株式会社 音楽情報表示装置及びプログラム
JP2006106310A (ja) * 2004-10-05 2006-04-20 Yamaha Corp 自動演奏制御機能付き電子楽器
US20060274144A1 (en) * 2005-06-02 2006-12-07 Agere Systems, Inc. Communications device with a visual ring signal and a method of generating a visual signal
US7571015B2 (en) * 2005-07-14 2009-08-04 Perception Digital Limited Personal audio player
JP4994623B2 (ja) * 2005-08-31 2012-08-08 富士通株式会社 テキスト編集・再生装置、コンテンツ編集・再生装置及びテキスト編集・再生方法
US20070046678A1 (en) * 2005-09-01 2007-03-01 Peterson Matthew R System and method for training with a virtual apparatus
JP4513713B2 (ja) * 2005-10-21 2010-07-28 カシオ計算機株式会社 演奏教習装置および演奏教習処理のプログラム
US8304642B1 (en) * 2006-03-09 2012-11-06 Robison James Bryan Music and lyrics display method
US7459624B2 (en) 2006-03-29 2008-12-02 Harmonix Music Systems, Inc. Game controller simulating a musical instrument
WO2007129250A1 (en) * 2006-05-08 2007-11-15 Koninklijke Philips Electronics N.V. Method and electronic device for aligning a song with its lyrics
US7601906B2 (en) * 2006-08-31 2009-10-13 Corevalus Systems, Llc Methods and systems for automated analysis of music display data for a music display system
WO2008094415A2 (en) * 2007-01-18 2008-08-07 The Stone Family Trust Of 1992 Real time divisi with path priority, defined note ranges and forced octave transposition
US8678896B2 (en) 2007-06-14 2014-03-25 Harmonix Music Systems, Inc. Systems and methods for asynchronous band interaction in a rhythm action game
EP2206539A1 (en) 2007-06-14 2010-07-14 Harmonix Music Systems, Inc. Systems and methods for simulating a rock band experience
JP2009069788A (ja) * 2007-09-12 2009-04-02 Kazuomi Makiyama カラオケ用の字幕および同字幕を記録した記憶媒体
US8026435B2 (en) * 2009-05-29 2011-09-27 Harmonix Music Systems, Inc. Selectively displaying song lyrics
US20100304811A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Scoring a Musical Performance Involving Multiple Parts
US7982114B2 (en) * 2009-05-29 2011-07-19 Harmonix Music Systems, Inc. Displaying an input at multiple octaves
US7935880B2 (en) 2009-05-29 2011-05-03 Harmonix Music Systems, Inc. Dynamically displaying a pitch range
US20100304810A1 (en) * 2009-05-29 2010-12-02 Harmonix Music Systems, Inc. Displaying A Harmonically Relevant Pitch Guide
US8465366B2 (en) 2009-05-29 2013-06-18 Harmonix Music Systems, Inc. Biasing a musical performance input to a part
US8080722B2 (en) * 2009-05-29 2011-12-20 Harmonix Music Systems, Inc. Preventing an unintentional deploy of a bonus in a video game
US8076564B2 (en) * 2009-05-29 2011-12-13 Harmonix Music Systems, Inc. Scoring a musical performance after a period of ambiguity
US8449360B2 (en) 2009-05-29 2013-05-28 Harmonix Music Systems, Inc. Displaying song lyrics and vocal cues
US8017854B2 (en) * 2009-05-29 2011-09-13 Harmonix Music Systems, Inc. Dynamic musical part determination
US7923620B2 (en) * 2009-05-29 2011-04-12 Harmonix Music Systems, Inc. Practice mode for multiple musical parts
EP2467099B1 (en) * 2009-08-19 2019-05-15 Synthes GmbH Apparatus for augmenting bone
US9981193B2 (en) 2009-10-27 2018-05-29 Harmonix Music Systems, Inc. Movement based recognition and evaluation
WO2011056657A2 (en) 2009-10-27 2011-05-12 Harmonix Music Systems, Inc. Gesture-based user interface
US8636572B2 (en) 2010-03-16 2014-01-28 Harmonix Music Systems, Inc. Simulating musical instruments
US8562403B2 (en) 2010-06-11 2013-10-22 Harmonix Music Systems, Inc. Prompting a player of a dance game
US20110306397A1 (en) 2010-06-11 2011-12-15 Harmonix Music Systems, Inc. Audio and animation blending
US9358456B1 (en) 2010-06-11 2016-06-07 Harmonix Music Systems, Inc. Dance competition game
US9024166B2 (en) 2010-09-09 2015-05-05 Harmonix Music Systems, Inc. Preventing subtractive track separation
US8716583B2 (en) * 2011-03-15 2014-05-06 David M. Forrest Musical learning and interaction through shapes
US9147386B2 (en) 2011-03-15 2015-09-29 David Forrest Musical learning and interaction through shapes
JP2013097089A (ja) * 2011-10-31 2013-05-20 Casio Comput Co Ltd 演奏動作表示装置、方法及びプログラム
JP6070010B2 (ja) 2011-11-04 2017-02-01 ヤマハ株式会社 音楽データ表示装置および音楽データ表示方法
WO2013111293A1 (ja) * 2012-01-26 2013-08-01 キャスティングメディア株式会社 音楽支援装置および音楽支援システム
JP2014130302A (ja) * 2012-12-31 2014-07-10 Koshidaka Holdings Co Ltd カラオケ装置
US9418641B2 (en) 2013-07-26 2016-08-16 Audio Impressions Swap Divisi process
US9064484B1 (en) * 2014-03-17 2015-06-23 Singon Oy Method of providing feedback on performance of karaoke song
JP6680047B2 (ja) * 2016-04-01 2020-04-15 ブラザー工業株式会社 カラオケシステム及びカラオケ用プログラム
US20220148546A1 (en) * 2019-04-08 2022-05-12 Alphatheta Corporation Reproduction control device, program, and reproduction control method
CN111639226A (zh) * 2020-05-13 2020-09-08 腾讯音乐娱乐科技(深圳)有限公司 一种歌词显示方法、装置及设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5048390A (en) 1987-09-03 1991-09-17 Yamaha Corporation Tone visualizing apparatus
JP3241372B2 (ja) * 1990-11-27 2001-12-25 パイオニア株式会社 カラオケ演奏方法
US5723803A (en) 1993-09-30 1998-03-03 Yamaha Corporation Automatic performance apparatus
US5613909A (en) * 1994-07-21 1997-03-25 Stelovsky; Jan Time-segmented multimedia game playing and authoring system
JP3226011B2 (ja) 1995-09-29 2001-11-05 ヤマハ株式会社 歌詞表示装置
JP3008834B2 (ja) 1995-10-25 2000-02-14 ヤマハ株式会社 歌詞表示装置
JP3293745B2 (ja) * 1996-08-30 2002-06-17 ヤマハ株式会社 カラオケ装置
US5739457A (en) * 1996-09-26 1998-04-14 Devecka; John R. Method and apparatus for simulating a jam session and instructing a user in how to play the drums
JP3260653B2 (ja) * 1997-03-25 2002-02-25 ヤマハ株式会社 カラオケ装置
JP3684892B2 (ja) * 1999-01-25 2005-08-17 ヤマハ株式会社 和音提示装置および記憶媒体
US6369311B1 (en) * 1999-06-25 2002-04-09 Yamaha Corporation Apparatus and method for generating harmony tones based on given voice signal and performance data

Also Published As

Publication number Publication date
JP2001154665A (ja) 2001-06-08
US6582235B1 (en) 2003-06-24

Similar Documents

Publication Publication Date Title
JP3743231B2 (ja) 曲データ表示制御装置及び方法
JP3719124B2 (ja) 演奏指示装置及び方法並びに記憶媒体
JP3724376B2 (ja) 楽譜表示制御装置及び方法並びに記憶媒体
JP3740908B2 (ja) 演奏データ処理装置及び方法
JP3829439B2 (ja) アルペジオ発音装置およびアルペジオ発音を制御するためのプログラムを記録したコンピュータ読み取り可能な媒体
JP3562333B2 (ja) 演奏情報変換装置および演奏情報変換方法並びに演奏情報変換制御プログラムを記録した記録媒体
JPH0997083A (ja) 自動伴奏装置
JP3815249B2 (ja) 楽譜表示装置及び楽譜表示プログラム
JP4670686B2 (ja) コード表示装置及びプログラム
JP3632536B2 (ja) パート選択装置
JP3719219B2 (ja) 電子楽音発生装置及び方法
JP2007163710A (ja) 演奏支援装置及びプログラム
JP5125374B2 (ja) 電子音楽装置及びプログラム
JP3719156B2 (ja) 自動作曲装置及び自動作曲プログラム
JP3397071B2 (ja) 自動演奏装置
JP3632487B2 (ja) 電子楽器等における和音検出装置
JP4175364B2 (ja) アルペジオ発音装置およびアルペジオ発音を制御するためのプログラムを記録したコンピュータ読み取り可能な媒体
JP3956961B2 (ja) 演奏データ処理装置及び方法
JP2000356987A (ja) アルペジオ発音装置およびアルペジオ発音を制御するためのプログラムを記録した媒体
JP3775249B2 (ja) 自動作曲装置及び自動作曲プログラム
JP3669301B2 (ja) 自動作曲装置及び方法並びに記憶媒体
JP2007072387A (ja) 演奏補助装置及びプログラム
JP3755468B2 (ja) 楽曲データの表情付け装置及びプログラム
JP3642028B2 (ja) 演奏データ処理装置及び方法並びに記憶媒体
JP3603711B2 (ja) 自動演奏装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041124

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050124

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050301

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050502

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050531

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050729

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050915

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20050922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20051025

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20051107

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313532

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081125

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091125

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101125

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101125

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111125

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111125

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121125

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131125

Year of fee payment: 8

LAPS Cancellation because of no payment of annual fees