JP6070652B2 - リファレンス表示装置およびプログラム - Google Patents

リファレンス表示装置およびプログラム Download PDF

Info

Publication number
JP6070652B2
JP6070652B2 JP2014152479A JP2014152479A JP6070652B2 JP 6070652 B2 JP6070652 B2 JP 6070652B2 JP 2014152479 A JP2014152479 A JP 2014152479A JP 2014152479 A JP2014152479 A JP 2014152479A JP 6070652 B2 JP6070652 B2 JP 6070652B2
Authority
JP
Japan
Prior art keywords
sound
image
timing
linear image
information indicating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2014152479A
Other languages
English (en)
Other versions
JP2016031394A (ja
Inventor
紀行 畑
紀行 畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2014152479A priority Critical patent/JP6070652B2/ja
Priority to PCT/JP2015/071342 priority patent/WO2016017622A1/ja
Priority to TW104124424A priority patent/TWI595476B/zh
Priority to US15/500,011 priority patent/US10332496B2/en
Publication of JP2016031394A publication Critical patent/JP2016031394A/ja
Application granted granted Critical
Publication of JP6070652B2 publication Critical patent/JP6070652B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H1/00Details of electrophonic musical instruments
    • G10H1/36Accompaniment arrangements
    • G10H1/361Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems
    • G10H1/368Recording/reproducing of accompaniment for use with an external source, e.g. karaoke systems displaying animated or moving pictures synchronized with the music or audio part
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09BEDUCATIONAL OR DEMONSTRATION APPLIANCES; APPLIANCES FOR TEACHING, OR COMMUNICATING WITH, THE BLIND, DEAF OR MUTE; MODELS; PLANETARIA; GLOBES; MAPS; DIAGRAMS
    • G09B15/00Teaching music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10GREPRESENTATION OF MUSIC; RECORDING MUSIC IN NOTATION FORM; ACCESSORIES FOR MUSIC OR MUSICAL INSTRUMENTS NOT OTHERWISE PROVIDED FOR, e.g. SUPPORTS
    • G10G1/00Means for the representation of music
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/005Musical accompaniment, i.e. complete instrumental rhythm synthesis added to a performed melody, e.g. as output by drum machines
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2210/00Aspects or methods of musical processing having intrinsic musical character, i.e. involving musical theory or musical parameters or relying on musical knowledge, as applied in electrophonic musical tools or instruments
    • G10H2210/031Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal
    • G10H2210/091Musical analysis, i.e. isolation, extraction or identification of musical elements or musical parameters from a raw acoustic signal or from an encoded audio signal for performance evaluation, i.e. judging, grading or scoring the musical qualities or faithfulness of a performance, e.g. with respect to pitch, tempo or other timings of a reference performance
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/011Lyrics displays, e.g. for karaoke applications
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10HELECTROPHONIC MUSICAL INSTRUMENTS; INSTRUMENTS IN WHICH THE TONES ARE GENERATED BY ELECTROMECHANICAL MEANS OR ELECTRONIC GENERATORS, OR IN WHICH THE TONES ARE SYNTHESISED FROM A DATA STORE
    • G10H2220/00Input/output interfacing specifically adapted for electrophonic musical tools or instruments
    • G10H2220/005Non-interactive screen display of musical or status data
    • G10H2220/015Musical staff, tablature or score displays, e.g. for score reading during a performance.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Business, Economics & Management (AREA)
  • Educational Administration (AREA)
  • Educational Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Auxiliary Devices For Music (AREA)

Description

本発明は、表示装置に関し、特にお手本(リファレンス)の表示を行う装置に関する。
従来、カラオケ装置は、歌詞やお手本の音程を表示部に表示することが行われている(例えば特許文献1を参照)。音程は、いわゆるピアノロールとして表示される。ピアノロールとは、縦軸が音階(ピアノの鍵盤が縦になった状態)、横軸が時間に対応した画面上に、各音の発音開始タイミングと発音の長さに応じた線状の画像を表示するものである。これにより、歌唱者は、歌唱するタイミングと音程を視覚的に把握することができる。
特開2004−205817号公報
歌唱、会話、または吹奏楽器の演奏等では、各音を離散的に発音するのではなく、各音を滑らかにつなげたり、息継ぎを行ったりする。従来のピアノロールでは、各音の発音開始タイミングと停止タイミングとを把握することができても、各音のつながりおよび息継ぎのタイミングを直感的に把握することが困難であった。
そこで、本発明は、各音のつながりおよび息継ぎのタイミングを直感的に把握することができるリファレンス表示装置およびプログラムを提供することを目的とする。
本発明のリファレンス表示装置は、表示部と、リファレンスデータに基づいて、発音タイミング、音程、および発音長を示す線状画像を生成し、前記表示部に表示する画像生成手段と、を備えている。
そして、前記画像生成手段は、前記線状画像の各音を連結させて表示することを特徴とする。
これにより、ユーザ(歌唱者、話者、または演奏者等)は、各音のつなげ方を視覚的に把握することができる。
また、リファレンスデータには、息継ぎタイミングを示す情報が含まれ、前記画像生成手段は、さらに前記息継ぎタイミングを示す情報に基づいて、該息継ぎタイミングの前後の音を離散させて表示する。
従来のピアノロールでは、各音の発音開始タイミングと停止タイミングとを把握することができても、各音のつながりおよび息継ぎのタイミングを直感的に把握することが困難であった。そこで、息継ぎタイミングで線状画像を途切れさせることで、ユーザは、各音のつながりおよび息継ぎのタイミングを直感的に把握することができる。また、本発明のリファレンス表示装置は、リファレンスデータに息継ぎタイミングを示す情報が含まれているため、単なる無音区間と息継ぎの区間とを明確に区別して表示させることができ、ユーザに対して正確な息継ぎの位置を把握させることができる。
また、前記画像生成手段は、促音に係る音素に係る線状画像と、該促音に係る音素の後の線状画像と、を離散させて表示することも可能である。
促音は、日本語のかな表記では「っ」「ッ」で表されるものであり、後に続く音との間が無音となるものである。したがって、促音に係る音素の後の線状画像を離散させることで、ユーザは、音をつなげて発音するのか、一旦止めて発音するのか、直感的に把握することができる。
また、前記画像生成手段は、前記促音に係る音素の線状画像とともに、促音に係る音素が存在する旨を示す画像を表示することが望ましい。この場合、ユーザは、より容易に音をつなげて発音するのか、一旦止めて発音するのか、把握することができる。
また、前記画像生成手段は、前記息継ぎタイミングを示す情報に基づいて、息継ぎを促す画像を、前記線状画像とともに表示させることが望ましい。これにより、ユーザは、より容易に音をつなげて発音するのか、息継ぎを行うのか、把握することができる。
また、前記画像生成手段は、各音の発音タイミングを示す画像を、前記線状画像に重畳して表示することが好ましい。例えば同じ音程で異なる歌詞を続けて発音する場合、線状画像が連結されていると、ユーザは、どのタイミングで次の歌詞を発音するのか把握し難い。しかし、各音の発音タイミングにおいて例えば線状画像の上に円画像を重畳して表示すれば、ユーザは、当該円画像のタイミングで発音を行う旨を把握し易くなる。
また、前記リファレンスデータには、歌唱技法のタイミングを示す情報が含まれ、前記画像生成手段は、前記歌唱技法のタイミングを示す情報に基づいて、歌唱技法を促す画像を表示することが好ましい。これにより、ユーザは、歌唱技法を行うタイミングを容易に把握することができる。
また、ビブラートの区間は、線状画像を異なる画像(例えば波線)に変更して表示することで、より直感的にビブラート区間を把握し易くすることができる。
また、リファレンスデータには、各音の音量を示す情報が含まれ、前記画像生成手段は、前記各音の音量を示す情報に基づいて、前記線状画像を前記音量に応じた画像に変更して表示することが好ましい。例えば、音量の大きい区間は太い線、音量の小さい区間は細い線に変更する。あるいは、音量の大きい区間は濃い色の線、音量の小さい区間は薄い色の線に変更する。
なお、画像生成手段は、現在の発音タイミングに応じた位置にユーザに対応する画像(ユーザを撮影した写真、キャラクタ画像等)を表示し、該ユーザに対応する画像が前記線状画像に沿って移動するように、前記線状画像をスクロールさせる態様としてもよい。この場合、ユーザは、自身の発音に応じてキャラクタを移動させているように感じることができ、歌唱、語学学習、または演奏等を楽しんで行うことができる。
また、キャラクタ画像は、客観視点(2次元表示)であってもよいが、主観視点(3次元表示)であってもよい。また、主観視点で表示する場合には、例えばデュエット歌唱を行う場合に、自身に相当するキャラクタと他の歌唱者に相当するキャラクタとを並行して表示することも可能であり、ユーザは、他の歌唱者と一緒に歌唱を行っている雰囲気をより感じ取ることができる。
本発明のリファレンス表示装置は、各音のつながりおよび息継ぎのタイミングを直感的に把握することができる。
カラオケシステムの構成を示したブロック図である。 カラオケ装置の構成を示したブロック図である。 リファレンスデータを含む各種データの構造を示す図である。 リファレンスの表示例を示す図である。 リファレンスの表示例を示す図である。 リファレンスの表示例を示す図である。 カラオケ装置の動作を示すフローチャートである。 応用例に係るリファレンスの表示態様である。 応用例に係るリファレンスの表示態様である。 リファレンス表示装置の最小構成を示したブロック図である。
図1は、本発明のリファレンス表示装置を備えたカラオケシステムの構成を示す図である。カラオケシステムは、インターネット等のネットワーク2を介して接続されるセンタ(サーバ)1と、複数のカラオケ店舗3と、からなる。
各カラオケ店舗3には、ネットワーク2に接続されるルータ等の中継機5と、中継機5を介してネットワーク2に接続される複数のカラオケ装置7が設けられている。中継機5は、カラオケ店舗の管理室内等に設置されている。複数台のカラオケ装置7は、それぞれ個室(カラオケボックス)に1台ずつ設置されている。また、各カラオケ装置7には、それぞれリモコン9が設置されている。
カラオケ装置7は、中継機5およびネットワーク2を介して他のカラオケ装置7と通信可能になっている。カラオケシステムは、異なる場所に設置されているカラオケ装置7同士で通信を行い、複数の歌唱者間でデュエットを行うことができる。
図2は、カラオケ装置の構成を示すブロック図である。カラオケ装置7は、本発明のリファレンス表示装置に相当する。カラオケ装置7は、CPU11、RAM12、HDD13、ネットワークインタフェース(I/F)14、LCD(タッチパネル)15、マイク16、A/Dコンバータ17、音源18、ミキサ(エフェクタ)19、サウンドシステム(SS)20、スピーカ21、MPEG等のデコーダ22、表示処理部23、モニタ24、操作部25、および送受信部26を備えている。
装置全体の動作を制御するCPU11には、RAM12、HDD13、ネットワークインタフェース(I/F)14、LCD(タッチパネル)15、A/Dコンバータ17、音源18、ミキサ(エフェクタ)19、MPEG等のデコーダ22、表示処理部23、操作部25、および送受信部26が接続されている。
HDD13は、CPU11の動作用プログラムが記憶されている。ワークメモリであるRAM12には、CPU11の動作用プログラムを実行するために読み出すエリア、カラオケ曲を演奏するために楽曲データを読み出すエリア、ガイドメロディ等のリファレンスデータを読み出すエリア、予約リストや採点結果等のデータを一時記憶するエリア、等が設定される。
また、HDD13は、カラオケ曲を演奏するための楽曲データを記憶している。さらに、HDD13は、モニタ24に背景映像を表示するための映像データも記憶している。映像データは動画、静止画の両方を記憶している。楽曲データや映像データは、定期的にセンタ1から配信され、更新される。
CPU11は、カラオケ装置を統括的に制御する制御部であり、機能的にシーケンサを内蔵し、カラオケ演奏を行う。また、CPU11は、音声信号生成処理、映像信号生成処理、採点処理、およびピアノロール表示処理を行う。これにより、CPU11は、本発明における画像生成手段として機能する。
タッチパネル15および操作部25は、カラオケ装置の前面に設けられている。CPU11は、タッチパネル15から入力される操作情報に基づいて、操作情報に応じた画像をタッチパネル15上に表示し、GUIを実現する。また、リモコン9も同様のGUIを実現するものである。CPU11は、タッチパネル15、操作部25、または送受信部26を介してリモコン9から入力される操作情報に基づいて、各種の動作を行う。
次に、カラオケ演奏を行うための構成について説明する。上述したように、CPU11は、機能的にシーケンサを内蔵している。CPU11は、RAM12の予約リストに登録された予約曲の曲番号に対応する楽曲データをHDD13から読み出し、シーケンサでカラオケ演奏を行う。
楽曲データは、例えば図3に示すように、曲番号等が書き込まれているヘッダ、演奏用MIDIデータが書き込まれている楽音トラック、ガイドメロディ用MIDIデータが書き込まれているガイドメロディトラック、歌詞用MIDIデータが書き込まれている歌詞トラック、バックコーラス再生タイミングおよび再生すべき音声データが書き込まれているコーラストラック、息継ぎのタイミングを示すブレス位置トラック、歌唱技法のタイミングを示す技法位置トラック、等からなっている。ガイドメロディトラック、ブレス位置トラック、および技法位置トラックは、本発明のリファレンスデータに対応する。リファレンスデータとは、歌唱者が歌唱の参考にするためのお手本データであり、各音を発する発音タイミング、音程、および発音長を示す情報が含まれている。なお、楽曲データの形式としては、この例に限るものではない。また、リファレンスデータの形式も、上述のようなMIDI形式に限るものではない。例えばブレス位置を示すリファレンスデータとしては、ブレス位置のタイミング(楽曲先頭からの時間経過)を示したテキストデータ等であってもよい。また、リファレンスデータが音声データ(例えば歌唱音を録音したもの)である場合には、当該音声データからピッチを抽出して音程を抽出するとともに、該音程が抽出されるタイミングおよび長さから、発音タイミングおよび発音長を抽出することも可能である。また、音量(パワー)を検出することで無音区間を検出し、各音の間に無音区間が存在する場合には、当該無音区間が抽出されたタイミングをブレス位置のタイミングとして抽出することも可能である。また、所定期間内においてピッチが規則的に変動している場合には、当該機関について「ビブラート」が行われていると判定することで、歌唱技法が行われたタイミング(技法位置)を抽出することも可能である。
楽音トラックは、楽音を発生させる楽器の種類、タイミング、音程(キー)、強さ、長さ、定位(パン)、音響効果(エフェクト)等を示す情報が記録されている。ガイドメロディトラックは、お手本の歌唱に対応する各音の発音開始タイミング、発音の長さ等の情報が記録されている。
シーケンサは、楽音トラックのデータに基づいて音源18を制御し、カラオケ曲の楽音を発生する。
また、シーケンサは、コーラストラックの指定するタイミングでバックコーラスの音声データ(楽曲データに付随しているMP3等の圧縮音声データ)を再生する。また、シーケンサは、歌詞トラックに基づいて曲の進行に同期して歌詞の文字パターンを合成し、この文字パターンを映像信号に変換して表示処理部23に入力する。
音源18は、シーケンサの処理によってCPU11から入力されたデータ(ノートイベントデータ)に応じて楽音信号(デジタル音声信号)を形成する。形成した楽音信号はミキサ19に入力される。
ミキサ19は、音源18が発生した楽音信号、コーラス音、およびマイク(歌唱音声入力手段)16からA/Dコンバータ17を介して入力された歌唱者の歌唱音声信号に対してエコー等の音響効果を付与するとともに、これらの信号をミキシングする。
また、異なる場所に設置されているカラオケ装置7同士で通信を行い、デュエットを行う場合には、他のカラオケ装置から歌唱音声信号が送信される。ミキサ19には、当該他のカラオケ装置から受信した歌唱音声信号も入力され、自装置のマイク16から入力された歌唱音声信号とミキシングされる。
ミキシングされた各デジタル音声信号はサウンドシステム20に入力される。サウンドシステム20は、D/Aコンバータおよびパワーアンプを内蔵しており、入力されたデジタル信号をアナログ信号に変換して増幅し、スピーカ(楽音発生手段)21から放音する。ミキサ19が各音声信号に付与する効果およびミキシングのバランスは、CPU11によって制御される。
CPU11は、上記シーケンサによる楽音の発生、歌詞テロップの生成と同期して、HDD13に記憶されている映像データを読み出して背景映像等を再生する。動画の映像データは、MPEG形式にエンコードされている。
また、CPU11は、歌唱者を表す写真、またはキャラクタ等の映像データをセンタ1からダウンロードして表示処理部23に入力することもできる。歌唱者を表す写真は、その場でカラオケ装置またはリモコン9に設けられたカメラ(不図示)で撮影したり、ユーザが所有する携帯端末等に設けられたカメラで撮影したりすることも可能である。
CPU11は、読み出した背景映像の映像データをデコーダ22に入力する。デコーダ22は、入力されたMPEG等のデータを映像信号に変換して表示処理部23に入力する。表示処理部23には、背景映像の映像信号以外に上記歌詞テロップの文字パターンとともに、ガイドメロディトラックに基づくピアノロールの映像信号も入力される。
図4は、ピアノロールの一例を示す図である。ピアノロールは、図4(A)に示すように、縦軸が音階(ピアノの鍵盤が縦になった状態)、横軸が時間に対応した画面上に、各音の発音開始タイミングと発音の長さに応じた線状の画像を表示するものである。これにより、歌唱者は、各音を歌唱するタイミングと音程を視覚的に把握することができる。ここで、本実施形態のピアノロールでは、各音の線状画像が連結されて表示されるとともに、息継ぎタイミングで線状画像が離散して表示される。
CPU11は、まずガイドメロディトラックに含まれている各音の発音開始タイミングおよび発音の長さの情報に基づいて、線状画像を生成する。そして、CPU11は、各音の線状画像を滑らかに連結する。各音の連結部分の傾きは、例えば16分音符に対応する時間長で連結させる等、一律に同じ傾きの画像として表示させる態様とする。ただし、実際には各曲に個別の歌い方が存在し、音程の変化の態様は一律ではない。したがって、各音の連結部分毎に異なる傾きで表示されることが好ましい。この場合、リファレンスデータとして、各音の連結部分の音程の変化に応じた傾きを指定する情報が含まれていてもよい。
その後、CPU11は、ブレス位置トラックが示す息継ぎタイミングで線状画像を離散させる。例えば、図4(A)の例では、「あかい」の発音の後と、「はなが」の冒頭の発音タイミングとの間に息継ぎタイミングが存在するため、「あかい」の線状画像と、「はなが」の線状画像とを離散させる。
これにより、歌唱者は、各音のつなげ方および息継ぎのタイミングを視覚的に把握することができる。例えば図4(A)の例では、歌唱者は、「あかい」の各音の音程を1音ずつ滑らかに変化させながら歌唱を行い、息継ぎを行った後に「はなが」の各音の音程を1音ずつ滑らかに変化させながら歌唱を行う旨を、視覚的に容易に把握することができる。また、CPU11は、ブレス位置トラックが示す息継ぎタイミングで線状画像を離散させるため(リファレンスデータに息継ぎタイミングを示す情報が含まれているため)、単なる無音区間と息継ぎの区間と明確に区別して表示することができ、ユーザに対して正確な息継ぎの位置を把握させることができる。
なお、図3では、1つの楽曲データにブレス位置トラックおよび技法位置トラックが含まれている例を示したが、既存の楽曲データはそのままで、ブレス位置トラックおよび技法位置トラックは、別のデータとして用意してもよい。この場合、ブレス位置トラックおよび技法位置トラックが含まれた新たな楽曲データを用意する必要はない。ただし、ブレス位置トラックおよび技法位置トラックのデータには、それぞれ曲番号等の曲識別情報を記載しておく。CPU11は、楽曲データを読み出すときに、対応するブレス位置トラックおよび技法位置トラックを読み出し、シーケンス動作を行う。
なお、同じ音程で続けて異なる歌詞を発音する場合、線状画像が連結されていると、ユーザは、どのタイミングで次の歌詞を発音するのか把握し難い可能性がある。そこで、CPU11は、図4(B)に示すように、ガイドメロディトラックにおける各音の発音タイミングにおいて、例えば線状画像の上に円画像を重畳して表示する。これにより、ユーザは、当該円画像が表示されているタイミングで発音を行う旨を把握することができる。
次に、図4(C)は、促音の音素に係る線状画像と、該促音の音素の後の線状画像と、を離散させて表示する態様である。促音は、日本語のかな表記では「っ」「ッ」で表されるものであり、後に続く音との間が無音となるものである。CPU11は、歌詞トラックの中から促音を抽出し、抽出した促音を発するタイミングにおいて、線状画像を離散させる。図4(C)の例では、「つかったら」の「か」の後に促音が存在するため、「か」の線状画像と、その後の「た」の線状画像とを離散させて表示する。また、図4(C)の例では、促音に係る音素が存在する旨を示す画像(この例では「っ」と記載された四角画像)を表示する態様としている。
これにより、歌唱者は、音をつなげて発音するのか、促音が存在して音が途切れるのか、等を容易に把握することができる。
次に、図5(A)は、線状画像で音量を表す場合の例である。この場合、ガイドメロディトラックには、各音の音量を示す情報が含まれている。CPU11は、ガイドメロディトラックに含まれている各音の音量を示す情報に基づいて、線状画像の線の太さを変更する。例えば、図5(A)の例では、「あかい」のうち、「あ」の音が最も音量が大きいため、「あ」を表す区間は太い線に変更する。「か」の音は音量が小さいため、「か」を表す区間は細い線に変更する。この例では、ガイドメロディトラックに含まれている音量を示す情報が、「大」、「標準」、および「小」の3段階であり、線の太さを3段階に変更する態様としているが、さらに多段階に線の太さを変更する態様としてもよい。
なお、図5(A)の例では、連結部分の中間位置において線の太さを変更する態様としているが、各音の冒頭または各音の末尾の位置において線の太さを変更する態様としてもよい。また、音量を各音の末尾から次の音の冒頭まで徐々に線の太さが変化する態様としてもよい。
次に、図5(B)は、さらに線の色で音量を表す態様である。CPU11は、ガイドメロディトラックに含まれている各音の音量を示す情報に基づいて、線状画像の線の色を変更する。例えば、図5(B)の例では、「か」の音は音量が小さいため、「か」を表す区間は薄い色の線に変更する。この例では、ガイドメロディトラックに含まれている音量を示す情報が「小」の場合に、当該「小」の音の区間を薄い色に変更する態様としているが、音量「大」の音の区間を濃い色に変更してもよいし、線の太さを変更せずに色だけを変更する態様としてもよい。
次に、図6は、歌唱技法をピアノロール上に表示する例を示したものである。図6(A)の例では、ビブラートの区間の線状画像を波線に変更して表示するものである。この場合、CPU11は、技法位置トラックに含まれているビブラートのタイミングを示す情報を読み出し、当該タイミングに対応する音の線状画像のうち、当該タイミングから末尾までの区間を波線に変更する。これにより、歌唱者は、より直感的にビブラートを行うタイミングおよびビブラートの長さを把握し易くなる。
また、図6(B)に示すように、技法位置トラックに「タメ」の情報が含まれている場合には、当該「タメ」の情報に対応する音(この例では「か」の音)の先頭の位置を遅らせる。これにより、歌唱者は、当該特定の音(この例では「か」の音)の歌いだしを故意に遅らせる「タメ」を直感的に把握し易くなる。
また、技法位置トラックに「しゃくり」の情報が含まれている場合には、リファレンスの音程よりも低い音程から元の音程に上昇させる線状画像とする。図6(B)の例では、冒頭の「あ」の音および「は」の音が「しゃくり」であり、リファレンスの音程よりも低い音程から持ち上げつつ歌唱を行う箇所である。したがって「あ」の区間の冒頭は、リファレンスの音程よりも低い音程から元の音程に上昇させる線状画像とする。これにより、歌唱者は、線状画像から「しゃくり」の歌唱技法を直感的に把握できるようになっている。
また、技法位置トラックに「コブシ」の情報が含まれている場合には、図6(B)の「な」の音に示すように、「コブシ」のタイミングに対応する位置で線状画像を一時的に上昇させる。これにより、特定の音の声色を発音の途中でうなるように変化させる歌唱技法である「コブシ」に対応する線状画像とすることも可能である。また、技法位置トラックに「フォール」の情報が含まれている場合には、図6(B)の「が」の音に示すように、「フォール」のタイミングに対応する位置から線状画像を低い音程に変化させる態様とすることで、「フォール」の歌唱技法に対応する線状画像とすることも可能である。
図6(C)は、歌唱技法を促す画像を表示する例である。CPU11は、技法位置トラックに含まれている各種歌唱技法のタイミングを示す情報を読み出し、当該タイミングに対応する位置に歌唱技法を促す画像を表示する。例えば、冒頭の「あ」についてはしゃくりであり、リファレンスの音程よりも低い音程から持ち上げつつ歌唱を行う箇所である。したがって「あ」の区間の冒頭に「ノ」のような音程が上がることを連想させる画像を表示する。また、ビブラートの区間については波線状の線状画像に加えて、別途「m」のような波線状の画像を表示する。これにより、歌唱者は、どのタイミングでどのような歌唱技法を行うか、容易に把握することができる。
さらに、CPU11は、ブレス位置トラックが示す息継ぎタイミングを示す情報に基づいて、息継ぎを促す画像を、線状画像とともに表示する。例えば、図6(C)の例では、「あかい」の区間と「はなが」の区間の間に「V」のような画像を表示する。これにより、歌唱者は、音をつなげて発音するのか、息継ぎを行うのか、より容易に把握することができる。
以上の様にして、カラオケ演奏が行われ、演奏の進行にしたがってピアノロールが表示される。このように各音が滑らかに連結された線状画像を表示することで、従来のピアノロールに比べて、歌唱者は、線状画像を見ながら各音を滑らかにつなげて歌唱したり息継ぎを行ったりすることが容易になる。
次に、採点処理について説明する。採点処理は、歌唱者の歌唱音声をガイドメロディトラックと比較することによって行われる。採点は、ガイドメロディトラックのノート毎に、歌唱音声とガイドメロディの音程(ピッチ)を比較することによって行われる。すなわち、歌唱音声の音程が、所定時間以上、ガイドメロディトラックの音程に合っていた(許容範囲に入っていた)場合には、高い得点を付与する。また、音程変化のタイミングも得点に考慮される。さらに、音程変化のタイミング、ビブラート、抑揚、しゃくり(低い音程からなだらかに移行すること)等の歌唱技法の有無に基づいて加点も行われる。
さらに、本実施形態の採点処理では、ブレス位置トラックに含まれる息継ぎタイミングにおいて歌唱者が息継ぎを行ったか否かも加点対象とする。息継ぎを行ったか否かは、当該息継ぎタイミングを含む所定時間内においてマイク16から音声が入力されていない(入力レベルが所定閾値未満である)またはマイク16から息継ぎ音が入力された場合に、息継ぎを行ったと判定し、マイク16から音声が入力された(入力レベルが所定閾値以上である)場合に、息継ぎが行われていないと判定する。なお、息継ぎ音が収音されたか否かは、例えばパターンマッチング等で息継ぎ音の波形と対比することで判断する。
また、本実施形態の採点処理では、技法位置トラックに含まれる各技法のタイミングにおいて、同じ技法を検出した場合に、より高い得点を付与することが好ましい。
なお、採点処理は、各カラオケ装置において行ってもよいが、センタ1(または他のサーバ)で行ってもよい。また、ネットワークを介して他のカラオケ装置とデュエットを行っている場合には、代表的に処理を行うカラオケ装置1台で採点処理を行ってもよい。
次に、カラオケシステムの動作についてフローチャートを参照して説明する。図7は、カラオケシステムの動作を示すフローチャートである。
まず、歌唱者は、楽曲のリクエストを行う(s11)。このとき、デュエット曲が選択された場合に、CPU11は、モニタ24において、ネットワークを介して接続された他のカラオケ装置の歌唱者とデュエットを行うか否かを促す画像を表示し、ネットワーク経由のデュエット歌唱を受け付ける。例えば、歌唱者がタッチパネル15、操作部25、またはリモコン9を用いて特定のユーザの氏名を入力すると、センタ1で当該氏名に係るユーザが検索され、デュエット相手として設定される。
次に、カラオケ装置のCPU11は、リクエストされた楽曲データを読み出し(s12)、ピアノロールを作成する(s13)。すなわち、CPU11は、ガイドメロディトラックに含まれている各音の発音開始タイミングおよび発音の長さの情報に基づいて、線状画像を生成する。
その後、CPU11は、歌詞トラックを読み出して(s14)、各線状画像に歌詞の画像を対応付ける(s15)。また、CPU11は、ブレス位置トラックから息継ぎタイミングの情報を読み出すとともに、促音の音素に係る発音タイミングを読み出す(s16)。そして、CPU11は、各音の線状画像を滑らかに連結する(s17)。このとき、CPU11は、ブレス位置トラックが示す息継ぎタイミング、および促音の音素に係る発音タイミングにおいて、線状画像を離散させて表示する。
また、CPU11は、技法位置トラックを読み出して(s18)、歌唱技法をピアノロール上に表示する(s19)。また、CPU11は、歌唱技法に応じて線状画像を変更する。例えば、ビブラートの区間は、線状画像を波線に変更して表示する。
また、CPU11は、ガイドメロディトラックに含まれている各音の音量を示す情報を読み出し(s20)、各音の音量に応じた線状画像に変更する(s21)。例えば、図5(A)に示したように、音量に応じて線の太さを変更したり、図5(B)に示したように、音量に応じて線の色を変更したりする。
なお、本実施形態では、カラオケ装置7を用いてカラオケ演奏およびピアノロールの表示を行う態様を示したが、例えばユーザの所有するPCやスマートフォン、ゲーム機等の情報処理装置(マイク、スピーカ、および表示部の構成を備えたもの)を用いることでも、本発明の表示装置を実現することが可能である。なお、楽曲データおよびリファレンスデータは、表示装置に記憶されている必要はなく、サーバから都度ダウンロードして利用するようにしてもよい。
なお、CPU11は、図8に示すように、現在の歌唱位置にキャラクタを表示する態様としてもよい。この例では、線状画像が地面の画像に対応し、息継ぎタイミングにおいて地面の画像が途切れるようになっている。そして、キャラクタ画像101が線状画像(地面の画像)に沿って移動するように、線状画像および背景をスクロールさせる。息継ぎタイミングにおいては、地面が途切れるため、息継ぎ(マイク16から音声が入力されていない状態)を検出しなかった場合に、キャラクタ画像101が地面から落ちるようになっている。また、この例では、歌唱採点の結果が画面上に表示される。したがって、歌唱者は、ゲームのように楽しんでカラオケを行うことができる。
また、線状画像は、図8のような客観視点(2次元表示)で表示される態様であってもよいが、例えば図9に示すような主観視点(3次元表示)で表示される態様であってもよい。主観視点とは、ユーザ自身の視野を模した表示態様である。ここでは、奥行き方向を時間軸に対応させ、平面方向を音程に対応させた表示態様を示す。例えば、図9に示すように、奥行き方向が時間に対応し、上下方向が音階に対応した表示態様である。なお、図9の例では、ユーザ自身に相当する画像(キャラクタ画像等)を表示し、当該キャラクタ画像等を背後から映すように表示する態様であり、当該表示態様も主観視点に相当する。なお、音階は左右方向に対応していてもよい。この場合、キャラクタ画像101Aが線状画像に沿って奥行き方向に移動するように、線状画像および背景をスクロールさせる。この例でも、歌唱採点の結果が画面上に表示される。したがって、歌唱者は、ゲームのように楽しんでカラオケを行うことができる。
また、図9に示すように、主観視点で表示する場合には、デュエット歌唱を行う場合に、自身に相当するキャラクタ画像101Aと他の歌唱者に相当するキャラクタ101B(およびキャラクタ画像101C)とを並行して表示することも可能である。これにより、ユーザは、他の歌唱者と一緒に歌唱を行っている雰囲気をより感じ取ることができる。
また、本実施形態では、カラオケにおけるガイドメロディを線状画像として表示する例を示したが、例えば吹奏楽器演奏のお手本の音程変化を線状画像として表示し、息継ぎタイミングで線状画像が途切れる態様としても同様の効果が得られる。また、例えば語学学習において、お手本の発音タイミングおよび発音長を示す線状画像を表示し、息継ぎタイミングおよび促音で線状画像が途切れる態様としても、同様の効果が得られる。
なお、図10に示すように、本発明のリファレンス表示装置は、表示部であるモニタ24と、線状画像表示処理を行う画像生成手段として機能するCPU11と、を備え、当該CPU11が、HDD13に記憶されている楽曲データ(本発明のリファレンスデータの一例である。)に基づいて線状画像を生成して、線状画像の各音を連結させる態様とすればよい。他のハードウェア構成は、本発明において必須の要素ではない。
また、上述したように、リファレンスデータは、HDD13に記憶されている必要はなく、外部(例えばサーバ)から都度ダウンロードして利用するようにしてもよい。また、デコーダ22、表示処理部23、およびRAM12も、CPU11の機能の一部として当該CPU11が内蔵していてもよい。
なお、線状画像は、ピアノロール(縦軸がピアノの鍵盤に対応し、横軸方向に沿って実線が表示されたもの)として表示することは必須ではない。例えば、図8および図9に示したように、発音タイミング、音程、および発音長を示す線状画像を生成して各音を連結させる態様であれば、どの様な表示態様であってもよい。なお、本発明で言う線状画像とは、図4乃至図6で示した細長い線に限るものではなく、図9の例に示したように、左右または上下方向にある程度の幅を有した画像が一方向(図9の例では奥行き方向)に延びるものも含む。
1…センタ
2…ネットワーク
3…カラオケ店舗
5…中継機
7…カラオケ装置
9…リモコン
11…CPU
12…RAM
13…HDD
15…タッチパネル
16…マイク
17…A/Dコンバータ
18…音源
19…ミキサ
20…サウンドシステム
22…デコーダ
23…表示処理部
24…モニタ
25…操作部
26…送受信部

Claims (7)

  1. 表示部と、
    リファレンスデータに基づいて、発音タイミング、音程、および発音長を示す線状画像を生成し、前記表示部に表示する画像生成手段と、
    を備えたリファレンス表示装置であって、
    前記リファレンスデータには、息継ぎタイミングを示す情報が含まれ、
    前記画像生成手段は、前記線状画像の各音を連結させるとともに、前記息継ぎタイミングを示す情報に基づいて、該息継ぎタイミングの前後の音を離散させて表示することを特徴とするリファレンス表示装置。
  2. 前記画像生成手段は、促音に係る音素に係る線状画像と、該促音に係る音素の後の線状画像と、を離散させて表示する請求項1に記載のリファレンス表示装置。
  3. 前記画像生成手段は、前記息継ぎタイミングを示す情報に基づいて、息継ぎを促す画像を、前記線状画像とともに表示させる請求項1または請求項2に記載のリファレンス表示装置。
  4. 前記画像生成手段は、各音の発音タイミングを示す画像を、前記線状画像に重畳して表示する請求項1乃至請求項3のいずれかに記載のリファレンス表示装置。
  5. 前記リファレンスデータには、各音の音量を示す情報が含まれ、
    前記画像生成手段は、前記各音の音量を示す情報に基づいて、前記線状画像を前記音量に応じた画像に変更して表示する請求項1乃至請求項4のいずれかに記載のリファレンス表示装置。
  6. 前記線状画像は、主観視点で表示される請求項1乃至請求項5のいずれかに記載のリファレンス表示装置。
  7. 表示部を備えた情報処理装置に、
    リファレンスデータに基づいて、発音タイミング、音程、および発音長を示す線状画像を生成し、前記表示部に表示する画像生成ステップを実行させるプログラムであって、
    前記リファレンスデータには、息継ぎタイミングを示す情報が含まれ、
    前記画像生成ステップは、前記線状画像の各音を連結させるとともに、前記息継ぎタイミングを示す情報に基づいて、該息継ぎタイミングの前後の音を離散させて表示することを特徴とするプログラム。
JP2014152479A 2014-07-28 2014-07-28 リファレンス表示装置およびプログラム Active JP6070652B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2014152479A JP6070652B2 (ja) 2014-07-28 2014-07-28 リファレンス表示装置およびプログラム
PCT/JP2015/071342 WO2016017622A1 (ja) 2014-07-28 2015-07-28 リファレンス表示装置、リファレンス表示方法およびプログラム
TW104124424A TWI595476B (zh) 2014-07-28 2015-07-28 A reference display device, a reference display method, and a program
US15/500,011 US10332496B2 (en) 2014-07-28 2015-07-28 Reference display device, reference display method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014152479A JP6070652B2 (ja) 2014-07-28 2014-07-28 リファレンス表示装置およびプログラム

Publications (2)

Publication Number Publication Date
JP2016031394A JP2016031394A (ja) 2016-03-07
JP6070652B2 true JP6070652B2 (ja) 2017-02-01

Family

ID=55217522

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014152479A Active JP6070652B2 (ja) 2014-07-28 2014-07-28 リファレンス表示装置およびプログラム

Country Status (4)

Country Link
US (1) US10332496B2 (ja)
JP (1) JP6070652B2 (ja)
TW (1) TWI595476B (ja)
WO (1) WO2016017622A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6070652B2 (ja) * 2014-07-28 2017-02-01 ヤマハ株式会社 リファレンス表示装置およびプログラム
WO2019240042A1 (ja) * 2018-06-15 2019-12-19 ヤマハ株式会社 表示制御方法、表示制御装置およびプログラム
CN110010162A (zh) * 2019-02-28 2019-07-12 华为技术有限公司 一种歌曲录制方法、修音方法及电子设备

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03296789A (ja) * 1990-04-17 1991-12-27 Brother Ind Ltd 楽音発生装置
US5563358A (en) * 1991-12-06 1996-10-08 Zimmerman; Thomas G. Music training apparatus
JPH08190391A (ja) * 1994-11-08 1996-07-23 Mikihiko Yao カラオケ御指南役色変わりテロップ
JP3201202B2 (ja) * 1995-01-12 2001-08-20 ヤマハ株式会社 楽音信号合成装置
JP2001318683A (ja) * 2000-05-12 2001-11-16 Victor Co Of Japan Ltd 歌唱情報表示装置及び方法
US6546229B1 (en) * 2000-11-22 2003-04-08 Roger Love Method of singing instruction
US8672852B2 (en) * 2002-12-13 2014-03-18 Intercure Ltd. Apparatus and method for beneficial modification of biorhythmic activity
JP4182750B2 (ja) 2002-12-25 2008-11-19 ヤマハ株式会社 カラオケ装置
JP4161714B2 (ja) * 2002-12-27 2008-10-08 ヤマハ株式会社 カラオケ装置
US7271329B2 (en) * 2004-05-28 2007-09-18 Electronic Learning Products, Inc. Computer-aided learning system employing a pitch tracking line
JP2007225916A (ja) * 2006-02-23 2007-09-06 Yamaha Corp オーサリング装置、オーサリング方法およびプログラム
JP2007264060A (ja) * 2006-03-27 2007-10-11 Casio Comput Co Ltd カラオケ装置およびカラオケ情報処理のプログラム
JP4839967B2 (ja) * 2006-06-02 2011-12-21 ヤマハ株式会社 指導装置及びプログラム
JP5176311B2 (ja) * 2006-12-07 2013-04-03 ソニー株式会社 画像表示システム、表示装置、表示方法
JP6070652B2 (ja) * 2014-07-28 2017-02-01 ヤマハ株式会社 リファレンス表示装置およびプログラム

Also Published As

Publication number Publication date
JP2016031394A (ja) 2016-03-07
TW201610981A (zh) 2016-03-16
US10332496B2 (en) 2019-06-25
TWI595476B (zh) 2017-08-11
US20170352340A1 (en) 2017-12-07
WO2016017622A1 (ja) 2016-02-04

Similar Documents

Publication Publication Date Title
CN111052223B (zh) 播放控制方法、播放控制装置及记录介质
TWI492216B (zh) 顯示控制裝置、方法及電腦可讀取之記憶媒體
CN102576524A (zh) 接收、分析并编辑音频来创建音乐作品的系统和方法
US20120165086A1 (en) Scoring of free-form vocals for video game
JP6776788B2 (ja) 演奏制御方法、演奏制御装置およびプログラム
JP2007232750A (ja) カラオケ装置、制御方法およびプログラム
JP6070652B2 (ja) リファレンス表示装置およびプログラム
JP2007156330A (ja) 相性判断機能付きカラオケ装置
JP2006251697A (ja) カラオケ装置
JP6589356B2 (ja) 表示制御装置、電子楽器およびプログラム
JP5387642B2 (ja) 歌詞テロップ表示装置及びプログラム
JP5486941B2 (ja) 聴衆に唱和をうながす気分を楽しむカラオケ装置
WO2016017623A1 (ja) リファレンス表示装置、リファレンス表示方法およびプログラム
JP2007322933A (ja) 指導装置、指導用データ製作装置及びプログラム
JP6219750B2 (ja) 歌唱対戦カラオケシステム
JP6838357B2 (ja) 音響解析方法および音響解析装置
JP5537246B2 (ja) 歌唱位置表示システム
JP6236807B2 (ja) 歌唱音声評価装置および歌唱音声評価システム
JP6144593B2 (ja) 歌唱採点システム
JP2007233078A (ja) 評価装置、制御方法及びプログラム
JP4033146B2 (ja) カラオケ装置
JP2014178457A (ja) 歌唱システムおよび歌唱装置
JP6421044B2 (ja) カラオケ装置
JP2007233013A (ja) 楽曲練習装置
JP6589400B2 (ja) ネットワークカラオケシステム、カラオケ装置、サーバ、ネットワークカラオケシステムの制御方法、カラオケ装置の制御方法、及びサーバの制御方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20161206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20161219

R151 Written notification of patent or utility model registration

Ref document number: 6070652

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151