JP2007322933A - 指導装置、指導用データ製作装置及びプログラム - Google Patents

指導装置、指導用データ製作装置及びプログラム Download PDF

Info

Publication number
JP2007322933A
JP2007322933A JP2006155296A JP2006155296A JP2007322933A JP 2007322933 A JP2007322933 A JP 2007322933A JP 2006155296 A JP2006155296 A JP 2006155296A JP 2006155296 A JP2006155296 A JP 2006155296A JP 2007322933 A JP2007322933 A JP 2007322933A
Authority
JP
Japan
Prior art keywords
sound
data
musical score
sound data
phoneme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006155296A
Other languages
English (en)
Other versions
JP4839967B2 (ja
Inventor
Shingo Kamiya
伸吾 神谷
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2006155296A priority Critical patent/JP4839967B2/ja
Publication of JP2007322933A publication Critical patent/JP2007322933A/ja
Application granted granted Critical
Publication of JP4839967B2 publication Critical patent/JP4839967B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Auxiliary Devices For Music (AREA)
  • Reverberation, Karaoke And Other Acoustics (AREA)
  • Electrophonic Musical Instruments (AREA)

Abstract

【課題】歌唱者の歌唱方法を練習者に分かりやすく伝えることのできる技術を提供する。
【解決手段】カラオケ装置1の記憶部14には、発音タイミングが時系列に連なる複数の音素(歌詞を構成するそれぞれの語)の発音タイミングを表す楽譜音データと、模範となる歌唱音声を表す模範音データとが記憶されている。カラオケ装置1の制御部11は、記憶部14に記憶されている楽譜音データと模範音データとを音素単位で対応付ける。次いで、制御部11は、対応付け結果に基づいて、楽譜音データが表す各音素の発音タイミングを、模範音データが表す音素の発音タイミングに変換して、加工楽譜音データを生成する。そして、制御部11は、楽譜音データが表す音素の発音区間と加工楽譜音データが表す音素の発音区間とを、同一の時間軸に対応させて表示部15に表示する。
【選択図】図1

Description

本発明は、指導装置、指導用データ製作装置及びプログラムに関する。
歌唱や楽器演奏の指導においては、模範となる歌唱者(又は演奏者)が手本を示し、それに似せて歌唱(又は演奏)を行わせるといった指導が行われている。例えば、特許文献1には、ユーザの演奏と手本の演奏との差をユーザに分かりやすく伝えるために、ユーザ演奏表示と手本の演奏表示とを、それぞれのノートナンバおよびベロシティに応じた表示図形でそれぞれのノートナンバおよび発生タイミングに応じた位置に表示する方法が提案されている。
特開2002−91290号公報
ところで、歌手のように熟練した歌唱者は、楽譜に沿って機械的に歌を歌うことはほとんどなく、その多くが、歌い始めや歌い終わりを意図的にずらしたり、ビブラートやこぶし等の歌唱技法を用いたりして歌のなかに情感を表現する。歌唱を練習する者は、このような意図的なタイミングのずれや歌唱技法を真似て歌いたいという要望をもつ者が少なくない。
しかしながら、従来の歌唱指導装置においては、このような歌唱者の意図的な歌唱方法を分かりやすく練習者に伝えることができなかった。これは楽器の演奏についても同様である。
本発明は上述した背景の下になされたものであり、歌唱者の歌唱方法(又は演奏者の演奏方法)を練習者に分かりやすく伝えることのできる技術を提供することを目的とする。
本発明の好適な態様である指導装置は、発音タイミングが時系列に連なる複数の音素の発音タイミングを表す楽譜音データを記憶する第1の記憶手段と、模範となる音を表す模範音データを記憶する第2の記憶手段と、前記第2の記憶手段によって記憶されている模範音データを音素毎に区切り、前記第1の記憶手段によって記憶されている楽譜音データと音素単位で対応付ける対応付け手段と、前記対応付け手段による対応付け結果に基づいて、前記楽譜音データが表す各音素の発音タイミングを、前記模範音データが表す音素の発音タイミングに変換して、加工楽譜音データを生成する加工楽譜音データ生成手段と、前記楽譜音データと加工楽譜音データ生成手段により生成された加工楽譜音データとを出力する出力手段とを備える。
この態様において、前記出力手段は、前記楽譜音データが表す音素の発音区間と前記加工楽譜音データが表す音素の発音区間とを、同一の時間軸に対応させて表示手段に表示してもよい。
この態様において、前記模範音データから、当該模範音データのピッチ、スペクトル及びパワーのうちの少なくともいずれか一つを示す音分析データを生成する音分析データ生成手段と、前記音分析データ生成手段により生成された音分析データの時間的な変化のパターンを解析して、この解析結果が予め定められたパターンに対応するか否かを判定し、対応する場合には当該パターンに対応する区間を特定の技法が用いられている区間として特定する技法区間特定手段とを備え、前記出力手段は、前記加工楽譜音データが表す音素の発音区間のうち、前記技法区間特定手段によって特定された区間に対応する部分の表示態様を、それ以外の区間の表示態様と異ならせて前記表示手段に表示してもよい。
この態様において、前記音分析データ生成手段は、前記模範音データからピッチを示す音分析データを生成し、前記技法区間特定手段は、前記音分析データ生成手段により生成された音分析データの示すピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的に変化する区間を特定し、前記出力手段は、前記加工楽譜音データが表す音素の発音区間のうち、前記技法特定手段によって特定された区間に対応する部分の表示態様を、当該区間のピッチ変化を表す表示態様にして前記表示手段に表示してもよい。
本発明によれば、歌唱者の歌唱方法(又は演奏者の演奏方法)を練習者に分かりやすく伝えることができる。
次に、この発明を実施するための最良の形態を説明する。
<A:構成>
図1は、この発明の一実施形態であるカラオケ装置1のハードウェア構成を示したブロック図である。このカラオケ装置1は、カラオケ伴奏を再生するカラオケ機能を備えるとともに、練習者に歌唱指導を行うための歌唱の指導装置としても機能する。図において、CPU(Central Processing Unit)11は、ROM(Read Only Memory)12又は記憶部14に記憶されているコンピュータプログラムを読み出してRAM(Random Access Memory)13にロードし、これを実行することにより、カラオケ装置1の各部を制御する。記憶部14は、例えばハードディスクなどの大容量の記憶手段であり、伴奏データ記憶領域14aと、楽譜音データ記憶領域14bと、模範音データ記憶領域14cと、模範技法データ記憶領域14dとを有している。表示部15は、例えば液晶ディスプレイなどであり、CPU11の制御の下で、カラオケ装置1を操作するためのメニュー画面や、背景画像に歌詞テロップが重ねられたカラオケ画面などの各種画面を表示する。操作部16は、テンキーや上下キー、演奏開始キーなどの各種のキーを備えており、押下されたキーに対応した操作信号をCPU11へ出力する。マイクロフォン17は、練習者が発声した音声を収音し、音声信号(アナログデータ)を出力する。音声処理部18は、マイクロフォン17が出力する音声信号(アナログデータ)をデジタルデータに変換してCPU11に出力する。スピーカ19は、音声処理部18から出力される音声信号に応じた強度で放音する。
記憶部14の伴奏データ記憶領域14aには、楽曲の伴奏を行う各種楽器の演奏音が楽曲の進行に伴って記された伴奏データが、楽曲に割り当てられた楽曲IDに関連付けられて記憶されている。伴奏データは、例えばMIDI(Musical Instruments Digital Interface)形式などのデータ形式であり、練習者がカラオケ歌唱する際に再生される。
楽譜音データ記憶領域14bには、発音タイミングが時系列に連なる複数の音素(歌詞を構成するそれぞれの語)の発音タイミングを表す楽譜音データが記憶されている。この楽譜音データのデータ形式は、MIDI形式などのデータ形式である。
模範音データ記憶領域14cには、例えばWAVE形式やMP3(MPEG1 Audio Layer-3)形式などの音声データであって、伴奏データによって表される伴奏に従って歌唱者が歌唱した模範となる歌唱音声(以下、模範音声)を表す音声データ(以下、模範音データ)が記憶されている。
模範技法データ記憶領域14dには、模範音データ記憶領域14cに記憶された模範音データの表す模範となる歌唱音声に用いられている歌唱技法の種類とタイミングとを示すデータ(以下、「模範技法データ」)が記憶される。
図2は、模範技法データの内容の一例を示す図である。図示のように、模範技法データは、「区間情報」と「技法種別」との各項目が互いに関連付けられている。これらの項目のうち、「区間情報」の項目には、模範音データにおいて歌唱技法が用いられた区間を示す情報が記憶される。なお、この区間情報が示す区間は、開始時刻情報と終了時刻情報とによって表される時間幅を有した区間であってもよく、また、ある1点の時刻を示すものであってもよい。
「技法種別」の項目には、例えば「ビブラート」、「しゃくり」、「こぶし」、「ファルセット」、「つっこみ」、「ため」、「息継ぎ」などの歌唱の技法を識別する識別情報が記憶される。「ビブラート」は、音の高さをほんのわずかに連続的に上下させ、震えるような音色を出すという技法である。「しゃくり」は、目的の音より低い音から発音し、音程を滑らかに目的の音に近づけていくという技法である。「こぶし」は、装飾的に加える、うねるような節回しを行うという技法である。「ファルセット」は、いわゆる「裏声」で歌うという技法である。「つっこみ」は、歌い出しを本来のタイミングよりも早いタイミングにするという技法である。「ため」は、歌い出しを本来のタイミングよりも遅いタイミングにするという技法である。「息継ぎ」は、練習者が息継ぎをするタイミングを意味する。
<B:動作>
<B−1:動作例1>
次に、図3に示すフローチャートを参照しつつ、カラオケ装置1の動作を説明する。
練習者は、カラオケ装置1の操作部16を操作して、歌唱したい楽曲を選定する操作を行う。操作部16は操作された内容に応じた操作信号をCPU11へ出力し、CPU11は、操作部16から出力される操作信号に応じて、楽曲を選定する。CPU11は、選定した楽曲に対応する模範音データを模範音データ記憶領域14cから読み出し、読み出した模範音声データから、所定時間長のフレーム単位でピッチ及びスペクトルを検出し、検出したピッチ、スペクトルを示す音分析データを生成する(ステップS1)。スペクトルの検出にはFFT(Fast Fourier Transform)が用いられる。続けて、CPU11は、模範音データのスペクトルと楽譜音データとに基づいて、模範音データに含まれる音素(語)と楽譜音データに含まれる音素(語)との対応関係(対応箇所)を求める(ステップS2)。すなわち、CPU11は、模範音データを音素毎に区切り、模範音データと楽譜音データとを音素単位で対応付ける。
模範音声データの各音素の発音タイミングと楽譜音データの各音素の発音タイミングとは時間的に前後にずれている可能性がある。具体的には、例えば、模範となる歌唱者が歌い始めや歌い終わりを意図的にずらして歌唱した場合には、模範音声と楽譜音とは時間的に前後にずれている。このように模範音声と楽譜音とが時間的に前後にずれている場合であっても、両者を対応付けられるようにするため、音声認識技術を用いて模範音データにおける歌詞(音素)の発音タイミングを特定する。なお、音声認識技術に限らず、模範音データにおける各音素の発音タイミングは、予め手動で切っておき、音素と発音タイミングを対応付けて記憶しておいたものを使用してもよい。
図4において、波形G1は、模範音データの表す音声を示す波形であり、実線G21〜G28は、楽譜音データの表す音素毎のピッチと発音タイミングとを示すものである。図において、例えば、歌詞の「た」に対応する音素の発音開始タイミングと発音終了タイミングとは、模範音声と楽譜音とで時間的に前後にずれていることがわかる。このように、模範音声の発音タイミングが楽譜音の発音タイミングとずれていたとしても、音声認識を行うことにより、一方の音データの時間軸を他方の音データの時間軸に合わせて伸縮し、その伸縮によって合わせられた時間軸上の位置を同じくする音素どうしを対応付けることができる。
次いで、CPU11は、ステップS2の対応付け結果に基づいて、楽譜音データが表す各音素の発音タイミングを、模範音データが表す音素の発音タイミングに変換して、加工楽譜音データを生成する(ステップS3)。次いで、CPU11は、楽譜音データとステップS3で生成した加工楽譜音データとを表示部15に出力することによって、楽譜音データが表す音素の発音区間と加工楽譜音データが表す音素の発音区間とを、同一の時間軸に対応させて表示部15に表示させる(ステップS4)。
図5は、ステップS4において表示部15に表示される画面の一例を示す図である。図において、実線G21〜G28(以下、「実線G2」と称する)は楽譜音データが表す音素の発音区間を示すものであり、実線G31〜G38(以下、「実線G3」と称する)は、加工楽譜音データが表す音素の発音区間を示すものである。なお、図5に示す例においては、参考のために模範音データの波形G1も示しているが、この波形G1は表示されなくてもよい。
実線G2と実線G3とにおいて、縦軸はピッチの高低を示し、横軸は時刻を示している。CPU11は、実線G2と実線Gとを同一の時間軸に対応させて表示部15に表示させる。すなわち、実線G2と実線G3とによって、楽譜音と加工楽譜音とのそれぞれに含まれる音素のピッチと発音タイミング(発音開始タイミングと発音終了タイミング)とが表現されている。また、実線G2と実線G3は、音素毎の区切り位置で区切られて表示される。
模範となる歌唱者が歌い出しを本来のタイミングよりも早いタイミングにするいわゆる「つっこみ」という技法や、歌い出しを本来のタイミングよりも遅いタイミングにするいわゆる「ため」という技法を用いた場合、練習者は、楽譜音を表す実線G2を見ても、模範となる歌唱者が発音タイミングをずらしている箇所を把握することはできない。また、波形G1に示すような模範音声の波形を見たとしても、波形から利用者が発音タイミングを把握することは困難であることが多い。これに対し、本実施形態においては、実線G3によって示される音素の発音タイミングは模範音声の音素の発音タイミングであるから、練習者は、表示部15に表示される画面を見ることで、模範音声の発音タイミングを把握することが容易になる。さらに練習者の音程カーブを重ねて表示することで模範音声に対する発音タイミングの遅れ進みを表現することができる。
<B−2:動作例2>
次に、この実施形態の第2の動作例について、図6に示すフローチャートを参照しつつ以下に説明する。なお、図6に示すフローチャートにおいて、ステップS1,ステップS2に示す処理は、図3に示したそれと同様であり、ここではその説明を省略する。
模範音データと楽譜音データとの対応関係を求める(ステップS2)と、次いで、CPU11は、「しゃくり」の技法が用いられている区間を、模範音データから検出されたピッチに基づいて特定する。そして、CPU11は、特定した区間の区間情報を、その歌唱技法を示す種別情報と関連付けて記憶部14の模範技法データ記憶領域14dに記憶する(ステップS13)。より詳細には、CPU11は、模範音データから算出したピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的にピッチが変化する区間を検出し、検出した区間を「しゃくり」の歌唱技法が用いられている区間であると特定する。このとき、CPU11は、特定した区間の始めのピッチと終わりのピッチとを示すピッチデータを、「しゃくり」を示す種別情報と特定した区間の区間情報とに関連付けて模範技法データ記憶領域14dに記憶する。
この具体例について、図7を参照しつつ説明する。図7において、曲線G4は模範音声のピッチを表すグラフである。CPU11がステップS13の処理を実行することによって、曲線G4の区間k1,k2,k3が、「しゃくり」の技法が用いられている区間であると特定される。
なお、この処理は、楽譜音データとの対応関係に基づいて行うようにしてもよい。すなわち、CPU11は、模範音データとすでに作成したG3との対応関係に基づいて、模範音データのピッチが、低いピッチから連続的に楽譜音データのピッチに近づいている区間を検出すればよい。
次いで、CPU11は、ステップS2の対応付け結果に基づいて、楽譜音データが表す各音素の発音タイミングを、模範音データが表す音素の発音タイミングに変換して、加工楽譜音データを生成する(ステップS14)。なお、この処理は、上述した図3のステップS3の処理と同様である。
次いで、CPU11は、楽譜音データとステップS14で生成した加工楽譜音データとを表示部15に出力することによって、楽譜音データが表す各音素の発音区間と加工楽譜音データが表す音素の発音区間とを、同一の時間軸に対応させて表示部15に表示させる。(ステップS15)。このとき、CPU11は、ステップS14の処理により記憶部14の模範技法データ記憶領域14dに記憶された模範技法データを参照して、加工楽譜音データが表す音素の発音区間のうち、「しゃくり」の技法が用いられている区間に対応する部分の表示態様を、当該区間のピッチ変化を表す表示態様にして表示部15に表示させる。
図8は、ステップS15において表示部15に表示される画面の一例を示す図である。図において、G31〜G38はステップS14で作成したものであり、点線G31A〜G38Aは、加工楽譜音データを表すものである。CPU11は、点線G31A〜G38Aにおいて「しゃくり」の技法が用いられている区間k1,k2,k3に対応する部分を、その区間のピッチ変化を示す形状で表示している。具体的には、例えば、区間k1においては、開始時刻のピッチp1から終了時刻のピッチp2までピッチ変化が示されている。
練習者は、表示部15に表示される画面を見ることで、どのタイミングで「しゃくり」の技法が用いられているかを把握することが容易になる。
<C:変形例>
以上、本発明の実施形態について説明したが、本発明は上述した実施形態に限定されることなく、他の様々な形態で実施可能である。以下にその一例を示す。
(1)上述した第2の動作例では、CPU11は、模範音データから「しゃくり」の技法が用いられている区間を抽出した。抽出する技法は「しゃくり」に限らず、例えば、「ビブラート」、「こぶし」、「ファルセット」、「息継ぎ」、「スタッカート」、「クレッシェンド(デクレッシェンド)」などであってもよい。
具体的には、CPU11は、模範音データから算出したピッチの時間的な変化のパターンを解析して、中心となる周波数の上下に所定の範囲内でピッチが連続的に変動している区間を検出し、検出した区間を「ビブラート」の歌唱技法が用いられている区間であると特定する。
また、CPU11は、模範音データと楽譜音データとの対応関係と、模範音データから算出されたパワーとに基づいて、楽譜音データが有音である区間であって模範音データのパワー値が所定の閾値よりも小さい区間を検出し、検出した区間を「息継ぎ」の区間であると特定する。
また、CPU11は、模範音データから算出されたスペクトルの時間的な変化パターンを解析して、スペクトル特性がその予め決められた変化状態に急激に遷移している区間を検出し、検出した区間を「ファルセット」の歌唱技法が用いられている区間であると特定する。ここで、予め決められた変化状態とは、スペクトル特性の高調波成分が極端に少なくなる状態である。例えば、地声の場合は沢山の高調波成分が含まれるが、ファルセットになると高調波成分の大きさが極端に小さくなる。なお、この場合、CPU11は、ピッチが大幅に上方に変化したかどうかも参照してもよい。ファルセットは地声と同一のピッチを発生する場合でも用いられることもあるが、一般には地声では発声できない高音を発声するときに使われる技法だからである。したがって、音声データのピッチが所定音高以上の場合に限って「ファルセット」の検出をするように構成してもよい。また、男声と女声とでは一般にファルセットを用いる音高の領域が異なるので、音声データの音域や、音声データから検出されるフォルマントによって性別検出を行い、この結果を踏まえてファルセット検出の音高領域を設定してもよい。
また、CPU11は、スペクトル特性の変化の態様が短時間に多様に切り替わる区間を検出し、検出した部分を「こぶし」の歌唱技法が用いられている部分であると特定する。「こぶし」の場合は、短い区間において声色や発声方法を変えて唸るような味わいを付加する歌唱技法であるため、この技法が用いられている区間においてはスペクトル特性が多様に変化するからである。
また、CPU11は、模範音データから検出したパワーがある短い一定期間の間だけ強く現れる区間をスタッカートとして検出するようにしてもよい。また、パワーデータ値が連続的に徐々に大きくなる(小さくなる)区間をクレッシェンド(デクレッシェンド)として検出するようにしてもよい。
要するに、CPU11が、模範音データから生成された音分析データの示すピッチ、パワー及びスペクトルの時間的な変化のパターンを解析して、この解析結果が予め定められたパターンに対応するか否かを判定し、対応する場合には当該パターンに対応する区間を特定の歌唱技法が用いられている区間として特定すればよい。
「しゃくり」以外の歌唱技法を検出する場合においても、CPU11は、加工楽譜音データが表す音素の発音区間のうち、技法が用いられていると特定された区間に対応する部分の表示態様を、当該区間のピッチ変化を表す表示態様にして表示部15に表示すればよい。
具体的には、例えば、CPU11は、図9に例示するように、「ビブラート」の技法が用いられている区間k12においては、その区間を波線で表してもよい。また、CPU11は、「クレッシェンド」の技法が用いられている区間k11においては、その区間を表す線の太さが徐々に太くなるように表示してもよい。
(2)上述した実施形態では、音素毎の区切り位置で区切って表示した。これに代えて、発音区間を表す各線の区切り位置によって息継ぎの区間を表現してもよい。
(3)上述した実施形態では、楽譜音データが表す音素の発音区間と加工楽譜音データが表す音素の発音区間とを、水平に伸びるライン状の図形で表した。楽譜音データと加工楽譜音データの音素の発音区間を表す図形は、上述したライン状の図形に限らず、例えば矩形図形であってもよく、また、複数の円状図形が連なって構成された図形であってもよく、要は、加工楽譜音データが表す音素の発音区間と加工楽譜音データが表す音素の発音区間とを、同一の時間軸に対応させて表示するものであればどのようなものであってもよい。
(4)上述した実施形態においては、音分析データとして、模範音データから検出されたピッチ及びスペクトルを示すデータを用いて、この音分析データから「しゃくり」の技法が用いられている区間を抽出した。音分析データはピッチに限らず、抽出したい歌唱技法が用いられている区間を特定できるデータであればよく、例えば「しゃくり」、「ビブラート」の歌唱技法を抽出する場合には、模範音データのピッチを示すデータを音分析データとして用いればよく、また、例えば「クレッシェンド」の技法を抽出する場合には、パワーを示すデータを音分析データとして用いればよい。要するに、音分析データは、模範音声データのピッチ、スペクトル及びパワーのうちの少なくともいずれか一つを示すデータであればよい。
(5)上述した実施形態においては、発音タイミングを示すデータとして、音素の発音開始タイミングと発音終了タイミングとの両方を示すデータを用いたが、音素の発音開始タイミングのみを示すデータであってもよい。
(6)上述した実施形態では、CPU11は、模範音データから技法を抽出して模範技法データを生成した。これに代えて、模範技法データを予め記憶しておいてもよい。この場合は、CPU11は、模範音データから模範技法データを生成する処理を行う必要はない。
(7)上述した実施形態においては、模範音データを模範音データ記憶領域14cに記憶させて、カラオケ装置1のCPU11が記憶部14から模範音データを読み出すようにしたが、これに代えて、通信ネットワークを介して模範音データを受信するようにしてもよい。また、USB(Universal Serial Bus)等のインタフェースを介して模範音データを入力するようにしてもよい。
(8)上述した実施形態では、カラオケ装置1が、本実施形態に係る機能の全てを実現するようになっていた。これに対し、通信ネットワークで接続された2以上の装置が上記機能を分担するようにし、それら複数の装置を備えるシステムが同実施形態のカラオケ装置1を実現するようにしてもよい。
(9)上述した実施形態では、CPU11は、加工楽譜音データを表示部15に出力した。これに代えて、加工楽譜音データを通信ネットワークを介して所定のサーバ装置に送信することによって出力してもよい。または、USB等のインタフェースを介して加工楽譜音データを出力してもよい。
(10)上述した実施形態におけるカラオケ装置1のCPU11によって実行されるプログラムは、磁気テープ、磁気ディスク、フレキシブルディスク、光記録媒体、光磁気記録媒体、CD(Compact Disk)−ROM、DVD(Digital Versatile Disk)、RAMなどの記録媒体に記憶した状態で提供し得る。また、インターネットのようなネットワーク経由でカラオケ装置1にダウンロードさせることも可能である。
(11)上述した実施形態では、模範となる歌唱音声を表す模範音データと楽譜音データとを対応付けて、その対応結果に基づいて楽譜音データを加工するようにした。本発明における模範音データは、歌唱音声を表す音声データに限定されるものではなく、楽器の演奏音を表す音声データにも適用することができる。この場合も、カラオケ装置のCPUが、楽器の演奏音を表す音声データと楽譜音データとを対応付けて、その対応結果に基づいて楽譜音データを加工する。すなわち、模範音データは、人の歌声を表す音声データであってもよく、楽器の演奏音を表す音声データであってもよい。
カラオケ装置のハードウェア構成の一例を示すブロック図である。 模範技法データの内容の一例を示す図である。 カラオケ装置が行う処理の流れを示すフローチャートである。 模範音データと楽譜音データの対応付けを説明するための図である。 表示部に表示される画面の一例を示す図である。 カラオケ装置が行う処理の流れを示すフローチャートである。 技法が用いられている区間の検出処理を説明するための図である。 表示部に表示される画面の一例を示す図である。 表示部に表示される画面の一例を示す図である。
符号の説明
1…カラオケ装置、11…CPU、12…ROM、13…RAM、14…記憶部、15…表示部、16…操作部、17…マイクロフォン、18…音声処理部、19…スピーカ。

Claims (10)

  1. 発音タイミングが時系列に連なる複数の音素の発音タイミングを表す楽譜音データを記憶する第1の記憶手段と、
    模範となる音を表す模範音データを記憶する第2の記憶手段と、
    前記第2の記憶手段によって記憶されている模範音データを音素毎に区切り、前記第1の記憶手段によって記憶されている楽譜音データと音素単位で対応付ける対応付け手段と、
    前記対応付け手段による対応付け結果に基づいて、前記楽譜音データが表す各音素の発音タイミングを、前記模範音データが表す音素の発音タイミングに変換して、加工楽譜音データを生成する加工楽譜音データ生成手段と、
    前記楽譜音データと加工楽譜音データ生成手段により生成された加工楽譜音データとを出力する出力手段と
    を備えることを特徴とする指導装置。
  2. 発音タイミングが時系列に連なる複数の音素の発音タイミングを表す楽譜音データを記憶する第1の記憶手段と、
    模範となる音を表す模範音データを記憶する第2の記憶手段と、
    前記第2の記憶手段によって記憶されている模範音データを音素毎に区切り、前記第1の記憶手段によって記憶されている楽譜音データと音素単位で対応付ける対応付け手段と、
    前記対応付け手段による対応付け結果に基づいて、前記楽譜音データが表す各音素の発音タイミングを、前記模範音データが表す音素の発音タイミングに変換して、加工楽譜音データを生成する加工楽譜音データ生成手段と、
    前記加工楽譜音データ生成手段により生成された工楽譜音データを指導用データとして出力する出力手段と
    を備えることを特徴とする指導用データ製作装置。
  3. 前記出力手段は、前記楽譜音データが表す音素の発音区間と前記加工楽譜音データが表す音素の発音区間とを、同一の時間軸に対応させて表示手段に表示する
    ことを特徴とする請求項1に記載の指導装置。
  4. 前記模範音データから、当該模範音データのピッチ、スペクトル及びパワーのうちの少なくともいずれか一つを示す音分析データを生成する音分析データ生成手段と、
    前記音分析データ生成手段により生成された音分析データの時間的な変化のパターンを解析して、この解析結果が予め定められたパターンに対応するか否かを判定し、対応する場合には当該パターンに対応する区間を特定の技法が用いられている区間として特定する技法区間特定手段と
    を備え、
    前記出力手段は、前記加工楽譜音データが表す音素の発音区間のうち、前記技法区間特定手段によって特定された区間に対応する部分の表示態様を、それ以外の区間の表示態様と異ならせて前記表示手段に表示する
    ことを特徴とする請求項3に記載の指導装置。
  5. 前記音分析データ生成手段は、前記模範音データからピッチを示す音分析データを生成し、
    前記技法区間特定手段は、前記音分析データ生成手段により生成された音分析データの示すピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的に変化する区間を特定し、
    前記出力手段は、前記加工楽譜音データが表す音素の発音区間のうち、前記技法特定手段によって特定された区間に対応する部分の表示態様を、当該区間のピッチ変化を表す表示態様にして前記表示手段に表示する
    ことを特徴とする請求項4に記載の指導装置。
  6. 発音タイミングが時系列に連なる複数の音素の発音タイミングを表す楽譜音データを記憶する第1の記憶手段と、模範となる音を表す模範音データを記憶する第2の記憶手段とを備えるコンピュータに、
    前記第2の記憶手段によって記憶されている模範音データを音素毎に区切り、前記第1の記憶手段によって記憶されている楽譜音データと音素単位で対応付ける対応付け機能と、
    前記対応付け機能による対応付け結果に基づいて、前記楽譜音データが表す各音素の発音タイミングを、前記模範音データが表す音素の発音タイミングに変換して、加工楽譜音データを生成する加工楽譜音データ生成機能と、
    前記楽譜音データと前記加工楽譜音データ生成機能により生成した加工楽譜音データとを出力する出力機能と
    を実現させるプログラム。
  7. 発音タイミングが時系列に連なる複数の音素の発音タイミングを表す楽譜音データを記憶する第1の記憶手段と、模範となる音を表す模範音データを記憶する第2の記憶手段とを備えるコンピュータに、
    前記第2の記憶手段によって記憶されている模範音データを音素毎に区切り、前記第1の記憶手段によって記憶されている楽譜音データと音素単位で対応付ける対応付け機能と、
    前記対応付け機能による対応付け結果に基づいて、前記楽譜音データが表す各音素の発音タイミングを、前記模範音データが表す音素の発音タイミングに変換して、加工楽譜音データを生成する加工楽譜音データ生成機能と、
    前記加工楽譜音データ生成機能により生成した加工楽譜音データを出力する出力機能と
    を実現させるプログラム。
  8. 前記出力機能は、前記楽譜音データが表す音素の発音区間と前記加工楽譜音データが表す音素の発音区間とを、同一の時間軸に対応させて表示手段に表示する
    ことを特徴とする請求項6に記載のプログラム。
  9. コンピュータに、
    前記模範音データから、当該模範音データのピッチ、スペクトル及びパワーのうちの少なくともいずれか一つを示す音分析データを生成する音分析データ生成機能と、
    前記音分析データ生成機能により生成された音分析データの時間的な変化のパターンを解析して、この解析結果が予め定められたパターンに対応するか否かを判定し、対応する場合には当該パターンに対応する区間を特定の技法が用いられている区間として特定する技法区間特定機能と
    を更に実現させ、
    前記出力機能は、前記加工楽譜音データが表す音素の発音区間のうち、前記技法区間特定機能により特定した区間に対応する部分の表示態様を、それ以外の区間の表示態様と異ならせて前記表示手段に表示する
    ことを特徴とする請求項8に記載のプログラム。
  10. 前記音分析データ生成機能は、前記模範音データからピッチを示す音分析データを生成し、
    前記技法区間特定機能は、前記音分析データ生成機能により生成した音分析データの示すピッチの時間的な変化のパターンを解析して、低いピッチから高いピッチに連続的に変化する区間を特定し、
    前記出力機能は、前加工楽譜音データが表す音素の発音区間のうち、前記技法特定機能により特定された区間に対応する部分の表示態様を、当該区間のピッチ変化を表す表示態様にして前記表示手段に表示する
    ことを特徴とする請求項9に記載のプログラム。
JP2006155296A 2006-06-02 2006-06-02 指導装置及びプログラム Expired - Fee Related JP4839967B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006155296A JP4839967B2 (ja) 2006-06-02 2006-06-02 指導装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006155296A JP4839967B2 (ja) 2006-06-02 2006-06-02 指導装置及びプログラム

Publications (2)

Publication Number Publication Date
JP2007322933A true JP2007322933A (ja) 2007-12-13
JP4839967B2 JP4839967B2 (ja) 2011-12-21

Family

ID=38855771

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006155296A Expired - Fee Related JP4839967B2 (ja) 2006-06-02 2006-06-02 指導装置及びプログラム

Country Status (1)

Country Link
JP (1) JP4839967B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217141A (ja) * 2008-03-12 2009-09-24 Yamaha Corp 音声合成装置
JP2015191171A (ja) * 2014-03-28 2015-11-02 ブラザー工業株式会社 情報処理装置、プログラム、カラオケシステム
WO2016017622A1 (ja) * 2014-07-28 2016-02-04 ヤマハ株式会社 リファレンス表示装置、リファレンス表示方法およびプログラム
JP6274470B1 (ja) * 2017-04-25 2018-02-07 幸治 加澤 上下発声母音表記方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091290A (ja) * 2000-09-19 2002-03-27 Yamaha Corp 演奏表示装置および演奏表示方法
JP2007232750A (ja) * 2006-02-27 2007-09-13 Yamaha Corp カラオケ装置、制御方法およびプログラム
JP2007310204A (ja) * 2006-05-19 2007-11-29 Yamaha Corp 楽曲練習支援装置、制御方法及びプログラム

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002091290A (ja) * 2000-09-19 2002-03-27 Yamaha Corp 演奏表示装置および演奏表示方法
JP2007232750A (ja) * 2006-02-27 2007-09-13 Yamaha Corp カラオケ装置、制御方法およびプログラム
JP2007310204A (ja) * 2006-05-19 2007-11-29 Yamaha Corp 楽曲練習支援装置、制御方法及びプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009217141A (ja) * 2008-03-12 2009-09-24 Yamaha Corp 音声合成装置
JP2015191171A (ja) * 2014-03-28 2015-11-02 ブラザー工業株式会社 情報処理装置、プログラム、カラオケシステム
WO2016017622A1 (ja) * 2014-07-28 2016-02-04 ヤマハ株式会社 リファレンス表示装置、リファレンス表示方法およびプログラム
JP2016031394A (ja) * 2014-07-28 2016-03-07 ヤマハ株式会社 リファレンス表示装置およびプログラム
US10332496B2 (en) 2014-07-28 2019-06-25 Yamaha Corporation Reference display device, reference display method, and program
JP6274470B1 (ja) * 2017-04-25 2018-02-07 幸治 加澤 上下発声母音表記方法
JP2018185404A (ja) * 2017-04-25 2018-11-22 幸治 加澤 上下発声母音表記方法

Also Published As

Publication number Publication date
JP4839967B2 (ja) 2011-12-21

Similar Documents

Publication Publication Date Title
JP4124247B2 (ja) 楽曲練習支援装置、制御方法及びプログラム
JP2007256617A (ja) 楽曲練習装置および楽曲練習システム
JP2006030692A (ja) 楽器演奏教習装置及びそのプログラム
JP2008026622A (ja) 評価装置
JP2007232750A (ja) カラオケ装置、制御方法およびプログラム
JP2007310204A (ja) 楽曲練習支援装置、制御方法及びプログラム
JP2008139426A (ja) 評価用データのデータ構造、カラオケ装置及び記録媒体
JP4949899B2 (ja) ピッチ表示制御装置
JP2006276693A (ja) 歌唱評価表示装置およびプログラム
JP4212446B2 (ja) カラオケ装置
JP2010025972A (ja) コード名検出装置及びコード名検出用プログラム
JP4479701B2 (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
JP2007264569A (ja) 検索装置、制御方法及びプログラム
JP3996565B2 (ja) カラオケ装置
JP4839967B2 (ja) 指導装置及びプログラム
JP4204941B2 (ja) カラオケ装置
JP2006259471A (ja) 歌唱練習システムおよび歌唱練習システム用プログラム
JP2007322934A (ja) 歌唱練習装置、カラオケ装置及びプログラム
JP2007233077A (ja) 評価装置、制御方法及びプログラム
JP2009169103A (ja) 練習支援装置
JP2008225116A (ja) 評価装置及びカラオケ装置
JP4531679B2 (ja) マルチスタンダード採点を行うカラオケ採点装置
JP2008040260A (ja) 楽曲練習支援装置、動的時間整合モジュールおよびプログラム
JP4891135B2 (ja) 評価装置
JP2007304489A (ja) 楽曲練習支援装置、制御方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110722

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110919

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees