JP6787491B2 - 音発生装置及び方法 - Google Patents

音発生装置及び方法 Download PDF

Info

Publication number
JP6787491B2
JP6787491B2 JP2019526038A JP2019526038A JP6787491B2 JP 6787491 B2 JP6787491 B2 JP 6787491B2 JP 2019526038 A JP2019526038 A JP 2019526038A JP 2019526038 A JP2019526038 A JP 2019526038A JP 6787491 B2 JP6787491 B2 JP 6787491B2
Authority
JP
Japan
Prior art keywords
sound
singing
phrase
pronunciation
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019526038A
Other languages
English (en)
Other versions
JPWO2019003349A1 (ja
Inventor
一輝 柏瀬
一輝 柏瀬
桂三 濱野
桂三 濱野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Publication of JPWO2019003349A1 publication Critical patent/JPWO2019003349A1/ja
Application granted granted Critical
Publication of JP6787491B2 publication Critical patent/JP6787491B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/033Voice editing, e.g. manipulating the voice of the synthesiser

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Electrophonic Musical Instruments (AREA)

Description

本発明は、歌唱用データに基づき歌唱音を発音する音発生装置及び方法に関する。
音声合成技術を用い、歌唱用データに基づき歌唱音を発音する音発生装置が知られている。例えば、下記特許文献1の装置は、複数種類の合成情報(音韻情報と韻律情報)を音符毎にユーザに入力させ、リアルタイムに歌唱合成を行う。なお、音韻情報と韻律情報との入力タイミングにズレがあるとユーザに違和感を与えることから、特許文献1の装置は、最先の合成情報の入力から、最先の合成情報に対応する音声信号の出力が開始されるまでの間、ダミー音を発音することで違和感を緩和している。これによれば、決まった順番で1音節ずつ歌唱する際の違和感を緩和できる。
特許第6044284号公報
ところで一般に、曲の歌詞はフレーズ等のまとまりのある単位(区間)を複数有して構成される。そのため、あるフレーズの歌唱途中において、演奏者が、次のフレーズの歌唱へ移行したい場合が考えられる。仮にフレーズの切り替えができるように構成した場合、切り替え先のフレーズを確定し、切り替え後のフレーズ内の音節に発音位置を移動させる等の処理が必要となる。切り替え先のフレーズの確定や実際の切り替え処理のために時間を要すると、フレーズ切り替えの度に本来の歌唱指示に基づく音節の発音が途切れ、違和感を与えるおそれがある。伴奏音も併せて再生しているときには特に目立ってしまう。
本発明の目的は、発音区間の切り替わり時における違和感を緩和することができる音発生装置及び方法を提供することである。
上記目的を達成するために本発明によれば、発音の基となる音節情報を含み連続する複数の区間からなる歌唱用データを取得するデータ取得部と、前記データ取得部により取得された歌唱用データのうち次の発音対象区間を指定する区間指定操作を検出する検出部と、前記検出部により区間指定操作が検出されたことに応じて、歌唱の指示に基づく歌唱音とは別の所定の歌唱音を発音する発音制御部と、を有する音発生装置が提供される。
なお、上記括弧内の符号は例示である。
本発明によれば、発音区間の切り替わり時における違和感を緩和することができる。
音発生装置の模式図である。 電子楽器のブロック図である。 表示ユニットの主要部を示す図である。 演奏が行われる場合の処理の流れの一例を示すフローチャートである。 歌詞テキストデータの一例を示す図である。 音声素片データの種類の一例を示す図である。 演奏が行われる場合の処理の流れの一例を示すフローチャートの一部である。
以下、図面を参照して本発明の実施の形態を説明する。
(第1の実施の形態)
図1は、本発明の第1の実施の形態に係る音発生装置の模式図である。この音発生装置は、一例として鍵盤楽器である電子楽器100として構成され、本体部30及びネック部31を有する。本体部30は、第1面30a、第2面30b、第3面30c、第4面30dを有する。第1面30aは、複数の鍵から成る鍵盤部KBが配設される鍵盤配設面である。第2面30bは裏面である。第2面30bにはフック36、37が設けられる。フック36、37間には不図示のストラップを架けることができ、演奏者は通常、ストラップを肩に掛けて鍵盤部KBの操作等の演奏を行う。従って、肩掛けした使用時で、特に鍵盤部KBの音階方向(鍵の配列方向)が左右方向となるとき、第1面30a及び鍵盤部KBが聴取者側を向き、第3面30c、第4面30dはそれぞれ概ね下方、上方を向く。ネック部31は本体部30の側部から延設される。ネック部31には、進み操作子34、戻し操作子35をはじめとする各種の操作子が配設される。本体部30の第4面30dには、液晶等で構成される表示ユニット33が配設される。
電子楽器100は、演奏操作子への操作に応じて歌唱模擬を行う楽器である。ここで、歌唱模擬とは、歌唱合成により人間の声を模擬した音声を出力することである。鍵盤部KBの各鍵は白鍵、黒鍵が音高順に並べられ、各鍵は、それぞれ異なる音高に対応付けられている。電子楽器100を演奏する場合、ユーザは、鍵盤部KBの所望の鍵を押下する。電子楽器100はユーザにより操作された鍵を検出し、操作された鍵に応じた音高の歌唱音を発音する。なお、発音される歌唱音の音節の順番は予め定められている。
図2は、電子楽器100のブロック図である。電子楽器100は、CPU(Central Processing Unit)10と、タイマ11と、ROM(Read Only Memory)12と、RAM(Random Access Memory)13と、データ記憶部14と、演奏操作子15と、他操作子16と、パラメータ値設定操作子17と、表示ユニット33と、音源19と、効果回路20と、サウンドシステム21と、通信I/F(Interface)と、バス23と、を備える。
CPU10は、電子楽器100全体の制御を行う中央処理装置である。タイマ11は、時間を計測するモジュールである。ROM12は制御プログラムや各種のデータなどを格納する不揮発性のメモリである。RAM13はCPU10のワーク領域及び各種のバッファなどとして使用される揮発性のメモリである。表示ユニット33は、液晶ディスプレイパネル、有機EL(Electro-Luminescence)パネルなどの表示モジュールである。表示ユニット33は、電子楽器100の動作状態、各種設定画面、ユーザに対するメッセージなどを表示する。
演奏操作子15は、主として音高を指定する演奏操作を受け付けるモジュールである。本実施の形態では、鍵盤部KB、進み操作子34、戻し操作子35は演奏操作子15に含まれる。一例として、演奏操作子15が鍵盤である場合、演奏操作子15は、各鍵に対応するセンサのオン/オフに基づくノートオン/ノートオフ、押鍵の強さ(速さ、ベロシティ)などの演奏情報を出力する。この演奏情報は、MIDI(musical instrument digital interface)メッセージ形式であってもよい。
他操作子16は、例えば、電子楽器100に関する設定など、演奏以外の設定を行うための操作ボタンや操作つまみなどの操作モジュールである。パラメータ値設定操作子17は、主として歌唱音の属性についてのパラメータを設定するために使用される、操作ボタンや操作つまみなどの操作モジュールである。このパラメータとしては、例えば、和声(Harmonics)、明るさ(Brightness)、共鳴(Resonance)、性別要素(Gender Factor)等がある。和声とは、声に含まれる倍音成分のバランスを設定するパラメータである。明るさとは、声の明暗を設定するパラメータであり、トーン変化を与える。共鳴とは、歌唱音声や楽器音の、音色や強弱を設定するパラメータである。性別要素とは、フォルマントを設定するパラメータであり、声の太さ、質感を女性的、或いは、男性的に変化させる。外部記憶装置3は、例えば、電子楽器100に接続される外部機器であり、例えば、音声データを記憶する装置である。通信I/F22は、外部機器と通信する通信モジュールである。バス23は電子楽器100における各部の間のデータ転送を行う。
データ記憶部14は、歌唱用データ14aを格納する。歌唱用データ14aには歌詞テキストデータ、音韻情報データベースなどが含まれる。歌詞テキストデータは、歌詞を記述するデータである。歌詞テキストデータには、曲ごとの歌詞が音節単位で区切られて記述されている。すなわち、歌詞テキストデータは歌詞を音節に区切った文字情報を有し、この文字情報は音節に対応する表示用の情報でもある。ここで音節とは、1回の演奏操作に応じて出力する音のまとまりである。音韻情報データベースは、音声素片データを格納するデータベースである。音声素片データは音声の波形を示すデータであり、例えば、音声素片のサンプル列のスペクトルデータを波形データとして含む。また、音声素片データには、音声素片の波形のピッチを示す素片ピッチデータが含まれる。歌詞テキストデータ、音声素片データは、それぞれ、データベースにより管理されてもよい。
音源19は、複数の発音チャンネルを有するモジュールである。音源19には、CPU10の制御の基で、ユーザの演奏に応じて1つの発音チャンネルが割り当てられる。歌唱音を発音する場合、音源19は、割り当てられた発音チャンネルにおいて、データ記憶部14から演奏に対応する音声素片データを読み出して歌唱音データを生成する。効果回路20は、音源19が生成した歌唱音データに対して、パラメータ値設定操作子17により指定された音響効果を適用する。サウンドシステム21は、効果回路20による処理後の歌唱音データを、デジタル/アナログ変換器によりアナログ信号に変換する。そして、サウンドシステム21は、アナログ信号に変換された歌唱音を増幅してスピーカなどから出力する。
図3は、表示ユニット33の主要部を示す図である。表示ユニット33は、表示領域として、第1メインエリア41、第2メインエリア42、第1サブエリア43、第2サブエリア44を有する。全体の表示領域は2行(2段)構成となっており、第1メインエリア41及び第1サブエリア43が1行目(上段)、第2メインエリア42及び第2サブエリア44が2行目(下段)に配置される。メインエリア41、42のそれぞれにおいて、表示ユニット33の長手方向に複数の表示枠45(45−1、45−2、45−3・・・)が直列に配置されている。図3の左端の表示枠45−1を先頭として、音節に対応する文字が発音予定順に表示される。メインエリア41、42は主として歌詞表示に用いられる。
次に、歌唱順序及び歌詞表示に着目した動作について説明する。まず、歌唱用データ14aに含まれる歌詞テキストデータは、選択曲に応じた複数の各音節に対応付けられた文字情報を少なくとも含む。歌詞テキストデータは、歌唱部(音源19、効果回路20及びサウンドシステム21)により歌唱されるためのデータである。歌詞テキストデータは予め、連続した複数の区間に分けられており、分割された各区間を「フレーズ」と称する。フレーズは、あるまとまりのある単位であり、ユーザが認識しやすい意味により区切られたものであるが、区間の定義はこれに限定されない。CPU10は、曲が選択されると、複数のフレーズに分けられた状態で取得する。フレーズには1以上の音節とその音節に対応する文字情報が含まれる。
電子楽器100が起動されると、CPU10は、選択曲に対応する複数のフレーズのうち先頭のフレーズに対応する文字情報を、表示ユニット33の第1メインエリア41(図3)に表示させる。その際、1フレーズ目の先頭の文字が左端の表示枠45−1に表示され、第1メインエリア41に表示可能な数だけ文字が表示される。2フレーズ目については、第2メインエリア42に表示可能な数だけ文字が表示される。鍵盤部KBは、歌唱の指示を取得する指示取得部としての役割を果たす。CPU10は、鍵盤部KBの操作等によって歌唱の指示が取得されたことに応じて、次に歌唱する音節を歌唱部に歌唱させると共に、第1メインエリア41に表示された文字の表示を、音節の進行に従って進める。文字表示の歩進方向は図3の左方向であり、最初に表示しきれなかった文字は、歌唱の進行に応じて右端の表示枠45から表れる。カーソル位置は次に歌唱する音節を示すものであり、第1メインエリア41の表示枠45−1に表示された文字に対応する音節を指示する。鍵盤部KBの操作に応じて、表示ユニット33に表示される歌詞が更新される。
なお、1文字と1音節とは必ずしも対応しない。例えば、濁点を有する「だ」(da)は、「た」(ta)と「"」の2文字が1音節に対応する。また、歌詞は英語でもよく、例えば歌詞が「september」の場合、「sep」「tem」「ber」の3音節となる。「sep」は1音節であるが、「s」「e」「p」の3文字が1音節に対応する。文字表示の歩進はあくまで音節単位であるので、「だ」の場合は歌唱により2文字進むことになる。このように、歌詞は、日本語に限らず他言語であってもよい。
第1メインエリア41への表示対象となっているフレーズの全ての音節が発音済みとなった場合は、CPU10は、第1メインエリア41への表示対象となっているフレーズの次のフレーズに属する文字情報を第1メインエリア41に表示させ、第2メインエリア42への表示対象となっているフレーズの次のフレーズに属する文字情報を第2メインエリア42に表示させる。なお、第2メインエリア42への表示対象となっているフレーズの次のフレーズが存在しない場合は、第2メインエリア42へ表示される文字はなくなる(全ての表示枠45は空白)。
図1に示す進み操作子34は、フレーズ単位で表示を繰り上げるための操作子である。また、進み操作子34を押下して離す操作をフレーズ進み操作の一例とする。戻し操作子35はフレーズ単位で表示を繰り下げるための操作子である。戻し操作子35を押下して離す操作をフレーズ戻し操作の一例とする。進み操作子34によるフレーズ進み操作、戻し操作子35によるフレーズ戻し操作が、次の発音対象フレーズ(発音対象区間)を指定するフレーズ指定操作(区間指定操作)に該当する。
CPU10は、フレーズ指定操作を検出すると、次の発音対象フレーズを確定させる。例えばCPU10は、進み操作子34の押下操作を検出した後、進み操作子34の離し操作を検出すると、現在のフレーズの1つ後のフレーズを発音対象フレーズとして確定させる。また、戻し操作子35の押下操作を検出した後、戻し操作子35の離し操作を検出すると、現在のフレーズの1つ前のフレーズを発音対象フレーズとして確定させる。進み操作子34の押下操作、戻し操作子35の押下操作は、フレーズ指定操作のうち指定開始操作となる。進み操作子34の離し操作、戻し操作子35の離し操作は、フレーズ指定操作のうち指定終了操作となる。
発音対象フレーズの確定処理に連動し、CPU10は次のように歌詞表示処理を実行する。この歌詞表示処理は不図示の別途のフローチャートにより実行される。まず、CPU10は、フレーズ進み操作を検出すると、フレーズ表示の繰り上げ処理を実行することで、確定した発音対象フレーズを第1メインエリア41に表示する。例えばCPU10は、それまで第2メインエリア42に表示されていた文字列を第1メインエリア41に表示させると共に、さらに次のフレーズの文字列を第2メインエリア42に表示させる。なお、第2メインエリア42への表示対象となっているフレーズの次のフレーズが存在しない場合は、第2メインエリア42へ表示される文字はなくなる(全ての表示枠45は空白)。一方、CPU10は、フレーズ戻し操作を検出すると、フレーズ表示の繰り下げ処理を実行することで、確定した発音対象フレーズを第1メインエリア41に表示する。例えばCPU10は、第1メインエリア41への表示対象となっていたフレーズの直前のフレーズに属する文字情報を第1メインエリア41に表示させ、第2メインエリア42への表示対象となっていたフレーズの直前のフレーズに属する文字情報を第2メインエリア42に表示させる。
ところで、発音対象フレーズの確定までに、ユーザに認識され得る程度の時間を要する場合がある。発音対象フレーズが確定するまでは次の音節を発音できないため、違和感が生じるおそれがある。そこで本実施の形態では、CPU10は、フレーズ進み操作または戻し操作(指定開始を示す区間指定操作)が検出されたことに応じて、ダミー音(所定の歌唱音)の発音を開始し、少なくとも次の発音対象フレーズが確定するまでそのダミー音を継続する。ダミー音は歌唱合成による「ル(ru)」等の歌唱音であり、その種類は問わず、その発音の基となる音節情報は予めROM12に格納されている。なお、ダミー音の発音の基となる音節情報は、歌唱用データ14aに付随させてもよい。また、歌唱用データ14aにおいて、ダミー音用の音節情報をフレーズごとに付随させ、現在の発音対象フレーズまたは次の発音対象フレーズに対応するダミー音を生成するようにしてもよい。また、ダミー音の発音の基となる音節情報を複数格納しておき、直前に発音していた歌唱音に基づいてダミー音を生成するようにしてもよい。
図4は、電子楽器100による演奏が行われる場合の処理の流れの一例を示すフローチャートである。ここでは、ユーザにより、演奏曲の選択と選択した曲の演奏とが行われる場合の処理について説明する。また、説明を簡単にするため、複数の鍵が同時に操作された場合であっても、単音のみを出力する場合について説明する。この場合、同時に操作された鍵の音高のうち、最も高い音高のみについて処理してもよいし、最も低い音高のみについて処理してもよい。なお、以下に説明する処理は、例えば、CPU10がROM12やRAM13に記憶されたプログラムを実行することにより実現される。図4に示す処理において、CPU10は、データ取得部、検出部、発音制御部、確定部としての役割を果たす。
電源がオンにされると、CPU10は、演奏する曲を選択する操作がユーザから受け付けられるまで待つ(ステップS101)。なお、一定時間経過しても曲選択の操作がない場合は、CPU10は、デフォルトで設定されている曲が選択されたと判断してもよい。CPU10は、曲の選択を受け付けると、選択された曲の歌唱用データ14aの歌詞テキストデータを読み出す。そして、CPU10は、歌詞テキストデータに記述された先頭の音節にカーソル位置を設定する(ステップS102)。ここで、カーソルとは、次に発音する音節の位置を示す仮想的な指標である。次に、CPU10は、鍵盤部KBの操作に基づくノートオンを検出したか否かを判定する(ステップS103)。CPU10は、ノートオンが検出されない場合、ノートオフを検出したか否かを判別する(ステップS109)。一方、ノートオンを検出した場合、すなわち新たな押鍵を検出した場合は、CPU10は、音を出力中であればその音の出力を停止する(ステップS104)。この場合の音にはダミー音も含まれ得る。次にCPU10は、次の発音対象フレーズが確定状態となっているか否かを判別する(ステップS105)。通常の、歌唱指示(ノートオン)の取得に応じて歌唱音節を順に歩進させている段階では、発音対象フレーズが確定状態となっている。従ってこの場合は、CPU10は、ノートオンに応じた歌唱音を発音する出力音生成処理を実行する(ステップS107)。
この出力音生成処理を説明する。CPU10はまず、カーソル位置に対応する音節の音声素片データ(波形データ)を読み出し、ノートオンに対応する音高で、読み出した音声素片データが示す波形の音を出力する。具体的には、CPU10は、音声素片データに含まれる素片ピッチデータが示す音高と、操作された鍵に対応する音高との差分を求め、この差分に相当する周波数だけ波形データが示すスペクトル分布を周波数軸方向に移動させる。これにより、電子楽器100は、操作された鍵に対応する音高で歌唱音を出力することができる。次に、CPU10は、カーソル位置(読出位置)を更新し(ステップS108)、処理をステップS109に進める。
ここで、ステップS107、S108の処理に係るカーソル位置の決定と歌唱音の発音について、具体例を用いて説明する。まず、カーソル位置の更新について説明する。図5は、歌詞テキストデータの一例を示す図である。図5の例では、歌詞テキストデータには、5つの音節c1〜c5の歌詞が記述されている。各字「は」、「る」、「よ」、「こ」、「い」は、日本語のひらがなの1字を示し、各字が1音節に対応する。CPU10は、音節単位でカーソル位置を更新する。例えば、カーソルが音節c3に位置している場合、「よ」に対応する音声素片データをデータ記憶部14から読み出し、「よ」の歌唱音を発音する。CPU10は、「よ」の発音が終了すると、次の音節c4にカーソル位置を移動させる。このように、CPU10は、ノートオンに応じて次の音節にカーソル位置を順次移動させる。
次に、歌唱音の発音について説明する。図6は、音声素片データの種類の一例を示す図である。CPU10は、カーソル位置に対応する音節を発音させるために、音韻情報データベースから、音節に対応する音声素片データを抽出する。音声素片データには、音素連鎖データと、定常部分データの2種類が存在する。音素連鎖データとは、「無音(#)から子音」、「子音から母音」、「母音から(次の音節の)子音又は母音」など、発音が変化する際の音声素片を示すデータである。定常部分データは、母音の発音が継続する際の音声素片を示すデータである。例えば、カーソル位置が音節c1の「は(ha)」に設定されている場合、音源19は、「無音→子音h」に対応する音声連鎖データ「#−h」と、「子音h→母音a」に対応する音声連鎖データ「h−a」と、「母音a」に対応する定常部分データ「a」と、を選択する。そして、CPU10は、演奏が開始されて押鍵を検出すると、音声連鎖データ「#−h」、音声連鎖データ「h−a」、定常部分データ「a」に基づく歌唱音を、操作された鍵に応じた音高、操作に応じたベロシティで出力する。このようにして、カーソル位置の決定と歌唱音の発音が実行される。
一方、ステップS105の判別の結果、次の発音対象フレーズが未確定状態である場合は、CPU10は、ステップS103で検出されたノートオンの音高でダミー音の出力音を生成し、ダミー音を出力する。ここで、後述するステップS115で、指定開始操作に基づきダミー音が既に出力されている。従って、出力中のダミー音の音高とステップS103で検出されたノートオンの音高とが相違する場合は、CPU10は、出力中のダミー音をステップS103で検出されたノートオンの音高に修正するよう、ダミー音の出力音を生成する。従って、ダミー音の出力後、次のフレーズ確定まで、演奏者が押鍵によってダミー音の音高を修正できる。その後、ステップS109に進む。
図4のステップS109でノートオフが検出されない場合は、CPU10は処理をステップS112に進める。一方、ノートオフを検出した場合は、CPU10は、次の発音対象フレーズが確定状態となっているか否かを判別する(ステップS110)。通常の、歌唱指示(ノートオン)の取得に応じて歌唱音節を順に歩進させている段階では、発音対象フレーズが確定状態となっている。従ってこの場合は、CPU10は、音を出力中であればその音の出力を停止して(ステップS111)、処理をステップS112に進める。ステップS110の判別の結果、次の発音対象フレーズが未確定状態である場合は、CPU10は処理をステップS112に進める。ステップS112では、CPU10は、指定開始操作(進み操作子34または戻し操作子35の押下操作)が検出されたか否かを判別する。そして指定開始操作が検出されない場合は、CPU10は、指定終了操作(進み操作子34または戻し操作子35の離し操作)が検出されたか否かを判別する(ステップS116)。そして指定終了操作が検出されない場合は、CPU10は、処理をステップS121に進める。
ステップS112の判別の結果、指定開始操作が検出された場合は、CPU10は、音を出力中であればその音の出力を停止して(ステップS113)、発音対象フレーズを未確定状態とする(ステップS114)。なお、CPU10は、例えば所定のフラグに0、1を設定する等によって、発音対象フレーズの未確定状態、確定状態を管理する。次に、CPU10は、ダミー音を自動生成し、ダミー音の出力を開始する(ステップS115))。これにより、指定開始操作に応じてダミー音の発音が開始される。その後、処理はステップS116に進む。
ステップS116の判別の結果、指定終了操作が検出された場合は、CPU10は、ステップS112で検出した指定開始操作と当該指定終了操作とに基づいて、次の発音対象フレーズを確定させる(ステップS117)。例えばCPU10は、上述したように、ステップS112で進み操作子34の押下操作を検出した後、ステップS116で進み操作子34の離し操作を検出した場合、現在のフレーズの1つ後のフレーズを発音対象フレーズとして確定させる。次に、CPU10は、読み出し位置の更新、すなわち、確定した発音対象フレーズにおける先頭の音節にカーソル位置を更新する(ステップS118)。これにより、次の発音対象フレーズが確定した後のステップS103で歌唱指示が取得されると、当該発音対象フレーズにおける先頭に対応する音節が歌唱されるので、確定したフレーズの歌唱へ直ちに移行できる。なお、確定した発音対象フレーズにおけるカーソル位置の更新先は所定位置でよく、必ずしも先頭位置でなくてもよい。その後、CPU10は、発音対象フレーズを確定状態とし(ステップS119)、出力中のダミー音を停止する(ステップS120)。これにより、発音対象フレーズが確定したことに応じてダミー音の発音が終了する。その後、処理はステップS121に進む。
ステップS121では、CPU10は、その他の処理を実行する。例えばCPU10は、ダミー音の発音が一定時間以上継続している場合は、同じダミー音の生成及び出力をやり直す。それにより、例えば、「ルー」というダミー音が長く続いている場合に、「ルールールー」というように同じ音節の発音を繰り返すことができる。その後、CPU10は、演奏が終了したか否かを判別し(ステップS122)、演奏を終了していない場合は処理をステップS103に戻す。一方、演奏を終了した場合は、CPU10は、音を出力中であればその音の出力を停止して(ステップS123)、図4に示す処理を終了する。なお、CPU10は、演奏を終了したか否かを、例えば、選択曲の最後尾の音節が発音されたか否か、あるいは他操作子16により演奏を終了する操作が行われた否か、などに基づき判別できる。
本実施の形態によれば、フレーズ指定操作が検出されたことに応じて、歌唱の指示に基づく歌唱音とは別のダミー音(所定の歌唱音)が発音される。これにより、フレーズ切り替えの度に本来の歌唱指示に基づく音節の発音が停止しても、ダミー音が発音されることで、発音区間の切り替わり時における違和感を緩和することができる。特にダミー音の発音は、指定開始操作が検出されたことに応じて開始され、少なくとも、次の発音対象区間が確定するまで継続するので、発音区間の切り替わり時に無音となることが回避される。また、指定終了操作により発音対象フレーズが確定するので、ユーザがフレーズ指定操作をしている間、ダミー音の発音を継続させることができる。
また、ダミー音の発音中に音高を指定する指示を取得した場合は、CPU10は、ダミー音の発音音高を指定された音高へ変更する(ステップS106)ので、ダミー音の音高修正により違和感を一層緩和することができる。
(第2の実施の形態)
第1の実施の形態では、ダミー音は、発音対象フレーズが確定状態となると直ちに停止された。これに対し、本発明の第2の実施の形態では、発音を開始したダミー音を、発音対象フレーズの確定後における最初にノートオンがあるまで継続する。そのために、図4のステップS120を廃止すればよい。そうすれば、発音対象フレーズが確定状態となった後の最初のノートオンにより、それまで出力中であったダミー音がステップS104で停止される。従って、発音が開始されたダミー音を、発音対象フレーズの確定後のノートオンまで途切れないようにすることができる。
なお、本実施の形態は、例えば、1つの操作で指定開始操作と指定終了操作が完結してしまうような仕様において効果的である。例えば、進み操作子34または戻し操作子35を押しただけで指定開始操作と指定終了操作が指示され、離し操作は何も意味を持たないような仕様に本発明を適用してもよい。
(第3の実施の形態)
第1の実施の形態では、ダミー音の発音後にノートオンがあった場合は、音高を変えてダミー音を再発音することで、ダミー音の音高をノートオンの音高に修正するとした(ステップS106)。これに対し本発明の第3の実施の形態では、ダミー音の発音後にノートオンがあってもダミー音の再生成・再発音をしない。
図7は、本発明の第3の実施の形態に係る電子楽器100による演奏が行われる場合の処理の流れの一例を示すフローチャートの一部である。このフローチャートでは、図4のフローチャートに対し、ステップS103より前の処理、ステップS109より後の処理は同じであるので、それらの図示を省略している。ステップS105、S106は廃止されている。
ステップS103で、ノートオンを検出すると、CPU10は、ダミー音を発音中であるか否かを判別する(ステップS201)。そして、ダミー音を発音中でない場合は、ステップS104、S107、S108を実行して処理をステップS109に進める。従って、前回のノートオンに基づく発音中の音は停止され、今回のノートオンに基づく歌唱音が発音される。なお、ダミー音が停止されていることは、発音対象フレーズが確定していることを意味する。一方CPU10は、ダミー音を発音中である場合は、処理をステップS109に進める。従って、ダミー音を発音中である場合、ノートオンがあってもノートオンに基づく発音はなされず、ダミー音の発音が音高修正されることなく継続する。
なお、フレーズ指定操作の態様については、例示したものに限らず、各種のバリエーションが考えられる。例えば、第2の実施の形態でも言及したように、進み操作子34や戻し操作子35のような指定操作子を1回押下することで指定開始操作及び指定終了操作が指示され、発音対象フレーズが確定する構成としてもよい。また、1組の操作で移動する先のフレーズは、隣接するフレーズに限らず、CPU10は、複数フレーズを飛び越して発音対象フレーズを確定させてもよい。また、指定操作子を一定時間長押しすることで、指定開始操作及び指定終了操作が完了する構成としてもよい。その際、CPU10は、長押しの時間長に応じて移動先のフレーズを確定させてもよい。またCPU10は、一定時間内における指定操作子の押下操作と離し操作の繰り返し回数によって移動先の発音対象フレーズを確定させてもよい。あるいは、指定操作子と他の操作子との操作の組み合わせによって移動先の発音対象フレーズを指定できる構成としてもよい。また、指定操作子を所定の態様で操作することにより、現在のフレーズに拘わらず、選択曲の先頭のフレーズが発音対象フレーズとして確定されるようにしてもよい。
なお、発音対象フレーズの確定と確定した発音対象フレーズにおけるカーソル位置の設定については次のようにしてもよい。例えば、選択曲の最終フレーズで進み操作子34によるフレーズ指定操作があった場合、CPU10は、選択曲の先頭フレーズを発音対象フレーズとして確定させ、発音対象フレーズの先頭音節にカーソルを設定してもよい。また、先頭フレーズで戻し操作子35によるフレーズ指定操作があった場合、CPU10は、選択曲の先頭フレーズを発音対象フレーズとして確定させ、発音対象フレーズの先頭音節にカーソルを設定してもよい。
なお、選択曲の歌唱用データ14aは、複数のフレーズに分けられた状態で取得できればよく、曲単位で取得することに限定されず、フレーズ単位で取得してもよい。歌唱用データ14aがデータ記憶部14に記憶される態様も曲単位に限定されない。また、歌唱用データ14aの取得先は記憶部に限定されず、通信I/F22を通じた外部機器を取得先としてもよい。また、電子楽器100でユーザが編集または作成することでCPU10により取得されるようにしてもよい。
以上、本発明をその好適な実施形態に基づいて詳述してきたが、本発明はこれら特定の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の様々な形態も本発明に含まれる。
なお、本発明を達成するためのソフトウェアによって表される制御プログラムを記憶した記憶媒体を、本楽器に読み出すことによって同様の効果を奏するようにしてもよく、その場合、記憶媒体から読み出されたプログラムコード自体が本発明の新規な機能を実現することになり、そのプログラムコードを記憶した、非一過性のコンピュータ読み取り可能な記録媒体は本発明を構成することになる。また、プログラムコードを伝送媒体等を介して供給してもよく、その場合は、プログラムコード自体が本発明を構成することになる。なお、これらの場合の記憶媒体としては、ROMのほか、フロッピディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性のメモリカード等を用いることができる。「非一過性のコンピュータ読み取り可能な記録媒体」は、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含む。
10 CPU(データ取得部、検出部、発音制御部、確定部)
14a 歌唱用データ




Claims (8)

  1. 発音の基となる音節情報を含み連続する複数の区間からなる歌唱用データを取得するデータ取得部と、
    前記データ取得部により取得された歌唱用データのうち次の発音対象区間を指定する区間指定操作を検出する検出部と、
    前記検出部により区間指定操作が検出されたことに応じて、歌唱の指示に基づく歌唱音とは別の所定の歌唱音を発音する発音制御部と、を有する音発生装置。
  2. 前記検出部により検出された区間指定操作に基づいて前記次の発音対象区間を確定させる確定部を有し、
    前記発音制御部は、前記検出部により指定開始を示す区間指定操作が検出されたことに応じて前記所定の歌唱音の発音を開始し、少なくとも前記確定部により前記次の発音対象区間が確定するまで、前記所定の歌唱音の発音を継続する請求項1に記載の音発生装置。
  3. 前記確定部は、前記検出部により指定終了を示す区間指定操作が検出されたことに応じて前記次の発音対象区間を確定させる請求項2に記載の音発生装置。
  4. 前記歌唱の指示を取得する指示取得部を有し、
    前記発音制御部は、前記指示取得部により歌唱の指示が取得されたことに応じて、前記歌唱用データにおける複数の音節情報のうち、予め定められた順番で規定される音節情報を歌唱する請求項1〜3のいずれか1項に記載の音発生装置。
  5. 前記発音制御部は、前記次の発音対象区間が確定した後、前記指示取得部により歌唱の指示が取得されたことに応じて、前記次の発音対象区間における所定位置に対応する音節情報を歌唱する請求項4に記載の音発生装置。
  6. 前記発音制御部は、前記次の発音対象区間が確定した後、前記指示取得部により歌唱の指示が取得されたことに応じて前記所定位置に対応する音節情報の歌唱が開始されるまで、前記所定の歌唱音の発音を継続する請求項5に記載の音発生装置。
  7. 前記発音制御部は、前記所定の歌唱音の発音中に音高を指定する指示を取得した場合は、前記所定の歌唱音の発音音高を前記指定された音高へ変更する請求項1〜6のいずれか1項に記載の音発生装置。
  8. 発音の基となる音節情報を含み連続する複数の区間からなる歌唱用データを取得するデータ取得ステップと、
    前記データ取得ステップにより取得された歌唱用データのうち次の発音対象区間を指定する区間指定操作を検出する検出ステップと、
    前記検出ステップにより区間指定操作が検出されたことに応じて、歌唱の指示に基づく歌唱音とは別の所定の歌唱音を発音する発音ステップと、を有する音発生方法。



JP2019526038A 2017-06-28 2017-06-28 音発生装置及び方法 Active JP6787491B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2017/023783 WO2019003349A1 (ja) 2017-06-28 2017-06-28 音発生装置及び方法

Publications (2)

Publication Number Publication Date
JPWO2019003349A1 JPWO2019003349A1 (ja) 2020-01-16
JP6787491B2 true JP6787491B2 (ja) 2020-11-18

Family

ID=64742814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019526038A Active JP6787491B2 (ja) 2017-06-28 2017-06-28 音発生装置及び方法

Country Status (3)

Country Link
JP (1) JP6787491B2 (ja)
CN (1) CN110720122B (ja)
WO (1) WO2019003349A1 (ja)

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3233036B2 (ja) * 1996-07-30 2001-11-26 ヤマハ株式会社 歌唱音合成装置
JP2003140694A (ja) * 2001-11-05 2003-05-16 Matsushita Electric Ind Co Ltd オーディオデコーダ
JP4168621B2 (ja) * 2001-12-03 2008-10-22 沖電気工業株式会社 歌唱音声合成を用いた携帯電話装置及び携帯電話システム
EP1665792A4 (en) * 2003-08-26 2007-11-28 Clearplay Inc METHOD AND DEVICE FOR CONTROLLING THE PLAYING OF AN AUDIOSIGNAL
WO2006008871A1 (ja) * 2004-07-21 2006-01-26 Matsushita Electric Industrial Co., Ltd. 音声合成装置
JP4735544B2 (ja) * 2007-01-10 2011-07-27 ヤマハ株式会社 歌唱合成のための装置およびプログラム
JP6044284B2 (ja) * 2012-11-14 2016-12-14 ヤマハ株式会社 音声合成装置
JP6683103B2 (ja) * 2016-11-07 2020-04-15 ヤマハ株式会社 音声合成方法
JP6977818B2 (ja) * 2017-11-29 2021-12-08 ヤマハ株式会社 音声合成方法、音声合成システムおよびプログラム

Also Published As

Publication number Publication date
WO2019003349A1 (ja) 2019-01-03
JPWO2019003349A1 (ja) 2020-01-16
CN110720122A (zh) 2020-01-21
CN110720122B (zh) 2023-06-27

Similar Documents

Publication Publication Date Title
JP6728754B2 (ja) 発音装置、発音方法および発音プログラム
JP6465136B2 (ja) 電子楽器、方法、及びプログラム
JP7259817B2 (ja) 電子楽器、方法及びプログラム
JP6705272B2 (ja) 発音制御装置、発音制御方法、及びプログラム
WO2015194423A1 (ja) 文字に基づく音声生成のためのコントローラ及びシステム
US20220076658A1 (en) Electronic musical instrument, method, and storage medium
JP6977741B2 (ja) 情報処理装置、情報処理方法、演奏データ表示システム、およびプログラム
JP4929604B2 (ja) 歌データ入力プログラム
JP6787491B2 (ja) 音発生装置及び方法
JP6809608B2 (ja) 歌唱音生成装置及び方法、プログラム
JP6732216B2 (ja) 歌詞表示装置及び歌詞表示装置における歌詞表示方法、電子楽器
WO2018198380A1 (ja) 歌詞表示装置及び方法
JP7456430B2 (ja) 情報処理装置、電子楽器システム、電子楽器、音節進行制御方法及びプログラム
JP2018151548A (ja) 発音装置及びループ区間設定方法
JP7158331B2 (ja) カラオケ装置
JP2018151547A (ja) 発音装置及び発音制御方法
JP2016177277A (ja) 発音装置、発音方法および発音プログラム
WO2019003348A1 (ja) 歌唱音効果生成装置及び方法、プログラム
CN117877459A (zh) 记录介质、音响处理方法以及音响处理系统
WO2018198381A1 (ja) 音生成装置及び方法、楽器
Nettheim Studies in the Computer Rendition of Piano Pedaling
JP2017161721A (ja) 歌詞生成装置および歌詞生成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190919

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200929

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201012

R151 Written notification of patent or utility model registration

Ref document number: 6787491

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151