JP2015082028A - Singing synthetic device and program - Google Patents
Singing synthetic device and program Download PDFInfo
- Publication number
- JP2015082028A JP2015082028A JP2013219805A JP2013219805A JP2015082028A JP 2015082028 A JP2015082028 A JP 2015082028A JP 2013219805 A JP2013219805 A JP 2013219805A JP 2013219805 A JP2013219805 A JP 2013219805A JP 2015082028 A JP2015082028 A JP 2015082028A
- Authority
- JP
- Japan
- Prior art keywords
- singing
- pitch
- volume
- voice
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000001514 detection method Methods 0.000 claims abstract description 33
- 230000002194 synthesizing effect Effects 0.000 claims abstract description 31
- 230000015572 biosynthetic process Effects 0.000 claims description 47
- 230000001105 regulatory effect Effects 0.000 abstract 1
- 239000011295 pitch Substances 0.000 description 98
- 238000003786 synthesis reaction Methods 0.000 description 44
- 238000000034 method Methods 0.000 description 20
- 230000008569 process Effects 0.000 description 13
- 238000006243 chemical reaction Methods 0.000 description 11
- 238000010586 diagram Methods 0.000 description 9
- 230000008859 change Effects 0.000 description 5
- 230000002123 temporal effect Effects 0.000 description 4
- 230000007423 decrease Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 230000001133 acceleration Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000007493 shaping process Methods 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/02—Methods for producing synthetic speech; Speech synthesisers
- G10L13/033—Voice editing, e.g. manipulating the voice of the synthesiser
- G10L13/0335—Pitch control
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
- G10L13/08—Text analysis or generation of parameters for speech synthesis out of text, e.g. grapheme to phoneme translation, prosody generation or stress or intonation determination
- G10L13/10—Prosody rules derived from text; Stress or intonation
- G10L2013/105—Duration
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/90—Pitch determination of speech signals
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Reverberation, Karaoke And Other Acoustics (AREA)
Abstract
Description
本発明は、歌唱音声を合成する歌唱合成装置および歌唱合成プログラムに関する。 The present invention relates to a singing voice synthesizing device and a singing voice synthesis program for synthesizing a singing voice.
従来より、歌唱者の歌唱(音声)を他人の歌唱に変換する技術としては、次のようなものが知られている。すなわち、予め特定人(例えばオリジナルの歌手)が歌唱したときのフォルマントシーケンスデータを記憶しておき、歌唱者による歌唱音声を変換する際には、当該歌唱音声の音高および音量に合わせて、オリジナル歌手のフォルマントシーケンスに基づくフォルマントを整形して、歌唱音声を合成する技術が提案されている(例えば特許文献1参照)。 Conventionally, the following is known as a technique for converting a singer's song (voice) into another person's song. That is, the formant sequence data when a specific person (for example, an original singer) sings is stored in advance, and when the singing voice by the singer is converted, the original is matched to the pitch and volume of the singing voice. A technique for shaping a formant based on a singer's formant sequence to synthesize a singing voice has been proposed (see, for example, Patent Document 1).
ところで、上記技術では、オリジナル歌手のフォルマントシーケンスデータに基づくフォルマントを整形するので、出力される歌唱音声において、オリジナルの歌手の歌い方の影響が残存するのは避けられない。
本発明は、上述した事情に鑑みてなされたもので、その目的の一つは、入力音声、例えば歌唱者の歌唱とは違う声質の歌唱音声で出力する際に、出力される歌唱音声にオリジナルの歌手の歌い方の影響が残存しない歌唱合成装置および歌唱合成プログラムを提供することにある。
By the way, in the above technique, since the formant based on the formant sequence data of the original singer is shaped, it is inevitable that the influence of the original singer's singing remains in the output singing voice.
The present invention has been made in view of the above-described circumstances, and one of its purposes is an original to the singing voice that is output when the input voice, for example, the singing voice having a voice quality different from the singing of the singer is output. An object of the present invention is to provide a singing synthesis apparatus and a singing synthesis program in which the influence of the singer's singing method does not remain.
上記目的を達成するために本発明の一態様に係る歌唱合成装置は、入力音声の歌唱の音高を検出する音高検出部と、前記入力音声の音量を検出する音量検出部と、歌詞と当該歌詞の歌唱タイミングとが規定された歌詞データが演奏の進行に応じて供給されると、前記歌詞データに基づく歌唱音声を、前記音高検出部で検出された音高と、前記音量検出部で検出された音量とに応じて合成する音声合成部と、を備えることを特徴とする。 In order to achieve the above object, a singing voice synthesizing apparatus according to one aspect of the present invention includes a pitch detecting unit that detects a pitch of a singing of input speech, a volume detecting unit that detects a volume of the input speech, and lyrics. When lyric data defining the singing timing of the lyrics is supplied as the performance progresses, the singing voice based on the lyric data is converted into a pitch detected by the pitch detecting unit, and the volume detecting unit. And a voice synthesis unit that synthesizes the sound according to the volume detected in step (b).
この一態様によれば、歌詞データに基づく歌唱音声が、検出された音高および音量で合成される。このため、オリジナルの歌手の歌い方という概念が存在しない。また、歌唱者による歌唱の音高、音量が反映されつつ、歌唱者とは異なる声質で歌唱音声が合成されるので、歌唱者からみれば、歌唱の表現を拡大することができるとともに、新たなる歌唱を体験することができる。
また、好ましい一態様において、音声合成部は、音声素片であるライブラリに基づいて歌唱音声を合成する構成が良い。
なお、音声合成部は、歌唱音声を、例えば、音高検出部で検出された音高と同じ音高で合成しても良いし、検出された音高に対して所定の関係でシフトした音高で合成しても良い。また、音声合成部は、歌唱音声を、例えば、音量検出部で検出された音量と同じ音量で合成しても良いし、検出された音量に対して所定の関係にある音量で合成しても良いし、検出された音量が閾値を超えたときに当該音量に応じて合成しても良い。
According to this aspect, the singing voice based on the lyric data is synthesized with the detected pitch and volume. For this reason, there is no concept of how to sing an original singer. Also, since the singing voice is synthesized with a voice quality different from that of the singer while reflecting the pitch and volume of the singing by the singer, the expression of the singing can be expanded from the viewpoint of the singer, and new You can experience singing.
In a preferred embodiment, the speech synthesizer is preferably configured to synthesize a singing speech based on a library that is a speech segment.
The voice synthesis unit may synthesize the singing voice with, for example, the same pitch as the pitch detected by the pitch detection unit, or the sound shifted in a predetermined relationship with respect to the detected pitch. You may synthesize with high. Further, the voice synthesis unit may synthesize the singing voice with the same volume as the volume detected by the volume detection unit, or may synthesize the singing voice with a volume having a predetermined relationship with the detected volume. Alternatively, when the detected sound volume exceeds a threshold value, synthesis may be performed according to the sound volume.
上記一態様において、前記演奏の進行に応じて伴奏音を生成する音源部と、前記伴奏音と、前記入力音声と、前記歌唱音声と、を出力する出力部と、を備える構成としても良い。この構成によれば、入力音声と、音声合成部よって合成された歌唱音声と、演奏の進行に応じた伴奏音とが出力されるので、歌唱者に新たなる歌唱を体験させることができる。 In the one aspect described above, a configuration may be provided that includes a sound source unit that generates an accompaniment sound according to the progress of the performance, an output unit that outputs the accompaniment sound, the input sound, and the singing sound. According to this configuration, since the input voice, the singing voice synthesized by the voice synthesizing unit, and the accompaniment sound according to the progress of the performance are output, it is possible for the singer to experience a new singing.
上記態様において、前記音声合成部は、前記音量検出部で検出された音量に応じて前記歌詞データの歌唱タイミングを変化させて歌唱音声を合成する構成としても良い。この構成によれば、歌唱者は、合成される歌詞音声を、歌詞データで規定されるタイミング通りではなく、ある程度コントロールできる。このため、音声合成される歌唱のタイミングを即興(アドリブ)的に変化させることが可能になる。
なお、本発明の態様については、歌唱合成装置のみならず、コンピュータを当該歌唱合成装置として機能させるプログラムとして概念することが可能である。
The said aspect WHEREIN: The said voice synthesis | combination part is good also as a structure which synthesize | combines singing voice by changing the singing timing of the said lyric data according to the sound volume detected by the said sound volume detection part. According to this configuration, the singer can control the synthesized lyric sound to some extent, not at the timing defined by the lyric data. For this reason, it becomes possible to improvise (ad-lib) the timing of the singing voice-synthesized.
In addition, about the aspect of this invention, it is possible to consider not only a song synthesizing | combining apparatus but a computer as a program which functions as the said song synthesizing | combining apparatus.
以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
<第1実施形態>
図1は、第1実施形態に係る歌唱合成装置10の構成を示す機能ブロック図である。
この図において、歌唱合成装置10は、ノート型やタブレット型などのコンピュータであって、音声入力部102、音高検出部104、音量検出部108、操作部112、制御部120、データベース130、音声合成部140、音源部160、スピーカ172、174を有する。
これらの機能ブロックのうち、例えば音声入力部102、操作部112、音声合成部140、スピーカ172、174についてはハードウェアによって構築され、音高検出部104、音量検出部108、制御部120、データベース130、音源部160については、図示省略したCPU(Central Processing Unit)が予めインストールされたアプリケーションプログラムを実行することによって構築される。
なお、特に図示しないが、歌唱合成装置10は、このほかにも表示部を有し、利用者が装置の状況や設定を確認することができるようになっている。
<First Embodiment>
FIG. 1 is a functional block diagram showing the configuration of the singing
In this figure, the singing
Among these functional blocks, for example, the
Although not shown in particular, the singing
音声入力部102は、詳細については省略するが、歌唱者(ユーザ)による歌唱音声を電気信号の歌唱音声信号に変換するマイクロフォンと、変換された歌唱音声信号の高域成分をカットするLPF(ローパスフィルタ)と、高域成分をカットした歌唱音声信号をデジタル信号に変換するA/D変換器とで構成される。
音高検出部104は、デジタル信号に変換された歌唱音声信号(入力音声)を周波数解析するとともに、解析して得られた音高(周波数)を示す音高データをほぼリアルタイムで出力する。なお、周波数解析については、FFT(Fast Fourier Transform)や、その他公知の方法を用いることができる。
The
The
音量検出部108は、例えばデジタル信号に変換された歌唱音声信号の振幅エンベロープをローパスフィルタで濾波するなどして、歌唱者の音量を示す音量データを、ほぼリアルタイムで出力する。
一方、操作部112は、歌唱者による操作、例えば歌唱する楽曲の選択操作などを入力して、当該操作を示す情報を、制御部120に供給する。
データベース130は、複数の曲分の楽曲データを記憶する。1曲分の楽曲データは、当該曲の伴奏音を1以上のトラックで規定する伴奏データ、および、当該曲の歌詞を示す歌詞データから構成される。
The
On the other hand, the
The
制御部120は、データベース130を管理するほか、演奏の進行時にあたっては、シーケンサとして機能する。
シーケンサとして機能する制御部120は、データベース130から読み出した楽曲データのうち、伴奏データを解釈して、発生すべき楽音を規定する楽音情報を、演奏の開始時から演奏の進行に合わせて時系列の順で音源部160に供給する。ここで、伴奏データとして例えばMIDI規格に準拠したものが用いられる。なお、MIDI規格に準拠した場合、当該伴奏データは、イベントと、イベント同士の時間間隔を示すデュレーションとの組み合わせで規定される。このため、制御部120は、デュレーションで示される時間が経過する毎に、イベントの内容を示す楽音情報を、音源部160に供給する。つまり、制御部120は、伴奏データを解釈して、楽音情報を音源部160に供給することで当該曲の演奏を進行させることになる。
In addition to managing the
The
また、制御部120は、伴奏データを解釈する際に、演奏開始からのデュレーションの積算値を求める。制御部120は、当該積算値によって、演奏の進行状態、すなわち曲のどの部分が演奏されているかを把握することができる。
In addition, when interpreting the accompaniment data, the
音源部160は、制御部120から供給される楽音情報にしたがって、伴奏音を示す楽音信号を合成する。なお、本実施形態では、必ずしも伴奏音を出力する必要はないので、音源部160は必須ではない。また、音源部160から出力される楽音信号は、図示省略したD/A変換部によってアナログ信号に変換された後、スピーカ174によって音響変換されて出力される。
The
制御部120は、楽音情報を音源部160に供給するほか、演奏の進行に合わせて、歌詞データを音声合成部140に供給する。
音声合成部140は、制御部120から供給される歌詞データと、音高検出部104から供給される音高データと、音量検出部108から供給される音量データと、にしたがって歌唱音声を合成し、歌唱音声信号として出力する。なお、音声合成部140から出力される歌唱音声信号は、図示省略したD/A変換部によってアナログ信号に変換された後、スピーカ172によって音響変換されて出力される。
The
The
図2は、歌詞データの一例を示す図である。この図の例では、楽曲として「さくら」の歌詞データが旋律(歌詞の上に表示された楽譜)とともに示されている。なお、「さくら」の著作権の保護期間は、我が国の著作権法第51条及び第57条の規定によりすでに満了している。
FIG. 2 is a diagram illustrating an example of lyrics data. In the example of this figure, the lyrics data of “Sakura” is shown as a song together with the melody (the score displayed on the lyrics). The copyright protection period of “Sakura” has already expired in accordance with
この図に示されるように、歌詞データは、歌唱すべき歌詞を、演奏の開始時から順番に配列される。歌詞データは、歌詞を示す文字情報を含み、歌唱に対応した文字(文字列を含む。以下同じ)が図に示されるように区切られるとともに、旋律の音符、すなわち、歌詞を歌唱すべき歌唱タイミングおよび歌唱すべき音高に、それぞれ対応付けられている。この例では、歌詞51〜(図では歌詞57までを図示し、以降については図示省略)のそれぞれに対して1つの音符が割り当てられているが、曲(歌詞)によっては、1つの文字に対して複数の音符が割り当てられる場合もあれば、1つの音符に対して複数の文字が割り当てられる場合もある。
演奏の進行が音符で示される歌唱タイミングに到達したときに、制御部120は、当該音符に対応する歌詞の文字および当該歌詞の音高を示すデータを音声合成部140に供給する。
As shown in this figure, in the lyrics data, the lyrics to be sung are arranged in order from the start of the performance. The lyric data includes character information indicating lyrics, and characters corresponding to singing (including character strings; the same applies hereinafter) are divided as shown in the figure, and melody notes, that is, singing timing at which the lyrics should be sung. And the pitch to be sung, respectively. In this example, one note is assigned to each of the
When the progress of the performance reaches the singing timing indicated by the notes, the
なお、演奏の進行が歌唱タイミングに到達したか否かについて、伴奏データの解釈におけるデュレーションの積算値と歌詞データの歌唱タイミングとを予め対応付けておけば、演奏進行において当該積算値が 歌詞データの歌唱タイミングに対応付けられた値に達したか否かによって、制御部120が判別することができる。
また、伴奏音を出力しない場合(伴奏データを使用しない場合)には、伴奏データのデュレーションの積算値で演奏の進行を把握できないので、この場合には、例えば歌詞の歌唱タイミングを、伴奏データと同じように、イベント(歌詞の歌唱イベント)と当該イベント同士の時間間隔を示すデュレーションとで規定して、歌唱タイミングであるか否かについては、当該歌詞データにおいて歌唱すべきイベントが到来しているか否かで判別すれば良い。
As for whether the progress of the performance has reached the singing timing, if the accumulated value of duration in the interpretation of the accompaniment data and the singing timing of the lyrics data are associated in advance, the integrated value in the performance of the lyric data The
In addition, when the accompaniment sound is not output (when accompaniment data is not used), the progress of the performance cannot be grasped by the integrated value of the duration of the accompaniment data. In this case, for example, the singing timing of the lyrics is determined as the accompaniment data. Similarly, whether or not it is the singing timing is defined by the event (the lyrics singing event) and the duration indicating the time interval between the events. What is necessary is just to judge by no.
図1において、音声合成部140は、制御部120から供給された歌詞データの文字を、ライブラリ(図示省略)に登録された音声素片データを用いて音声合成する。このライブラリには、単一の音素や音素から音素への遷移部分など、歌唱音声の素材となる各種の音声素片の波形を定義した音声素片データが予め登録されている。
詳細には、音声合成部140は、供給された歌詞データの文字で示される音素列を音声素片の列に変換し、これらの音声素片に対応する音声素片データをライブラリから選択して接続するとともに、接続した音声素片データに対して各々のピッチを、指定された音高に合わせて変換して、歌唱音声を示す歌唱音声信号を合成する。
なお、音声合成部140における歌唱音声の音高および音量については、後述する。
In FIG. 1, the
Specifically, the
Note that the pitch and volume of the singing voice in the
また、本実施形態では、歌唱音声をスピーカ172によって、伴奏音をスピーカ174によって、それぞれ別々に出力する構成としたが、歌唱音声と伴奏音とをミキシングして同じスピーカから出力する構成としても良い。
In this embodiment, the singing voice is output separately from the
次に、本実施形態に係る歌唱合成装置10における動作について説明する。
この歌唱合成装置10では、歌唱者が操作部112を操作して、所望の曲を選択すると、制御部120が、当該曲に対応する楽曲データをデータベース130から読み出すとともに、当該楽曲データのうち、伴奏データを解釈し、合成すべき伴奏音の楽音情報を音源部160に供給して、当該音源部160に楽音信号を合成させる一方、当該楽曲データのうち、歌詞データを演奏の進行に合わせて音声合成部140に供給して、当該音声合成部140に歌唱音声信号を合成させる。
すなわち、歌唱合成装置10において、演奏が開始されると、第1に、演奏の進行に合わせて楽音信号を合成する楽音合成処理と、第2に、当該演奏の進行に合わせて歌詞データを供給することによる歌唱音声合成処理とが互いに独立して実行される。
このうち、楽音合成処理は、制御部120が演奏の進行に合わせて楽音情報を供給する一方、音源部160が当該楽音情報に基づいて楽音信号を合成する処理であり、この処理自体は周知である(例えば特開平7−199975号公報等参照)。このため、楽音合成処理の詳細については説明を省略し、以下においては、歌唱音声合成処理について説明する。
Next, the operation | movement in the song synthesizing | combining
In this
That is, in the
Among these, the tone synthesis process is a process in which the
なお、曲が操作部112によって選択された場合に、制御部120は、当該曲の伴奏データや歌詞データの供給を自動的に開始する。これによって、当該曲の演奏開始が指示されることになる。ただし、制御部120は、曲が選択された場合であっても、他の曲の演奏が進行していれば、当該他の曲が終了するまで、選択された曲の演奏を待機させる。
When a song is selected by the
図3は、歌唱音声合成処理を示すフローチャートである。この歌唱音声合成処理は、制御部120と音声合成部140とで実行される。
演奏が開始されると、制御部120は、まず演奏の進行段階が歌唱タイミングであるか否かを判別する(ステップSa11)。
FIG. 3 is a flowchart showing the singing voice synthesis process. This singing voice synthesis process is executed by the
When the performance is started, the
演奏の進行段階が歌唱タイミングでないと判別すれば(ステップSa11の判別結果が「No」であれば)、制御部120は、処理手順をステップSa11に戻す。換言すれば、演奏の進行段階が歌唱タイミングになるまで、ステップSa11で待機することになる。
また、演奏の進行段階が歌唱タイミングになったと判別すれば(ステップSa11の判別結果が「Yes」であれば)、制御部120は、歌詞データ、すなわち、当該歌唱タイミングで歌唱すべき文字、音高を規定するデータを音声合成部140に供給する(ステップSa12)。
If it is determined that the performance stage is not the singing timing (if the determination result of step Sa11 is “No”), the
Also, if it is determined that the progress stage of the performance is the singing timing (if the determination result of step Sa11 is “Yes”), the
音声合成部140は、制御部120から、歌詞データが供給された場合に、当該歌詞データに基づき音声合成するが、音高および音量ついては、次のように制御する(ステップSa13)。
すなわち、音声合成部140は、音量検出部108から供給される音量データで示される音量が閾値以下であれば、当該歌詞データの文字を、当該歌詞データの音高で、音量検出部108から供給される音量データで示される音量で音声合成して、歌唱音声信号として出力する。ただし、当該音量データで示される音量が閾値以下であることから、当該歌唱音声信号をスピーカ172から出力させても、聴感上無視できるレベルである。
一方、音声合成部140は、制御部120から歌詞データが供給された場合に音量データで示される音量が閾値を超えたとき、制御部120から供給される歌詞データの音高を音高検出部104から供給された音高データで示される音高に変更して、音量検出部108から供給される音量データで示される音量で、当該歌詞データの文字を音声合成して歌唱音声信号として出力する。
このため、スピーカ172から聴こえる当該歌唱音声信号は、歌詞データの文字を、歌唱者が歌唱した音高で、歌唱者が歌唱した音量で、音声合成したものとなる。
When the lyrics data is supplied from the
That is, if the volume indicated by the volume data supplied from the
On the other hand, when the lyrics data is supplied from the
Therefore, the singing voice signal that can be heard from the
一方、制御部120は、歌唱タイミングに至った歌詞データを音声合成部140に供給した後、次に歌唱すべき歌詞データが存在しないか否かを判別する(ステップSa14)。
存在すれば(ステップSa14の判別結果が「No」であれば)、制御部120は、処理手順をステップSa11に戻す。これにより、演奏の進行段階が次の歌唱タイミングに至ったときにステップSa12、13の処理が実行される。
また、次に歌唱すべきデータが存在しなければ(ステップSa14の判別結果が「Yes」であれば)、制御部120は、歌唱音声合成処理を終了させる。
On the other hand, after supplying the lyric data that has reached the singing timing to the
If it exists (if the determination result in step Sa14 is “No”), the
If there is no data to be sung next (if the determination result in step Sa14 is “Yes”), the
図4は、歌唱音声の具体的な合成例を示す図である。この図は、歌唱者が歌唱する曲として「さくら」(図2参照)を選択した場合の例である。当該歌唱者が、伴奏音を聴きながら演奏の進行に合わせて、(b)で示されるような音量で歌唱したときに、本実施形態では、同図(c)で示されるように歌唱音声が出力される。
すなわち、歌唱者が演奏の進行に対して、「さ」(歌詞51)の冒頭から若干遅れ気味のタイミングで音量を上げて歌唱した場合、音声合成部140は、音量検出部108から供給された音量データで示される音量が閾値を超えたときに、歌唱音声信号の振幅を当該音量に合わせて調整するので、(c)の歌唱音声の「さ」(符号61)は、(a)の歌詞データ(歌詞51)で規定されるようなタイミング通りとはならない。
また、歌唱者が、演奏の進行に対して、「く」(歌詞52)から「ら」(歌詞53)までにおいて音量を下げたとき(または音声入力部102のマイクロフォンを口から遠ざけたとき)、(c)の歌唱音声では、「く」(符号62)と「ら」(符号63−1)とに間が空くことになる。
歌唱者が演奏の進行に対して、「ら」(歌詞53)の途中において音量を下げたとき、同様な理由により、(c)の歌唱音声では、「ら」が符号63−1、63−2に分断されることになる。なお、時間的後方の「ら」(符号63−2)は、説明の便宜のために「ら」と表記しているが、実際には「ら」の母音である「あ」として聴こえることになる。
FIG. 4 is a diagram illustrating a specific synthesis example of the singing voice. This figure is an example in the case where “Sakura” (see FIG. 2) is selected as a song sung by the singer. When the singer sings at a volume as shown in (b) while listening to the accompaniment sound, in this embodiment, the singing voice is shown in FIG. Is output.
That is, when the singer sings with the volume turned up with a slight delay from the beginning of “sa” (lyrics 51) with respect to the progress of the performance, the
In addition, when the singer decreases the volume from “ku” (lyric 52) to “ra” (lyric 53) as the performance progresses (or when the microphone of the
For the same reason, when the singer decreases the volume in the middle of “ra” (lyric 53) with respect to the progress of the performance, in the singing voice of (c), “ra” is indicated by reference numerals 63-1, 63-. It will be divided into two. Note that “ra” (symbol 63-2) behind the time is expressed as “ra” for convenience of explanation, but in reality, it can be heard as “a” which is a vowel of “ra”. Become.
なお、図4の例では、歌唱者がどのような音量で歌唱したときに、歌唱音声がどのように音声合成されるのか、という観点で説明した図である。この例では、歌唱者がどのような音高で歌唱したときに、歌唱音声がどのような音高で声合成されるのか、という点については示していないが、特段に説明は要しないであろう。
また、第1実施形態における歌唱合成装置10は、歌唱音声の合成にあたって、歌唱者による音高および音量のみを用いている。したがって、歌唱者が、「さくら、さくら…」という歌詞ではなく、例えば「あああ、あああ…」と歌唱しても、歌唱合成装置10によって合成される歌唱音声は、「さくら、さくら…」となる。
In addition, in the example of FIG. 4, when a singer sings with what kind of volume, it is the figure demonstrated from a viewpoint of how a singing voice is voice-synthesized. In this example, it is not shown what pitch the singing voice is synthesized with when the singer sings, but no particular explanation is required. Let's go.
The singing
背景技術で述べたようなフォルマントシーケンスデータを用いる場合には、オリジナルの歌手が歌唱したときのデータを採取する必要がある。また、この場合、歌唱者が歌唱した音高および音量に応じて、フォルマントシーケンスデータに基づくフォルマントを整形するので、オリジナルの歌手の歌い方の影響を受けるのは避けられない。
これに対して、本実施形態では、音声素片であるライブラリを用いて歌唱音声を合成するので、モデルとなる人物の歌い方の影響を受けないし、そもそもモデルとなる人物に曲を歌わせる必要がないほか、歌唱者が実際にその場で歌唱した音高および音量に対して忠実に、歌唱音声を音声合成することができる、という利点がある。
そして、本実施形態によれば、歌唱者による歌唱の意図(音高、音量)が反映されつつ、歌唱者とは異なる声質で合成された歌唱音声が出力されるので、歌唱者に対して、歌唱することの表現を拡げさせることができるとともに、新たなる歌唱を体験させることができる。
When formant sequence data as described in the background art is used, it is necessary to collect data when the original singer sang. Further, in this case, since the formant based on the formant sequence data is shaped according to the pitch and volume sung by the singer, it is inevitable that the singer is influenced by the way of singing the original singer.
On the other hand, in this embodiment, since the singing voice is synthesized using the library which is a speech unit, it is not affected by the way of singing the model person, and it is necessary to let the model person sing the song in the first place. In addition, there is an advantage that the singing voice can be synthesized with high fidelity to the pitch and volume that the singer actually sang on the spot.
And according to this embodiment, since the singing voice synthesize | combined with the voice quality different from a singer is output, reflecting the intention (pitch, volume) of the singing by a singer, The expression of singing can be expanded and new singing can be experienced.
<第2実施形態>
第1実施形態では、歌唱者による歌唱の音高および音量を反映させて、歌唱音声を合成する構成であり、音高および音量以外の情報、端的にいえば、歌唱者による歌唱それ自体は全く利用していない。
そこで次に、歌唱者による歌唱それ自体と、音声合成した歌唱音声とで合唱させる第2実施形態について説明する。この第2実施形態は、概略すると、例えば歌唱者による歌唱を根音とする一方、当該根音に対して3度上の音と、当該根音に対して5度上の音とを音声合成して、歌唱者がひとりで歌唱しているにもかかわらず、三和音でハモるようにしたものである。
Second Embodiment
In the first embodiment, the singing voice is synthesized by reflecting the pitch and volume of the singing by the singer, and information other than the pitch and the volume, in short, the singing by the singer itself is not at all. Not used.
Next, a second embodiment in which the singing by the singer and the singing voice synthesized by the voice singing will be described. In summary, the second embodiment is based on, for example, a song performed by a singer, and a voice synthesis of a sound three times higher than the root sound and a sound five times higher than the root sound. Even though the singer is singing alone, it is designed as a triad.
図5は、第2実施形態に係る歌唱合成装置10の構成を示す機能ブロック図である。
この図に示される歌唱合成装置10が、図1に示した第1実施形態と相違する部分は、音高変換部106a、106bが設けられた点と、2系統の音声合成部140a、140bが設けられた点、および、ミキサ150が設けられた点である。
このため、第2実施形態では、これらの相違部分を中心に説明することにする。
FIG. 5 is a functional block diagram showing a configuration of the singing
The singing
For this reason, in the second embodiment, these different portions will be mainly described.
音高変換部106aは、音高検出部104から供給される音高データで示される音高に対して、予め定められた関係にある音高、例えば3度上にある音高に変換して、音声合成部140aに供給する。音高変換部106bは、音高検出部104から供給される音高データで示される音高に対して、予め定められた関係にある音高、例えば5度上にある音高に変換して、音声合成部140bに供給する。なお、根音に対する3度には短3度と長3度とがあり、根音に対して5度には完全5度と減5度と増5度とがある。いずれになるかについては、根音の音高(および調号)で定まるので、音高変換部106a、106bは、例えば、根音の音高に対する変換後の音高を予めテーブル化しておき、音高検出部104から供給される音高データで示される音高を、当該テーブルを参照して変換する構成とすれば良い。
音声合成部140a、140bは、機能的には第1実施形態における音声合成部140と同機能を有するものであり、制御部120から同じ歌詞データの供給を受けるが、音声合成部140aには、音高変換部106aで変換された音高が指定され、音声合成部140bには、音高変換部106bで変換された音高が指定される。
ミキサ150は、音声入力部102による歌唱音声信号と、音声合成部140aによる歌唱音声信号と、音声合成部140bによる歌唱音声信号とをミキシングする。なお、ミキシングされた歌唱音声信号は、図示省略したD/A変換部によってアナログ信号に変換された後、スピーカ172によって音響変換されて出力される。
The
The
The
図6は、第2実施形態による歌唱音声の具体的な合成例を示す図である。この図は、歌唱者が歌唱する曲として「さくら」(図2参照)を選択して、当該歌唱者が、伴奏音を聴きながら演奏の進行に合わせて、符号71、72、73、…の歌詞を同図の左欄の鍵盤で示される音高で歌唱した場合、すなわち、同図の上欄で示される楽譜(歌詞データ)の音高および歌唱タイミングで歌唱した場合の例である。この場合、音声合成部140aは、符号61a、62a、63a、…で示されるように当該歌唱の音高に対して3度上の音高で音声合成し、音声合成部140bは、符号61b、62b、63b、…で示されるように歌唱者の歌唱の音高に対して5度上の音高で音声合成する。
なお、図6の例では、符号61aは、ハ長調において符号71に対して短3度の関係にあり、符号61bは、符号61aに対して長3度の関係にある。このため、符号71、61a、61bは短三和音となる。符号72、62a、62bも同様に短三和音となる。また、符号63aは、符号73に対して短3度の関係にあり、符号63bは、符号63aに対して短3度の関係にある。このため、符号73、63a、63bは減三和音となる。
このように、歌唱者が、閾値を超える音量で、かつ、同図に示される楽譜通りの音高、タイミングで歌唱したとき、スピーカ172からは、歌唱者による歌唱を根音とする三和音でハモった歌唱音声が出力されることになる。
FIG. 6 is a diagram illustrating a specific synthesis example of the singing voice according to the second embodiment. In this figure, “Sakura” (see FIG. 2) is selected as a song to be sung by the singer, and the singer listens to the accompaniment sound, and in accordance with the progress of the performance,
In addition, in the example of FIG. 6, the code |
In this way, when the singer sings at a volume exceeding the threshold and at the pitch and timing as shown in the figure, the
このように、第2実施形態によれば、歌唱者は、1人で歌唱しているにもかかわらず、ハモることができるので、歌唱者に対して、歌唱の表現をさらに拡大させることができる。なお、上述した音高の変換は、あくまでも一例に過ぎない。和音以外となるように変換しても良いし、オクターブ変換しても良い。また、音声合成部は2系統に限られず、1系統として、所定の関係にある音高に変換する構成であっても良いし、3系統以上でも良い。 Thus, according to 2nd Embodiment, since a singer can sing even though he is singing alone, he can further expand the expression of singing to the singer. it can. Note that the pitch conversion described above is merely an example. You may convert so that it may become other than a chord, and you may carry out octave conversion. Further, the speech synthesis unit is not limited to two systems, and may be configured to convert to a pitch having a predetermined relationship as one system, or may be three or more systems.
なお、第2実施形態では、歌唱者の歌唱音声と音声合成部140a、140bの歌唱音声とをミキシングしてスピーカ172から出力し、音源部160による伴奏音を別のスピーカ174から出力する構成としたが、歌唱音声と伴奏音とをミキシングして1つのスピーカから出力する構成としても良い。すなわち、歌唱音声と伴奏音とを出力する出力部は、別々のスピーカであるか、同じスピーカであるかについては問われない。
また、音高変換部106aは、音高検出部104から供給される音高データで示される音高に対して、予め定められた関係にある音高にそれぞれ変換するが、変換する音高の関係については、制御部120や操作部112による指示によって変更可能な構成にしても良い。音高変換部106bについても同様であり、変換する音高の関係を制御部120や操作部112による指示によって変更可能な構成にしても良い。
In the second embodiment, the singing voice of the singer and the singing voice of the
The
<第3実施形態>
第1実施形態において、演奏の進行段階が歌唱タイミングになったときに、歌詞データのうち、当該歌唱タイミングで歌唱すべきデータ(文字、音高)が音声合成部140に供給される構成であるので、歌唱者からみれば、音声合成される歌詞のタイミングをコントロールすることができなかった。
そこで、歌唱者が、音声合成される歌詞のタイミングをある程度、コントロールすることができる第3実施形態について説明することにする。
<Third Embodiment>
In the first embodiment, when the progress stage of the performance is the singing timing, among the lyrics data, data (characters, pitches) to be sung at the singing timing is supplied to the
Therefore, a third embodiment will be described in which a singer can control the timing of lyrics to be synthesized with voice to some extent.
図7は、第3実施形態に係る歌唱合成装置10の構成を示す機能ブロック図である。
この図に示される歌唱合成装置10が、図1に示した第1実施形態と相違する部分は、音量検出部108から出力される音量データが音声合成部140とともに制御部120に供給される点である。このため、第3実施形態では、この相違部分を中心に説明することにする。
FIG. 7 is a functional block diagram showing the configuration of the singing
The singing
第3実施形態において制御部120は、音量検出部108から供給される音量データで示される音量が閾値を超えたこと、または、当該音量の時間的な変化が所定値を超えたことをトリガーとして、次の音符に対応する歌詞データを音声合成部140に供給する。すなわち、制御部120は、歌唱者の歌唱した音量が閾値を超えたとき等において、次の音符に対応する歌詞データを、演奏の進行段階が当該歌詞データの歌詞タイミングでなくても、音声合成部140に供給する。
In the third embodiment, the
第3実施形態による歌唱音声の具体的な合成例について説明する。
ここでは、第1実施形態と同様に、図4(a)に示されるように、歌唱者が歌唱する曲として「さくら」を選択した場合であって、当該歌唱者が、伴奏音を聴きながら演奏の進行に合わせて、同図の(b)で示されるような音量で歌唱した場合を例にとって説明すると、第3実施形態では、同図の(d)で示されるように歌唱音声が出力される。
第3実施形態の特徴的な部分について説明すると、歌唱者が演奏の進行に対して、「ら」(歌詞53)の途中において音量を下げた後、次の「さ」(歌詞54)の前に、音量を上げたとき(当該音量の時間的な変化が所定値を超えたとき)、音量検出部108から供給される音量データの変化に応じて、制御部120は、次の「さ」(符号54)の歌詞データを音声合成部140に供給する。
このため、歌詞データで規定される歌唱タイミングよりも早いタイミングで「さ」(符号64)が音声合成されることになる。
なお、次の音符に対応する歌詞データの読み出しについては、音量検出部108から供給される音量データで示される音量が閾値を超えたことや、当該音量の時間的な変化が所定値を超えたこと以外にも、当該音量の時間的な変化の傾き(加速度)が所定値を超えたことをトリガーとして実行しても良い。
A specific synthesis example of the singing voice according to the third embodiment will be described.
Here, as in the first embodiment, as shown in FIG. 4A, the singer selects “Sakura” as the song to sing, and the singer listens to the accompaniment sound. A description will be given of an example of singing at a volume as shown in (b) of the figure as the performance progresses. In the third embodiment, a singing voice is output as shown in (d) of the figure in the third embodiment. Is done.
The characteristic part of the third embodiment will be described. After the singer decreases the volume in the middle of “ra” (lyrics 53) with respect to the progress of the performance, before the next “sa” (lyrics 54) In addition, when the volume is increased (when the temporal change of the volume exceeds a predetermined value), the
For this reason, “sa” (symbol 64) is voice-synthesized at a timing earlier than the singing timing defined by the lyrics data.
Regarding the reading of the lyric data corresponding to the next note, the volume indicated by the volume data supplied from the
ところで、歌唱者が、ある歌詞をほぼ同じ音高で、ほぼ同じ音量で、歌詞データで規定されるタイミングよりも長く継続して歌唱する場合、当該歌詞を意図的に(余韻を込めて)延ばしていると考えられる。
このような場合に対応するためには、図7において破線で示されるような構成とすれば良い。すなわち、音高検出部104から出力される音高データを、音声合成部140とともに制御部120に供給して、当該制御部120が、音高検出部104から供給される音高データで示される音高が所定値以内で一定であって、音量検出部108から供給される音量データで示される音量が所定値以内で一定である場合、次の歌唱タイミングが到来していても、当該次の歌詞データを音声合成部140に供給しないで、所定時間だけ(または音量が下がるまで)待機する構成とすれば良い。この構成により、歌唱者は、所望の歌詞を、歌詞データで規定されるタイミングよりも長く継続させて歌唱音声を合成させることができる。
By the way, when a singer continuously sings a certain lyrics with almost the same pitch, almost the same volume, and longer than the timing specified by the lyrics data, the lyrics are intentionally extended (with a reverberation). It is thought that.
In order to cope with such a case, the configuration shown by the broken line in FIG. That is, the pitch data output from the
このように、第3実施形態によれば、歌唱者が、音声合成される歌詞を、歌詞データで規定されるタイミング通りではなく、ある程度コントロールできるので、音声合成される歌唱のタイミングを即興(アドリブ)的に変化させることが可能になる。
なお、この第3実施形態は、第1実施形態に限られず、 歌唱者自身による歌唱と、音声合成された歌唱とをミキシングする第2実施形態と組み合わせても良い。
As described above, according to the third embodiment, the singer can control the lyrics to be synthesized by voice to some extent rather than the timing specified by the lyrics data, and thus improvise the timing of singing to be synthesized (ad-lib). ) Can be changed.
In addition, this 3rd Embodiment is not restricted to 1st Embodiment, You may combine with 2nd Embodiment which mixes the song by the singer himself, and the voice-synthesized song.
<応用・変形例>
本発明は、上述した第1乃至第3実施形態に限定されるものではなく、例えば次に述べるような各種の応用・変形が可能である。なお、次に述べる応用・変形の態様は、任意に選択された一または複数を適宜に組み合わせることもできる。
<Applications and modifications>
The present invention is not limited to the first to third embodiments described above, and various applications and modifications described below are possible, for example. Note that one or a plurality of arbitrarily selected aspects of application / deformation described below can be appropriately combined.
第1(第2)実施形態において、制御部120は、演奏の進行段階が歌唱タイミングになったときに、当該歌唱タイミングに対応する歌詞データ(文字、音高)を音声合成部140に供給する構成であったが、このうち、音高について、制御部120は、音声合成部140に供給しなくても良い。その理由は、音声合成部140は、音量データで示される音量が閾値以下のときは、歌唱音声信号を実質的に出力せず、音量がしきい値を超えたときは、歌詞データの音高ではなく、音高検出部104から出力された音高データで示される音高であるためである。
制御部120が、歌詞の音高を供給しない構成であっても、音声合成部140は、制御部120から供給される歌詞データの文字を、音量データで示される音量が閾値を超えたときに、音高データで示される音高で、当該音量に応じて音声合成すれば良い。
In the first (second) embodiment, the
Even if the
各実施形態において伴奏データとしてMIDIデータを用いたが、本発明はこれに限られない。例えばコンパクトディスクを再生させることによって楽音信号を得る構成としても良い。この構成において演奏の進行状態を把握するための情報としては、経過時間情報や残り時間情報を用いることができる。このため、制御部120は、経過時間情報や残り時間情報で把握した演奏の進行に合わせて歌詞データを音声合成部140(140a、140b)に供給すれば良い。
In each embodiment, MIDI data is used as accompaniment data, but the present invention is not limited to this. For example, a configuration may be adopted in which a musical tone signal is obtained by reproducing a compact disc. In this configuration, elapsed time information and remaining time information can be used as information for grasping the progress of performance. For this reason, the
各実施形態では、音声入力部102が、歌唱者の歌唱をマイクロフォンで入力して歌唱音声信号に変換する構成としたが、歌唱音声信号(入力音声)をなんらかの形で入力する、または、入力される構成であれば良い。例えば、音声入力部102としては、他の処理部で処理された歌唱音声信号や、他の装置から供給(または転送された)歌唱音声信号を入力する構成でも良いし、さらには、単に歌唱音声信号を受信し後段に転送する入力インターフェース回路等であっても良い。
In each embodiment, the
各実施形態において、音高検出部104、音高変換部106a、106b、および、音量検出部108については、ソフトウェアで構成したが、ハードウェアで構成しても良い。また、音声合成部140(140a、140b)をソフトウェアで構成しても良い。
In each embodiment, the
10…歌唱合成装置、104…音高検出部、106a、106b…音高変換部、120…制御部、140、140a、140b…音声合成部、150…ミキサ、160…音源部。
DESCRIPTION OF
Claims (4)
前記入力音声の音量を検出する音量検出部と、
歌詞と当該歌詞の発声タイミングが規定された歌詞データが演奏の進行に応じて供給されると、前記歌詞データに基づく歌唱音声を、前記音高検出部で検出された音高と、前記音量検出部で検出された音量とに応じて合成する音声合成部と、
を備える歌唱合成装置。 A pitch detector for detecting the pitch of the input voice;
A volume detector for detecting the volume of the input voice;
When the lyrics and the lyric data in which the utterance timing of the lyrics is defined are supplied according to the progress of the performance, the singing voice based on the lyric data, the pitch detected by the pitch detection unit, and the volume detection A voice synthesizer for synthesizing according to the volume detected by the unit;
A singing synthesizer.
前記伴奏音と、前記入力音声と、前記歌唱音声と、を出力する出力部と、
を備える請求項1に記載の歌唱合成装置。 A sound source unit that generates an accompaniment sound according to the progress of the performance;
An output unit that outputs the accompaniment sound, the input sound, and the singing sound;
A singing voice synthesizing device according to claim 1.
前記音量検出部で検出された音量に応じて前記歌詞データの発声タイミングを変化させて歌唱音声を合成する
こと特徴とする請求項1または2に記載の歌唱合成装置。 The speech synthesizer
The singing voice synthesizing apparatus according to claim 1 or 2, wherein the singing voice is synthesized by changing the utterance timing of the lyrics data in accordance with the volume detected by the volume detecting unit.
入力音声の音高を検出する音高検出部と、
前記入力音声の音量を検出する音量検出部と、
歌詞と当該歌詞の発声タイミングが規定された歌詞データが演奏の進行に応じて供給されると、前記歌詞データに基づく歌唱音声を、前記音高検出部で検出された音高と、前記音量検出部で検出された音量とに応じて合成する音声合成部、
として機能させることを特徴とする歌唱合成プログラム。
Computer
A pitch detector for detecting the pitch of the input voice;
A volume detector for detecting the volume of the input voice;
When the lyrics and the lyric data in which the utterance timing of the lyrics is defined are supplied according to the progress of the performance, the singing voice based on the lyric data, the pitch detected by the pitch detection unit, and the volume detection A voice synthesizer for synthesizing according to the volume detected by the unit,
A singing synthesis program characterized by functioning as
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013219805A JP2015082028A (en) | 2013-10-23 | 2013-10-23 | Singing synthetic device and program |
PCT/JP2014/078080 WO2015060340A1 (en) | 2013-10-23 | 2014-10-22 | Singing voice synthesis |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013219805A JP2015082028A (en) | 2013-10-23 | 2013-10-23 | Singing synthetic device and program |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2015082028A true JP2015082028A (en) | 2015-04-27 |
Family
ID=52992930
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013219805A Pending JP2015082028A (en) | 2013-10-23 | 2013-10-23 | Singing synthetic device and program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP2015082028A (en) |
WO (1) | WO2015060340A1 (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020013170A (en) * | 2019-10-30 | 2020-01-23 | カシオ計算機株式会社 | Electronic music instrument, control method of electronic music instrument and program |
CN110741430A (en) * | 2017-06-14 | 2020-01-31 | 雅马哈株式会社 | Singing synthesis method and singing synthesis system |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6222262B2 (en) * | 2016-03-17 | 2017-11-01 | ヤマハ株式会社 | Speech synthesis method and speech synthesis control device |
CN107025902B (en) * | 2017-05-08 | 2020-10-09 | 腾讯音乐娱乐(深圳)有限公司 | Data processing method and device |
JP6587007B1 (en) * | 2018-04-16 | 2019-10-09 | カシオ計算機株式会社 | Electronic musical instrument, electronic musical instrument control method, and program |
JP7117228B2 (en) * | 2018-11-26 | 2022-08-12 | 株式会社第一興商 | karaoke system, karaoke machine |
Family Cites Families (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10268895A (en) * | 1997-03-28 | 1998-10-09 | Yamaha Corp | Voice signal processing device |
JP3879402B2 (en) * | 2000-12-28 | 2007-02-14 | ヤマハ株式会社 | Singing synthesis method and apparatus, and recording medium |
JP2006030609A (en) * | 2004-07-16 | 2006-02-02 | Yamaha Corp | Voice synthesis data generating device, voice synthesizing device, voice synthesis data generating program, and voice synthesizing program |
JP4631726B2 (en) * | 2006-01-30 | 2011-02-16 | ヤマハ株式会社 | Singing composition apparatus and recording medium |
JP2013195928A (en) * | 2012-03-22 | 2013-09-30 | Yamaha Corp | Synthesis unit segmentation device |
-
2013
- 2013-10-23 JP JP2013219805A patent/JP2015082028A/en active Pending
-
2014
- 2014-10-22 WO PCT/JP2014/078080 patent/WO2015060340A1/en active Application Filing
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110741430A (en) * | 2017-06-14 | 2020-01-31 | 雅马哈株式会社 | Singing synthesis method and singing synthesis system |
CN110741430B (en) * | 2017-06-14 | 2023-11-14 | 雅马哈株式会社 | Singing synthesis method and singing synthesis system |
JP2020013170A (en) * | 2019-10-30 | 2020-01-23 | カシオ計算機株式会社 | Electronic music instrument, control method of electronic music instrument and program |
Also Published As
Publication number | Publication date |
---|---|
WO2015060340A1 (en) | 2015-04-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP3598598B2 (en) | Karaoke equipment | |
JP3102335B2 (en) | Formant conversion device and karaoke device | |
WO2015060340A1 (en) | Singing voice synthesis | |
JP6784022B2 (en) | Speech synthesis method, speech synthesis control method, speech synthesis device, speech synthesis control device and program | |
JP2011048335A (en) | Singing voice synthesis system, singing voice synthesis method and singing voice synthesis device | |
JP2009244789A (en) | Karaoke system with guide vocal creation function | |
JP2013045082A (en) | Musical piece generation device | |
JP7355165B2 (en) | Music playback system, control method and program for music playback system | |
JP4038836B2 (en) | Karaoke equipment | |
JP2010237260A (en) | Karaoke machine emphasizing main voice part of chorus music | |
JP4844623B2 (en) | CHORAL SYNTHESIS DEVICE, CHORAL SYNTHESIS METHOD, AND PROGRAM | |
JP4839967B2 (en) | Instruction device and program | |
JP2003015672A (en) | Karaoke device having range of voice notifying function | |
JP4180548B2 (en) | Karaoke device with vocal range notification function | |
JP2017173655A (en) | Sound evaluation device and sound evaluation method | |
JP2011215292A (en) | Singing determination device and karaoke device | |
JPH11249675A (en) | Singing marking system for karaoke device | |
JP7509127B2 (en) | Information processing device, electronic musical instrument system, electronic musical instrument, syllable progression control method and program | |
JP2009244790A (en) | Karaoke system with singing teaching function | |
JP6144593B2 (en) | Singing scoring system | |
WO2023233856A1 (en) | Sound control device, method for controlling said device, program, and electronic musical instrument | |
JP5703555B2 (en) | Music signal processing apparatus and program | |
JP7158331B2 (en) | karaoke device | |
JP3706386B2 (en) | Karaoke device characterized by key change user interface | |
JP2011154290A (en) | Karaoke machine for supporting singing of music partially including solitary duet |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20150410 |