JP2005077663A - Voice synthesizer, voice synthesis method, and voice-synthesizing program - Google Patents
Voice synthesizer, voice synthesis method, and voice-synthesizing program Download PDFInfo
- Publication number
- JP2005077663A JP2005077663A JP2003307121A JP2003307121A JP2005077663A JP 2005077663 A JP2005077663 A JP 2005077663A JP 2003307121 A JP2003307121 A JP 2003307121A JP 2003307121 A JP2003307121 A JP 2003307121A JP 2005077663 A JP2005077663 A JP 2005077663A
- Authority
- JP
- Japan
- Prior art keywords
- bgm
- information
- text
- reading
- category
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Abstract
Description
本発明は、入力されたテキストを音声に変換して出力する音声合成装置、音声合成方法、及び音声合成プログラムに関し、詳細には、BGMを再生しながら合成音声を出力する音声合成装置、音声合成方法、及び音声合成プログラムに関するものである。 The present invention relates to a speech synthesizer, a speech synthesis method, and a speech synthesis program that convert input text into speech and output, and more particularly, a speech synthesizer that outputs synthesized speech while reproducing BGM, and speech synthesis. The present invention relates to a method and a speech synthesis program.
文字列からなるテキストを合成音声により読み上げる場合、単純に文字列を読み上げるのみでなく、そのテキストに適合した効果音やBGMを付与することが試みられている。例えば、特許文献1においては、自然言語処理による解析結果を用いてシーンの環境を抽出して環境に対応した効果音を出力する方法が開示されている。また、特許文献2においては、読み上げるテキストに付与したい感情を選択し、その感情に合わせた背景音楽を再生する方法が開示されている。さらに、特許文献3においては、読み上げられる情報の内容に応じてBGMの再生条件を変更する方法が開示されている。
しかしながら、上記の方法では、読み上げられるテキストの内容や読み上げを行なう場所の環境等の情報に基づいて、複合的にテキストに適合したBGMを選択することはできなかった。 However, in the above method, it is not possible to select a BGM that is adapted to the text in a complex manner based on information such as the contents of the text to be read out and the environment of the place where the text is read out.
本発明は上記問題を解決するためになされたもので、複合的な条件に基づき読み上げるテキストに適合したBGMを選択できるようにすることを目的とする。 The present invention has been made to solve the above problem, and an object of the present invention is to be able to select a BGM suitable for text to be read out based on multiple conditions.
上記目的を達成するために、本出願の第1の発明は、テキストの合成音声による読み上げをBGMを再生しつつ行なう音声合成装置において、少なくともカテゴリと再生時間により分類されたBGMデータを記憶する記憶手段と、前記テキストに付加された付加情報を抽出する情報抽出手段と、当該情報抽出手段により抽出された付加情報に基づき、前記記憶手段からBGMデータを選択するBGM選択手段と、当該BGM選択手段により選択されたBGMデータを前記テキストの読み上げに同期させて再生するBGM再生手段とを備えている。 In order to achieve the above object, a first invention of the present application is a speech synthesizer that reads out text by synthesized speech while reproducing BGM, and stores memory for storing BGM data classified at least by category and reproduction time. Means for extracting additional information added to the text, BGM selection means for selecting BGM data from the storage means based on the additional information extracted by the information extraction means, and the BGM selection means BGM reproducing means for reproducing the BGM data selected by the above in synchronization with the reading of the text.
また、本発明は、前記付加情報が、前記テキストの内容を分類するカテゴリ情報、前記テキストを読み上げる読み上げ音声の大きさ・ピッチ・トーンを含む属性を指定する読上情報、前記テキストの文字数や長さを示す書式情報、又は読み上げが行なわれる周囲の音の大きさを示す環境情報のいずれかを含んでもよい。 Further, according to the present invention, the additional information includes category information for classifying the content of the text, reading information for designating an attribute including a loudness, a pitch, and a tone for reading out the text, and the number of characters and the length of the text. May include either format information indicating the size or environment information indicating the volume of the surrounding sound to be read out.
また、本発明は、前記BGM選択手段が、前記カテゴリ情報又は前記書式情報の少なくとも一方に基づいてBGMデータを選択してもよい。 In the present invention, the BGM selection means may select BGM data based on at least one of the category information and the format information.
また、本発明は、前記BGM選択手段が、複数の前記テキストの各々に対して1個ずつBGMデータを選択してもよい。 In the present invention, the BGM selection means may select one piece of BGM data for each of the plurality of texts.
また、本発明は、連続した複数のテキストの付加情報から共通の特徴を抽出する共通化手段を備え、前記BGM選択手段は、当該共通化手段により共通化された複数のテキストに対し、1個のBGMデータを選択してもよい。 In addition, the present invention includes a common unit that extracts a common feature from additional information of a plurality of continuous texts, and the BGM selection unit includes one unit for each of the plurality of texts shared by the common unit. BGM data may be selected.
また、本発明は、前記共通化手段が、前記カテゴリ情報が共通する複数のテキストについて、当該共通するカテゴリ情報を共通の特徴として抽出してもよい。 In the present invention, the common unit may extract the common category information as a common feature for a plurality of texts with the common category information.
また、本発明は、前記付加情報が、前記BGMデータの再生を行なうか否かを指示する停止情報又は前記BGMの再生を行なう部分の割合を示す部分情報を含み、前記停止情報又は前記部分情報に基づいて、前記BGMの再生を開始、停止させるBGM停止制御手段を備えてもよい。 In the present invention, the additional information includes stop information for instructing whether or not to reproduce the BGM data, or partial information indicating a ratio of a portion for reproducing the BGM, and the stop information or the partial information Based on the above, BGM stop control means for starting and stopping the reproduction of the BGM may be provided.
次に、本出願の第2の発明は、テキストの合成音声による読み上げをBGMを再生しつつ行なう音声合成方法において、前記テキストに付加された付加情報を抽出する情報抽出工程と、当該情報抽出工程により抽出された付加情報に基づき、少なくともカテゴリと再生時間により分類され記憶されている複数のBGMデータから前記テキスト用にBGMデータを選択するBGM選択工程と、当該BGM選択工程において選択されたBGMデータを前記テキストの読み上げに同期させて再生するBGM再生工程とを備えている。 Next, according to a second aspect of the present application, there is provided an information extraction step of extracting additional information added to the text in a speech synthesis method in which text is read out by synthesized speech while reproducing BGM, and the information extraction step. A BGM selection step for selecting BGM data for the text from a plurality of BGM data classified and stored based on at least a category and a reproduction time based on the additional information extracted by the BGM data selected in the BGM selection step And a BGM reproduction step of reproducing in synchronization with the reading of the text.
また、本発明は、前記付加情報が、前記テキストの内容を分類するカテゴリ情報、前記テキストを読み上げる読み上げ音声の大きさ・ピッチ・トーンを含む属性を指定する読上情報、前記テキストの文字数や長さを示す書式情報、又は読み上げが行なわれる周囲の音の大きさを示す環境情報のいずれかを含んでもよい。 Further, according to the present invention, the additional information includes category information for classifying the content of the text, reading information for designating an attribute including a loudness, a pitch, and a tone for reading out the text, and the number of characters and the length of the text. May include either format information indicating the size or environment information indicating the volume of the surrounding sound to be read out.
また、本発明は、前記BGM選択工程では、前記カテゴリ情報又は前記書式情報の少なくとも一方に基づいてBGMデータを選択してもよい。 In the BGM selecting step, BGM data may be selected based on at least one of the category information and the format information.
また、本発明は、前記BGM選択工程では、複数の前記テキストの各々に対して1個ずつBGMデータを選択してもよい。 In the BGM selecting step, one BGM data may be selected for each of the plurality of texts.
また、本発明は、連続した複数のテキストの付加情報から共通の特徴を抽出する共通化工程を備え、前記BGM選択工程では、当該共通化工程において共通化された複数のテキストに対し、1個のBGMデータを選択してもよい。 In addition, the present invention includes a common process for extracting common features from additional information of a plurality of continuous texts. In the BGM selection process, one text is used for a plurality of texts shared in the common process. BGM data may be selected.
また、本発明は、前記共通化工程では、前記カテゴリ情報が共通する複数のテキストについて、当該共通するカテゴリ情報を共通の特徴として抽出してもよい。 Moreover, this invention may extract the said common category information as a common characteristic about the some text in which the said category information is common in the said commonization process.
また、本発明は、前記付加情報が、前記BGMデータの再生を行なうか否かを指示する停止情報又は前記BGMの再生を行なう部分の割合を示す部分情報を含み、前記停止情報又は前記部分情報に基づいて、前記BGMの再生を開始、停止させるBGM停止制御工程を備えてもよい。 In the present invention, the additional information includes stop information for instructing whether or not to reproduce the BGM data, or partial information indicating a ratio of a portion for reproducing the BGM, and the stop information or the partial information A BGM stop control step for starting and stopping the reproduction of the BGM may be provided based on the above.
次に、本出願の第3の発明は、第2の発明をコンピュータに実行させる。 Next, the third invention of the present application causes a computer to execute the second invention.
本出願の第1の発明は、テキストにあらかじめ付加された付加情報に基づいてBGMが選択されるので、テキストにふさわしいBGMを再生しながらテキストの読み上げを聴くことができる。 In the first invention of the present application, the BGM is selected based on the additional information added in advance to the text, so that the text can be read out while reproducing the BGM suitable for the text.
また、本発明は、複数の付加情報に従ってBGMを選択することができるので、よりテキストに適合したBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, since BGM can be selected according to a plurality of additional information, it is possible to listen to text reading while reproducing BGM more suitable for text.
さらに、本発明は、カテゴリ情報又は書式情報に基づいてBGMが選択されるので、テキストのジャンルに合わせたBGMや、テキストの長さにあったBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, since BGM is selected based on category information or format information, it is possible to listen to text-to-speech while playing back a BGM that matches the genre of the text or a BGM that matches the length of the text. .
また、本発明は、個々のテキストに対して1個ずつBGMが選択されるので、それぞれのテキストに最適なBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, since one BGM is selected for each text, the text can be read out while reproducing the BGM most suitable for each text.
さらに、本発明は、連続した複数のテキストがカテゴリが共通している等の共通した特徴を有する場合には、共通したテキストに対して1個のBGMが選択されるので、BGMが頻繁に切り替わることがなく、かつ適切なBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, when a plurality of continuous texts have a common feature such as a common category, one BGM is selected for the common text, so that the BGM is frequently switched. And can read aloud text while playing back an appropriate BGM.
また、本発明は、連続した複数のテキストのカテゴリが共通している場合には、共通したテキストに対して1個のBGMが選択されるので、BGMが頻繁に切り替わることがなく、かつ適切なBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, when a plurality of continuous text categories are common, one BGM is selected for the common text, so that the BGM is not frequently switched and is appropriate. You can listen to text reading while playing BGM.
さらに、本発明は、付加情報としてBGM再生の開始・停止を指示することができるので、テキスト中でBGMの再生を行ないたい部分だけにBGMを再生しつつテキストの読み上げを聴くことができる。 Furthermore, since the present invention can instruct the start / stop of BGM playback as additional information, it is possible to listen to the text being read out while playing back the BGM only in the portion of the text where the BGM is to be played back.
次に、本出願の第2の発明は、テキストにあらかじめ付加された付加情報に基づいてBGMが選択されるので、テキストにふさわしいBGMを再生しながらテキストの読み上げを聴くことができる。 Next, in the second invention of the present application, since BGM is selected based on additional information added in advance to the text, it is possible to listen to the text while reading the BGM suitable for the text.
また、本発明は、複数の付加情報に従ってBGMを選択することができるので、よりテキストに適合したBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, since BGM can be selected according to a plurality of additional information, it is possible to listen to text reading while reproducing BGM more suitable for text.
さらに、本発明は、カテゴリ情報又は書式情報に基づいてBGMが選択されるので、テキストのジャンルに合わせたBGMや、テキストの長さにあったBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, since BGM is selected based on category information or format information, it is possible to listen to text-to-speech while playing back a BGM that matches the genre of the text or a BGM that matches the length of the text. .
また、本発明は、個々のテキストに対して1個ずつBGMが選択されるので、それぞれのテキストに最適なBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, since one BGM is selected for each text, the text can be read out while reproducing the BGM most suitable for each text.
さらに、本発明は、連続した複数のテキストがカテゴリが共通している等の共通した特徴を有する場合には、共通したテキストに対して1個のBGMが選択されるので、BGMが頻繁に切り替わることがなく、かつ適切なBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, when a plurality of continuous texts have a common feature such as a common category, one BGM is selected for the common text, so that the BGM is frequently switched. And can read aloud text while playing back an appropriate BGM.
また、本発明は、連続した複数のテキストのカテゴリが共通している場合には、共通したテキストに対して1個のBGMが選択されるので、BGMが頻繁に切り替わることがなく、かつ適切なBGMを再生しながらテキストの読み上げを聴くことができる。 Further, according to the present invention, when a plurality of continuous text categories are common, one BGM is selected for the common text, so that the BGM is not frequently switched and is appropriate. You can listen to text reading while playing BGM.
さらに、本発明は、付加情報としてBGM再生の開始・停止を指示することができるので、テキスト中でBGMの再生を行ないたい部分だけにBGMを再生しつつテキストの読み上げを聴くことができる。 Furthermore, since the present invention can instruct the start / stop of BGM playback as additional information, it is possible to listen to the text being read out while playing back the BGM only in the portion of the text where the BGM is to be played back.
次に、本出願の第3の発明は、第2の発明の効果を奏することができる。 Next, the 3rd invention of this application can have the effect of the 2nd invention.
次に、本発明を実施するための最良の形態について図面を参照して説明する。
図1は、本発明による音声合成装置の一例を示す携帯情報端末1の回路ブロック図である。携帯情報端末1は、携帯情報端末1全体を制御するCPU10と、各種プログラム・データベースを記憶する不揮発メモリ21や各種データを記憶するRAM22等のメモリを制御するメモリ制御部20と、周辺機器を制御する周辺制御部30が接続されている。周辺制御部30には、周囲の音等を拾うマイク31と、ディスプレイ32と、入力部33と、オーディオ部34と、オーディオ部34から送出される音声を出力するスピーカ35とが接続されている。ここで、オーディオ部34は、CPU10により合成された音声をアナログの音声信号に変換するとともに、所定の増幅を行ない、その増幅された音声信号をスピーカ35に送出する。
Next, the best mode for carrying out the present invention will be described with reference to the drawings.
FIG. 1 is a circuit block diagram of a
次に、不揮発メモリ21について図2乃至図5を参照して説明する。図2は、記憶手段である不揮発メモリ21の構成を模式的に示すブロック図である。図3は、BGMデータベース211の構成を模式的に示すブロック図である。図4及び図5は、読上情報データベース212の構成を模式的に示すブロック図である。図2に示すように、不揮発メモリ21には、BGMの選択に使用されるBGMデータベース211と、テキストの読み上げに関する情報を記憶した読上情報データベース212と、テキストを音声合成する際に使用される音声合成辞書215と、合成音声の音節毎の継続時間を記憶した音節長データベース216とが記憶されている。
Next, the
また、図3に示すように、BGMデータベース211は、BGMが再生される対象テキストの種類を示すカテゴリが記憶されるカテゴリ欄211a,対象テキストのサブカテゴリが記憶されるサブカテゴリ欄211b,BGMの曲名が記憶される曲名欄211c,BGMの継続時間が記憶される継続時間欄211d,BGMを選択するための選択番号欄211eから構成されている。以上の条件の組み合わせにより、BGMデータベース211には、BGMを再生する対象のテキストの種類にふさわしい異なる継続時間のBGMが複数ずつ用意されている。後述する音声合成処理において、対象テキストに同期して再生されるBGMは、カテゴリ欄211aに記憶されたカテゴリ、サブカテゴリ欄211bに記憶されたサブカテゴリと、継続時間欄211dに記憶されたBGMの継続時間とを条件として決定される。また、サブカテゴリの指定がないテキストについてはカテゴリと継続時間により、カテゴリの指定がないテキストについてはallカテゴリのBGMから決定される。
As shown in FIG. 3, the BGM
次に、読上情報データベース212について、図4及び図5を参照して説明する。読上情報は、対象テキストに読上情報タグとして付加されているものである。この読上情報タグを検索キーにして情報の内容を決定するためのデータベースが読上情報データベース212である。図4に示すのは、読上情報として、読上音声の性別、年代、言葉遣い、ピッチ、トーン、声質を複数の種類又はレベルに分けて記憶したタイプの読上情報データベース212の例である。この例では、対象テキストの読上情報タグは、例えば、「<性別:2>」、「<言葉使い:2>」のような形で個別に指定され、これらを総合して読上情報が決定される。
Next, the reading
また、図5に示すのは、各種の読上情報の組み合わせから構成されるタイプの読上情報データベース212の例である。この例では、読上情報データベース212は、選択番号欄212a,性別欄212b,年代欄212c,言葉遣い欄212d,ピッチ欄212e,トーン欄212f,声質欄212g,既定値欄212hからなり、性別欄212b〜声質欄212gに記憶された読上条件の組み合わせを選択番号欄212aにある番号で指定して読上情報タグとして対象テキストに付加することができる。読上情報タグが付加されていない場合には、既定値欄212hにおいて1が記憶されているもの(図5の例では、G)を用いることができる。
FIG. 5 shows an example of a read-out
次に、RAM22の記憶領域について図6を参照して説明する。図6は、RAM22の記憶領域を示す模式図である。RAM22は、対象テキストに付加された各種のタグを抽出した結果を記憶するためのものである。RAM22は、環境情報記憶領域221,カテゴリ情報記憶領域222,サブカテゴリ情報記憶領域223,書式情報記憶領域224,読上情報記憶領域225,停止情報記憶領域226,部分情報記憶領域227,読上音声データ記憶領域228,読上時間記憶領域229,選択BGM記憶領域230からなり、対象テキストを処理する毎に各記憶領域にデータが順に記憶されるようになっている。
Next, the storage area of the
次に、このように構成された携帯情報端末1の動作について図7のフローチャートを参照して説明する。図7は、携帯情報端末1における音声合成処理の全体の流れを示すフローチャートである。ここで音声合成処理の対象となるテキストは、あらかじめ不揮発メモリ21に記憶されていてもよいし、赤外線通信やモデム(図示外)を介してネットワークから配信されたものであってもよい。本実施形態で対象とするテキストデータは、BGMを再生するための条件として、あらかじめタグ情報が付加されているものである。
Next, the operation of the
処理が開始されると、まず、読上対象のテキストを解析し、環境情報タグがあるか否かを判断する(S12)。環境情報タグは、音声やBGMが出力される環境の静かさを示すためのものであり、例えば「<環境:電車の中>」、「<環境:深夜>」等の形でテキストに付加されている。環境情報タグがある場合には(S12:YES)、そのタグ情報を抽出する(S16)。環境情報タグがない場合には(S12:NO)、マイク31を用いて周囲の音の大きさを検出する(S14)。音の大きさは、例えば80dB、40dB等のように検出される。次に、タグ情報又は抽出した音の大きさをRAM22の環境情報記憶領域221に記憶する(S18)。ここで記憶された環境情報は、後に選択されるBGMの再生時の音量や、読上音声の音量に反映される。
When the process is started, first, the text to be read is analyzed to determine whether there is an environment information tag (S12). The environmental information tag is used to indicate the quietness of the environment in which sound and BGM are output. For example, the environmental information tag is added to the text in the form of “<Environment: Inside a train”, “<Environment: Late night>”, etc. ing. If there is an environmental information tag (S12: YES), the tag information is extracted (S16). When there is no environmental information tag (S12: NO), the surrounding sound is detected using the microphone 31 (S14). The loudness is detected as 80 dB, 40 dB, or the like, for example. Next, the tag information or the extracted sound volume is stored in the environment
次に、対象テキストの大種別をあらわすカテゴリ情報タグがあるか否かを判断する(S20)。カテゴリ情報タグは、例えば「<カテゴリ:スポーツ>」、「<カテゴリ:ニュース>」、「<カテゴリ:緊急>」、「<カテゴリ:童話>」等の形でテキストに付加されている。なお、カテゴリ情報は、かならずしも全てのテキストに付加されていなくてもよい。カテゴリ情報タグがある場合は(S20:YES)、そのカテゴリ情報を抽出し、RAM22のカテゴリ情報記憶領域222に記憶する(S22)。カテゴリ情報タグがない場合は(S20:NO)、そのままS24に進む。ここで記憶されたカテゴリ情報は、後述のサブカテゴリ情報、算出された読上時間とともにBGMを選択する際の条件の1つとなる。カテゴリ情報が記憶されなかった場合には、全てのカテゴリに用いられるBGMの中から選択される。
Next, it is determined whether or not there is a category information tag representing a large type of target text (S20). The category information tag is added to the text in the form of, for example, “<Category: Sports>”, “<Category: News>”, “<Category: Emergency>”, “<Category: Fairy tale>”. Note that the category information is not necessarily added to all texts. If there is a category information tag (S20: YES), the category information is extracted and stored in the category
次に、対象テキストのカテゴリ内の小種別をあらわすサブカテゴリ情報タグがあるか否かを判断する(S24)。サブカテゴリ情報タグは、例えば「<サブカテゴリ:闘い>」、「<サブカテゴリ:経済>」、「<サブカテゴリ:災害>」、「<サブカテゴリ:外国>」等の形でテキストに付加されている。なお、サブカテゴリ情報は、かならずしも全てのテキストに付加されていなくてもよい。サブカテゴリ情報タグがある場合は(S24:YES)、そのカテゴリ情報を抽出し、RAM22のサブカテゴリ情報記憶領域223に記憶する(S26)。サブカテゴリ情報タグがない場合は(S24:NO)、そのままS28に進む。
Next, it is determined whether or not there is a subcategory information tag indicating a small type in the category of the target text (S24). The subcategory information tag is added to the text in the form of, for example, “<subcategory: struggle>”, “<subcategory: economy>”, “<subcategory: disaster>”, “<subcategory: foreign>”. Note that the subcategory information may not be added to all texts. If there is a subcategory information tag (S24: YES), the category information is extracted and stored in the subcategory
次に、書式情報を抽出し、RAM22の書式情報記憶領域224に記憶する(S28)。書式情報は、対象テキストの文字数や改行、空欄の数等から構成される書式情報タグからなり、テキストに付加されている。例えば、書式情報タグは、「<文字数:250>」、「<空欄:5>」等のような形でテキストに付加されている。また、付加されていない場合には対象テキストの文字数をカウントするように構成してもよい。ここで記憶される書式情報は、対象テキストの読上時間を算出する際に用いられる。
Next, the format information is extracted and stored in the format
次に、テキストを読み上げる際の音声に関する情報をあらわす読上情報タグがあるか否かを判断する(S30)。読上音声に関する情報としては、音量、音声の性別、年代、ピッチ、トーン、声質等がある。読上情報タグは、例えば、図4の読上情報データベース212の例にあるように、「<性別:1>」、「<年代:3>」、「<ピッチ:4>」等のような形、または、図5の読上情報データベース212の例にあるように、これらの組み合わせによる「<読上:A>」のような形でテキストに付加されている。また、付加されていない場合には規定値が用いられる。読上情報タグがある場合には(S30:YES)、その読上情報を抽出し、RAM22の読上情報記憶領域225に記憶する(S32)。読上情報タグがない場合には(S32:NO)、そのままS34に進む。ここで記憶された読上情報は、後述する読上音声データの出力の際に同時にオーディオ部34に出力され、スピーカからの出力時に反映される。
Next, it is determined whether or not there is a reading information tag that represents information related to the voice when reading the text (S30). Information related to reading speech includes volume, gender, age, pitch, tone, voice quality, and the like. The reading information tag includes, for example, “<sex: 1>”, “<age: 3>”, “<pitch: 4>”, and the like, as in the example of the reading
次に、対象テキストとともにBGMを再生するか否かを示すON/OFF情報タグがあるか否かを判断する(S34)。ON/OFF情報タグは、例えば「<BGM:ON>」、「<BGM:OFF>」等のような形でテキストに付加されている。また、付加されていない場合には、前のテキストと同様に処理する。ON/OFF情報タグがある場合には(S34:YES)、そのON/OFF情報をRAM22の停止情報記憶領域226に記憶する(S36)。ON/OFF情報タグがない場合には(S34:NO)、そのままS38に進む。記憶されたON/OFF情報がONであれば選択されたBGMを再生し、OFFであれば再生を行なわない。
Next, it is determined whether or not there is an ON / OFF information tag indicating whether or not the BGM is reproduced together with the target text (S34). The ON / OFF information tag is added to the text in a form such as “<BGM: ON>”, “<BGM: OFF>”, or the like. If it is not added, it is processed in the same way as the previous text. If there is an ON / OFF information tag (S34: YES), the ON / OFF information is stored in the stop
次に、対象テキストの一部に対してBGMを再生する場合にその割合や再生部分を指定する情報を示す部分情報タグがあるか否かを判断する(S38)。部分情報タグは、例えば対象テキストのクライマックス部分だけにBGMを再生したい等の場合に、その部分のテキストを「<BGM>」と「</BGM>」とで囲むような形、また、対象テキストの初めから50−75%に該当する部分にBGMを流したい場合には、テキストの先頭に「<BGM:50−75%>等のような形でテキストに付加されている。部分情報タグがある場合には(S38:YES)、その部分情報をRAM22の部分情報記憶領域227に記憶する(S40)。部分情報タグがない場合には(S38:NO)、そのままS42に進む。ここで記憶された部分情報と後述する読上時間算出処理で算出された読上時間とを掛け合わせてBGMの継続時間を算出し、算出されたBGM継続時間に適合するBGMをBGMデータベース211から選択する。一致する継続時間のBGMがBGMデータベース211に存在しない場合には、読上時間よりも長い継続時間のBGMを選択し、読上終了の際にBGMをフェイドアウトするようにしたり、読上またはBGMの速度を調整して同時に終了するようにしてもよい。
Next, when BGM is reproduced for a part of the target text, it is determined whether or not there is a partial information tag indicating information for specifying the ratio and the reproduction part (S38). The partial information tag is a form that surrounds the text of the part with “<BGM>” and “</ BGM>” when the BGM is to be reproduced only in the climax part of the target text, for example, and the target text When it is desired to flow BGM to the portion corresponding to 50-75% from the beginning of the text, “<BGM: 50-75%>” is added to the text at the beginning of the text. If there is (S38: YES), the partial information is stored in the partial
次に、対象テキストの音声合成処理を行なう(S42)。この音声合成処理では、周知の方法により音声合成辞書215を用いてアクセント付き読み文字列を生成し、さらに、ポーズを付与してRAM22の読上音声データ記憶領域228に記憶する。次いで、生成されたアクセント・ポーズ付き読み文字列データについてそれぞれの読み文字列の表す音節の継続長を算出し、それを合計して読上時間を算出する(S44)。音節の継続長の既定値は、あらかじめ音節長データベース216として不揮発メモリ21に記憶されている。この規定値に発声速度計数を乗じて実際の音節の継続長が算出される。この発生速度係数には、読上情報記憶領域137に記憶されたピッチに関する情報が反映される。次に、算出された各音節の継続長を合計して、対象テキストの読み上げにかかる合計継続時間を算出し、読上時間記憶領域229に記憶する。
Next, speech synthesis processing of the target text is performed (S42). In this speech synthesis process, an accented reading character string is generated by using a
次に、以上の処理により、カテゴリ情報記憶領域222に記憶されたカテゴリ、サブカテゴリ情報記憶領域223に記憶されたサブカテゴリ、部分情報記憶領域227に記憶されたBGM再生の割合、読上時間記憶領域229に記憶された読上時間を条件として、BGMデータベース211から適切なBGMを選択する(S46)。選択されたBGMは、選択BGM記憶領域230に記憶される。
Next, by the above processing, the category stored in the category
次に、現在処理している対象テキストが、読上を行ないたい最後のテキストか否かを判断する(S48)。最後のテキストでなければ(S48:NO)、S18に戻って、前のテキストと同じ環境情報を環境情報記憶領域221に記憶する。環境情報は、これから読上・BGM再生を行なう周囲の静かさを示す指標なので、全てのテキストについて共通のデータを記憶させるものである。そして、次のテキストについてS20〜S46の処理を行ない、最後のテキストになるまで処理を繰り返す。
Next, it is determined whether or not the target text currently being processed is the last text to be read (S48). If it is not the last text (S48: NO), the process returns to S18, and the same environment information as the previous text is stored in the environment
最後のテキストの場合には(S48:YES)、RAM22に記憶されている複数のテキストについて、同じカテゴリが連続しているか否かを判断する(S50)。同じカテゴリが連続している場合には(S50:YES)、共通化処理を行なう(S52)。具体的には、連続しているテキストの読上時間と部分情報から得られるBGM再生時間を合計し、その合計時間に見合う、同じカテゴリのBGMに変更し、選択BGM記憶領域230に上書きして記憶する。同じカテゴリが連続していない場合には(S50:NO)、そのままS54に進む。
In the case of the last text (S48: YES), it is determined whether or not the same category is continuous for a plurality of texts stored in the RAM 22 (S50). If the same category is continuous (S50: YES), a sharing process is performed (S52). Specifically, the BGM playback time obtained from the reading time of the continuous text and the partial information is totaled, and the BGM of the same category corresponding to the total time is changed, and the selected
そして、読上音声データ記憶領域228に記憶した読上音声データ、読上情報記憶領域225に記憶した読上情報、選択BGM記憶領域230に記憶した選択BGM情報をオーディオ部34に出力し、オーディオ部34で読上音声データをアナログ化して選択BGMと同期させてスピーカ35から出力する(S54)。
Then, the read audio data stored in the read audio
以下、具体的な例を、図6を参照しながら説明する。例えば、今、読み上げたいテキストが3つある場合を想定する。まず、処理を開始した対象テキストには環境情報タグが付加されていない場合(S12:NO)、マイク31を用いて周囲の音を拾い、音量を測定する(S14)。そして、測定された音量、例えば80dBを環境情報記憶領域221の1番目のテキストに対応する領域に記憶する(S18)。次に、カテゴリ情報タグを検索すると「<カテゴリ:ニュース>」というタグがヒットしたので(S20:YES)、この情報をカテゴリ情報記憶領域222の1番目のテキストに対応する領域に記憶する(S22)。次に、サブカテゴリ情報タグを検索すると「<サブカテゴリ:経済>」というタグがヒットしたので(S24:YES)、この情報をサブカテゴリ情報記憶領域223の1番目のテキストに対応する領域に記憶する(S26)。そして、書式情報タグを検索したがヒットしなかったので、テキストの文字数をカウントしてカウントされた250文字という情報を書式情報記憶領域224の1番目のテキストに対応する領域に記憶する(S28)。
A specific example will be described below with reference to FIG. For example, assume that there are three texts to be read out. First, when the environment information tag is not added to the target text for which processing has started (S12: NO), the surrounding sound is picked up using the
次に、読上情報タグを検索すると、「<読上:G>」というタグがヒットしたので(S30:YES)、この情報を読上情報記憶領域225の1番目のテキストに対応する領域に記憶する(S32)。そして、ON/OFF情報タグを検索すると、「<BGM:ON>」というタグがヒットしたので(S34:YES)、この情報を停止情報記憶領域226の1番目のテキストに対応する領域に記憶する(S36)。次に、部分情報タグを検索すると、「<BGM:50−75%>」というタグがヒットしたので(S38:YES)、その情報を部分情報記憶領域227の1番目のテキストに対応する領域に記憶する(S40)。
Next, when the reading information tag is searched, the tag “<reading: G>” is hit (S30: YES), and this information is stored in the area corresponding to the first text in the reading
次に、対象テキストの音声合成処理を行ない、生成された読み・アクセント・ポーズ付き文字列を読上音声データ記憶領域228の1番目のテキストに対応する領域に記憶する(S42)。そして、読上音声データ記憶領域228に記憶されたデータに対して音節長データベース216を用いて読み上げにかかる時間を算出し、算出された読み上げ時間90秒を読上時間記憶領域229の1番目のテキストに対応する領域に記憶する(S44)。そして、以上の処理で記憶された情報、すなわち、カテゴリ:ニュース、サブカテゴリ:経済、再生割合:25%(テキストの50−75%)と読上時間90秒から算出される再生継続時間22.5秒を条件として、図3に示すBGMデータベース211を検索して、BGMのKを選択する(S46)。ここで、BGMのKの継続時間は30秒であり、算出された再生継続時間より長いので、読上終了の際にBGMのKは再生継続時間に合わせてフェイドアウトするように設定するとよい。
Next, speech synthesis processing is performed on the target text, and the generated character string with reading / accent / pause is stored in an area corresponding to the first text in the reading voice data storage area 228 (S42). Then, using the
次に、このテキストは最後のテキストではないので(S48:NO)、S18に戻り、環境情報記憶領域221の2番目のテキストに対応する領域に、1番目のテキストに記憶したのと同じ情報、80dBを記憶する(S18)。次に、カテゴリ情報タグを検索すると「<カテゴリ:ニュース>」というタグがヒットしたので(S20:YES)、この情報をカテゴリ情報記憶領域222の2番目のテキストに対応する領域に記憶する(S22)。次に、サブカテゴリ情報タグを検索すると「<サブカテゴリ:戦闘>」というタグがヒットしたので(S24:YES)、この情報をサブカテゴリ情報記憶領域223の2番目のテキストに対応する領域に記憶する(S26)。そして、書式情報タグを検索してヒットした「<文字数:150>」から得られた文字数情報を、書式情報記憶領域224の2番目のテキストに対応する領域に記憶する(S28)。
Next, since this text is not the last text (S48: NO), the process returns to S18, and the same information stored in the first text in the area corresponding to the second text in the environment
次に、読上情報タグを検索すると、「<読上:T>」というタグがヒットしたので(S30:YES)、この情報を読上情報記憶領域225の2番目のテキストに対応する領域に記憶する(S32)。そして、ON/OFF情報タグを検索したがヒットしなかったので(S34:NO)、1番目のテキストと同様のONという情報を停止情報記憶領域226の2番目のテキストに対応する領域に記憶する。次に、部分情報タグを検索すると、「<BGM:20−50%>」というタグがヒットしたので(S38:YES)、その情報を部分情報記憶領域227の2番目のテキストに対応する領域に記憶する(S40)。
Next, when a reading information tag is searched, a tag “<reading: T>” is hit (S30: YES), and this information is stored in an area corresponding to the second text in the reading
次に、対象テキストの音声合成処理を行ない、生成された読み・アクセント・ポーズ付き文字列を読上音声データ記憶領域228の2番目のテキストに対応する領域に記憶する(S42)。そして、読上音声データ記憶領域228に記憶されたデータに対して音節長データベース216を用いて読み上げにかかる時間を算出し、算出された読み上げ時間110秒を読上時間記憶領域229の2番目のテキストに対応する領域に記憶する(S44)。そして、以上の処理で記憶された情報、すなわち、カテゴリ:ニュース、サブカテゴリ:戦闘、再生割合:30%(テキストの20−50%)と読上時間110秒から算出される再生継続時間33秒を条件として、図3に示すBGMデータベース211を検索して、BGMのNを選択する(S46)。
Next, speech synthesis processing is performed on the target text, and the generated character string with reading / accent / pause is stored in an area corresponding to the second text in the reading voice data storage area 228 (S42). Then, the time taken to read out the data stored in the reading voice
次に、このテキストは最後のテキストではないので(S48:NO)、S18に戻り、環境情報記憶領域221の3番目のテキストに対応する領域に、2番目のテキストに記憶したのと同じ情報、80dBを記憶する(S18)。次に、カテゴリ情報タグを検索すると「<カテゴリ:スポーツ>」というタグがヒットしたので(S20:YES)、この情報をカテゴリ情報記憶領域222の3番目のテキストに対応する領域に記憶する(S22)。次に、サブカテゴリ情報タグを検索すると「<サブカテゴリ:陸上>」というタグがヒットしたので(S24:YES)、この情報をサブカテゴリ情報記憶領域223の3番目のテキストに対応する領域に記憶する(S26)。そして、書式情報タグを検索してヒットした「<文字数:150>」から得られた文字数情報を、書式情報記憶領域224の3番目のテキストに対応する領域に記憶する(S28)。
Next, since this text is not the last text (S48: NO), the process returns to S18, and the same information stored in the second text in the area corresponding to the third text in the environment
次に、読上情報タグを検索すると、「<読上:G>」というタグがヒットしたので(S30:YES)、この情報を読上情報記憶領域225の3番目のテキストに対応する領域に記憶する(S32)。そして、ON/OFF情報タグを検索したがヒットしなかったので(S34:NO)、2番目のテキストと同様のONという情報を停止情報記憶領域226の3番目のテキストに対応する領域に記憶する。次に、部分情報タグを検索すると、「<BGM:40−90%>」というタグがヒットしたので(S38:YES)、その情報を部分情報記憶領域227の3番目のテキストに対応する領域に記憶する(S40)。
Next, when the reading information tag is searched, the tag “<reading: G>” is hit (S30: YES), and this information is stored in the area corresponding to the third text in the reading
次に、対象テキストの音声合成処理を行ない、生成された読み・アクセント・ポーズ付き文字列を読上音声データ記憶領域228の3番目のテキストに対応する領域に記憶する(S42)。そして、読上音声データ記憶領域228に記憶されたデータに対して音節長データベース216を用いて読み上げにかかる時間を算出し、算出された読み上げ時間60秒を読上時間記憶領域229の3番目のテキストに対応する領域に記憶する(S44)。そして、以上の処理で記憶された情報、すなわち、カテゴリ:スポーツ、サブカテゴリ:陸上、再生割合:50%(テキストの40−90%)と読上時間60秒から算出される再生継続時間30秒を条件として、図3に示すBGMデータベース211を検索して、BGMのJを選択する(S46)。
Next, speech synthesis processing of the target text is performed, and the generated character string with reading / accent / pause is stored in an area corresponding to the third text in the reading voice data storage area 228 (S42). Then, using the
次に、このテキストが最後のテキストであるから(S48:YES)、RAM22のカテゴリ情報記憶領域222を検索して、同じカテゴリが連続しているか否かを調べる(S50)。すると、テキスト1とテキスト2のカテゴリが「ニュース」で同一である(S50:YES)。ここで、共通化処理を行なう(S52)。具体的には、テキスト1とテキスト2のBGM再生時間を合計すると、22.5秒+33秒=55.5秒となるので、この継続時間に見合うBGMのLを選択し、テキスト1とテキスト2を継続してBGMのLを流すように選択BGM記憶領域230に記憶する。ここで、BGMのLの継続時間は1分40秒であり、算出された再生継続時間より長いので、読上終了の際にBGMのLは再生継続時間に合わせてフェイドアウトするように設定するとよい。そして、各テキストの読上音声データ記憶領域228に記憶した読上音声データ、読上情報記憶領域225に記憶した読上情報、選択BGM記憶領域230に記憶した選択BGM情報を順にオーディオ部34に出力し、オーディオ部34で読上音声データをアナログ化して選択BGMと同期させてスピーカ35から出力する(S54)。
Next, since this text is the last text (S48: YES), the category
以上説明したように、本実施形態の携帯端末に1よれば、テキストに付加された環境情報タグ、カテゴリ情報タグ、サブカテゴリ情報タグ、書式情報タグ、読上情報タグ、ON/OFF情報タグ、部分情報タグ、読上情報タグを抽出し、これらの情報を複合条件としてBGMデータベースからテキストに適合したBGMを選択するので、使用者は読上げられるテキストの内容にふさわしいBGMを聴きながら心地よくテキストの読上げを聴くことができる。 As described above, according to the mobile terminal of the present embodiment, the environment information tag, the category information tag, the subcategory information tag, the format information tag, the reading information tag, the ON / OFF information tag, the part added to the text Information tags and reading information tags are extracted and BGM suitable for the text is selected from the BGM database using these information as a composite condition, so the user can read the text comfortably while listening to the BGM appropriate for the content of the text to be read. I can listen.
なお、上記実施の形態において、図7のフローチャートのS16における環境情報抽出処理,S22におけるカテゴリ情報抽出処理,S26におけるサブカテゴリ情報抽出処理,S28における書式情報抽出処理,S32における読上情報抽出処理,S36におけるON/OFF情報抽出処理,S40における部分情報抽出処理を実行するCPU10が本発明の情報抽出手段として機能する。また、図7のフローチャートのS46でBGM選択処理を実行するCPU10が本発明のBGM選択手段として機能する。さらに、図7のフローチャートのS54で読み上げ音声にBGMを同期させて出力処理するCPU10が本発明のBGM再生手段として機能する。また、図7のフローチャートのS52で共通化処理を実行するCPU10が本発明の共通化手段として機能する。
In the above embodiment, the environment information extraction process in S16 of the flowchart of FIG. 7, the category information extraction process in S22, the subcategory information extraction process in S26, the format information extraction process in S28, the reading information extraction process in S32, S36 The
本発明の音声合成装置は、音声合成処理を実行できるコンピュータとBGM音源を有する構成の装置に適用できる。 The speech synthesizer of the present invention can be applied to a device having a computer capable of performing speech synthesis processing and a BGM sound source.
1 携帯情報端末
10 CPU
21 不揮発メモリ
34 オーディオ部
35 スピーカ
211 BGMデータベース
1
21
Claims (15)
少なくともカテゴリと再生時間により分類されたBGMデータを記憶する記憶手段と、
前記テキストに付加された付加情報を抽出する情報抽出手段と、
当該情報抽出手段により抽出された付加情報に基づき、前記記憶手段からBGMデータを選択するBGM選択手段と、
当該BGM選択手段により選択されたBGMデータを前記テキストの読み上げに同期させて再生するBGM再生手段とを備えたことを特徴とする音声合成装置。 In a speech synthesizer that reads out text from synthesized speech while reproducing BGM,
Storage means for storing at least BGM data classified by category and playback time;
Information extracting means for extracting additional information added to the text;
BGM selection means for selecting BGM data from the storage means based on the additional information extracted by the information extraction means;
A speech synthesizer comprising: BGM reproduction means for reproducing BGM data selected by the BGM selection means in synchronism with reading of the text.
前記BGM選択手段は、当該共通化手段により共通化された複数のテキストに対し、1個のBGMデータを選択することを特徴とする請求項1又は2に記載の音声合成装置。 A common means for extracting common features from additional information of a plurality of consecutive texts,
The speech synthesis apparatus according to claim 1, wherein the BGM selection unit selects one BGM data for a plurality of texts shared by the sharing unit.
前記停止情報又は前記部分情報に基づいて、前記BGMの再生を開始、停止させるBGM停止制御手段を備えたことを特徴とする請求項1乃至6のいずれかに記載の音声合成装置。 The additional information includes stop information for instructing whether or not to reproduce the BGM data, or partial information indicating a ratio of a part for reproducing the BGM,
7. The speech synthesizer according to claim 1, further comprising a BGM stop control means for starting and stopping playback of the BGM based on the stop information or the partial information.
前記テキストに付加された付加情報を抽出する情報抽出工程と、
当該情報抽出工程により抽出された付加情報に基づき、少なくともカテゴリと再生時間により分類され記憶されている複数のBGMデータから前記テキスト用にBGMデータを選択するBGM選択工程と、
当該BGM選択工程において選択されたBGMデータを前記テキストの読み上げに同期させて再生するBGM再生工程とを備えたことを特徴とする音声合成方法。 In a speech synthesis method for reading out text with synthesized speech while playing back BGM,
An information extraction step of extracting additional information added to the text;
A BGM selection step of selecting BGM data for the text from a plurality of BGM data classified and stored by at least a category and a reproduction time based on the additional information extracted by the information extraction step;
A speech synthesis method comprising: a BGM reproduction step of reproducing the BGM data selected in the BGM selection step in synchronization with the reading of the text.
前記BGM選択工程では、当該共通化工程において共通化された複数のテキストに対し、1個のBGMデータを選択することを特徴とする請求項8又は9に記載の音声合成方法。 It has a common process to extract common features from additional information of multiple consecutive texts,
The speech synthesis method according to claim 8 or 9, wherein, in the BGM selection step, one BGM data is selected for a plurality of texts shared in the sharing step.
前記停止情報又は前記部分情報に基づいて、前記BGMの再生を開始、停止させるBGM停止制御工程を備えたことを特徴とする請求項8乃至13のいずれかに記載の音声合成方法。 The additional information includes stop information for instructing whether or not to reproduce the BGM data, or partial information indicating a ratio of a part for reproducing the BGM,
The speech synthesis method according to any one of claims 8 to 13, further comprising a BGM stop control step of starting and stopping playback of the BGM based on the stop information or the partial information.
A speech synthesis program for causing a computer to execute the speech synthesis method according to claim 8.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003307121A JP4225167B2 (en) | 2003-08-29 | 2003-08-29 | Speech synthesis apparatus, speech synthesis method, and speech synthesis program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2003307121A JP4225167B2 (en) | 2003-08-29 | 2003-08-29 | Speech synthesis apparatus, speech synthesis method, and speech synthesis program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2005077663A true JP2005077663A (en) | 2005-03-24 |
JP4225167B2 JP4225167B2 (en) | 2009-02-18 |
Family
ID=34410010
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2003307121A Expired - Fee Related JP4225167B2 (en) | 2003-08-29 | 2003-08-29 | Speech synthesis apparatus, speech synthesis method, and speech synthesis program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4225167B2 (en) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006317876A (en) * | 2005-05-16 | 2006-11-24 | Nippon Telegr & Teleph Corp <Ntt> | Reading-aloud apparatus and program therefor |
WO2007091475A1 (en) * | 2006-02-08 | 2007-08-16 | Nec Corporation | Speech synthesizing device, speech synthesizing method, and program |
JP2013025112A (en) * | 2011-07-21 | 2013-02-04 | Sharp Corp | Electronic apparatus, reproduction method, program, and, recording medium |
WO2018034168A1 (en) * | 2016-08-17 | 2018-02-22 | ソニー株式会社 | Speech processing device and method |
-
2003
- 2003-08-29 JP JP2003307121A patent/JP4225167B2/en not_active Expired - Fee Related
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006317876A (en) * | 2005-05-16 | 2006-11-24 | Nippon Telegr & Teleph Corp <Ntt> | Reading-aloud apparatus and program therefor |
WO2007091475A1 (en) * | 2006-02-08 | 2007-08-16 | Nec Corporation | Speech synthesizing device, speech synthesizing method, and program |
US8209180B2 (en) | 2006-02-08 | 2012-06-26 | Nec Corporation | Speech synthesizing device, speech synthesizing method, and program |
JP2013025112A (en) * | 2011-07-21 | 2013-02-04 | Sharp Corp | Electronic apparatus, reproduction method, program, and, recording medium |
WO2018034168A1 (en) * | 2016-08-17 | 2018-02-22 | ソニー株式会社 | Speech processing device and method |
JPWO2018034168A1 (en) * | 2016-08-17 | 2019-06-13 | ソニー株式会社 | Voice processing apparatus and method |
US11081100B2 (en) | 2016-08-17 | 2021-08-03 | Sony Corporation | Sound processing device and method |
JP7036014B2 (en) | 2016-08-17 | 2022-03-15 | ソニーグループ株式会社 | Speech processing equipment and methods |
Also Published As
Publication number | Publication date |
---|---|
JP4225167B2 (en) | 2009-02-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8583418B2 (en) | Systems and methods of detecting language and natural language strings for text to speech synthesis | |
US8352272B2 (en) | Systems and methods for text to speech synthesis | |
US8355919B2 (en) | Systems and methods for text normalization for text to speech synthesis | |
US8396714B2 (en) | Systems and methods for concatenation of words in text to speech synthesis | |
US8352268B2 (en) | Systems and methods for selective rate of speech and speech preferences for text to speech synthesis | |
US20100082327A1 (en) | Systems and methods for mapping phonemes for text to speech synthesis | |
US20100082328A1 (en) | Systems and methods for speech preprocessing in text to speech synthesis | |
JP6977323B2 (en) | Singing voice output method, voice response system, and program | |
JP2022092032A (en) | Singing synthesis system and singing synthesis method | |
JP2007310204A (en) | Musical piece practice support device, control method, and program | |
JP2007264569A (en) | Retrieval device, control method, and program | |
JP4225167B2 (en) | Speech synthesis apparatus, speech synthesis method, and speech synthesis program | |
JP4697432B2 (en) | Music playback apparatus, music playback method, and music playback program | |
JP4491743B2 (en) | Karaoke equipment | |
JP2014178620A (en) | Voice processor | |
JP5387642B2 (en) | Lyric telop display device and program | |
JP2007304489A (en) | Musical piece practice supporting device, control method, and program | |
JP2006227247A (en) | Karaoke machine and singing evaluation process program for karaoke playing | |
JP6044490B2 (en) | Information processing apparatus, speech speed data generation method, and program | |
JP2004258564A (en) | Score data editing device, score data display device, and program | |
JP4631251B2 (en) | Media search device and media search program | |
JP6957069B1 (en) | Learning support system | |
JP2002336545A (en) | Game device, method of writing song, song writing game program, and game system | |
JP2005241767A (en) | Speech recognition device | |
JP5471138B2 (en) | Phoneme code converter and speech synthesizer |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050330 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070925 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071002 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20071130 |
|
RD04 | Notification of resignation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7424 Effective date: 20080207 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081104 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081117 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111205 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121205 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131205 Year of fee payment: 5 |
|
LAPS | Cancellation because of no payment of annual fees |