JP2003202885A5 - - Google Patents

Download PDF

Info

Publication number
JP2003202885A5
JP2003202885A5 JP2001401424A JP2001401424A JP2003202885A5 JP 2003202885 A5 JP2003202885 A5 JP 2003202885A5 JP 2001401424 A JP2001401424 A JP 2001401424A JP 2001401424 A JP2001401424 A JP 2001401424A JP 2003202885 A5 JP2003202885 A5 JP 2003202885A5
Authority
JP
Japan
Prior art keywords
voice
information processing
feature data
data
text string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2001401424A
Other languages
Japanese (ja)
Other versions
JP3806030B2 (en
JP2003202885A (en
Filing date
Publication date
Application filed filed Critical
Priority to JP2001401424A priority Critical patent/JP3806030B2/en
Priority claimed from JP2001401424A external-priority patent/JP3806030B2/en
Publication of JP2003202885A publication Critical patent/JP2003202885A/en
Publication of JP2003202885A5 publication Critical patent/JP2003202885A5/ja
Application granted granted Critical
Publication of JP3806030B2 publication Critical patent/JP3806030B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Claims (37)

音声による通話を行う通話手段と、
前記通話手段より得られる通話相手の音声から音声特徴データを生成する生成手段と、
前記生成手段で生成された音声特徴データを前記通話相手に対応させて格納する格納手段と、
テキストデータを含むメッセージを受信する受信手段と、
前記受信手段で受信したメッセージの送信者に対応する通話相手の音声特徴データを前記格納手段より取得する取得手段と、
前記取得手段で取得した音声特徴データを用いて、前記メッセージに含まれるテキストデータに対する合成音声データを生成する合成手段とを備えることを特徴とする情報処理装置。
Calling means for making a voice call,
Generating means for generating voice feature data from the voice of the other party obtained from the calling means;
Storage means for storing the voice feature data generated by the generation means in association with the other party,
Receiving means for receiving a message including text data;
Acquisition means for acquiring from the storage means voice feature data of the other party corresponding to the sender of the message received by the receiving means,
An information processing apparatus comprising: a synthesizing unit configured to generate synthesized voice data for text data included in the message using the voice feature data acquired by the acquiring unit.
前記通話手段による通話の間に前記生成手段により得られた音声特徴データを用いて、前記格納手段に既に格納されている、当該通話の通話相手に対応する音声特徴データを更新する更新手段を更に備えることを特徴とする請求項1に記載の情報処理装置。Updating means for updating voice characteristic data corresponding to the other party of the call, which is already stored in the storage means, using the voice characteristic data obtained by the generation means during the call by the call means. The information processing apparatus according to claim 1, further comprising: 前記格納手段に格納された音声特徴データをマニュアルで調整する調整手段を更に備えることを特徴とする請求項1に記載の情報処理装置。The information processing apparatus according to claim 1, further comprising an adjustment unit that manually adjusts the audio feature data stored in the storage unit. 前記通話手段より得られる通話相手の音声を、複数の感情分類項目のいずれかに分類する分類手段を更に備え、
前記生成手段は、前記分類手段によって分類された各感情分類項目毎に音声特徴データを取得し、前記格納手段は、前記感情分類項目毎に音声特徴データを格納することを特徴とする請求項1に記載の情報処理装置。
Classification means for classifying the voice of the other party obtained from the call means into any of a plurality of emotion classification items,
2. The method according to claim 1, wherein the generation unit acquires voice feature data for each emotion classification item classified by the classification unit, and the storage unit stores the voice feature data for each emotion classification item. An information processing apparatus according to claim 1.
前記分類手段は、前記音声より検出されるピッチ及びアクセント等の音声律情報に基づいて感情分類を行うことを特徴とする請求項4に記載の情報処理装置。The information processing apparatus according to claim 4, wherein the classification unit performs emotion classification based on voice rule information such as pitch and accent detected from the voice. 前記メッセージに含まれるテキストデータが前記複数の感情分類項目の何れに属するかを判定する判定手段を更に備え、
前記取得手段は、前記受信手段で受信したメッセージの送信者に対応する通話相手の、前記判定手段で判定された感情項目分類に対応する音声特徴データを前記格納手段より取得することを特徴とする請求項4に記載の情報処理装置。
Further comprising a determination unit that determines to which of the plurality of emotion classification items the text data included in the message belongs,
The acquisition unit acquires, from the storage unit, voice feature data of a communication partner corresponding to a sender of the message received by the reception unit, the speech feature data corresponding to the emotion item classification determined by the determination unit. The information processing device according to claim 4.
前記生成手段においてある感情分類項目に対応する音声特徴データが生成された場合、該音声特徴データを用いて他の感情分類項目に対応する音声特徴データを更新する更新手段を更に備えることを特徴とする請求項4に記載の情報処理装置。When voice generating data corresponding to a certain emotion classification item is generated by the generating unit, the voice generating device further includes an updating unit that updates voice characteristic data corresponding to another emotion classification item using the voice characteristic data. The information processing apparatus according to claim 4, wherein: 音声を入力する入力手段と、
前記入力手段で入力された音声よりテキスト列を生成する音声認識手段と、
前記入力手段で入力された音声における発声状態の変化を検出する検出手段と、
前記検出手段で検出された発声状態の変化に基づいて、前記音声認識手段で生成されたテキスト列に付加的データを付与する付与手段と、
前記付与手段で付加的データが付与されたテキスト列を含む送信メッセージを生成する生成手段とを備えることを特徴とする情報処理装置。
Input means for inputting voice,
Voice recognition means for generating a text string from the voice input by the input means,
Detecting means for detecting a change in the utterance state in the voice input by the input means,
Providing means for providing additional data to the text string generated by the voice recognition means, based on a change in the utterance state detected by the detection means,
An information processing apparatus comprising: a generating unit configured to generate a transmission message including a text string to which additional data has been added by the adding unit.
前記付加的データは、前記テキスト列の属性であることを特徴とする請求項8に記載の情報処理装置。The information processing apparatus according to claim 8, wherein the additional data is an attribute of the text string. 前記検出手段は、前記入力された音声の音量及び/又はスピードの変化を検出することを特徴とする請求項8に記載の情報処理装置。9. The information processing apparatus according to claim 8, wherein the detection unit detects a change in volume and / or speed of the input voice. 前記入力された音声より音声特徴データを取得する取得手段を更に備え、
前記生成手段で生成される送信メッセージは前記音声特徴データを含むことを特徴とする請求項8に記載の情報処理装置。
Further comprising an acquisition unit for acquiring voice feature data from the input voice,
9. The information processing apparatus according to claim 8, wherein the transmission message generated by the generation unit includes the voice feature data.
音声を入力する入力手段と、
前記入力手段で入力された音声よりテキスト列を生成する音声認識手段と、
前記入力された音声を、複数の感情分類項目のいずれかに分類する分類手段と、
前記分類手段による分類結果に基づいて、前記音声認識手段で生成されたテキスト列に前記分類項目に対応する付加的データを付与する付与手段と、
前記付与手段で付加的データが付与されたテキスト列を含む送信メッセージを生成する生成手段とを備えることを特徴とする情報処理装置。
Input means for inputting voice,
Voice recognition means for generating a text string from the voice input by the input means,
Classification means for classifying the input voice into one of a plurality of emotion classification items,
An assigning unit that assigns additional data corresponding to the classification item to a text string generated by the voice recognition unit, based on a classification result by the classification unit;
An information processing apparatus comprising: a generation unit configured to generate a transmission message including a text string to which additional data is added by the adding unit.
前記分類手段は、前記入力された音声の各文節を前記複数の感情分類項目のいずれかに分類することを特徴とする請求項12に記載の情報処理装置。13. The information processing apparatus according to claim 12, wherein the classification unit classifies each of the phrases of the input voice into one of the plurality of emotion classification items. 前記分類手段で分類された各音声に基づいて、感情分類項目毎の音声特徴データを取得する取得手段を更に備え、
前記生成手段で生成される送信メッセージは前記感情分類項目毎の音声特徴データを含むことを特徴とする請求項12に記載の情報処理装置。
An acquisition unit that acquires audio feature data for each emotion classification item based on each audio classified by the classification unit,
13. The information processing apparatus according to claim 12, wherein the transmission message generated by the generation unit includes voice feature data for each of the emotion classification items.
発声状態を表す付加データが付加されたテキスト列を含むメッセージを受信する受信手段と、
前記受信手段で受信されたメッセージのテキスト列に基づいて音声データを生成する音声合成手段と、
前記受信されたテキスト列より前記付加データを取得し、これに基づいて前記音声データの発声状態を変更する変更手段とを備えることを特徴とする情報処理装置。
Receiving means for receiving a message including a text string to which additional data indicating an utterance state is added;
Voice synthesis means for generating voice data based on a text string of the message received by the receiving means,
An information processing apparatus comprising: a change unit configured to obtain the additional data from the received text string, and change an utterance state of the voice data based on the additional data.
前記発声状態が発声の音量及びスピードを含むことを特徴とする請求項15に記載の情報処理装置。The information processing apparatus according to claim 15, wherein the utterance state includes a volume and a speed of the utterance. 前記メッセージは、音声特徴データを含み、
前記音声合成手段は、前記メッセージに含まれる音声特徴データを用いてテキスト列に対する音声データを生成することを特徴とする請求項15に記載の情報処理装置。
The message includes audio feature data;
16. The information processing apparatus according to claim 15, wherein the voice synthesizing unit generates voice data for a text string using voice feature data included in the message.
複数の感情分類項目のうちのどの感情分類に属するかを表す付加データが付加されたテキスト列と、該複数の感情分類項目のそれぞれに対応する音声特徴データを含むメッセージを受信する受信手段と、
前記受信手段で受信されたメッセージの付加データに基づいて、テキスト列が属する感情分類項目に対応した音声特徴データを、該メッセージより取得する取得手段と、
前記取得手段で取得された音声特徴データを用いて、前記テキスト列に対する音声データを生成する音声合成手段とを備えることを特徴とする情報処理装置。
Receiving means for receiving a message including a text string to which additional data indicating which emotion classification belongs to a plurality of emotion classification items and voice feature data corresponding to each of the plurality of emotion classification items;
Acquiring means for acquiring, from the message, voice feature data corresponding to the emotion classification item to which the text string belongs, based on the additional data of the message received by the receiving means;
An information processing apparatus comprising: a voice synthesizing unit configured to generate voice data for the text string using the voice feature data acquired by the acquiring unit.
音声による通話を行う通話工程と、
前記通話工程より得られる通話相手の音声から音声特徴データを生成する生成工程と、
前記生成工程で生成された音声特徴データを前記通話相手に対応させて格納手段に格納する格納工程と、
テキストデータを含むメッセージを受信する受信工程と、
前記受信工程で受信したメッセージの送信者に対応する通話相手の音声特徴データを前記格納手段より取得する取得工程と、
前記取得工程で取得した音声特徴データを用いて、前記メッセージに含まれるテキストデータに対する合成音声データを生成する合成工程とを備えることを特徴とする情報処理方法。
A call process for making a voice call;
A generation step of generating voice feature data from the voice of the other party obtained from the call step;
A storing step of storing the voice feature data generated in the generating step in a storage unit in association with the call partner;
A receiving step of receiving a message including text data;
An obtaining step of obtaining, from the storage unit, voice characteristic data of a call partner corresponding to a sender of the message received in the receiving step;
A synthesizing step of generating synthesized voice data for the text data included in the message using the voice feature data acquired in the acquiring step.
前記通話工程による通話の間に前記生成工程により得られた音声特徴データを用いて、前記格納工程に既に格納されている、当該通話の通話相手に対応する音声特徴データを更新する更新工程を更に備えることを特徴とする請求項19に記載の情報処理方法。An updating step of updating voice feature data corresponding to the other party of the call, which is already stored in the storing step, using the voice feature data obtained in the generation step during the call in the call step. The information processing method according to claim 19, further comprising: 前記格納工程に格納された音声特徴データをマニュアルで調整する調整工程を更に備えることを特徴とする請求項19に記載の情報処理方法。20. The information processing method according to claim 19, further comprising an adjusting step of manually adjusting the audio feature data stored in the storing step. 前記通話工程より得られる通話相手の音声を、複数の感情分類項目のいずれかに分類する分類工程を更に備え、
前記生成工程は、前記分類工程によって分類された各感情分類項目毎に音声特徴データを取得し、前記格納工程は、前記感情分類項目毎に音声特徴データを前記格納手段に格納することを特徴とする請求項19に記載の情報処理方法。
The method further comprises a classification step of classifying the voice of the other party obtained from the call step into one of a plurality of emotion classification items,
The generating step acquires voice feature data for each emotion classification item classified by the classification step, and the storing step stores voice feature data in the storage unit for each emotion classification item. 20. The information processing method according to claim 19, wherein
前記分類工程は、前記音声より検出されるピッチ及びアクセント等の音声律情報に基づいて感情分類を行うことを特徴とする請求項22に記載の情報処理方法。23. The information processing method according to claim 22, wherein, in the classification step, emotion classification is performed based on voice rule information such as pitch and accent detected from the voice. 前記メッセージに含まれるテキストデータが前記複数の感情分類項目の何れに属するかを判定する判定工程を更に備え、
前記取得工程は、前記受信工程で受信したメッセージの送信者に対応する通話相手の、前記判定工程で判定された感情項目分類に対応する音声特徴データを前記格納手段より取得することを特徴とする請求項22に記載の情報処理方法。
A determining step of determining to which of the plurality of emotion classification items the text data included in the message belongs;
The acquiring step is characterized by acquiring, from the storage unit, voice feature data of a communication partner corresponding to a sender of the message received in the receiving step, corresponding to the emotion item classification determined in the determining step. The information processing method according to claim 22.
前記生成工程においてある感情分類項目に対応する音声特徴データが生成された場合、該音声特徴データを用いて他の感情分類項目に対応する音声特徴データを更新する更新工程を更に備えることを特徴とする請求項22に記載の情報処理方法。When voice feature data corresponding to a certain emotion classification item is generated in the generation step, the method further includes an update step of updating voice feature data corresponding to another emotion classification item using the voice feature data. 23. The information processing method according to claim 22, wherein 音声を入力する入力工程と、
前記入力工程で入力された音声よりテキスト列を生成する音声認識工程と、
前記入力工程で入力された音声における発声状態の変化を検出する検出工程と、
前記検出工程で検出された発声状態の変化に基づいて、前記音声認識工程で生成されたテキスト列に付加的データを付与する付与工程と、
前記付与工程で付加的データが付与されたテキスト列を含む送信メッセージを生成する生成工程とを備えることを特徴とする情報処理方法。
An input step of inputting voice,
A voice recognition step of generating a text string from the voice input in the input step,
A detection step of detecting a change in the utterance state in the voice input in the input step,
Based on a change in the utterance state detected in the detection step, an adding step of adding additional data to the text string generated in the voice recognition step,
Generating a transmission message including a text string to which additional data has been added in the adding step.
前記付加的データは、前記テキスト列の属性であることを特徴とする請求項26に記載の情報処理方法。The method according to claim 26, wherein the additional data is an attribute of the text string. 前記検出工程は、前記入力された音声の音量及び/又はスピードの変化を検出することを特徴とする請求項26に記載の情報処理方法。27. The information processing method according to claim 26, wherein the detecting step detects a change in volume and / or speed of the input voice. 前記入力された音声より音声特徴データを取得する取得工程を更に備え、
前記生成工程で生成される送信メッセージは前記音声特徴データを含むことを特徴とする請求項26に記載の情報処理方法。
An acquisition step of acquiring audio feature data from the input audio,
27. The information processing method according to claim 26, wherein the transmission message generated in the generation step includes the voice feature data.
音声を入力する入力工程と、
前記入力工程で入力された音声よりテキスト列を生成する音声認識工程と、
前記入力された音声を、複数の感情分類項目のいずれかに分類する分類工程と、
前記分類工程による分類結果に基づいて、前記音声認識工程で生成されたテキスト列に前記分類項目に対応する付加的データを付与する付与工程と、
前記付与工程で付加的データが付与されたテキスト列を含む送信メッセージを生成する生成工程とを備えることを特徴とする情報処理方法。
An input step of inputting voice,
A voice recognition step of generating a text string from the voice input in the input step,
A classification step of classifying the input voice into one of a plurality of emotion classification items;
An assigning step of assigning additional data corresponding to the classification item to the text string generated in the voice recognition step, based on a classification result in the classification step;
Generating a transmission message including a text string to which additional data has been added in the adding step.
前記分類工程は、前記入力された音声の各文節を前記複数の感情分類項目のいずれかに分類することを特徴とする請求項30に記載の情報処理方法。31. The information processing method according to claim 30, wherein the classification step classifies each phrase of the input voice into one of the plurality of emotion classification items. 前記分類工程で分類された各音声に基づいて、感情分類項目毎の音声特徴データを取得する取得工程を更に備え、
前記生成工程で生成される送信メッセージは前記感情分類項目毎の音声特徴データを含むことを特徴とする請求項30に記載の情報処理方法。
An acquisition step of acquiring audio feature data for each emotion classification item based on each audio classified in the classification step,
31. The information processing method according to claim 30, wherein the transmission message generated in the generation step includes voice feature data for each of the emotion classification items.
発声状態を表す付加データが付加されたテキスト列を含むメッセージを受信する受信工程と、
前記受信工程で受信されたメッセージのテキスト列に基づいて音声データを生成する音声合成工程と、
前記受信されたテキスト列より前記付加データを取得し、これに基づいて前記音声データの発声状態を変更する変更工程とを備えることを特徴とする情報処理方法。
A receiving step of receiving a message including a text string to which additional data indicating an utterance state is added;
A voice synthesis step of generating voice data based on the text string of the message received in the receiving step,
An information processing method comprising: acquiring the additional data from the received text string; and changing an utterance state of the audio data based on the additional data.
前記発声状態が発声の音量及びスピードを含むことを特徴とする請求項33に記載の情報処理方法。The method according to claim 33, wherein the utterance state includes a volume and a speed of the utterance. 前記メッセージは、音声特徴データを含み、
前記音声合成工程は、前記メッセージに含まれる音声特徴データを用いてテキスト列に対する音声データを生成することを特徴とする請求項33に記載の情報処理方法。
The message includes audio feature data;
The information processing method according to claim 33, wherein the voice synthesizing step generates voice data for a text string using voice feature data included in the message.
複数の感情分類項目のうちのどの感情分類に属するかを表す付加データが付加されたテキスト列と、該複数の感情分類項目のそれぞれに対応する音声特徴データを含むメッセージを受信する受信工程と、
前記受信工程で受信されたメッセージの付加データに基づいて、テキスト列が属する感情分類項目に対応した音声特徴データを、該メッセージより取得する取得工程と、
前記取得工程で取得された音声特徴データを用いて、前記テキスト列に対する音声データを生成する音声合成工程とを備えることを特徴とする情報処理方法。
A receiving step of receiving a message including a text string to which additional data indicating which emotion classification belongs to the plurality of emotion classification items and voice feature data corresponding to each of the plurality of emotion classification items,
An acquiring step of acquiring, from the message, voice feature data corresponding to the emotion classification item to which the text string belongs based on the additional data of the message received in the receiving step;
A voice synthesizing step of generating voice data for the text string using the voice feature data obtained in the obtaining step.
請求項19乃至36のいずれかに記載の情報処理方法をコンピュータに実行させるコンピュータプログラムを格納する記憶媒体。A storage medium for storing a computer program for causing a computer to execute the information processing method according to any one of claims 19 to 36.
JP2001401424A 2001-12-28 2001-12-28 Information processing apparatus and method Expired - Fee Related JP3806030B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001401424A JP3806030B2 (en) 2001-12-28 2001-12-28 Information processing apparatus and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001401424A JP3806030B2 (en) 2001-12-28 2001-12-28 Information processing apparatus and method

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2006019733A Division JP2006184921A (en) 2006-01-27 2006-01-27 Information processing device and method

Publications (3)

Publication Number Publication Date
JP2003202885A JP2003202885A (en) 2003-07-18
JP2003202885A5 true JP2003202885A5 (en) 2004-11-11
JP3806030B2 JP3806030B2 (en) 2006-08-09

Family

ID=27640152

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001401424A Expired - Fee Related JP3806030B2 (en) 2001-12-28 2001-12-28 Information processing apparatus and method

Country Status (1)

Country Link
JP (1) JP3806030B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3678421B2 (en) * 2003-02-19 2005-08-03 松下電器産業株式会社 Speech recognition apparatus and speech recognition method
JP4530134B2 (en) * 2004-03-09 2010-08-25 日本電気株式会社 Speech synthesis apparatus, voice quality generation apparatus, and program
JP2005346252A (en) 2004-06-01 2005-12-15 Nec Corp Information transmission system and information transmission method
JP2005342862A (en) * 2004-06-04 2005-12-15 Nec Corp Robot
JP4670431B2 (en) * 2005-03-30 2011-04-13 日本電気株式会社 Mobile terminal with mail creation function by voice emotion recognition, portable terminal system, and mail creation method by voice emotion recognition
CN101199002B (en) * 2005-06-09 2011-09-07 株式会社A.G.I. Speech analyzer detecting pitch frequency, speech analyzing method, and speech analyzing program
JP2007004281A (en) * 2005-06-21 2007-01-11 Mitsubishi Electric Corp Voice mail input device
JP2007264284A (en) * 2006-03-28 2007-10-11 Brother Ind Ltd Device, method, and program for adding feeling
JP2007271655A (en) * 2006-03-30 2007-10-18 Brother Ind Ltd System for adding affective content, and method and program for adding affective content
JP4583350B2 (en) * 2006-08-29 2010-11-17 京セラ株式会社 Mobile terminal device, ringtone output method
KR100850560B1 (en) * 2006-11-01 2008-08-06 (주)폴리다임 Method for providing icon combination for SMS message
KR101044323B1 (en) * 2008-02-20 2011-06-29 가부시키가이샤 엔.티.티.도코모 Communication system for building speech database for speech synthesis, relay device therefor, and relay method therefor
JPWO2009125710A1 (en) * 2008-04-08 2011-08-04 株式会社エヌ・ティ・ティ・ドコモ Media processing server apparatus and media processing method
WO2010019831A1 (en) 2008-08-14 2010-02-18 21Ct, Inc. Hidden markov model for speech processing with training method
JP2010169925A (en) * 2009-01-23 2010-08-05 Konami Digital Entertainment Co Ltd Speech processing device, chat system, speech processing method and program
JP5049310B2 (en) * 2009-03-30 2012-10-17 日本電信電話株式会社 Speech learning / synthesis system and speech learning / synthesis method
KR101703214B1 (en) * 2014-08-06 2017-02-06 주식회사 엘지화학 Method for changing contents of character data into transmitter's voice and outputting the transmiter's voice
JP7036054B2 (en) * 2019-02-05 2022-03-15 日本電信電話株式会社 Acoustic model learning device, acoustic model learning method, program
KR102430020B1 (en) * 2019-08-09 2022-08-08 주식회사 하이퍼커넥트 Mobile and operating method thereof
JP6993034B1 (en) 2021-05-14 2022-01-13 Aiインフルエンサー株式会社 Content playback method and content playback system

Similar Documents

Publication Publication Date Title
JP2003202885A5 (en)
US7974392B2 (en) System and method for personalized text-to-voice synthesis
US9553979B2 (en) Bluetooth headset and voice interaction control thereof
US7957972B2 (en) Voice recognition system and method thereof
JP4025355B2 (en) Speech synthesis apparatus and speech synthesis method
US20060074672A1 (en) Speech synthesis apparatus with personalized speech segments
US20060069567A1 (en) Methods, systems, and products for translating text to speech
CN110136692A (en) Phoneme synthesizing method, device, equipment and storage medium
KR20170081160A (en) System and method for automatically converting textual messages to musical compositions
US20140046667A1 (en) System for creating musical content using a client terminal
CN111445892A (en) Song generation method and device, readable medium and electronic equipment
EP3872806A1 (en) Text-to-speech from media content item snippets
JP3806030B2 (en) Information processing apparatus and method
KR20090085673A (en) Content selection using speech recognition
JP2018054790A (en) Voice interaction system and voice interaction method
KR101664080B1 (en) Voice dialing system and method thereof
CA2539649C (en) System and method for personalized text-to-voice synthesis
CN111445897A (en) Song generation method and device, readable medium and electronic equipment
CN106295717A (en) A kind of western musical instrument sorting technique based on rarefaction representation and machine learning
KR20150017662A (en) Method, apparatus and storing medium for text to speech conversion
JP2007271655A (en) System for adding affective content, and method and program for adding affective content
US20130024192A1 (en) Atmosphere expression word selection system, atmosphere expression word selection method, and program
CN102857650A (en) Method for dynamically regulating voice
KR100705176B1 (en) Method for generating music file in mobile terminal
JP2018005122A (en) Detection device, detection method, and detection program