JP2009217846A - Voice data generating device and voice data generating method - Google Patents

Voice data generating device and voice data generating method Download PDF

Info

Publication number
JP2009217846A
JP2009217846A JP2009148359A JP2009148359A JP2009217846A JP 2009217846 A JP2009217846 A JP 2009217846A JP 2009148359 A JP2009148359 A JP 2009148359A JP 2009148359 A JP2009148359 A JP 2009148359A JP 2009217846 A JP2009217846 A JP 2009217846A
Authority
JP
Japan
Prior art keywords
speaker
voice
voice message
orderer
utterance content
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009148359A
Other languages
Japanese (ja)
Other versions
JP4840476B2 (en
Inventor
Yasunaga Miyazawa
康永 宮澤
Hiroshi Hasegawa
浩 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009148359A priority Critical patent/JP4840476B2/en
Publication of JP2009217846A publication Critical patent/JP2009217846A/en
Application granted granted Critical
Publication of JP4840476B2 publication Critical patent/JP4840476B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To prevent a voice message including an inappropriate expression, from being originated as speech contents of a distinguished person or the like in generating the voice message by synthesizing voices using the speech contents of a voice message specified by an orderer and voice feature data of the distinguished person or the like. <P>SOLUTION: This voice data generating device has use permitted expression dictionaries 251-25n in which expressions permitted to use as the speech contents of a certain speaker are described; a document analyzing part 21 making a sentence analysis of the speech contents of the voice message specified by the orderer, and collating the analysis result with the use permitted expression dictionaries to determine whether the speech contents of the voice message are composed of appropriate expressions; and a voice synthesis processing part (a rhythm control part 23 and a voice waveform generating part 24) for performing voice synthesis processing using the document analysis result and the speaker's voice feature data (rhythm data 261-26n and voice quality data 271-27n of individual speakers) when determining that the speech contents of the voice message are composed of the appropriate expressions, and outputting the voice synthesis data. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、発注者の指定した音声メッセージの発話内容とある特定の話者の音声データ
とを用いて音声合成処理し、それによって得られた音声データを提供する音声データ提供
システムならびに音声データ作成装置および音声データ作成プログラムに関する。
The present invention relates to a voice data providing system and a voice data generation system that perform voice synthesis processing using voice content of a voice message designated by an orderer and voice data of a specific speaker, and provide voice data obtained thereby. The present invention relates to a device and an audio data creation program.

発注者の指定した音声メッセージの発話内容(テキストデータ)とその発注者の選択し
たある特定の話者の音声データとを用いて音声合成処理し、それによって得られた音声デ
ータを提供するシステムが従来から知られている。
A system that performs speech synthesis processing using speech content (text data) of a voice message designated by an orderer and speech data of a specific speaker selected by the orderer, and provides the resulting speech data Conventionally known.

たとえば、特開2002−23777号公報に記載の発明(以下、特許文献1という)
や、特開2001−255884号公報に記載の発明(以下、特許文献2という)もその
一例である。
For example, the invention described in JP-A-2002-23777 (hereinafter referred to as Patent Document 1)
Another example is the invention described in Japanese Patent Application Laid-Open No. 2001-255484 (hereinafter referred to as Patent Document 2).

これらの発明は、発注者がネットワークに接続されたパーソナルコンピュータ(PCと
いう)などから音声メッセージの発話内容をキー入力し、かつ、話者(たとえば、俳優、
歌手、声優、スポーツ選手などの著名人)を選択すると、システム側では、その発注者の
入力した音声メッセージの発話内容に対するテキストデータと当該発注者の選択した話者
の音声特徴データとを用いて音声合成処理を行い、その話者の声と話し方での音声合成デ
ータを生成して、それを特別注文(特注という)の音声データとして、たとえば、CD−
ROM(Compact Disk-Read Only Memory)などの記録媒体に記録させて当該発注者に納
品するといったことを可能とするものである。
In these inventions, an orderer inputs a voice message utterance content from a personal computer (PC) connected to a network, and a speaker (for example, an actor,
Singer, voice actor, athlete, etc.), the system uses the text data for the utterance content of the voice message entered by the orderer and the voice feature data of the speaker selected by the orderer. Speech synthesis processing is performed to generate speech synthesis data in the voice of the speaker and how to speak, and this is generated as special order (custom-made) speech data, for example, CD-
It can be recorded on a recording medium such as a ROM (Compact Disk-Read Only Memory) and delivered to the orderer.

また、特許文献1の発明には、このような音声合成データを玩具、置き時計、携帯電話
機などの機器に組み込むことによってこれらの機器に付加価値を持たせることが記載され
ている。
In addition, the invention of Patent Document 1 describes that such voice synthesis data is incorporated into devices such as toys, table clocks, and mobile phones, thereby adding value to these devices.

特開2002−23777号公報JP 2002-23777 A 特開2001−255884号公報JP 2001-255484 A

上述した特許文献1や特許文献2の発明によれば、発注者は自分の用意した音声メッセ
ージの発話内容を自分の好みの著名人などある特定の話者に似せた話し方で発話させるこ
とができるので、それによって得られた音声メッセージはその発注者にとって価値の高い
ものとすることができ、さらに、その音声メッセージを玩具や置き時計などの機器に組み
込むことによって、それらの機器はその発注者にとって唯一無二の機器とすることができ
る。
According to the inventions of Patent Document 1 and Patent Document 2 described above, the orderer can utter the utterance content of the voice message prepared by him in a manner similar to a specific speaker such as his favorite celebrity. Therefore, the voice message obtained thereby can be valuable to the orderer, and by incorporating the voice message into a device such as a toy or table clock, the device is the only one for the orderer. It can be a unique device.

しかしながら、発注者が用意した音声メッセージの発話内容とその発注者の好みの著名
人の音声特徴データとを用いて音声合成処理し、それによって、その著名人に似せた話し
方で発話させるとなると、音声メッセージの内容によっては、その発注者の選択した著名
人などの名誉を傷つけることにもなり兼ねない。
However, when speech synthesis processing is performed using the utterance content of the voice message prepared by the orderer and the voice feature data of the celebrity of the orderer's preference, and thereby speaking in a manner similar to that celebrity, Depending on the content of the voice message, it may damage the honor of the celebrity selected by the orderer.

たとえば、アイドル歌手やテレビジョンで放映されているアニメーション番組の人気キ
ャラクタ(声優)の音声特徴データを用いて、乱暴な言い回しや卑猥な内容の音声メッセ
ージを発話させるというように、公の場でその話者が発話することのあり得ない内容の音
声メッセージを発話させるといったことも可能となってしまう。
For example, using voice feature data of popular characters (voice actors) of animated programs aired on idol singers and television, it is possible to utter harsh words and obscene voice messages. It is also possible to utter a voice message with a content that cannot be spoken by the speaker.

これら著名人の多くは自分の声自体も売り物の1つとしている人も多いのが一般的であ
り、声の権利者でもあるといえる。したがって、これら著名人に似せた声や話し方で、そ
の著名人の意図しない発話内容を発話させ、それをネットワーク上で配信可能としたり、
ある特定の機器に埋め込むのは問題である。また、このようなことが実際に行われると、
このような音声データ提供サービスを行うサービス提供者に対してもその責任が発生し、
サービス提供者としての良識が疑われることにもなる。
Many of these celebrities generally have their own voice as one of the items for sale, and it can be said that they are also voice owners. Therefore, you can utter the unintentional utterance content of the celebrity with a voice and speech that resemble these celebrities, and distribute it over the network,
Embedding on certain devices is a problem. And when this is actually done,
Responsibility also arises for service providers who provide such voice data providing services,
The common sense as a service provider is also suspected.

そこで本発明は、自分の用意した音声メッセージの発話内容をある特定の話者に似せた
話し方で発話させるような音声合成を行ってその音声合成データを特注の音声データとし
て提供する際、音声メッセージの発話内容に声の権利者やサービス提供者の意図しない表
現があるか否かを判断することで、適正な内容の音声メッセージの作成を可能とすること
を目的としている。
Therefore, the present invention performs voice synthesis such that the utterance content of the voice message prepared by the user is spoken in a manner similar to that of a specific speaker, and provides the voice synthesis data as custom voice data. It is an object of the present invention to make it possible to create a voice message with an appropriate content by determining whether or not there is an unintended expression of the voice right holder or service provider in the utterance content.

上述した目的を達成するために、本発明の音声データ提供システムは、発注者の指定し
た音声メッセージの発話内容とある特定の話者の音声特徴データとを用いて音声合成処理
し、それによって得られた音声合成データを音声データとして提供する音声データ提供シ
ステムであって、前記発注者から音声データ作成を受注する受注側は、前記発注者の指定
した音声メッセージの発話内容を受信するとともに、その音声メッセージを発話させる話
者の選択情報を受信すると、当該発注者の指定した音声メッセージの発話内容が、前記話
者の発話内容として使用を許可された表現で構成されているか否かを判定し、使用を許可
された表現で構成されていると判定された場合に、その音声メッセージの発話内容と当該
選択された話者の音声特徴データとを用いて音声合成処理し、その音声合成データを音声
データとして提供するようにしている。
In order to achieve the above-described object, the speech data providing system of the present invention performs speech synthesis processing using speech content specified by the orderer and speech feature data of a specific speaker, and thereby obtained. A voice data providing system for providing the synthesized voice data as voice data, the order receiving side receiving an order for voice data creation from the orderer receives the utterance content of the voice message designated by the orderer, and Upon receiving the selection information of the speaker who utters the voice message, it is determined whether or not the utterance content of the voice message designated by the orderer is composed of an expression permitted to be used as the utterance content of the speaker. When it is determined that the expression is permitted to be used, the utterance content of the voice message and the voice feature data of the selected speaker And speech synthesis process using the door, and the speech synthesis data to be provided as audio data.

このような音声データ提供システムにおいて、前記受注側は、選択された話者の発話内
容として使用を許可された表現が記述された使用許可表現辞書を有し、前記使用を許可さ
れた表現で構成されているか否かの判定は、前記音声メッセージの発話内容を文章解析し
、その文章解析結果を当該使用許可表現辞書の内容に照らし合わせて行うようにしている
In such a voice data providing system, the order receiving side has a use permission expression dictionary in which expressions permitted to be used are described as the utterance contents of the selected speaker, and is configured with the expressions permitted to use. It is determined whether or not the voice message is uttered by analyzing the utterance content of the voice message and comparing the result of the sentence analysis with the content of the use permission expression dictionary.

また、この音声データ提供システムにおいて、前記受注側は、選択された話者の発話す
る内容として使用を許可された表現で構成されたネットワーク文法を有し、前記使用を許
可された表現で構成されているか否かの判定は、前記音声メッセージの発話内容を文章解
析し、その文章解析結果を当該ネットワーク文法の内容に照らし合わせて行うようにして
いる。
Further, in this voice data providing system, the order receiving side has a network grammar composed of expressions permitted to be used as contents uttered by the selected speaker, and is composed of expressions permitted to be used. It is determined whether or not the voice message is uttered by analyzing the content of the voice message and comparing the result of the text analysis with the content of the network grammar.

また、この音声データ提供システムにおいて、前記使用許可表現辞書は、個々の話者対
応に用意され、個々の話者において許容される表現が記述されていることが好ましい。
In the voice data providing system, it is preferable that the use permission expression dictionary is prepared for each speaker, and an expression allowed for each speaker is described.

また、この音声データ提供システムにおいて、前記ネットワーク文法は、個々の話者対
応に用意され、個々の話者において許容される表現で構成されていることが好ましい。
In this audio data providing system, it is preferable that the network grammar is prepared for each speaker and is configured with expressions allowed for each speaker.

また、この音声データ提供システムにおいて、前記音声メッセージの発話内容に、前記
話者の発話する内容として使用を許可された表現以外の未知語が含まれている場合は、そ
の未知語の存在を前記発注者に提示することが好ましい。
Further, in this voice data providing system, when the utterance content of the voice message includes an unknown word other than an expression permitted to be used as the utterance content of the speaker, the presence of the unknown word is It is preferable to present it to the orderer.

また、この音声データ提供システムにおいて、前記使用許可表現辞書またはネットワー
ク文法に加えて、話者の発話する内容として使用を許可された表現以外の未知語を、前記
使用を許可された表現に変換するための変換候補の記述がなされた未知語変換辞書を有し
、音声メッセージの発話内容に未知語が含まれていると判定された場合は、この未知語変
換辞書からその未知語に対する変換候補を取得して、その変換候補を前記発注者に提示す
ることが好ましい。
Further, in this voice data providing system, in addition to the use permitted expression dictionary or the network grammar, an unknown word other than the expression permitted to be used as a content spoken by a speaker is converted into the expression permitted to be used. If it is determined that an unknown word is included in the utterance content of the voice message, a conversion candidate for the unknown word is selected from the unknown word conversion dictionary. It is preferable to acquire and present the conversion candidates to the orderer.

また、この音声データ提供システムにおいて、前記未知語変換辞書は、個々の話者対応
に用意され、個々の話者において許容される範囲内の変換候補の記述がなされていること
が好ましい。
In the voice data providing system, it is preferable that the unknown word conversion dictionary is prepared for each speaker and a description of conversion candidates within a range allowed for each speaker is described.

また、この音声データ提供システムにおいて、前記発注者の指定した音声メッセージの
発話内容を、前記文書解析結果を用いて他の言語に翻訳する言語変換手段を有し、前記使
用を許可された表現で構成されていると判定された場合、前記発注者の要求に基づいて、
前記音声メッセージの発話内容を当該言語変換手段によって当該発注者の指定する他の言
語に翻訳し、その翻訳された音声メッセージの発話内容と前記選択された話者の音声特徴
データとを用いて音声合成処理することも可能である。
The voice data providing system further comprises language conversion means for translating the utterance content of the voice message designated by the orderer into another language using the document analysis result, and the expression is permitted to be used. If it is determined that it is configured, based on the orderer's request,
The utterance content of the voice message is translated into another language designated by the orderer by the language conversion means, and the voice content using the translated utterance content of the voice message and the voice feature data of the selected speaker is used. Synthesis processing is also possible.

また、本発明の音声データ作成装置は、発注者の指定した音声メッセージの発話内容と
ある特定の話者の音声特徴データとを用いて音声合成処理し、それによって得られた音声
合成データを音声データとして提供する音声データ提供システムに用いられる音声データ
作成装置であって、この音声データ作成装置は、前記話者の発話内容として使用を許可さ
れた表現を記録した使用許可表現記録手段と、前記発注者の指定した音声メッセージの発
話内容を文章解析するとともに、発注者の指定した音声メッセージの発話内容が、前記話
者の発話内容として使用を許可された表現で構成されているか否かを判定する文書解析手
段と、この文書解析手段によって当該音声メッセージの発話内容が前記使用を許可された
表現で構成されていると判定された場合に、その音声メッセージの発話内容と当該選択さ
れた話者の音声特徴データとを用いて音声合成処理する音声合成手段とを有している。
Also, the speech data creation device of the present invention performs speech synthesis processing using speech content specified by the orderer and speech feature data of a specific speaker, and speech synthesis data obtained thereby is speech-synthesized. A voice data creation device used in a voice data provision system provided as data, wherein the voice data creation device includes a use-permitted expression recording unit that records expressions permitted to be used as speech content of the speaker, Analyzes the utterance content of the voice message specified by the orderer and determines whether the utterance content of the voice message specified by the orderer is composed of expressions permitted to be used as the utterance content of the speaker. And the document analysis means determines that the utterance content of the voice message is composed of the permitted expression. If the, and a speech synthesis means for speech synthesis process using the speech feature data of the utterance contents and the selected speaker of the voice message.

このような音声データ作成装置において、前記使用許可表現記録手段は、前記選択され
た話者の発話内容として使用を許可された表現が記述された使用許可表現辞書であって、
前記使用を許可された表現で構成されているか否かを判定は、前記音声メッセージの発話
内容を文章解析し、その文章解析結果を当該使用許可表現辞書の内容に照らし合わせて行
うようにしている。
In such a voice data creation device, the use permission expression recording unit is a use permission expression dictionary in which expressions permitted to be used as the utterance content of the selected speaker are described,
The determination as to whether or not the expression is permitted to be used is made by analyzing the utterance content of the voice message and comparing the result of the sentence analysis with the content of the permitted expression dictionary. .

また、この音声データ作成装置において、前記使用許可表現記録手段は、前記選択され
た話者の発話内容として使用を許可された表現で構成されたネットワーク文法であって、
前記話者の発話内容として使用を許可された表現で構成されているか否かを判定は、前記
音声メッセージの発話内容を文章解析し、その文章解析結果を当該ネットワーク文法の内
容に照らし合わせて行うようにしている。
Further, in this voice data creation device, the use permission expression recording means is a network grammar composed of expressions permitted to be used as the utterance content of the selected speaker,
It is determined whether or not it is composed of expressions permitted to be used as the utterance content of the speaker by analyzing the utterance content of the voice message and comparing the sentence analysis result with the content of the network grammar. I am doing so.

また、この音声データ作成装置において、前記使用許可表現辞書は、個々の話者対応に
用意され、個々の話者において許容される表現が記述されていることが好ましい。
In the voice data creation device, it is preferable that the use permission expression dictionary is prepared for each speaker and describes expressions allowed for each speaker.

また、この音声データ作成装置において、前記ネットワーク文法は、個々の話者対応に
用意され、個々の話者において許容される表現で構成されていることが好ましい。
In the voice data creation apparatus, it is preferable that the network grammar is prepared for each speaker and is configured with expressions allowed for each speaker.

また、この音声データ作成装置において、前記文書解析手段によって前記音声メッセー
ジの発話内容に、前記話者の発話する内容として使用を許可された表現以外の未知語が含
まれていると判定された場合は、その未知語の存在を前記発注者に提示することが好まし
い。
Also, in this voice data creation device, when it is determined by the document analysis means that the utterance content of the voice message includes an unknown word other than an expression permitted to be used as the utterance content of the speaker It is preferable to present the presence of the unknown word to the orderer.

また、この音声データ作成装置において、前記使用許可表現辞書またはネットワーク文
法に加えて、前記話者の発話する内容として使用を許可された表現以外の未知語を、前記
使用を許可された表現に変換するための変換候補が記述された未知語変換辞書を有し、前
記文書解析手段は音声メッセージの発話内容に未知語が含まれていると判定した場合は、
当該未知語変換辞書からその未知語に対する変換候補を取得して、その変換候補を前記発
注者に提示することが好ましい。
Further, in this voice data creation device, in addition to the use permitted expression dictionary or the network grammar, an unknown word other than the expression permitted to be used as the content uttered by the speaker is converted into the expression permitted to be used. Having an unknown word conversion dictionary in which conversion candidates to be described are described, and the document analysis means determines that an unknown word is included in the utterance content of the voice message,
It is preferable to obtain a conversion candidate for the unknown word from the unknown word conversion dictionary and present the conversion candidate to the orderer.

また、この音声データ作成装置において、前記未知語変換辞書は、個々の話者対応に用
意され、個々の話者において許容される範囲内の変換候補の記述がなされていることが好
ましい。
In the speech data creation device, it is preferable that the unknown word conversion dictionary is prepared for each speaker and a description of conversion candidates within a range allowed for each speaker is described.

また、この音声データ作成装置において、前記発注者の指定した音声メッセージの発話
内容を前記文書解析結果を用いて他の言語に翻訳する言語変換手段を有し、前記使用を許
可された表現で構成されていると判定された場合、前記発注者の要求に基づいて、前記音
声メッセージの発話内容を当該言語変換手段によって当該発注者の指定する他の言語に翻
訳し、その翻訳された音声メッセージの発話内容と前記選択された話者の音声特徴データ
とを用いて音声合成処理することも可能である。
The voice data creation apparatus further comprises language conversion means for translating the utterance content of the voice message designated by the orderer into another language using the document analysis result, and is composed of the expression permitted to be used. If it is determined that the voice message is uttered, the utterance content of the voice message is translated into another language designated by the orderer by the language conversion unit based on the request of the orderer, and the translated voice message It is also possible to perform speech synthesis processing using the utterance content and the voice feature data of the selected speaker.

また、本発明の音声データ作成プログラムは、発注者の指定した音声メッセージの発話
内容とある特定の話者の音声特徴データとを用いて音声合成処理し、それによって得られ
た音声合成データを音声データとして提供する音声データ作成システムに用いられる音声
データ作成プログラムであって、その音声データ作成プログラムは、前記発注者の指定し
た音声メッセージの発話内容を受信するとともに、その音声メッセージを発話させる話者
の選択情報を受信すると、発注者の指定した音声メッセージの発話内容が、前記話者の発
話内容として使用を許可された表現で構成されているか否かを判定する手順と、当該音声
メッセージの発話内容が前記使用を許可された表現で構成されていると判定された場合に
、その音声メッセージの発話内容と当該選択された話者の音声特徴データとを用いて音声
合成処理する手順とを含んでいる。
Also, the speech data creation program of the present invention performs speech synthesis processing using the utterance content of the voice message designated by the orderer and the speech feature data of a specific speaker, and the speech synthesis data obtained thereby is speech-synthesized. A voice data creation program used in a voice data creation system provided as data, the voice data creation program receiving the utterance content of the voice message designated by the orderer and uttering the voice message When the selection information is received, a procedure for determining whether or not the utterance content of the voice message designated by the orderer is composed of an expression permitted to be used as the utterance content of the speaker, and the utterance of the voice message If it is determined that the content is composed of the permitted expression, And a procedure for speech synthesis process using the speech feature data of the selected speaker and.

このような音声データ作成プログラムにおいて、前記使用を許可された表現で構成され
ているか否かを判定は、前記音声メッセージの発話内容を文章解析し、その文章解析結果
を前記選択された話者の発話内容として使用を許可された表現が記述された使用許可表現
辞書の内容に照らし合わせて行うようにしている。
In such a voice data creation program, it is determined whether or not it is composed of an expression permitted to be used. The utterance content of the voice message is analyzed, and the sentence analysis result of the selected speaker is analyzed. This is performed in the context of the contents of the permitted expression dictionary in which expressions permitted to be used as utterance contents are described.

また、この音声データ作成プログラムにおいて、前記使用を許可された表現で構成され
ているか否かを判定は、前記音声メッセージの発話内容を文章解析し、その文章解析結果
を前記選択された話者の発話内容として使用を許可された表現で構成されたネットワーク
文法の内容に照らし合わせて行うようにしている。
Further, in this voice data creation program, whether or not the voice data creation program is composed of the permitted expression is analyzed by analyzing the content of the utterance of the voice message and the result of the sentence analysis of the selected speaker. This is done by checking the contents of the network grammar composed of expressions allowed to be used as utterance contents.

また、この音声データ作成プログラムにおいて、前記音声メッセージの発話内容に、前
記話者の発話する内容として使用を許可された表現以外の未知語が含まれている場合は、
その未知語の存在を前記発注者に提示することが好ましい。
Further, in this voice data creation program, if the utterance content of the voice message includes an unknown word other than an expression permitted to be used as the utterance content of the speaker,
It is preferable to present the presence of the unknown word to the orderer.

また、この音声データ作成プログラムにおいて、前記音声メッセージの発話内容に、前
記話者の発話する内容として使用を許可された表現以外の未知語が含まれている場合は、
その未知語を、前記使用を許可された表現に変換するための変換候補を前記発注者に提示
することが好ましい。
Further, in this voice data creation program, if the utterance content of the voice message includes an unknown word other than an expression permitted to be used as the utterance content of the speaker,
It is preferable that a conversion candidate for converting the unknown word into the expression permitted to be used is presented to the orderer.

また、この音声データ作成プログラムにおいて、前記不適切な表現が含まれていないこ
とが判定された場合、前記発注者の要求に基づいて、前記音声メッセージの発話内容を言
語変換手段を用いて当該発注者の指定する他の言語に翻訳し、その翻訳された音声メッセ
ージの発話内容と前記選択された話者の音声特徴データとを用いて音声合成処理すること
も可能である。
Further, in the voice data creation program, when it is determined that the inappropriate expression is not included, based on the request of the orderer, the utterance content of the voice message is converted into the order using the language conversion means. It is also possible to translate into another language designated by the speaker, and perform speech synthesis processing using the utterance content of the translated voice message and the voice feature data of the selected speaker.

このように本発明は、発注者が俳優、歌手、声優、スポーツ選手などの著名人などを話
者として選択した場合、その発注者の指定した音声メッセージの発話内容が、前記話者の
発話内容として使用を許可された表現で構成されていると判定された場合のみに、その音
声メッセージの発話内容と当該選択された話者の音声特徴データとを用いて音声合成処理
し、その音声合成データを生成するようにしているので、生成された音声合成データ(音
声メッセージ)は、話者の発話内容として使用を許可された表現のみ構成された内容とな
り、これらの話者が公の場では発話しないような不適切な内容をその話者に発話させて、
その話者の名誉を傷つけるといった問題を未然に防ぐことができ、これによって、このよ
うな音声データ提供サービスを行うサービス提供者(受注側)もサービス提供者としての
良識が疑われることもなくなる。
Thus, in the present invention, when the orderer selects a celebrity such as an actor, singer, voice actor, or athlete as a speaker, the utterance content of the voice message designated by the orderer is the utterance content of the speaker. Only when it is determined that the expression is permitted to be used as a speech synthesis process, the speech synthesis process is performed using the speech content of the voice message and the voice feature data of the selected speaker. Therefore, the generated speech synthesis data (voice message) is composed of only the expressions that are allowed to be used as the utterance content of the speaker. Let the speaker speak inappropriate content
The problem of damaging the speaker's honor can be prevented in advance, so that the service provider (order receiving party) that provides such a voice data providing service does not doubt the common sense as the service provider.

また、選択された話者の発話内容として使用を許可された表現が記された使用許可表現
辞書を用いて、その話者の発話内容として使用を許可された表現で構成されているか否か
の判定を行うようにしているので、発注者の指定した音声メッセージの発話内容がその話
者の発話内容として適正か否かの判定を的確に、かつ、容易に行うことができる。
Whether or not it is composed of expressions permitted to be used as the utterance contents of the speaker, using the permitted expression dictionary in which expressions permitted to be used as the utterance contents of the selected speaker are recorded. Since the determination is made, it is possible to accurately and easily determine whether or not the utterance content of the voice message designated by the orderer is appropriate as the utterance content of the speaker.

また、選択された話者の発話内容として使用を許可された表現が記されたネットワーク
文法を用いて、その話者の発話内容として使用を許可された表現で構成されているか否か
の判定を行うようにしているので、発注者の指定した音声メッセージの発話内容がその話
者の発話内容として適正か否かの判定を的確に、かつ、容易に行うことができる。なお、
ネットワーク文法を用いた場合、音声メッセージの発話内容は制限されるが、その分、話
者の発話内容としての適正さをより高めることができ、声の権利者として話者に安心感を
与えることができる。
In addition, using a network grammar in which an expression permitted to be used as the utterance content of the selected speaker is described, it is determined whether or not the expression is permitted to be used as the utterance content of the speaker. Therefore, it is possible to accurately and easily determine whether or not the utterance content of the voice message designated by the orderer is appropriate as the utterance content of the speaker. In addition,
When network grammar is used, the utterance content of a voice message is limited. However, the appropriateness of the utterance content of the speaker can be increased accordingly, and the speaker can feel secure as a voice right holder. Can do.

また、その不適切表現辞書やネットワーク文法は個々の話者対応に用意されることで、
個々の話者の個性などを生かした音声メッセージの発話内容の作成が可能となる。
In addition, the inappropriate expression dictionary and network grammar are prepared for individual speakers,
It is possible to create the utterance content of a voice message that makes use of the individuality of each speaker.

また、音声メッセージの発話内容に使用を許可された表現以外の未知語が含まれている
と判定された場合は、その音声メッセージの発話内容に対する音声合成処理を行わず、未
知語を前記発注者に提示するようにしているので、不適切な表現が含まれた音声合成デー
タが作成されるのを未然に防ぐことができるとともに、未知語を発注者に提示することに
よって、発注者は自分の用意した音声メッセージのどこが未知語なのかを知ることができ
、未知語の修正がし易くなる。
Further, when it is determined that an unknown word other than the permitted expression is included in the utterance content of the voice message, the voice synthesis process is not performed on the utterance content of the voice message, and the unknown word is converted into the orderer. Therefore, it is possible to prevent speech synthesis data containing inappropriate expressions from being created, and by presenting unknown words to the orderer, the orderer can It is possible to know where the prepared voice message is an unknown word, and it is easy to correct the unknown word.

また、未知語変換辞書を有し、音声メッセージの発話内容に未知語が含まれていると判
定された場合は、この未知語変換辞書からその未知語に対する変換候補を取得して、その
変換候補を前記発注者に提示するようにしているので、発注者はそれを見ることによって
、未知語をどのような表現とすればよいかを即座に知ることができ、未知語の修正作業を
容易に行うことができる。
If it has an unknown word conversion dictionary and it is determined that an unknown word is included in the utterance content of the voice message, a conversion candidate for the unknown word is acquired from the unknown word conversion dictionary, and the conversion candidate Is displayed to the orderer, so that the orderer can immediately know what the unknown word should be expressed by looking at it, making it easy to correct the unknown word. It can be carried out.

その未知語変換辞書は、個々の話者対応に用意されることによって、個々の話者の個性
などを生かした上で未知語の変換を行うことができる。
By preparing the unknown word conversion dictionary for each speaker, it is possible to convert unknown words by taking advantage of the individuality of each speaker.

また、発注者の指定した音声メッセージの発話内容を、他の言語に翻訳する言語変換手
段を有し、その音声メッセージの発話内容を当該言語変換手段によって当該発注者の指定
する言語に翻訳し、その翻訳された音声メッセージの発話内容と前記選択された話者の音
声特徴データとを用いて音声合成処理することを可能としているので、たとえば、日本語
の音声メッセージの発話内容を英語の音声メッセージの発話内容に変換して、それを発注
者の好みの話者の音声で発話させることができる。
Further, it has language conversion means for translating the utterance content of the voice message designated by the orderer into another language, and the utterance content of the voice message is translated into the language designated by the orderer by the language conversion means, Since it is possible to perform speech synthesis processing using the utterance content of the translated voice message and the voice feature data of the selected speaker, for example, the utterance content of a Japanese voice message is converted into an English voice message. Utterance content can be converted into the voice of the speaker who likes the orderer.

これによって、たとえば、発注者の選択可能な話者として外国の映画スターやスポーツ
選手など世界的著名人をも受注側に記述しておき、これらの話者の音声特徴データを受注
側で持っていれば、発注者の作成した日本語の音声メッセージの発話内容をたとえば外国
の映画スターやスポーツ選手など世界的著名人がその国の言語で発話する音声メッセージ
として出力させることができ、より価値の高い音声メッセージを得ることができる。
As a result, for example, international celebrities such as foreign movie stars and athletes are described on the order receiving side as speakers who can be selected by the ordering party, and the voice feature data of these speakers are held on the order receiving side. Utterance content of Japanese voice messages created by the orderer can be output as voice messages spoken in the language of the country by world-renowned celebrities such as foreign movie stars and sports players, etc. A high voice message can be obtained.

本発明の実施形態1に係る音声データ提供システムの構成を説明する図である。It is a figure explaining the structure of the audio | voice data provision system which concerns on Embodiment 1 of this invention. 実施形態1における音声データ提供システムの受注側に設けられる音声データ作成装置20の構成図である。It is a block diagram of the audio | voice data production apparatus 20 provided in the order side of the audio | voice data provision system in Embodiment 1. FIG. 実施形態1における文書解析部21の処理手順を説明する図である。FIG. 6 is a diagram illustrating a processing procedure of a document analysis unit 21 according to the first embodiment. 本発明の実施形態2に係る音声データ提供システムの受注側に設けられる音声データ作成装置20の構成図である。It is a block diagram of the audio | voice data production apparatus 20 provided in the order reception side of the audio | voice data provision system which concerns on Embodiment 2 of this invention. 実施形態2で用いられるネットワーク文法の一例を示す図である。It is a figure which shows an example of the network grammar used in Embodiment 2. 本発明の実施形態3に係る音声データ提供システムの受注側に設けられる音声データ作成装置20の構成図である。It is a block diagram of the audio | voice data production apparatus 20 provided in the order reception side of the audio | voice data provision system which concerns on Embodiment 3 of this invention. 実施形態3における文書解析部21の処理手順を説明する図である。FIG. 10 is a diagram illustrating a processing procedure of a document analysis unit 21 according to Embodiment 3. 本発明の実施形態4に係る音声データ提供システムの受注側に設けられる音声データ作成装置20の構成図である。It is a block diagram of the audio | voice data production apparatus 20 provided in the order receiving side of the audio | voice data provision system which concerns on Embodiment 4 of this invention.

以下、本発明の実施の形態について説明する。なお、この実施の形態で説明する内容は
、本発明の音声データ提供システム、音声データ作成装置、音声データ作成プログラムに
ついての説明を含むものである。
Embodiments of the present invention will be described below. The contents described in this embodiment include descriptions of the audio data providing system, the audio data generating apparatus, and the audio data generating program of the present invention.

〔実施形態1〕
図1は本発明の実施形態1に係る音声データ提供システムの構成を説明する図である。
この音声データ提供システムは、発注者の指定した音声メッセージの発話内容をある特定
の話者の音声特徴データを用いて音声合成処理し、それによって得られた音声合成データ
を特注の音声データとして提供するシステムであり、その構成を大きく分けると、音声デ
ータ生成を発注する側としての発注者1、この発注者1の所望とする音声メッセージの発
話内容を発注者1の要求する話者の音声特徴データを用いて音声合成処理し、それによっ
て得られた音声データを発注者1に提供する受注側2、この受注側2と発注者1との間に
介在されるネットワーク3、発注者1の選択した話者の声の権利を有する声の権利者4な
どから構成される。
Embodiment 1
FIG. 1 is a diagram for explaining the configuration of an audio data providing system according to Embodiment 1 of the present invention.
This speech data providing system performs speech synthesis processing using the voice feature data of a specific speaker on the utterance content of the voice message specified by the orderer, and provides the resulting speech synthesis data as custom-made speech data The system is roughly divided into the following: the voice characteristics of the orderer 1 who orders voice data generation, and the voice characteristics of the speaker who requests the orderer 1 to speak the desired voice message. Voice synthesizing process using data, and voice data obtained thereby is provided to the ordering party 2, the network 3 interposed between the ordering party 2 and the ordering party 1, selection of the ordering party 1 The voice right holder 4 having the right of the voice of the speaker who has been selected.

この図1において、発注者1は、この音声データ提供システムを利用し、自分の好みの
音声メッセージの作成を依頼して、その作成された音声メッセージの記録された機器(置
き時計など)や記録媒体(CD−ROMなど)を購入してそれを自分で使用したり、その
音声メッセージをネットワークを介して受信して、自分の情報端末(PCや携帯電話機)
にダウンロードして使用する人だけではなく、その機器や記録媒体そのものは自分で使用
せずにプレゼントなどの目的で購入する人も含むものであるが、ここでの発注者1は、自
分で発注した音声メッセージを自分で使用する場合を例にとって説明する。
In FIG. 1, an orderer 1 uses this voice data providing system to request creation of his / her favorite voice message, and a device (table clock or the like) or recording medium in which the created voice message is recorded. Purchase a CD-ROM (such as a CD-ROM) and use it on your own, or receive the voice message via the network and use your own information terminal (PC or mobile phone)
In addition to the person who downloads and uses the device, the device and the recording medium itself include those who purchase it for the purpose of gifts without using it themselves. A case where the message is used by itself will be described as an example.

また、受注側2は、音声データを埋め込むべき機器を製造する製造メーカであってあっ
てもよく、また、音声データを提供するサービスを専門に行うサービス提供会社であって
もよい。なお、サービス提供会社の場合は、音声データを作成してその音声データを機器
製造会社や一般ユーザに提供することができることは勿論、機器製造会社から機器を供給
されてその機器に音声データを組み込むところまでを行うことも可能である。
The order receiving side 2 may be a manufacturer that manufactures a device in which audio data is to be embedded, or may be a service provider that specializes in providing audio data. In the case of a service provider, it is possible to create audio data and provide the audio data to a device manufacturer or general user, and of course, the device is supplied from the device manufacturer and the audio data is incorporated into the device. It is also possible to do so far.

また、この受注側2で作成される音声データの発注者(たとえば発注者1)への納品形
態は、たとえば、置き時計などの機器5に組み込まれた状態で納品される形態であってよ
く、CD−ROMなどの記録媒体6に記録された状態で納品される形態であってもよい。
また、ある発注者(たとえば発注者1)がネットワーク3を介して自分の情報端末(PC
や携帯電話機など)にダウンロードするといった納品形態でもよい。
Further, the delivery form of the voice data created on the order receiving side 2 to the orderer (for example, the orderer 1) may be delivered in a state of being incorporated in the device 5 such as a table clock, for example. -The form delivered in the state recorded on recording media 6, such as ROM, may be sufficient.
Also, a certain orderer (for example, the orderer 1) has his information terminal (PC) via the network 3.
Or a delivery form such as downloading to a mobile phone).

ところで、この受注側2は音声データ作成装置20を有している。この音声データ作成
装置20は、発注者1の所望とする音声メッセージ、すなわち、本発明の実施形態では発
注者1が自分のPCからキー入力した発話内容(テキストデータ)と発注者1の選択した
話者の音声特徴データとを用いて音声合成データを作成するが、その音声合成処理を行う
前に、発注者1のキー入力した音声メッセージの発話内容が、当該選択された話者の発話
内容として使用を許可された表現(これをここでは使用許可語彙・活用という)で構成さ
れているか否かを判定し、その話者の発話内容として使用を許可された表現(使用許可語
彙・活用)で構成されていると判定された場合のみに音声合成処理を行うものであるが、
その詳細な構成や動作については後に詳細に説明する。
By the way, the order receiving side 2 has an audio data creation device 20. The voice data creation device 20 selects the voice message desired by the orderer 1, that is, the utterance content (text data) keyed by the orderer 1 from his / her PC in the embodiment of the present invention and the orderer 1 selects. The speech synthesis data is created using the speech feature data of the speaker. Before the speech synthesis process, the speech content of the voice message input by the key of the orderer 1 is the speech content of the selected speaker. It is determined whether or not it is composed of expressions that are allowed to be used (this is called permitted vocabulary / utilization here), and expressions that are permitted to be used as the utterance content of the speaker (usable vocabulary / utilization) The speech synthesis process is performed only when it is determined that the
The detailed configuration and operation will be described later in detail.

また、声の権利者4は、俳優、歌手、声優、スポーツ選手などのいわゆる著名人である
。なお、これら個々の著名人が個人で声の権利者4となる場合もあるが、俳優、歌手、声
優などの場合はそれぞれが所属する事務所(プロダクションなど)などが声の権利者4と
なる場合もある。また、それ以外の著名人の場合も同様にそれぞれが所属する事務所など
が声の権利者4となる場合もある。
The voice right holder 4 is a so-called celebrity such as an actor, a singer, a voice actor, or a sports player. These individual celebrities may be individuals who are voice rights holders 4, but in the case of actors, singers, voice actors, etc., the office (production, etc.) to which each belongs is the voice rights holder 4. In some cases. Similarly, in the case of other celebrities, the office to which each belongs may become the voice right holder 4.

このような構成において、その処理手順を簡単に説明すると、発注者1は自分のPCな
どで受注側2の音声データ作成受注サイトにアクセスし、どのようなサービスを受けるか
などのサービス形態(この場合は、音声メッセージの作成要求)を選択し、その音声メッ
セージの発話内容をPC上からキー入力するとともに、その音声メッセージをどのような
話者に発話させたいかを選択(話者選択)する。
In such a configuration, the processing procedure will be described briefly. The orderer 1 accesses the voice data creation order receiving site on the order receiving side 2 with his / her PC or the like, and a service form such as what service is received (this service) In this case, a request to create a voice message is selected, the utterance content of the voice message is key-input from the PC, and a speaker to whom the voice message is desired to be uttered is selected (speaker selection). .

受注側2では、発注者1がキー入力した音声メッセージの発話内容のテキストデータと
当該発注者1の選択した話者の音声特徴データとを用いて音声合成処理を行い、それによ
って得られた音声合成データを音声メッセージに対応する音声データとして当該発注者1
に提供する。
The order receiving side 2 performs speech synthesis processing using the text data of the utterance content of the voice message keyed by the orderer 1 and the voice feature data of the speaker selected by the orderer 1, and the resulting voice is obtained. The orderer 1 as synthesized data corresponding to the voice message.
To provide.

このとき、上述したように、発注者1の入力した音声メッセージの発話内容が、当該発
注者1によって選択された話者の発話内容として使用を許可された表現(使用許可語彙・
活用)で構成されているか否かを判定し、その話者対応の使用許可語彙・活用で構成され
ていると判定されれば、発注者1の選択した話者に対応する声の権利者4に使用許諾を要
求し、使用許諾が得られれば、その話者の音声特徴データと発注者1の入力した音声メッ
セージの発話内容(テキストデータ)とを用いて音声合成処理を行う。そして、それによ
って得られた音声合成データを発注者1の購入希望の機器に搭載された記憶手段に記録さ
せてその機器5を発注者1に提供したり、CD−ROMなどの記録媒体6に記録させたも
のを発注者に提供したり、その音声合成データそのものを発注者に送信して発注者1が自
身の情報端末にダウンロードしたりする。以下、詳細に説明する。
At this time, as described above, the utterance content of the voice message input by the orderer 1 is an expression permitted to be used as the utterance content of the speaker selected by the orderer 1 (usage permitted vocabulary /
If it is determined that it is composed of the permitted vocabulary and utilization corresponding to the speaker, the right holder 4 of the voice corresponding to the speaker selected by the orderer 1 is determined. If the use permission is obtained, the speech synthesis process is performed using the voice feature data of the speaker and the utterance content (text data) of the voice message input by the orderer 1. Then, the voice synthesis data obtained thereby is recorded in the storage means mounted on the purchaser 1's desired purchase device, and the device 5 is provided to the orderer 1 or is stored in a recording medium 6 such as a CD-ROM. The recorded data is provided to the orderer, or the speech synthesis data itself is transmitted to the orderer and the orderer 1 downloads it to his / her information terminal. Details will be described below.

図2は受注側2に設けられる音声データ作成装置20の構成図であり、文章解析部21
と、文法データ22と、音声合成処理部としての韻律制御部22および音声波形生成部2
3と、この受注側2に記述されている俳優、歌手、声優、スポーツ選手などの多数の話者
(話者#1、話者#2,・・・,話者#nとする)の発話内容として使用を許可された表
現が記録されている使用許可表現記録手段としての使用許可表現辞書251,252,・
・・,25nと、これら話者#1、話者#2,・・・,話者#nに対する音声特徴データ
である韻律データ261,262,・・・,26nおよび音質データ271,272,・
・・,27nとを有している。
FIG. 2 is a configuration diagram of the voice data creation device 20 provided on the order receiving side 2, and a sentence analysis unit 21.
Grammar data 22, prosody control unit 22 as speech synthesis processing unit and speech waveform generation unit 2
3 and utterances of a large number of speakers (speaker # 1, speaker # 2,..., Speaker #n) such as actors, singers, voice actors, and athletes described in the order receiving side 2 Usage permission expression dictionaries 251, 252,... As usage permission expression recording means in which expressions permitted to be used are recorded as contents.
, 25n, prosody data 261, 262,..., 26n and sound quality data 271, 272,... Which are voice feature data for the speaker # 1, speaker # 2,.
.., 27n.

使用許可表現辞書251,252,・・・,25nは、個々の話者#1、話者#2,・
・・,話者#nの発話内容として使用を許可された表現(使用許可語彙・活用)が記述さ
れているものである。
, 25n include individual speaker # 1, speaker # 2,.
... Expressions that are permitted to be used as utterance contents of speaker #n (usable vocabulary / utilization) are described.

文章解析部21は、発注者1によって入力された音声メッセージの発話内容(テキスト
データ)を受け取って、文法辞書や日本語語彙辞書などからなる文法データ22を用いて
文章解析(構文解析や形態解析)を行って、その文章解析結果を当該発注者1の選択した
話者用の使用許可表現辞書(話者#1、話者#2,・・・,話者#n用の使用許可表現辞
書251〜25nのいずれか)に照らし合わせて、発注者1の入力した音声メッセージの
発話内容が、当該選択された話者用の使用許可語彙・活用で構成されているか否かを判定
し、当該選択された話者用の使用許可語彙・活用で構成されていると判定した場合には、
その文章解析結果を次の処理過程である音声合成処理部(韻律制御部23と音声波形生成
部24)に渡す。
The sentence analysis unit 21 receives the utterance content (text data) of the voice message input by the orderer 1 and uses the grammar data 22 such as a grammar dictionary or a Japanese vocabulary dictionary to analyze the sentence (syntax analysis or morphological analysis). ), And the sentence analysis result is used for the speaker selected by the orderer 1 and the permitted expression dictionary for the speaker (speaker # 1, speaker # 2,..., The permitted expression dictionary for speaker #n is used. 251 to 25n), it is determined whether or not the utterance content of the voice message input by the orderer 1 is composed of the permitted vocabulary and utilization for the selected speaker. If it is determined that it is composed of permitted vocabulary and utilization for the selected speaker,
The sentence analysis result is passed to the speech synthesis processing unit (prosody control unit 23 and speech waveform generation unit 24) which is the next processing step.

また、発注者1の入力した音声メッセージの発話内容に、当該選択された話者用の使用
許可語彙・活用以外の表現(これを未知語と呼ぶことにする)があると判定された場合に
は、その旨を発注者1に通知するとともに、どれが未知語であるかをその発注者1に提示
する。
When it is determined that the utterance content of the voice message input by the orderer 1 has an expression other than the permitted vocabulary / utilization for the selected speaker (this will be referred to as an unknown word). Notifies the orderer 1 to that effect and presents to the orderer 1 which is an unknown word.

また、音声合成処理部としての韻律制御部23と音声波形生成部24は、文章解析部2
1で適正な表現であると判定された音声メッセージの発話内容(テキストデータ)の文章
解析結果に対して、発注者1によって選択された話者の音声特徴データ、すなわち、話者
#1、話者#2,・・・,話者#n用の韻律データ261〜26nのうち、その話者に対
応する韻律データと話者#1、話者#2,・・・,話者#n用の声質データ271〜27
nのうち、その話者に対応する声質データを用いて音声合成処理を行って、音声合成デー
タを出力する。
Further, the prosody control unit 23 and the speech waveform generation unit 24 as the speech synthesis processing unit include the sentence analysis unit 2.
1, the voice feature data of the speaker selected by the orderer 1, that is, the speaker # 1, the speech, for the sentence analysis result of the utterance content (text data) of the voice message determined to be an appropriate expression Of prosody data 261 to 26n for speaker # 2,..., Speaker #n, prosody data corresponding to the speaker, speaker # 1, speaker # 2,. Voice quality data 271-27
Speech synthesis processing is performed using voice quality data corresponding to the speaker among n, and speech synthesis data is output.

このような構成において、具体例を用いて図3を参照しながらより詳細に説明する。発
注者1は自分のPCなどで受注側2の音声データ作成受注サイトにアクセスし、自分で用
意した音声メッセージの発話内容を自分の好みの話者の音声で発話させた音声メッセージ
の作成を依頼し、かつ、その音声メッセージをある機器(置き時計など)5の記憶手段に
記録することを依頼するものとする。
Such a configuration will be described in more detail with reference to FIG. 3 using a specific example. The orderer 1 accesses the voice data creation ordering site of the order receiving side 2 with his / her PC etc., and requests the creation of a voice message in which the utterance content of the voice message prepared by himself is uttered by the voice of his favorite speaker. In addition, it is requested to record the voice message in a storage unit of a certain device (table clock, etc.) 5.

ここでの音声メッセージの発話内容は、たとえば、「もう朝だよ起きろばか」という内
容であって、その内容を発話させる話者として、あるアイドル歌手(話者#1とする)を
選択するものとする。
The utterance content of the voice message here is, for example, the content of “It's already morning, do n’t wake up”, and selects an idol singer (speaker # 1) as the speaker who utters the content. And

発注者1は、その音声メッセージの発話内容を自分のPCによりキー入力するとともに
、それを発話させる話者として、あるアイドル歌手(話者#1)を選択する。これによっ
て、発注者1によってキー入力された音声メッセージの発話内容「もう朝だよ起きろばか
」に対するテキストデータが受注側2における音声データ作成装置20の文書解析部21
に入力されるとともに、話者#1を選択したことを示す話者選択情報が文書解析部21に
入力される。
The orderer 1 inputs the utterance content of the voice message with his / her PC, and selects a certain idol singer (speaker # 1) as a speaker who utters it. As a result, the text data corresponding to the utterance content “Another morning wake up idiot” of the voice message key-input by the orderer 1 becomes the document analysis unit 21 of the voice data creation device 20 on the order receiving side 2.
, And speaker selection information indicating that the speaker # 1 is selected is input to the document analysis unit 21.

文書解析部21では、入力されたテキストデータに対して文法データ(文法辞書や日本
語語彙辞書などからなる)22を用いて、文書解析として形態素解析を行い(ステップS
1)、品詞分解してその形態素解析結果を得る(ステップS2)。
The document analysis unit 21 performs morphological analysis as document analysis using grammatical data (consisting of a grammar dictionary, a Japanese vocabulary dictionary, etc.) 22 for the input text data (step S).
1) Part-of-speech decomposition is performed to obtain a morphological analysis result (step S2).

そして、この図3のステップS2に示すような形態素解析結果を、発注者1の選択した
話者#1用の使用許可表現辞書251に照らし合わせて、形態素解析された個々の要素と
使用許可表現辞書251に記述された内容の一致を判定する(ステップS3)。この場合
、話者#1に対する使用許可表現辞書251には、使用許可語彙・活用として、「もう」
、「朝」、「だ」、「よ」などが記述されているが、「起きろ」や「寝ろ」は記述されて
いないとする。
Then, the morpheme analysis result as shown in step S2 of FIG. 3 is compared with the use permission expression dictionary 251 for the speaker # 1 selected by the orderer 1, and the individual elements and use permission expressions subjected to morphological analysis are used. A match between the contents described in the dictionary 251 is determined (step S3). In this case, the use permission expression dictionary 251 for the speaker # 1 has “already” as the use permission vocabulary / utilization.
, “Morning”, “da”, “yo”, etc. are described, but “get up” and “sleep” are not described.

したがって、この例においては、「もう」、「朝」、「だ」、「よ」は、該話者#1の
発話する内容として適切であると判定されるが、「起きろ」や「寝ろ」は当該話者#1の
使用許可表現辞書に記述されていない表現(未知語)であると判定されるので、この場合
、使用許可語彙・活用として「もう」、「朝」、「だ」、「よ」が抽出される(ステップ
S4)。
Therefore, in this example, “other”, “morning”, “da”, and “yo” are determined to be appropriate as the content of the speaker # 1, but “get up” and “sleep” Is determined to be an expression (unknown word) that is not described in the use permission expression dictionary of the corresponding speaker # 1, and in this case, “already”, “morning”, “da”, “Yo” is extracted (step S4).

このように、当該話者#1の使用許可表現辞書251に記述されていない未知語が含ま
れると判定された場合は、次の処理過程である音声合成処理には進まず、未知語が含まれ
ていることを発注者1に通知するとともに、その判定結果を発注者1に対して提示する(
ステップS5)。
As described above, when it is determined that an unknown word that is not described in the use permission expression dictionary 251 of the speaker # 1 is included, the speech synthesis process that is the next processing step does not proceed and the unknown word is included. Is notified to the orderer 1 and the determination result is presented to the orderer 1 (
Step S5).

この発注者1に提示される判定結果としては、たとえば、この図3のステップS5に示
すように、「もう 朝だよ ○○○ ○○」というように、未知語である「起きろ」、「
ばか」の各文字部分を○で表すことが考えられる。なお、この未知語の表し方としては、
そのほかに、未知語を太字としたり、文字の大きさを大きくしたり、字体を変えたりする
などなど種々の方法が考えられる。
As the determination result presented to the orderer 1, for example, as shown in step S 5 of FIG. 3, the unknown words “wake up” and “
Each character part of “Baka” can be represented by a circle. In addition, as a way of expressing this unknown word,
In addition, various methods such as making unknown words bold, increasing the size of characters, changing the font, etc. are conceivable.

発注者1がこのような判定結果を受け取り、自分のキー入力した音声メッセージの発話
内容に話者#1(あるアイドル歌手)にとって未知語があることを知り、その未知語を修
正し、「もう朝だよ起きてね」というような内容としてそれをキー入力したとすると、再
び、前述のステップS1,S2の処理を行う。
The orderer 1 receives such a determination result, knows that there is an unknown word for the speaker # 1 (a certain idle singer) in the utterance content of the voice message input by his key, corrects the unknown word, If it is entered as a key content such as “Wake me up in the morning,” the above-described steps S1 and S2 are performed again.

すなわち、「もう朝だよ起きてね」のテキストデータを形態素解析して、その形態素解
析結果を得る(ステップS1,S2)。そして、その形態素解析結果を、発注者1の選択
した話者#1用の使用許可表現辞書251に照らし合わせて、形態素解析された個々の要
素と使用許可表現辞書251の内容の一致を判断する(ステップS3)。この場合、話者
#1に対する使用許可表現辞書251には、使用許可語彙・活用として、「もう」、「朝
」、「だ」、「よ」の他に、「起きて」、「ね」などが記述されているものとする。
That is, the morphological analysis is performed on the text data “Wake me up in the morning” and the morphological analysis results are obtained (steps S1 and S2). Then, the morpheme analysis result is checked against the use permission expression dictionary 251 for the speaker # 1 selected by the orderer 1, and it is determined whether each element subjected to the morpheme analysis matches the contents of the use permission expression dictionary 251. (Step S3). In this case, the usage permission expression dictionary 251 for the speaker # 1 includes “wake up” and “ne” in addition to “already”, “morning”, “da”, “yo” as usage permission vocabulary / utilization. Etc. are described.

したがって、この「もう朝だよ起きてね」を構成する語彙や活用は、すべて使用許可表
現辞書251に記述されているので、その音声メッセージの発話内容は当該話者#1の発
話する内容として適切であると判定される。
Therefore, since all of the vocabulary and usage that make up “get it up in the morning” are described in the use permission expression dictionary 251, the utterance content of the voice message is the content of the utterance of the speaker # 1. Determined to be appropriate.

このように、音声メッセージの発話内容が当該話者#1の発話する内容として適切であ
ると判定されると、次の処理過程である音声合成処理に入る。この音声合成処理は、韻律
制御部23と音声波形生成部24によって行われる。すなわち、「もう朝だよ起きてね」
というテキストデータに対する文章解析結果と、当該話者#1用の韻律データ251およ
びその話者#1用の声質データ261を用いて、音声合成処理を行い、音声合成データを
出力する。
As described above, when it is determined that the utterance content of the voice message is appropriate as the utterance content of the speaker # 1, the speech synthesis processing which is the next processing step is started. This speech synthesis process is performed by the prosody control unit 23 and the speech waveform generation unit 24. That is, "It's already morning, get up"
Using the sentence analysis result for the text data, the prosodic data 251 for the speaker # 1 and the voice quality data 261 for the speaker # 1, speech synthesis processing is performed and speech synthesis data is output.

この音声合成データは、ここでは、発注者1の購入しようとする置き時計の記憶手段に
記録される。これによって、その置き時計は、たとえば、その音声メッセージの出力タイ
ミングとして、午前7時00分を設定すすれば、毎朝、午前7時ちょうどになると、話者
#1(あるアイドル歌手)の声と話し方で「もう朝だよ起きてね」という音声メッセージ
が出力される。
This speech synthesis data is recorded in the storage means of the table clock that the orderer 1 intends to purchase here. As a result, for example, if the time of the voice message is set to 7:00 am as the output timing of the voice message, the clock will be spoken with the voice of speaker # 1 (an idol singer) at 7 am every morning. The voice message “Wake me up in the morning” is output.

なお、ステップS3において、発注者1の用意した音声メッセージの発話内容が適切な
語彙や活用で構成されていると判断されれば、上述したように、音声合成処理に入るが、
このとき、その音声メッセージを発話する話者#1(声の権利者4)に対してその音声特
徴データ(韻律データや声質データなど)を使用するための使用許諾要求(図1参照)を
出し、声の権利者4側からの使用許諾通知(図1参照)を取得すると、その音声特徴デー
タ(この場合、韻律データ261と声質データ271)を用いた音声合成処理を行う。
In step S3, if it is determined that the utterance content of the voice message prepared by the orderer 1 is composed of appropriate vocabulary and usage, as described above, the speech synthesis process starts.
At this time, a request for permission to use the voice feature data (prosodic data, voice quality data, etc.) is issued to speaker # 1 (voice holder 4) who utters the voice message (see FIG. 1). When a use permission notice (see FIG. 1) is obtained from the voice right holder 4 side, voice synthesis processing using the voice feature data (in this case, prosodic data 261 and voice quality data 271) is performed.

このように、ある話者の音声特徴データを使用する際は、受注側2がその使用料金(個
々の話者によって異なる場合もある)をその声の権利者4に支払う。
Thus, when using the voice feature data of a certain speaker, the order receiving side 2 pays the usage fee (which may vary depending on the individual speaker) to the right holder 4 of the voice.

なお、ある話者の音声特徴データを使用する場合、その都度、受注側2から使用許諾要
求を出し、それに対して、声の権利者4から使用許諾通知をもらうというようなことをせ
ず、発注者1の用意した音声メッセージの発話内容に不適切な内容がないと判断したら、
音声データ作成装置20から声の権利者4に対して使用許諾要求だけを出して、その話者
の音声特徴データを使用した音声合成データの作成を可能とするというような取り決めを
、対応する声の権利者4との間で交わしておくことも可能である。その場合、声の権利者
4は受注側2からの使用許諾要求によって、自分の音声特徴データの使用回数を把握する
ことができ、それに基づいて課金することができる。
In addition, when using the voice feature data of a certain speaker, a request for permission for use is issued from the order receiving side 2 each time, and in response to the request, a permission notice is received from the right holder 4 of the voice. If it is determined that there is no inappropriate content in the voice message prepared by the orderer 1,
The voice corresponding to an agreement that allows the voice data creation device 20 to issue only a license request to the voice right holder 4 and to create voice synthesis data using the voice feature data of the speaker. It is also possible to exchange with the right holder 4. In that case, the voice right holder 4 can grasp the number of times of use of his / her voice feature data by the use permission request from the order receiving side 2 and can charge based on the use frequency.

また、発注者1から受注側2への音声メッセージ作成料金の支払いは、コンビニエンス
ストアでの支払い、銀行振り込みによる支払い、クレジットカードでの支払いなど種々の
方法を可能とする。
The voice message creation fee from the orderer 1 to the order receiving side 2 can be paid by various methods such as payment at a convenience store, payment by bank transfer, and payment by credit card.

また、使用許可表現辞書の内容は個々の話者#1,#2,・・・,#nによって異なる
ようにすることも可能である。たとえば、話者が女性であるか男性であるかの違いや、同
じ男性であっても、若いアイドル歌手と年配のアクション俳優などによって、許容される
表現の範囲が異なってくるので、個々の話者対応に、それぞれの話者において許容される
範囲内の語彙や活用の記述がなされた使用許可表現辞書を用意することによって、個々の
話者の個性などを生かした上で、その話者の発話内容として適切か否かの判定を行うこと
ができる。
Further, the contents of the use permission expression dictionary can be made different for each speaker # 1, # 2,..., #N. For example, the range of expressions allowed varies depending on whether the speaker is a woman or a man, or even the same man, depending on the young idol singer and the elderly action actor. For each speaker, by preparing a use permission expression dictionary with vocabulary and usage descriptions within the allowable range for each speaker, taking advantage of the individuality of each speaker, It can be determined whether or not the utterance content is appropriate.

以上説明したようにこの実施形態1によれば、発注者1の指定(ここではキー入力)し
た音声メッセージの発話内容が、当該選択された話者(ここでは話者#1)用の使用許可
表現辞書251に記述された起用許可語彙・活用で構成されているか否かを判定し、使用
許可語彙・活用以外の表現(未知語)が含まれていれば、それを発注者1に提示し、発注
者1はそれを見て未知語を修正した音声メッセージの発話内容を作成して受注側2に送信
し、受注側2では、その修正された音声メッセージについて、再度、当該選択された話者
(ここでは話者#1)用の使用許可表現辞書251に記述された語彙・活用で構成されて
いるか否かを判定し、使用許可表現辞書251に記述された使用許可語彙・活用で構成さ
れていると判定された場合のみに、その音声メッセージの発話内容を当該話者の音声特徴
データを用いて音声合成処理して、音声合成データを出力するようにしている。
As described above, according to the first embodiment, the utterance content of the voice message designated by the orderer 1 (key input here) is used for the selected speaker (here, speaker # 1). It is judged whether or not it is composed of permitted vocabulary / utilization described in the expression dictionary 251, and if an expression (unknown word) other than the permitted vocabulary / utilization is included, it is presented to the orderer 1. The orderer 1 sees it and creates the utterance content of the voice message with the unknown word corrected and sends it to the order receiving side 2, and the order receiving side 2 again selects the selected story for the corrected voice message. It is determined whether or not it is composed of the vocabulary / utilization described in the use permission expression dictionary 251 for the speaker (here, speaker # 1), and composed of the use permission vocabulary / utilization described in the use permission expression dictionary 251 Only when it is determined that The speech content of the voice message by speech synthesis process using the speech feature data of the speaker, and to output the speech synthesis data.

これによって、俳優、歌手、声優、スポーツ選手などの著名人(声の権利者)の意図し
ない不適切な内容をその話者に発話させて、その話者の名誉を傷つけるといった問題を未
然に防ぐことができ、また、このような音声データ提供サービスを行うサービス提供者(
受注側2)もサービス提供者としての良識が疑われることもなくなる。
This prevents problems such as causing the speaker to speak unintentionally inappropriate content by celebrities (voice rights holders) such as actors, singers, voice actors, and athletes, and hurting the speaker's honor. And service providers who provide such voice data providing services (
The ordering side 2) is no longer suspected of good sense as a service provider.

また、この実施形態1では、音声メッセージの発話内容が、個々の話者対応に設定され
た使用許可語彙・活用のみで構成されていると判定された場合に音声合成処理に移行でき
るので、音声メッセージの発話内容は、ある程度制限されるが、その分、その話者の発話
内容としての適正さをより高めることができ、声の権利者としての話者に安心感を与える
ことができる。また、個々の話者にとって適正な内容の音声メッセージのみが作成される
ことから、このような音声データ提供サービスを行うサービス提供者(受注側)もサービ
ス提供者としての評価を高めることができる。
In the first embodiment, since it is determined that the utterance content of the voice message is composed only of the permitted vocabulary / utilization set for each speaker, it is possible to shift to the voice synthesis process. Although the content of the message utterance is limited to some extent, the adequacy of the speaker as the utterance content can be increased accordingly, and a sense of security can be given to the speaker as the right holder of the voice. Further, since only a voice message having an appropriate content for each speaker is created, a service provider (order receiving side) that performs such a voice data providing service can also improve evaluation as a service provider.

また、個々の話者用の発話内容として使用できる語彙や活用を記述する方式によれば、
たとえば、新語や流行語が発生した場合に対応し易い効果もある。たとえば、そのときの
流行語をある話者用に記述したい場合には、その流行語を使用許可語彙・活用として記述
すれば、その流行語を含んだ音声メッセージの発話内容を作成することができる。
In addition, according to the vocabulary that can be used as utterance content for individual speakers and a method to describe utilization,
For example, there is an effect that it is easy to deal with when a new word or buzzword is generated. For example, if you want to describe a buzzword at that time for a certain speaker, you can create the utterance content of a voice message that includes the buzzword if you describe the buzzword as a permitted vocabulary / utilization. .

〔実施形態2〕
この実施形態2では話者の発話内容として使用を許可された表現を記録した使用許可表
現記録手段として、実施形態1における話者#1,話者#2,・・・,話者#n用の使用
許可表現辞書251,252,・・・,25nの代わりに、図4に示すように、それぞれ
の話者#1,話者#2,・・・,話者#n用のネットワーク文法281,282,・・・
,28nを用いた例を示すものである。その他の構成要素は図2と同じであるので同一部
分には同一符号が付されている。以下、この実施形態2について説明する。
[Embodiment 2]
In this second embodiment, as the use permission expression recording means for recording the expression permitted to be used as the utterance content of the speaker, for speaker # 1, speaker # 2,. , 25n, as shown in FIG. 4, network grammar 281 for each speaker # 1, speaker # 2,..., Speaker #n, as shown in FIG. , 282, ...
, 28n is shown. Since other components are the same as those in FIG. 2, the same parts are denoted by the same reference numerals. Hereinafter, the second embodiment will be described.

ネットワーク文法は、ごく簡単に言えば、図5に示すように、図示の左端(begin)か
ら右端(end)に向かって(矢印X方向)それぞれの形態素をつないで行くことによって
、幾つかの表現を生成可能とするものである。
The network grammar can be expressed in a number of ways by connecting each morpheme from the left end (begin) to the right end (end X direction) as shown in FIG. Can be generated.

この図5の例では、たとえば、「もう 朝だよ 起きて ね」、「もう 朝です 起き
て ください」、「もう 夜です 寝て ください」、「午前 *時 △分 です 起き
て ください」など、ネットワーク文法を構成する形態素数を組み合わせることによって
、多様な音声メッセージの発話内容を生成できる。ただし、実施形態1の例に比較すると
、生成可能な音声メッセージの発話内容の数は制限されるが、生成可能な音声メッセージ
の発話内容が簡単に把握できるので、好ましくない発話内容が作成される可能性はきわめ
て低くなり、声の権利者として話者に安心感を与えることができる効果がある。また、個
々の話者にとって適正な内容の音声メッセージのみが作成されることから、このような音
声データ提供サービスを行うサービス提供者(受注側)もサービス提供者としての評価を
高めることができる。
In the example of Fig. 5, for example, "Wake up already in the morning", "Wake up already in the morning", "Please go to bed already at night", "Wake up at * * △ minutes in the morning", etc. By combining the morphemes that make up the network grammar, the utterance content of various voice messages can be generated. However, compared to the example of the first embodiment, the number of utterance contents of a voice message that can be generated is limited, but since the utterance contents of a voice message that can be generated can be easily grasped, an undesirable utterance content is created. The possibility is extremely low, and it has the effect of giving the speaker a sense of security as the right holder of the voice. Further, since only a voice message having an appropriate content for each speaker is created, a service provider (order receiving side) that performs such a voice data providing service can also improve evaluation as a service provider.

なお、図5において、「*時」や「△分」などの「*」や「△」の部分は、この場合、
時刻を表す任意の数字を挿入可能とするものである。
In FIG. 5, “*” and “△” such as “* hour” and “△ minute” are
Any number representing the time can be inserted.

このようなネットワーク文法をそれぞれの話者ごとに用意しておく。そして、発注者1
がたとえば前述の実施形態1と同様に、「もう朝だよ起きろばか」という音声メッセージ
の発話内容を入力し、かつ、それを発話させる話者として、あるアイドル歌手(話者#1
とする)を選択するものとする。なお、この話者#1用のネットワーク文法281は図5
に示すものであるとする。
Such a network grammar is prepared for each speaker. And orderer 1
For example, in the same manner as in the first embodiment described above, an idol singer (speaker # 1) is inputted as a speaker who inputs the utterance content of a voice message “It's already morning, wake up!”
)) Is selected. The network grammar 281 for speaker # 1 is shown in FIG.
It is assumed that

文書解析部21では、入力されたテキストデータに対して文法データ(文法辞書や日本
語語彙辞書などからなる)22を用いて、文書解析として形態素解析を行い、品詞分解し
てその形態素解析結果を得る(図3のステップS2参照)。
The document analysis unit 21 uses grammatical data (consisting of a grammar dictionary or a Japanese vocabulary dictionary) 22 for the input text data, performs morphological analysis as document analysis, decomposes the part of speech, and obtains the morphological analysis result. (See step S2 in FIG. 3).

そして、この形態素解析結果を、発注者1の選択した話者#1用のネットワーク文法2
81(図5参照)を用いて、左端(begin)から該当する形態素をトレースして行く。こ
の例では、「もう」、「朝」、「だよ」までは形態素の一致がとれるが、発注者1の入力
した「起きろ」、「ばか」はネットワーク文法281に該当する形態素が記述されていな
いので、この「起きろ」、「ばか」は当該話者#1の発話する表現としては未知語である
と判断される。
Then, this morphological analysis result is used as a network grammar 2 for speaker # 1 selected by the orderer 1.
The corresponding morpheme is traced from the left end (begin) using 81 (see FIG. 5). In this example, morphemes can be matched up to “already”, “morning”, and “dayo”, but “wake up” and “fool” input by the orderer 1 are described in the network grammar 281. Therefore, it is determined that “Wake up” and “Baka” are unknown words as expressions spoken by the speaker # 1.

このように、当該話者#1の使用許可表現辞書に記述されていない未知語が含まれると
判定された場合は、次の処理過程である音声合成処理には進まず、未知語が含まれている
ことを発注者1に通知するとともに、その判定結果を発注者1に対して提示する。
As described above, when it is determined that an unknown word that is not described in the use permission expression dictionary of the speaker # 1 is included, the speech synthesis process that is the next processing step does not proceed and the unknown word is included. Is notified to the orderer 1 and the determination result is presented to the orderer 1.

この発注者1に提示される判定結果としては、前述したように、たとえば、「もう 朝
だよ ○○○ ○○」というように、未知語である「起きろ」、「ばか」の各文字部分を
○で表すことが考えられる。なお、この未知語の表し方としては、そのほかに、未知語を
太字としたり、文字の大きさを大きくしたり、字体を変えたりするなどなど種々の方法が
考えられる。
As described above, the determination result presented to the orderer 1 is, for example, each character part of the unknown words “wake up” and “idiot”, for example, “It's already morning! It can be considered that is represented by ○. As other ways of expressing the unknown word, various methods such as making the unknown word bold, increasing the size of the character, changing the font, etc. are conceivable.

発注者1がこのような判定結果を受け取り、自分のキー入力した音声メッセージの発話
内容に未知語があることを知り、その未知語を修正し、「もう朝だよ起きてね」というよ
うな内容としてそれをキー入力したとすると、今度は、「もう朝だよ起きてね」のテキス
トデータを形態素解析して、その形態素解析結果を得て、その形態素解析結果を、発注者
1の選択した話者#1用のネットワーク文法281を用いて、上述したと同様に、左端(
begin)から該当する形態素をトレースして行く。この場合、「もう」、「朝」、「だよ
」、「起きて」、「ね」のすべての形態素がネットワーク文法を構成する形態素と一致が
とれ、その音声メッセージ「もう朝だよ起きてね」の発話内容は当該話者#1の発話する
内容として適切であると判定される。
The orderer 1 receives such a determination result, knows that there is an unknown word in the utterance content of the voice message entered by his key, corrects the unknown word, and says, “Wake me up in the morning” Assuming that it is keyed in as content, this time morphological analysis is performed on the text data of “Wake me up in the morning”, the morphological analysis result is obtained, and the morphological analysis result is selected by the orderer 1 As described above, using the network grammar 281 for the speaker # 1
Trace the corresponding morpheme from begin). In this case, all the morphemes of “already”, “morning”, “dayo”, “wake up”, “ne” match the morphemes that make up the network grammar. The utterance content of “Ne” is determined to be appropriate as the utterance content of the speaker # 1.

このように、音声メッセージの発話内容が当該話者#1の発話する内容として適切であ
ると判定されると、次の処理過程である音声合成処理に入るが、これ以降の処理は実施形
態1と同じであり、実施形態1ですでに説明したのでここではその説明は省略する。
As described above, when it is determined that the utterance content of the voice message is appropriate as the utterance content of the speaker # 1, the speech synthesis processing which is the next processing step is started. Since it has already been described in Embodiment 1, the description thereof is omitted here.

このように、ネットワーク文法を用いた実施形態2は、実施形態1に比較すると、生成
可能な音声メッセージの発話内容の制約は大きいが、その分、話者の発話内容としての適
正さをより高めることができ、声の権利者として話者に安心感を与えることができるとい
った効果がある。
As described above, the second embodiment using the network grammar has a larger restriction on the utterance content of the voice message that can be generated compared to the first embodiment, but the corresponding utterance content of the speaker is further increased accordingly. It is possible to give the speaker a sense of security as a voice right holder.

なお、この実施形態2において、発注者が話者を選択すると、その話者用のネットワー
ク文法を当該発注者に提示するようにし、その発注者はそのネットワーク文法を見て、自
分の所望とする音声メッセージを作成するようにしてもよい。
In the second embodiment, when the orderer selects a speaker, the network grammar for the speaker is presented to the orderer, and the orderer looks at the network grammar and makes his / her own desire. A voice message may be created.

たとえば、発注者1が話者#1を選択したとすると、当該話者31用のネットワーク文
法301を発注者1側に送信し、発注者1はそれを自分のPC上で見て、PC画面上で、
たとえば、「もう」、「朝」、「だよ」、「起きて」、「ね」を、順次、クリックして行
くことでは、音声メッセージの発話内容として「もう朝だよ起きてね」が受注者2側に入
力されるようにすることもできる。
For example, if the orderer 1 selects the speaker # 1, the network grammar 301 for the speaker 31 is transmitted to the orderer 1 side, and the orderer 1 sees it on his / her PC and sees the PC screen. Above,
For example, if you click “May”, “Morning”, “Dayo”, “Wake up”, “Ne” in order, the voice message utterance content will be “Wake up already in the morning” It can also be input to the contractor 2 side.

これによれば、発注者1の作成する音声メッセージの発話内容は、ネットワーク文法に
沿った内容となるので、未知語が用いられることがなくなり、音声メッセージの発話内容
の作成処理を容易なものとすることができ、それによって、音声合成処理を含めた全体の
処理を効率よく行うことができる。
According to this, since the utterance content of the voice message created by the orderer 1 is in accordance with the network grammar, unknown words are not used, and the creation processing of the utterance content of the voice message is easy. As a result, the entire process including the speech synthesis process can be performed efficiently.

また、ネットワーク文法を構成する個々の形態素は、その形態素の内容によっては、固
定としないで、いくつかの中から発注者に選択可能としてもよい。たとえば、上述したよ
うに、時刻や月日などは、「*時」、「△分」、「*月」、「△日」として、「*」、「
△」に時刻や月日を表す任意の数値を入力可能(プルダウンメニューのようなものから選
択する形式でもよい)としたリ、「ください」というような表現は「ちょうだい」など、
それに類似した表現で、かつ、その話者にふさわしい表現をいくつか用意しておいて、そ
の中から選択できるようにしてもよい。このようにすれば、表現のバリエーションをより
多彩なものとすることができる。
Further, the individual morphemes constituting the network grammar may not be fixed depending on the contents of the morphemes but may be selectable by the orderer from several. For example, as described above, the time, date, etc. are indicated as “* hour”, “△ minute”, “* month”, “△ day” as “*”, “
△ ”can be entered as an arbitrary number representing the time or date (may be selected from a pull-down menu).
It is also possible to prepare several expressions similar to that and suitable for the speaker so that they can be selected. In this way, variations in expression can be made more diverse.

また、ネットワーク文法は個々の話者#1,#2,・・・,#nによって異なる内容と
することも可能である。たとえば、話者が女性であるか男性であるかの違いや、同じ男性
であっても、若いアイドル歌手と年配のアクション俳優などによって、許容される表現の
範囲が異なってくるので、個々の話者対応に、それぞれの話者において許容される範囲内
の語彙や活用の記述がなされたネットワーク文法を用意することによって、個々の話者の
個性などを生かした上で、その話者の発話内容として適切か否かの判定を行うことができ
る。
The network grammar can also have different contents depending on the individual speakers # 1, # 2,. For example, the range of expressions allowed varies depending on whether the speaker is a woman or a man, or even the same man, depending on the young idol singer and the elderly action actor. By preparing a network grammar that describes the vocabulary and usage within the allowable range for each speaker, the content of each speaker's utterance is utilized, taking advantage of the individuality of each speaker. It can be determined whether or not it is appropriate.

このように、この実施形態2も実施形態1と同様に、個々の話者にとって適正な内容の
音声メッセージのみが作成されることから、このような音声データ提供サービスを行うサ
ービス提供者(受注側)もサービス提供者としての評価を高めることができ、また、たと
えば、新語や流行語が発生した場合に対応し易い効果が得られる。
As described above, in the second embodiment, similarly to the first embodiment, only a voice message having an appropriate content for each speaker is created. Therefore, a service provider (order receiving side) that performs such a voice data providing service. ) Can also be evaluated as a service provider, and for example, an effect can be easily obtained when a new word or buzzword is generated.

〔実施形態3〕
前述の実施形態1および実施形態2では、受注側2から発注者1に対して未知語の存在
を示す判定結果が提示されると、発注者1はその提示内容を見て、未知語を自分の判断で
修正するようにしたが、この実施形態3では、話者#1,#2,・・・,#n用の使用許
可表現辞書251,252,・・・,25n(実施形態1)または話者#1,#2,・・
・,#n用のネットワーク文法281,282,・・・,28n(実施形態2)に加えて
、話者#1,#2,・・・,#n用の未知語変換辞書291,292,・・・,29nを
持ち、発注者1のキー入力した音声メッセージの発話内容に未知語があった場合、個々の
話者ごとにその未知語をどのような表現に変換したらよいかの変換候補を発注者1に提示
できるようにする。
[Embodiment 3]
In the first embodiment and the second embodiment described above, when the order receiving side 2 presents a determination result indicating the presence of an unknown word to the orderer 1, the orderer 1 looks at the presented content and sets the unknown word to himself / herself. However, in the third embodiment, use permission expression dictionaries 251, 252,..., 25 n for speakers # 1, # 2,. Or speakers # 1, # 2, ...
In addition to the network grammars 281, 282,..., 28 n for the #n (second embodiment), the unknown word conversion dictionaries 291, 292, #n for the speakers # 1, # 2,. .., 29n, and if there is an unknown word in the utterance content of the voice message keyed in by the orderer 1, a conversion candidate for converting the unknown word to each speaker Can be presented to the orderer 1.

図6はこの実施形態3における音声データ作成装置20の構成を示す図であり、ここで
は、実施形態1で用いた図2の構成に話者#1,#2,・・・,#n用の未知語変換辞書
291,292,・・・,29nを設けた例が示されている。この図6は図2で示した構
成図に対して、話者#1,#2,・・・,#nごとの未知語変換辞書291,292,・
・・,29nを有している点が異なるだけで、あとは図2と同じであるので、図2と同一
の構成要素には同一符号が付されている。
FIG. 6 is a diagram showing the configuration of the voice data creation device 20 in the third embodiment. Here, the configuration of FIG. 2 used in the first embodiment is for speakers # 1, # 2,. , 29n are provided as examples of unknown word conversion dictionaries 291, 292,. 6 is different from the block diagram shown in FIG. 2 in the unknown word conversion dictionaries 291, 292,.
.., 29n are different except that the rest is the same as FIG. 2, and the same components as those in FIG. 2 are denoted by the same reference numerals.

未知語変換辞書291,292,・・・,29nは、上述したように、ある話者に発話
させる音声メッセージの発話内容に未知語があった場合、その未知語をどのような表現に
変換したらよいかの変換候補が記述されている辞書である。以下、図7を参照しながらこ
の実施形態3の具体例について説明する。
As described above, the unknown word conversion dictionaries 291, 292,..., 29 n can convert any unknown word into any expression when there is an unknown word in the utterance content of a voice message to be uttered by a certain speaker. This is a dictionary in which conversion candidates are good. Hereinafter, a specific example of the third embodiment will be described with reference to FIG.

発注者1は自分のPCなどで受注側2の音声データ作成受注サイトにアクセスし、上述
の実施形態1と同様に、自分で用意した音声メッセージを自分の好みの話者の音声で発話
させた音声メッセージの作成を依頼し、かつ、その音声メッセージをある機器(置き時計
など)5の記憶手段に記録することを依頼するものとする。
The orderer 1 accesses the voice data creation order receiving site of the order receiving side 2 with his / her PC or the like, and utters the voice message prepared by himself / herself with the voice of his / her favorite speaker as in the first embodiment. Assume that a request is made to create a voice message and the voice message is recorded in the storage means of a certain device (table clock, etc.) 5.

ここでの音声メッセージの発話内容は、実施形態1で用いたものと同様、「もう朝だよ
起きろばか」という内容であって、その音声メッセージの発話内容を自分のPCによりキ
ー入力するとともに、それを発話させる話者として、あるアイドル歌手(話者#1)を選
択したとする。これによって、発注者1のキー入力された音声メッセージの発話内容「も
う朝だよ起きろばか」に対するテキストデータは受注側2の文書解析部21に入力される
とともに、話者#1が選択されたことを示す話者選択情報が文書解析部21に入力される
The utterance content of the voice message here is the same as that used in the first embodiment, and it is the content of “It's already morning, do n’t wake up”, and the utterance content of the voice message is keyed by your own PC, Assume that a certain idol singer (speaker # 1) is selected as the speaker who speaks it. As a result, the text data corresponding to the utterance content of the voice message entered by the key of the orderer 1 "Morning is the morning" is input to the document analysis unit 21 of the order receiving side 2 and the speaker # 1 is selected. Speaker selection information indicating this is input to the document analysis unit 21.

文書解析部2では、入力されたテキストデータに対して文法データ(文法辞書や日本語
語彙辞書などからなる)22を用いて文書解析として形態素解析を行い(ステップS11
)、品詞分解してその形態素解析結果を得る(ステップS12)。
The document analysis unit 2 performs morphological analysis on the input text data as document analysis using grammatical data (consisting of a grammar dictionary, a Japanese vocabulary dictionary, etc.) 22 (step S11).
), The part-of-speech decomposition is performed to obtain the morphological analysis result (step S12).

そして、この図7におけるステップS12に示すような形態素解析結果を、発注者1の
選択した話者#1用の使用許可表現辞書251に照らし合わせて、形態素解析された個々
の要素と使用許可表現辞書251の内容の一致を判定する(ステップS13)。この場合
、話者#1に対する使用許可表現辞書251には、使用許可語彙・活用として、「もう」
、「朝」、「だ」、「よ」などが記述されているが、「起きろ」や「寝ろ」といった命令
形の活用は記述されていないとする。
Then, the morphological analysis result as shown in step S12 in FIG. 7 is compared with the use permission expression dictionary 251 for the speaker # 1 selected by the orderer 1, and the individual elements and use permission expressions subjected to the morphological analysis are used. A match between the contents of the dictionary 251 is determined (step S13). In this case, the use permission expression dictionary 251 for the speaker # 1 has “already” as the use permission vocabulary / utilization.
, “Morning”, “da”, “yo”, etc. are described, but the use of command forms such as “get up” and “sleep” is not described.

したがって、この例においては、「もう」、「朝」、「だ」、「よ」は当該話者#1の
使用許可表現辞書251に記述されているので、該話者#1の発話する内容として適切で
あると判定されるが、「起きろ」や「寝ろ」は当該話者#1の使用許可表現辞書に記述さ
れていない未知語であると判定され、この場合、使用許可語彙・活用として「もう」、「
朝」、「だ」、「よ」が抽出される(ステップS14)。
Therefore, in this example, “already”, “morning”, “da”, and “yo” are described in the use permission expression dictionary 251 of the speaker # 1, and therefore the content of the speaker # 1 speaks. However, “Wake up” and “Sleep” are determined to be unknown words that are not described in the permitted permission expression dictionary of the speaker # 1, and in this case, as permitted permission vocabulary and utilization "Already","
“Morning”, “da”, and “yo” are extracted (step S14).

このように、当該話者#1の使用許可表現辞書に記述されていない未知語が含まれると
判定された場合は、次の処理過程である音声合成処理には進まず、文章解析部21は、当
該話者#1用の未知語変換辞書281を用いて、その不適切な表現をどのような表現とし
たらよいかの表現変換(語彙・活用変換)を行う(ステップS15)。
As described above, when it is determined that an unknown word that is not described in the use permission expression dictionary of the speaker # 1 is included, the sentence analysis unit 21 does not proceed to the speech synthesis process that is the next processing step, and Then, using the unknown word conversion dictionary 281 for the speaker # 1, the expression conversion (vocabulary / utilization conversion) of what the inappropriate expression should be is performed (step S15).

この場合、話者#1用の未知語変換辞書291には、「ばか」や「あほ」といった表現
に対しては、「空白」とすることが記述されており、また、「起きろ」や「寝ろ」といっ
た命令形の表現については、「起きてね」、「起きてちょうだい」、「寝てね」、「寝て
ちょうだい」といった表現に変換することが記述されている。
In this case, the unknown word conversion dictionary 291 for speaker # 1 describes that “blank” and “aho” are expressed as “blank”, and “wake up” and “ As for the expression of the command form such as “sleep”, it is described that it is converted into expressions such as “get me up”, “get me up”, “get me up”, and “get me up”.

なお、「ばか」や「あほ」といった表現を「空白」とするのは、これら人を誹謗、中傷
する表現を他の適当な表現に言い換えるのは難しいからであり、また、このような誹謗、
中傷するような表現は、たとえ、それを他の表現で言い換えが可能であるとしてもそのよ
うな表現を用いるのは好ましいことではないからである。また、「起きろ」や「寝ろ」と
いった少し乱暴な命令形は、そのアイドル歌手ならこのような表現が好ましいとされる表
現として、ここでは、「起きてね」、「起きてちょうだい」、「寝てね」、「寝てちょう
だい」といった表現に変換するとしている。
In addition, the expression “blade” or “aho” is “blank” because it is difficult to paraphrase these people and deface them with other appropriate expressions.
It is because it is not preferable to use such an expression even if it can be paraphrased by another expression even if the expression is slandering. Also, a little rough command forms such as “get up” and “sleep” are the expressions that such an idol singer would prefer such expressions. Here, “get up”, “get me up”, “sleep” It is supposed to be converted into expressions such as “Tene” and “Give me a sleep”.

この未知語変換が終了すると、どこをどのように変換すればよいかを発注者1に提示す
る(ステップS15)。この場合、発注者1の用意した「もう朝だよ起きろばか」という
未知語を含む音声メッセージの発話内容は、この図7のステップS16に示すように、第
1の候補として、「もう朝だよ起きてね」、第2の候補として、「もう朝だよ起きてちょ
うだい」の2つの候補を発注者1に提示する。
When this unknown word conversion is completed, the orderer 1 is presented as to where and how to convert it (step S15). In this case, the utterance content of the voice message including the unknown word “It's already morning, get up” prepared by the orderer 1 is, as shown in step S16 of FIG. “Wake up” and present two candidates, “Wake me up in the morning,” to the orderer 1 as second candidates.

なお、ここでの未知語である「起きろ」、「ばか」の部分は、それが未知語であること
を発注者に知らせるために、前述の実施形態1で説明したように、たとえば、「もう 朝
だよ ○○○ ○○」というように、未知語の各文字部分を○で表したり、太字で表した
り、文字の大きさを大きくしたり、字体を変えたりするなど種々の方法が考えられる。
In this case, the unknown words “Wake up” and “Baka” are used in order to notify the orderer that the unknown words are unknown words. Various methods, such as `` It's morning '' ○○○ ○○ '', each character part of unknown word is indicated by ○, bold, the size of the character is increased, the font is changed, etc. It is done.

このように、未知語変換辞書291を用いた未知語変換処理を行うことによって、この
場合、第1の候補「もう朝だよ起きてね」、第2の候補「もう朝だよ起きてちょうだい」
が発注者に提示されるが、これらの内容は、いずれも、「ばか」という表現が削除されて
いる。これは、上述したように、話者#1用の未知語変換辞書291には、「ばか」や「
あほ」といった表現に対しては、「空白」とすることが記述されているからである。
Thus, by performing the unknown word conversion process using the unknown word conversion dictionary 291, in this case, the first candidate “Wake up already in the morning” and the second candidate “Wake up in the morning” "
Is displayed to the orderer, and the content of these contents is deleted from the expression “idiot”. As described above, the unknown word conversion dictionary 291 for the speaker # 1 has “baka” and “
This is because the expression “aho” is described as “blank”.

発注者1がこのような通知を受け取り、自分の用意した音声メッセージの発話内容に未
知語があることを知り、受注側2から提示された第1の候補を選択し、「もう朝だよ起き
てね」というような内容をキー入力したとすると、受注側2の音声データ作成装置20で
は、文書解析部21が「もう朝だよ起きてね」のテキストデータを形態素解析し、その形
態素解析結果を得る(ステップS11,S12)。そして、その形態素解析結果を、発注
者1の選択した話者#1用の使用許可表現辞書251に照らし合わせて、形態素解析され
た個々の要素と使用許可表現辞書251の内容の一致を判断する(ステップS13)。こ
の場合、話者#1に対する使用許可表現辞書251には、使用許可語彙・活用として、「
もう」、「朝」、「だ」、「よ」の他に、「起きて」、「ね」などが記述されているもの
とする。
The orderer 1 receives such a notification, knows that there is an unknown word in the utterance content of the voice message prepared by him, selects the first candidate presented by the order receiving side 2, If the contents such as “Tene” are key-inputted, in the voice data creation device 20 of the order receiving side 2, the document analysis unit 21 performs morphological analysis on the text data “Wake me up in the morning” and the morphological analysis A result is obtained (steps S11 and S12). Then, the morpheme analysis result is checked against the use permission expression dictionary 251 for the speaker # 1 selected by the orderer 1, and it is determined whether each element subjected to the morpheme analysis matches the contents of the use permission expression dictionary 251. (Step S13). In this case, the usage permission expression dictionary 251 for the speaker # 1 includes “
It is assumed that “get up”, “ne”, etc. are described in addition to “other”, “morning”, “da”, “yo”.

したがって、この「もう朝だよ起きてね」を構成する語彙や活用は、すべて使用許可表
現辞書251に記述されているので、今度は、その音声メッセージの発話内容は当該話者
#1の発話する内容として適切であると判定される。
Therefore, since all of the vocabulary and usage that make up “get up already in the morning” are described in the use permission expression dictionary 251, the utterance content of the voice message is the utterance of the speaker # 1. It is determined that the content is appropriate.

なお、この場合、受注側2から2つの候補が発注者1に提示され、発注者1がそれを見
て、その候補の中から自分の好みの表現を選択して、その候補を含んだ音声メッセージの
発話内容全体キー入力し直すようにしているが、音声メッセージの発話内容全体をキー入
力し直す必要はなく、どの候補を選ぶかの情報のみを受注側2に送るようにしてもよい。
たとえば、この場合、発注者1が第1の候補を選択するという情報を受注側2に送ること
で、あとは、受注側2で、その第1の候補「もう朝だよ起きてね」が発注者1の所望とす
る音声メッセージの発話内容であると判断し、次の処理である音声合成処理を行って、音
声合成された音声データを機器5の記録手段に記録する。
In this case, two candidates from the order-receiving side 2 are presented to the orderer 1, and the orderer 1 looks at it, selects his / her favorite expression from the candidates, and includes the candidate. Although the entire message utterance content key is input again, it is not necessary to re-key the entire utterance content of the voice message, and only information on which candidate is selected may be sent to the order receiving side 2.
For example, in this case, by sending information that the orderer 1 selects the first candidate to the order receiving side 2, the order candidate 2 then has the first candidate “Wake up already in the morning”. It is determined that the utterance content of the voice message desired by the orderer 1 is performed, the voice synthesis process as the next process is performed, and the voice synthesized voice data is recorded in the recording means of the device 5.

この音声合成処理以降の処理は、実施形態1と同じであり、実施形態1ですでに説明し
たのでここではその説明は省略する。
The processing after the speech synthesis processing is the same as that in the first embodiment, and since it has already been described in the first embodiment, the description thereof is omitted here.

なお、未知語変換辞書281,282,・・・,28nの内容は、個々の話者#1,#
2,・・・,#nによって異なるようにすることも可能であり、たとえば、話者が女性で
あるか男性であるかの違いや、同じ男性であっても、若いアイドル歌手と年配のアクショ
ン俳優などによって、許容される表現の範囲が異なってくるので、それに応じた未知語変
換辞書を作成しておく。
The contents of the unknown word conversion dictionaries 281, 282,.
2, ..., #n can be different, for example, whether the speaker is a woman or a man, or even a young idol singer and an elderly action The range of allowable expressions varies depending on the actor, etc., so an unknown word conversion dictionary corresponding to the range is created.

以上説明したようにこの実施形態3によれば、発注者1が自分で用意した音声メッセー
ジの発話内容に、当該発注者1の選択した話者用の使用許可表現辞書251に記述されて
いない未知語が含まれている場合は、その未知語に対する変換候補を受注側2で用意して
、それを発注者1に提示するようにしている。これによって、発注者1は、未知語をどの
ように修正すればよいかが一目でわかるので、発話させる話者ごとの音声メッセージの発
話内容の作成が容易なものとなる。
As described above, according to the third embodiment, the utterance content of the voice message prepared by the orderer 1 by himself / herself is not described in the use permission expression dictionary 251 for the speaker selected by the orderer 1. If a word is included, a conversion candidate for the unknown word is prepared by the order receiving side 2 and presented to the orderer 1. As a result, the orderer 1 knows at a glance how to correct the unknown word, so that it becomes easy to create the utterance content of the voice message for each speaker to be uttered.

また、前述の実施形態1と同様、適切な音声メッセージの発話内容であると判断された
場合のみに、当該話者の音声特徴データを用いて音声合成処理して、音声合成データを出
力するようにしているので、俳優、歌手、声優、スポーツ選手などの著名人(声の権利者
)の意図しない不適切な内容をその話者に発話させて、その話者の名誉を傷つけるといっ
た問題を未然に防ぐことができ、これによって、このような音声データ提供サービスを行
うサービス提供者(受注側2)もサービス提供者としての良識が疑われることもなくなる
Further, as in the first embodiment, only when it is determined that the speech content is an appropriate speech message, speech synthesis processing is performed using the speech feature data of the speaker, and speech synthesis data is output. Therefore, there is a problem that the speaker's unintentional inappropriate contents such as actors, singers, voice actors, athletes, etc. are not intended, and that the speaker's honor is hurt. As a result, the service provider (order receiving side 2) that provides such a voice data providing service is not suspected of the common sense as the service provider.

なお、ここでは未知語変換処理を実施形態1に適用した例を説明したが、実施形態2に
も適用できることは勿論である。
Although the example in which the unknown word conversion process is applied to the first embodiment has been described here, it is needless to say that the unknown word conversion process can also be applied to the second embodiment.

〔実施形態4〕
上述の各実施形態では、発注者1の用意した日本語の音声メッセージの発話内容を、そ
の発注者1の選択した話者の音声特徴データを用いてその話者が日本語の音声メッセージ
を発話するような音声合成処理を行った例を説明したが、この実施形態4では、発注者1
の用意した音声メッセージの発話内容に用いた言語と音声合成された音声メッセージの言
語を異ならせることを可能とする。
[Embodiment 4]
In each of the above-described embodiments, the speaker utters a Japanese voice message using the utterance content of the Japanese voice message prepared by the orderer 1 and the voice feature data of the speaker selected by the orderer 1. In the fourth embodiment, the orderer 1 has been described.
It is possible to make the language used for the utterance content of the prepared voice message different from the language of the synthesized voice message.

たとえば、発注者1が上述の各実施形態で用いた「もう朝だよ起きろばか」という日本
語の音声メッセージの発話内容をキー入力し、それを話者#1の音声特徴データを用いて
英語の音声メッセージの作成を要求することも可能である。以下、この実施形態4につい
て図8を参照しながら簡単に説明する。なお、ここでは、実施形態1に適用した例につい
て説明する。
For example, the orderer 1 inputs the utterance content of the Japanese voice message “Morning is the morning,” used in each of the above-described embodiments, and uses the voice feature data of the speaker # 1 to input English. It is also possible to request creation of a voice message. Hereinafter, this Embodiment 4 is demonstrated easily, referring FIG. Here, an example applied to the first embodiment will be described.

図8はこの実施形態4の音声データ作成装置20の構成を示す図であり、文書解析部2
1の出力側に、言語変換部30が設けられている点が異なるだけで、その他の構成要素は
図2と同様であるので、同一部分には同一符号が付されている。
FIG. 8 is a diagram showing the configuration of the audio data creation apparatus 20 of the fourth embodiment, and the document analysis unit 2
The other components are the same as those in FIG. 2 except that the language conversion unit 30 is provided on the output side of FIG.

この言語変換部30は、ある言語を発注者1の指定する言語に変換(翻訳)処理可能な
ものであるが、この実施形態3では、日本語を他の言語に変換可能とする。この場合、日
本語から英語というように、変換(翻訳)できる言語が予めある1つの言語に決められて
いてもよいが、日本語から複数の言語に変換可能とし、その複数の言語の中から発注者1
が変換すべき言語を指定できるようにしてもよい。
The language conversion unit 30 can convert (translate) a certain language into a language designated by the orderer 1. In the third embodiment, Japanese can be converted into another language. In this case, a language that can be converted (translated), such as Japanese to English, may be determined in advance as one language, but it is possible to convert from Japanese to multiple languages, and from among the multiple languages Orderer 1
May be able to specify the language to be converted.

なお、このように、複数の言語の中から発注者1が変換すべき言語を指定できるように
する場合、発注者1は、音声メッセージの発話内容をキー入力するとともに話者選択を行
い、さらに、言語選択を行う。たとえば、英語での音声メッセージの作成を依頼する場合
は、言語として英語を選択する。
When the orderer 1 can specify a language to be converted from a plurality of languages as described above, the orderer 1 performs key selection of the utterance content of the voice message and selects the speaker, and further , Language selection. For example, when requesting creation of a voice message in English, English is selected as the language.

ここで、発注者1がたとえば音声メッセージの発話内容として実施形態1で用いた「も
う朝だよ起きろばか」をキー入力するとともに話者#1を選択し、さらに、言語として英
語を選択したとする。これによって、その「もう朝だよ起きろばか」のテキストデータと
話者選択情報が文書解析部21に入力されるとともに、言語選択情報が言語変換部30に
入力される。
Here, it is assumed that the orderer 1 key-inputs “another morning wake up fool” used in the first embodiment as the voice message utterance content, selects the speaker # 1, and further selects English as the language. To do. As a result, the text data and speaker selection information of “It's morning wake up” is input to the document analysis unit 21, and the language selection information is input to the language conversion unit 30.

文書解析部21では、実施形態1で説明したような文書解析処理がなされるとともに、
入力された音声メッセージの発話内容に話者#1が発話する内容として不適切な表現が有
るか否かの判定がなされるが、これらの処理についてはすでに詳細に説明したのでここで
はその説明は省略する。そして、不適切な表現があればその修正を行って、たとえば、前
述したように、「もう朝だよ起きてね」と修正され、不適切な表現がないと判定された場
合は、その音声メッセージの発話内容に対する文書解析結果を用いて言語変換部30が言
語変換(この場合、日本語を英語に変換)を行う。
The document analysis unit 21 performs document analysis processing as described in the first embodiment,
It is determined whether or not there is an inappropriate expression as the content of the speaker # 1 in the utterance content of the input voice message. However, since these processes have already been described in detail, the description is given here. Omitted. Then, if there is an inappropriate expression, it is corrected. For example, as described above, it is corrected to “Get up already in the morning”, and if it is determined that there is no inappropriate expression, the voice The language conversion unit 30 performs language conversion (in this case, Japanese is converted into English) using the document analysis result for the utterance content of the message.

そして、その言語変換された音声メッセージの発話内容について、韻律制御部23と音
声波形生成部24が話者#1用の韻律データと話者#1用の音声波形データを用いて音声
合成処理を行い、「もう朝だよ起きてね」が英語に翻訳された音声メッセージが出力され
る。
Then, the prosody control unit 23 and the speech waveform generation unit 24 perform speech synthesis processing using the prosody data for the speaker # 1 and the speech waveform data for the speaker # 1 with respect to the utterance contents of the language-converted speech message. A voice message with “Wake me up in the morning” translated into English is output.

このように、発注者1の用意した日本語の音声メッセージの発話内容をその話者の指定
した言語(この場合は英語)変換し、その英語の音声メッセージの発話内容を当該発注者
1の選択した話者の音声特徴データを用いて音声合成処理して、音声合成データを出力す
るようにしているので、この場合、「もう朝だよ起きてね」という音声メッセージの発話
内容を話者#1によって英語で発話させることができる。
In this way, the utterance content of the Japanese voice message prepared by the orderer 1 is converted into the language specified by the speaker (in this case, English), and the utterance content of the English voice message is selected by the orderer 1. The speech synthesis process is performed using the voice feature data of the speaker who has played, and the speech synthesis data is output. In this case, the utterance content of the voice message “Wake me up in the morning!” 1 can speak in English.

なお、ここでは実施形態1の例について説明したが、実施形態2や実施形態3の場合に
も同様に実施することができる。また、変換後の言語は英語に限られるものではなく、他
の言語であってもよい。
In addition, although the example of Embodiment 1 was demonstrated here, in the case of Embodiment 2 and Embodiment 3, it can implement similarly. Further, the language after conversion is not limited to English, and may be another language.

このように実施形態4によれば、発注者の指定した音声メッセージの発話内容を、他の
言語に変換する言語変換手段を有し、その音声メッセージの発話内容を当該言語変換手段
によって当該発注者の指定する言語に翻訳し、その翻訳された音声メッセージの発話内容
と前記選択された話者の音声特徴データとを用いて音声合成処理することを可能としてい
るので、たとえば、日本語の音声メッセージの発話内容を英語の音声メッセージの発話内
容に変換して、それを発注者の好みの話者の音声で発話させることができる。
As described above, according to the fourth embodiment, the language conversion unit that converts the utterance content of the voice message designated by the orderer into another language is provided, and the utterance content of the voice message is converted into the orderer by the language conversion unit. Can be translated into a language designated by the voice and voice synthesis processing can be performed using the speech content of the translated voice message and the voice feature data of the selected speaker. Can be converted into the speech content of an English voice message, which can be uttered by the voice of the preferred speaker of the orderer.

これによって、たとえば、発注者の選択可能な話者として外国の映画スターやスポーツ
選手など世界的著名人をも受注側に記述しておき、これらの話者の音声特徴データを受注
側で持っていれば、発注者の作成した日本語の音声メッセージの発話内容をたとえば外国
の映画スターやスポーツ選手など世界的著名人がその国の言語で発話する音声メッセージ
として出力させることができ、より価値の高い音声メッセージを得ることができる。
As a result, for example, international celebrities such as foreign movie stars and athletes are described on the order receiving side as speakers who can be selected by the ordering party, and the voice feature data of these speakers are held on the order receiving side. Utterance content of Japanese voice messages created by the orderer can be output as voice messages spoken in the language of the country by world-renowned celebrities such as foreign movie stars and sports players, etc. A high voice message can be obtained.

なお、本発明は上述の実施形態に限られるものではなく、本発明の要旨を逸脱しない範
囲で種々変形実施可能となるものである。たとえば、上述の各実施形態では、発注者1の
選択したある特定の話者の音声特徴データを用いた音声メッセージを置き時計などの機器
5に組み込む例について説明したが、これは、前述したように、機器5などに組み込むだ
けでなく、CD−ROMなどの記録媒体6に記録させたものを発注者1に納品する形態で
もよく、また、作成された音声メッセージをネットワーク3を介して発注者1がダウンロ
ードできるような形態であってもよい。
The present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the spirit of the present invention. For example, in each of the above-described embodiments, the example in which the voice message using the voice feature data of a specific speaker selected by the orderer 1 is incorporated in the device 5 such as the table clock has been described. In addition to being incorporated in the device 5 or the like, a form recorded on a recording medium 6 such as a CD-ROM may be delivered to the orderer 1, and the created voice message may be sent via the network 3 to the orderer 1. May be downloadable.

また、上述の各実施形態では、音声メッセージの発注を行う発注者1と作成された音声
メッセージを受け取る受取人は同一人として説明したが、発注者1と作成された音声メッ
セージを受け取る受取人またはそれを使用する使用者は別人であってもよい。
In each of the above-described embodiments, the orderer 1 who orders voice messages and the recipient who receives the created voice message are described as the same person. However, the orderer 1 and the recipient who receives the created voice message or The user who uses it may be another person.

また、上述の各実施形態では、音声メッセージの発話内容を発注者1自身がキー入力な
どして受注側2に送信するようにしたが、発注者1は電話などで受注側2に音声メッセー
ジの発話内容を口頭で伝えたり、ファクシミリで音声メッセージの発話内容を送信して、
それを受注側2で受信して、受注側2の担当者が、受注側2に用意されたPCなどからキ
ー入力するような形態であってもよい。
In each of the above-described embodiments, the orderer 1 himself / herself inputs the utterance content of the voice message to the order receiving side 2 by key input or the like, but the orderer 1 sends the voice message to the order receiving side 2 by telephone or the like. Tell the utterance content verbally, or send the utterance content of the voice message by facsimile,
The order receiving side 2 may receive it, and the person in charge on the order receiving side 2 may perform key input from a PC or the like prepared on the order receiving side 2.

また、本発明は以上説明した本発明を実現するための処理手順が記述された処理プログ
ラムを作成し、その処理プログラムをフロッピー(登録商標)ディスク、光ディスク、ハ
ードディスクなどの記録媒体に記録させておくこともでき、本発明は、その処理プログラ
ムの記録された記録媒体をも含むものである。また、ネットワークから当該処理プログラ
ムを得るようにしてもよい。
Further, the present invention creates a processing program in which the processing procedure for realizing the present invention described above is described, and records the processing program on a recording medium such as a floppy (registered trademark) disk, an optical disk, or a hard disk. The present invention also includes a recording medium in which the processing program is recorded. Further, the processing program may be obtained from a network.

以上説明したように本発明によれば、たとえば、発注者が俳優、歌手、声優、スポーツ
選手などの著名人などを話者として選択した場合、その発注者の指定した音声メッセージ
の発話内容が、前記話者の発話内容として使用を許可された表現で構成されていると判定
された場合のみに、その音声メッセージの発話内容と当該選択された話者の音声特徴デー
タとを用いて音声合成処理し、その音声合成データを生成するようにしているので、生成
された音声合成データ(音声メッセージ)は、話者の発話内容として使用を許可された表
現のみ構成された内容となり、これらの話者が公の場では発話しないような不適切な内容
をその話者に発話させて、その話者の名誉を傷つけるといった問題を未然に防ぐことがで
き、これによって、このような音声データ提供サービスを行うサービス提供者(受注側)
もサービス提供者としての良識が疑われることもなくなる。
As described above, according to the present invention, for example, when an orderer selects a celebrity such as an actor, a singer, a voice actor, or a sports player as a speaker, the utterance content of the voice message designated by the orderer is Only when it is determined that the expression is permitted to be used as the speech content of the speaker, speech synthesis processing is performed using the speech content of the voice message and the voice feature data of the selected speaker. However, since the voice synthesis data is generated, the generated voice synthesis data (voice message) is composed only of expressions permitted to be used as the utterance contents of the speaker. Can prevent issues such as damaging the speaker's honor by letting the speaker speak inappropriate content that is not spoken in public. Service providers to perform the voice data provided services (order side)
However, the common sense as a service provider is no longer suspected.

また、選択された話者の発話内容として使用を許可された表現が記された使用許可表現
辞書を用いて、その話者の発話内容として使用を許可された表現で構成されているか否か
の判定を行うようにしているので、発注者の指定した音声メッセージの発話内容がその話
者の発話内容として適正か否かの判定を的確に、かつ、容易に行うことができる。
Whether or not it is composed of expressions permitted to be used as the utterance contents of the speaker, using the permitted expression dictionary in which expressions permitted to be used as the utterance contents of the selected speaker are recorded. Since the determination is made, it is possible to accurately and easily determine whether or not the utterance content of the voice message designated by the orderer is appropriate as the utterance content of the speaker.

また、選択された話者の発話内容として使用を許可された表現が記されたネットワーク
文法を用いて、その話者の発話内容として使用を許可された表現で構成されているか否か
の判定を行うようにしているので、発注者の指定した音声メッセージの発話内容がその話
者の発話内容として適正か否かの判定を的確に、かつ、容易に行うことができる。なお、
ネットワーク文法を用いた場合、音声メッセージの発話内容は制限されるが、その分、話
者の発話内容としての適正さをより高めることができ、声の権利者として話者に安心感を
与えることができる。
In addition, using a network grammar in which an expression permitted to be used as the utterance content of the selected speaker is described, it is determined whether or not the expression is permitted to be used as the utterance content of the speaker. Therefore, it is possible to accurately and easily determine whether or not the utterance content of the voice message designated by the orderer is appropriate as the utterance content of the speaker. In addition,
When network grammar is used, the utterance content of a voice message is limited. However, the appropriateness of the utterance content of the speaker can be increased accordingly, and the speaker can feel secure as a voice right holder. Can do.

また、その不適切表現辞書やネットワーク文法は個々の話者対応に用意されることで、
個々の話者の個性などを生かした音声メッセージの発話内容の作成が可能となる。
In addition, the inappropriate expression dictionary and network grammar are prepared for individual speakers,
It is possible to create the utterance content of a voice message that makes use of the individuality of each speaker.

また、発注者の指定した音声メッセージの発話内容を、他の言語に翻訳する言語変換手
段を有し、その音声メッセージの発話内容を当該言語変換手段によって当該発注者の指定
する言語に翻訳し、その翻訳された音声メッセージの発話内容と前記選択された話者の音
声特徴データとを用いて音声合成処理することを可能としているので、たとえば、日本語
の音声メッセージの発話内容を英語の音声メッセージの発話内容に変換して、それを発注
者の好みの話者の音声で発話させることができる。
Further, it has language conversion means for translating the utterance content of the voice message designated by the orderer into another language, and the utterance content of the voice message is translated into the language designated by the orderer by the language conversion means, Since it is possible to perform speech synthesis processing using the utterance content of the translated voice message and the voice feature data of the selected speaker, for example, the utterance content of a Japanese voice message is converted into an English voice message. Utterance content can be converted into the voice of the speaker who likes the orderer.

これによって、たとえば、発注者の選択可能な話者として外国の映画スターやスポーツ
選手など世界的著名人をも受注側に記述しておき、これらの話者の音声特徴データを受注
側で持っていれば、発注者の作成した日本語の音声メッセージの発話内容をたとえば外国
の映画スターやスポーツ選手など世界的著名人がその国の言語で発話する音声メッセージ
として出力させることができ、より価値の高い音声メッセージを得ることができる。
As a result, for example, international celebrities such as foreign movie stars and athletes are described on the order receiving side as speakers who can be selected by the ordering party, and the voice feature data of these speakers are held on the order receiving side. Utterance content of Japanese voice messages created by the orderer can be output as voice messages spoken in the language of the country by world-renowned celebrities such as foreign movie stars and sports players, etc. A high voice message can be obtained.

1…発注者、2…受注側、3…ネットワーク、4…声の権利者、5…機器、6…記録媒
体、20…音声データ作成装置、21…文章解析部、22…文法データ、23…韻律制御
部、24…音声波形生成部、251,252,・・・,25n…使用許可表現辞書、26
1,262,・・・,26n…韻律データ、271,272,・・・,27n…声質デー
タ、281,282,・・・,28n…ネットワーク文法、291,292,・・・,2
9n…未知語変換辞書、30…言語変換部。
DESCRIPTION OF SYMBOLS 1 ... Ordering party, 2 ... Order receiving side, 3 ... Network, 4 ... Voice right holder, 5 ... Equipment, 6 ... Recording medium, 20 ... Audio | voice data preparation apparatus, 21 ... Text analysis part, 22 ... Grammar data, 23 ... Prosody control unit, 24... Speech waveform generation unit, 251, 252,..., 25n.
, 26n ... prosodic data, 271, 272, ..., 27n ... voice quality data, 281, 282, ..., 28n ... network grammar, 291, 292, ..., 2
9n ... unknown word conversion dictionary, 30 ... language conversion unit.

Claims (24)

発注者の指定した音声メッセージの発話内容とある特定の話者の音声特徴データとを用
いて音声合成処理し、それによって得られた音声合成データを音声データとして提供する
音声データ提供システムであって、
前記発注者から音声データ作成を受注する受注側は、前記発注者の指定した音声メッセ
ージの発話内容を受信するとともに、その音声メッセージを発話させる話者の選択情報を
受信すると、当該発注者の指定した音声メッセージの発話内容が、前記話者の発話内容と
して使用を許可された表現で構成されているか否かを判定し、使用を許可された表現で構
成されていると判定された場合に、その音声メッセージの発話内容と当該選択された話者
の音声特徴データとを用いて音声合成処理し、その音声合成データを音声データとして提
供することを特徴とする音声データ提供システム。
A speech data providing system that performs speech synthesis processing using speech content specified by an orderer and speech feature data of a specific speaker, and provides the resulting speech synthesis data as speech data. ,
The order receiving side that receives the voice data creation from the orderer receives the utterance content of the voice message designated by the orderer and receives selection information of the speaker that utters the voice message. The utterance content of the voice message is determined whether or not it is configured with an expression permitted to be used as the utterance content of the speaker, and if determined to be configured with an expression permitted to be used, A speech data providing system characterized in that speech synthesis processing is performed using speech content of the speech message and speech feature data of the selected speaker, and the speech synthesis data is provided as speech data.
前記受注側は、選択された話者の発話内容として使用を許可された表現が記述された使
用許可表現辞書を有し、前記使用を許可された表現で構成されているか否かの判定は、前
記音声メッセージの発話内容を文章解析し、その文章解析結果を当該使用許可表現辞書の
内容に照らし合わせて行うことを特徴とする請求項1記載の音声データ提供システム。
The order-receiving side has a use-permitted expression dictionary in which expressions permitted to be used as utterance contents of the selected speaker are described, and whether or not it is configured with the expressions permitted to use is determined by: 2. The voice data providing system according to claim 1, wherein a sentence analysis is performed on the utterance content of the voice message, and the sentence analysis result is compared with the contents of the use permission expression dictionary.
前記受注側は、選択された話者の発話する内容として使用を許可された表現で構成され
たネットワーク文法を有し、前記使用を許可された表現で構成されているか否かの判定は
、前記音声メッセージの発話内容を文章解析し、その文章解析結果を当該ネットワーク文
法の内容に照らし合わせて行うことを特徴とする請求項1記載の音声データ提供システム
The order-receiving side has a network grammar composed of expressions permitted to be used as the content of the selected speaker, and the determination as to whether or not it is composed of the expressions permitted to use is performed as described above. 2. The voice data providing system according to claim 1, wherein the utterance content of the voice message is analyzed and the result of the sentence analysis is compared with the content of the network grammar.
前記使用許可表現辞書は、個々の話者対応に用意され、個々の話者において許容される
表現が記述されていることを特徴とする請求項2記載の音声データ提供システム。
3. The voice data providing system according to claim 2, wherein the use permission expression dictionary is prepared for each speaker, and an expression allowed for each speaker is described.
前記ネットワーク文法は、個々の話者対応に用意され、個々の話者において許容される
表現で構成されていることを特徴とする請求項3記載の音声データ提供システム。
4. The voice data providing system according to claim 3, wherein the network grammar is prepared for each speaker and is composed of expressions allowed for each speaker.
前記音声メッセージの発話内容に、前記話者の発話する内容として使用を許可された表
現以外の未知語が含まれている場合は、その未知語の存在を前記発注者に提示することを
特徴とする請求項1から5のいずれか1項に記載の音声データ提供システム。
When the speech content of the voice message includes an unknown word other than an expression permitted to be used as the speech content of the speaker, the presence of the unknown word is presented to the orderer. The voice data providing system according to any one of claims 1 to 5.
前記使用許可表現辞書またはネットワーク文法に加えて、話者の発話する内容として使
用を許可された表現以外の未知語を、前記使用を許可された表現に変換するための変換候
補の記述がなされた未知語変換辞書を有し、音声メッセージの発話内容に未知語が含まれ
ていると判定された場合は、この未知語変換辞書からその未知語に対する変換候補を取得
して、その変換候補を前記発注者に提示することを特徴とする請求項2から6のいずれか
1項に記載の音声データ提供システム。
In addition to the use-permitted expression dictionary or network grammar, conversion candidates for converting an unknown word other than an expression permitted to be used as a content uttered by a speaker into the expression permitted to be used were described. If it has an unknown word conversion dictionary and it is determined that an unknown word is included in the utterance content of the voice message, a conversion candidate for the unknown word is acquired from the unknown word conversion dictionary, and the conversion candidate is The voice data providing system according to any one of claims 2 to 6, wherein the voice data providing system is presented to an orderer.
前記未知語変換辞書は、個々の話者対応に用意され、個々の話者において許容される範
囲内の変換候補の記述がなされていることを特徴とする請求項7記載の音声データ提供シ
ステム。
8. The speech data providing system according to claim 7, wherein the unknown word conversion dictionary is prepared for each speaker and a description of conversion candidates within a range allowed for each speaker is described.
前記発注者の指定した音声メッセージの発話内容を、前記文書解析結果を用いて他の言
語に翻訳する言語変換手段を有し、前記使用を許可された表現で構成されていると判定さ
れた場合、前記発注者の要求に基づいて、前記音声メッセージの発話内容を当該言語変換
手段によって当該発注者の指定する他の言語に翻訳し、その翻訳された音声メッセージの
発話内容と前記選択された話者の音声特徴データとを用いて音声合成処理することを特徴
とする請求項1から8のいずれか1項に記載の音声データ提供システム。
When it is determined that the utterance content of the voice message designated by the orderer has language conversion means for translating the utterance content of the voice message into another language using the document analysis result, and that the expression is permitted to be used. Based on the request of the orderer, the utterance content of the voice message is translated into another language designated by the orderer by the language conversion means, and the utterance content of the translated voice message and the selected story The voice data providing system according to any one of claims 1 to 8, wherein voice synthesis processing is performed using voice feature data of a person.
発注者の指定した音声メッセージの発話内容とある特定の話者の音声特徴データとを用
いて音声合成処理し、それによって得られた音声合成データを音声データとして提供する
音声データ提供システムに用いられる音声データ作成装置であって、この音声データ作成
装置は、
前記話者の発話内容として使用を許可された表現を記録した使用許可表現記録手段と、
前記発注者の指定した音声メッセージの発話内容を文章解析するとともに、発注者の指
定した音声メッセージの発話内容が、前記話者の発話内容として使用を許可された表現で
構成されているか否かを判定する文書解析手段と、
この文書解析手段によって当該音声メッセージの発話内容が前記使用を許可された表現
で構成されていると判定された場合に、その音声メッセージの発話内容と当該選択された
話者の音声特徴データとを用いて音声合成処理する音声合成手段と、
を有することを特徴とする音声データ作成装置。
Used in a speech data providing system that performs speech synthesis processing using speech content specified by an orderer and speech feature data of a specific speaker and provides the resulting speech synthesis data as speech data An audio data creation device, which is an audio data creation device,
Use permission expression recording means for recording expressions permitted to be used as the speech content of the speaker;
Whether or not the utterance content of the voice message designated by the orderer is analyzed, and whether the utterance content of the voice message designated by the orderer is configured with an expression permitted to be used as the utterance content of the speaker. A document analysis means for judging;
When it is determined by the document analysis means that the utterance content of the voice message is composed of the expression permitted to be used, the utterance content of the voice message and the voice feature data of the selected speaker are obtained. Speech synthesis means for performing speech synthesis using,
An audio data creation device characterized by comprising:
前記使用許可表現記録手段は、前記選択された話者の発話内容として使用を許可された
表現が記述された使用許可表現辞書であって、前記使用を許可された表現で構成されてい
るか否かを判定は、前記音声メッセージの発話内容を文章解析し、その文章解析結果を当
該使用許可表現辞書の内容に照らし合わせて行うことを特徴とする請求10記載の音声デ
ータ作成装置。
The use permission expression recording means is a use permission expression dictionary in which expressions permitted to be used as utterance contents of the selected speaker are described, and is configured with the expressions permitted to use The speech data creation apparatus according to claim 10, wherein the determination is performed by analyzing a sentence of the utterance content of the voice message and comparing the sentence analysis result with the content of the use permission expression dictionary.
前記使用許可表現記録手段は、前記選択された話者の発話内容として使用を許可された
表現で構成されたネットワーク文法であって、前記話者の発話内容として使用を許可され
た表現で構成されているか否かを判定は、前記音声メッセージの発話内容を文章解析し、
その文章解析結果を当該ネットワーク文法の内容に照らし合わせて行うことを特徴とする
請求10記載の音声データ作成装置。
The use permission expression recording means is a network grammar composed of expressions permitted to be used as the utterance content of the selected speaker, and is composed of expressions permitted to be used as the utterance content of the speaker. The determination whether or not is, sentence analysis of the utterance content of the voice message,
11. The voice data creation apparatus according to claim 10, wherein the sentence analysis result is checked against the contents of the network grammar.
前記使用許可表現辞書は、個々の話者対応に用意され、個々の話者において許容される
表現が記述されていることを特徴とする請求項11記載の音声データ作成装置。
12. The speech data creation device according to claim 11, wherein the use permission expression dictionary is prepared for each speaker and describes expressions allowed for each speaker.
前記ネットワーク文法は、個々の話者対応に用意され、個々の話者において許容される
表現で構成されていることを特徴とする請求項12記載の音声データ作成装置。
13. The voice data creation apparatus according to claim 12, wherein the network grammar is prepared for each speaker and is composed of expressions allowed for each speaker.
前記文書解析手段によって前記音声メッセージの発話内容に、前記話者の発話する内容
として使用を許可された表現以外の未知語が含まれていると判定された場合は、その未知
語の存在を前記発注者に提示することを特徴とする請求項10から14のいずれか1項に
記載の音声データ作成装置。
If the utterance content of the voice message is determined by the document analysis means to include an unknown word other than an expression permitted to be used as the utterance content of the speaker, the presence of the unknown word is The voice data creation device according to any one of claims 10 to 14, wherein the voice data creation device is presented to an orderer.
前記使用許可表現辞書またはネットワーク文法に加えて、前記話者の発話する内容とし
て使用を許可された表現以外の未知語を、前記使用を許可された表現に変換するための変
換候補が記述された未知語変換辞書を有し、前記文書解析手段は音声メッセージの発話内
容に未知語が含まれていると判定した場合は、当該未知語変換辞書からその未知語に対す
る変換候補を取得して、その変換候補を前記発注者に提示することを特徴とする請求項1
0から15のいずれか1項に記載の音声データ作成装置。
In addition to the use-permitted expression dictionary or network grammar, conversion candidates for converting an unknown word other than the expression permitted to be used as the content uttered by the speaker into the expression permitted to be used are described. Having an unknown word conversion dictionary, and when the document analysis means determines that the unknown word is included in the utterance content of the voice message, obtains a conversion candidate for the unknown word from the unknown word conversion dictionary, and The conversion candidate is presented to the orderer.
The audio data creation device according to any one of 0 to 15.
前記未知語変換辞書は、個々の話者対応に用意され、個々の話者において許容される範
囲内の変換候補の記述がなされていることを特徴とする請求項16記載の音声データ作成
装置。
17. The speech data creation apparatus according to claim 16, wherein the unknown word conversion dictionary is prepared for each speaker, and conversion candidates within a range allowed for each speaker are described.
前記発注者の指定した音声メッセージの発話内容を、前記文書解析結果を用いて他の言
語に翻訳する言語変換手段を有し、前記使用を許可された表現で構成されていると判定さ
れた場合、前記発注者の要求に基づいて、前記音声メッセージの発話内容を当該言語変換
手段によって当該発注者の指定する他の言語に翻訳し、その翻訳された音声メッセージの
発話内容と前記選択された話者の音声特徴データとを用いて音声合成処理することを特徴
とする請求項10から17のいずれか1項に記載の音声データ作成装置。
When it is determined that the utterance content of the voice message designated by the orderer has language conversion means for translating the utterance content of the voice message into another language using the document analysis result, and that the expression is permitted to be used. Based on the request of the orderer, the utterance content of the voice message is translated into another language designated by the orderer by the language conversion means, and the utterance content of the translated voice message and the selected story The speech data generation apparatus according to any one of claims 10 to 17, wherein speech synthesis processing is performed using a person's speech feature data.
発注者の指定した音声メッセージの発話内容とある特定の話者の音声特徴データとを用
いて音声合成処理し、それによって得られた音声合成データを音声データとして提供する
音声データ作成システムに用いられる音声データ作成プログラムであって、その音声デー
タ作成プログラムは、
前記発注者の指定した音声メッセージの発話内容を受信するとともに、その音声メッセ
ージを発話させる話者の選択情報を受信すると、発注者の指定した音声メッセージの発話
内容が、前記話者の発話内容として使用を許可された表現で構成されているか否かを判定
する手順と、
当該音声メッセージの発話内容が前記使用を許可された表現で構成されていると判定さ
れた場合に、その音声メッセージの発話内容と当該選択された話者の音声特徴データとを
用いて音声合成処理する手順と、
を含むことを特徴とする音声データ作成プログラム。
Used in a speech data creation system that performs speech synthesis processing using speech content specified by an orderer and speech feature data of a specific speaker and provides the resulting speech synthesis data as speech data An audio data creation program, which is an audio data creation program,
When the utterance content of the voice message designated by the orderer is received and the selection information of the speaker who utters the voice message is received, the utterance content of the voice message designated by the orderer is used as the utterance content of the speaker. A procedure for determining whether or not it is composed of a permitted expression;
When it is determined that the utterance content of the voice message is composed of the expression permitted to be used, the speech synthesis process using the utterance content of the voice message and the voice feature data of the selected speaker And the steps to
An audio data creation program characterized by comprising:
前記使用を許可された表現で構成されているか否かを判定は、前記音声メッセージの発
話内容を文章解析し、その文章解析結果を前記選択された話者の発話内容として使用を許
可された表現が記述された使用許可表現辞書の内容に照らし合わせて行うことを特徴とす
る請求項19記載の音声データ作成プログラム。
The determination as to whether or not the expression is permitted to be used is performed by analyzing the utterance content of the voice message and using the sentence analysis result as the utterance content of the selected speaker. 20. The voice data creation program according to claim 19, wherein the voice data creation program is performed in light of the contents of the use permission expression dictionary in which is described.
前記使用を許可された表現で構成されているか否かを判定は、前記音声メッセージの発
話内容を文章解析し、その文章解析結果を前記選択された話者の発話内容として使用を許
可された表現で構成されたネットワーク文法の内容に照らし合わせて行うことを特徴とす
る請求項19記載の音声データ作成プログラム。
The determination as to whether or not the expression is permitted to be used is performed by analyzing the utterance content of the voice message and using the sentence analysis result as the utterance content of the selected speaker. 20. The voice data creation program according to claim 19, wherein the voice data creation program is performed in light of the content of the network grammar formed by
前記音声メッセージの発話内容に、前記話者の発話する内容として使用を許可された表
現以外の未知語が含まれている場合は、その未知語の存在を前記発注者に提示することを
特徴とする請求項19から21のいずれか1項に記載の音声データ作成プログラム。
When the speech content of the voice message includes an unknown word other than an expression permitted to be used as the speech content of the speaker, the presence of the unknown word is presented to the orderer. The sound data creation program according to any one of claims 19 to 21.
前記音声メッセージの発話内容に、前記話者の発話する内容として使用を許可された表
現以外の未知語が含まれている場合は、その未知語を、前記使用を許可された表現に変換
するための変換候補を前記発注者に提示することを特徴とする請求項19から22のいず
れか1項に記載の音声データ作成プログラム。
If the utterance content of the voice message includes an unknown word other than the expression permitted to be used as the content of the speaker, the unknown word is converted into the expression permitted to be used. The voice data creation program according to any one of claims 19 to 22, wherein the conversion candidate is presented to the orderer.
前記不適切な表現が含まれていないことが判定された場合、前記発注者の要求に基づい
て、前記音声メッセージの発話内容を、言語変換手段を用いて当該発注者の指定する他の
言語に翻訳し、その翻訳された音声メッセージの発話内容と前記選択された話者の音声特
徴データとを用いて音声合成処理することを特徴とする請求項19から23のいずれか1
項に記載の音声データ作成プログラム。
When it is determined that the inappropriate expression is not included, based on the request of the orderer, the utterance content of the voice message is converted into another language designated by the orderer using language conversion means. 24. The speech synthesis process is performed using the speech content of the translated voice message and the voice feature data of the selected speaker.
The audio data creation program described in the section.
JP2009148359A 2009-06-23 2009-06-23 Audio data generation apparatus and audio data generation method Expired - Fee Related JP4840476B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009148359A JP4840476B2 (en) 2009-06-23 2009-06-23 Audio data generation apparatus and audio data generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009148359A JP4840476B2 (en) 2009-06-23 2009-06-23 Audio data generation apparatus and audio data generation method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2003060266A Division JP4356334B2 (en) 2003-03-06 2003-03-06 Audio data providing system and audio data creating apparatus

Publications (2)

Publication Number Publication Date
JP2009217846A true JP2009217846A (en) 2009-09-24
JP4840476B2 JP4840476B2 (en) 2011-12-21

Family

ID=41189548

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009148359A Expired - Fee Related JP4840476B2 (en) 2009-06-23 2009-06-23 Audio data generation apparatus and audio data generation method

Country Status (1)

Country Link
JP (1) JP4840476B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021136A (en) * 2012-07-12 2014-02-03 Yahoo Japan Corp Speech synthesis system
WO2015040751A1 (en) * 2013-09-20 2015-03-26 株式会社東芝 Voice selection assistance device, voice selection method, and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03217900A (en) * 1990-01-24 1991-09-25 Oki Electric Ind Co Ltd Text voice synthesizing device
JPH05165486A (en) * 1991-12-18 1993-07-02 Oki Electric Ind Co Ltd Text voice transforming device
JPH08123457A (en) * 1994-10-21 1996-05-17 Oki Electric Ind Co Ltd Undefined code detecting device of text speech conversion system
JPH11215248A (en) * 1998-01-28 1999-08-06 Uniden Corp Communication system and its radio communication terminal
JP2000214874A (en) * 1999-01-26 2000-08-04 Canon Inc Sound synthesizing apparatus and its method, and computer-readable memory
JP2001255884A (en) * 2000-03-13 2001-09-21 Antena:Kk Voice synthesis system, voice delivery system capable of order-accepting and delivering voice messages using the voice synthesis system, and voice delivery method
JP2002023777A (en) * 2000-06-26 2002-01-25 Internatl Business Mach Corp <Ibm> Voice synthesizing system, voice synthesizing method, server, storage medium, program transmitting device, voice synthetic data storage medium and voice outputting equipment
JP2002221981A (en) * 2001-01-25 2002-08-09 Canon Inc Voice synthesizer and voice synthesizing method
JP2003140677A (en) * 2001-11-06 2003-05-16 Matsushita Electric Ind Co Ltd Read-aloud system
JP2003216186A (en) * 2002-01-21 2003-07-30 Arcadia:Kk Speech data distribution management system and its method
JP2003308541A (en) * 2002-04-16 2003-10-31 Arcadia:Kk Promotion system and method, and virtuality/actuality compatibility system and method

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH03217900A (en) * 1990-01-24 1991-09-25 Oki Electric Ind Co Ltd Text voice synthesizing device
JPH05165486A (en) * 1991-12-18 1993-07-02 Oki Electric Ind Co Ltd Text voice transforming device
JPH08123457A (en) * 1994-10-21 1996-05-17 Oki Electric Ind Co Ltd Undefined code detecting device of text speech conversion system
JPH11215248A (en) * 1998-01-28 1999-08-06 Uniden Corp Communication system and its radio communication terminal
JP2000214874A (en) * 1999-01-26 2000-08-04 Canon Inc Sound synthesizing apparatus and its method, and computer-readable memory
JP2001255884A (en) * 2000-03-13 2001-09-21 Antena:Kk Voice synthesis system, voice delivery system capable of order-accepting and delivering voice messages using the voice synthesis system, and voice delivery method
JP2002023777A (en) * 2000-06-26 2002-01-25 Internatl Business Mach Corp <Ibm> Voice synthesizing system, voice synthesizing method, server, storage medium, program transmitting device, voice synthetic data storage medium and voice outputting equipment
JP2002221981A (en) * 2001-01-25 2002-08-09 Canon Inc Voice synthesizer and voice synthesizing method
JP2003140677A (en) * 2001-11-06 2003-05-16 Matsushita Electric Ind Co Ltd Read-aloud system
JP2003216186A (en) * 2002-01-21 2003-07-30 Arcadia:Kk Speech data distribution management system and its method
JP2003308541A (en) * 2002-04-16 2003-10-31 Arcadia:Kk Promotion system and method, and virtuality/actuality compatibility system and method

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021136A (en) * 2012-07-12 2014-02-03 Yahoo Japan Corp Speech synthesis system
WO2015040751A1 (en) * 2013-09-20 2015-03-26 株式会社東芝 Voice selection assistance device, voice selection method, and program
CN105531757A (en) * 2013-09-20 2016-04-27 株式会社东芝 Voice selection assistance device, voice selection method, and program
US9812119B2 (en) 2013-09-20 2017-11-07 Kabushiki Kaisha Toshiba Voice selection supporting device, voice selection method, and computer-readable recording medium

Also Published As

Publication number Publication date
JP4840476B2 (en) 2011-12-21

Similar Documents

Publication Publication Date Title
US7987244B1 (en) Network repository for voice fonts
CN104380373B (en) The system and method pronounced for title
US8712776B2 (en) Systems and methods for selective text to speech synthesis
Iskra et al. Speecon-speech databases for consumer devices: Database specification and validation
JP4296231B2 (en) Voice quality editing apparatus and voice quality editing method
US5911129A (en) Audio font used for capture and rendering
US7472065B2 (en) Generating paralinguistic phenomena via markup in text-to-speech synthesis
US8352268B2 (en) Systems and methods for selective rate of speech and speech preferences for text to speech synthesis
US8352272B2 (en) Systems and methods for text to speech synthesis
TWI281146B (en) Apparatus and method for synthesized audible response to an utterance in speaker-independent voice recognition
US20100082327A1 (en) Systems and methods for mapping phonemes for text to speech synthesis
US20100082347A1 (en) Systems and methods for concatenation of words in text to speech synthesis
US20100082328A1 (en) Systems and methods for speech preprocessing in text to speech synthesis
JP2002366186A (en) Method for synthesizing voice and its device for performing it
JP2015517684A (en) Content customization
CN1692403A (en) Speech synthesis apparatus with personalized speech segments
WO2009006081A2 (en) Pronunciation correction of text-to-speech systems between different spoken languages
JP2010020166A (en) Voice synthesis model generation device and system, communication terminal, and voice synthesis model generation method
TW200901161A (en) Speech synthesizer generating system and method
JP2018005048A (en) Voice quality conversion system
JP2007328283A (en) Interaction system, program and interactive method
JP4840476B2 (en) Audio data generation apparatus and audio data generation method
JP4244661B2 (en) Audio data providing system, audio data generating apparatus, and audio data generating program
JP4356334B2 (en) Audio data providing system and audio data creating apparatus
JP2011064969A (en) Device and method of speech recognition

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090706

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090706

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110906

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110919

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141014

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees