JP6897132B2 - Speech processing methods, audio processors and programs - Google Patents
Speech processing methods, audio processors and programs Download PDFInfo
- Publication number
- JP6897132B2 JP6897132B2 JP2017022418A JP2017022418A JP6897132B2 JP 6897132 B2 JP6897132 B2 JP 6897132B2 JP 2017022418 A JP2017022418 A JP 2017022418A JP 2017022418 A JP2017022418 A JP 2017022418A JP 6897132 B2 JP6897132 B2 JP 6897132B2
- Authority
- JP
- Japan
- Prior art keywords
- voice
- signal
- character string
- language
- designated character
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本発明は、特定の文字列を発音した音声を合成する技術に関する。 The present invention relates to a technique for synthesizing a voice in which a specific character string is pronounced.
例えば電車等の交通機関または店舗等の商業施設では、利用者を案内するための様々な音声が放音される。例えば特許文献1には、例えば素片接続型等の公知の音声合成処理により案内音声を生成して施設内の放音装置から再生する構成が開示されている。 For example, in transportation such as trains or commercial facilities such as stores, various voices for guiding users are emitted. For example, Patent Document 1 discloses a configuration in which a guidance voice is generated by a known voice synthesis process such as a piece connection type and reproduced from a sound emitting device in a facility.
ところで、特定の言語(以下「第1言語」という)で表現された案内音声には、他言語(以下「第2言語」という)に対応する音声が含まれる場合がある。例えば、日本語で表現された駅名または地名等の固有名詞が、英語で表現された案内音声に含まれ得る。しかし、第1言語を前提とした音声合成処理により、第2言語で表現された文字列の音声を合成した場合には、音韻(発音内容)および抑揚が聴感的に自然な音声を合成することは実際には困難である。例えば、「タテヤマ(tateyama)」という日本語の地名を発音した音声の合成に英語用の音声合成処理を利用した場合には、「タテイアマ(tateiama)」といった音声が生成される可能性がある。以上の事情を考慮して、本発明は、第1言語で表現された特定の文字列に第2言語の部分が含まれる場合でも音韻および抑揚が聴感的に自然な音声を合成することを目的とする。 By the way, the guidance voice expressed in a specific language (hereinafter referred to as "first language") may include voice corresponding to another language (hereinafter referred to as "second language"). For example, a proper noun such as a station name or a place name expressed in Japanese may be included in the guidance voice expressed in English. However, when the speech of the character string expressed in the second language is synthesized by the speech synthesis process premised on the first language, the phoneme (pronunciation content) and the intonation are audibly natural. Is actually difficult. For example, when the speech synthesis process for English is used to synthesize the speech that pronounces the Japanese place name "tateyama", the speech "tateiama" may be generated. In consideration of the above circumstances, it is an object of the present invention to synthesize a voice in which the phoneme and intonation are audibly natural even when a specific character string expressed in the first language contains a part in the second language. And.
以上の課題を解決するために、本発明の好適な態様に係る音声処理方法は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成し、前記音声信号の生成においては、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。
また、本発明の好適な態様に係る音声処理装置は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成部を具備し、前記音声合成部は、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。
In order to solve the above problems, the voice processing method according to the preferred embodiment of the present invention includes a voice in which the first part of the designated character string is pronounced in the first language and the first of the designated character strings. A voice signal representing a voice that pronounces a second part different from the part is generated, and in the generation of the voice signal, the second part is a voice synthesis for a second language different from the first language. Execute voice synthesis processing using data.
Further, in the voice processing device according to the preferred embodiment of the present invention, the voice obtained by pronouncing the first part of the designated character string in the first language and the second part of the designated character string are different from the first part. The voice synthesis unit includes a voice synthesis unit that generates a voice signal representing a voice that pronounces a portion, and the voice synthesis unit uses voice synthesis data for a second language different from the first language for the second part. Execute the voice synthesis process.
<第1実施形態>
図1は、本発明の第1実施形態に係る音声処理装置100の構成図である。図1に例示される通り、第1実施形態の音声処理装置100は、電車等の交通機関の施設内(例えば駅構内)に設置され、当該施設に関する案内を表す音声(以下「案内音声」という)Gを施設内の利用者に対して放音する音響システムである。
<First Embodiment>
FIG. 1 is a configuration diagram of a
案内音声Gは、音声処理装置100の管理者が指定した文字列(以下「指定文字列」という)Qを発音した音声である。図2には、“We have found a child, who tells us his name is Yuki Suzuki.”(スズキユウキちゃんという迷子のお子様がお待ちでございます)という英語の指定文字列Qが例示されている。図2に例示される通り、第1実施形態の指定文字列Qは、定型部分Qaと非定型部分Qbとを含んで構成される。
The guidance voice G is a voice that pronounces a character string (hereinafter referred to as “designated character string”) Q designated by the administrator of the
定型部分Qa(第1部分の例示)は、事前に内容が想定される定型的な文字列であり、特定の言語(以下「第1言語」という)の語句で構成される。図2では、第1言語の例示である英語で表現された定型部分Qaが例示されている。他方、非定型部分Qb(第2部分の例示)は、例えば施設内の状況に応じて変更される非定型の文字列である。例えば図2に例示される通り、施設内の迷子の子供の名前等の固有名詞の部分が非定型部分Qbの典型例である。非定型部分Qbは、第1言語とは相違する言語(以下「第2言語」という)の語句であり得る。図2に例示された指定文字列Qのうち名前を表す“Yuki Suzuki”という語句が非定型部分Qbである。すなわち、非定型部分Qbは、例えば通常は日本語として使用される固有名詞(例えば日本人の名前または日本国内の地名)である。定型部分Qaは、案内の概略的かつ基本的な内容を表現し、非定型部分Qbは、案内に関する個別的または具体的な内容を表現する、と換言することも可能である。なお、図2では1個の非定型部分Qbを含む指定文字列Qを例示したが、複数の非定型部分Qbを1個の指定文字列Qに含めてもよい。 The standard part Qa (example of the first part) is a standard character string whose content is expected in advance, and is composed of words and phrases of a specific language (hereinafter referred to as "first language"). In FIG. 2, a fixed form Qa expressed in English, which is an example of the first language, is illustrated. On the other hand, the atypical part Qb (example of the second part) is, for example, an atypical character string that is changed according to the situation in the facility. For example, as illustrated in FIG. 2, the part of the proper noun such as the name of the lost child in the facility is a typical example of the atypical part Qb. The atypical part Qb can be a phrase in a language different from the first language (hereinafter referred to as "second language"). Among the designated character strings Q illustrated in FIG. 2, the phrase “Yuki Suzuki” representing the name is the atypical part Qb. That is, the atypical part Qb is, for example, a proper noun usually used as Japanese (for example, a Japanese name or a place name in Japan). It can be paraphrased that the standard part Qa expresses the general and basic contents of the guidance, and the atypical part Qb expresses the individual or specific contents regarding the guidance. Although the designated character string Q including one atypical portion Qb is illustrated in FIG. 2, a plurality of atypical portion Qb may be included in one designated character string Q.
図1に例示される通り、音声処理装置100は、制御装置11と記憶装置12と表示装置13と操作装置14と放音装置15とを具備するコンピュータシステムである。例えばタブレット端末またはパーソナルコンピュータ等の情報端末が音声処理装置100として利用され得る。なお、例えば、鉄道事業者の施設内に設置される電光掲示板、または商業施設に設置される電子看板(例えばデジタルサイネージ)等の案内用の表示端末を、音声処理装置100として利用することも可能である。また、音声処理装置100は、単体の装置で実現されるほか、相互に別体で構成された複数の装置(すなわちシステム)でも実現され得る。
As illustrated in FIG. 1, the
表示装置13(例えば液晶表示パネル)は、制御装置11による制御のもとで各種の画像を表示する。操作装置14は、管理者からの指示を受付ける入力機器である。例えば、管理者が操作可能な複数の操作子、または、表示装置13の表示面に対する接触を検知するタッチパネルが、操作装置14として好適に利用される。第1実施形態では、音声処理装置100の管理者は、操作装置14を適宜に操作することで、事前に用意された複数の候補から指定文字列Qの定型部分Qaを選択するとともに、迷子の子供の名前等の任意の文字列を非定型部分Qbとして指定することが可能である。
The display device 13 (for example, a liquid crystal display panel) displays various images under the control of the
制御装置11は、例えばCPU(Central Processing Unit)等の処理回路で構成され、音声処理装置100の各要素を統括的に制御する。具体的には、第1実施形態の制御装置11は、指定文字列Qを発音した音声を表す音声信号Xを生成する。放音装置15は、制御装置11が生成した音声信号Xに応じた音声を再生する。なお、制御装置11が生成した音声信号Xをデジタルからアナログに変換するD/A変換器の図示は便宜的に省略した。記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。例えば半導体記録媒体または磁気記録媒体等の公知の記録媒体が記憶装置12として採用され得る。
The
第1実施形態の記憶装置12は、相異なる定型部分Qaに対応する複数の収録信号Rを記憶する。任意の1個の定型部分Qaに対応する収録信号Rは、定型部分Qaを発音した音声(すなわち第1言語で表現された音声)を表す信号である。複数の定型部分Qaの各々を特定の発声者に順次に発音させ、当該発声音を収音機器により収録することで複数の収録信号Rが生成される。発声音の収録により生成された複数の収録信号Rが事前(すなわち音声信号Xの生成前)に記憶装置12に格納される。
The
非定型部分Qbは、単発的に必要となる文字列であるから、収録信号Rを事前に用意することは困難である。また、新規に設置された店舗等の施設で使用される指定文字列Qについては収録信号Rが収録されていない場合が想定される。以上の事情を考慮して、第1実施形態では、非定型部分Qbを音声合成処理により生成する。 Since the atypical portion Qb is a character string that is required sporadically, it is difficult to prepare the recording signal R in advance. Further, it is assumed that the recording signal R is not recorded for the designated character string Q used in the newly installed facility such as a store. In consideration of the above circumstances, in the first embodiment, the atypical portion Qb is generated by the voice synthesis process.
図1に例示される通り、第1実施形態の記憶装置12は、第2言語用の音声合成プログラムP2および音声合成データD2とを記憶する。音声合成プログラムP2は、第2言語の任意の文字列に対応する音声を合成する音声合成処理を実現するためのソフトウェア(音声合成エンジン)である。第1実施形態では、複数の音声素片を時間軸上で相互に接続する素片接続型の音声合成処理を例示する。
As illustrated in FIG. 1, the
音声合成データD2は、非定型部分Qbの音声合成処理に利用される。第1実施形態では、素片接続型の音声合成処理により非定型部分Qbの音声を合成する場合を想定する。図1に例示される通り、音声合成データD2は、発音規則データDa2と音声素片データDb2とを記憶する。発音規則データDa2は、第2言語の文字列と発音記号との関係(すなわち、文字列を発音記号に変換する規則)を規定する。音声素片データDb2は、複数の音声素片の集合(音声合成用ライブラリ)である。各音声素片は、例えば母音もしくは子音等の音素単体、または、複数の音素を連結した音素連鎖(例えばダイフォンまたはトライフォン)である。第1実施形態では、第2言語の語句を発音した音声から採取された複数の音声素片が音声素片データDb2に登録される。 The voice synthesis data D2 is used for the voice synthesis processing of the atypical portion Qb. In the first embodiment, it is assumed that the voice of the atypical portion Qb is synthesized by the voice synthesis processing of the elemental connection type. As illustrated in FIG. 1, the voice synthesis data D2 stores the pronunciation rule data Da2 and the voice element data Db2. The phonetic rule data Da2 defines the relationship between the second language character string and the phonetic symbol (that is, the rule for converting the character string into the phonetic symbol). The voice element data Db2 is a set of a plurality of voice element pieces (speech synthesis library). Each phoneme piece is, for example, a single phoneme such as a vowel or a consonant, or a phoneme chain (for example, a diphone or a triphone) in which a plurality of phonemes are connected. In the first embodiment, a plurality of voice elements collected from the voices that pronounce the words in the second language are registered in the voice element data Db2.
図4は、制御装置11の機能に着目した構成図である。図4に例示される通り、第1実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、指定文字列Qの音声信号Xを生成するための複数の機能(文字列設定部22および音声合成部24A)を実現する。なお、制御装置11の一部の機能を専用の電子回路で実現した構成、または、制御装置11の機能を複数の装置に分散した構成も採用され得る。
FIG. 4 is a configuration diagram focusing on the function of the
文字列設定部22は、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。具体的には、第1実施形態の文字列設定部22は、操作装置14に対する管理者からの指示に応じて定型部分Qaと非定型部分Qbとを設定する。例えば、文字列設定部22は、操作装置14に対する操作で管理者が複数の候補から選択した文字列を定型部分Qaとして設定する。また、文字列設定部22は、操作装置14に対する操作で管理者が指定した任意の文字列を非定型部分Qbとして設定する。例えば図3に例示される通り、表示装置13に表示された入力欄132に管理者が入力した文字列が非定型部分Qbとして設定される。なお、非定型部分Qbを定型部分Qaとは別個の文字種(例えば片仮名)により指定することも可能である。例えば、外国人の名前を、日本人が聴取した通りの片仮名で非定型部分Qbとして指定する。
The character
図4の音声合成部24Aは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。図4に例示される通り、第1実施形態の音声合成部24Aは、第1処理部32Aと第2処理部34と接続処理部36とを含んで構成される。
The
第1処理部32Aは、文字列設定部22が設定した指定文字列Qの定型部分Qaの音声を表す第1信号X1を生成する。第1実施形態の第1処理部32Aは、記憶装置12に記憶された複数の収録信号Rのうち定型部分Qaに対応する1個の収録信号Rを第1信号X1として選択する。第2処理部34は、文字列設定部22が設定した指定文字列Qの非定型部分Qbに対応する音声を表す第2信号X2を生成する。第1実施形態の第2処理部34は、制御装置11が音声合成プログラムP2を実行することで実現され、記憶装置12に記憶された第2言語用の音声合成データD2を利用した音声合成処理により第2信号X2を生成する。接続処理部36は、第1処理部32Aが生成した第1信号X1と第2処理部34が生成した第2信号X2とを相互に接続することで音声信号Xを生成する。
The
図5は、第1実施形態の音声合成部24Aが音声信号Xを生成する処理(以下「信号生成処理」という)のフローチャートである。文字列設定部22による指定文字列Qの設定毎に信号生成処理が実行される。
FIG. 5 is a flowchart of a process (hereinafter referred to as “signal generation process”) in which the
信号生成処理を開始すると、第1処理部32Aは、文字列設定部22が設定した指定文字列Qの定型部分Qaに対応する音声を表す第1信号X1を複数の収録信号Rから選択する(Sa1:第1処理)。すなわち、複数の収録信号Rのうち指定文字列Qの定型部分Qaに対応する1個の収録信号Rが第1信号X1として選択される。第1信号X1は、定型部分Qaを発音した第1言語の音声を表す信号である。
When the signal generation process is started, the
第2処理部34は、文字列設定部22が設定した指定文字列Qの非定型部分Qbの音声を表す第2信号X2を音声合成処理により生成する(Sa2:第2処理)。第1実施形態の第2処理部34は、以下に詳述する通り、記憶装置12に記憶された第2言語用の音声合成データD2を利用した音声合成処理により第2信号X2を生成する(Sa21−Sa24)。
The
まず、第2処理部34は、音声合成データD2の発音規則データDa2を参照することで、非定型部分Qbに対応する発音記号を決定する(Sa21)。第1実施形態の発音規則データDa2は、第2言語(例えば日本語)の文字列と発音記号との関係を規定する。したがって、ステップSa21では、第2言語の語句として自然な読み方と認識される発音記号が非定型部分Qbから決定される。
First, the
また、第2処理部34は、非定型部分Qbの発音記号に対応する複数の音声素片を音声素片データDb2から選択する(Sa22)。そして、第2処理部34は、音声素片データDb2から選択した各音声素片の特性を適宜に調整する(Sa23)。例えば、案内音声Gの抑揚に影響する音高および音量が調整される。第2処理部34は、調整後の複数の音声素片を時間軸上で相互に接続することで第2信号X2を生成する(Sa24)。前述の通り、第1実施形態の音声素片データDb2には、第2言語(例えば日本語)を発音した音声から採取された複数の音声素片が登録される。したがって、ステップSa24では、第2言語の音声として聴感的に自然な音声を表す第2信号X2が生成される。なお、第1処理Sa1と第2処理Sa2との先後を逆転することも可能である。
Further, the
以上の処理が完了すると、接続処理部36は、第1処理Sa1で生成した第1信号X1と第2処理Sa2(Sa21−Sa24)で生成した第2信号X2とを接続することで音声信号Xを生成する(Sa3:接続処理)。具体的には、第1信号X1のうち非定型部分Qbに対応した区間に第2信号X2を挿入することで音声信号Xが生成される。すなわち、第1実施形態の音声合成部24Aは、指定文字列Qの定型部分Qaを第1言語で発音した音声と、指定文字列Qの非定型部分Qbを第2言語で発音した音声とを表す音声信号Xを生成する。音声合成部24Aが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。
When the above processing is completed, the
以上に説明した通り、第1実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の音声合成データD2を利用した音声合成処理が実行される。したがって、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。 As described above, in the first embodiment, the voice synthesis process using the voice synthesis data D2 for the second language is executed for the atypical portion Qb of the designated character string Q. Therefore, it is possible to reproduce the guidance voice G whose phonology and intonation are audibly natural for the atypical portion Qb.
<第2実施形態>
本発明の第2実施形態について説明する。以下に例示する各構成において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
<Second Embodiment>
A second embodiment of the present invention will be described. For the elements whose actions or functions are the same as those of the first embodiment in each of the configurations exemplified below, the reference numerals used in the description of the first embodiment will be diverted and detailed description of each will be omitted as appropriate.
図6は、第2実施形態に係る音声処理装置100の構成図である。図6に例示される通り、第2実施形態の記憶装置12は、第1実施形態で例示した第2言語用の音声合成プログラムP2および音声合成データD2のほか、第1言語用の音声合成プログラムP1および音声合成データD1を記憶する。音声合成プログラムP1は、第1言語の任意の文字列に対応する音声を合成する音声合成処理を実現するためのソフトウェア(音声合成エンジン)である。
FIG. 6 is a configuration diagram of the
音声合成データD1は、音声合成プログラムP1による音声合成処理に利用されるデータであり、発音規則データDa1と音声素片データDb1とを含んで構成される。発音規則データDa1は、第1言語の文字列と発音記号との関係を規定する。音声素片データDb1は、第1言語の語句を発音した音声から採取された複数の音声素片の集合である。なお、第1実施形態で例示した複数の収録信号Rは、第2実施形態では省略される。 The voice synthesis data D1 is data used for voice synthesis processing by the voice synthesis program P1, and includes pronunciation rule data Da1 and voice fragment data Db1. The pronunciation rule data Da1 defines the relationship between the character string of the first language and the phonetic symbol. The speech fragment data Db1 is a set of a plurality of speech fragments collected from the speech that pronounces a phrase in the first language. The plurality of recorded signals R illustrated in the first embodiment are omitted in the second embodiment.
図7は、制御装置11の機能に着目した構成図である。図7に例示される通り、第2実施形態の制御装置11は、文字列設定部22および音声合成部24Bとして機能する。文字列設定部22は、第1実施形態と同様に、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。
FIG. 7 is a configuration diagram focusing on the function of the
音声合成部24Bは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。第2実施形態の音声合成部24Bは、第1実施形態の音声合成部24Aにおける第1処理部32Aを第1処理部32Bに置換した構成である。第2実施形態の第1処理部32Bは、第1言語用の音声合成プログラムP1を制御装置11が実行することで実現され、記憶装置12に記憶された第1言語用の音声合成データD1を利用した音声合成処理により第1信号X1を生成する。第2処理部34および接続処理部36の機能は第1実施形態と同様である。
The voice synthesis unit 24B generates a voice signal X representing the guidance voice G that pronounces the designated character string Q set by the character
図8は、第2実施形態の音声合成部24Bが音声信号Xを生成する信号生成処理のフローチャートである。信号生成処理を開始すると、第1処理部32Bは、指定文字列Qの定型部分Qaの音声を表す第1信号X1を音声合成処理により生成する(Sb1:第1処理)。第2実施形態の第1処理部32Bは、以下に詳述する通り、記憶装置12に記憶された第1言語用の音声合成データD1を利用した音声合成処理により第1信号X1を生成する(Sb11−Sb14)。
FIG. 8 is a flowchart of a signal generation process in which the voice synthesis unit 24B of the second embodiment generates a voice signal X. When the signal generation process is started, the
具体的には、第1処理部32Bは、第1言語用の発音規則データDa1を参照することで、定型部分Qaに対応する発音記号を決定する(Sb11)。したがって、第1言語の語句として自然な読み方と認識される発音記号が定型部分Qaから決定される。また、第1処理部32Bは、定型部分Qaの発音記号に対応する複数の音声素片を第1言語用の音声素片データDb1から選択し(Sb12)、各音声素片の特性を適宜に調整する(Sb13)。そして、第1処理部32Bは、調整後の複数の音声素片を時間軸上で相互に接続することで第1信号X1を生成する(Sb14)。前述の通り、音声素片データDb2には、第1言語を発音した音声から採取された複数の音声素片が登録されるから、第1言語の音声として聴感的に自然な音声を表す第1信号X1が生成される。
Specifically, the
第2処理部34は、第1実施形態と同様に、指定文字列Qの非定型部分Qbの音声を表す第2信号X2を、第2言語用の音声合成データD2を利用した音声合成処理により生成する(Sb2:第2処理)。第2処理部34が第2信号X2を生成する第2処理Sb2の内容は、第1実施形態の第2処理Sa2(Sa21−Sa24)と同様である。すなわち、第2処理部34は、第2言語用の発音規則データDa2を利用して非定型部分Qbの発音記号を決定する処理(Sb21)と、発音記号に対応する複数の音声素片を第2言語用の音声素片データDb2から選択する処理(Sb22)と、各音声素片の調整(Sb23)および接続(Sb24)により第2信号X2を生成する処理とを実行する。なお、第1処理Sb1と第2処理Sb2との先後を逆転することも可能である。
Similar to the first embodiment, the
以上の処理が完了すると、接続処理部36は、第1処理Sb1(Sb11−Sb14)で生成した第1信号X1と第2処理Sb2(Sb21−Sb24)で生成した第2信号X2とを接続することで音声信号Xを生成する(Sb3:接続処理)。すなわち、第2実施形態の音声合成部24Bは、第1実施形態と同様に、指定文字列Qの定型部分Qaを第1言語で発音した音声と、指定文字列Qの非定型部分Qbを第2言語で発音した音声とを表す音声信号Xを生成する。音声合成部24Bが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。
When the above processing is completed, the
以上に説明した通り、第2実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の音声合成データD2を利用した音声合成処理が実行される。したがって、第1実施形態と同様に、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。 As described above, in the second embodiment, the voice synthesis process using the voice synthesis data D2 for the second language is executed for the atypical portion Qb of the designated character string Q. Therefore, as in the first embodiment, it is possible to reproduce the guidance voice G whose phoneme and intonation are audibly natural for the atypical portion Qb.
また、第2実施形態では、定型部分Qaの音声を表す第1信号X1が、第1言語用の音声合成データD1を利用した音声合成処理により生成される。したがって、第1実施形態と比較して、複数の収録信号Rを事前に用意して記憶装置12に格納する必要がないという利点がある。他方、収録信号Rの音質は、音声合成処理で生成される第1信号X1の音質を一般的には上回る。以上の事情を考慮すると、事前に用意された複数の収録信号Rを選択的に第1信号X1として利用する第1実施形態によれば、第2実施形態と比較して、定型部分Qaの音質が高い音声信号Xを生成できるという利点がある。また、第1実施形態では、第1言語用の音声合成処理(第1処理Sb1)が不要であるから、制御装置11の処理負荷が軽減されるという利点もある。
Further, in the second embodiment, the first signal X1 representing the voice of the fixed form portion Qa is generated by the voice synthesis process using the voice synthesis data D1 for the first language. Therefore, as compared with the first embodiment, there is an advantage that it is not necessary to prepare a plurality of recorded signals R in advance and store them in the
<第3実施形態>
図9は、第3実施形態に係る音声処理装置100の構成図である。図9に例示される通り、第3実施形態の記憶装置12は、第1言語用の音声合成プログラムP1および音声合成データD1と、第2言語用の発音規則データDa2(音声合成データD2)とを記憶する。第1言語用の音声合成データD1は、発音規則データDa1と音声素片データDb1とを含んで構成される。第2言語用の発音規則データDa2は、第1実施形態で前述した通り、第2言語の文字列と発音記号との関係を規定する。
<Third Embodiment>
FIG. 9 is a configuration diagram of the
図10は、制御装置11の機能に着目した構成図である。図10に例示される通り、第3実施形態の制御装置11は、文字列設定部22および音声合成部24Cとして機能する。文字列設定部22は、第1実施形態と同様に、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。
FIG. 10 is a configuration diagram focusing on the function of the
音声合成部24Cは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。第3実施形態の音声合成部24Cは、第1言語の音声合成プログラムP1により実現される。音声信号Xの生成において、音声合成部24Cは、第1言語用の発音規則データDa1により定型部分Qaの発音記号を決定し、第2言語用の発音規則データDa2により非定型部分Qbの発音記号を決定する。
The
図11は、第3実施形態の音声合成部24Cが音声信号Xを生成する処理(音声合成処理)のフローチャートである。文字列設定部22による指定文字列Qの設定毎に音声合成処理が実行される。
FIG. 11 is a flowchart of a process (voice synthesis process) in which the
音声合成処理を開始すると、音声合成部24Cは、文字列設定部22が設定した指定文字列Qの定型部分Qaに対応する発音記号を、第1言語用の発音規則データDa1を参照して決定する(Sc1)。したがって、第1言語の語句として自然な読み方と認識される発音記号が定型部分Qaから決定される。
When the speech synthesis process is started, the
また、音声合成部24Cは、指定文字列Qの非定型部分Qbに対応する発音記号を、第2言語用の発音規則データDa2を参照して決定する(Sc2)。したがって、第2言語の語句として自然な読み方と認識される発音記号が非定型部分Qbから決定される。なお、定型部分Qaの発音記号の決定(Sc1)と非定型部分Qbの発音記号の決定(Sc2)との先後を逆転することも可能である。
Further, the
音声合成部24Cは、定型部分Qaおよび非定型部分Qbについて決定した発音記号の音声を表す音声信号Xを生成する(Sc3)。具体的には、音声合成部24Cは、まず、定型部分Qaおよび非定型部分Qbの発音記号に対応する複数の音声素片を音声素片データDb1から選択する(Sc31)。そして、音声合成部24Cは、音声素片データDb1から選択した各音声素片の特性を適宜に調整し(Sc32)、調整後の複数の音声素片を時間軸上で相互に接続することで音声信号Xを生成する(Sc33)。音声合成部24Cが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。
The
第3実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の発音規則データDa2(音声合成データD2)を利用した音声合成処理が実行される。したがって、第1実施形態と同様に、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。 In the third embodiment, the voice synthesis process using the pronunciation rule data Da2 (speech synthesis data D2) for the second language is executed for the atypical part Qb of the designated character string Q. Therefore, as in the first embodiment, it is possible to reproduce the guidance voice G whose phoneme and intonation are audibly natural for the atypical portion Qb.
また、第3実施形態では、音声合成プログラムP1および音声素片データDb1を利用して音声信号Xが生成されるから、第1実施形態および第2実施形態で例示した第2言語用の音声合成プログラムP2および音声素片データDb2は不要である。したがって、第1言語用の音声合成プログラムP1および音声素片データDb1と第2言語用の音声合成プログラムP2および音声素片データDb2とが必要な第2実施形態と比較して、記憶装置12に必要な記憶容量が削減されるという利点もある。また、第3実施形態では、第1信号X1と第2信号X2とを接続する接続処理(Sa3,Sb3)が不要である。例えば、第1信号X1と第2信号X2との時間的な関係を調整する処理(すなわち、第1信号X1のうち非定型部分Qbに対応した区間に第2信号X2を移動する処理)が不要である。したがって、定型部分Qaと非定型部分Qbとが自然に連結された案内音声Gが再生されるという利点もある。
Further, in the third embodiment, since the voice signal X is generated by using the voice synthesis program P1 and the voice fragment data Db1, the voice synthesis for the second language exemplified in the first embodiment and the second embodiment is performed. The program P2 and the voice fragment data Db2 are unnecessary. Therefore, the
<第4実施形態>
図12は、第4実施形態に係る音声処理装置100の機能に着目した構成図である。図12に例示される通り、第4実施形態の記憶装置12は、相異なる指定文字列Q(具体的には定型部分Qa)に対応する複数の配信情報Vを記憶する。任意の1種類の指定文字列Qに対応する配信情報Vは、当該指定文字列Qに関連する情報(以下「関連情報」という)Cを識別するための識別情報である。関連情報Cは、案内音声Gの再生とともに施設の利用者に提示すべき情報である。例えば指定文字列Qに関連する文字列、または、当該文字列を他言語に翻訳した文字列が、関連情報Cの好適例である。
<Fourth Embodiment>
FIG. 12 is a configuration diagram focusing on the function of the
第4実施形態の制御装置11は、図12に例示される通り、第1実施形態から第3実施形態の何れかと同様の文字列設定部22および音声合成部24(24A−24Cの何れか)に加えて、変調処理部26および混合処理部28として機能する。変調処理部26は、文字列設定部22が設定した指定文字列Qに応じた変調信号Mを生成する。変調信号Mは、指定文字列Qに対応した配信情報Vを音響成分として含む信号である。変調処理部26は、記憶装置12に記憶された複数の配信情報Vのうち指定文字列Qに対応する配信情報Vを検索し、当該配信情報Vを示す変調信号Mを生成する。具体的には、変調処理部26は、例えば所定の周波数の正弦波等の搬送波を配信情報Vにより変調する周波数変調、または、拡散符号を利用した配信情報Vの拡散変調等の変調処理により変調信号Mを生成する。配信情報Vの音響成分の周波数帯域は、例えば、放音装置15による再生が可能な周波数帯域であり、かつ、利用者が通常の環境で聴取する音の周波数帯域を上回る範囲(例えば18kHz以上かつ20kHz以下)に包含される。
As illustrated in FIG. 12, the
図12の混合処理部28は、音声合成部24が生成した音声信号Xと変調処理部26が生成した変調信号Mとを混合(例えば加算)することで音響信号Yを生成する。第4実施形態では、混合処理部28が生成した音響信号Yが放音装置15に供給される。放音装置15は、音響信号Yが表す音を放音する。すなわち、音声信号Xが表す案内音声Gと変調信号Mが表す配信情報Vの音響成分とが放音装置15から再生される。以上の説明から理解される通り、第1実施形態の放音装置15は、指定文字列Qを表す案内音声Gを再生する音響機器として機能するほか、空気振動としての音波を伝送媒体とした音響通信で配信情報Vを送信する送信部としても機能する。
The mixing
施設内の利用者は、図12の端末装置50を携帯する。端末装置50は、例えば携帯電話機またはスマートフォン等の可搬型の情報端末である。なお、例えば、鉄道事業者の施設内に設置される電光掲示板、または商業施設に設置される電子看板(例えばデジタルサイネージ)等の案内用の表示端末を端末装置50として利用することも可能である。
The user in the facility carries the
図13は、端末装置50の構成図である。図13に例示される通り、端末装置50は、制御装置51と記憶装置52と収音装置53と表示装置54とを具備する。収音装置53は、周囲の音を収音する音響機器(マイクロホン)である。具体的には、収音装置53は、音声処理装置100の放音装置15による再生音を収音して音響信号Zを生成する。音響信号Zは、配信情報Vの音響成分を含み得る。以上の説明から理解される通り、収音装置53は、端末装置50の相互間の音声通話または動画撮影時の音声収録に利用されるほか、空気振動としての音波を伝送媒体とする音響通信で配信情報Vを受信する受信部としても機能する。
FIG. 13 is a configuration diagram of the
制御装置51は、例えばCPU等の処理回路で構成され、端末装置50の各要素を統括的に制御する。表示装置54(例えば液晶表示パネル)は、制御装置51による制御のもとで各種の画像を表示する。記憶装置52は、制御装置51が実行するプログラムと制御装置51が使用する各種のデータとを記憶する。例えば半導体記録媒体または磁気記録媒体等の公知の記録媒体が記憶装置52として採用され得る。第4実施形態の記憶装置52は、図13に例示される通り、参照テーブルTを記憶する。参照テーブルTは、音声処理装置100から送信され得る複数の配信情報V(V1,V2,…)の各々について関連情報C(C1,C2,…)が登録されたデータテーブルであり、配信情報Vに対応する関連情報Cを特定するために使用される。
The
制御装置51は、記憶装置52に記憶されたプログラムを実行することで、音声処理装置100が送信した配信情報Vに関する処理を実行するための複数の機能(情報抽出部511および提示制御部513)を実現する。なお、制御装置51の一部の機能を専用の電子回路で実現した構成、または、制御装置51の機能を複数の装置に分散した構成も採用され得る。
The
情報抽出部511は、収音装置53が生成した音響信号Zから配信情報Vを抽出する。具体的には、情報抽出部511は、音響信号Zのうち配信情報Vの音響成分を含む周波数帯域を強調するフィルタ処理と、配信情報Vに対する変調処理に対応した復調処理とを実行する。
The
提示制御部513は、表示装置54による情報の表示を制御する。第4実施形態の提示制御部513は、情報抽出部511が抽出した配信情報Vに対応する関連情報Cを表示装置54に表示させる。具体的には、提示制御部513は、参照テーブルTに登録された複数の関連情報Cのうち情報抽出部511が抽出した配信情報Vに対応する関連情報Cを検索し、当該関連情報Cを表示装置54に表示させる。したがって、音声処理装置100の放音装置15による案内音声Gの再生に並行して、当該案内音声Gに対応した関連情報Cが表示装置54に表示される。
The
第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態では、関連情報Cを示す配信情報Vが音声処理装置100から端末装置50に送信される。したがって、案内音声Gに関連する関連情報Cを端末装置50により利用者に提示することが可能である。
The same effect as that of the first embodiment is realized in the fourth embodiment. Further, in the fourth embodiment, the distribution information V indicating the related information C is transmitted from the
<変形例>
以上に例示した各形態は多様に変形され得る。前述の各形態に適用され得る具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<Modification example>
Each of the above-exemplified forms can be variously modified. Specific modifications that can be applied to each of the above-mentioned forms are illustrated below. Two or more embodiments arbitrarily selected from the following examples can be appropriately merged to the extent that they do not contradict each other.
(1)前述の各形態では、表示装置13に表示された入力欄132に入力された文字列を非定型部分Qbとしたが、指定文字列Qのうちの非定型部分Qbを文字列設定部22が設定する方法は以上の例示に限定されない。例えば、形態素解析等の自然言語処理を指定文字列Qに対して実行することで固有名詞を抽出し、指定文字列Qのうち固有名詞の部分を非定型部分Qbとして設定することも可能である。また、定型部分Qaとは別個の文字種を利用して管理者が非定型部分Qbを図3の入力欄132に入力することも可能である。また、指定文字列Qを管理者が音声入力できる構成も好適である。例えば、管理者が発生した音声に対する音声認識で指定文字列Qが特定される。
(1) In each of the above-described modes, the character string input in the
(2)移動体通信網またはインターネット等の通信網を介して端末装置(例えば携帯電話機またはスマートフォン)と通信するサーバ装置により音声処理装置100を実現することも可能である。例えば、音声処理装置100は、端末装置から通信網を介して受信した指定文字列Qから音声信号Xを生成し、当該音声信号Xを端末装置に送信する。音声処理装置100が生成した音声信号Xのうちの非定型部分Qbを、第1実施形態の収録信号Rとして利用することも可能である。また、使用頻度が低い(あるいは低音質でよい)非定型部分Qbの第2信号X2を、スマートフォン等の情報端末で実現された音声処理装置100により生成し、使用頻度が高い(あるいは高品質が要求される)非定型部分Qbの第2信号X2を、サーバ装置で実現された音声処理装置100により生成することも可能である。
(2) It is also possible to realize the
(3)第4実施形態では、音波を伝送媒体とする音響通信で音声処理装置100から端末装置50に配信情報Vを送信したが、音声処理装置100から配信情報Vを送信するための通信方式は音響通信に限定されない。例えば、電波または赤外線等の電磁波を伝送媒体とした無線通信で音声処理装置100から端末装置50に配信情報Vを送信することも可能である。例えば、前述の各形態における放音装置15が無線通信用の通信機器に置換される。具体的には、Bluetooth(登録商標)またはWiFi(登録商標)等の無線通信が配信情報Vの送信に好適である。
(3) In the fourth embodiment, the distribution information V is transmitted from the
以上の例示から理解される通り、音声処理装置100による配信情報Vの送信には、移動体通信網等の通信網が介在しない近距離無線通信が好適であり、音波を伝送媒体とする音響通信と電磁波を伝送媒体とする無線通信とは、近距離無線通信の例示である。なお、前述の各形態で例示した音響通信によれば、例えば遮音壁の設置により通信範囲を容易に制御できるという利点がある。
As understood from the above examples, short-range wireless communication without a communication network such as a mobile communication network is suitable for transmission of the distribution information V by the
(4)前述の各形態では、関連情報Cの識別情報を配信情報Vとして例示したが、関連情報C自体を配信情報Vとして音声処理装置100から送信することも可能である。関連情報Cを配信情報Vとして送信する構成では、端末装置50に参照テーブルTを保持する必要はない。以上の例示から理解される通り、配信情報Vは、関連情報Cを示す情報として包括的に表現される。
(4) In each of the above-described forms, the identification information of the related information C is exemplified as the distribution information V, but the related information C itself can be transmitted from the
(5)前述の各形態では、関連情報Cを表示装置54に表示したが、関連情報Cを端末装置50の利用者に提示する方法は以上の例示に限定されない。例えば、関連情報Cが表す音声を放音装置15により再生することで関連情報Cを利用者に提示することも可能である。関連情報Cが表す音声の生成には、例えば公知の音声合成技術が利用され得る。
(5) In each of the above-described forms, the related information C is displayed on the
(6)第1実施形態において、収録信号Rが表す音声の発声者と、音声素片データDb2が表す音声素片の発声者とが相違する場合がある。この場合、第1信号X1と第2信号X2とで声質が相違するから、音声信号Xが表す音声が聴感的に不自然な印象となる可能性がある。そこで、第1信号X1および第2信号X2の一方または双方の声質を調整することで、第1信号X1と第2信号X2との声質を近付ける(理想的には一致させる)構成が好適である。声質の調整には、公知の声質変換技術が任意に採用され得る。 (6) In the first embodiment, the speaker of the voice represented by the recorded signal R and the speaker of the voice fragment represented by the voice fragment data Db2 may be different. In this case, since the voice quality differs between the first signal X1 and the second signal X2, the voice represented by the voice signal X may give an audibly unnatural impression. Therefore, it is preferable to adjust the voice qualities of one or both of the first signal X1 and the second signal X2 so that the voice qualities of the first signal X1 and the second signal X2 are brought close to each other (ideally matched). .. A known voice quality conversion technique can be arbitrarily adopted for adjusting the voice quality.
(7)音声合成処理に利用される音声合成データD(D1またはD2)の内容は、以上の例示に限定されない。例えば、音声の抑揚(例えば音高または音量の時間的な変化)を決定するための抑揚データを音声合成データDに含ませてもよい。例えば、音声合成データD1には、第1言語の発音時の抑揚の傾向が反映された抑揚データが含まれ、音声合成データD2には、第2言語の発音時の抑揚の傾向が反映された抑揚データが含まれる。第1実施形態または第2実施形態において、第2処理(Sa2,Sb2)には音声合成データD2の抑揚データが適用される。また、第2実施形態の第1処理Sb1には音声合成データD1の抑揚データが適用される。 (7) The content of the voice synthesis data D (D1 or D2) used for the voice synthesis processing is not limited to the above examples. For example, the speech synthesis data D may include intonation data for determining the intonation of speech (for example, a change in pitch or volume over time). For example, the speech synthesis data D1 includes intonation data that reflects the tendency of intonation at the time of pronunciation of the first language, and the speech synthesis data D2 reflects the tendency of intonation at the time of pronunciation of the second language. Includes intonation data. In the first embodiment or the second embodiment, the intonation data of the voice synthesis data D2 is applied to the second processing (Sa2, Sb2). Further, the intonation data of the voice synthesis data D1 is applied to the first process Sb1 of the second embodiment.
(8)前述の各形態に係る音声処理装置100は、各形態での例示の通り、制御装置11とプログラムとの協働により実現される。本発明の好適な態様に係るプログラムは、コンピュータに、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成処理を実行させ、音声合成処理では、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用する。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供することも可能である。
(8) The
(9)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
本発明の好適な態様(態様1)に係る音声処理方法は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成し、前記音声信号の生成においては、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。以上の態様では、指定文字列のうちの第1部分を第1言語で発音した音声と、指定文字列のうち第2部分を発音した音声とを表す音声信号を生成する過程において、第2部分については第2言語用の音声合成データを利用した音声合成処理が実行される。したがって、指定文字列の全体について第1言語用の音声合成データを利用した音声合成処理を実行する場合と比較して、第2部分について音韻および抑揚が聴感的に自然である音声の音声信号を生成できる。
<態様2>
態様1の好適例(態様2)において、前記音声信号の生成は、前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む。以上の態様では、指定文字列のうち第1部分に対応する音声を表す第1信号が複数の収録信号から選択される。したがって、高音質な音声で第1部分が発音された音声信号を生成できるという利点がある。
<態様3>
態様1の好適例(態様3)において、前記音声信号の生成は、前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、前記第1言語用の音声合成データを利用した音声合成処理により生成する第1処理と、前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、前記第1処理で生成した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む。以上の態様では、指定文字列のうち第1部分に対応する音声を表す第1信号が、第1言語用の音声合成データを利用した音声合成処理により生成される。したがって、第1部分の音声を事前に収録する必要がないという利点がある。
<態様4>
態様1の好適例(態様4)では、前記音声信号の生成において、前記第1言語用の発音規則データにより前記第1部分の発音記号を決定し、前記第1言語用の発音規則データとは相違する前記第2言語用の発音規則データにより前記第2部分の発音記号を決定し、前記第1部分および前記第2部分について決定した発音記号の音声を表す前記音声信号を生成する。以上の態様では、第1部分の発音記号が第1言語用の発音規則データにより決定され、第2部分の発音記号が第2言語用の発音規則データにより決定されて、各発音記号の音声を表す音声信号が生成される。したがって、発音記号から音声信号を生成する処理を第1部分と第2部分とで共通化できるという利点がある。
<態様5>
態様1から態様4の何れかの好適例(態様5)において、前記第2部分は、前記指定文字列のうち固有名詞の部分である。指定文字列のうち固有名詞の部分は一般的に使用頻度が低いから、音声を事前に収録することは困難である。指定文字列のうち固有名詞の部分を第2部分とした構成によれば、使用頻度が低い第2部分についても音声を生成できるという利点がある。
<態様6>
態様1から態様5の何れかの好適例(態様6)において、前記音声信号と、当該音声信号が表す音声に対応した関連情報を示す配信情報を音響成分として含む変調信号とを混合して放音装置に供給する。以上の態様では、配信情報を音響成分として含む変調信号が音声信号に混合されたうえで放音装置から再生される。すなわち、音声信号が表す音声を放音するための放音装置が、配信情報を送信するための送信機として利用される。したがって、配信情報の送信に専用される送信機が必要である構成と比較して、装置構成が簡素化されるという利点がある。
<態様7>
本発明の好適な態様(態様7)に係る音声処理装置は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成部を具備し、前記音声合成部は、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。以上の態様では、指定文字列のうちの第1部分を第1言語で発音した音声と、指定文字列のうち第2部分を発音した音声とを表す音声信号を生成する音声合成部が、第2部分については第2言語用の音声合成データを利用した音声合成処理を実行する。したがって、指定文字列の全体について第1言語用の音声合成データを利用した音声合成処理を実行する構成と比較して、第2部分について音韻および抑揚が聴感的に自然である音声の音声信号を生成できる。
(9) From the above-exemplified form, for example, the following configuration can be grasped.
<Aspect 1>
The voice processing method according to the preferred aspect (aspect 1) of the present invention is different from the voice in which the first part of the designated character string is pronounced in the first language and the first part of the designated character string. A voice signal representing the voice that pronounces the second part is generated, and in the generation of the voice signal, the voice using the voice synthesis data for the second language different from the first language is used for the second part. Execute the synthesis process. In the above aspect, in the process of generating a voice signal representing a voice in which the first part of the designated character string is pronounced in the first language and a voice in which the second part of the designated character string is pronounced, the second part The voice synthesis process using the voice synthesis data for the second language is executed. Therefore, as compared with the case where the voice synthesis process using the voice synthesis data for the first language is executed for the entire designated character string, the voice signal of the voice whose phoneme and intonation are audibly natural for the second part is produced. Can be generated.
<Aspect 2>
In a preferred example of the first aspect (aspect 2), the generation of the voice signal is performed by recording a first signal representing the voice corresponding to the first portion of the designated character string, and a plurality of recordings representing the voice recorded in advance. The first process of selecting from the signals and the second signal representing the voice corresponding to the second part of the designated character string are generated by the voice synthesis process using the voice synthesis data for the second language. The process includes a connection process of generating the voice signal by connecting the first signal selected in the first process and the second signal generated in the second process. In the above aspect, the first signal representing the voice corresponding to the first part of the designated character string is selected from the plurality of recorded signals. Therefore, there is an advantage that an audio signal in which the first portion is pronounced can be generated with high-quality sound.
<Aspect 3>
In a preferred example of the first aspect (aspect 3), the voice signal is generated by using the first signal representing the voice corresponding to the first part of the designated character string and the voice synthesis data for the first language. The first process generated by the voice synthesis process and the second signal representing the voice corresponding to the second part of the designated character string are generated by the voice synthesis process using the voice synthesis data for the second language. The second process is included, and a connection process for generating the voice signal by connecting the first signal generated in the first process and the second signal generated in the second process. In the above aspect, the first signal representing the voice corresponding to the first part of the designated character string is generated by the voice synthesis process using the voice synthesis data for the first language. Therefore, there is an advantage that it is not necessary to record the sound of the first part in advance.
<Aspect 4>
In the preferred example of the first aspect (aspect 4), in the generation of the voice signal, the phonetic symbol of the first part is determined from the phonetic rule data for the first language, and the phonetic rule data for the first language is used. The phonetic symbol of the second part is determined from the different pronunciation rule data for the second language, and the voice signal representing the sound of the phonetic symbol determined for the first part and the second part is generated. In the above aspect, the phonetic symbol of the first part is determined by the phonetic rule data for the first language, the phonetic symbol of the second part is determined by the phonetic rule data for the second language, and the phonetic of each phonetic symbol is produced. A phonetic signal is generated. Therefore, there is an advantage that the process of generating an audio signal from a phonetic symbol can be shared between the first portion and the second portion.
<Aspect 5>
In any of the preferred examples (Aspect 5) of Aspects 1 to 4, the second part is a part of a proper noun in the designated character string. Since the proper noun part of the designated character string is generally used infrequently, it is difficult to record the voice in advance. According to the configuration in which the proper noun part of the designated character string is used as the second part, there is an advantage that voice can be generated even for the second part which is rarely used.
<Aspect 6>
In any of the preferred examples (Aspect 6) of Aspects 1 to 5, the voice signal and a modulated signal containing distribution information indicating related information corresponding to the voice represented by the voice signal as an acoustic component are mixed and released. Supply to the sound device. In the above aspect, the modulated signal including the distribution information as an acoustic component is mixed with the audio signal and then reproduced from the sound emitting device. That is, the sound emitting device for emitting the sound represented by the audio signal is used as a transmitter for transmitting the distribution information. Therefore, there is an advantage that the device configuration is simplified as compared with a configuration that requires a transmitter dedicated to transmitting distribution information.
<Aspect 7>
The voice processing device according to the preferred aspect (aspect 7) of the present invention is different from the voice in which the first part of the designated character string is pronounced in the first language and the first part of the designated character string. The voice synthesis unit includes a voice synthesis unit that generates a voice signal representing the voice that pronounces the second part, and the voice synthesis unit has voice synthesis data for a second language that is different from the first language for the second part. Executes voice synthesis processing using. In the above aspect, the voice synthesis unit that generates a voice signal representing a voice in which the first part of the designated character string is pronounced in the first language and a voice in which the second part of the designated character string is pronounced is the first. For the second part, the voice synthesis process using the voice synthesis data for the second language is executed. Therefore, as compared with the configuration in which the voice synthesis process using the voice synthesis data for the first language is executed for the entire designated character string, the voice signal of the voice whose phoneme and intonation are audibly natural for the second part is produced. Can be generated.
100…音声処理装置、11…制御装置、12…記憶装置、13…表示装置、14…操作装置、15…放音装置、22…文字列設定部、24A,24B,24C…音声合成部、26…変調処理部、28…混合処理部、32A,32B…第1処理部、34…第2処理部、36…接続処理部、50…端末装置、51…制御装置、52…記憶装置、53…収音装置、54…表示装置。
100 ... voice processing device, 11 ... control device, 12 ... storage device, 13 ... display device, 14 ... operation device, 15 ... sound release device, 22 ... character string setting unit, 24A, 24B, 24C ... voice synthesis unit, 26 ... Modulation processing unit, 28 ... Mixing processing unit, 32A, 32B ... First processing unit, 34 ... Second processing unit, 36 ... Connection processing unit, 50 ... Terminal device, 51 ... Control device, 52 ... Storage device, 53 ... Sound collecting device, 54 ... Display device.
Claims (4)
前記音声信号の生成は、
前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、
前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、
前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む
コンピュータシステムにより実現される音声処理方法。 Represents a voice that pronounces the first part of the designated character string corresponding to the first language and a voice that pronounces the second part of the designated character string corresponding to a second language different from the first language. Generate a voice signal,
The generation of the audio signal is
The first process of selecting the first signal representing the voice corresponding to the first portion of the designated character string from a plurality of recorded signals representing the voice recorded in advance, and
A second process of generating a second signal representing a voice corresponding to the second part of the designated character string by a voice synthesis process using the voice synthesis data for the second language, and a second process.
A voice processing method realized by a computer system including a connection process for generating the voice signal by connecting the first signal selected in the first process and the second signal generated in the second process.
請求項1の音声処理方法。 The voice processing method according to claim 1, wherein the voice signal and a modulated signal including distribution information indicating related information corresponding to the voice represented by the voice signal are mixed and supplied to a sound emitting device.
前記音声合成部は、
前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、
前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、
前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを実行する
音声処理装置。 Represents a voice that pronounces the first part of the designated character string corresponding to the first language and a voice that pronounces the second part of the designated character string corresponding to a second language different from the first language. Equipped with a voice synthesizer that generates voice signals,
The voice synthesizer
The first process of selecting the first signal representing the voice corresponding to the first portion of the designated character string from a plurality of recorded signals representing the voice recorded in advance, and
A second process of generating a second signal representing a voice corresponding to the second part of the designated character string by a voice synthesis process using the voice synthesis data for the second language, and a second process.
A voice processing device that executes a connection process for generating the voice signal by connecting the first signal selected in the first process and the second signal generated in the second process.
前記音声合成部は、
前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、
前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、
前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを実行する
プログラム。
Represents a voice that pronounces the first part of the designated character string corresponding to the first language and a voice that pronounces the second part of the designated character string corresponding to a second language different from the first language. A program that makes a computer function as a voice synthesizer that generates voice signals.
The voice synthesizer
The first process of selecting the first signal representing the voice corresponding to the first portion of the designated character string from a plurality of recorded signals representing the voice recorded in advance, and
A second process of generating a second signal representing a voice corresponding to the second part of the designated character string by a voice synthesis process using the voice synthesis data for the second language, and a second process.
A program that executes a connection process for generating an audio signal by connecting the first signal selected in the first process and the second signal generated in the second process.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017022418A JP6897132B2 (en) | 2017-02-09 | 2017-02-09 | Speech processing methods, audio processors and programs |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017022418A JP6897132B2 (en) | 2017-02-09 | 2017-02-09 | Speech processing methods, audio processors and programs |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018128607A JP2018128607A (en) | 2018-08-16 |
JP6897132B2 true JP6897132B2 (en) | 2021-06-30 |
Family
ID=63172844
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017022418A Active JP6897132B2 (en) | 2017-02-09 | 2017-02-09 | Speech processing methods, audio processors and programs |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6897132B2 (en) |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2003295880A (en) * | 2002-03-28 | 2003-10-15 | Fujitsu Ltd | Speech synthesis system for connecting sound-recorded speech and synthesized speech together |
JP2006030384A (en) * | 2004-07-13 | 2006-02-02 | Sony Corp | Device and method for text speech synthesis |
CN1731510B (en) * | 2004-08-05 | 2010-12-08 | 纽安斯通信有限公司 | Text-speech conversion for amalgamated language |
EP2595143B1 (en) * | 2011-11-17 | 2019-04-24 | Svox AG | Text to speech synthesis for texts with foreign language inclusions |
JP2013195928A (en) * | 2012-03-22 | 2013-09-30 | Yamaha Corp | Synthesis unit segmentation device |
JP6258981B2 (en) * | 2014-07-29 | 2018-01-10 | ヤマハ株式会社 | Program and information processing method |
-
2017
- 2017-02-09 JP JP2017022418A patent/JP6897132B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018128607A (en) | 2018-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
AU2015297648B2 (en) | Terminal device, information providing system, information presentation method, and information providing method | |
AU2015297647B2 (en) | Information management system and information management method | |
US10621997B2 (en) | Information providing system, information providing method, and computer-readable recording medium | |
EP2207165A1 (en) | Information processing apparatus and text-to-speech method | |
KR20150105075A (en) | Apparatus and method for automatic interpretation | |
KR101877559B1 (en) | Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method | |
JP6897132B2 (en) | Speech processing methods, audio processors and programs | |
JP6596903B2 (en) | Information providing system and information providing method | |
JP2005321706A (en) | Method for reproducing digital book and apparatus for the same | |
JP6809177B2 (en) | Information processing system and information processing method | |
JP6686306B2 (en) | Information providing apparatus and information providing method | |
JP7331645B2 (en) | Information provision method and communication system | |
JP6984769B2 (en) | Information provision method and information provision system | |
JP6834634B2 (en) | Information provision method and information provision system | |
JP6780529B2 (en) | Information providing device and information providing system | |
JP7192948B2 (en) | Information provision method, information provision system and program | |
JP2018088088A (en) | Information processing system and terminal device | |
JP2008039826A (en) | Voice guidance apparatus | |
KR20140109551A (en) | Apparatus and method for learning foreign language by using augmented reality | |
JP2003022267A (en) | Automatic translation system, automatic translation terminal equipment, automatic translation providing device, automatic translation method, program and recording medium | |
JP2006091105A (en) | Word learning device, and speech output method and program thereof | |
KR20180027000A (en) | Word referral method | |
KR20100008422A (en) | Language studing system using text to speech converting technology and metheod therefor | |
JP2010079190A (en) | Method of updating dictionary for speech synthesis, terminal device, and speech synthesis system | |
KR20140087949A (en) | Apparatus and method for learning word by using augmented reality |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20191219 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200901 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20201029 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210316 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210322 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20210511 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210524 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6897132 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |