JP6897132B2 - Speech processing methods, audio processors and programs - Google Patents

Speech processing methods, audio processors and programs Download PDF

Info

Publication number
JP6897132B2
JP6897132B2 JP2017022418A JP2017022418A JP6897132B2 JP 6897132 B2 JP6897132 B2 JP 6897132B2 JP 2017022418 A JP2017022418 A JP 2017022418A JP 2017022418 A JP2017022418 A JP 2017022418A JP 6897132 B2 JP6897132 B2 JP 6897132B2
Authority
JP
Japan
Prior art keywords
voice
signal
character string
language
designated character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017022418A
Other languages
Japanese (ja)
Other versions
JP2018128607A (en
Inventor
優樹 瀬戸
優樹 瀬戸
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2017022418A priority Critical patent/JP6897132B2/en
Publication of JP2018128607A publication Critical patent/JP2018128607A/en
Application granted granted Critical
Publication of JP6897132B2 publication Critical patent/JP6897132B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、特定の文字列を発音した音声を合成する技術に関する。 The present invention relates to a technique for synthesizing a voice in which a specific character string is pronounced.

例えば電車等の交通機関または店舗等の商業施設では、利用者を案内するための様々な音声が放音される。例えば特許文献1には、例えば素片接続型等の公知の音声合成処理により案内音声を生成して施設内の放音装置から再生する構成が開示されている。 For example, in transportation such as trains or commercial facilities such as stores, various voices for guiding users are emitted. For example, Patent Document 1 discloses a configuration in which a guidance voice is generated by a known voice synthesis process such as a piece connection type and reproduced from a sound emitting device in a facility.

特開2016−76201号公報JP-A-2016-762201

ところで、特定の言語(以下「第1言語」という)で表現された案内音声には、他言語(以下「第2言語」という)に対応する音声が含まれる場合がある。例えば、日本語で表現された駅名または地名等の固有名詞が、英語で表現された案内音声に含まれ得る。しかし、第1言語を前提とした音声合成処理により、第2言語で表現された文字列の音声を合成した場合には、音韻(発音内容)および抑揚が聴感的に自然な音声を合成することは実際には困難である。例えば、「タテヤマ(tateyama)」という日本語の地名を発音した音声の合成に英語用の音声合成処理を利用した場合には、「タテイアマ(tateiama)」といった音声が生成される可能性がある。以上の事情を考慮して、本発明は、第1言語で表現された特定の文字列に第2言語の部分が含まれる場合でも音韻および抑揚が聴感的に自然な音声を合成することを目的とする。 By the way, the guidance voice expressed in a specific language (hereinafter referred to as "first language") may include voice corresponding to another language (hereinafter referred to as "second language"). For example, a proper noun such as a station name or a place name expressed in Japanese may be included in the guidance voice expressed in English. However, when the speech of the character string expressed in the second language is synthesized by the speech synthesis process premised on the first language, the phoneme (pronunciation content) and the intonation are audibly natural. Is actually difficult. For example, when the speech synthesis process for English is used to synthesize the speech that pronounces the Japanese place name "tateyama", the speech "tateiama" may be generated. In consideration of the above circumstances, it is an object of the present invention to synthesize a voice in which the phoneme and intonation are audibly natural even when a specific character string expressed in the first language contains a part in the second language. And.

以上の課題を解決するために、本発明の好適な態様に係る音声処理方法は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成し、前記音声信号の生成においては、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。
また、本発明の好適な態様に係る音声処理装置は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成部を具備し、前記音声合成部は、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。
In order to solve the above problems, the voice processing method according to the preferred embodiment of the present invention includes a voice in which the first part of the designated character string is pronounced in the first language and the first of the designated character strings. A voice signal representing a voice that pronounces a second part different from the part is generated, and in the generation of the voice signal, the second part is a voice synthesis for a second language different from the first language. Execute voice synthesis processing using data.
Further, in the voice processing device according to the preferred embodiment of the present invention, the voice obtained by pronouncing the first part of the designated character string in the first language and the second part of the designated character string are different from the first part. The voice synthesis unit includes a voice synthesis unit that generates a voice signal representing a voice that pronounces a portion, and the voice synthesis unit uses voice synthesis data for a second language different from the first language for the second part. Execute the voice synthesis process.

本発明の第1実施形態に係る音声処理装置の構成図である。It is a block diagram of the voice processing apparatus which concerns on 1st Embodiment of this invention. 指定文字列と定型部分と非定型部分との関係の説明図である。It is explanatory drawing of the relationship between a designated character string, a standard part, and an atypical part. 非定型部分を入力する画面の説明図である。It is explanatory drawing of the screen which inputs the atypical part. 音声処理装置における制御装置の機能に着目した構成図である。It is a block diagram focusing on the function of the control device in a voice processing device. 制御装置が実行する信号生成処理のフローチャートである。It is a flowchart of the signal generation processing executed by a control device. 第2実施形態に係る音声処理装置の構成図である。It is a block diagram of the voice processing apparatus which concerns on 2nd Embodiment. 第2実施形態における制御装置の機能に着目した構成図である。It is a block diagram focusing on the function of the control device in 2nd Embodiment. 第2実施形態の制御装置が実行する信号生成処理のフローチャートである。It is a flowchart of the signal generation processing executed by the control device of 2nd Embodiment. 第3実施形態に係る音声処理装置の構成図である。It is a block diagram of the voice processing apparatus which concerns on 3rd Embodiment. 第3実施形態における制御装置の機能に着目した構成図である。It is a block diagram focusing on the function of the control device in 3rd Embodiment. 第3実施形態の制御装置が実行する音声合成処理のフローチャートである。It is a flowchart of the voice synthesis processing executed by the control device of 3rd Embodiment. 第4実施形態の音声処理装置における制御装置の機能に着目した構成図である。It is a block diagram paying attention to the function of the control device in the voice processing device of 4th Embodiment. 第4実施形態における端末装置の構成図である。It is a block diagram of the terminal apparatus in 4th Embodiment.

<第1実施形態>
図1は、本発明の第1実施形態に係る音声処理装置100の構成図である。図1に例示される通り、第1実施形態の音声処理装置100は、電車等の交通機関の施設内(例えば駅構内)に設置され、当該施設に関する案内を表す音声(以下「案内音声」という)Gを施設内の利用者に対して放音する音響システムである。
<First Embodiment>
FIG. 1 is a configuration diagram of a voice processing device 100 according to a first embodiment of the present invention. As illustrated in FIG. 1, the voice processing device 100 of the first embodiment is installed in a facility of transportation such as a train (for example, in a station yard), and is referred to as a voice representing guidance regarding the facility (hereinafter referred to as "guidance voice"). ) This is an acoustic system that emits sound to users in the facility.

案内音声Gは、音声処理装置100の管理者が指定した文字列(以下「指定文字列」という)Qを発音した音声である。図2には、“We have found a child, who tells us his name is Yuki Suzuki.”(スズキユウキちゃんという迷子のお子様がお待ちでございます)という英語の指定文字列Qが例示されている。図2に例示される通り、第1実施形態の指定文字列Qは、定型部分Qaと非定型部分Qbとを含んで構成される。 The guidance voice G is a voice that pronounces a character string (hereinafter referred to as “designated character string”) Q designated by the administrator of the voice processing device 100. Figure 2 exemplifies the English designated character string Q, "We have found a child, who tells us his name is Yuki Suzuki." As illustrated in FIG. 2, the designated character string Q of the first embodiment is configured to include a fixed form portion Qa and an atypical portion Qb.

定型部分Qa(第1部分の例示)は、事前に内容が想定される定型的な文字列であり、特定の言語(以下「第1言語」という)の語句で構成される。図2では、第1言語の例示である英語で表現された定型部分Qaが例示されている。他方、非定型部分Qb(第2部分の例示)は、例えば施設内の状況に応じて変更される非定型の文字列である。例えば図2に例示される通り、施設内の迷子の子供の名前等の固有名詞の部分が非定型部分Qbの典型例である。非定型部分Qbは、第1言語とは相違する言語(以下「第2言語」という)の語句であり得る。図2に例示された指定文字列Qのうち名前を表す“Yuki Suzuki”という語句が非定型部分Qbである。すなわち、非定型部分Qbは、例えば通常は日本語として使用される固有名詞(例えば日本人の名前または日本国内の地名)である。定型部分Qaは、案内の概略的かつ基本的な内容を表現し、非定型部分Qbは、案内に関する個別的または具体的な内容を表現する、と換言することも可能である。なお、図2では1個の非定型部分Qbを含む指定文字列Qを例示したが、複数の非定型部分Qbを1個の指定文字列Qに含めてもよい。 The standard part Qa (example of the first part) is a standard character string whose content is expected in advance, and is composed of words and phrases of a specific language (hereinafter referred to as "first language"). In FIG. 2, a fixed form Qa expressed in English, which is an example of the first language, is illustrated. On the other hand, the atypical part Qb (example of the second part) is, for example, an atypical character string that is changed according to the situation in the facility. For example, as illustrated in FIG. 2, the part of the proper noun such as the name of the lost child in the facility is a typical example of the atypical part Qb. The atypical part Qb can be a phrase in a language different from the first language (hereinafter referred to as "second language"). Among the designated character strings Q illustrated in FIG. 2, the phrase “Yuki Suzuki” representing the name is the atypical part Qb. That is, the atypical part Qb is, for example, a proper noun usually used as Japanese (for example, a Japanese name or a place name in Japan). It can be paraphrased that the standard part Qa expresses the general and basic contents of the guidance, and the atypical part Qb expresses the individual or specific contents regarding the guidance. Although the designated character string Q including one atypical portion Qb is illustrated in FIG. 2, a plurality of atypical portion Qb may be included in one designated character string Q.

図1に例示される通り、音声処理装置100は、制御装置11と記憶装置12と表示装置13と操作装置14と放音装置15とを具備するコンピュータシステムである。例えばタブレット端末またはパーソナルコンピュータ等の情報端末が音声処理装置100として利用され得る。なお、例えば、鉄道事業者の施設内に設置される電光掲示板、または商業施設に設置される電子看板(例えばデジタルサイネージ)等の案内用の表示端末を、音声処理装置100として利用することも可能である。また、音声処理装置100は、単体の装置で実現されるほか、相互に別体で構成された複数の装置(すなわちシステム)でも実現され得る。 As illustrated in FIG. 1, the voice processing device 100 is a computer system including a control device 11, a storage device 12, a display device 13, an operation device 14, and a sound emitting device 15. For example, an information terminal such as a tablet terminal or a personal computer can be used as the voice processing device 100. It is also possible to use, for example, a display terminal for guidance such as an electric bulletin board installed in a railway operator's facility or an electronic signboard (for example, digital signage) installed in a commercial facility as the voice processing device 100. Is. Further, the voice processing device 100 can be realized not only by a single device but also by a plurality of devices (that is, systems) configured as separate bodies from each other.

表示装置13(例えば液晶表示パネル)は、制御装置11による制御のもとで各種の画像を表示する。操作装置14は、管理者からの指示を受付ける入力機器である。例えば、管理者が操作可能な複数の操作子、または、表示装置13の表示面に対する接触を検知するタッチパネルが、操作装置14として好適に利用される。第1実施形態では、音声処理装置100の管理者は、操作装置14を適宜に操作することで、事前に用意された複数の候補から指定文字列Qの定型部分Qaを選択するとともに、迷子の子供の名前等の任意の文字列を非定型部分Qbとして指定することが可能である。 The display device 13 (for example, a liquid crystal display panel) displays various images under the control of the control device 11. The operation device 14 is an input device that receives an instruction from the administrator. For example, a plurality of controls that can be operated by the administrator or a touch panel that detects contact with the display surface of the display device 13 is preferably used as the operation device 14. In the first embodiment, the administrator of the voice processing device 100 selects the fixed portion Qa of the designated character string Q from a plurality of candidates prepared in advance by appropriately operating the operation device 14, and the lost child It is possible to specify an arbitrary character string such as a child's name as the atypical part Qb.

制御装置11は、例えばCPU(Central Processing Unit)等の処理回路で構成され、音声処理装置100の各要素を統括的に制御する。具体的には、第1実施形態の制御装置11は、指定文字列Qを発音した音声を表す音声信号Xを生成する。放音装置15は、制御装置11が生成した音声信号Xに応じた音声を再生する。なお、制御装置11が生成した音声信号Xをデジタルからアナログに変換するD/A変換器の図示は便宜的に省略した。記憶装置12は、制御装置11が実行するプログラムと制御装置11が使用する各種のデータとを記憶する。例えば半導体記録媒体または磁気記録媒体等の公知の記録媒体が記憶装置12として採用され得る。 The control device 11 is composed of a processing circuit such as a CPU (Central Processing Unit), and controls each element of the voice processing device 100 in an integrated manner. Specifically, the control device 11 of the first embodiment generates an audio signal X representing a voice that pronounces the designated character string Q. The sound emitting device 15 reproduces the sound corresponding to the sound signal X generated by the control device 11. The D / A converter that converts the audio signal X generated by the control device 11 from digital to analog is not shown for convenience. The storage device 12 stores a program executed by the control device 11 and various data used by the control device 11. For example, a known recording medium such as a semiconductor recording medium or a magnetic recording medium can be adopted as the storage device 12.

第1実施形態の記憶装置12は、相異なる定型部分Qaに対応する複数の収録信号Rを記憶する。任意の1個の定型部分Qaに対応する収録信号Rは、定型部分Qaを発音した音声(すなわち第1言語で表現された音声)を表す信号である。複数の定型部分Qaの各々を特定の発声者に順次に発音させ、当該発声音を収音機器により収録することで複数の収録信号Rが生成される。発声音の収録により生成された複数の収録信号Rが事前(すなわち音声信号Xの生成前)に記憶装置12に格納される。 The storage device 12 of the first embodiment stores a plurality of recording signals R corresponding to different standard portions Qa. The recording signal R corresponding to any one fixed form portion Qa is a signal representing the voice that pronounces the fixed form portion Qa (that is, the voice expressed in the first language). A plurality of recording signals R are generated by sequentially causing a specific vocalist to pronounce each of the plurality of standard portions Qa and recording the vocalized sound by a sound collecting device. A plurality of recorded signals R generated by recording the vocal sound are stored in the storage device 12 in advance (that is, before the generation of the audio signal X).

非定型部分Qbは、単発的に必要となる文字列であるから、収録信号Rを事前に用意することは困難である。また、新規に設置された店舗等の施設で使用される指定文字列Qについては収録信号Rが収録されていない場合が想定される。以上の事情を考慮して、第1実施形態では、非定型部分Qbを音声合成処理により生成する。 Since the atypical portion Qb is a character string that is required sporadically, it is difficult to prepare the recording signal R in advance. Further, it is assumed that the recording signal R is not recorded for the designated character string Q used in the newly installed facility such as a store. In consideration of the above circumstances, in the first embodiment, the atypical portion Qb is generated by the voice synthesis process.

図1に例示される通り、第1実施形態の記憶装置12は、第2言語用の音声合成プログラムP2および音声合成データD2とを記憶する。音声合成プログラムP2は、第2言語の任意の文字列に対応する音声を合成する音声合成処理を実現するためのソフトウェア(音声合成エンジン)である。第1実施形態では、複数の音声素片を時間軸上で相互に接続する素片接続型の音声合成処理を例示する。 As illustrated in FIG. 1, the storage device 12 of the first embodiment stores the speech synthesis program P2 for the second language and the speech synthesis data D2. The speech synthesis program P2 is software (speech synthesis engine) for realizing a speech synthesis process for synthesizing speech corresponding to an arbitrary character string in a second language. In the first embodiment, a piece-to-piece connection type voice synthesis process in which a plurality of voice pieces are connected to each other on the time axis is illustrated.

音声合成データD2は、非定型部分Qbの音声合成処理に利用される。第1実施形態では、素片接続型の音声合成処理により非定型部分Qbの音声を合成する場合を想定する。図1に例示される通り、音声合成データD2は、発音規則データDa2と音声素片データDb2とを記憶する。発音規則データDa2は、第2言語の文字列と発音記号との関係(すなわち、文字列を発音記号に変換する規則)を規定する。音声素片データDb2は、複数の音声素片の集合(音声合成用ライブラリ)である。各音声素片は、例えば母音もしくは子音等の音素単体、または、複数の音素を連結した音素連鎖(例えばダイフォンまたはトライフォン)である。第1実施形態では、第2言語の語句を発音した音声から採取された複数の音声素片が音声素片データDb2に登録される。 The voice synthesis data D2 is used for the voice synthesis processing of the atypical portion Qb. In the first embodiment, it is assumed that the voice of the atypical portion Qb is synthesized by the voice synthesis processing of the elemental connection type. As illustrated in FIG. 1, the voice synthesis data D2 stores the pronunciation rule data Da2 and the voice element data Db2. The phonetic rule data Da2 defines the relationship between the second language character string and the phonetic symbol (that is, the rule for converting the character string into the phonetic symbol). The voice element data Db2 is a set of a plurality of voice element pieces (speech synthesis library). Each phoneme piece is, for example, a single phoneme such as a vowel or a consonant, or a phoneme chain (for example, a diphone or a triphone) in which a plurality of phonemes are connected. In the first embodiment, a plurality of voice elements collected from the voices that pronounce the words in the second language are registered in the voice element data Db2.

図4は、制御装置11の機能に着目した構成図である。図4に例示される通り、第1実施形態の制御装置11は、記憶装置12に記憶されたプログラムを実行することで、指定文字列Qの音声信号Xを生成するための複数の機能(文字列設定部22および音声合成部24A)を実現する。なお、制御装置11の一部の機能を専用の電子回路で実現した構成、または、制御装置11の機能を複数の装置に分散した構成も採用され得る。 FIG. 4 is a configuration diagram focusing on the function of the control device 11. As illustrated in FIG. 4, the control device 11 of the first embodiment has a plurality of functions (characters) for generating the audio signal X of the designated character string Q by executing the program stored in the storage device 12. The column setting unit 22 and the voice synthesis unit 24A) are realized. A configuration in which some functions of the control device 11 are realized by a dedicated electronic circuit, or a configuration in which the functions of the control device 11 are distributed to a plurality of devices can also be adopted.

文字列設定部22は、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。具体的には、第1実施形態の文字列設定部22は、操作装置14に対する管理者からの指示に応じて定型部分Qaと非定型部分Qbとを設定する。例えば、文字列設定部22は、操作装置14に対する操作で管理者が複数の候補から選択した文字列を定型部分Qaとして設定する。また、文字列設定部22は、操作装置14に対する操作で管理者が指定した任意の文字列を非定型部分Qbとして設定する。例えば図3に例示される通り、表示装置13に表示された入力欄132に管理者が入力した文字列が非定型部分Qbとして設定される。なお、非定型部分Qbを定型部分Qaとは別個の文字種(例えば片仮名)により指定することも可能である。例えば、外国人の名前を、日本人が聴取した通りの片仮名で非定型部分Qbとして指定する。 The character string setting unit 22 sets a designated character string Q including a standard portion Qa and an atypical portion Qb. Specifically, the character string setting unit 22 of the first embodiment sets the standard portion Qa and the non-standard portion Qb according to the instruction from the administrator to the operation device 14. For example, the character string setting unit 22 sets a character string selected from a plurality of candidates by the administrator in an operation on the operation device 14 as a standard portion Qa. Further, the character string setting unit 22 sets an arbitrary character string designated by the administrator in the operation on the operation device 14 as the atypical portion Qb. For example, as illustrated in FIG. 3, a character string input by the administrator in the input field 132 displayed on the display device 13 is set as the atypical portion Qb. It is also possible to specify the non-standard part Qb by a character type (for example, katakana) different from the standard part Qa. For example, the name of a foreigner is specified as an atypical part Qb in katakana as heard by the Japanese.

図4の音声合成部24Aは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。図4に例示される通り、第1実施形態の音声合成部24Aは、第1処理部32Aと第2処理部34と接続処理部36とを含んで構成される。 The voice synthesis unit 24A of FIG. 4 generates a voice signal X representing the guidance voice G that pronounces the designated character string Q set by the character string setting unit 22. As illustrated in FIG. 4, the voice synthesis unit 24A of the first embodiment includes a first processing unit 32A, a second processing unit 34, and a connection processing unit 36.

第1処理部32Aは、文字列設定部22が設定した指定文字列Qの定型部分Qaの音声を表す第1信号X1を生成する。第1実施形態の第1処理部32Aは、記憶装置12に記憶された複数の収録信号Rのうち定型部分Qaに対応する1個の収録信号Rを第1信号X1として選択する。第2処理部34は、文字列設定部22が設定した指定文字列Qの非定型部分Qbに対応する音声を表す第2信号X2を生成する。第1実施形態の第2処理部34は、制御装置11が音声合成プログラムP2を実行することで実現され、記憶装置12に記憶された第2言語用の音声合成データD2を利用した音声合成処理により第2信号X2を生成する。接続処理部36は、第1処理部32Aが生成した第1信号X1と第2処理部34が生成した第2信号X2とを相互に接続することで音声信号Xを生成する。 The first processing unit 32A generates a first signal X1 representing the voice of the standard portion Qa of the designated character string Q set by the character string setting unit 22. The first processing unit 32A of the first embodiment selects one recording signal R corresponding to the standard portion Qa among the plurality of recording signals R stored in the storage device 12 as the first signal X1. The second processing unit 34 generates a second signal X2 representing a voice corresponding to the atypical portion Qb of the designated character string Q set by the character string setting unit 22. The second processing unit 34 of the first embodiment is realized by the control device 11 executing the speech synthesis program P2, and is a speech synthesis process using the speech synthesis data D2 for the second language stored in the storage device 12. Generates the second signal X2. The connection processing unit 36 generates an audio signal X by connecting the first signal X1 generated by the first processing unit 32A and the second signal X2 generated by the second processing unit 34 to each other.

図5は、第1実施形態の音声合成部24Aが音声信号Xを生成する処理(以下「信号生成処理」という)のフローチャートである。文字列設定部22による指定文字列Qの設定毎に信号生成処理が実行される。 FIG. 5 is a flowchart of a process (hereinafter referred to as “signal generation process”) in which the voice synthesis unit 24A of the first embodiment generates a voice signal X. The signal generation process is executed for each setting of the designated character string Q by the character string setting unit 22.

信号生成処理を開始すると、第1処理部32Aは、文字列設定部22が設定した指定文字列Qの定型部分Qaに対応する音声を表す第1信号X1を複数の収録信号Rから選択する(Sa1:第1処理)。すなわち、複数の収録信号Rのうち指定文字列Qの定型部分Qaに対応する1個の収録信号Rが第1信号X1として選択される。第1信号X1は、定型部分Qaを発音した第1言語の音声を表す信号である。 When the signal generation process is started, the first processing unit 32A selects the first signal X1 representing the voice corresponding to the fixed portion Qa of the designated character string Q set by the character string setting unit 22 from the plurality of recorded signals R ( Sa1: First process). That is, one of the plurality of recorded signals R corresponding to the fixed portion Qa of the designated character string Q is selected as the first signal X1. The first signal X1 is a signal representing the voice of the first language that pronounces the fixed portion Qa.

第2処理部34は、文字列設定部22が設定した指定文字列Qの非定型部分Qbの音声を表す第2信号X2を音声合成処理により生成する(Sa2:第2処理)。第1実施形態の第2処理部34は、以下に詳述する通り、記憶装置12に記憶された第2言語用の音声合成データD2を利用した音声合成処理により第2信号X2を生成する(Sa21−Sa24)。 The second processing unit 34 generates a second signal X2 representing the voice of the atypical portion Qb of the designated character string Q set by the character string setting unit 22 by voice synthesis processing (Sa2: second processing). As described in detail below, the second processing unit 34 of the first embodiment generates the second signal X2 by the voice synthesis processing using the voice synthesis data D2 for the second language stored in the storage device 12 ( Sa21-Sa24).

まず、第2処理部34は、音声合成データD2の発音規則データDa2を参照することで、非定型部分Qbに対応する発音記号を決定する(Sa21)。第1実施形態の発音規則データDa2は、第2言語(例えば日本語)の文字列と発音記号との関係を規定する。したがって、ステップSa21では、第2言語の語句として自然な読み方と認識される発音記号が非定型部分Qbから決定される。 First, the second processing unit 34 determines the phonetic symbols corresponding to the atypical portion Qb by referring to the pronunciation rule data Da2 of the speech synthesis data D2 (Sa21). The pronunciation rule data Da2 of the first embodiment defines the relationship between the character string of the second language (for example, Japanese) and the phonetic symbol. Therefore, in step Sa21, a phonetic symbol recognized as a natural reading as a second language phrase is determined from the atypical part Qb.

また、第2処理部34は、非定型部分Qbの発音記号に対応する複数の音声素片を音声素片データDb2から選択する(Sa22)。そして、第2処理部34は、音声素片データDb2から選択した各音声素片の特性を適宜に調整する(Sa23)。例えば、案内音声Gの抑揚に影響する音高および音量が調整される。第2処理部34は、調整後の複数の音声素片を時間軸上で相互に接続することで第2信号X2を生成する(Sa24)。前述の通り、第1実施形態の音声素片データDb2には、第2言語(例えば日本語)を発音した音声から採取された複数の音声素片が登録される。したがって、ステップSa24では、第2言語の音声として聴感的に自然な音声を表す第2信号X2が生成される。なお、第1処理Sa1と第2処理Sa2との先後を逆転することも可能である。 Further, the second processing unit 34 selects a plurality of voice elements corresponding to the phonetic symbols of the atypical portion Qb from the voice element data Db2 (Sa22). Then, the second processing unit 34 appropriately adjusts the characteristics of each audio element selected from the audio element data Db2 (Sa23). For example, the pitch and volume that affect the intonation of the guidance voice G are adjusted. The second processing unit 34 generates a second signal X2 by connecting a plurality of adjusted audio elements to each other on the time axis (Sa24). As described above, in the voice element data Db2 of the first embodiment, a plurality of voice elements collected from the voice pronounced in the second language (for example, Japanese) are registered. Therefore, in step Sa24, a second signal X2 representing an audibly natural voice is generated as the voice of the second language. It is also possible to reverse the front and back of the first process Sa1 and the second process Sa2.

以上の処理が完了すると、接続処理部36は、第1処理Sa1で生成した第1信号X1と第2処理Sa2(Sa21−Sa24)で生成した第2信号X2とを接続することで音声信号Xを生成する(Sa3:接続処理)。具体的には、第1信号X1のうち非定型部分Qbに対応した区間に第2信号X2を挿入することで音声信号Xが生成される。すなわち、第1実施形態の音声合成部24Aは、指定文字列Qの定型部分Qaを第1言語で発音した音声と、指定文字列Qの非定型部分Qbを第2言語で発音した音声とを表す音声信号Xを生成する。音声合成部24Aが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。 When the above processing is completed, the connection processing unit 36 connects the first signal X1 generated by the first processing Sa1 and the second signal X2 generated by the second processing Sa2 (Sa21-Sa24) to the audio signal X. (Sa3: connection processing). Specifically, the audio signal X is generated by inserting the second signal X2 into the section of the first signal X1 corresponding to the atypical portion Qb. That is, the voice synthesis unit 24A of the first embodiment produces a voice in which the fixed portion Qa of the designated character string Q is pronounced in the first language and a voice in which the atypical portion Qb of the designated character string Q is pronounced in the second language. The voice signal X to be represented is generated. By supplying the voice signal X generated by the voice synthesis unit 24A to the sound emitting device 15, the guidance voice G is reproduced for the users in the facility.

以上に説明した通り、第1実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の音声合成データD2を利用した音声合成処理が実行される。したがって、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。 As described above, in the first embodiment, the voice synthesis process using the voice synthesis data D2 for the second language is executed for the atypical portion Qb of the designated character string Q. Therefore, it is possible to reproduce the guidance voice G whose phonology and intonation are audibly natural for the atypical portion Qb.

<第2実施形態>
本発明の第2実施形態について説明する。以下に例示する各構成において作用または機能が第1実施形態と同様である要素については、第1実施形態の説明で使用した符号を流用して各々の詳細な説明を適宜に省略する。
<Second Embodiment>
A second embodiment of the present invention will be described. For the elements whose actions or functions are the same as those of the first embodiment in each of the configurations exemplified below, the reference numerals used in the description of the first embodiment will be diverted and detailed description of each will be omitted as appropriate.

図6は、第2実施形態に係る音声処理装置100の構成図である。図6に例示される通り、第2実施形態の記憶装置12は、第1実施形態で例示した第2言語用の音声合成プログラムP2および音声合成データD2のほか、第1言語用の音声合成プログラムP1および音声合成データD1を記憶する。音声合成プログラムP1は、第1言語の任意の文字列に対応する音声を合成する音声合成処理を実現するためのソフトウェア(音声合成エンジン)である。 FIG. 6 is a configuration diagram of the voice processing device 100 according to the second embodiment. As illustrated in FIG. 6, the storage device 12 of the second embodiment includes the speech synthesis program P2 for the second language and the speech synthesis data D2 exemplified in the first embodiment, as well as the speech synthesis program for the first language. Stores P1 and voice synthesis data D1. The speech synthesis program P1 is software (speech synthesis engine) for realizing a speech synthesis process for synthesizing speech corresponding to an arbitrary character string in a first language.

音声合成データD1は、音声合成プログラムP1による音声合成処理に利用されるデータであり、発音規則データDa1と音声素片データDb1とを含んで構成される。発音規則データDa1は、第1言語の文字列と発音記号との関係を規定する。音声素片データDb1は、第1言語の語句を発音した音声から採取された複数の音声素片の集合である。なお、第1実施形態で例示した複数の収録信号Rは、第2実施形態では省略される。 The voice synthesis data D1 is data used for voice synthesis processing by the voice synthesis program P1, and includes pronunciation rule data Da1 and voice fragment data Db1. The pronunciation rule data Da1 defines the relationship between the character string of the first language and the phonetic symbol. The speech fragment data Db1 is a set of a plurality of speech fragments collected from the speech that pronounces a phrase in the first language. The plurality of recorded signals R illustrated in the first embodiment are omitted in the second embodiment.

図7は、制御装置11の機能に着目した構成図である。図7に例示される通り、第2実施形態の制御装置11は、文字列設定部22および音声合成部24Bとして機能する。文字列設定部22は、第1実施形態と同様に、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。 FIG. 7 is a configuration diagram focusing on the function of the control device 11. As illustrated in FIG. 7, the control device 11 of the second embodiment functions as the character string setting unit 22 and the voice synthesis unit 24B. The character string setting unit 22 sets the designated character string Q including the standard portion Qa and the non-standard portion Qb, as in the first embodiment.

音声合成部24Bは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。第2実施形態の音声合成部24Bは、第1実施形態の音声合成部24Aにおける第1処理部32Aを第1処理部32Bに置換した構成である。第2実施形態の第1処理部32Bは、第1言語用の音声合成プログラムP1を制御装置11が実行することで実現され、記憶装置12に記憶された第1言語用の音声合成データD1を利用した音声合成処理により第1信号X1を生成する。第2処理部34および接続処理部36の機能は第1実施形態と同様である。 The voice synthesis unit 24B generates a voice signal X representing the guidance voice G that pronounces the designated character string Q set by the character string setting unit 22. The voice synthesis unit 24B of the second embodiment has a configuration in which the first processing unit 32A in the voice synthesis unit 24A of the first embodiment is replaced with the first processing unit 32B. The first processing unit 32B of the second embodiment is realized by the control device 11 executing the speech synthesis program P1 for the first language, and stores the speech synthesis data D1 for the first language stored in the storage device 12. The first signal X1 is generated by the voice synthesis process used. The functions of the second processing unit 34 and the connection processing unit 36 are the same as those in the first embodiment.

図8は、第2実施形態の音声合成部24Bが音声信号Xを生成する信号生成処理のフローチャートである。信号生成処理を開始すると、第1処理部32Bは、指定文字列Qの定型部分Qaの音声を表す第1信号X1を音声合成処理により生成する(Sb1:第1処理)。第2実施形態の第1処理部32Bは、以下に詳述する通り、記憶装置12に記憶された第1言語用の音声合成データD1を利用した音声合成処理により第1信号X1を生成する(Sb11−Sb14)。 FIG. 8 is a flowchart of a signal generation process in which the voice synthesis unit 24B of the second embodiment generates a voice signal X. When the signal generation process is started, the first processing unit 32B generates a first signal X1 representing the voice of the fixed portion Qa of the designated character string Q by the voice synthesis process (Sb1: first process). As described in detail below, the first processing unit 32B of the second embodiment generates the first signal X1 by the voice synthesis processing using the voice synthesis data D1 for the first language stored in the storage device 12 ( Sb11-Sb14).

具体的には、第1処理部32Bは、第1言語用の発音規則データDa1を参照することで、定型部分Qaに対応する発音記号を決定する(Sb11)。したがって、第1言語の語句として自然な読み方と認識される発音記号が定型部分Qaから決定される。また、第1処理部32Bは、定型部分Qaの発音記号に対応する複数の音声素片を第1言語用の音声素片データDb1から選択し(Sb12)、各音声素片の特性を適宜に調整する(Sb13)。そして、第1処理部32Bは、調整後の複数の音声素片を時間軸上で相互に接続することで第1信号X1を生成する(Sb14)。前述の通り、音声素片データDb2には、第1言語を発音した音声から採取された複数の音声素片が登録されるから、第1言語の音声として聴感的に自然な音声を表す第1信号X1が生成される。 Specifically, the first processing unit 32B determines the phonetic symbols corresponding to the standard portion Qa by referring to the pronunciation rule data Da1 for the first language (Sb11). Therefore, the phonetic symbols recognized as natural readings as words in the first language are determined from the fixed form Qa. Further, the first processing unit 32B selects a plurality of speech elements corresponding to the phonetic symbols of the standard portion Qa from the speech element data Db1 for the first language (Sb12), and appropriately sets the characteristics of each speech element. Adjust (Sb13). Then, the first processing unit 32B generates the first signal X1 by connecting the adjusted voice elements to each other on the time axis (Sb14). As described above, since a plurality of speech elements collected from the speech that pronounces the first language are registered in the speech fragment data Db2, the first speech that represents an audibly natural speech as the speech of the first language. Signal X1 is generated.

第2処理部34は、第1実施形態と同様に、指定文字列Qの非定型部分Qbの音声を表す第2信号X2を、第2言語用の音声合成データD2を利用した音声合成処理により生成する(Sb2:第2処理)。第2処理部34が第2信号X2を生成する第2処理Sb2の内容は、第1実施形態の第2処理Sa2(Sa21−Sa24)と同様である。すなわち、第2処理部34は、第2言語用の発音規則データDa2を利用して非定型部分Qbの発音記号を決定する処理(Sb21)と、発音記号に対応する複数の音声素片を第2言語用の音声素片データDb2から選択する処理(Sb22)と、各音声素片の調整(Sb23)および接続(Sb24)により第2信号X2を生成する処理とを実行する。なお、第1処理Sb1と第2処理Sb2との先後を逆転することも可能である。 Similar to the first embodiment, the second processing unit 34 uses the second signal X2 representing the voice of the atypical portion Qb of the designated character string Q by voice synthesis processing using the voice synthesis data D2 for the second language. Generate (Sb2: second process). The content of the second processing Sb2 in which the second processing unit 34 generates the second signal X2 is the same as that of the second processing Sa2 (Sa21-Sa24) of the first embodiment. That is, the second processing unit 34 performs a process (Sb21) of determining the phonetic symbol of the atypical portion Qb using the phonetic rule data Da2 for the second language, and a plurality of speech elements corresponding to the phonetic symbol. The process of selecting from the phonetic fragment data Db2 for two languages (Sb22) and the process of generating the second signal X2 by adjusting and connecting (Sb24) each phonetic fragment are executed. It is also possible to reverse the front and back of the first process Sb1 and the second process Sb2.

以上の処理が完了すると、接続処理部36は、第1処理Sb1(Sb11−Sb14)で生成した第1信号X1と第2処理Sb2(Sb21−Sb24)で生成した第2信号X2とを接続することで音声信号Xを生成する(Sb3:接続処理)。すなわち、第2実施形態の音声合成部24Bは、第1実施形態と同様に、指定文字列Qの定型部分Qaを第1言語で発音した音声と、指定文字列Qの非定型部分Qbを第2言語で発音した音声とを表す音声信号Xを生成する。音声合成部24Bが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。 When the above processing is completed, the connection processing unit 36 connects the first signal X1 generated by the first processing Sb1 (Sb11-Sb14) and the second signal X2 generated by the second processing Sb2 (Sb21-Sb24). This generates an audio signal X (Sb3: connection process). That is, the voice synthesis unit 24B of the second embodiment has the same as the first embodiment, the voice in which the fixed portion Qa of the designated character string Q is pronounced in the first language and the atypical portion Qb of the designated character string Q. A voice signal X representing a voice pronounced in two languages is generated. By supplying the voice signal X generated by the voice synthesis unit 24B to the sound emitting device 15, the guidance voice G is reproduced for the users in the facility.

以上に説明した通り、第2実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の音声合成データD2を利用した音声合成処理が実行される。したがって、第1実施形態と同様に、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。 As described above, in the second embodiment, the voice synthesis process using the voice synthesis data D2 for the second language is executed for the atypical portion Qb of the designated character string Q. Therefore, as in the first embodiment, it is possible to reproduce the guidance voice G whose phoneme and intonation are audibly natural for the atypical portion Qb.

また、第2実施形態では、定型部分Qaの音声を表す第1信号X1が、第1言語用の音声合成データD1を利用した音声合成処理により生成される。したがって、第1実施形態と比較して、複数の収録信号Rを事前に用意して記憶装置12に格納する必要がないという利点がある。他方、収録信号Rの音質は、音声合成処理で生成される第1信号X1の音質を一般的には上回る。以上の事情を考慮すると、事前に用意された複数の収録信号Rを選択的に第1信号X1として利用する第1実施形態によれば、第2実施形態と比較して、定型部分Qaの音質が高い音声信号Xを生成できるという利点がある。また、第1実施形態では、第1言語用の音声合成処理(第1処理Sb1)が不要であるから、制御装置11の処理負荷が軽減されるという利点もある。 Further, in the second embodiment, the first signal X1 representing the voice of the fixed form portion Qa is generated by the voice synthesis process using the voice synthesis data D1 for the first language. Therefore, as compared with the first embodiment, there is an advantage that it is not necessary to prepare a plurality of recorded signals R in advance and store them in the storage device 12. On the other hand, the sound quality of the recorded signal R generally exceeds the sound quality of the first signal X1 generated by the speech synthesis process. Considering the above circumstances, according to the first embodiment in which a plurality of recorded signals R prepared in advance are selectively used as the first signal X1, the sound quality of the standard portion Qa is compared with that of the second embodiment. Has the advantage of being able to generate a high audio signal X. Further, in the first embodiment, since the speech synthesis process for the first language (first process Sb1) is unnecessary, there is an advantage that the processing load of the control device 11 is reduced.

<第3実施形態>
図9は、第3実施形態に係る音声処理装置100の構成図である。図9に例示される通り、第3実施形態の記憶装置12は、第1言語用の音声合成プログラムP1および音声合成データD1と、第2言語用の発音規則データDa2(音声合成データD2)とを記憶する。第1言語用の音声合成データD1は、発音規則データDa1と音声素片データDb1とを含んで構成される。第2言語用の発音規則データDa2は、第1実施形態で前述した通り、第2言語の文字列と発音記号との関係を規定する。
<Third Embodiment>
FIG. 9 is a configuration diagram of the voice processing device 100 according to the third embodiment. As illustrated in FIG. 9, the storage device 12 of the third embodiment includes the speech synthesis program P1 and the speech synthesis data D1 for the first language, and the pronunciation rule data Da2 (speech synthesis data D2) for the second language. Remember. The voice synthesis data D1 for the first language is configured to include pronunciation rule data Da1 and voice element data Db1. The pronunciation rule data Da2 for the second language defines the relationship between the character string of the second language and the phonetic symbols as described above in the first embodiment.

図10は、制御装置11の機能に着目した構成図である。図10に例示される通り、第3実施形態の制御装置11は、文字列設定部22および音声合成部24Cとして機能する。文字列設定部22は、第1実施形態と同様に、定型部分Qaと非定型部分Qbとを含む指定文字列Qを設定する。 FIG. 10 is a configuration diagram focusing on the function of the control device 11. As illustrated in FIG. 10, the control device 11 of the third embodiment functions as a character string setting unit 22 and a voice synthesis unit 24C. The character string setting unit 22 sets the designated character string Q including the standard portion Qa and the non-standard portion Qb, as in the first embodiment.

音声合成部24Cは、文字列設定部22が設定した指定文字列Qを発音した案内音声Gを表す音声信号Xを生成する。第3実施形態の音声合成部24Cは、第1言語の音声合成プログラムP1により実現される。音声信号Xの生成において、音声合成部24Cは、第1言語用の発音規則データDa1により定型部分Qaの発音記号を決定し、第2言語用の発音規則データDa2により非定型部分Qbの発音記号を決定する。 The voice synthesis unit 24C generates a voice signal X representing the guidance voice G that pronounces the designated character string Q set by the character string setting unit 22. The voice synthesis unit 24C of the third embodiment is realized by the voice synthesis program P1 of the first language. In the generation of the voice signal X, the voice synthesis unit 24C determines the phonetic symbol of the fixed portion Qa by the pronunciation rule data Da1 for the first language, and the phonetic symbol of the atypical portion Qb by the pronunciation rule data Da2 for the second language. To determine.

図11は、第3実施形態の音声合成部24Cが音声信号Xを生成する処理(音声合成処理)のフローチャートである。文字列設定部22による指定文字列Qの設定毎に音声合成処理が実行される。 FIG. 11 is a flowchart of a process (voice synthesis process) in which the voice synthesis unit 24C of the third embodiment generates a voice signal X. The voice synthesis process is executed for each setting of the designated character string Q by the character string setting unit 22.

音声合成処理を開始すると、音声合成部24Cは、文字列設定部22が設定した指定文字列Qの定型部分Qaに対応する発音記号を、第1言語用の発音規則データDa1を参照して決定する(Sc1)。したがって、第1言語の語句として自然な読み方と認識される発音記号が定型部分Qaから決定される。 When the speech synthesis process is started, the speech synthesis unit 24C determines the phonetic symbols corresponding to the fixed portion Qa of the designated character string Q set by the character string setting unit 22 with reference to the pronunciation rule data Da1 for the first language. (Sc1). Therefore, the phonetic symbols recognized as natural readings as words in the first language are determined from the fixed form Qa.

また、音声合成部24Cは、指定文字列Qの非定型部分Qbに対応する発音記号を、第2言語用の発音規則データDa2を参照して決定する(Sc2)。したがって、第2言語の語句として自然な読み方と認識される発音記号が非定型部分Qbから決定される。なお、定型部分Qaの発音記号の決定(Sc1)と非定型部分Qbの発音記号の決定(Sc2)との先後を逆転することも可能である。 Further, the speech synthesis unit 24C determines the phonetic symbols corresponding to the atypical portion Qb of the designated character string Q with reference to the pronunciation rule data Da2 for the second language (Sc2). Therefore, the phonetic symbols recognized as natural readings as words in the second language are determined from the atypical part Qb. It is also possible to reverse the process of determining the phonetic symbol of the standard portion Qa (Sc1) and determining the phonetic symbol of the atypical portion Qb (Sc2).

音声合成部24Cは、定型部分Qaおよび非定型部分Qbについて決定した発音記号の音声を表す音声信号Xを生成する(Sc3)。具体的には、音声合成部24Cは、まず、定型部分Qaおよび非定型部分Qbの発音記号に対応する複数の音声素片を音声素片データDb1から選択する(Sc31)。そして、音声合成部24Cは、音声素片データDb1から選択した各音声素片の特性を適宜に調整し(Sc32)、調整後の複数の音声素片を時間軸上で相互に接続することで音声信号Xを生成する(Sc33)。音声合成部24Cが生成した音声信号Xが放音装置15に供給されることで、施設内の利用者に対して案内音声Gが再生される。 The voice synthesis unit 24C generates a voice signal X representing the voice of the phonetic symbol determined for the standard portion Qa and the atypical portion Qb (Sc3). Specifically, the voice synthesis unit 24C first selects a plurality of voice elements corresponding to the phonetic symbols of the standard portion Qa and the atypical portion Qb from the voice fragment data Db1 (Sc31). Then, the voice synthesis unit 24C appropriately adjusts the characteristics of each voice piece selected from the voice piece data Db1 (Sc32), and connects the adjusted plurality of voice pieces to each other on the time axis. Generates a voice signal X (Sc33). By supplying the voice signal X generated by the voice synthesis unit 24C to the sound emitting device 15, the guidance voice G is reproduced for the users in the facility.

第3実施形態では、指定文字列Qのうち非定型部分Qbについては第2言語用の発音規則データDa2(音声合成データD2)を利用した音声合成処理が実行される。したがって、第1実施形態と同様に、非定型部分Qbについて音韻および抑揚が聴感的に自然な案内音声Gを再生することが可能である。 In the third embodiment, the voice synthesis process using the pronunciation rule data Da2 (speech synthesis data D2) for the second language is executed for the atypical part Qb of the designated character string Q. Therefore, as in the first embodiment, it is possible to reproduce the guidance voice G whose phoneme and intonation are audibly natural for the atypical portion Qb.

また、第3実施形態では、音声合成プログラムP1および音声素片データDb1を利用して音声信号Xが生成されるから、第1実施形態および第2実施形態で例示した第2言語用の音声合成プログラムP2および音声素片データDb2は不要である。したがって、第1言語用の音声合成プログラムP1および音声素片データDb1と第2言語用の音声合成プログラムP2および音声素片データDb2とが必要な第2実施形態と比較して、記憶装置12に必要な記憶容量が削減されるという利点もある。また、第3実施形態では、第1信号X1と第2信号X2とを接続する接続処理(Sa3,Sb3)が不要である。例えば、第1信号X1と第2信号X2との時間的な関係を調整する処理(すなわち、第1信号X1のうち非定型部分Qbに対応した区間に第2信号X2を移動する処理)が不要である。したがって、定型部分Qaと非定型部分Qbとが自然に連結された案内音声Gが再生されるという利点もある。 Further, in the third embodiment, since the voice signal X is generated by using the voice synthesis program P1 and the voice fragment data Db1, the voice synthesis for the second language exemplified in the first embodiment and the second embodiment is performed. The program P2 and the voice fragment data Db2 are unnecessary. Therefore, the storage device 12 is compared with the second embodiment in which the speech synthesis program P1 and the speech fragment data Db1 for the first language and the speech synthesis program P2 and the speech fragment data Db2 for the second language are required. It also has the advantage of reducing the required storage capacity. Further, in the third embodiment, the connection process (Sa3, Sb3) for connecting the first signal X1 and the second signal X2 is unnecessary. For example, the process of adjusting the temporal relationship between the first signal X1 and the second signal X2 (that is, the process of moving the second signal X2 to the section corresponding to the atypical portion Qb of the first signal X1) is unnecessary. Is. Therefore, there is also an advantage that the guidance voice G in which the fixed form portion Qa and the atypical portion Qb are naturally connected is reproduced.

<第4実施形態>
図12は、第4実施形態に係る音声処理装置100の機能に着目した構成図である。図12に例示される通り、第4実施形態の記憶装置12は、相異なる指定文字列Q(具体的には定型部分Qa)に対応する複数の配信情報Vを記憶する。任意の1種類の指定文字列Qに対応する配信情報Vは、当該指定文字列Qに関連する情報(以下「関連情報」という)Cを識別するための識別情報である。関連情報Cは、案内音声Gの再生とともに施設の利用者に提示すべき情報である。例えば指定文字列Qに関連する文字列、または、当該文字列を他言語に翻訳した文字列が、関連情報Cの好適例である。
<Fourth Embodiment>
FIG. 12 is a configuration diagram focusing on the function of the voice processing device 100 according to the fourth embodiment. As illustrated in FIG. 12, the storage device 12 of the fourth embodiment stores a plurality of distribution information Vs corresponding to different designated character strings Q (specifically, a fixed form portion Qa). The distribution information V corresponding to any one type of designated character string Q is identification information for identifying information (hereinafter referred to as “related information”) C related to the designated character string Q. The related information C is information to be presented to the user of the facility together with the reproduction of the guidance voice G. For example, a character string related to the designated character string Q or a character string obtained by translating the character string into another language is a preferable example of the related information C.

第4実施形態の制御装置11は、図12に例示される通り、第1実施形態から第3実施形態の何れかと同様の文字列設定部22および音声合成部24(24A−24Cの何れか)に加えて、変調処理部26および混合処理部28として機能する。変調処理部26は、文字列設定部22が設定した指定文字列Qに応じた変調信号Mを生成する。変調信号Mは、指定文字列Qに対応した配信情報Vを音響成分として含む信号である。変調処理部26は、記憶装置12に記憶された複数の配信情報Vのうち指定文字列Qに対応する配信情報Vを検索し、当該配信情報Vを示す変調信号Mを生成する。具体的には、変調処理部26は、例えば所定の周波数の正弦波等の搬送波を配信情報Vにより変調する周波数変調、または、拡散符号を利用した配信情報Vの拡散変調等の変調処理により変調信号Mを生成する。配信情報Vの音響成分の周波数帯域は、例えば、放音装置15による再生が可能な周波数帯域であり、かつ、利用者が通常の環境で聴取する音の周波数帯域を上回る範囲(例えば18kHz以上かつ20kHz以下)に包含される。 As illustrated in FIG. 12, the control device 11 of the fourth embodiment has the same character string setting unit 22 and voice synthesis unit 24 (any of 24A-24C) as any of the first to third embodiments. In addition, it functions as a modulation processing unit 26 and a mixing processing unit 28. The modulation processing unit 26 generates a modulation signal M corresponding to the designated character string Q set by the character string setting unit 22. The modulated signal M is a signal that includes the distribution information V corresponding to the designated character string Q as an acoustic component. The modulation processing unit 26 searches for the distribution information V corresponding to the designated character string Q among the plurality of distribution information V stored in the storage device 12, and generates a modulation signal M indicating the distribution information V. Specifically, the modulation processing unit 26 modulates a carrier wave such as a sine wave having a predetermined frequency by frequency modulation using the distribution information V, or modulation processing such as diffusion modulation of the distribution information V using a diffusion code. Generate signal M. The frequency band of the acoustic component of the distribution information V is, for example, a frequency band that can be reproduced by the sound emitting device 15 and exceeds the frequency band of the sound that the user listens to in a normal environment (for example, 18 kHz or more). 20 kHz or less).

図12の混合処理部28は、音声合成部24が生成した音声信号Xと変調処理部26が生成した変調信号Mとを混合(例えば加算)することで音響信号Yを生成する。第4実施形態では、混合処理部28が生成した音響信号Yが放音装置15に供給される。放音装置15は、音響信号Yが表す音を放音する。すなわち、音声信号Xが表す案内音声Gと変調信号Mが表す配信情報Vの音響成分とが放音装置15から再生される。以上の説明から理解される通り、第1実施形態の放音装置15は、指定文字列Qを表す案内音声Gを再生する音響機器として機能するほか、空気振動としての音波を伝送媒体とした音響通信で配信情報Vを送信する送信部としても機能する。 The mixing processing unit 28 of FIG. 12 generates an acoustic signal Y by mixing (for example, adding) the voice signal X generated by the voice synthesis unit 24 and the modulation signal M generated by the modulation processing unit 26. In the fourth embodiment, the acoustic signal Y generated by the mixing processing unit 28 is supplied to the sound emitting device 15. The sound emitting device 15 emits a sound represented by the acoustic signal Y. That is, the guidance voice G represented by the voice signal X and the acoustic component of the distribution information V represented by the modulation signal M are reproduced from the sound emitting device 15. As understood from the above description, the sound emitting device 15 of the first embodiment functions as an acoustic device for reproducing the guidance voice G representing the designated character string Q, and also has sound waves using sound waves as air vibration as a transmission medium. It also functions as a transmission unit that transmits distribution information V by communication.

施設内の利用者は、図12の端末装置50を携帯する。端末装置50は、例えば携帯電話機またはスマートフォン等の可搬型の情報端末である。なお、例えば、鉄道事業者の施設内に設置される電光掲示板、または商業施設に設置される電子看板(例えばデジタルサイネージ)等の案内用の表示端末を端末装置50として利用することも可能である。 The user in the facility carries the terminal device 50 shown in FIG. The terminal device 50 is a portable information terminal such as a mobile phone or a smartphone. In addition, for example, it is also possible to use a display terminal for guidance such as an electric bulletin board installed in a railway operator's facility or an electronic signboard (for example, digital signage) installed in a commercial facility as a terminal device 50. ..

図13は、端末装置50の構成図である。図13に例示される通り、端末装置50は、制御装置51と記憶装置52と収音装置53と表示装置54とを具備する。収音装置53は、周囲の音を収音する音響機器(マイクロホン)である。具体的には、収音装置53は、音声処理装置100の放音装置15による再生音を収音して音響信号Zを生成する。音響信号Zは、配信情報Vの音響成分を含み得る。以上の説明から理解される通り、収音装置53は、端末装置50の相互間の音声通話または動画撮影時の音声収録に利用されるほか、空気振動としての音波を伝送媒体とする音響通信で配信情報Vを受信する受信部としても機能する。 FIG. 13 is a configuration diagram of the terminal device 50. As illustrated in FIG. 13, the terminal device 50 includes a control device 51, a storage device 52, a sound collecting device 53, and a display device 54. The sound collecting device 53 is an audio device (microphone) that collects ambient sound. Specifically, the sound collecting device 53 collects the sound reproduced by the sound emitting device 15 of the voice processing device 100 and generates an acoustic signal Z. The acoustic signal Z may include the acoustic component of the distribution information V. As understood from the above description, the sound collecting device 53 is used for voice communication between the terminal devices 50 or voice recording at the time of moving image shooting, and is also used for acoustic communication using sound waves as air vibration as a transmission medium. It also functions as a receiving unit that receives the distribution information V.

制御装置51は、例えばCPU等の処理回路で構成され、端末装置50の各要素を統括的に制御する。表示装置54(例えば液晶表示パネル)は、制御装置51による制御のもとで各種の画像を表示する。記憶装置52は、制御装置51が実行するプログラムと制御装置51が使用する各種のデータとを記憶する。例えば半導体記録媒体または磁気記録媒体等の公知の記録媒体が記憶装置52として採用され得る。第4実施形態の記憶装置52は、図13に例示される通り、参照テーブルTを記憶する。参照テーブルTは、音声処理装置100から送信され得る複数の配信情報V(V1,V2,…)の各々について関連情報C(C1,C2,…)が登録されたデータテーブルであり、配信情報Vに対応する関連情報Cを特定するために使用される。 The control device 51 is composed of a processing circuit such as a CPU, and controls each element of the terminal device 50 in an integrated manner. The display device 54 (for example, a liquid crystal display panel) displays various images under the control of the control device 51. The storage device 52 stores a program executed by the control device 51 and various data used by the control device 51. For example, a known recording medium such as a semiconductor recording medium or a magnetic recording medium can be adopted as the storage device 52. The storage device 52 of the fourth embodiment stores the reference table T as illustrated in FIG. The reference table T is a data table in which related information C (C1, C2, ...) Is registered for each of a plurality of distribution information Vs (V1, V2, ...) That can be transmitted from the voice processing device 100, and is a distribution information V. It is used to identify the relevant information C corresponding to.

制御装置51は、記憶装置52に記憶されたプログラムを実行することで、音声処理装置100が送信した配信情報Vに関する処理を実行するための複数の機能(情報抽出部511および提示制御部513)を実現する。なお、制御装置51の一部の機能を専用の電子回路で実現した構成、または、制御装置51の機能を複数の装置に分散した構成も採用され得る。 The control device 51 executes a program stored in the storage device 52 to execute a plurality of functions (information extraction unit 511 and presentation control unit 513) for executing processing related to the distribution information V transmitted by the voice processing device 100. To realize. A configuration in which some functions of the control device 51 are realized by a dedicated electronic circuit, or a configuration in which the functions of the control device 51 are distributed to a plurality of devices can also be adopted.

情報抽出部511は、収音装置53が生成した音響信号Zから配信情報Vを抽出する。具体的には、情報抽出部511は、音響信号Zのうち配信情報Vの音響成分を含む周波数帯域を強調するフィルタ処理と、配信情報Vに対する変調処理に対応した復調処理とを実行する。 The information extraction unit 511 extracts the distribution information V from the acoustic signal Z generated by the sound collecting device 53. Specifically, the information extraction unit 511 executes a filter process for emphasizing the frequency band including the acoustic component of the distribution information V in the acoustic signal Z, and a demodulation process corresponding to the modulation process for the distribution information V.

提示制御部513は、表示装置54による情報の表示を制御する。第4実施形態の提示制御部513は、情報抽出部511が抽出した配信情報Vに対応する関連情報Cを表示装置54に表示させる。具体的には、提示制御部513は、参照テーブルTに登録された複数の関連情報Cのうち情報抽出部511が抽出した配信情報Vに対応する関連情報Cを検索し、当該関連情報Cを表示装置54に表示させる。したがって、音声処理装置100の放音装置15による案内音声Gの再生に並行して、当該案内音声Gに対応した関連情報Cが表示装置54に表示される。 The presentation control unit 513 controls the display of information by the display device 54. The presentation control unit 513 of the fourth embodiment causes the display device 54 to display the related information C corresponding to the distribution information V extracted by the information extraction unit 511. Specifically, the presentation control unit 513 searches for the related information C corresponding to the distribution information V extracted by the information extraction unit 511 from among the plurality of related information C registered in the reference table T, and searches for the related information C. It is displayed on the display device 54. Therefore, in parallel with the reproduction of the guidance voice G by the sound emitting device 15 of the voice processing device 100, the related information C corresponding to the guidance voice G is displayed on the display device 54.

第4実施形態においても第1実施形態と同様の効果が実現される。また、第4実施形態では、関連情報Cを示す配信情報Vが音声処理装置100から端末装置50に送信される。したがって、案内音声Gに関連する関連情報Cを端末装置50により利用者に提示することが可能である。 The same effect as that of the first embodiment is realized in the fourth embodiment. Further, in the fourth embodiment, the distribution information V indicating the related information C is transmitted from the voice processing device 100 to the terminal device 50. Therefore, the related information C related to the guidance voice G can be presented to the user by the terminal device 50.

<変形例>
以上に例示した各形態は多様に変形され得る。前述の各形態に適用され得る具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲で適宜に併合され得る。
<Modification example>
Each of the above-exemplified forms can be variously modified. Specific modifications that can be applied to each of the above-mentioned forms are illustrated below. Two or more embodiments arbitrarily selected from the following examples can be appropriately merged to the extent that they do not contradict each other.

(1)前述の各形態では、表示装置13に表示された入力欄132に入力された文字列を非定型部分Qbとしたが、指定文字列Qのうちの非定型部分Qbを文字列設定部22が設定する方法は以上の例示に限定されない。例えば、形態素解析等の自然言語処理を指定文字列Qに対して実行することで固有名詞を抽出し、指定文字列Qのうち固有名詞の部分を非定型部分Qbとして設定することも可能である。また、定型部分Qaとは別個の文字種を利用して管理者が非定型部分Qbを図3の入力欄132に入力することも可能である。また、指定文字列Qを管理者が音声入力できる構成も好適である。例えば、管理者が発生した音声に対する音声認識で指定文字列Qが特定される。 (1) In each of the above-described modes, the character string input in the input field 132 displayed on the display device 13 is set as the non-standard part Qb, but the non-standard part Qb of the designated character string Q is set as the character string setting unit. The method set by 22 is not limited to the above examples. For example, it is also possible to extract a proper noun by executing natural language processing such as morphological analysis on the designated character string Q, and set the proper noun part of the designated character string Q as an atypical part Qb. .. It is also possible for the administrator to input the atypical portion Qb into the input field 132 of FIG. 3 by using a character type different from the fixed portion Qa. Further, a configuration in which the administrator can input the designated character string Q by voice is also preferable. For example, the designated character string Q is specified by voice recognition for the voice generated by the administrator.

(2)移動体通信網またはインターネット等の通信網を介して端末装置(例えば携帯電話機またはスマートフォン)と通信するサーバ装置により音声処理装置100を実現することも可能である。例えば、音声処理装置100は、端末装置から通信網を介して受信した指定文字列Qから音声信号Xを生成し、当該音声信号Xを端末装置に送信する。音声処理装置100が生成した音声信号Xのうちの非定型部分Qbを、第1実施形態の収録信号Rとして利用することも可能である。また、使用頻度が低い(あるいは低音質でよい)非定型部分Qbの第2信号X2を、スマートフォン等の情報端末で実現された音声処理装置100により生成し、使用頻度が高い(あるいは高品質が要求される)非定型部分Qbの第2信号X2を、サーバ装置で実現された音声処理装置100により生成することも可能である。 (2) It is also possible to realize the voice processing device 100 by a server device that communicates with a terminal device (for example, a mobile phone or a smartphone) via a mobile communication network or a communication network such as the Internet. For example, the voice processing device 100 generates a voice signal X from the designated character string Q received from the terminal device via the communication network, and transmits the voice signal X to the terminal device. It is also possible to use the atypical portion Qb of the audio signal X generated by the audio processing device 100 as the recording signal R of the first embodiment. Further, the second signal X2 of the atypical portion Qb, which is used infrequently (or low sound quality is acceptable), is generated by the voice processing device 100 realized by an information terminal such as a smartphone, and is frequently used (or has high quality). It is also possible to generate the second signal X2 of the atypical portion Qb (required) by the voice processing device 100 realized by the server device.

(3)第4実施形態では、音波を伝送媒体とする音響通信で音声処理装置100から端末装置50に配信情報Vを送信したが、音声処理装置100から配信情報Vを送信するための通信方式は音響通信に限定されない。例えば、電波または赤外線等の電磁波を伝送媒体とした無線通信で音声処理装置100から端末装置50に配信情報Vを送信することも可能である。例えば、前述の各形態における放音装置15が無線通信用の通信機器に置換される。具体的には、Bluetooth(登録商標)またはWiFi(登録商標)等の無線通信が配信情報Vの送信に好適である。 (3) In the fourth embodiment, the distribution information V is transmitted from the voice processing device 100 to the terminal device 50 by acoustic communication using sound waves as a transmission medium, but a communication method for transmitting the distribution information V from the voice processing device 100. Is not limited to audio communication. For example, it is also possible to transmit the distribution information V from the voice processing device 100 to the terminal device 50 by wireless communication using electromagnetic waves such as radio waves or infrared rays as a transmission medium. For example, the sound emitting device 15 in each of the above-described embodiments is replaced with a communication device for wireless communication. Specifically, wireless communication such as Bluetooth (registered trademark) or WiFi (registered trademark) is suitable for transmitting distribution information V.

以上の例示から理解される通り、音声処理装置100による配信情報Vの送信には、移動体通信網等の通信網が介在しない近距離無線通信が好適であり、音波を伝送媒体とする音響通信と電磁波を伝送媒体とする無線通信とは、近距離無線通信の例示である。なお、前述の各形態で例示した音響通信によれば、例えば遮音壁の設置により通信範囲を容易に制御できるという利点がある。 As understood from the above examples, short-range wireless communication without a communication network such as a mobile communication network is suitable for transmission of the distribution information V by the voice processing device 100, and acoustic communication using sound waves as a transmission medium. And wireless communication using electromagnetic waves as a transmission medium is an example of short-range wireless communication. According to the acoustic communication exemplified in each of the above-described modes, there is an advantage that the communication range can be easily controlled by installing a sound insulation wall, for example.

(4)前述の各形態では、関連情報Cの識別情報を配信情報Vとして例示したが、関連情報C自体を配信情報Vとして音声処理装置100から送信することも可能である。関連情報Cを配信情報Vとして送信する構成では、端末装置50に参照テーブルTを保持する必要はない。以上の例示から理解される通り、配信情報Vは、関連情報Cを示す情報として包括的に表現される。 (4) In each of the above-described forms, the identification information of the related information C is exemplified as the distribution information V, but the related information C itself can be transmitted from the voice processing device 100 as the distribution information V. In the configuration in which the related information C is transmitted as the distribution information V, it is not necessary to hold the reference table T in the terminal device 50. As understood from the above examples, the distribution information V is comprehensively expressed as information indicating the related information C.

(5)前述の各形態では、関連情報Cを表示装置54に表示したが、関連情報Cを端末装置50の利用者に提示する方法は以上の例示に限定されない。例えば、関連情報Cが表す音声を放音装置15により再生することで関連情報Cを利用者に提示することも可能である。関連情報Cが表す音声の生成には、例えば公知の音声合成技術が利用され得る。 (5) In each of the above-described forms, the related information C is displayed on the display device 54, but the method of presenting the related information C to the user of the terminal device 50 is not limited to the above examples. For example, it is also possible to present the related information C to the user by reproducing the sound represented by the related information C by the sound emitting device 15. For example, a known speech synthesis technique can be used to generate the speech represented by the related information C.

(6)第1実施形態において、収録信号Rが表す音声の発声者と、音声素片データDb2が表す音声素片の発声者とが相違する場合がある。この場合、第1信号X1と第2信号X2とで声質が相違するから、音声信号Xが表す音声が聴感的に不自然な印象となる可能性がある。そこで、第1信号X1および第2信号X2の一方または双方の声質を調整することで、第1信号X1と第2信号X2との声質を近付ける(理想的には一致させる)構成が好適である。声質の調整には、公知の声質変換技術が任意に採用され得る。 (6) In the first embodiment, the speaker of the voice represented by the recorded signal R and the speaker of the voice fragment represented by the voice fragment data Db2 may be different. In this case, since the voice quality differs between the first signal X1 and the second signal X2, the voice represented by the voice signal X may give an audibly unnatural impression. Therefore, it is preferable to adjust the voice qualities of one or both of the first signal X1 and the second signal X2 so that the voice qualities of the first signal X1 and the second signal X2 are brought close to each other (ideally matched). .. A known voice quality conversion technique can be arbitrarily adopted for adjusting the voice quality.

(7)音声合成処理に利用される音声合成データD(D1またはD2)の内容は、以上の例示に限定されない。例えば、音声の抑揚(例えば音高または音量の時間的な変化)を決定するための抑揚データを音声合成データDに含ませてもよい。例えば、音声合成データD1には、第1言語の発音時の抑揚の傾向が反映された抑揚データが含まれ、音声合成データD2には、第2言語の発音時の抑揚の傾向が反映された抑揚データが含まれる。第1実施形態または第2実施形態において、第2処理(Sa2,Sb2)には音声合成データD2の抑揚データが適用される。また、第2実施形態の第1処理Sb1には音声合成データD1の抑揚データが適用される。 (7) The content of the voice synthesis data D (D1 or D2) used for the voice synthesis processing is not limited to the above examples. For example, the speech synthesis data D may include intonation data for determining the intonation of speech (for example, a change in pitch or volume over time). For example, the speech synthesis data D1 includes intonation data that reflects the tendency of intonation at the time of pronunciation of the first language, and the speech synthesis data D2 reflects the tendency of intonation at the time of pronunciation of the second language. Includes intonation data. In the first embodiment or the second embodiment, the intonation data of the voice synthesis data D2 is applied to the second processing (Sa2, Sb2). Further, the intonation data of the voice synthesis data D1 is applied to the first process Sb1 of the second embodiment.

(8)前述の各形態に係る音声処理装置100は、各形態での例示の通り、制御装置11とプログラムとの協働により実現される。本発明の好適な態様に係るプログラムは、コンピュータに、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成処理を実行させ、音声合成処理では、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用する。以上に例示したプログラムは、コンピュータが読取可能な記録媒体に格納された形態で提供されてコンピュータにインストールされ得る。記録媒体は、例えば非一過性(non-transitory)の記録媒体であり、CD-ROM等の光学式記録媒体(光ディスク)が好例であるが、半導体記録媒体または磁気記録媒体等の公知の任意の形式の記録媒体を包含し得る。なお、非一過性の記録媒体とは、一過性の伝搬信号(transitory, propagating signal)を除く任意の記録媒体を含み、揮発性の記録媒体を除外するものではない。また、通信網を介した配信の形態でプログラムをコンピュータに提供することも可能である。 (8) The voice processing device 100 according to each of the above-described forms is realized by the cooperation between the control device 11 and the program as illustrated in each form. In a program according to a preferred embodiment of the present invention, a voice in which a first part of a designated character string is pronounced in a first language and a second part of the designated character string which is different from the first part are described. A voice synthesis process for generating a voice signal representing the voice that pronounced the above is executed, and in the voice synthesis process, voice synthesis data for a second language different from the first language is used for the second part. The programs exemplified above can be provided and installed in a computer in a form stored in a computer-readable recording medium. The recording medium is, for example, a non-transitory recording medium, and an optical recording medium (optical disc) such as a CD-ROM is a good example, but a known arbitrary such as a semiconductor recording medium or a magnetic recording medium is used. Can include recording media in the form of. The non-transient recording medium includes any recording medium other than the transient propagation signal (transitory, propagating signal), and does not exclude the volatile recording medium. It is also possible to provide a program to a computer in the form of distribution via a communication network.

(9)以上に例示した形態から、例えば以下の構成が把握される。
<態様1>
本発明の好適な態様(態様1)に係る音声処理方法は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成し、前記音声信号の生成においては、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。以上の態様では、指定文字列のうちの第1部分を第1言語で発音した音声と、指定文字列のうち第2部分を発音した音声とを表す音声信号を生成する過程において、第2部分については第2言語用の音声合成データを利用した音声合成処理が実行される。したがって、指定文字列の全体について第1言語用の音声合成データを利用した音声合成処理を実行する場合と比較して、第2部分について音韻および抑揚が聴感的に自然である音声の音声信号を生成できる。
<態様2>
態様1の好適例(態様2)において、前記音声信号の生成は、前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む。以上の態様では、指定文字列のうち第1部分に対応する音声を表す第1信号が複数の収録信号から選択される。したがって、高音質な音声で第1部分が発音された音声信号を生成できるという利点がある。
<態様3>
態様1の好適例(態様3)において、前記音声信号の生成は、前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、前記第1言語用の音声合成データを利用した音声合成処理により生成する第1処理と、前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、前記第1処理で生成した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む。以上の態様では、指定文字列のうち第1部分に対応する音声を表す第1信号が、第1言語用の音声合成データを利用した音声合成処理により生成される。したがって、第1部分の音声を事前に収録する必要がないという利点がある。
<態様4>
態様1の好適例(態様4)では、前記音声信号の生成において、前記第1言語用の発音規則データにより前記第1部分の発音記号を決定し、前記第1言語用の発音規則データとは相違する前記第2言語用の発音規則データにより前記第2部分の発音記号を決定し、前記第1部分および前記第2部分について決定した発音記号の音声を表す前記音声信号を生成する。以上の態様では、第1部分の発音記号が第1言語用の発音規則データにより決定され、第2部分の発音記号が第2言語用の発音規則データにより決定されて、各発音記号の音声を表す音声信号が生成される。したがって、発音記号から音声信号を生成する処理を第1部分と第2部分とで共通化できるという利点がある。
<態様5>
態様1から態様4の何れかの好適例(態様5)において、前記第2部分は、前記指定文字列のうち固有名詞の部分である。指定文字列のうち固有名詞の部分は一般的に使用頻度が低いから、音声を事前に収録することは困難である。指定文字列のうち固有名詞の部分を第2部分とした構成によれば、使用頻度が低い第2部分についても音声を生成できるという利点がある。
<態様6>
態様1から態様5の何れかの好適例(態様6)において、前記音声信号と、当該音声信号が表す音声に対応した関連情報を示す配信情報を音響成分として含む変調信号とを混合して放音装置に供給する。以上の態様では、配信情報を音響成分として含む変調信号が音声信号に混合されたうえで放音装置から再生される。すなわち、音声信号が表す音声を放音するための放音装置が、配信情報を送信するための送信機として利用される。したがって、配信情報の送信に専用される送信機が必要である構成と比較して、装置構成が簡素化されるという利点がある。
<態様7>
本発明の好適な態様(態様7)に係る音声処理装置は、指定文字列のうちの第1部分を第1言語で発音した音声と、前記指定文字列のうち前記第1部分とは相違する第2部分を発音した音声とを表す音声信号を生成する音声合成部を具備し、前記音声合成部は、前記第2部分について、前記第1言語とは相違する第2言語用の音声合成データを利用した音声合成処理を実行する。以上の態様では、指定文字列のうちの第1部分を第1言語で発音した音声と、指定文字列のうち第2部分を発音した音声とを表す音声信号を生成する音声合成部が、第2部分については第2言語用の音声合成データを利用した音声合成処理を実行する。したがって、指定文字列の全体について第1言語用の音声合成データを利用した音声合成処理を実行する構成と比較して、第2部分について音韻および抑揚が聴感的に自然である音声の音声信号を生成できる。
(9) From the above-exemplified form, for example, the following configuration can be grasped.
<Aspect 1>
The voice processing method according to the preferred aspect (aspect 1) of the present invention is different from the voice in which the first part of the designated character string is pronounced in the first language and the first part of the designated character string. A voice signal representing the voice that pronounces the second part is generated, and in the generation of the voice signal, the voice using the voice synthesis data for the second language different from the first language is used for the second part. Execute the synthesis process. In the above aspect, in the process of generating a voice signal representing a voice in which the first part of the designated character string is pronounced in the first language and a voice in which the second part of the designated character string is pronounced, the second part The voice synthesis process using the voice synthesis data for the second language is executed. Therefore, as compared with the case where the voice synthesis process using the voice synthesis data for the first language is executed for the entire designated character string, the voice signal of the voice whose phoneme and intonation are audibly natural for the second part is produced. Can be generated.
<Aspect 2>
In a preferred example of the first aspect (aspect 2), the generation of the voice signal is performed by recording a first signal representing the voice corresponding to the first portion of the designated character string, and a plurality of recordings representing the voice recorded in advance. The first process of selecting from the signals and the second signal representing the voice corresponding to the second part of the designated character string are generated by the voice synthesis process using the voice synthesis data for the second language. The process includes a connection process of generating the voice signal by connecting the first signal selected in the first process and the second signal generated in the second process. In the above aspect, the first signal representing the voice corresponding to the first part of the designated character string is selected from the plurality of recorded signals. Therefore, there is an advantage that an audio signal in which the first portion is pronounced can be generated with high-quality sound.
<Aspect 3>
In a preferred example of the first aspect (aspect 3), the voice signal is generated by using the first signal representing the voice corresponding to the first part of the designated character string and the voice synthesis data for the first language. The first process generated by the voice synthesis process and the second signal representing the voice corresponding to the second part of the designated character string are generated by the voice synthesis process using the voice synthesis data for the second language. The second process is included, and a connection process for generating the voice signal by connecting the first signal generated in the first process and the second signal generated in the second process. In the above aspect, the first signal representing the voice corresponding to the first part of the designated character string is generated by the voice synthesis process using the voice synthesis data for the first language. Therefore, there is an advantage that it is not necessary to record the sound of the first part in advance.
<Aspect 4>
In the preferred example of the first aspect (aspect 4), in the generation of the voice signal, the phonetic symbol of the first part is determined from the phonetic rule data for the first language, and the phonetic rule data for the first language is used. The phonetic symbol of the second part is determined from the different pronunciation rule data for the second language, and the voice signal representing the sound of the phonetic symbol determined for the first part and the second part is generated. In the above aspect, the phonetic symbol of the first part is determined by the phonetic rule data for the first language, the phonetic symbol of the second part is determined by the phonetic rule data for the second language, and the phonetic of each phonetic symbol is produced. A phonetic signal is generated. Therefore, there is an advantage that the process of generating an audio signal from a phonetic symbol can be shared between the first portion and the second portion.
<Aspect 5>
In any of the preferred examples (Aspect 5) of Aspects 1 to 4, the second part is a part of a proper noun in the designated character string. Since the proper noun part of the designated character string is generally used infrequently, it is difficult to record the voice in advance. According to the configuration in which the proper noun part of the designated character string is used as the second part, there is an advantage that voice can be generated even for the second part which is rarely used.
<Aspect 6>
In any of the preferred examples (Aspect 6) of Aspects 1 to 5, the voice signal and a modulated signal containing distribution information indicating related information corresponding to the voice represented by the voice signal as an acoustic component are mixed and released. Supply to the sound device. In the above aspect, the modulated signal including the distribution information as an acoustic component is mixed with the audio signal and then reproduced from the sound emitting device. That is, the sound emitting device for emitting the sound represented by the audio signal is used as a transmitter for transmitting the distribution information. Therefore, there is an advantage that the device configuration is simplified as compared with a configuration that requires a transmitter dedicated to transmitting distribution information.
<Aspect 7>
The voice processing device according to the preferred aspect (aspect 7) of the present invention is different from the voice in which the first part of the designated character string is pronounced in the first language and the first part of the designated character string. The voice synthesis unit includes a voice synthesis unit that generates a voice signal representing the voice that pronounces the second part, and the voice synthesis unit has voice synthesis data for a second language that is different from the first language for the second part. Executes voice synthesis processing using. In the above aspect, the voice synthesis unit that generates a voice signal representing a voice in which the first part of the designated character string is pronounced in the first language and a voice in which the second part of the designated character string is pronounced is the first. For the second part, the voice synthesis process using the voice synthesis data for the second language is executed. Therefore, as compared with the configuration in which the voice synthesis process using the voice synthesis data for the first language is executed for the entire designated character string, the voice signal of the voice whose phoneme and intonation are audibly natural for the second part is produced. Can be generated.

100…音声処理装置、11…制御装置、12…記憶装置、13…表示装置、14…操作装置、15…放音装置、22…文字列設定部、24A,24B,24C…音声合成部、26…変調処理部、28…混合処理部、32A,32B…第1処理部、34…第2処理部、36…接続処理部、50…端末装置、51…制御装置、52…記憶装置、53…収音装置、54…表示装置。
100 ... voice processing device, 11 ... control device, 12 ... storage device, 13 ... display device, 14 ... operation device, 15 ... sound release device, 22 ... character string setting unit, 24A, 24B, 24C ... voice synthesis unit, 26 ... Modulation processing unit, 28 ... Mixing processing unit, 32A, 32B ... First processing unit, 34 ... Second processing unit, 36 ... Connection processing unit, 50 ... Terminal device, 51 ... Control device, 52 ... Storage device, 53 ... Sound collecting device, 54 ... Display device.

Claims (4)

指定文字列のうち第1言語に対応する第1部分を発音した音声と、前記指定文字列のうち前記第1言語とは相違する第2言語に対応する第2部分を発音した音声とを表す音声信号を生成し、
前記音声信号の生成は、
前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、
前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、
前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを含む
コンピュータシステムにより実現される音声処理方法。
Represents a voice that pronounces the first part of the designated character string corresponding to the first language and a voice that pronounces the second part of the designated character string corresponding to a second language different from the first language. Generate a voice signal,
The generation of the audio signal is
The first process of selecting the first signal representing the voice corresponding to the first portion of the designated character string from a plurality of recorded signals representing the voice recorded in advance, and
A second process of generating a second signal representing a voice corresponding to the second part of the designated character string by a voice synthesis process using the voice synthesis data for the second language, and a second process.
A voice processing method realized by a computer system including a connection process for generating the voice signal by connecting the first signal selected in the first process and the second signal generated in the second process.
前記音声信号と、当該音声信号が表す音声に対応した関連情報を示す配信情報を音響成分として含む変調信号とを混合して放音装置に供給する
請求項1音声処理方法。
The voice processing method according to claim 1, wherein the voice signal and a modulated signal including distribution information indicating related information corresponding to the voice represented by the voice signal are mixed and supplied to a sound emitting device.
指定文字列のうち第1言語に対応する第1部分を発音した音声と、前記指定文字列のうち前記第1言語とは相違する第2言語に対応する第2部分を発音した音声とを表す音声信号を生成する音声合成部を具備し、
前記音声合成部は、
前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、
前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、
前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを実行する
音声処理装置。
Represents a voice that pronounces the first part of the designated character string corresponding to the first language and a voice that pronounces the second part of the designated character string corresponding to a second language different from the first language. Equipped with a voice synthesizer that generates voice signals,
The voice synthesizer
The first process of selecting the first signal representing the voice corresponding to the first portion of the designated character string from a plurality of recorded signals representing the voice recorded in advance, and
A second process of generating a second signal representing a voice corresponding to the second part of the designated character string by a voice synthesis process using the voice synthesis data for the second language, and a second process.
A voice processing device that executes a connection process for generating the voice signal by connecting the first signal selected in the first process and the second signal generated in the second process.
指定文字列のうち第1言語に対応する第1部分を発音した音声と、前記指定文字列のうち前記第1言語とは相違する第2言語に対応する第2部分を発音した音声とを表す音声信号を生成する音声合成部、としてコンピュータを機能させるプログラムであって、
前記音声合成部は、
前記指定文字列のうち前記第1部分に対応する音声を表す第1信号を、事前に収録された音声を表す複数の収録信号から選択する第1処理と、
前記指定文字列のうち前記第2部分に対応する音声を表す第2信号を、前記第2言語用の音声合成データを利用した音声合成処理により生成する第2処理と、
前記第1処理で選択した前記第1信号と前記第2処理で生成した前記第2信号とを接続することで前記音声信号を生成する接続処理とを実行する
プログラム。
Represents a voice that pronounces the first part of the designated character string corresponding to the first language and a voice that pronounces the second part of the designated character string corresponding to a second language different from the first language. A program that makes a computer function as a voice synthesizer that generates voice signals.
The voice synthesizer
The first process of selecting the first signal representing the voice corresponding to the first portion of the designated character string from a plurality of recorded signals representing the voice recorded in advance, and
A second process of generating a second signal representing a voice corresponding to the second part of the designated character string by a voice synthesis process using the voice synthesis data for the second language, and a second process.
A program that executes a connection process for generating an audio signal by connecting the first signal selected in the first process and the second signal generated in the second process.
JP2017022418A 2017-02-09 2017-02-09 Speech processing methods, audio processors and programs Active JP6897132B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017022418A JP6897132B2 (en) 2017-02-09 2017-02-09 Speech processing methods, audio processors and programs

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017022418A JP6897132B2 (en) 2017-02-09 2017-02-09 Speech processing methods, audio processors and programs

Publications (2)

Publication Number Publication Date
JP2018128607A JP2018128607A (en) 2018-08-16
JP6897132B2 true JP6897132B2 (en) 2021-06-30

Family

ID=63172844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017022418A Active JP6897132B2 (en) 2017-02-09 2017-02-09 Speech processing methods, audio processors and programs

Country Status (1)

Country Link
JP (1) JP6897132B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003295880A (en) * 2002-03-28 2003-10-15 Fujitsu Ltd Speech synthesis system for connecting sound-recorded speech and synthesized speech together
JP2006030384A (en) * 2004-07-13 2006-02-02 Sony Corp Device and method for text speech synthesis
CN1731510B (en) * 2004-08-05 2010-12-08 纽安斯通信有限公司 Text-speech conversion for amalgamated language
EP2595143B1 (en) * 2011-11-17 2019-04-24 Svox AG Text to speech synthesis for texts with foreign language inclusions
JP2013195928A (en) * 2012-03-22 2013-09-30 Yamaha Corp Synthesis unit segmentation device
JP6258981B2 (en) * 2014-07-29 2018-01-10 ヤマハ株式会社 Program and information processing method

Also Published As

Publication number Publication date
JP2018128607A (en) 2018-08-16

Similar Documents

Publication Publication Date Title
AU2015297648B2 (en) Terminal device, information providing system, information presentation method, and information providing method
AU2015297647B2 (en) Information management system and information management method
US10621997B2 (en) Information providing system, information providing method, and computer-readable recording medium
EP2207165A1 (en) Information processing apparatus and text-to-speech method
KR20150105075A (en) Apparatus and method for automatic interpretation
KR101877559B1 (en) Method for allowing user self-studying language by using mobile terminal, mobile terminal for executing the said method and record medium for storing application executing the said method
JP6897132B2 (en) Speech processing methods, audio processors and programs
JP6596903B2 (en) Information providing system and information providing method
JP2005321706A (en) Method for reproducing digital book and apparatus for the same
JP6809177B2 (en) Information processing system and information processing method
JP6686306B2 (en) Information providing apparatus and information providing method
JP7331645B2 (en) Information provision method and communication system
JP6984769B2 (en) Information provision method and information provision system
JP6834634B2 (en) Information provision method and information provision system
JP6780529B2 (en) Information providing device and information providing system
JP7192948B2 (en) Information provision method, information provision system and program
JP2018088088A (en) Information processing system and terminal device
JP2008039826A (en) Voice guidance apparatus
KR20140109551A (en) Apparatus and method for learning foreign language by using augmented reality
JP2003022267A (en) Automatic translation system, automatic translation terminal equipment, automatic translation providing device, automatic translation method, program and recording medium
JP2006091105A (en) Word learning device, and speech output method and program thereof
KR20180027000A (en) Word referral method
KR20100008422A (en) Language studing system using text to speech converting technology and metheod therefor
JP2010079190A (en) Method of updating dictionary for speech synthesis, terminal device, and speech synthesis system
KR20140087949A (en) Apparatus and method for learning word by using augmented reality

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191219

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200901

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201029

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210316

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210511

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210524

R151 Written notification of patent or utility model registration

Ref document number: 6897132

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151