JP6648786B2 - Voice control device, voice control method and program - Google Patents

Voice control device, voice control method and program Download PDF

Info

Publication number
JP6648786B2
JP6648786B2 JP2018140060A JP2018140060A JP6648786B2 JP 6648786 B2 JP6648786 B2 JP 6648786B2 JP 2018140060 A JP2018140060 A JP 2018140060A JP 2018140060 A JP2018140060 A JP 2018140060A JP 6648786 B2 JP6648786 B2 JP 6648786B2
Authority
JP
Japan
Prior art keywords
answer
pitch
voice
question
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018140060A
Other languages
Japanese (ja)
Other versions
JP2018185537A (en
Inventor
松原 弘明
弘明 松原
純也 浦
純也 浦
川▲原▼ 毅彦
毅彦 川▲原▼
久湊 裕司
裕司 久湊
克二 吉村
克二 吉村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Yamaha Corp
Original Assignee
Yamaha Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Yamaha Corp filed Critical Yamaha Corp
Priority to JP2018140060A priority Critical patent/JP6648786B2/en
Publication of JP2018185537A publication Critical patent/JP2018185537A/en
Application granted granted Critical
Publication of JP6648786B2 publication Critical patent/JP6648786B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Toys (AREA)
  • Electrically Operated Instructional Devices (AREA)

Description

本発明は、本発明は、音声制御装置、音声制御方法およびプログラムに関する。   The present invention relates to a voice control device, a voice control method, and a program.

近年、音声合成技術としては、次のようなものが提案されている。すなわち、利用者の話調や声質に対応して合成した音声で応答することによって、より人間らしく発音する技術(例えば特許文献1参照)や、利用者の音声を分析して、当該利用者の心理状態や健康状態などを診断する技術(例えば特許文献2参照)が提案されている。
また、利用者が入力した音声を認識する一方で、シナリオで指定された内容を音声合成で出力して、利用者との音声対話を実現する音声対話システムも提案されている(例えば特許文献3参照)。
In recent years, the following has been proposed as a speech synthesis technique. That is, by responding with a voice synthesized according to the tone and voice quality of the user, a technique of pronouncing more humanly (for example, see Patent Document 1), analyzing the voice of the user, and analyzing the psychology of the user A technology for diagnosing a condition or a health condition (for example, see Patent Document 2) has been proposed.
Further, while recognizing a voice input by a user, a voice dialogue system that realizes voice dialogue with the user by outputting the content specified in the scenario by voice synthesis has been proposed (for example, Patent Document 3). reference).

特開2003−271194号公報JP 2003-271194 A 特許第4495907号公報Japanese Patent No. 4495907 特許第4832097号公報Japanese Patent No. 4832097

ところで、上述した音声合成技術と音声対話システムとを組み合わせて、利用者の音声による問いに対し、データを検索して音声合成により出力する対話システムを想定する。この場合、音声合成によって出力される音声が利用者に不自然な感じ、具体的にはいかにも機械が喋っているかのような感じを与えるという問題が指摘されている。
本発明は、このような事情に鑑みてなされたものであり、その目的の一つは、利用者に自然な感じを与えるような、具体的には、利用者に対して心理的に良い印象を与えるとともに、より人と対話しているかのような印象を利用者に与えることが可能な音声制御装置、音声制御方法およびプログラムを提供することにある。
By the way, it is assumed that a dialogue system that combines the above-described voice synthesis technology and a voice dialogue system to search for data and output by voice synthesis in response to a user's voice question. In this case, a problem has been pointed out that the voice output by the voice synthesis gives the user an unnatural feeling, specifically, a feeling as if the machine is talking.
The present invention has been made in view of such circumstances, and one of its objects is to provide a user with a natural feeling, specifically, to give a user a psychologically good impression. The present invention provides a voice control device, a voice control method, and a program that can give a user an impression as if interacting with a person.

利用者による問いに対する回答を音声合成で出力(返答)するマン・マシンのシステムを検討するにあたって、本件発明者は、まず、人同士では、どのように対話がなされるかについて、音高(周波数)に着目して考察した。   In examining a man-machine system that outputs (answers) a response to a question by a user through speech synthesis, the present inventor first determines the pitch (frequency ).

ここでは、人同士の対話として、一方の人(aとする)による問い(問い掛け)に対し、他方の人(bとする)が回答する場合について検討する。この場合において、aが問いを発したとき、aだけなく、当該問いに対して回答しようとするbも、当該問いのうちの、ある区間における音高を強い印象で残していることが多い。bは、同意や、賛同、肯定などの意で回答するときには、印象に残っている問いの音高に対し、当該回答を特徴付ける部分、例えば語尾や語頭の音高が、所定の関係となるように返答する。当該回答を聞いたaは、自己の問いについて印象に残っている音高と当該問いに対する回答を特徴付ける部分の音高とが上記関係にあるので、bの回答に対して心地良く、安心するような好印象を抱くことになる、と、本件の発明者は考えた。   Here, as a dialogue between persons, a case will be examined in which a question (question) by one person (a) is answered by the other person (b). In this case, when “a” asks a question, not only “a” but also “b” who tries to answer the question often leaves a strong pitch in a certain section of the question. b, when responding with the meaning of consent, agreement, affirmation, etc., the part that characterizes the answer, such as the pitch of the ending or initial, has a predetermined relationship with the pitch of the question remaining in the impression. Reply to When listening to the answer a, the pitch remaining in the impression of the self question and the pitch characterizing the answer to the question have the above relationship. The inventor of this case thought that it would have a good impression.

例えば、aが「そうでしょ?」という問いを発したとき、aおよびbは、当該の問いのうち、例えば念押しや確認などの意が強く表れる語尾の「しょ」の音高を記憶に残した状態となる。この状態において、bが、当該問いに対して「あ、はい」と肯定的に回答しようとする場合に、印象に残っている「しょ」の音高に対して、回答を特徴付ける部分、例えば語尾の「い」の音高が上記関係になるように「あ、はい」と回答する。   For example, when a asks a question, "Are you sure?", A and b remember the pitch of the end of the question, "sho", which has strong meaning such as reminding or confirmation. State. In this state, when b tries to answer “a, yes” affirmatively to the question, the part characterizing the answer to the pitch of “sho” remaining in the impression, for example, the ending "Yes," so that the pitch of "Yes" has the above relationship.

図2は、このような実際の対話におけるフォルマントを示している。この図において、横軸が時間であり、縦軸が周波数であって、スペクトルは、白くなるにつれて強度が強い状態を示している。
図に示されるように、人の音声を周波数解析して得られるスペクトルは、時間的に移動する複数のピーク、すなわちフォルマントとして現れる。詳細には、「そうでしょ?」に相当するフォルマント、および、「あ、はい」に相当するフォルマントは、それぞれ3つのピーク帯(時間軸に沿って移動する白い帯状の部分)として現れている。
これらの3つのピーク帯のうち、周波数の最も低いものについて着目してみると、「そうでしょ?」の音「しょ」に相当する符号A(の中心部分)の周波数はおおよそ400Hzである。一方、符号Bは、「あ、はい」の音「い」に相当する符号Bの周波数はおおよそ260Hzである。このため、符号Aの周波数は、符号Bの周波数に対して、ほぼ3/2となっていることが判る。
FIG. 2 shows a formant in such an actual dialog. In this figure, the horizontal axis represents time, the vertical axis represents frequency, and the spectrum shows a state in which the intensity increases as the color becomes whiter.
As shown in the figure, a spectrum obtained by frequency-analyzing a human voice appears as a plurality of temporally moving peaks, that is, formants. In detail, the formant corresponding to "Yes?" And the formant corresponding to "Oh, yes" respectively appear as three peak bands (white band-like portions moving along the time axis).
Focusing on the lowest frequency of these three peak bands, the frequency of the code A (the center part) corresponding to the sound “sho” of “yes?” Is about 400 Hz. On the other hand, the frequency of the code B corresponding to the sound "i" of "a, yes" is approximately 260 Hz. Therefore, it can be seen that the frequency of the code A is almost 3/2 of the frequency of the code B.

周波数の比が3/2であるという関係は、音程でいえば、「ソ」に対して同じオクターブの「ド」や、「ミ」に対して1つ下のオクターブの「ラ」などでいい、後述するように、完全5度である。また、この周波数の比(音高同士における所定の関係)については、好適な一例であるが、後述するように様々な例が挙げられる。   The relationship that the frequency ratio is 3/2 may be expressed in terms of pitch as "do" having the same octave as "so" or "la" as one octave below "mi". , As described later. Further, this frequency ratio (predetermined relationship between pitches) is a preferred example, but various examples are given as described later.

なお、図3は、音名(階名)と人の声の周波数との関係について示す図である。この例では、第4オクターブの「ド」を基準にしたときの周波数比も併せて示しており、「ソ」は「ド」を基準にすると、上記のように3/2である。また、第3オクターブの「ラ」を基準にしたときの周波数比についても並列に例示している。   FIG. 3 is a diagram showing a relationship between a pitch name (floor name) and a frequency of a human voice. In this example, the frequency ratio based on the fourth octave “do” is also shown, and “so” is 3/2 as described above, based on “do”. The frequency ratio based on the third octave “La” is also illustrated in parallel.

このように、人同士の対話において、問いの音高は、当該問いの印象を特徴付ける要素である。一方で、問いや回答の言語的な内容次第では、回答の仕方が異なる点も経験的に認められる。
例えば、問いに対して「Yes(はい)」と回答する場合、問いに対して比較的素早く応答するが、「No(いいえ)」と回答する場合には、例えば相手への印象を考慮して一呼吸を置いて応答する点などである。
したがって、利用者による問いに対する回答を音声合成で出力(返答)する対話システムを検討したときに、当該問いの音高のみならず、当該問いおよび回答の言語的な意味についても、回答を音声合成する上で重要な要素となり得る。
そこで、当該音声合成について上記目的を達成するために、次のような構成とした。
As described above, in a dialogue between people, the pitch of a question is an element that characterizes the impression of the question. On the other hand, it is empirically recognized that the way of answering differs depending on the linguistic content of questions and answers.
For example, if you answer "Yes" to a question, you respond relatively quickly to the question, but if you answer "No", for example, consider the impression of the other party. This is the point of responding with a pause.
Therefore, when examining a dialogue system for outputting (replying) the answer to a question by a user using speech synthesis, the speech is synthesized not only for the pitch of the question but also for the linguistic meaning of the question and the answer. Can be an important factor in
Therefore, in order to achieve the above-mentioned object in the voice synthesis, the following configuration is adopted.

すなわち、上記目的を達成するために、本発明の一態様に係る音声合成装置は、音声信号による問いを入力する音声入力部と、問いのうち、特定の第1区間の音高を解析する音高解析部と、問いに対する回答を取得する取得部と、問いおよび回答の言語情報を解析する言語解析部と、取得された回答を音声合成する音声合成部と、音声合成部による音声合成を、当該回答における特定の第2区間の音高が第1区間の音高に対して所定の関係にある音高となるように変更させ、かつ、問いおよび回答の言語情報にしたがって制御する音声制御部と、を具備することを特徴とする。
この一態様では、回答における特定の第2区間の音高を、問いのうち特定の第1区間の音高に対して所定の関係にある音高となるように変更するので、音声合成される回答により、利用者に心地良く安心するような好印象を与えることができる。また、問いおよび回答の言語情報にしたがって音声合成が制御されるので、より人と対話しているかのような印象を利用者に与えることが可能になる。
That is, in order to achieve the above object, a voice synthesis device according to one embodiment of the present invention includes a voice input unit that inputs a question based on a voice signal, and a sound that analyzes a pitch of a specific first section in the question. A high-analysis unit, an acquisition unit that acquires an answer to a question, a language analysis unit that analyzes linguistic information of the question and the answer, a speech synthesis unit that speech-synthesizes the obtained answer, and speech synthesis by a speech synthesis unit. A voice control unit that changes a pitch of a specific second section in the answer to a pitch having a predetermined relationship with a pitch of the first section, and controls the pitch according to language information of the question and the answer; And characterized in that:
In this aspect, the pitch of the specific second section in the answer is changed so as to have a predetermined relationship with the pitch of the specific first section of the question, so that the voice is synthesized. The answer can give the user a good impression of comfort and security. In addition, since speech synthesis is controlled in accordance with the language information of the question and the answer, it is possible to give the user an impression as if he or she is interacting with a person.

この態様において、第1区間は、例えば問いの語尾であり、第2区間は、回答の語頭または語尾であることが好ましい。上述したように、問いの印象を特徴付ける区間は、当該問いの語尾であり、回答の印象を特徴付ける区間は、回答の語頭または語尾であることが多いからである。
また、所定の関係は、完全1度を除いた協和音程の関係であることが好ましい。ここで、協和とは、複数の楽音が同時に発生したときに、それらが互いに溶け合って良く調和する関係をいい、これらの音程関係を協和音程という。協和の程度は、2音間の周波数比(振動数比)が単純なものほど高い。周波数比が最も単純な1/1(完全1度)と、2/1(完全8度)とを、特に絶対協和音程といい、これに3/2(完全5度)と4/3(完全4度)とを加えて完全協和音程という。5/4(長3度)、6/5(短3度)、5/3(長6度)および8/5(短6度)を不完全協和音程といい、これ以外のすべての周波数比の関係(長・短の2度と7度、各種の増・減音程など)を不協和音程という。
In this aspect, the first section is preferably, for example, the ending of the question, and the second section is preferably the beginning or ending of the answer. As described above, the section characterizing the impression of the question is the ending of the question, and the section characterizing the impression of the answer is often the beginning or ending of the answer.
Further, the predetermined relationship is preferably a relationship of consonance intervals excluding a perfect degree. Here, the consonance refers to a relationship in which, when a plurality of musical tones are generated simultaneously, they are fused and well harmonized, and these pitch relationships are referred to as a consonance interval. The degree of consonance is higher as the frequency ratio (frequency ratio) between two sounds is simpler. The simplest of the frequency ratios, 1/1 (perfect 1 degree) and 2/1 (perfect 8 degrees), are particularly called absolute consonance pitches, which are 3/2 (perfect 5 degrees) and 4/3 (perfect). (4th degree) plus a complete consonance. 5/4 (major third), 6/5 (minor third), 5/3 (major sixth) and 8/5 (minor sixth) are called incomplete consonance intervals, and all other frequency ratios (Long and short second and seventh degrees, various increasing and decreasing pitches, etc.) are called dissonant pitches.

なお、回答の語頭または語尾の音高を、問いの語尾の音高と同一となる場合には、対話として不自然な感じを伴うと考えられるので、上記協和音程の関係としては、完全1度が除かれている。
上記態様において、所定の関係として最も望ましい例は、上述したように第2区間の音高が、第1区間の音高に対して5度下の協和音程の関係である、と考えられる。ただし、所定の関係としては、完全1度を除く協和音程に限られず、不協和音程の関係でも良いし、同一を除く、上下1オクターブの範囲内の音高関係でも良い。
また、回答には、質問に対する具体的な答えに限られず、「なるほど」、「そうですね」などの相槌(間投詞)も含まれる。
Note that if the pitch of the beginning or end of the answer is the same as the pitch of the end of the question, it is considered that the dialogue is accompanied by an unnatural feeling. Has been removed.
In the above aspect, the most preferable example of the predetermined relation is considered to be a relation in which the pitch of the second section is a consonant pitch 5 degrees lower than the pitch of the first section as described above. However, the predetermined relationship is not limited to a consonant pitch except for a perfect degree, and may be a dissonant pitch or a pitch relationship in the range of one octave above and below, excluding the same.
In addition, the answer is not limited to a concrete answer to the question, but also includes a hammer (interjection) such as "I see,""Isee."

また、人同士の対話において、例えば「はい」、「いいえ」の二択で回答を迫るような問いに対して「はい」と回答する場合の音高を比較的高くする一方で、「いいえ」と回答する場合の音高を比較的低くする点は、経験上よく見られる行為である。そこで、上記態様において、音声制御部は、問いに対する肯定の回答の音高については、否定の回答の音高よりも高くする構成としても良い。この構成によれば、利用者に対して、あたかも人同士と対話しているかのような雰囲気をつくりだすことが可能になる。
なお、肯定の回答には、「はい」以外にも、「そうそう」、「その通り」などの同意を含み、また、否定の回答には、「いいえ」以外にも、「あいにく」、「賛成しかねます」などの不同意を含む。
Further, in a dialogue between people, for example, when the answer to “Yes” is given to a question that requires a choice between “Yes” and “No”, the pitch is relatively high, while “No” Reducing the pitch when answering is a common behavior in experience. Therefore, in the above aspect, the voice control unit may have a configuration in which the pitch of the positive answer to the question is higher than the pitch of the negative answer. According to this configuration, it is possible to create an atmosphere for the user as if the user is interacting with each other.
In addition, affirmative answers include consent such as "yes" and "yes" in addition to "yes", and negative answers include "unhappy" and "agree" in addition to "no". I can't agree. "

ところで、人同士の対話において問いに対して回答する場合、音高以外にも考慮される要素がある。この要素の1つに、問いが発せられてから回答が出力されるまでの間がある。例えば、上記のように二択で回答を迫るような問いに対して「いいえ」と回答する場合、慎重を期するために、一呼吸遅れるように間を取る点も、経験上よく見られる行為である。そこで、音声制御部は、問いが発せられてから肯定の回答を出力するまでの間を、否定の回答の間よりも短くするように音声合成部を制御しても良い。   By the way, when answering a question in a dialogue between people, there are factors to be considered other than the pitch. One of these elements is between the time the question is asked and the time the answer is output. For example, when answering "No" to a question that requires a two-part answer as described above, an act that is often seen in experience is that taking a delay to take a pause to take care It is. Therefore, the voice control unit may control the voice synthesis unit so that the time from when the question is issued until the output of the positive answer is shorter than that between the negative answers.

人同士の対話において、二択ではなく、例えばWho(誰が)、What(何を)、When(いつ)、Where(どこで)、Why(なぜ)、How(どのようにして)のような5W1Hの問いに対しては、ゆっくりと時間をかけて具体的内容を回答する場合がある。一方で、音声合成装置においても、その具体的内容の回答を取得するのに時間を要する場合がある。
いずれの場合でも、問いから、具体的内容を回答するまでの間が空くと、問いを発した側(利用者)に一種の不安感を与えてしまうとともに、以降の会話が弾まない。
また、逆に回答までの間が詰まり過ぎると、意識的に被されているかのような感覚、または、人の話をまともに聞いていないのでは?、という感覚になり、不快感を与えてしまう。
そこで、上記態様において、問いの言語情報が所定の内容である場合に、音声合成部は、予め定められた内容の回答を音声合成し、音声制御部は、問いが発せられてから当該回答を出力するまでの間を、所定時間の範囲内となるように音声合成部を制御する構成としても良い。
この構成によれば、問いに対する具体的内容の回答の前に、予め定められた内容の回答が、所定時間の範囲内で音声合成されるので、利用者に対して不安感を与えないことができる。
なお、予め定められた内容の回答としては、例えば「うーん」や「そうですねぇ」などの間投詞が挙げられる。また、所定時間の範囲内としては、例えば0.5秒から2.0秒までの時間範囲が適切である、と考えられる。
In a dialogue between people, instead of two choices, for example, 5W1H such as Who (who), What (what), When (when), Where (where), Why (why), How (how). In some cases, specific questions are answered slowly over time. On the other hand, even in the speech synthesizer, it sometimes takes time to obtain an answer of the specific content.
In any case, if there is not enough time between the question and the answer to the specific content, the questioning side (user) is given a kind of anxiety and the subsequent conversation does not bounce.
On the other hand, if the time until the answer is too short, do you not feel as if you are consciously covered or do you not listen to people's story properly? , Feeling uncomfortable.
Therefore, in the above aspect, when the language information of the question has predetermined content, the voice synthesis unit voice-synthesizes an answer with predetermined content, and the voice control unit transmits the answer after the question is issued. The configuration may be such that the speech synthesis unit is controlled so that the time until output is within a predetermined time range.
According to this configuration, the answer of the predetermined content is voice-synthesized within the predetermined time before the answer of the specific content to the question, so that the user does not feel uneasy. it can.
In addition, as the answer of the predetermined content, for example, an interjection such as “um” or “yes” is given. Further, it is considered that a time range from 0.5 seconds to 2.0 seconds is appropriate as the range of the predetermined time.

本発明の態様について、音声合成装置のみならず、コンピュータを当該音声合成装置として機能させるプログラムとして概念することも可能である。
なお、本発明では、問いの音高(周波数)を解析対象とし、回答の音高を制御対象としているが、ヒトの音声は、上述したフォルマントの例でも明らかなように、ある程度の周波数域を有するので、解析や制御についても、ある程度の周波数範囲を持ってしまうのは避けられない。また、解析や制御については、当然のことながら誤差が発生する。このため、本件において、音高の解析や制御については、音高(周波数)の数値が同一であることのみならず、ある程度の範囲を伴うことが許容される。
The aspects of the present invention can be conceptualized not only as a speech synthesizer but also as a program that causes a computer to function as the speech synthesizer.
In the present invention, the pitch (frequency) of the question is analyzed and the pitch of the answer is controlled. However, as is clear from the above-described example of the formant, the human voice has a certain frequency range. Therefore, it is inevitable that analysis and control have a certain frequency range. In addition, errors occur in analysis and control as a matter of course. For this reason, in the present case, regarding the analysis and control of the pitch, not only that the numerical value of the pitch (frequency) is the same, but also that a certain range is allowed.

実施形態に係る音声合成装置の構成を示すブロック図である。It is a block diagram showing the composition of the speech synthesis device concerning an embodiment. 対話における音声のフォルマントの例を示す図である。It is a figure showing the example of the voice formant in a dialog. 音名と周波数等との関係を示す図である。FIG. 4 is a diagram illustrating a relationship between a pitch name, a frequency, and the like. 音声合成装置の動作を示すフローチャートである。5 is a flowchart illustrating an operation of the speech synthesis device. 語尾の特定の具体例を示す図である。It is a figure which shows the specific specific example of a ending. 音声シーケンスに対する音高シフトの例を示す図である。FIG. 4 is a diagram illustrating an example of pitch shift with respect to a voice sequence. 音声シーケンスに対する音高シフトの例を示す図である。FIG. 4 is a diagram illustrating an example of pitch shift with respect to a voice sequence. 音声シーケンスに対する音高シフトの例を示す図である。FIG. 4 is a diagram illustrating an example of pitch shift with respect to a voice sequence. 回答の出力タイミングについて説明する図である。It is a figure explaining output timing of a reply. 回答の出力タイミングについて説明する図である。It is a figure explaining output timing of a reply. 応用例(その1)における処理の要部を示す図である。It is a figure showing the important section of processing in an example of application (the 1). 応用例(その2)における処理の要部を示す図である。It is a figure showing an important section of processing in an example of application (the 2). 応用例(その3)における処理の要部を示す図である。It is a figure showing an important section of processing in an example of application (the 3).

以下、本発明の実施形態について図面を参照して説明する。
図1は、実施形態に係る音声合成装置10の構成を示す図である。この図において、音声合成装置10は、例えば音声入力部102とスピーカ142とを有する携帯電話のような端末装置であり、予めインストールされたアプリケーションプログラムをCPUが実行することによって、複数の機能ブロックが次のように構築される。詳細には、音声合成装置10では、発話区間検出部104、音高解析部106、言語解析部108、音声制御部109、回答作成部(取得部)110、音声合成部112、言語データベース122、回答データベース124、情報取得部126および音声ライブラリ128が構築される。
なお、特に図示しないが、このほかにも表示部や操作入力部なども構築されて、利用者が装置の状況を確認したり、装置に対して各種の操作を入力したりすることができるようになっている。また、音声合成装置10は、ノート型やタブレット型のパーソナルコンピュータでも良い。
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
FIG. 1 is a diagram illustrating a configuration of a speech synthesis device 10 according to the embodiment. In FIG. 1, a voice synthesizer 10 is a terminal device such as a mobile phone having a voice input unit 102 and a speaker 142, and a plurality of functional blocks are implemented by executing a pre-installed application program by a CPU. It is constructed as follows. In detail, in the speech synthesizer 10, the utterance section detection unit 104, the pitch analysis unit 106, the language analysis unit 108, the speech control unit 109, the answer creation unit (acquisition unit) 110, the speech synthesis unit 112, the language database 122, The answer database 124, the information acquisition unit 126, and the audio library 128 are constructed.
Although not shown, a display unit and an operation input unit are also constructed in addition to the above, so that the user can check the status of the device and input various operations to the device. It has become. The speech synthesizer 10 may be a notebook or tablet personal computer.

音声入力部102は、詳細については特に図示しないが、音声を電気信号に変換するマイクロフォンと、変換された音声信号の高域成分をカットするLPF(ローパスフィルタ)と、高域成分がカットされた音声信号をデジタル信号に変換するA/D変換器とで構成される。
発話区間検出部104は、デジタル信号に変換された音声信号を処理して発話(有音)区間を検出する。詳細には、発話区間検出部104は、例えば当該音声信号のうち振幅が閾値以下の状態が所定期間以上連続する区間を無音区間とし、それ以外の区間を発話区間として検出する。
Although not shown in detail, the audio input unit 102 includes a microphone that converts audio into an electric signal, an LPF (low-pass filter) that cuts high-frequency components of the converted audio signal, and a high-frequency component that has been cut. An A / D converter for converting an audio signal into a digital signal.
The utterance section detection unit 104 processes an audio signal converted into a digital signal to detect an utterance (voiced) section. Specifically, the utterance section detection unit 104 detects, for example, a section in which the state in which the amplitude is equal to or smaller than the threshold continues for a predetermined period or more in the audio signal as a silent section, and detects other sections as utterance sections.

音高解析部106は、発話区間として検出された音声信号を周波数解析するとともに、解析して得られた第1フォルマントのうち、特定の区間(第1区間)の音高を求めて、当該音高を示す音高データを出力する。なお、第1区間とは、例えば問いの語尾である。また、第1フォルマントとは、例えば音声を周波数解析したときに得られる複数のフォルマントのうち、周波数の最も低い成分をいい、図2の例でいえば、末端が符号Aとなっているピーク帯をいう。周波数解析については、FFT(Fast Fourier Transform)や、その他公知の方法を用いることができる。問いにおける語尾を特定するための具体的手法の一例については後述する。   The pitch analysis unit 106 performs a frequency analysis on the voice signal detected as the utterance section, obtains a pitch of a specific section (first section) among the first formants obtained by the analysis, and determines the pitch. Outputs pitch data indicating the pitch. The first section is, for example, the ending of the question. In addition, the first formant refers to a component having the lowest frequency among a plurality of formants obtained when, for example, a voice is subjected to frequency analysis. In the example of FIG. Say. For frequency analysis, FFT (Fast Fourier Transform) and other known methods can be used. An example of a specific method for specifying the ending in the question will be described later.

言語解析部108は、発話区間として検出された音声信号がどの音素に近いのかを、言語データベース122に予め作成された音素モデルを参照することにより判定して、音声信号で規定される言葉(問い)の意味を解析(特定)する。なお、このような音素モデルには、例えば隠れマルコフモデルを用いることができる。
また、言語解析部108は、音声信号による問いだけでなく、後述する回答作成部110による回答の意味を解析する。
言語解析部108は、問いの意味の解析結果を回答作成部110に供給する一方、当該回答作成部110から回答を受け取った場合には、当該回答の解析結果を音声制御部109に供給する。
The language analysis unit 108 determines which phoneme is close to the speech signal detected as the utterance section by referring to a phoneme model created in advance in the language database 122, and determines a word (question) defined by the speech signal. ) Is analyzed (specified). Note that, for example, a hidden Markov model can be used as such a phoneme model.
Further, the language analysis unit 108 analyzes not only the question by the voice signal but also the meaning of the answer by the answer creation unit 110 described later.
The linguistic analysis unit 108 supplies the analysis result of the meaning of the question to the answer creation unit 110, and when receiving the answer from the answer creation unit 110, supplies the analysis result of the answer to the voice control unit 109.

回答作成部110は、言語解析部108によって解析された言葉の意味に対応する回答を、回答データベース124および情報取得部126を参照して作成する。
なお、本実施形態において、回答作成部110が作成する回答には、
(1)肯定等の意を示す回答、
(2)否定等の意を示す回答、
(3)問いに対する具体的な回答、
(4)当該具体的な回答に先立って発せられる交感的な回答(相槌を含む)、
が想定される。(1)の回答の例としては「Yes」、「はい」などが挙げられ、(2)の回答の例としては「No」、「いいえ」などが挙げられる。(3)としては、例えば「あすのてんきは?(明日の天気は?)」という問いに対して「はれです」と具体的に回答する例などが挙げられる。(4)としては、「はれです」という回答の前の「えーと」、「そうですねぇ」などが挙げられる。
(1)および(2)の回答については、例えば「いま3時頃?」という問いに対して、内蔵のリアルタイムクロック(図示省略)から時刻情報を取得すれば、回答作成部110が、当該問いに対して例えば「はい」または「いいえ」のうち、どちらで回答すれば良いのかを判別することができる。
一方で、例えば「あすははれ(明日は晴れ)?」という問いに対しては、外部サーバにアクセスして天気情報を取得しないと、音声合成装置10の単体で回答することができない。このように、音声合成装置10のみでは回答できない場合、情報取得部126は、インターネットを介し外部サーバにアクセスし、回答の作成に必要な情報を取得して、回答作成部110に供給すれば、当該回答作成部110は、当該問いが正しいか否かを判別して回答することができる。
(3)の回答については、例えば「いまなんじ?(今、何時?)」という問いに対しては、回答作成部110は、上記時刻情報を取得するとともに、時刻情報以外の情報を回答データベース124から取得することで、「ただいま○○時○○分です」という回答を作成することが可能である。一方で、「あすのてんきは?(明日の天気は?)」という問いに対しては、情報取得部126が、外部サーバにアクセスして、回答に必要な情報を取得するとともに、回答作成部110が、問いに対して例えば「はれです」という回答を、回答データベース124および外部サーバから作成する構成となっている。
The answer creating unit 110 creates an answer corresponding to the meaning of the word analyzed by the language analyzing unit 108 with reference to the answer database 124 and the information acquiring unit 126.
In this embodiment, the answer created by the answer creating unit 110 includes:
(1) Answers indicating affirmation, etc.
(2) Answers indicating negative or other means,
(3) Specific answers to questions,
(4) Sympathetic answers (including a hammer) issued prior to the specific answer,
Is assumed. Examples of the answer (1) include “Yes” and “Yes”, and examples of the answer (2) include “No” and “No”. As (3), for example, there is an example in which the question "What is tomorrow's weather? (What is the weather tomorrow?)" As (4), there are "Um" and "Yes" before the answer "Harere".
Regarding the answers (1) and (2), for example, in response to a question “about 3:00?”, If time information is acquired from a built-in real-time clock (not shown), the answer creation unit 110 For example, it is possible to determine which of “Yes” and “No” should be answered.
On the other hand, for example, the question “Tomorrow is fine (tomorrow is fine)?” Cannot be answered by the voice synthesizer 10 alone unless the external server is accessed to obtain weather information. As described above, when the answer cannot be made only by the speech synthesizer 10, the information acquiring unit 126 accesses the external server via the Internet, acquires information necessary for creating an answer, and supplies the information to the answer creating unit 110. The answer creating unit 110 can determine whether or not the question is correct and give an answer.
Regarding the answer (3), for example, in response to the question “What is the time? (What time is it?),” The answer creating unit 110 acquires the time information and also stores information other than the time information in the answer database. By obtaining the answer from 124, it is possible to create a reply “It is now XX hours XX minutes”. On the other hand, in response to the question "What is the weather of tomorrow? (What is the weather of tomorrow?)", The information acquisition unit 126 accesses an external server to acquire information necessary for an answer, and an answer creation unit. 110 is configured to create an answer to the question, for example, “Hello” from the answer database 124 and the external server.

なお、回答作成部110は、作成・取得した回答を言語解析部108に供給するとともに、当該回答から音声シーケンスを作成して出力する。この音声シーケンスは、音素列であって、各音素に対応する音高や発音タイミングを規定したものである。(1)、(2)、(4)については、例えば予め回答に対応する音声シーケンスを回答データベース124に格納しておく一方で、回答に応じた音声シーケンスを回答データベース124から読み出せば良い。詳細には、回答作成部110は、(1)、(2)の回答にあっては、判別結果に応じた例えば「はい」、「いいえ」などの音声シーケンスを読み出せば良いし、(4)にあっては、(3)の回答に対応した音声シーケンスを出力する前に、予め定められた「えーと」、「そうですねぇ」などのいずれかの音声シーケンスを読み出せば良い。当該音声シーケンスは、音声制御部109と音声合成部112とにそれぞれ供給される。   The answer creating unit 110 supplies the created and obtained answer to the language analyzing unit 108, and creates and outputs a speech sequence from the answer. This voice sequence is a phoneme sequence and defines a pitch and a sounding timing corresponding to each phoneme. For (1), (2), and (4), for example, a voice sequence corresponding to the answer may be stored in advance in the answer database 124, while a voice sequence corresponding to the answer may be read from the answer database 124. More specifically, the answer creating unit 110 may read out a voice sequence such as “Yes” or “No” according to the determination result in the answers (1) and (2), and (4) In (3), before outputting a voice sequence corresponding to the answer of (3), any one of predetermined voice sequences such as “Um” and “Oh well” may be read. The voice sequence is supplied to the voice control unit 109 and the voice synthesis unit 112, respectively.

音声制御部109は、音高解析部106から供給された音高データと、言語解析部108から供給された回答の意味とに応じて、音声シーケンスに対する制御内容を決定する。なお、音声制御部109による制御内容については後述する。   The voice control unit 109 determines control content for the voice sequence according to the pitch data supplied from the pitch analysis unit 106 and the meaning of the answer supplied from the language analysis unit 108. The contents of control by the audio control unit 109 will be described later.

音声合成部112は、音高や発音タイミングが規定された回答の音声シーケンスにしたがって音声を合成する。したがって、音声合成部112は、単純に音声シーケンスにしたがって音声を合成すれば、当該回答の基本音声を出力することができる。
ただし、本実施形態において音声合成部112は、音声シーケンスで規定される基本音声を、音声制御部109の制御内容にしたがって変更して音声合成する。
ここで、音声制御部109は、音声合成部112による音声合成を次のように制御する。すなわち、音声制御部109は、音声シーケンスのうち、特定の区間(第2区間)の音高を、音高データに対して所定の関係となるように音高を変更するとともに、音声シーケンスの発音タイミングを、言語解析部108による回答の解析結果の意味内容に応じて決定する。
なお、本実施形態では、第2区間を回答の語尾とするが、後述するように語尾に限られない。また、本実施形態では、音高データに対して所定の関係にある音高を、5度の下の関係にある音高とするが、後述するように、5度下以外の関係にある音高としても良い。
The voice synthesizer 112 synthesizes voice according to a voice sequence of an answer in which a pitch and a sound generation timing are specified. Therefore, the voice synthesis unit 112 can output the basic voice of the answer by simply synthesizing the voice according to the voice sequence.
However, in the present embodiment, the voice synthesis unit 112 synthesizes the voice by changing the basic voice defined by the voice sequence according to the control content of the voice control unit 109.
Here, the voice control unit 109 controls the voice synthesis by the voice synthesis unit 112 as follows. That is, the voice control unit 109 changes the pitch of a specific section (second section) of the voice sequence so as to have a predetermined relationship with the pitch data, and generates the sound sequence of the voice sequence. The timing is determined according to the semantic content of the analysis result of the answer by the language analysis unit 108.
In the present embodiment, the second section is set as the ending of the answer, but is not limited to the ending as described later. Further, in the present embodiment, the pitch having a predetermined relationship with the pitch data is defined as a pitch having a relationship lower by 5 degrees, but a pitch having a relationship other than 5 degrees lower as described later. It may be high.

また、音声合成部112は、音声を合成するにあたって、音声ライブラリ128に登録された音声素片データを用いる。音声ライブラリ128は、単一の音素や音素から音素への遷移部分など、音声の素材となる各種の音声素片の波形を定義した音声素片データを、予めデータベース化したものである。音声合成部112は、具体的には、音声シーケンスの一音一音(音素)の音声素片データを組み合わせて、繋ぎ部分が連続するように修正しつつ、上記のように回答の音高を変更して音声信号を生成する。
なお、音声合成部112によって音声合成された音声信号は、図示省略したD/A変換部によってアナログ信号に変換された後、スピーカ142によって音響変換されて出力される。
In synthesizing speech, the speech synthesizing unit 112 uses speech unit data registered in the speech library 128. The speech library 128 is a database in which speech segment data defining waveforms of various speech segments as speech materials, such as a single phoneme or a transition from a phoneme to a phoneme, is prepared in advance. Specifically, the speech synthesis unit 112 combines the speech unit data of each sound (phoneme) of the speech sequence, and corrects the connected portion to be continuous, while changing the pitch of the answer as described above. Modify and generate an audio signal.
The audio signal synthesized by the audio synthesizing unit 112 is converted into an analog signal by a D / A conversion unit (not shown), and is then acoustically converted by the speaker 142 and output.

次に、音声合成装置10の動作について説明する。
図4は、音声合成装置10における処理動作を示すフローチャートである。
はじめに、利用者が所定の操作をしたとき、例えば当該対話のための処理に対応したアイコンなどをメインメニュー画面(図示省略)において選択したとき、CPUが当該処理に対応したアプリケーションプログラムを起動する。このアプリケーションプログラムを実行することによって、CPUは、図1で示した機能ブロックを構築する。
Next, the operation of the speech synthesizer 10 will be described.
FIG. 4 is a flowchart illustrating a processing operation in the speech synthesis device 10.
First, when the user performs a predetermined operation, for example, when an icon or the like corresponding to the process for the conversation is selected on a main menu screen (not shown), the CPU starts an application program corresponding to the process. By executing this application program, the CPU constructs the functional blocks shown in FIG.

まず、利用者によって、音声入力部102に対して音声で問いが入力される(ステップSa11)。発話区間検出部104は、当該音声の振幅を閾値と比較することにより発話区間を検出し、当該発話区間の音声信号を音高解析部106および言語解析部108のそれぞれに供給する(ステップSa12)。   First, a user inputs a question by voice to the voice input unit 102 (step Sa11). The utterance section detection unit 104 detects the utterance section by comparing the amplitude of the voice with the threshold, and supplies the voice signal of the utterance section to each of the pitch analysis unit 106 and the language analysis unit 108 (step Sa12). .

音高解析部106は、検出された発話区間における問いの音声信号を解析し、当該問いにおける第1区間(語尾)の音高を特定して、当該音高を示す音高データを音声制御部109に供給する(ステップSa13)。ここで、音高解析部106における問いの語尾を特定する具体的手法の一例について説明する。
問いを発した人が、当該問い対する回答を欲するような対話を想定した場合、問いの語尾に相当する部分では、音量が他の部分として比較して一時的に大きくなる、と考えられる。そこで、音高解析部106による第1区間(語尾)の音高については、例えば次のようにして求めることできる。
第1に、音高解析部106は、発話区間として検出された問いの音声信号を、音量と音高(ピッチ)とに分けて波形化する。図5の(a)は、音声信号についての音量を縦軸で、経過時間を横軸で表した音量波形の一例であり、(b)は、同じ音声信号について周波数解析して得られる第1フォルマントの音高を縦軸で、経過時間を横軸で表した音高波形である。なお、(a)の音量波形と(b)の音高波形との時間軸は共通である。
第2に、音高解析部106は、(a)の音量波形のうち、時間的に最後の極大P1のタイミングを特定する。
第3に、音高解析部106は、特定した極大P1のタイミングを前後に含む所定の時間範囲(例えば100μ秒〜300μ秒)を語尾であると認定する。
第4に、音高解析部106は、(b)の音高波形のうち、認定した語尾に相当する区間Q1の平均音高を、音高データとして出力する。
このように、発話区間における音量波形について最後の極大P1を、問いの語尾に相当するタイミングとして特定することによって、会話としての問いの語尾の誤検出を少なくすることができる、と考えられる。
The pitch analysis unit 106 analyzes the voice signal of the question in the detected utterance section, specifies the pitch of the first section (ending) in the question, and converts the pitch data indicating the pitch into the voice control unit. 109 (step Sa13). Here, an example of a specific method of specifying the ending of the question in the pitch analysis unit 106 will be described.
Assuming a dialogue in which a person who has asked a question wants an answer to the question, it is considered that the volume corresponding to the ending of the question temporarily increases in comparison with other portions. Therefore, the pitch of the first section (ending) by the pitch analyzing unit 106 can be obtained, for example, as follows.
First, the pitch analysis unit 106 separates a sound signal of a question detected as an utterance section into a sound volume and a pitch (pitch) and forms a waveform. FIG. 5A is an example of a volume waveform in which the vertical axis represents the volume of the audio signal and the horizontal axis represents the elapsed time, and FIG. 5B is the first waveform obtained by performing frequency analysis on the same audio signal. It is a pitch waveform in which the pitch of the formant is represented on the vertical axis and the elapsed time is represented on the horizontal axis. The time axis of the volume waveform of (a) and the pitch waveform of (b) are common.
Second, the pitch analysis unit 106 specifies the timing of the temporally last maximum P1 in the volume waveform (a).
Third, the pitch analysis unit 106 recognizes that a predetermined time range (for example, 100 μsec to 300 μsec) including the timing of the specified maximum P1 before and after is the ending.
Fourth, the pitch analysis unit 106 outputs, as pitch data, the average pitch of the section Q1 corresponding to the recognized ending in the pitch waveform of (b).
By specifying the last maximum P1 of the volume waveform in the utterance section as the timing corresponding to the ending of the question in this way, it is considered that erroneous detection of the ending of the question as a conversation can be reduced.

なお、ここでは(a)の音量波形のうち、時間的に最後の極大P1のタイミングを前後に含む所定の時間範囲を語尾であると認定したが、極大P1のタイミングを始期または終期とする所定の時間範囲を語尾と認定しても良い。また、認定した語尾に相当する区間Q1の平均音高ではなく、区間Q1の始期、終期や、極大P1のタイミングの音高を、音高データとして出力する構成としても良い。   In this case, in the volume waveform of (a), a predetermined time range including the timing of the last local maximum P1 before and after is determined to be the ending, but the predetermined timing with the timing of the local maximum P1 as the start or end is determined. May be recognized as the ending. In addition, instead of the average pitch of the section Q1 corresponding to the recognized ending, the pitch at the start and end of the section Q1 and the timing of the maximum P1 may be output as the pitch data.

一方、言語解析部108は、音声信号で規定される言葉(問い)の意味を解析して、その意味内容を示すデータを、回答作成部110に供給する(ステップSa14)。
回答作成部110は、回答データベース124や、必要に応じて情報取得部126を用いることにより、解析された言葉(問い)に対応する回答を作成して(ステップSa15)、当該回答を、言語解析部108に供給する。
なお、ここで、作成される(回答データベース124から読み出される)回答は、問いに対する(1)、(2)、(4)の回答である。(3)の具体的な回答については、このフローチャートでは省略するが、(4)の回答の後に作成される。
また、回答作成部110は、作成・取得等した回答の音声シーケンスを出力する(ステップSa16)。
On the other hand, the language analysis unit 108 analyzes the meaning of the word (question) defined by the voice signal, and supplies data indicating the meaning to the answer creating unit 110 (step Sa14).
The answer creating unit 110 creates an answer corresponding to the analyzed word (question) by using the answer database 124 and, if necessary, the information acquiring unit 126 (step Sa15), and converts the answer into a linguistic analysis. To the unit 108.
Here, the created answers (read from the answer database 124) are the answers (1), (2), and (4) to the question. Although the specific answer of (3) is omitted in this flowchart, it is created after the answer of (4).
In addition, the answer creating unit 110 outputs a sound sequence of the created and obtained answer (Step Sa16).

図6(a)は、(1)の肯定の意を示す回答「はい」の、音声シーケンスの一例である。この図の例では、「はい」という回答の一音一音に音符を割り当てて、各語(音素)の音高や発音タイミングを示している。なお、この例では、説明簡略化のために、一音(音素)に音符を1つ割り当てているが、スラーやタイなどのように、一音に複数の音符を割り当てても良い。
なお、図7(a)は、(2)の否定の意を示す回答「いいえ」の、音声シーケンスの一例であり、図8(a)は、(4)の回答「えーと」の、音声シーケンスの一例である。
FIG. 6A is an example of the voice sequence of the answer “yes” indicating affirmative in (1). In the example of this figure, a note is assigned to each sound of the answer "yes" to indicate the pitch and the sounding timing of each word (phoneme). In this example, one note is assigned to one note (phoneme) for simplification of description, but a plurality of notes may be assigned to one note such as a slur or a tie.
FIG. 7A shows an example of the voice sequence of the answer “No” indicating the negative of (2), and FIG. 8A shows the voice sequence of the answer “Eto” of (4). This is an example.

言語解析部108は、回答作成部110による回答の意味内容を解析する(ステップSa17)。本実施形態では、上記(1)、(2)、(4)の回答のいずれかであるかを特定して、その特定結果を示す情報を音声制御部109に供給する。
音声制御部109は、音高解析部106から供給された音高データに対して、回答作成部110から出力された音声シーケンスの語尾の音高が、次のような関係となるように、回答の意味内容を考慮して決定する(ステップSa18)。
The language analyzer 108 analyzes the meaning of the answer by the answer generator 110 (step Sa17). In the present embodiment, it is specified which of the above (1), (2) and (4) is the answer, and information indicating the specified result is supplied to the voice control unit 109.
The voice control unit 109 responds to the pitch data supplied from the pitch analysis unit 106 such that the pitch at the end of the voice sequence output from the answer generation unit 110 has the following relationship. (Step Sa18).

詳細には、音声制御部109は、(1)の肯定の意を示す回答については、例えば音高データで示される音高に対して当該回答の語尾の音高が5度下となるように、当該回答の音声シーケンス全体の音高をシフトすることを決定する。
一方、音声制御部109は、(2)の否定の意を示す回答については、音高データで示される音高に対して当該回答の語尾の音高が6度下となるように、当該回答の音声シーケンス全体の音高をシフトすることを決定する。すなわち、問いに対して(1)の回答の音高については、(2)の否定の回答の音高よりも高くするように決定される。
なお、音声制御部109は、(4)の回答については、例えば(1)の回答と同様に音高データで示される音高に対して当該回答の語尾の音高が5度下となるように、当該回答の音声シーケンス全体の音高をシフトすることを決定する。
More specifically, the voice control unit 109 determines that the answer at the end of the answer is, for example, 5 degrees lower than the pitch indicated by the pitch data for the answer indicating affirmative in (1). , To shift the pitch of the entire voice sequence of the answer.
On the other hand, the voice control unit 109 determines that the answer indicating negative (2) is such that the pitch at the end of the answer is 6 degrees lower than the pitch indicated by the pitch data. Is determined to shift the pitch of the entire voice sequence. That is, the pitch of the answer (1) to the question is determined to be higher than the pitch of the negative answer (2).
Note that the voice control unit 109 sets the ending pitch of the answer to be 5 degrees lower than the pitch indicated by the pitch data, for example, as in the answer of (1), for the answer of (4). Then, it is determined that the pitch of the entire voice sequence of the answer is shifted.

具体的には、図6(b)のように、「あすははれ?(明日は晴れ?)」という問いのうち、符号Aで示される語尾の「れ」の音高が音高データによって「ミ」であることが示される場合、(1)の肯定の意を示す回答の「はい」の音声シーケンスについては、音声制御部109は、符号Bで示される語尾の「い」の音高を「ミ」に対して5度下の関係にある「ラ」となるように、音声シーケンスで規定される音高のシフトを決定する。
一方、図7(b)のように、同じ問いに対して(2)の否定の意を示す回答の「いいえ」については、音声制御部109は、符号Cで示される語尾の「え」の音高を「ミ」に対して6度下の関係にある「ソ」となるように、音声シーケンスで規定される音高のシフトを決定する。
なお、図8(b)のように、「あすのてんきは?」という問いのうち、符号Aで示される語尾の「は(わ)」の音高が音高データによって「ミ」であることが示される場合、(4)の回答の「え−と」の音声シーケンスについては、音声制御部109は、符号Dで示される語尾の「と」の音高を「ミ」に対して5度下の関係にある「ラ」となるように、音声シーケンスで規定される音高のシフトを決定する。
Specifically, as shown in FIG. 6 (b), the pitch of the ending “re” indicated by the symbol A in the question “Tomorrow is fine?” When it is indicated that the sound sequence is “mi”, for the sound sequence “yes” of the answer indicating affirmativeness in (1), the sound control unit 109 sets the pitch “ye” at the end of the character B The pitch shift defined by the voice sequence is determined so that “” is “la” that is five degrees below “mi”.
On the other hand, as shown in FIG. 7B, for the answer “No” indicating the negative of (2) to the same question, the voice control unit 109 sets the ending “E” indicated by the code C to “No”. The pitch shift defined by the voice sequence is determined so that the pitch becomes “G” which is 6 degrees lower than “MI”.
In addition, as shown in FIG. 8 (b), in the question "What is Asuno Tenki?", The pitch of the ending "ha (wa)" indicated by the symbol A is "mi" according to the pitch data. Is indicated, the voice control unit 109 sets the pitch of the ending “to” indicated by the symbol D to 5 degrees with respect to “mi” for the voice sequence of “E-to” in the answer of (4). The pitch shift defined by the voice sequence is determined so as to be “la” in the following relationship.

一方、音声制御部109は、回答の意味内容の特定結果に応じて、音声シーケンスの出力タイミング、すなわち間を決定する(ステップSa19)。具体的には、音声制御部109は、当該問いの語尾から回答を出力するまでの間として、(1)の肯定の意の回答については、例えば0.5秒から2.0秒までの範囲で設定し、(2)の否定の意の回答については、(1)の回答よりも遅く、例えば3.0秒程度に設定する。これにより、(1)の肯定の意の回答については、(2)の否定の意の回答より時間的に早く出力されることになる。
なお、音声制御部109は、(4)の回答については、間として(1)と同様に、例えば0.5秒から2.0秒までの範囲で設定する。
On the other hand, the voice control unit 109 determines the output timing of the voice sequence, that is, the interval, according to the result of specifying the meaning of the answer (step Sa19). Specifically, the voice control unit 109 determines that the answer to the affirmative in (1) is, for example, in the range of 0.5 seconds to 2.0 seconds as the interval from the end of the question to the output of the answer. The answer to the negative in (2) is set later than the answer in (1), for example, about 3.0 seconds. As a result, a positive answer in (1) is output earlier in time than a negative answer in (2).
Note that the voice control unit 109 sets the answer in (4) as the interval, for example, in a range from 0.5 seconds to 2.0 seconds as in (1).

音声制御部109は、回答作成部110からの音声シーケンスを、決定した音高にシフトして、決定したタイミングで出力するように音声合成部112を制御する(ステップSa20)。この制御にしたがって、音声合成部112は、音声シーケンスの音高を変更した上で、回答を音声合成して出力することになる。
なお、回答の出力タイミングについて、音声制御部109は、問いの語尾、例えば上述した極大P1のタイミングを起算点としてリアルタイムクロック(図示省略)によって計測された時間が、設定時間が経過した時点で、音声シーケンスの出力を開始するように音声合成部112を制御すれば良い。
また、この後、特に図示しないが、(4)の回答を出力したのであれば、当該(4)の回答の出力後に、(3)の具体的な回答を出力する構成となっている。これにより、当該アプリケーションプログラムの実行が終了して、処理手順は、メニュー画面に戻る。
The voice control unit 109 controls the voice synthesizing unit 112 so that the voice sequence from the answer creating unit 110 is shifted to the determined pitch and output at the determined timing (step Sa20). In accordance with this control, the voice synthesizer 112 changes the pitch of the voice sequence, voice-synthesizes the answer, and outputs it.
Regarding the output timing of the answer, the voice control unit 109 determines that the time measured by the real-time clock (not shown) from the end of the question, for example, the timing of the maximum P1 described above, What is necessary is just to control the speech synthesis unit 112 so as to start outputting the speech sequence.
After that, although not shown, if the answer of (4) is output, the specific answer of (3) is output after the output of the answer of (4). Thereby, the execution of the application program ends, and the processing procedure returns to the menu screen.

図9は、利用者が発した問いに対して(1)または(2)の回答の出力について説明する図であり、利用者Wによる「あすははれ?」という問いに対して、「はい」または「いいえ」の回答を端末装置である音声合成装置10が出力する場合の例である。
この図の例では、「はい」、「いいえ」の語尾の音高が、問いの語尾の音高に対して5度下、6度下の協和音程の関係となるように音声合成されるので、利用者に不自然な感じを与えず、あたかも人と対話しているかのような印象を与えることができる。
また、図の例において、問いの語尾に相当する音高に対して、(1)の「はい」の語尾に相当する音高、(2)の「いいえ」の語尾に相当する音高が、どのような関係になるかについてはすでに図6、図7で説明した通りであり、肯定の意の「はい」という回答(の語尾)の音高に対して、否定の意の「いいえ」という回答(の語尾)の音高が、低くなる。
このため、本実施形態によれば、否定の意で回答する際に相手の機嫌を損なわないように配慮した低い声で回答が出力されるので、この意味においても、人と対話しているかのような印象を利用者に与えることができる。
また、(2)の否定の意の回答を出力する場合、音声制御部109は、当該回答の音量を、(1)の肯定の意の回答の音量よりも控えめに(低く)しても良い。
FIG. 9 is a diagram for explaining the output of the answer of (1) or (2) to the question asked by the user. In response to the question "Tomorrow?" This is an example of a case where the speech synthesis device 10 as a terminal device outputs a response of “” or “No”.
In the example of this figure, speech synthesis is performed so that the pitches of the endings of “Yes” and “No” have a relation of a consonant pitch 5 degrees lower and 6 degrees lower than the pitch of the ending of the question. Thus, it is possible to give the impression that the user is interacting with the person without giving the user an unnatural feeling.
In the example of the figure, the pitch corresponding to the ending of “Yes” in (1) and the pitch corresponding to the ending of “No” in (2) The relationship is as described above with reference to FIGS. 6 and 7, and the pitch of the answer (finish) of “Yes” of affirmative is referred to as “No” of negative. The pitch of the answer (the end of the answer) becomes lower.
For this reason, according to the present embodiment, when responding in a negative sense, the answer is output in a low voice with consideration given not to hurt the opponent's mood. Such an impression can be given to the user.
When outputting the negative answer of (2), the voice control unit 109 may set the volume of the answer to be lower (lower) than the volume of the positive answer of (1). .

また、この図において、当該問いが発せられたタイミング、例えば問いの語尾の「れ」のタイミングを(a)とし、「はい」の回答の語頭が発せられるタイミングを(b)とし、「いいえ」の回答の語頭が発せられるタイミングを(c)としている。この例において、問いが発せられてから、「はい」の回答が出力されるまでの期間T1は、「いいえ」の回答が出力されるまでの期間T2よりも早い。すなわち、T1<T2であり、換言すれば、実施形態に係る音声合成装置10において、「いいえ」と回答する場合には、「はい」と回答する場合と比較して、一呼吸遅れて出力される。このため、本実施形態によれば、人と対話しているときにみられるような間の取り方で「はい」、「いいえ」のような回答を音声合成で出力することができる。   Also, in this figure, the timing at which the question is issued, for example, the timing of the ending of the question "re" is defined as (a), the timing at which the beginning of the answer of "yes" is generated is defined as (b), and the "no" (C) is the timing at which the beginning of the answer is issued. In this example, the period T1 from when the question is issued to when the answer of "Yes" is output is earlier than the period T2 until the answer of "No" is output. That is, T1 <T2, in other words, in the speech synthesizer 10 according to the embodiment, when the answer is “No”, the speech is output one breath later than when the answer is “Yes”. You. For this reason, according to the present embodiment, it is possible to output a response such as “yes” or “no” by speech synthesis in a manner such as is seen when interacting with a person.

図10は、利用者が発した問いに対して(3)および(4)の回答の出力について説明する図であり、利用者Wによる「あすのてんきは?」という問いに対して具体的な回答を音声合成装置10が出力する場合の例である。
この図の例では、問いに対して、具体的な回答の「はれです」という(3)の回答の前に、「えーと」という(4)の回答が出力される。具体的な回答については様々なデータベースや外部サーバにアクセスする必要があるので、当該回答の作成に時間を要する場合がある。具体的な回答が作成されるまでに音声合成装置10において無音状態が継続してしまうと、利用者に対して不安感を与えてしまうが、本実施形態では、(3)の回答の前に、とりあえず(4)の回答が出力されるので、そのような一種の不安感を利用者に与えない。
また、人同士の対話においても、具体的な内容を回答する前に、(4)のような回答をすることは良く見られる行為である。本実施形態では、このような行為を真似て、回答を音声合成するので、その意味において、人と対話しているかのような印象を利用者に与えることができる。
FIG. 10 is a diagram for explaining the output of the answers (3) and (4) to the question asked by the user, and is specific to the question "What is Asuno Tenki?" This is an example of a case where the answer is output by the speech synthesizer 10.
In the example of this figure, in response to the question, the answer of (4) of "um" is output before the answer of (3) of "Hare-de" as a specific answer. Since it is necessary to access various databases and external servers for specific answers, it may take time to create the answers. If the silent state continues in the speech synthesizer 10 until a specific answer is created, the user may feel uneasy. However, in the present embodiment, before the answer of (3), Since the answer of (4) is output for the time being, such kind of uneasiness is not given to the user.
Also, in a dialogue between people, it is a common act to give an answer as described in (4) before giving specific contents. In the present embodiment, since the response is synthesized by speech by imitating such an action, in that sense, the user can be given an impression as if he or she is interacting with a person.

なお、図において、当該問いが発せられたタイミング、問いの語尾の「は」のタイミングを(d)とし、「えーと」の回答の語頭が発せられるタイミングを(e)とし、「はれです」の回答の語頭が発せられるタイミングを(f)としている。この例において、問いが発せられてから、「えーと」の回答が出力されるまでの期間T3は、上記(1)の回答と同程度であることが好ましい。
また、「はれです」のような具体的な回答の作成に時間を要する場合、(4)として、同じ回答、または、別の回答を繰り返して間を長くしても良い。
In the figure, the timing at which the question was issued and the timing of the ending “ha” of the question are denoted by (d), the timing at which the beginning of the response to “er” is issued by (e), and (F) is the timing at which the beginning of the answer is issued. In this example, it is preferable that the period T3 from when the question is issued to when the answer of “er” is output is about the same as the answer in the above (1).
When it takes time to create a specific answer such as “sore”, as (4), the same answer or another answer may be repeated to lengthen the interval.

<応用例・変形例>
本発明は、上述した実施形態に限定されるものではなく、例えば次に述べるような各種の応用・変形が可能である。また、次に述べる応用・変形の態様は、任意に選択された一または複数を適宜に組み合わせることもできる。
<Applications / Modifications>
The present invention is not limited to the above-described embodiment, and for example, various applications and modifications as described below are possible. In addition, one or a plurality of arbitrarily selected aspects of the application and modification described below can be appropriately combined.

<音声入力部>
実施形態では、音声入力部102は、利用者の音声(発言)をマイクロフォンで入力して音声信号に変換する構成としたが、この構成に限られず、他の処理部で処理された音声信号や、他の装置から供給(または転送された)音声信号を入力する構成としても良い。すなわち、音声入力部102は、音声信号による発言をなんらかの形で入力する構成であれば良い。
<Voice input section>
In the embodiment, the voice input unit 102 is configured to input a user's voice (speech) with a microphone and convert it into a voice signal. However, the voice input unit 102 is not limited to this configuration, and may include a voice signal processed by another processing unit. Alternatively, a configuration may be adopted in which an audio signal supplied (or transferred) from another device is input. That is, the voice input unit 102 may have any configuration as long as the voice signal is input in some form.

<音声波形データ>
実施形態では、回答作成部110が、問いに対する回答として、一音一音に音高が割り当てられた音声シーケンスを出力する構成としたが、当該回答の、例えばwav形式の音声波形データを出力する構成としても良い。
なお、音声波形データは、上述した音声シーケンスのように一音一音に音高が割り当てられないので、例えば、音声制御部109が、単純に再生した場合の語尾の音高を特定して、音高データで示される音高に対して、特定した音高が所定の関係となるようにフィルタ処理などの音高変換(ピッチ変換)をした上で、音声波形データを出力(再生)する構成とすれば良い。
また、カラオケ機器では周知である、話速を変えずに音高(ピッチ)をシフトする、いわゆるキーコントロール技術によって音高変換をしても良い。
<Sound waveform data>
In the embodiment, the answer creating unit 110 outputs a sound sequence in which a pitch is assigned to each sound as an answer to a question. However, the answer creating unit 110 outputs, for example, sound waveform data in a wav format of the answer. It is good also as composition.
In addition, since the sound waveform data does not assign a pitch to each sound as in the above-described sound sequence, for example, the sound control unit 109 specifies the pitch at the end of a simple reproduction, Configuration in which sound waveform data is output (reproduced) after performing pitch conversion (pitch conversion) such as filtering so that the specified pitch has a predetermined relationship with the pitch indicated by the pitch data. It is good.
The pitch may be converted by a so-called key control technique that shifts the pitch without changing the speech speed, which is well known in karaoke machines.

<回答等の語尾、語頭>
実施形態では、問いの語尾の音高に対応して回答の語尾の音高を制御する構成としたが、言語や、方言、言い回しなどによっては回答の語尾以外の部分、例えば語頭が特徴的となる場合もある。このような場合には、問いを発した人は、当該問いに対する回答があったときに、当該問いの語尾の音高と、当該回答の特徴的な語頭の音高とを無意識のうち比較して当該回答に対する印象を判断する。したがって、この場合には、問いの語尾の音高に対応して回答の語頭の音高を制御する構成とすれば良い。この構成によれば、回答の語頭が特徴的である場合、当該回答を受け取る利用者に対して心理的な印象を与えることが可能となる。具体的には、図6(b)、図7(b)、図8(b)の右側の図を参照のこと。
<End and beginning of answers etc.>
In the embodiment, the configuration is such that the pitch of the ending of the answer is controlled in accordance with the pitch of the ending of the question.However, depending on the language, dialect, wording, etc., parts other than the ending of the answer, for example, the beginning of the word is characteristic. In some cases. In such cases, the person who asked the question unconsciously compares the pitch at the end of the question with the pitch at the characteristic beginning of the answer when the question is answered. To judge the impression of the answer. Therefore, in this case, the pitch at the beginning of the answer may be controlled in accordance with the pitch at the end of the question. According to this configuration, when the beginning of the answer is characteristic, it is possible to give a psychological impression to the user who receives the answer. Specifically, see the drawings on the right side of FIGS. 6B, 7B, and 8B.

問いについても同様であり、語尾に限られず、語頭で判断される場合も考えられる。また、問い、回答については、語頭、語尾に限られず、平均的な音高で判断される場合や、最も強く発音した部分の音高で判断される場合なども考えられる。このため、問いの第1区間および回答の第2区間は、必ずしも語頭や語尾に限られない、ということができる。   The same applies to questions, not limited to endings, but may be determined by the beginning of a word. The question and answer are not limited to the beginning and end of the word, but may be determined by the average pitch or the pitch of the most pronounced part. For this reason, it can be said that the first section of the question and the second section of the answer are not necessarily limited to the beginning or end of the question.

<音程の関係>
上述した実施形態では、問いの語尾等に対して回答の語尾等の音高が5度下となるように音声合成を制御する構成としたが、5度下以外の協和音程の関係に制御する構成であっても良い。例えば、上述したように完全8度、完全5度、完全4度、長・短3度、長・短6度であっても良い。
また、協和音程の関係でなくても、経験的に良い(または悪い)印象を与える音程の関係の存在が認められる場合もあるので、当該音程の関係に回答の音高を制御する構成としても良い。ただし、この場合においても、問いの語尾等の音高と回答の語尾等の音高との2音間の音程が離れ過ぎると、問いに対する回答が不自然になりやすいので、問いの音高と回答の音高とが上下1オクターブの範囲内にあることが望ましい。
<Relationship of pitch>
In the above-described embodiment, the speech synthesis is controlled so that the pitch of the answer ending or the like is 5 degrees lower than the ending of the question or the like. It may be a configuration. For example, as described above, the angle may be perfect 8 degrees, perfect 5 degrees, perfect 4 degrees, long / short 3 degrees, or long / short 6 degrees.
Further, even if the relationship is not the consonant pitch, there may be a case where the existence of a pitch relationship that gives a good (or bad) impression is recognized empirically, so that the pitch of the answer is controlled based on the pitch relationship. good. However, even in this case, if the pitch between the two pitches, such as the ending of the question and the ending of the answer, is too far apart, the answer to the question tends to be unnatural. It is desirable that the pitch of the answer be in the range of one octave up and down.

<回答の音高シフト>
ところで、音声シーケンスなどで規定される回答の語尾等の音高を、問いの語尾等の音高に対して所定の関係となるように制御する構成では、詳細には、実施形態のように例えば5度下、6度下となるように変更する構成では、変更しようとする音高が低すぎると、不自然な低音で回答が音声合成されてしまう場合がある。そこで次に、このような場合を回避するための応用例(その1、および、その2)について説明する。
<Pitch shift of answer>
By the way, in a configuration in which the pitch such as the ending of the answer specified in the voice sequence or the like is controlled so as to have a predetermined relationship with the pitch such as the ending of the question, specifically, for example, as in the embodiment, In the configuration in which the pitch is changed by 5 degrees or 6 degrees below, if the pitch to be changed is too low, the answer may be synthesized with an unnatural bass sound. Therefore, next, application examples (No. 1 and No. 2) for avoiding such a case will be described.

図11は、このうちの応用例(その1)における処理の要部を示す図である。なお、ここでいう処理の要部とは、図4におけるステップSa18の「回答の音高決定」で実行される処理をいう。すなわち、応用例(その1)では、図4に示されるステップSa18において、図11で示される処理が実行される、という関係にあり、詳細については次の通りである。
まず、音声制御部109は、音高解析部106からの音高データで示される音高に対して、例えば(1)の回答であれば、5度下の関係にある音高を求めて仮決定し、(2)の回答であれば、6度下の関係にある音高を求めて仮決定する(ステップSb171)。
次に、音声制御部109は、仮決定した音高が予め定められた閾値音高よりも低いか否かを判別する(ステップSb172)。なお、閾値音高は、音声合成する際の下限周波数に相当する音高や、これより低くければ不自然な感じを与えるような音高などに設定される。
FIG. 11 is a diagram showing a main part of the processing in the application example (Part 1). Note that the main part of the process referred to here is a process executed in “determination of answer pitch” in step Sa18 in FIG. That is, in the application example (No. 1), the process shown in FIG. 11 is executed in step Sa18 shown in FIG. 4, and the details are as follows.
First, the voice control unit 109 obtains a pitch which is 5 degrees lower than the pitch indicated by the pitch data from the pitch analysis unit 106, for example, if the answer is (1), and temporarily determines the pitch. If the answer is (2), the pitch is determined to be 6 degrees lower and temporarily determined (step Sb171).
Next, the voice control unit 109 determines whether or not the temporarily determined pitch is lower than a predetermined threshold pitch (step Sb172). Note that the threshold pitch is set to a pitch corresponding to a lower limit frequency when performing voice synthesis, or a pitch that gives an unnatural feeling if lower than this.

仮決定した音高、すなわち問いにおける語尾の音高よりも5度下または6度下の音高が閾値音高よりも低ければ(ステップSb172の判別結果が「Yes」であれば)、音声制御部109は、仮決定した音高を1オクターブ上の音高にシフトする(ステップSb173)。
一方、求めた音高が閾値音高以上であれば(ステップSb172の判別結果が「No」であれば)、上記ステップSb173の処理がスキップされる。
そして、音声制御部109は、回答をシフトする際に目標となる語尾の音高を、次のような音高に本決定する(ステップSb174)。すなわち、音声制御部109は、仮決定した音高が閾値音高よりも低ければ、仮決定した音高を1オクターブ上に変更した音高に、また、仮決定した音高が閾値音高以上であれば、当該仮決定した音高をそのまま、それぞれ目標となる音高を本決定する。
なお、処理手順は、ステップSb174の後においては、図4のステップSa20に移行して、音声制御部109は、制御内容として、回答の音高を本決定した音高にシフトし、回答の出力タイミングをステップSa19で決定されたタイミングに決定する。これにより、音声合成部112は、決定された制御内容で音声シーケンスの音声を合成して出力することになる。
If the tentatively determined pitch, that is, the pitch 5 degrees or 6 degrees below the pitch at the end of the question is lower than the threshold pitch (if the determination result in step Sb172 is “Yes”), the voice control is performed. The unit 109 shifts the provisionally determined pitch to a pitch one octave higher (step Sb173).
On the other hand, if the obtained pitch is equal to or larger than the threshold pitch (if the determination result in step Sb172 is “No”), the processing in step Sb173 is skipped.
Then, the voice control unit 109 finally determines the pitch of the ending which is the target when shifting the answer to the following pitch (step Sb174). That is, if the tentatively determined pitch is lower than the threshold pitch, the voice control unit 109 changes the tentatively determined pitch to one octave higher and sets the tentatively determined pitch to the threshold pitch or more. If so, the target pitches are finally determined without changing the provisionally determined pitches.
After step Sb174, the processing procedure shifts to step Sa20 in FIG. 4, and the voice control unit 109 shifts the pitch of the answer to the finally determined pitch as the control content, and outputs the answer. The timing is determined to be the timing determined in step Sa19. Thereby, the voice synthesizing unit 112 synthesizes and outputs the voice of the voice sequence with the determined control content.

この応用例(その1)によれば、変更しようとする音高が閾値音高よりも低ければ、当該音高よりも1オクターブ上の音高となるようにシフトされるので、不自然な低音で回答が音声合成される、という点を回避することができる。
ここでは、回答の語尾等の音高を1オクターブ上の音高にシフトした例であったが、1オクターブ下の音高にシフトしても良い。詳細には、利用者が発した問いの語尾等の音高が高いために、当該音高に対して5度下の音高が高すぎると、不自然な高音で回答が音声合成されてしまう。これを回避するために、音高データで示される音高に対して5度下の関係にある音高(仮決定した音高)が閾値音高より高ければ、回答の語尾等の音高を、仮決定した音高よりも1オクターブ下の音高にシフトすれば良い。
According to this application example (Part 1), if the pitch to be changed is lower than the threshold pitch, the pitch is shifted so that the pitch is one octave higher than the pitch. And that the answer is synthesized by speech.
Here, the pitch of the answer ending is shifted to the pitch one octave higher, but may be shifted to the pitch one octave lower. In detail, because the pitch of the ending of the question or the like issued by the user is high, if the pitch 5 degrees below the pitch is too high, the answer will be synthesized as an unnatural treble. . To avoid this, if the pitch (provisionally determined pitch) having a relationship of 5 degrees below the pitch indicated by the pitch data is higher than the threshold pitch, the pitch of the answer ending or the like is changed. The pitch may be shifted to a pitch one octave lower than the tentatively determined pitch.

また、音声合成する際には、性別や年齢別(子供/大人の別)などが定められた仮想的なキャラクタの声で出力することができる場合がある。この場合のように女性や子供のキャラクタが指定されているとき、一律に問いの語尾に対して5度下や6度下の音高に下げてしまうと、当該キャラクタに不似合いの低音で回答が音声合成されてしまうので、同様に、1オクターブ上の音高となるようにシフトする構成としても良い。   Further, when synthesizing voice, it may be possible to output a voice of a virtual character in which sex, age, etc. (child / adult) are determined. When a female or child character is specified as in this case, if the pitch is uniformly lowered to 5th or 6th below the ending of the question, the answer will be in a low tone that is not suitable for the character. May be synthesized so that the pitch is shifted by one octave.

図12は、このような応用例(その2)における処理の要部を示す図であり、図4におけるステップSa18の「回答の音高決定」で実行される処理を示している。図11と異なる点を中心に説明すると、ステップSb171において、音声制御部109は、音高解析部106からの音高データで示される音高に対して5度下、6度下の関係にある音高を求めて仮決定した後、当該キャラクタを規定する属性として女性や子供が指定されているか否かを判別する(ステップSc172)。   FIG. 12 is a diagram showing a main part of a process in such an application example (No. 2), and shows a process executed in “decision of pitch of answer” in step Sa18 in FIG. Explaining mainly the points different from FIG. 11, in step Sb171, the voice control unit 109 has a relationship of 5 degrees lower and 6 degrees lower than the pitch indicated by the pitch data from the pitch analysis unit 106. After the pitch is obtained and tentatively determined, it is determined whether a woman or a child is specified as an attribute defining the character (step Sc172).

音声制御部109は、当該属性として女性や子供が指定されていれば(ステップSc172の判別結果が「Yes」であれば)、仮決定した音高を1オクターブ上の音高にシフトし(ステップSb173)、一方、当該属性として女性や子供が指定されていなければ、例えば男性や大人が指定されていれば(ステップSc172の判別結果が「No」であれば)、上記ステップSb173の処理がスキップされる。以降については応用例(その1)と同様である。
この応用例(その2)によれば、女性や子供の声で回答させることが設定されていれば、仮決定の音高よりも1オクターブ上の音高となるようにシフトされるので、所定の音程関係を維持しつつ、不自然な低音で回答が音声合成される不具合を回避することができる。
ここでは、属性として女性や子供が指定されていれば、1オクターブ上の音高にシフトする例であったが、例えば属性として成人男性が指定されていれば、当該属性に対応したキャラクタに不似合いの高音で回答が音声合成されてしまうのを回避するために、1オクターブ下の音高にシフトしても良い。
If a female or child is specified as the attribute (if the determination result in step Sc172 is “Yes”), the voice control unit 109 shifts the temporarily determined pitch to a pitch one octave higher (step Sb173) On the other hand, if a woman or a child is not specified as the attribute, for example, if a man or an adult is specified (if the determination result in step Sc172 is “No”), the processing in step Sb173 is skipped. Is done. The subsequent steps are the same as in the application example (part 1).
According to this application example (2), if the answer is set to be made by the voice of a woman or a child, the pitch is shifted so that the pitch is one octave higher than the temporarily determined pitch. Can be avoided while maintaining the pitch relationship of 回答.
In this example, if a female or child is specified as an attribute, the pitch shifts to one octave higher. However, if an adult male is specified as an attribute, for example, a character corresponding to the attribute is not matched. The pitch may be shifted to one octave lower in order to avoid that the answer is synthesized with a treble that is suitable.

<不協和音程>
上述した実施形態では、問いの語尾等に対して、回答の語尾等の音高が協和音程の関係となるように音声合成を制御する構成としたが、不協和音程の関係になるように音声合成を制御しても良い。なお、回答を不協和音程の関係にある音高で合成すると、問いを発した利用者に、不自然な感じや、悪印象、険悪な感じなどを与えて、スムーズな対話が成立しなくなる、という懸念もあるが、このような感じが逆にストレス解消に良いという見解もある。
そこで、動作モードとして、好印象等の回答を望むモード(第1モード)、悪印象等の回答を望むモード(第2モード)を用意しておき、いずれかのモードに応じて音声合成を制御する構成としても良い。
<Dissonance pitch>
In the above-described embodiment, the speech synthesis is controlled so that the pitch of the answer ending or the like has a consonant pitch relationship with the question ending or the like. May be controlled. It should be noted that if answers are synthesized at pitches that have a dissonant pitch relationship, the user who asked the question will feel unnatural, bad, or stupid, and a smooth dialogue will not be established. There are concerns, but some believe that such feelings can be good for stress relief.
In view of this, as an operation mode, a mode in which an answer such as a good impression is desired (first mode) and a mode in which an answer such as a bad impression is desired (second mode) are prepared, and speech synthesis is controlled in accordance with one of the modes. It is good also as a structure which performs.

図13は、このような応用例(その3)における処理の要部を示す図であり、図4におけるステップSa18の「回答の音高決定」で実行される処理を示している。図11と異なる点を中心に説明すると、音声制御部109は、動作モードとして第1モードが設定されているか否かを判別する(ステップSd172)。   FIG. 13 is a diagram showing a main part of a process in such an application example (part 3), and shows a process executed in “decision of pitch of answer” in step Sa18 in FIG. Explaining mainly the points different from FIG. 11, the voice control unit 109 determines whether the first mode is set as the operation mode (step Sd172).

音声制御部109は、動作モードとして第1モードが設定されていれば(ステップSd172の判別結果が「Yes」であれば)、回答の例えば語尾の音高を、問いの例えば語尾の音高に対して協和音程の関係にある音高となるように決定する(ステップSd173A)。一方、音声制御部109は、動作モードとして第2モードが設定されていれば(ステップSd172の判別結果が「No」であれば)、回答の語尾の音高を、問いの語尾の音高に対して不協和音程の関係にある音高となるように決定する(ステップSd173B)。以降については応用例(その1)、応用例(その2)と同様である。
したがって、この応用例(その3)によれば、第1モードが設定されていれば、問いの音高に対して協和音程の関係にある音高で回答が音声合成される一方、第2モードが設定されていれば、問いの音高に対して不協和音程の関係にある音高で回答が音声合成されるので、利用者は、適宜動作モードを使い分けることができることになる。
If the first mode is set as the operation mode (if the determination result in step Sd172 is “Yes”), the voice control unit 109 changes the pitch of the answer, for example, to the ending of the question, for example, to the pitch of the ending of the question, for example. On the other hand, the pitch is determined so as to have a consonant pitch (step Sd173A). On the other hand, if the second mode is set as the operation mode (if the determination result in step Sd172 is “No”), the voice control unit 109 sets the pitch at the end of the answer to the pitch at the end of the question. The pitch is determined so as to have a dissonant pitch relationship (step Sd173B). Subsequent steps are the same as in the application example (part 1) and the application example (part 2).
Therefore, according to this application example (part 3), if the first mode is set, the answer is voice-synthesized at a pitch having a consonant pitch with the questioned pitch, while the second mode is set. Is set, the answer is voice-synthesized at a pitch that has a dissonant pitch with the pitch of the question, so that the user can appropriately use the operation mode.

なお、応用例(その1)や、応用例(その2)、応用例(その3)は、第1実施形態のような音声シーケンスを用いる例で説明したが、音声波形データを用いる場合であっても良いのはもちろんである。   Although the application example (part 1), the application example (part 2), and the application example (part 3) have been described using the example in which the audio sequence is used as in the first embodiment, the application example uses audio waveform data. Of course you can.

<その他>
実施形態にあっては、問いに対する回答を取得する構成である言語解析部108、言語データベース122および回答データベース124を音声合成装置10の側に設けたが、端末装置などでは、処理の負荷が重くなる点や、記憶容量に制限がある点などを考慮して、外部サーバの側に設ける構成としても良い。すなわち、音声合成装置10において回答作成部110は、問いに対する回答をなんらかの形で取得するとともに、当該回答の音声を規定するデータを出力する構成であれば足り、その回答を、音声合成装置10の側で作成するのか、音声合成装置10以外の他の構成(例えば外部サーバ)の側で作成するのか、については問われない。
なお、音声合成装置10において、問いに対する回答について、外部サーバ等にアクセスしないで作成可能な用途であれば、情報取得部126は不要である。
<Others>
In the embodiment, the language analyzer 108, the language database 122, and the answer database 124, which are configured to acquire the answer to the question, are provided on the side of the speech synthesizer 10, but the processing load is heavy in the terminal device and the like. In consideration of such a point that the storage capacity is limited, the configuration may be provided on the external server side. That is, in the speech synthesizer 10, the answer creation unit 110 only needs to have a configuration that obtains an answer to the question in some form and outputs data that defines the voice of the answer. It does not matter whether it is created on the side or on the side of a configuration other than the speech synthesizer 10 (for example, an external server).
The information acquisition unit 126 is unnecessary in the speech synthesizer 10 if the answer to the question can be created without accessing an external server or the like.

102…音声入力部、104…発話区間検出部、106…音高解析部、108…言語解析部、109…音声制御部、110…回答作成部、112…音声合成部。 102: voice input unit, 104: utterance section detection unit, 106: pitch analysis unit, 108: language analysis unit, 109: voice control unit, 110: answer creation unit, 112: voice synthesis unit.

Claims (5)

問いの音声信号を入力する音声入力部と、
前記問いに対する回答を取得する取得部と、
前記回答の意味内容を解析する言語解析部と、
前記問いの音声信号が入力され終わってから、肯定の前記回答の音声信号を出力するまでの間を、否定の前記回答の音声信号を出力するまでの間よりも短く制御する音声制御部と、
を具備することを特徴とする音声制御装置。
An audio input unit for inputting an audio signal of the question,
An acquisition unit for acquiring an answer to the question,
A language analysis unit for analyzing the semantic content of the answer,
After finished the input speech signal of the questions is, a sound control section for controlling shorter than between the until the output audio signal of positive of the answers, to the output of the audio signal of the answer negative,
A voice control device comprising:
前記音声制御部は、The voice control unit,
肯定の前記回答の音声信号を出力するまでの間を、0.5秒から2.0秒までの範囲で制御するControl is performed in the range from 0.5 seconds to 2.0 seconds until the voice signal of the affirmative answer is output.
請求項1に記載の音声制御装置。The voice control device according to claim 1.
前記音声制御部は、The voice control unit,
否定の前記回答の音声信号を出力する場合、当該否定の音声信号の音量を、肯定の前記回答の音声信号の音量よりも低くするWhen outputting the voice signal of the negative answer, the volume of the negative voice signal is set lower than the volume of the voice signal of the positive answer.
請求項1に記載の音声制御装置。The voice control device according to claim 1.
問いの音声信号を入力し、
前記問いに対する回答を取得し、
前記回答の意味内容を解析し、
前記問いの音声信号が入力され終わってから、肯定の前記回答の音声信号を出力するまでの間を、否定の前記回答の音声信号を出力するまでの間よりも短く制御する
ことを特徴とする音声制御方法。
Input the audio signal of the question,
Get an answer to the question,
Analyze the meaning of the answer,
After finished the input speech signal of the question is between to the output of the audio signal of positive of the answers, and controlling shorter than until the output audio signal of the answer negative Voice control method.
コンピュータを、
問いの音声信号を入力する音声入力部、
前記問いに対する回答を取得する取得部、
前記回答の意味内容を解析する言語解析部、および、
前記問いの音声信号が入力され終わってから、肯定の前記回答の音声信号を出力するまでの間を、否定の前記回答の音声信号を出力するまでの間よりも短く制御する音声制御部、
として機能させることを特徴とするプログラム。
Computer
A voice input section for inputting the voice signal of the question,
An obtaining unit for obtaining an answer to the question,
A language analysis unit for analyzing the meaning of the answer, and
Voice control unit for controlling shorter than a period from finishing the input speech signal of the question is between to the output of the audio signal of the answer affirmative, to the output of the audio signal of the answer negative,
A program characterized by functioning as a program.
JP2018140060A 2018-07-26 2018-07-26 Voice control device, voice control method and program Expired - Fee Related JP6648786B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018140060A JP6648786B2 (en) 2018-07-26 2018-07-26 Voice control device, voice control method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018140060A JP6648786B2 (en) 2018-07-26 2018-07-26 Voice control device, voice control method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2013198218A Division JP6375604B2 (en) 2013-05-31 2013-09-25 Voice control device, voice control method and program

Publications (2)

Publication Number Publication Date
JP2018185537A JP2018185537A (en) 2018-11-22
JP6648786B2 true JP6648786B2 (en) 2020-02-14

Family

ID=64356967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018140060A Expired - Fee Related JP6648786B2 (en) 2018-07-26 2018-07-26 Voice control device, voice control method and program

Country Status (1)

Country Link
JP (1) JP6648786B2 (en)

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006039120A (en) * 2004-07-26 2006-02-09 Sony Corp Interactive device and interactive method, program and recording medium

Also Published As

Publication number Publication date
JP2018185537A (en) 2018-11-22

Similar Documents

Publication Publication Date Title
US10490181B2 (en) Technology for responding to remarks using speech synthesis
WO2006123539A1 (en) Speech synthesizer
WO2016063879A1 (en) Speech synthesis device and method
JP3660937B2 (en) Speech synthesis method and speech synthesis apparatus
CN107004428B (en) Session evaluation device and method
JP6648805B2 (en) Voice control method, voice control device, and program
JP6343895B2 (en) Voice control device, voice control method and program
JP6375604B2 (en) Voice control device, voice control method and program
JP6375605B2 (en) Voice control device, voice control method and program
JP6648786B2 (en) Voice control device, voice control method and program
JP6424419B2 (en) Voice control device, voice control method and program
JP6566076B2 (en) Speech synthesis method and program
JP6536713B2 (en) Voice control device, voice control method and program
JP6232892B2 (en) Speech synthesis apparatus and program
JP6343896B2 (en) Voice control device, voice control method and program
JP3575919B2 (en) Text-to-speech converter
JP2010224392A (en) Utterance support device, method, and program
JP2001312290A (en) Voice synthesizing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180726

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190610

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190703

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191230

R151 Written notification of patent or utility model registration

Ref document number: 6648786

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees