JP2014115577A - Read-aloud sentence generation device for voice synthesis, and program of the same - Google Patents

Read-aloud sentence generation device for voice synthesis, and program of the same Download PDF

Info

Publication number
JP2014115577A
JP2014115577A JP2012271461A JP2012271461A JP2014115577A JP 2014115577 A JP2014115577 A JP 2014115577A JP 2012271461 A JP2012271461 A JP 2012271461A JP 2012271461 A JP2012271461 A JP 2012271461A JP 2014115577 A JP2014115577 A JP 2014115577A
Authority
JP
Japan
Prior art keywords
graph
node
list
integrated
read
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2012271461A
Other languages
Japanese (ja)
Other versions
JP6088233B2 (en
Inventor
Hiroyuki Segi
寛之 世木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2012271461A priority Critical patent/JP6088233B2/en
Publication of JP2014115577A publication Critical patent/JP2014115577A/en
Application granted granted Critical
Publication of JP6088233B2 publication Critical patent/JP6088233B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a read-aloud sentence generation device for voice synthesis capable of preventing duplicated generation of read-aloud sentences and reducing the number of generated read-aloud sentences.SOLUTION: A read-aloud sentence generation device 1 for voice synthesis includes: graph branch deleting means 11 for generating a branch deleted graph; integration graph generation means 12 for integrating an initial graph and the branch deleted graph with an integration graph; graph comparison means 14 for generating list exclusion information by comparing read-out text data and the integration graph; list exclusion means 15 for excluding words and phrases from the list based on the list exclusion information; conditional expression generation means 16 for generating a first conditional expression and a second conditional expression; minimum number of times of passing calculation means 17 for calculating the minimum number of times of passing by solving the first conditional expression and the second conditional expression; and read-out sentence generation means 18 for generating the same number of read-out sentences as the minimum number of times of passing.

Description

本願発明は、音声合成用データベースの構築に必要な読み上げ文を生成する音声合成用読み上げ文生成装置及びそのプログラムに関する。   The present invention relates to a speech synthesis read-out sentence generation device that generates a read-out sentence necessary for constructing a speech synthesis database and a program thereof.

従来から、音声合成用の読み上げ文章を生成する発明が提案されている(特許文献1参照)。この特許文献1に記載の発明は、有向グラフにおけるノードの最低通過回数から、音声合成用の読み上げ文を生成するための条件式を生成し、生成した条件式をシンプレックス法で解くことにより、読み上げ文を生成するものである。   Conventionally, an invention for generating a text-to-speech for speech synthesis has been proposed (see Patent Document 1). The invention described in Patent Document 1 generates a conditional expression for generating a read-out sentence for speech synthesis from the minimum number of times a node passes in a directed graph, and solves the generated conditional expression by a simplex method. Is generated.

特開2010−33462号公報JP 2010-33462 A

この特許文献1に記載の発明は、音声合成用データベースに既に登録されて読み上げられた文(以下、「読み上げ済み文」)が存在する場合でも、この読み上げ済み文を反映できないため、読み上げ済み文と同一の読み上げ文が重複生成され、読み上げ文の数が増大するという問題がある。   In the invention described in Patent Document 1, even when there is a sentence that has already been registered and read out in the speech synthesis database (hereinafter referred to as “read-out sentence”), this read-out sentence cannot be reflected. There is a problem that the same read-out sentence is generated twice and the number of read-out sentences increases.

そこで、本願発明は、読み上げ文の重複生成を防止し、生成される読み上げ文の数を削減できる音声合成用読み上げ文生成装置及びそのプログラムを提供することを課題とする。   Therefore, an object of the present invention is to provide a speech synthesis read-out sentence generation device and a program therefor that can prevent duplicate generation of read-out sentences and reduce the number of read-out sentences generated.

前記した課題に鑑みて、本願第1発明に係る音声合成用読み上げ文生成装置は、文に含まれる語句を示す複数のノードとノード間の接続関係を示すエッジとで構成され、ノードに置換可能な語句を割り当てた有向グラフによって文が表現され、有向グラフを用いて、音声合成に必要となる音声合成データベース用の読み上げ文を生成する音声合成用読み上げ文生成装置であって、グラフ入力手段と、グラフ統合手段と、テキストデータ入力手段と、グラフ比較手段と、リスト除外手段と、第1条件式生成手段と、第2条件式生成手段と、最小通過回数算出手段と、読み上げ文生成手段とを備えることを特徴とする。   In view of the problems described above, the speech synthesis read-out sentence generation device according to the first invention of the present application is composed of a plurality of nodes indicating words included in a sentence and edges indicating connection relations between the nodes, and can be replaced with nodes. A speech synthesis speech generation device for speech synthesis that generates a speech for a speech synthesis database required for speech synthesis using a directed graph in which a sentence is represented by a directed graph to which a simple word or phrase is assigned. An integration unit, a text data input unit, a graph comparison unit, a list exclusion unit, a first conditional expression generation unit, a second conditional expression generation unit, a minimum passage number calculation unit, and a reading sentence generation unit are provided. It is characterized by that.

かかる構成によれば、音声合成用読み上げ文生成装置は、グラフ入力手段によって、有向グラフと、有向グラフのノードに対応し、かつ、ノードで置換する語句を1以上格納するリストとが入力される。また、音声合成用読み上げ文生成装置は、グラフ統合手段によって、グラフ入力手段に入力された有向グラフを統合(クラスタリング)する。そして、音声合成用読み上げ文生成装置は、テキストデータ入力手段によって、既に読み上げられた文についての発話内容を示す読み上げ済みテキストデータが入力される。   According to such a configuration, the speech synthesizing speech generation apparatus receives a directed graph and a list that stores one or more words that correspond to the nodes of the directed graph and that are replaced by the nodes by the graph input unit. In addition, the speech synthesis read-out sentence generation device integrates (clusters) the directed graphs input to the graph input unit by the graph integration unit. Then, the text-to-speech read-out sentence generating apparatus receives read-out text data indicating the utterance content of the sentence already read out by the text data input means.

また、音声合成用読み上げ文生成装置は、グラフ比較手段によって、テキストデータ入力手段に入力された読み上げ済みテキストデータと、統合された有向グラフとを比較することで、リストから、読み上げ済みテキストデータに含まれる語句を求める。そして、音声合成用読み上げ文生成装置は、リスト除外手段によって、グラフ比較手段が求めた語句をリストから除外する。   In addition, the speech synthesizing device for speech synthesis includes, by the graph comparison unit, the read-out text data input to the text data input unit and the integrated directed graph, thereby including the read-out text data from the list. Ask for a phrase Then, the speech synthesis read-out sentence generation device excludes the phrase obtained by the graph comparison unit from the list by the list exclusion unit.

また、音声合成用読み上げ文生成装置は、第1条件式生成手段によって、ノードの通過回数を、ノードに対応し、かつ、リスト除外手段で除外されたリストに格納された語句の個数以上とする第1条件式を生成する。そして、音声合成用読み上げ文生成装置は、第2条件式生成手段によって、第2条件式として、ノードに入力されるエッジの通過回数の和がノードの通過回数に等しくなる条件式と、ノードから出力するエッジの通過回数の和がノードの通過回数に等しくなる条件式とを生成する。   Further, the speech synthesizing speech generation apparatus uses the first conditional expression generation unit to set the number of passages of the node to be equal to or more than the number of words stored in the list corresponding to the node and excluded by the list exclusion unit. A first conditional expression is generated. Then, the speech synthesizing speech generation device uses the second conditional expression generation means as the second conditional expression, a conditional expression in which the sum of the number of times of passing of the edges input to the node is equal to the number of times of passing of the node, A conditional expression is generated in which the sum of the number of passes of the output edge is equal to the number of passes of the node.

ここで、ノードの通過回数とは、有向グラフにおけるノードとエッジの構造を維持したまま始点から単独の終点までを接続する経路において、ノードで示される内容を置換して各ノードを接続するとき、各ノードを通過する回数のことを指す。
また、エッジの通過回数とは、有向グラフにおけるノードとエッジの構造を維持したまま始点から単独の終点までを接続する経路において、ノードで示される内容を置換して各ノードを接続するとき、各エッジを通過する回数のことを指す。
Here, the number of times the node has passed means that when connecting each node by replacing the content indicated by the node in the path connecting the start point to the single end point while maintaining the node and edge structure in the directed graph, Refers to the number of times a node passes.
In addition, the number of times the edge passes is determined by replacing the contents indicated by the node in the path connecting the start point to the single end point while maintaining the structure of the node and edge in the directed graph. Refers to the number of passes.

また、音声合成用読み上げ文生成装置は、最小通過回数算出手段によって、第1条件式及び第2条件式を満たすように、文の先頭における通過回数が最小になる最小通過回数を算出する。ここで、第1の条件式及び第2の条件式が一次方程式又は一次不等式のため、最小通過回数算出手段は、シンプレックス法を用いて、第1条件式及び第2条件式を解くことができる。   In addition, the speech synthesizing speech generation apparatus for speech synthesis calculates the minimum number of passages that minimizes the number of passages at the head of the sentence so as to satisfy the first conditional expression and the second conditional expression by the minimum passage number calculation means. Here, since the first conditional expression and the second conditional expression are linear equations or linear inequalities, the minimum passage number calculating means can solve the first conditional expression and the second conditional expression using the simplex method. .

また、音声合成用読み上げ文生成装置は、読み上げ文生成手段によって、最小通過回数算出手段が算出した最小通過回数と等しい数、リスト除外手段で削除されたリストに格納された語句の組み合わせを変えて読み上げ文を生成する。   In the speech synthesis speech generation device for speech synthesis, the speech generation unit changes the number of passages equal to the minimum number of passages calculated by the minimum passage number calculation unit and the combination of words stored in the list deleted by the list exclusion unit. Generate a spoken sentence.

また、本願第2発明に係る音声合成用読み上げ文生成装置は、グラフ統合手段が、グラフ入力手段に2番目以降に入力された有向グラフのエッジが分岐しているか否かを判定し、エッジが分岐していない有向グラフを分岐削除済みグラフとし、エッジが分岐している有向グラフから、前記エッジの分岐先にあるノードを別々にして当該エッジの分岐が削除された分岐削除済みグラフを生成するグラフ分岐削除手段と、DPマッチング法(Dynamic Programming Matching)によって、グラフ入力手段に最初に入力された有向グラフ又は統合グラフの一方と分岐削除済みグラフとからなる比較対象グラフ対が類似するか否かを判定し、比較対象グラフ対が類似する場合、比較対象グラフ対を1個の統合グラフに統合し、比較対象グラフ対が類似しない場合、比較対象グラフ対のそれぞれを新たな統合グラフとする統合グラフ生成手段と、を備え、グラフ比較手段が、統合グラフ生成手段から入力された統合グラフと、読み上げ済みテキストデータとを比較することを特徴とする。
かかる構成によれば、音声合成用読み上げ文生成装置は、入力された有向グラフのエッジの分岐を削除してから統合することができる。
In the speech synthesis device for speech synthesis according to the second invention of the present application, the graph integration unit determines whether the edge of the directed graph input to the graph input unit after the second branch is branched, and the edge branches. A graph branch deletion that generates a branch deleted graph in which the branch of the edge is deleted separately from the directed graph in which the edge branches from the directed graph in which the edge branches Means and DP matching method (Dynamic Programming Matching) to determine whether the comparison target graph pair consisting of one of the directed graph or the integrated graph first input to the graph input means and the branch deleted graph is similar, If the comparison target graph pairs are similar, combine the comparison target graph pairs into one integrated graph, and if the comparison target graph pairs are not similar, An integrated graph generation unit that sets each comparison target graph pair as a new integrated graph, and the graph comparison unit compares the integrated graph input from the integrated graph generation unit with the read-out text data. And
According to such a configuration, the speech synthesizing text generation device for speech synthesis can be integrated after deleting the branch of the edge of the input directed graph.

また、本願第3発明に係る音声合成用読み上げ文生成装置は、第1条件式生成手段が、グラフ分岐削除手段により同一のノードが分岐削除済みグラフで複数のノードに分けられた場合、複数のノードの通過回数の和が、同一のノードに対応し、かつ、リスト除外手段で除外されたリストに格納された語句の個数以上となる第1条件式を生成することを特徴とする。
かかる構成によれば、音声合成用読み上げ文生成装置は、最終的に生成される読み上げ文の数を少なくする第1条件式を生成することができる。
In the speech synthesizing speech generation device according to the third invention of the present application, when the first conditional expression generation unit divides the same node into a plurality of nodes in the branch deleted graph by the graph branch deletion unit, A first conditional expression is generated in which the sum of the number of passages of nodes corresponds to the same node and is equal to or greater than the number of words stored in the list excluded by the list excluding means.
According to this configuration, the speech synthesis read-out sentence generation device can generate the first conditional expression that reduces the number of read-out sentences to be finally generated.

また、本願第4発明に係る音声合成用読み上げ文生成装置は、統合グラフ生成手段が、統合グラフのノードに置換可能な語句が複数含まれる場合、複数の語句が格納された別々のリストから、別々のリストに含まれる語句の全組み合わせが格納された統合リストを生成し、統合リストに貪欲アルゴリズムを適用することで、音声合成に最小限のコンパクトリストを生成し、ノードとコンパクトリストとを対応づけることを特徴とする。
かかる構成によれば、音声合成用読み上げ文生成装置は、ノードに置換可能な語句が複数含まれる場合でも、その語句を1個にすることができる。
Further, the speech synthesis read-out sentence generation device according to the fourth invention of the present application, when the integrated graph generation means includes a plurality of replaceable words / phrases in the node of the integrated graph, from separate lists storing a plurality of words / phrases, Generates a unified list that stores all combinations of words contained in separate lists, and applies a greedy algorithm to the unified list, thereby generating a minimal compact list for speech synthesis and supporting nodes and compact lists It is characterized by attaching.
According to such a configuration, the speech synthesizing text generation device for speech synthesis can reduce the number of words even if the node includes a plurality of words that can be replaced.

ここで、本願第1発明に係る音声合成用読み上げ文生成装置は、コンピュータに備えられたCPU(Central Processing Unit)、メモリ、ハードディスクなどのハードウェア資源を、前記した各手段として協調動作させる音声合成用読み上げ文生成プログラムによって実現することもできる(本願第5発明)。このプログラムは、通信回線を介して配布してもよく、CD−ROMやフラッシュメモリ等の記録媒体に書き込んで配布してもよい。   Here, the speech synthesis read-out sentence generator according to the first invention of the present application is a speech synthesizer in which hardware resources such as a CPU (Central Processing Unit), a memory, and a hard disk provided in a computer are cooperatively operated as the respective means described above. It can also be realized by a read-out sentence generation program (the fifth invention of the present application). This program may be distributed through a communication line, or may be distributed by writing in a recording medium such as a CD-ROM or a flash memory.

本願発明によれば、以下のような優れた効果を奏する。
本願第1,5発明によれば、音声合成用読み上げ文生成装置及びそのプログラムは、有向グラフを統合し、統合した有向グラフと読み上げ済みテキストデータとの比較結果に基づいて、読み上げ済みテキストデータに含まれる語句をリストから除外する。これによって、本願第1,5発明によれば、音声合成用読み上げ文生成装置及びそのプログラムは、読み上げ済み文に含まれない語句だけで読み上げ文を生成することになり、読み上げ文の重複生成を防止し、生成される読み上げ文の数を削減することができる。
According to the present invention, the following excellent effects can be obtained.
According to the first and fifth inventions of the present application, a speech synthesizing speech generation device and its program are integrated in a directed graph, and are included in the read text data based on the comparison result between the integrated directed graph and the read text data. Exclude words from the list. Thus, according to the first and fifth inventions of the present application, the speech synthesizing text generation device and its program generate a text to be read only with words and phrases that are not included in the text that has been read out. It is possible to prevent and reduce the number of read-out sentences generated.

本願第2発明によれば、音声合成用読み上げ文生成装置は、入力された有向グラフのエッジの分岐を削除してから統合することで、生成される読み上げ文の数を少なくすることができる。
本願第3発明によれば、音声合成用読み上げ文生成装置は、第1条件式として、複数に分割されたノードの通過回数の和が、分割前の同一ノードに対応し、かつ、除外後のリストに格納された語句の個数以上となる一次不等式を用いるため、生成される読み上げ文の数を少なくすることができる。
本願第4発明によれば、音声合成用読み上げ文生成装置は、ノードに置換可能な語句が複数含まれる場合でも、その語句を1個にできるため、ノードに含まれる置換可能な語句の個数に関わらず、読み上げ文の生成処理を共通化でき、構成を簡素にすることができる。
According to the second aspect of the present invention, the speech synthesis read-out sentence generation device can reduce the number of read-out sentences to be generated by integrating after deleting the branch of the edge of the input directed graph.
According to the third aspect of the present invention, the speech synthesizing speech generation apparatus for speech synthesis uses, as the first conditional expression, the sum of the number of passages of the nodes divided into a plurality corresponds to the same node before the division, and after the exclusion Since a primary inequality that is equal to or greater than the number of words stored in the list is used, the number of read-out sentences to be generated can be reduced.
According to the fourth aspect of the present invention, the speech synthesizing speech generating apparatus for speech synthesis can reduce the number of replaceable words / phrases to one even if the node includes a plurality of replaceable words / phrases. Regardless, it is possible to share the generation process of the read-out sentence and simplify the configuration.

本発明の実施形態に係る音声合成用読み上げ文生成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the read-out sentence production | generation apparatus for speech synthesis which concerns on embodiment of this invention. 図1のグラフ入力手段に入力された有向グラフを説明する図であり、(a)は有向グラフの第1例であり、(b)は有向グラフの第2例である。It is a figure explaining the directed graph input into the graph input means of FIG. 1, (a) is a 1st example of a directed graph, (b) is a 2nd example of a directed graph. 図1のグラフ入力手段に入力されたリストを説明する図である。It is a figure explaining the list input into the graph input means of FIG. 図1のグラフ分岐削除手段において、分岐削除済みグラフの生成の第1例を説明する図であり、(a)は分岐削除対象グラフであり、(b)は分岐削除済みグラフである。FIGS. 2A and 2B are diagrams for explaining a first example of generation of a branch deleted graph in the graph branch deletion unit of FIG. 1, in which FIG. 図1のグラフ分岐削除手段において、分岐削除済みグラフの生成の第2例を説明する図である。It is a figure explaining the 2nd example of the production | generation of the branch deletion completed graph in the graph branch deletion means of FIG. 図1の統合グラフ生成手段による統合グラフの生成を説明する図であり、(a)は比較対象グラフ対であり、(b)は統合グラフである。It is a figure explaining the production | generation of the integrated graph by the integrated graph production | generation means of FIG. 1, (a) is a comparison object graph pair, (b) is an integrated graph. 図1の統合グラフ生成手段による統合グラフの生成を説明する図であり、(a)は比較対象グラフ対であり、(b)は統合グラフである。It is a figure explaining the production | generation of the integrated graph by the integrated graph production | generation means of FIG. 1, (a) is a comparison object graph pair, (b) is an integrated graph. (a)は読み上げ済みテキストデータを説明する図であり、(b)は(a)の読み上げ済みテキストデータに一致する有向グラフを示す図であり、(c)は読み上げ済みテキストデータに含まれる語句を除外したリストを示す図である。(A) is a figure explaining read-out text data, (b) is a figure which shows the directed graph which corresponds to the read-out text data of (a), (c) is a phrase included in the read-out text data. It is a figure which shows the list | wrist excluded. 図1の音声合成用読み上げ文生成装置の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the speech synthesizing text generation apparatus for speech synthesis of FIG. 本発明の変形例1に係る音声合成用読み上げ文生成装置を説明する図である。It is a figure explaining the read-out sentence production | generation apparatus for speech synthesis which concerns on the modification 1 of this invention.

以下、本願発明の実施形態について、適宜図面を参照しながら詳細に説明する。なお、各実施形態において、同一の機能を有する手段には同一の符号を付し、説明を省略した。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings as appropriate. In each embodiment, means having the same function are denoted by the same reference numerals and description thereof is omitted.

(実施形態)
[音声合成用読み上げ文生成装置の構成]
図1を参照して、本発明の実施形態に係る音声合成用読み上げ文生成装置の構成について説明する。
図1に示すように、音声合成用読み上げ文生成装置1は、文を表現した有向グラフを用いて、音声合成に必要となる音声合成データベース用の読み上げ文を生成するものである。このため、音声合成用読み上げ文生成装置1は、グラフ入力手段10と、グラフ分岐削除手段11と、統合グラフ生成手段12と、テキストデータ入力手段13と、グラフ比較手段14と、リスト除外手段15と、条件式生成手段16と、最小通過回数算出手段17と、読み上げ文生成手段18とを備える。
なお、グラフ分岐削除手段11及び統合グラフ生成手段12が、請求項に記載のグラフ統合手段に相当する。
(Embodiment)
[Configuration of a text-to-speech generator for speech synthesis]
With reference to FIG. 1, the structure of the speech synthesizing text generating apparatus according to the embodiment of the present invention will be described.
As shown in FIG. 1, the speech synthesis read-out sentence generation device 1 generates a read-out sentence for a speech synthesis database necessary for speech synthesis using a directed graph representing a sentence. For this reason, the speech synthesis read-out sentence generation device 1 includes a graph input unit 10, a graph branch deletion unit 11, an integrated graph generation unit 12, a text data input unit 13, a graph comparison unit 14, and a list exclusion unit 15. A conditional expression generation unit 16, a minimum passage number calculation unit 17, and a reading sentence generation unit 18.
The graph branch deletion unit 11 and the integrated graph generation unit 12 correspond to the graph integration unit described in the claims.

グラフ入力手段10は、有向グラフG(図2)と、リストL(図3)とが入力されるものである。そして、グラフ入力手段10は、入力された有向グラフGと、リストLとをグラフ分岐削除手段11に出力する。   The graph input means 10 receives a directed graph G (FIG. 2) and a list L (FIG. 3). Then, the graph input unit 10 outputs the input directed graph G and the list L to the graph branch deletion unit 11.

<有向グラフ及びリストの具体例>
図2,図3を参照して、有向グラフ及びリストの具体例について、説明する(適宜図1参照)。
この図2では、有向グラフGにおける文の先頭を「START」、及び、有向グラフGにおける文の終了を「END」として図示した。
<Specific examples of directed graphs and lists>
A specific example of the directed graph and the list will be described with reference to FIGS. 2 and 3 (see FIG. 1 as appropriate).
In FIG. 2, the head of the sentence in the directed graph G is illustrated as “START”, and the end of the sentence in the directed graph G is illustrated as “END”.

図2に示すように、有向グラフGは、グラフ理論で用いられる有向グラフであって、文(例えば、天気予報番組の読み上げ原稿)を表現したものである。また、有向グラフGは、ノードN及びエッジE(ノードN間を結ぶ矢印)で構成される。   As shown in FIG. 2, the directed graph G is a directed graph used in graph theory and expresses a sentence (for example, a read-out original of a weather forecast program). The directed graph G includes a node N and an edge E (an arrow connecting the nodes N).

ノードNは、文の一部を表したものであり、文に含まれる語句を置換可能である。
エッジEは、ノードNの接続、分岐及び合流といったノードNの接続関係を示すものである。ここで、ノードNの接続とは、エッジEを介して、ノードNを1対1で接続することである。また、ノードNの分岐とは、1個のノードNからエッジEを分岐させて、複数のノードNに接続することである。さらに、ノードNの合流とは、複数のノードNからのエッジEを合流させて、1個のノードNに接続することである。
リストLは、1以上のノードNに予め対応付けられており、対応付けられたノードNで置換する語句を1以上格納するものである。
The node N represents a part of a sentence and can replace a phrase included in the sentence.
The edge E indicates the connection relationship of the node N such as connection, branching and joining of the node N. Here, the connection of the node N means that the node N is connected one-to-one via the edge E. The branching of the node N is to branch the edge E from one node N and connect to a plurality of nodes N. Further, the merging of the nodes N means that the edges E from the plurality of nodes N are merged and connected to one node N.
The list L is associated with one or more nodes N in advance, and stores one or more words / phrases to be replaced with the associated node N.

図2(a)の例では、有向グラフGは、文の先頭を示すノードN1Sと、「中心付近では」を示すノードN11と、「今後[時間]以内に」を示すノードN12と、「[方角]の」を示すノードN13と、「強い風が吹く見込みです」を示すノードN14と、文の終了を示すノードN1Eという、計6個のノードNで構成される。また、有向グラフGにおいて、エッジEは、ノードNを分岐及び合流させずに、ノードN1SからノードN1Eまでを順番に接続する。 In the example of FIG. 2A, the directed graph G 1 includes a node N 1S indicating the head of a sentence, a node N 11 indicating “near the center”, and a node N 12 indicating “within [time] in the future” , A node N 13 indicating “of [direction]”, a node N 14 indicating “a strong wind is expected to blow”, and a node N 1 E indicating the end of the sentence, for a total of six nodes N. In the directed graph G 1 , the edge E connects the node N 1S to the node N 1E in order without branching and joining the node N.

また、ノードNは、‘[]’に含まれる語句を、リストLに格納された語句で置換可能なことを示す。例えば、ノードN12は、[時間]という語句を、図3のリストLに格納された語句で置換可能である。
一方、ノードNは、‘[]’が含まれない場合、語句を置換できないことを示す。例えば、ノードN11は、‘[]’が含まれないので語句を置換できず、常に、「中心付近では」を示すことになる。
Further, the node N indicates that the word / phrase included in the “[]” can be replaced with the word / phrase stored in the list L. For example, node N 12 can replace the phrase [time] with the phrase stored in list L 1 of FIG.
On the other hand, if node “N” is not included, node N indicates that the word cannot be replaced. For example, since the node N 11 does not include “[]”, the phrase cannot be replaced, and always indicates “near the center”.

また、図2(b)の例では、有向グラフGは、文の先頭を示すノードN2Sと、「中心付近では」を示すノードN21と、「[数値]から」を示すノードN22と、「今後[時間]以内に」を示すノードN23と、「[風速]メートルの」を示すノードN24と、「強い風が吹く見込みです」を示すノードN25と、文の終了を示すノードN2Eという、計7個のノードNで構成される。 In the example of FIG. 2B, the directed graph G 2 includes a node N 2 S indicating the head of the sentence, a node N 21 indicating “near the center”, and a node N 22 indicating “from [numerical value]”. , Node N 23 indicating “within [time] in the future”, node N 24 indicating “[wind speed] meters”, node N 25 indicating “expected to blow strong wind”, and end of sentence The node N 2E is composed of a total of seven nodes N.

この有向グラフGにおいて、ノードN21は、エッジEを介して、ノードN22,N23に分岐する。また、ノードN22,N23は、エッジEを介して、ノードN24に合流する。つまり、有向グラフGは、ノードN22又はノードN23の一方が選択的に含まれる文を示す。 In the directed graph G 2 , the node N 21 branches to nodes N 22 and N 23 via the edge E. Further, the nodes N 22 and N 23 merge with the node N 24 via the edge E. In other words, the directed graph G 2 is illustrates a sentence one node N 22 or the node N 23 is included in the selectively.

図3に示すように、リストLは、図2のノードN12,N23に対応付けられている。
また、リストLは、ノードN12,N23の[時間]に対応する、「12時間」、「24時間」という2個の語句を格納する。つまり、ノードN12,N23は、リストLに格納された語句で置換されて、「今後12時間以内に」、「今後24時間以内に」という2種類を表すことになる。
なお、図3では、リストLとノードNで置換される語句との対応関係を分かりやすくするため、ノードNで置換される語句をリストLの上部に図示した。
As shown in FIG. 3, the list L 1 is associated with the node N 12, N 23 in FIG.
The list L 1 stores two words “12 hours” and “24 hours” corresponding to [time] of the nodes N 12 and N 23 . That is, the nodes N 12 and N 23 are replaced with the words and phrases stored in the list L 1 to represent two types of “within the next 12 hours” and “within the next 24 hours”.
In FIG. 3, the word / phrase replaced at the node N is illustrated at the top of the list L in order to make the correspondence between the list L and the word / phrase replaced at the node N easier to understand.

また、リストLは、ノードN13に対応付けられている。そして、リストLは、ノードN13の[方角]に対応する、「東北東」、「東」、「東南東」等の語句を16個(16方角分)格納する。
また、リストLは、ノードN22に対応付けられている。そして、リストLは、ノードN22の[数値]に対応した「15」という1個の語句を格納する。
また、リストLは、ノードN24に対応付けられている。そして、リストLは、ノードN24の[風速]に対応した「20」、「30」という2個の語句を格納する。
なお、ノードN及びリストLは、1対1で対応する必要はない。例えば、ノードN11,N14,N25は、何れのリストLにも対応していない。
Also, the list L 2 are associated with the node N 13. The list L 2 stores 16 words (16 directions) corresponding to the [direction] of the node N 13 such as “east-northeast”, “east”, and “east-southeast”.
Also, the list L 3 is associated with the node N 22. The list L 3 stores one word / phrase “15” corresponding to [numerical value] of the node N 22 .
The list L 4 is associated with the node N 24 . The list L 4 stores two words “20” and “30” corresponding to [wind speed] of the node N 24 .
Note that the node N and the list L need not correspond one-to-one. For example, the nodes N 11 , N 14 , and N 25 do not correspond to any list L.

以後、図2の有向グラフG,Gと、図3のリストL〜Lがグラフ入力手段10に入力されたこととして説明する。
なお、グラフ入力手段10に最初に入力された有向グラフGを「初期グラフ」と呼び、2番目以降に入力された有向グラフGを「分岐削除対象グラフ」と呼ぶ場合がある。図2では、有向グラフGが初期グラフとなり、有向グラフGが分岐削除対象グラフとなる。
また、本発明は、有向グラフG及びリストLが、図2,図3の例に限定されないことは言うまでもない。
The following description is based on the assumption that the directed graphs G 1 and G 2 in FIG. 2 and the lists L 1 to L 4 in FIG.
The directed graph G that is first input to the graph input unit 10 may be referred to as an “initial graph”, and the directed graph G that is input after the second may be referred to as a “branch deletion target graph”. In Figure 2, directed graph G 1 is with the initial graph, a directed graph G 2 is branched deleted graph.
In the present invention, it goes without saying that the directed graph G and the list L are not limited to the examples of FIGS.

図1に戻り、音声合成用読み上げ文生成装置1の構成について、説明を続ける。
グラフ分岐削除手段11は、グラフ入力手段10から入力された分岐削除対象グラフのエッジが分岐しているか否かを判定するものである。
エッジが分岐していない場合、グラフ分岐削除手段11は、分岐削除対象グラフを、そのまま分岐削除済みグラフとして扱う。
一方、エッジが分岐している場合、グラフ分岐削除手段11は、分岐削除対象グラフから、エッジの分岐先にある各ノードが別々に含まれる分岐削除済みグラフを生成する。
その後、グラフ分岐削除手段11は、グラフ入力手段10から入力されたリストLと、初期グラフと、分岐削除済みグラフとを統合グラフ生成手段12に出力する。
Returning to FIG. 1, the description of the configuration of the speech synthesis read-out sentence generation apparatus 1 will be continued.
The graph branch deletion unit 11 determines whether the edge of the branch deletion target graph input from the graph input unit 10 is branched.
When the edge is not branched, the graph branch deletion unit 11 treats the branch deletion target graph as it is as a branch deleted graph.
On the other hand, when the edge is branched, the graph branch deletion unit 11 generates a branch deleted graph in which each node at the branch destination of the edge is separately included from the branch deletion target graph.
Thereafter, the graph branch deletion unit 11 outputs the list L, the initial graph, and the branch deleted graph input from the graph input unit 10 to the integrated graph generation unit 12.

<分岐削除済みグラフの生成:第1例>
図4,図5を参照して、分岐削除済みグラフの生成について、2個の具体例を説明する(適宜図1参照)。
図4(a)に示すように、グラフ分岐削除手段11は、ノードN21でエッジEが分岐していると判定する。この場合、グラフ分岐削除手段11は、図4(b)に示すように、分岐削除対象グラフGから、これらエッジEの分岐先にあるノードN22,N23が別々となるように、分岐削除済みグラフG,Gを生成する。
<Generation of branch deleted graph: first example>
With reference to FIGS. 4 and 5, two specific examples of generation of the branch deleted graph will be described (see FIG. 1 as appropriate).
As illustrated in FIG. 4A, the graph branch deletion unit 11 determines that the edge E branches at the node N 21 . In this case, as shown in FIG. 4B, the graph branch deletion unit 11 branches from the branch deletion target graph G 2 so that the nodes N 22 and N 23 at the branch destination of the edge E are separated. Deleted graphs G 3 and G 4 are generated.

具体的には、グラフ分岐削除手段11は、分岐削除対象グラフGでエッジEが分岐していないノードN2S,N21,N24〜N2Eを、そのまま分岐削除済みグラフG,Gにコピーする。また、グラフ分岐削除手段11は、分岐削除済みグラフGにおいて、分岐した一方のノードN22を前後のノードN21,N24に接続する。さらに、グラフ分岐削除手段11は、分岐削除済みグラフGにおいて、分岐した他方のノードN23を前後のノードN21,N24に接続する。 Specifically, the graph branch deletion unit 11 directly deletes the nodes N 2S , N 21 , N 24 to N 2E where the edge E is not branched in the branch deletion target graph G 2 , and the branch deletion deleted graphs G 3 , G 4. To copy. Further, the graph branch deletion unit 11 connects one branched node N 22 to the preceding and following nodes N 21 and N 24 in the branch deleted graph G 3 . Further, the graph branch deletion unit 11 connects the other branched node N 23 to the preceding and following nodes N 21 and N 24 in the branch deleted graph G 4 .

つまり、図4(b)の分岐削除済みグラフGは、分岐削除対象グラフGのノードN2S,N21と、分岐した一方のノードN22と、ノードN24〜N2Eとで構成される。また、分岐削除済みグラフGは、分岐削除対象グラフGのノードN2S,N21と、分岐した他方のノードN23と、ノードN24〜N2Eとで構成される。
このようにして、音声合成用読み上げ文生成装置1は、エッジEの分岐を削除してから、有向グラフGを統合することができる。
In other words, the branch Deleted graph G 3 in FIG. 4 (b), the node N 2S branch deletion graph G 2, and N 21, and one node N 22 which is branched, is composed of a node N 24 to N 2E The The branch Deleted graph G 4 are composed of the node N 2S branch deletion graph G 2, and N 21, the other nodes N 23 branched, the node N 24 to N 2E.
In this way, the speech synthesis read-out sentence generator 1 can integrate the directed graph G after deleting the branch of the edge E.

<分岐削除済みグラフの生成:第2例>
さらに、図5の分岐削除対象グラフGのように、複数の箇所でエッジEが分岐している場合を考える。
まず、グラフ分岐削除手段11は、分岐削除対象グラフGにおいて、STARTのノードN5Sから出発し、途中、エッジEの分岐がある際には適当なエッジEを選択し、ENDのノードN5Eに到達するパスを探索する。このパスで、グラフ分岐削除手段11は、1つの分岐削除済みグラフ(不図示)を生成する。次に、グラフ分岐削除手段11は、ENDのノードN5Eから1つ手前のノードNに戻り、エッジEの分岐があるか判定する。
<Generation of branch deleted graph: second example>
Further, as the branch deletion graph G 5 in FIG. 5, a case where the edge E is branched at a plurality of locations.
First, the graph branch deletion unit 11 starts from the START node N 5S in the branch deletion target graph G 5 , selects an appropriate edge E when there is a branch of the edge E, and selects the END node N 5E. Search for a path to reach. In this pass, the graph branch deletion unit 11 generates one branch deleted graph (not shown). Next, the graph branch deletion unit 11 returns from the node N 5E of END to the previous node N and determines whether there is a branch of the edge E.

エッジEの分岐がない又は辿っていないエッジEが存在しなければ、グラフ分岐削除手段11は、もう1つ前のノードNに戻り同じことを繰り返す。辿っていないエッジEが存在すれば、グラフ分岐削除手段11は、このエッジEを選択し、ENDのノードNに到達するパスを探索する。
ここで、グラフ分岐削除手段11は、パスの探索の際に、パスの履歴をエッジEが分岐している場所で保存するのだが、その保存されている履歴群が現在のパスの履歴に一致するものがなければ、辿っていないエッジEと判定する。
If there is no edge E branch or an edge E that has not been traced, the graph branch deletion unit 11 returns to the previous node N and repeats the same. If there is an edge E that has not been traced, the graph branch deletion unit 11 selects this edge E and searches for a path that reaches the node N of END.
Here, the graph branch deletion means 11 saves the path history at the location where the edge E branches when searching for a path. The stored history group matches the history of the current path. If there is nothing to do, it is determined that the edge E has not been traced.

図5の例では、パスが、STARTのノードN5Sから始まり、ノードN52へのエッジEを通ったとする。この場合、グラフ分岐削除手段11は、ノードN52へのエッジEを通ったという履歴をノードN51に保存する。次に、パスがノードN55へのエッジEを通ったとする。すると、グラフ分岐削除手段11は、ノードN51からノードN52へのエッジEを通り、ノードN55へのエッジEを通ったという履歴をノードN54に保存する。このパスがENDのノードN5Eまで到達するので、グラフ分岐削除手段11は、ノードN52,N55を通る分岐削除済みグラフを生成する。 In the example of FIG. 5, it is assumed that the path starts from the node N 5 S of START and passes through the edge E to the node N 52 . In this case, the graph branch deletion unit 11 stores, in the node N 51 , a history of passing through the edge E to the node N 52 . Next, assume that the path has passed edge E to node N 55 . Then, the graph branch deletion unit 11 stores in the node N 54 a history of passing through the edge E from the node N 51 to the node N 52 and passing through the edge E to the node N 55 . Since this path reaches the node N 5E of the END, the graph branch deletion unit 11 generates a branch deleted graph passing through the nodes N 52 and N 55 .

次に、グラフ分岐削除手段11は、ノードN54まで戻り、履歴を調べる。その結果、グラフ分岐削除手段11は、ノードN56へのエッジEの履歴が存在しないため、ノードN56へのエッジEを選択し、そのままENDのノードN5Eに入り、ノードN52,N56を通る分岐削除済みグラフを生成する。
これと同様、グラフ分岐削除手段11は、ノードN52,N57を通る分岐削除済みグラフを生成する。
Next, the graph branch deletion unit 11 returns to the node N 54 and examines the history. As a result, the graph branch deletion means 11, because there is no history of the edge E to the node N 56, select the edge E to the node N 56, as it enters the node N 5E of END, the node N 52, N 56 Generate a branch deleted graph through.
Similarly, the graph branch deletion unit 11 generates a branch deleted graph passing through the nodes N 52 and N 57 .

続いて、グラフ分岐削除手段11は、ノードN55,N56,N57へのエッジEをすでに辿ってしまったので、ノードN51まで戻る。ここで、グラフ分岐削除手段11は、ノードN53へのエッジEの履歴が存在しないため、ノードN53を選択する。グラフ分岐削除手段11は、ENDのノードN5Eに至るパスを探索する。その際、グラフ分岐削除手段11は、ノードN54で履歴を調べると、ノードN51からノードN52へのエッジEを通り、ノードN55へのエッジEを通った履歴と、ノードN51からノードN52へのエッジEを通り、ノードN56へのエッジEを通った履歴と、ノードN51からノードN52へのエッジEを通り、ノードN57へのエッジEを通った履歴が見つかるが、ノードN51からノードN53へのエッジEを通り、ノードN55へのエッジEを通った履歴は見つからないことから、ノードN55を通り、ENDのノードN5Eに入り、ノードN53,N55を通る分岐削除済みグラフを生成する。 Subsequently, the graph branch deletion unit 11 has already traced the edge E to the nodes N 55 , N 56 , and N 57 and returns to the node N 51 . Here, the graph branch deletion means 11, because there is no history of the edge E to the node N 53, selects the node N 53. The graph branch deletion unit 11 searches for a path to the node N 5E of END. At this time, the graph branch deletion unit 11 examines the history at the node N 54 , passes through the edge E from the node N 51 to the node N 52 , and passes through the edge E from the node N 55 to the node N 51. through the edge E to the node N 52, and history through the edge E to the node N 56, through the edge E to the node N 52 from the node N 51, the history is found that through the edge E to the node N 57 but the nodes through edges E from N 51 to the node N 53, since it is not found history through the edge E to the node N 55, through the node N 55, enters the node N 5E of END, the node N 53 , N 55 to generate a branch deleted graph.

次に、グラフ分岐削除手段11は、ノードN54まで戻り、履歴を調べる。その結果、グラフ分岐削除手段11は、ノードN51からノードN53へのエッジEを通り、ノードN56へのエッジEの履歴が存在しないため、ノードN56へのエッジEを選択し、そのままENDのノードN5Eに入り、ノードN52,N56を通る分岐削除済みグラフを生成する。
これと同様、グラフ分岐削除手段11は、ノードN52,N57を通る分岐削除済みグラフを生成する。
Next, the graph branch deletion unit 11 returns to the node N 54 and examines the history. As a result, the graph branch deletion unit 11 through the edge E to the node N 53 from the node N 51, because there is no history of the edge E to the node N 56, select the edge E to the node N 56, as it is A node N 5E of END is entered, and a branch deleted graph passing through the nodes N 52 and N 56 is generated.
Similarly, the graph branch deletion unit 11 generates a branch deleted graph passing through the nodes N 52 and N 57 .

このようにして、グラフ分岐削除手段11は、分岐削除対象グラフGから、分岐先のノードN52,N53,N55〜N57を全て組み合わせて(2×3=6個)、分岐削除済みグラフを生成する。 In this way, the graph branch deletion unit 11 combines all of the branch destination nodes N 52 , N 53 , N 55 to N 57 from the branch deletion target graph G 5 (2 × 3 = 6), and deletes the branch. Generated graphs.

図1に戻り、音声合成用読み上げ文生成装置1の構成について、説明を続ける。
統合グラフ生成手段12は、DPマッチング法によって、比較対象グラフ対のノードの一致と挿入誤りと欠落誤りと代替誤りとを求めて、比較対象グラフ対が類似するか否かを判定するものである。
Returning to FIG. 1, the description of the configuration of the speech synthesis read-out sentence generation apparatus 1 will be continued.
The integrated graph generation means 12 obtains the node match, insertion error, missing error, and substitution error of the comparison target graph pair by the DP matching method, and determines whether or not the comparison target graph pair is similar. .

この比較対象グラフ対とは、統合グラフ生成手段12で比較対象となる有向グラフGの対のことである。この比較対象グラフ対は、統合グラフTが生成されていない場合、初期グラフG及び分岐削除済みグラフGの対になる。また、比較対象グラフ対は、統合グラフTが生成されている場合、統合グラフT及び分岐削除済みグラフGの対になる。   This comparison target graph pair is a pair of directed graphs G to be compared by the integrated graph generation means 12. This comparison target graph pair is a pair of the initial graph G and the branch deleted graph G when the integrated graph T is not generated. Further, when the integrated graph T is generated, the comparison target graph pair is a pair of the integrated graph T and the branch deleted graph G.

比較対象グラフ対が類似する場合、統合グラフ生成手段12は、DPマッチング法の結果に基づいて、比較対象グラフ対を1個の統合グラフT(図6)に統合する。さらに、統合グラフTが複数ある場合には、比較対象グラフ対も複数生じるため、統合グラフ生成手段12は、DPマッチングにより、最も正解度が高い統合グラフTに統合する。
一方、比較対象グラフ対がすべて類似しない場合、統合グラフ生成手段12は、比較対象グラフ対における統合グラフTと比較された有向グラフGを、統合グラフTに追加する。
その後、統合グラフ生成手段12は、グラフ入力手段10から入力されたリストLと、統合グラフTとをテキストデータ入力手段13に出力する。
When the comparison target graph pairs are similar, the integrated graph generation unit 12 integrates the comparison target graph pairs into one integrated graph T (FIG. 6) based on the result of the DP matching method. Furthermore, when there are a plurality of integrated graphs T, a plurality of comparison target graph pairs are also generated, so the integrated graph generation unit 12 integrates the integrated graph T with the highest degree of correctness by DP matching.
On the other hand, when all the comparison target graph pairs are not similar, the integrated graph generation unit 12 adds the directed graph G compared to the integrated graph T in the comparison target graph pair to the integrated graph T.
Thereafter, the integrated graph generation unit 12 outputs the list L and the integrated graph T input from the graph input unit 10 to the text data input unit 13.

<統合グラフの生成>
図6,図7を参照して、統合グラフの生成について、説明する(適宜図1参照)。
ここで、統合グラフ生成手段12は、最初に初期グラフGが入力され、2番目、3番目に分岐削除済みグラフG,Gが入力されたこととして説明する。
<Generation of integrated graph>
The generation of the integrated graph will be described with reference to FIGS. 6 and 7 (see FIG. 1 as appropriate).
Here, the integrated graph generation means 12 will be described assuming that the initial graph G 1 is input first, and the second and third branch deleted graphs G 3 and G 4 are input.

まず、統合グラフ生成手段12は、統合グラフTが生成されていないため、図6(a)に示すように、初期グラフGと、2番目の分岐削除済みグラフGとを比較対象グラフ対G,Gとする。そして、統合グラフ生成手段12は、この比較対象グラフ対G,Gにおいて、ノードNの一致(H)と、挿入誤り(I)と、欠落誤り(D)と、代替誤り(S)とを、DPマッチングにより求める。 First, since the integrated graph T is not generated, the integrated graph generation unit 12 compares the initial graph G 1 and the second branch deleted graph G 3 with the comparison graph pair as shown in FIG. Let G 1 and G 3 . The integrated graph generation unit 12 then matches the node N match (H), insertion error (I), missing error (D), and substitution error (S) in the comparison target graph pair G 1 and G 3 . Is obtained by DP matching.

この場合、一致(H)は、「中心付近では」を示すノードN11,N21と、「強い風が吹く見込みです」を示すノードN14,N25との‘2’になる。また、代替誤り(S)は、「今後[時間]以内に」を示すノードN12に対し、「[数値]から」を示すノードN22と、「[方角]の」を示すノードN13に対し、「[風速]メートルの」を示すノードN24との‘2’になる。また、挿入誤り(I)及び欠落誤り(D)は、‘0’となる。 In this case, the match (H) is “2” between the nodes N 11 and N 21 indicating “near the center” and the nodes N 14 and N 25 indicating “expected to blow strong wind”. Moreover, alternative error (S), compared node N 12 indicating "within the next [Time]", and the node N 22 indicating the "from the Numeric]", the node N 13 indicating the "in the direction '' On the other hand, it becomes “2” with the node N 24 indicating “[wind speed] meter”. Further, the insertion error (I) and the missing error (D) are “0”.

また、統合グラフ生成手段12は、DPマッチングの結果を下記の式(1)に代入して正解度を算出する。例えば、このDPマッチングの結果を式(1)に代入すると、正解度は、(2−0)/(2+2+0)=0.5となる。
正解度=(H−I)/(H+S+D)・・・式(1)
The integrated graph generation unit 12 calculates the correctness by substituting the DP matching result into the following equation (1). For example, when the DP matching result is substituted into equation (1), the accuracy is (2-0) / (2 + 2 + 0) = 0.5.
Accuracy = (HI) / (H + S + D) (1)

また、統合グラフ生成手段12は、この正解度が予め設定された閾値(例えば、0.3)以上であるか否かを判定する。この例では、正解度=0.5が閾値=0.3以上のため、統合グラフ生成手段12は、比較対象グラフ対G,Gを1個の統合グラフTに統合する。 Further, the integrated graph generation unit 12 determines whether or not the correctness is equal to or higher than a preset threshold (for example, 0.3). In this example, since the accuracy = 0.5 is equal to or greater than the threshold = 0.3, the integrated graph generation unit 12 integrates the comparison target graph pair G 1 and G 3 into one integrated graph T.

図6(a)では、1番目の初期グラフGのノードN12,N13に対して、ノードN22,N24が代替誤り(S)になる。従って、統合グラフ生成手段12は、1番目の初期グラフGをベースとして、ノードN12に並列となるようにノードN22を追加し、ノードN13に並列となるようにノードN24を追加する。ここで、統合グラフ生成手段12は、代替誤り(S)が連続している場合、エッジEをノードN22からノードN13に合流させず、ノードN22からノードN24に接続するエッジEを追加する。 In FIG. 6A, the nodes N 22 and N 24 become substitution errors (S) with respect to the nodes N 12 and N 13 of the first initial graph G 1 . Therefore, the integrated graph generation unit 12 adds the node N 22 to be parallel to the node N 12 and adds the node N 24 to be parallel to the node N 13 based on the first initial graph G 1. To do. Here, when the substitution error (S) continues, the integrated graph generation means 12 does not merge the edge E from the node N 22 to the node N 13 , and does not merge the edge E connected from the node N 22 to the node N 24. to add.

なお,図6(a)では、代替誤り(S)の例を挙げたが、欠落誤り(D)と判定された場合、統合グラフ生成手段12は、欠落誤り(D)と判定されたノードNをとばすようにエッジEを追加する。ここで、欠落誤り(D)が複数連続した場合、統合グラフ生成手段12は、代替誤り(S)と同様、これらノードNをとばすようにエッジEを追加する。   In FIG. 6A, an example of the substitution error (S) is given. However, when it is determined as a missing error (D), the integrated graph generation unit 12 determines that the node N is determined as a missing error (D). Edge E is added so as to skip. Here, when a plurality of missing errors (D) continue, the integrated graph generation means 12 adds an edge E so as to skip these nodes N, as in the case of the substitution error (S).

また、挿入誤り(I)と判定された場合、統合グラフ生成手段12は、挿入誤り(I)と判定された場所にノードNを追加し、追加したノードNの両端にエッジEも追加する。ここで、挿入誤り(I)が複数連続した場合、統合グラフ生成手段12は、代替誤り(S)と同様、これらノードNを連続して挿入する。   If it is determined that there is an insertion error (I), the integrated graph generation unit 12 adds the node N to the location determined as the insertion error (I), and also adds edges E to both ends of the added node N. Here, when a plurality of insertion errors (I) continues, the integrated graph generation means 12 inserts these nodes N continuously as in the case of the substitution error (S).

仮に、正解度が閾値未満の場合(例えば、閾値=0.6に設定されている場合)、統合グラフ生成手段12は、比較対象グラフ対G,Gのそれぞれを、別々の統合グラフTとして扱う。 If the degree of correctness is less than the threshold (for example, when threshold = 0.6), the integrated graph generation unit 12 converts each of the comparison target graph pairs G 1 and G 3 into separate integrated graphs T. Treat as.

次に、統合グラフ生成手段12は、3番目の以降の分岐削除済みグラフGに関しては、統合グラフTをベースとして、ノードNを追加していく。つまり、統合グラフ生成手段12は、図7(a)に示すように、統合グラフTと、3番目の分岐削除済みグラフGとを比較対象グラフ対T,Gとする。そして、統合グラフ生成手段12は、この比較対象グラフ対T,Gにおいて、ノードNの一致(H)と、挿入誤り(I)と、欠落誤り(D)と、代替誤り(S)とを、DPマッチングにより求める。 Then, the integrated graph generation unit 12, with respect to the third and subsequent branching deleted graph G 4, as a base integrated graph T, continue to add nodes N. In other words, integrated graph generation unit 12, as shown in FIG. 7 (a), an integrated graph T, 3-th branch Deleted graph G 4 and comparative graphs pair T, and G 4. Then, the integrated graph generation unit 12 determines the node N match (H), insertion error (I), missing error (D), and substitution error (S) in the comparison target graph pair T, G 4 . And obtained by DP matching.

この場合、一致(H)は、「中心付近では」を示すノードN11,N21と、「今後[時間]以内に」を示すノードN12,N23と、「強い風が吹く見込みです」を示すノードN14,N25との‘3’になる。また、代替誤り(S)は、「[方角]の」を示すノードN13に対し、「[風速]メートルの」を示すノードN24との‘1’になる。また、挿入誤り(I)及び欠落誤り(D)は、‘0’となる。 In this case, the coincidence (H) indicates that the nodes N 11 and N 21 indicating “near the center”, the nodes N 12 and N 23 indicating “within [time]”, and “a strong wind is expected to blow”. It becomes '3' with nodes N 14 and N 25 indicating Moreover, alternative error (S), compared node N 13 indicating the "in the direction]", becomes the node N 24 indicating the "[wind] Meters"'1'. Further, the insertion error (I) and the missing error (D) are “0”.

このDPマッチングの結果を前記した式(1)に代入すると、正解度は、(3−0)/(3+1+0)=0.75となる。この例では、正解度=0.75が閾値=0.3以上のため、統合グラフ生成手段12は、比較対象グラフ対T,Gを1個の統合グラフTに統合する。 When the result of this DP matching is substituted into the above-described equation (1), the accuracy is (3-0) / (3 + 1 + 0) = 0.75. In this example, since the accuracy = 0.75 is equal to or greater than the threshold value = 0.3, the integrated graph generation unit 12 integrates the comparison target graph pair T and G 4 into one integrated graph T.

図7(a)では、ノードN13,N24が代替誤り(S)となる。このため、統合グラフ生成手段12は、図7(b)に示すように、ノードN12から2本のエッジEを分岐させて、ノードN13,N24が並行になるように、統合グラフTに追加する。
なお、統合グラフ生成手段12は、一致(H)となるノードN11,N21と、ノードN12,N23と、ノードN14,N25とは、図6(b)の段階で既に統合グラフTに追加されているため、何の処理も行わない。
In FIG. 7A, the nodes N 13 and N 24 become substitution errors (S). Therefore, as shown in FIG. 7B, the integrated graph generation unit 12 branches the two edges E from the node N 12 so that the nodes N 13 and N 24 are parallel to each other. Add to.
Note that the integrated graph generation unit 12 has already integrated the nodes N 11 and N 21 , the nodes N 12 and N 23, and the nodes N 14 and N 25 that are matched (H) at the stage of FIG. 6B. Since it is added to the graph T, no processing is performed.

以後、説明を簡易にするため、図7(b)の統合グラフTにおいて、ノードN1Sの符号をN、ノードN11の符号をN、ノードN12の符号をN、ノードN13の符号をN、ノードNに続くノードN24の符号をN、ノードN22の符号をN、ノードNに続くノードN24の符号をN、ノードN14の符号をN、ノードN1Eの符号をNと呼ぶ。 Hereinafter, in order to simplify the description, in the integrated graph T of FIG. 7B, the code of the node N 1S is N S , the code of the node N 11 is N 1 , the code of the node N 12 is N 2 , and the node N 13 the code N 3, the node codes N 4 nodes N 24 following the N 2, node codes N 5 of N 22, reference numerals the N 6 of the node N 24 following the node N 5, the sign of the node N 14 N 7, called the sign of the node N 1E and N E.

また、図7(b)の統合グラフTにおいて、ノードNとノードNとを接続するエッジの符号をES1、ノードNからノードNに分岐するエッジの符号をE12、ノードNからノードNに分岐するエッジの符号をE15、ノードNからノードNに分岐するエッジの符号をE23、ノードNからノードNに分岐するエッジの符号をE24、ノードNとノードNとを接続するエッジの符号をE56、ノードNからノードNに合流するエッジの符号をE37、ノードNからノードNに合流するエッジの符号をE47、ノードNからノードNに合流するエッジの符号をE67、ノードNとノードNとを接続するエッジの符号をE7Eと記す。 Further, in the integrated graph T in FIG. 7 (b), the node N S and node N 1 E S1 the sign of the edge connecting the, E 12 the sign of the edge that branches from the node N 1 to the node N 2, node N E 15 is an edge code that branches from 1 to node N 5 , E 23 is an edge code that branches from node N 2 to node N 3 , E 24 is an edge code that branches from node N 2 to node N 4, and The sign of the edge connecting N 5 and the node N 6 is E 56 , the sign of the edge joining from the node N 3 to the node N 7 is E 37 , and the sign of the edge joining the node N 4 to the node N 7 is E 47. , the node N E 67 the sign of the edge that joins the node N 7 to 6, referred to as codes E 7E of edges connecting the nodes N 7 and node N E.

図1に戻り、音声合成用読み上げ文生成装置1の構成について、説明を続ける。
テキストデータ入力手段13は、読み上げ済みテキストデータが入力され、入力された読み上げ済みテキストデータをグラフ比較手段14に出力するものである。
Returning to FIG. 1, the description of the configuration of the speech synthesis read-out sentence generation apparatus 1 will be continued.
The text data input means 13 is input with the read-out text data and outputs the input read-out text data to the graph comparison means 14.

読み上げ済みテキストデータとは、読み上げ済み文の発話内容を示すテキストデータである。言い換えるなら、読み上げ済みテキストデータは、例えば、アナウンサにより読み上げられた音声が既に音声合成データベースに登録され、新たに生成する必要がない読み上げ文のテキストデータである。   The read-out text data is text data indicating the utterance content of the read-out sentence. In other words, the read-out text data is, for example, text data of a read-out sentence in which the speech read out by the announcer is already registered in the speech synthesis database and does not need to be newly generated.

グラフ比較手段14は、統合グラフ生成手段12から入力された統合グラフTと読み上げ済みテキストデータとを比較することで、リストLから、テキストデータに含まれる語句を求めるものである。   The graph comparison unit 14 obtains words / phrases included in the text data from the list L by comparing the integrated graph T input from the integrated graph generation unit 12 with the read-out text data.

<統合グラフ及び読み上げ済みテキストデータの比較>
図7,図8を参照し、統合グラフ及び読み上げ済みテキストデータの比較について、説明する(適宜図1参照)。
ここで、グラフ比較手段14は、図3のリストL〜Lが統合グラフ生成手段12から入力され、図7(b)の統合グラフTと、図8(a)の読み上げ済みテキストデータとを比較することとして説明する。
なお、図8(b)では、説明を分かり易くするために “[数値]=”及び“[風速]=”を図示した。
<Comparison of integrated graph and read-out text data>
A comparison between the integrated graph and the read-out text data will be described with reference to FIGS. 7 and 8 (see FIG. 1 as appropriate).
Here, the graph comparison unit 14 receives the lists L 1 to L 4 in FIG. 3 from the integrated graph generation unit 12, and the integrated graph T in FIG. 7B and the read-out text data in FIG. Will be described as a comparison.
In FIG. 8B, “[numerical value] =” and “[wind speed] =” are illustrated for easy understanding of the description.

図7(b)に示すように、統合グラフTは、エッジEの分岐により複数のパスを有する。図7の統合グラフTにおいて、ノードN〜N,Nを通過するパスを「パス1」と呼び、ノードN,N,N,Nを通過するパスを「パス2」と呼び、ノードN,N〜Nを通過するパスを「パス3」と呼ぶ。 As shown in FIG. 7B, the integrated graph T has a plurality of paths due to the branching of the edge E. In the integrated graph T of FIG. 7, a path passing through the nodes N 1 to N 3 and N 7 is called “path 1”, and a path passing through the nodes N 1 , N 2 , N 4 and N 7 is “path 2”. A path passing through the nodes N 1 and N 5 to N 7 is referred to as “path 3”.

グラフ比較手段14は、統合グラフTが複数のパスを有する場合、何れのパスが読み上げ済みテキストデータに一致するかを判定する。まず、グラフ比較手段14は、統合グラフTのパス1と、読み上げ済みテキストデータとを比較すると、ノードNの「中心付近では」までは一致するが、7文字目で一致しなくなる。このため、グラフ比較手段14は、その時点で、パス1が読み上げ済みテキストデータに一致しないと判定して、パス1と読み上げ済みテキストデータとの比較を終了する。次に、グラフ比較手段14は、パス2と読み上げ済みテキストデータとを比較すると、パス1と同様、7文字目で一致しなくなる。このため、グラフ比較手段14は、その時点で、パス2が読み上げ済みテキストデータに一致しないと判定し、パス2と読み上げ済みテキストデータとの比較を終了する。 When the integrated graph T has a plurality of paths, the graph comparison unit 14 determines which path matches the read-out text data. First, a graph comparing means 14, the path 1 of the integrated graph T, is compared with the reading preformatted text data, "in the center vicinity" of the node N 1 up to but consistent, it will not match in the seventh character. For this reason, the graph comparison means 14 determines that the pass 1 does not match the read text data at that time, and ends the comparison between the pass 1 and the read text data. Next, when comparing the pass 2 and the read-out text data, the graph comparison unit 14 does not match at the seventh character as in the pass 1. For this reason, the graph comparison unit 14 determines that the pass 2 does not match the read text data at that time, and ends the comparison between the pass 2 and the read text data.

最後に、グラフ比較手段14は、パス3と読み上げ済みテキストデータとを比較する。ここで、統合グラフTのパス3において、[数値]=15、[風速]=20が含まれていると仮定する。この場合、ノードNの「中心付近では」が語尾まで一致し、ノードNの「“[数値]=”15から」が語尾まで一致し、ノードNの「“[風速]=”20メートルの」が語尾まで一致し、ノードNの「強い風が吹く見込みです」が語尾まで一致し、ENDのノードNに至る。このため、入力文追加グラフ比較手段40は、パス3と読み上げ済みテキストデータとが一致すると判定する。 Finally, the graph comparison unit 14 compares the pass 3 with the read-out text data. Here, it is assumed that the path 3 of the integrated graph T includes [numerical value] = 15 and [wind speed] = 20. In this case, “near the center” of the node N 1 matches up to the ending, and ““ [numerical value] = ”15” of the node N 5 matches up to the ending, and ““ [wind speed] = ”20 of the node N 6 meters of "do not match up to the ending," is expected to strong wind blows "of the node N 7 is matched to endings, leading to the node N E of END. For this reason, the input sentence addition graph comparison unit 40 determines that the path 3 and the read-out text data match.

そして、グラフ比較手段14は、前記した比較結果により、リストLの語句「15」と、リストLの語句「20」とが、読み上げ済みテキストデータに含まれることを示すリスト除外情報を生成する。その後、グラフ比較手段14は、統合グラフ生成手段12から入力されたリストL及び統合グラフTと、生成したリスト除外情報とを、リスト除外手段15に出力する。
このリスト除外情報は、後記するリスト除外手段15によって用いられる、リストLから語句を除外するための情報である。
The graph comparing means 14, the comparison result of the above, generated the phrase list L 3 "15", and the phrase list L 4 "20", but the list exclusion information indicating that contained in the speech already text data To do. Thereafter, the graph comparison unit 14 outputs the list L and the integrated graph T input from the integrated graph generation unit 12 and the generated list exclusion information to the list exclusion unit 15.
This list exclusion information is information for excluding words / phrases from the list L, which is used by the list exclusion means 15 described later.

なお、[数値]=15、[風速]=20が含まれる場合において、統合グラフTのパス3が読み上げ済みテキストデータに一致しない場合、リストLに格納された別の語句が含まれると仮定して、前記した比較を繰り返す。   When [Numeric Value] = 15 and [Wind Speed] = 20 are included, if the path 3 of the integrated graph T does not match the read-out text data, it is assumed that another word / phrase stored in the list L is included. Repeat the above comparison.

図1に戻り、音声合成用読み上げ文生成装置1の構成について、説明を続ける。
リスト除外手段15は、グラフ比較手段14から入力されたリスト除外情報に基づいて、リストLから、読み上げ済みテキストデータに含まれる語句を除外するものである。
Returning to FIG. 1, the description of the configuration of the speech synthesis read-out sentence generation apparatus 1 will be continued.
The list excluding unit 15 excludes words included in the read-out text data from the list L based on the list excluding information input from the graph comparing unit 14.

この例では、リスト除外情報は、リストLの語句「15」及びリストLの語句「20」が読み上げ済みテキストデータに含まれている。従って、リスト除外手段15は、図8(c)に示すように、リストLに格納された語句「15」を除外し、リストLに格納された語句「20」を除外する。そして、リスト除外手段15は、グラフ比較手段14から入力されたリストL,L及び統合グラフTと、語句を除外したリストL,Lとを条件式生成手段16に出力する。 In this example, the list exclusion information, the phrase word "15" and a list L 4 of the list L 3 "20" is included in the reading preformatted text data. Accordingly, as shown in FIG. 8C, the list excluding unit 15 excludes the phrase “15” stored in the list L 3 and excludes the phrase “20” stored in the list L 4 . Then, the list excluding unit 15 outputs the lists L 1 and L 2 and the integrated graph T input from the graph comparing unit 14 and the lists L 3 and L 4 excluding the words to the conditional expression generating unit 16.

条件式生成手段16は、読み上げ文に必要となる第1条件式及び第2条件式を生成するものであり、第1条件式生成手段16aと、第2条件式生成手段16bとを備える。
そして、条件式生成手段16は、グラフ比較手段14から入力されたリストL〜L及び統合グラフTと、第1条件式生成手段16aが生成した第1条件式と、第2条件式生成手段16bが生成した第2条件式とを最小通過回数算出手段17に出力する。
The conditional expression generation unit 16 generates a first conditional expression and a second conditional expression that are necessary for the reading sentence, and includes a first conditional expression generation unit 16a and a second conditional expression generation unit 16b.
The conditional expression generation unit 16 generates the lists L 1 to L 4 and the integrated graph T input from the graph comparison unit 14, the first conditional expression generated by the first conditional expression generation unit 16 a, and the second conditional expression generation. The second conditional expression generated by the means 16 b is output to the minimum passage number calculating means 17.

<第1条件式の生成>
以下、第1条件式の生成について、具体的に説明する。
第1条件式生成手段16aは、統合グラフTのノードN毎に、ノードNの通過回数Fを、ノードNに対応するリストLに格納された語句の個数以上とする第1条件式を生成するものである。
ここで、条件式生成手段16は、図7(b)の統合グラフTと、図8(c)のリストL〜Lが入力されたこととして説明する。
<Generation of the first conditional expression>
Hereinafter, the generation of the first conditional expression will be specifically described.
For each node N of the integrated graph T, the first conditional expression generation unit 16a generates a first conditional expression that sets the number of times of passing F of the node N to be equal to or greater than the number of words stored in the list L corresponding to the node N. Is.
Here, the conditional expression generation unit 16 will be described on the assumption that the integrated graph T in FIG. 7B and the lists L 1 to L 4 in FIG. 8C have been input.

具体的には、第1条件式生成手段16aは、ノードNに対応するリストLが存在しないため、リストLに格納された語句の個を‘0’とする。従って、第1条件式生成手段16aは、式(1)のように、ノードNの通過回数Fが‘0’以上となる一次不等式を生成する。また、第1条件式生成手段16aは、ノードNと同様、式(2)のように、ノードNの通過回数Fが‘0’以上となる一次不等式を生成する。
≧0 …式(1)
≧0 …式(2)
Specifically, the first condition expression generating unit 16a is a node for the list corresponding to the N S L is absent, and the number of words stored in the list L '0'. Therefore, the first condition generation unit 16a, as in equation (1), pass count F S node N S generates a primary inequalities to be '0' or more. The first condition expression generating unit 16a, like the node N S, as in equation (2), pass count F 1 of the node N 1 generates primary inequalities to be '0' or more.
F S ≧ 0 (1)
F 1 ≧ 0 Equation (2)

また、第1条件式生成手段16aは、ノードNにリストLが対応するため、リストLに格納された語句の数をカウントする。そして、第1条件式生成手段16aは、式(3)のように、ノードNの通過回数FがリストLに格納された語句の数‘2’以上となる一次不等式を生成する。さらに、第1条件式生成手段16aは、ノードNと同様、式(4)のように、ノードNの通過回数FがリストLに格納された語句の数‘16’以上となる一次不等式を生成する。
≧2 …式(3)
≧16 …式(4)
The first condition expression generating unit 16a, in order to correspond the list L 1 to the node N 2, to count the number of words stored in the list L 1. The first condition expression generating unit 16a, as in equation (3), to generate a primary inequality pass count F 2 node N 2 is stored the number of terms '2' or higher in the list L 1. Furthermore, the first conditional expression generating unit 16a is similar to the node N 2, as in Equation (4), the node N number of words passing number F 3 are stored in a list L 2 of the 3 '16' above Generate a linear inequality.
F 2 ≧ 2 Formula (3)
F 3 ≧ 16 Formula (4)

ここで、ノードN,Nは、分岐削除対象グラフGで同一であったノードN24が、分岐削除済みグラフG,Gで別々のノードN24に分かれた後、統合グラフTに統合されている(図4参照)。この場合、第1条件式生成手段16aは、式(5)のように、ノードN,Nの通過回数F,Fの和が、ノードN,Nに対応するリストに格納された語句の数‘1’以上となる一次不等式を生成する。
+F≧1 …式(5)
Here, the node N 4, N 6, after the node N 24 were identical branched deleted graph G 2 is, which is divided into separate nodes N 24 branched deleted graph G 3, G 4, integrated graph T (See FIG. 4). In this case, the first condition generation unit 16a, as in Equation (5), the sum of the number of passes F 4, F 6 nodes N 4, N 6 are in the list 4 corresponding to the node N 4, N 6 A linear inequality is generated that is greater than or equal to the number of stored words '1'.
F 4 + F 6 ≧ 1 Formula (5)

また、第1条件式生成手段16aは、式(6)のように、ノードNの通過回数Fが、ノードNに対応するリストに格納された語句の数‘0’以上となる一次不等式を生成する。このリストは、語句が格納されていないため、語句の数が‘0’となる。
≧0 …式(6)
The first condition generation unit 16a, as in equation (6), the number of passes F 5 node N 5, the node number of words stored in the list 3 corresponding to N 5 '0' or Generate a linear inequality. Since this list 3 does not store words, the number of words is “0”.
F 5 ≧ 0 Formula (6)

また、第1条件式生成手段16aは、ノードNと同様、式(7)のように、ノードNの通過回数Fが‘0’以上となる一次不等式を生成する。そして、第1条件式生成手段16aは、ノードNと同様、式(8)のように、ノードNの通過回数Fが‘0’以上となる一次不等式を生成する。
≧0 …式(7)
≧0 …式(8)
Similarly to the node N 1 , the first conditional expression generation unit 16 a generates a linear inequality such that the number of passes F 7 of the node N 7 is equal to or greater than “0”, as in the expression (7). The first condition expression generating unit 16a is similar to the node N 1, as shown in equation (8), to produce a primary inequality pass count F E becomes "0" or more nodes N E.
F 7 ≧ 0 Equation (7)
F E ≧ 0 Equation (8)

<第2条件式の生成>
以下、第2条件式の生成について、具体的に説明する。
第2条件式生成手段16bは、第2条件式として、統合グラフTのノードN毎に、ノードNに入力されるエッジEの通過回数Hの和がノードNの通過回数Fに等しくなる条件式を生成するものである。
また、第2条件式生成手段16bは、第2条件式として、ノードNから出力するエッジEの通過回数Hの和がノードNの通過回数Fに等しくなる条件式とを生成する。
すなわち、第2条件式生成手段16bは、1個のノードNに対して、入力側と出力側との両方で第2条件式を生成する。
<Generation of second conditional expression>
Hereinafter, the generation of the second conditional expression will be specifically described.
The second conditional expression generating unit 16b uses, as a second conditional expression, a conditional expression in which, for each node N of the integrated graph T, the sum of the number of times H of the edge E input to the node N is equal to the number of times F of the node N is passed. Is generated.
In addition, the second conditional expression generation unit 16b generates a conditional expression in which the sum of the number of passages H of the edge E output from the node N is equal to the number of passages F of the node N as the second conditional expression.
That is, the second conditional expression generation unit 16b generates a second conditional expression for one node N on both the input side and the output side.

具体的には、第2条件式生成手段16bは、ノードNの出力側の第2条件式として、式(9)のように、ノードNから出力するエッジES1の通過回数HS1が、ノードNの通過回数Fに等しくなる式を生成する。ここで、ノードNの入力側の第2条件式は、ノードNが先頭であって入力が存在しないため、生成されない。
=HS1 …式(9)
Specifically, the second condition generating unit 16b, as the second condition of the output side of the node N S, as in equation (9), number of passages H S1 of edge E S1 output from the node N S is , it generates the equal expression to pass number F S node N S. Here, the node a second condition on the input side of the N S, since the node N S is not present input a top not generated.
F S = H S1 Formula (9)

また、第2条件式生成手段16bは、ノードNの入力側の第2条件式として、式(10)のように、ノードNに入力されるエッジES1の通過回数HS1が、ノードNの通過回数Fに等しくなる式を生成する。
=HS1 …式(10)
The second condition generating unit 16b, as the second condition on the input side of the node N 1, as shown in equation (10), number of passages H S1 of edge E S1 is inputted to the node N 1, the node Generate an expression equal to the number of passes F 1 of N 1 .
F 1 = H S1 Formula (10)

また、第2条件式生成手段16bは、ノードNの出力側の第2条件式として、式(11)のように、ノードNから出力するエッジE12の通過回数H12とエッジE15の通過回数H15との和が、ノードNの通過回数Fに等しくなる式を生成する。
=H12+H15 …式(11)
The second condition generating unit 16b, as the second condition of the output side of the node N 1, as shown in equation (11), number of passes H 12 and the edge E 15 of the edge E 12 output from the node N 1 the sum of the number of passages H 15 of, generates the equal expression to pass number F 1 of the node N 1.
F 1 = H 12 + H 15 Formula (11)

また、第2条件式生成手段16bは、ノードNと同様、式(12)及び式(13)のように、ノードNの入力側と出力側との両方で第2条件式を生成する。
=H12 …式(12)
=H23+H24 …式(13)
Similarly to the node N 1 , the second conditional expression generation unit 16 b generates the second conditional expression on both the input side and the output side of the node N 2 as in the expressions (12) and (13). .
F 2 = H 12 Formula (12)
F 2 = H 23 + H 24 Formula (13)

また、第2条件式生成手段16bは、ノードNの入力側の第2条件式として、式(14)のように、ノードNに入力されるエッジE23の通過回数H23が、ノードNの通過回数Fに等しくなる式を生成する。
=H23 …式(14)
Further, the second conditional expression generation unit 16b uses the second condition expression on the input side of the node N 3 as the expression (14), and the number of passes H 23 of the edge E 23 input to the node N 3 generating a equal expression to pass number F 3 of N 3.
F 3 = H 23 Formula (14)

また、第2条件式生成手段16bは、ノードNの出力側の第2条件式として、式(15)のように、ノードNから出力するエッジE37の通過回数H37が、ノードNの通過回数Fに等しくなる式を生成する。
=H37 …式(15)
Further, the second conditional expression generation unit 16b sets the number of passes H 37 of the edge E 37 output from the node N 3 as the second conditional expression on the output side of the node N 3 as represented by the expression (15). An expression equal to the number of passes F 3 of 3 is generated.
F 3 = H 37 Formula (15)

また、第2条件式生成手段16bは、ノードNと同様、式(16)〜式(21)のように、ノードN,N,Nの入力側と出力側との両方で第2条件式を生成する。
=H24 …式(16)
=H47 …式(17)
=H15 …式(18)
=H56 …式(19)
=H56 …式(20)
=H67 …式(21)
Similarly to the node N 3 , the second conditional expression generation unit 16 b performs the first operation on both the input side and the output side of the nodes N 4 , N 5 , and N 6 as in the expressions (16) to (21). Two conditional expressions are generated.
F 4 = H 24 Formula (16)
F 4 = H 47 Formula (17)
F 5 = H 15 Formula (18)
F 5 = H 56 Formula (19)
F 6 = H 56 Formula (20)
F 6 = H 67 Formula (21)

また、第2条件式生成手段16bは、ノードNの入力側の第2条件式として、式(22)のように、ノードNに入力されるエッジE37の通過回数H37と、エッジE47の通過回数H47と、エッジE67の通過回数H67との和が、ノードNの通過回数Fに等しくなる式を生成する。
=H37+H47+H67 …式(22)
The second condition generating unit 16b, as the second condition on the input side of the node N 7, as shown in equation (22), and number of passes H 37 edges E 37 is input to the node N 7, the edge a number of passages H 47 of E 47, the sum of the number of passages H 67 edges E 67 generates a equal expression to pass number F 7 node N 7.
F 7 = H 37 + H 47 + H 67 ... formula (22)

また、第2条件式生成手段16bは、ノードNの出力側の第2条件式として、式(23)のように、ノードNから出力するエッジE7Eの通過回数H7Eが、ノードNの通過回数Fに等しくなる式を生成する。
=H7E …式(23)
Further, the second conditional expression generation unit 16b uses the second condition expression on the output side of the node N 7 as the second conditional expression of the node N 7 , as shown in Expression (23), the number of passes H 7E of the edge E 7E output from the node N 7 is An expression equal to the number of passes F 7 of 7 is generated.
F 7 = H 7E Formula (23)

また、第2条件式生成手段16bは、ノードNの入力側の第2条件式として、式(24)のように、ノードNに入力されるエッジE7Eの通過回数H7Eが、ノードNの通過回数Fに等しくなる式を生成する。ここで、ノードNの出力側の第2条件式は、ノードNが最後で出力が存在しないため、生成されない。
=H7E …式(24)
The second condition generating unit 16b, as the second condition on the input side of the node N E, as in equation (24), number of passages H 7E edge E 7E is inputted to the node N E, the node An expression is generated that is equal to the number of times N E passes F E. Here, the node a second condition of the output side of the N E, since the node N E is the last output are not present, are not generated.
F E = H 7E Formula (24)

最小通過回数算出手段17は、条件式生成手段16から入力された第1条件式及び第2条件式をシンプレックス法で解いて、文の先頭におけるノードNの通過回数Fが最小になる最小通過回数を算出するものである。
このとき、最小通過回数算出手段17は、シンプレックス法により、第1条件式及び第2条件式に含まれるF〜F及びHS1〜H7Eも算出する。
Minimum pass frequency calculation unit 17, the minimum that solves the first condition and a second condition that is input from the conditional expression generating unit 16 in the simplex method, the number of times of passage through F S node N S at the beginning of the sentence is minimized The number of passes is calculated.
At this time, the minimum passage number calculation means 17 also calculates F 1 to F E and H S1 to H 7E included in the first conditional expression and the second conditional expression by the simplex method.

ここで、式(1)〜式(24)を解いた結果は、以下のようになる。つまり、最小通過回数は、通過回数Fと等しい値‘17’となる。
=17,F=17,F=16,F=16,F=0,F=1,F=1,F=17,F=17,HS1=17,H12=16,H15=1,H23=16,H24=0,H37=16,H47=16,H56=1,H67=1,H7E=17
Here, the results of solving the equations (1) to (24) are as follows. In other words, the minimum number of passes is a value equal '17' pass count F S.
F S = 17, F 1 = 17, F 2 = 16, F 3 = 16, F 4 = 0, F 5 = 1, F 6 = 1, F 7 = 17, F E = 17, H S1 = 17, H 12 = 16, H 15 = 1, H 23 = 16, H 24 = 0, H 37 = 16, H 47 = 16, H 56 = 1, H 67 = 1, H 7E = 17

その後、最小通過回数算出手段17は、条件式生成手段16から入力されたリストL〜L及び統合グラフTと、第1条件式及び第2条件式を解いた結果とを読み上げ文生成手段18に出力する。 Thereafter, the minimum passage number calculation means 17 reads out the lists L 1 to L 4 and the integrated graph T input from the conditional expression generation means 16 and the results of solving the first conditional expression and the second conditional expression. 18 is output.

読み上げ文生成手段18は、最小通過回数算出手段17から入力された統合グラフTを用いて、最小通過回数と等しい数、リストLに格納された語句の組み合わせを変えて読み上げ文を生成するものである。   The spoken sentence generation means 18 uses the integrated graph T input from the minimum passage number calculation means 17 to generate a reading sentence by changing the number of phrases equal to the minimum passage number and the combination of words stored in the list L. is there.

<読み上げ文の生成>
図7,図8を参照し、読み上げ文の生成について、説明する(適宜図1参照)。
ここで、読み上げ文生成手段18は、図7(b)の統合グラフTと、図8(c)のリストL〜Lとが最小通過回数算出手段17から入力されたこととして説明する。
<Generating aloud text>
With reference to FIG. 7 and FIG. 8, the generation of the reading sentence will be described (refer to FIG. 1 as appropriate).
Here, it is assumed that the read-out sentence generating unit 18 is input from the minimum passage number calculating unit 17 with the integrated graph T in FIG. 7B and the lists L 1 to L 4 in FIG.

図7(b)に示すように、統合グラフTの先頭では、ノードNからノードNに入力されるエッジES1が存在する。そこで、読み上げ文生成手段18は、エッジES1を選択する。さらに、読み上げ文生成手段18は、エッジES1が入力されるノードNにリストLが対応していないので、このノードNが示す「中心付近では」を読み上げ文として選択する。 As shown in FIG. 7 (b), in the beginning of the integration graph T, edge E S1 is present which is input from the node N S to node N 1. Therefore, the read-out sentence generation means 18 selects the edge ES1 . Furthermore, since the list L does not correspond to the node N 1 to which the edge E S1 is input, the reading sentence generation unit 18 selects “in the vicinity of the center” indicated by the node N 1 as the reading sentence.

続いて、ノードNからエッジE12,E15が分岐している。そこで、読み上げ文生成手段18は、一方の分岐先であるエッジE12の通算選択回数が、このエッジE12の通過回数H12を超えているか否かを判定する。 Subsequently, edges E 12 and E 15 branch from the node N 1 . Therefore, the read-out sentence generation means 18 determines whether or not the total number of times of selection of the edge E 12 that is one branch destination exceeds the number of times of passage H 12 of the edge E 12 .

エッジE12の通算選択回数が通過回数H12を超えていない場合、読み上げ文生成手段18は、このエッジE12を選択して、このエッジE12の通算選択回数をインクリメントする。
一方、エッジE12の通算選択回数が通過回数H12を超えている場合、読み上げ文生成手段18は、他方の分岐先であるエッジE15を選択して、このエッジE15の通算選択回数をインクリメントする。
If total number of selection times of the edge E 12 does not exceed the number of passes H 12, reading sentence generating means 18 selects the edge E 12, it increments the total number of times of selecting the edge E 12.
On the other hand, if the total number of selection times of the edge E 12 is greater than the number of passes H 12, reading sentence generating unit 18 selects an edge E 15 is the other branch destination, the total number of times of selecting the edge E 15 Increment.

ここでは、読み上げ文生成手段18がエッジE12を選択したこととする。また、エッジE12の分岐先となるノードNがリストLに対応する。この場合、読み上げ文生成手段18は、リストLの1番目の語句「12時間」を選択して、このノードNが示す「今後12時間以内に」を読み上げ文として選択する。 Here, reading sentence generating means 18 is to be selected the edge E 12. Further, the node N 2 that is the branch destination of the edge E 12 corresponds to the list L 1 . In this case, the reading sentence generation means 18 selects the first word “12 hours” in the list L 1 and selects “within the next 12 hours” indicated by the node N 2 as the reading sentence.

続いて、ノードNからエッジE23,E24が分岐している。そこで、読み上げ文生成手段18は、一方の分岐先であるエッジE23の通算選択回数が、このエッジE23の通過回数H23を超えているか否かを判定する。 Subsequently, edges E 23 and E 24 branch from the node N 2 . Therefore, the read-out sentence generation means 18 determines whether or not the total number of times of selection of the edge E 23 which is one branch destination exceeds the number of passes H 23 of the edge E 23 .

エッジE23の通算選択回数が通過回数H23を超えていない場合、読み上げ文生成手段18は、このエッジE23を選択して、このエッジE23の通算選択回数をインクリメントする。
一方、エッジE23の通算選択回数が通過回数H23を超えている場合、読み上げ文生成手段18は、他方の分岐先であるエッジE24を選択して、このエッジE24の通算選択回数をインクリメントする。
If total number of selection times of the edge E 23 does not exceed the number of passes H 23, reading sentence generating means 18 selects the edge E 23, it increments the total number of times of selecting the edge E 23.
On the other hand, when the total number of times of selection of the edge E 23 exceeds the number of times of passage H 23 , the reading sentence generation unit 18 selects the edge E 24 which is the other branch destination, and sets the total number of times of selection of the edge E 24. Increment.

ここでは、読み上げ文生成手段18がエッジE23を選択したこととする。また、エッジE23の分岐先となるノードNがリストLに対応する。この場合、読み上げ文生成手段18は、リストLの1番目の語句「東北東」を選択して、このノードNが示す「東北東の」を読み上げ文として選択する。 Here, reading sentence generating means 18 is to be selected the edge E 23. Further, the node N 3 that is the branch destination of the edge E 23 corresponds to the list L 2 . In this case, the reading sentence generation means 18 selects the first word “east-northeast” of the list L 2 and selects “east-northeast” indicated by the node N 3 as the reading sentence.

続いて、ノードNからノードNに入力されるエッジE37が存在する。そこで、読み上げ文生成手段18は、エッジE37を選択する。さらに、読み上げ文生成手段18は、このノードNが示す「強い風が吹く見込みです」を読み上げ文として選択する。 Subsequently, there is an edge E 37 input from the node N 3 to the node N 7 . Therefore, the read-out sentence generation unit 18 selects the edge E 37 . Further, the read-out sentence generation means 18 selects “a strong wind is expected to blow” indicated by the node N 7 as the read-out sentence.

最後に、ノードNに入力されるエッジE7Eが存在する。従って、読み上げ文生成手段18は、読み上げ文として選択されたノードNの語句を順番に連結して、読み上げ文を生成する。この例では、読み上げ文生成手段18は、「中心付近では今後12時間以内に東北東の強い風が吹く見込みです」という読み上げ文を生成する。 Finally, the edge E 7E is present that is input to the node N E. Therefore, the read-out sentence generation unit 18 generates the read-out sentence by sequentially connecting the words of the node N selected as the read-out sentence. In this example, the reading sentence generation means 18 generates a reading sentence that “a strong wind in the east and northeast is expected to blow within the next 12 hours near the center”.

読み上げ文生成手段18は、ノードNからノードNまでエッジEを辿りながら、読み上げ文の生成処理を最小通過回数だけ繰り返す。ここで、読み上げ文生成手段18は、選択されていない語句がリストLに残っていれば、その語句を選択する。さらに、読み上げ文生成手段18は、選択されていない語句がリストLに残っていない場合、選択済みの語句を繰り返し用いる。
このようにして、読み上げ文生成手段18は、最小通過回数と同数の読み上げ文を生成する。
Reading sentence generating unit 18, by following the edge E from node N S to node N E, and repeats a process of generating reading sentence by the minimum number of passes. Here, when the unselected word / phrase remains in the list L, the reading sentence generation unit 18 selects the word / phrase. Further, when the unselected word / phrase does not remain in the list L, the read-out sentence generating unit 18 repeatedly uses the selected word / phrase.
In this way, the reading sentence generation means 18 generates the same number of reading sentences as the minimum number of passages.

[音声合成用読み上げ文生成装置の動作]
図9を参照し、図1の音声合成用読み上げ文生成装置1の動作について、説明する(適宜図1参照)。
音声合成用読み上げ文生成装置1は、グラフ入力手段10によって、有向グラフ(初期グラフ、分岐削除対象グラフ)Gと、リストLとが入力される(ステップS1)。
[Operation of the text-to-speech generator for speech synthesis]
With reference to FIG. 9, the operation of the speech synthesizing text generation device 1 of FIG. 1 will be described (see FIG. 1 as appropriate).
In the speech synthesis speech-to-speech generator 1, the directed graph (initial graph, branch deletion target graph) G and the list L are input by the graph input means 10 (step S1).

音声合成用読み上げ文生成装置1は、グラフ分岐削除手段11によって、分岐削除対象グラフGのエッジEが分岐しているか否かを判定する。
エッジEが分岐していない場合、グラフ分岐削除手段11は、分岐削除対象グラフGを、そのまま分岐削除済みグラフGとして出力する。
一方、エッジEが分岐している場合、グラフ分岐削除手段11は、分岐削除対象グラフGから、分岐したエッジEが削除された分岐削除済みグラフGを複数生成する(ステップS2)。
The speech synthesis read-out sentence generator 1 determines whether the edge E of the branch deletion target graph G is branched by the graph branch deletion unit 11.
When the edge E is not branched, the graph branch deletion unit 11 outputs the branch deletion target graph G as it is as the branch deletion deleted graph G.
On the other hand, when the edge E is branched, the graph branch deletion unit 11 generates a plurality of branch deleted graphs G from which the branched edge E is deleted from the branch deletion target graph G (step S2).

音声合成用読み上げ文生成装置1は、統合グラフ生成手段12によって、DPマッチング法によって、比較対象グラフ対が類似するか否かを判定する。
比較対象グラフ対が類似する場合、統合グラフ生成手段12は、DPマッチング法の結果に基づいて、比較対象グラフ対を統合グラフTに統合する。
一方、比較対象グラフ対が類似しない場合、統合グラフ生成手段12は、比較対象グラフ対のそれぞれを、新たな統合グラフTとして扱う(ステップS3)。
In the speech synthesis read-out sentence generation device 1, the integrated graph generation unit 12 determines whether the comparison target graph pairs are similar by the DP matching method.
When the comparison target graph pairs are similar, the integrated graph generation unit 12 integrates the comparison target graph pairs into the integrated graph T based on the result of the DP matching method.
On the other hand, if the comparison target graph pairs are not similar, the integrated graph generation unit 12 treats each of the comparison target graph pairs as a new integrated graph T (step S3).

音声合成用読み上げ文生成装置1は、テキストデータ入力手段13によって、読み上げ済みテキストデータが入力される(ステップS4)。
音声合成用読み上げ文生成装置1は、グラフ比較手段14によって、統合グラフTと読み上げ済みテキストデータとを比較することで、リスト除外情報を生成する(ステップS5)。
In the text-to-speech generation device 1 for speech synthesis, text data that has been read out is input by the text data input means 13 (step S4).
The speech synthesis read-out sentence generation device 1 generates list exclusion information by comparing the integrated graph T with the read-out text data by the graph comparison unit 14 (step S5).

音声合成用読み上げ文生成装置1は、リスト除外手段15によって、リスト除外情報に基づいて、リストLから読み上げ済みテキストデータに含まれる語句を除外する(ステップS6)。
音声合成用読み上げ文生成装置1は、第1条件式生成手段16aによって、第1条件式を生成する(ステップS7)。
音声合成用読み上げ文生成装置1は、第2条件式生成手段16bによって、ノードNの入力側と出力側との両方で第2条件式を生成する(ステップS8)。
Based on the list exclusion information, the speech synthesizing speech generation apparatus 1 for speech synthesis excludes words / phrases included in the read text data from the list L based on the list exclusion information (step S6).
The speech synthesis read-out sentence generation apparatus 1 generates the first conditional expression by the first conditional expression generation unit 16a (step S7).
The speech synthesis read-out sentence generation apparatus 1 generates the second conditional expression on both the input side and the output side of the node N by the second conditional expression generation unit 16b (step S8).

音声合成用読み上げ文生成装置1は、最小通過回数算出手段17によって、第1条件式及び第2条件式をシンプレックス法で解いて、最小通過回数を算出する(ステップS9)。
音声合成用読み上げ文生成装置1は、読み上げ文生成手段18によって、統合グラフTを用いて、最小通過回数と等しい数、リストLに格納された語句の組み合わせを変えて読み上げ文を生成する(ステップS10)。
The speech synthesizing speech generation apparatus 1 calculates the minimum number of passages by solving the first conditional expression and the second conditional expression by the simplex method by the minimum number of passages calculation means 17 (step S9).
In the speech synthesis device for speech synthesis 1, the speech generation unit 18 uses the integrated graph T to generate a speech by changing the number of words stored in the list L by the number equal to the minimum number of passages (step S1). S10).

以上のように、音声合成用読み上げ文生成装置1は、リスト除外手段15によって、読み上げ済みテキストデータに含まれる語句をリストLから除外する。このため、音声合成用読み上げ文生成装置1は、読み上げ済み文に含まれない語句だけで読み上げ文を生成することができ、読み上げ文の重複生成を防止し、生成される読み上げ文の数を削減することができる。   As described above, the speech synthesis read-out sentence generation device 1 excludes the words / phrases included in the read-out text data from the list L by the list exclusion unit 15. For this reason, the speech synthesis read-out sentence generation device 1 can generate a read-out sentence only with words and phrases that are not included in the read-out sentence, prevent duplicate generation of the read-out sentence, and reduce the number of read-out sentences to be generated. can do.

なお、前記した実施形態では、統合グラフTが1個の場合を例として説明したが、統合グラフTの個数は特に限定されない。例えば、統合グラフTが複数ある場合においては、類似する統合グラフTをさらに統合し(変数の共通化)、類似しない統合グラフTをそれぞれ個別のものとして扱うことで、全体としてシンプレックス法を用いることが可能となる。   In the above-described embodiment, the case where there is one integrated graph T has been described as an example, but the number of integrated graphs T is not particularly limited. For example, in the case where there are a plurality of integrated graphs T, the similar integrated graph T is further integrated (variable sharing), and the dissimilar integrated graphs T are treated as individual items so that the simplex method is used as a whole. Is possible.

(変形例1)
本願発明は、実施形態に限定されず、その趣旨を逸脱しない範囲で様々な変形を加えることができる。以下、本発明の変形例について説明する。
(Modification 1)
The present invention is not limited to the embodiments, and various modifications can be made without departing from the spirit of the present invention. Hereinafter, modifications of the present invention will be described.

前記した実施形態では、ノードNに置換可能な語句が最大1個含まれることとして説明したが、本発明は、これに限定されない。
本願発明の変形例に係る音声合成用読み上げ文生成装置1Aは、統合グラフTのノードNに置換可能な語句が2個以上含まれる点と、統合グラフ生成手段12の代わりに、統合グラフ生成手段12Aを備える点とが、前記した実施形態と異なる。
In the above-described embodiment, it has been described that the node N includes at most one replaceable word / phrase, but the present invention is not limited to this.
The speech synthesis device for speech synthesis 1A according to the modified example of the present invention includes a point that two or more replaceable words are included in the node N of the integrated graph T, and an integrated graph generating unit instead of the integrated graph generating unit 12 The point provided with 12A is different from the above-described embodiment.

この統合グラフ生成手段12Aは、統合グラフTのノードNに置換可能な語句が複数含まれる場合、複数の語句が格納された別々のリストLから、別々のリストLに含まれる語句の全組み合わせが格納された統合リストを生成し、統合リストに貪欲アルゴリズムを適用することでコンパクトリストを生成し、ノードNとコンパクトリストとを対応づける。   When the node N of the integrated graph T includes a plurality of replaceable words / phrases, the integrated graph generation unit 12A calculates all combinations of words / phrases included in different lists L from different lists L in which the plurality of words / phrases are stored. A stored integrated list is generated, a greedy algorithm is applied to the integrated list to generate a compact list, and the node N and the compact list are associated with each other.

例えば、図10(a)に示すように、統合グラフTに、「[月度][日付][区分][時間]時には」を示すノードNが含まれる場合を考える。また、ノードNには、リストL10〜L13が対応付けられている。 For example, as shown in FIG. 10A, a case is considered where the integrated graph T includes a node N indicating “when [monthly] [date] [division] [time]”. In addition, lists L 10 to L 13 are associated with the node N.

リストL10は、図10(b)に示すように、ノードNの[月度]に対応した語句が12個格納されている。
リストL11は、ノードNの[日付]に対応した語句が31個格納されている。
リストL12は、ノードNの[区分]に対応した、「午前」、「午後」という語句が2個格納されている。
リストL13は、ノードNの[時間]に対応した語句が12個格納されている。
List L 10, as shown in FIG. 10 (b), the phrase that corresponds to the monthly] of the node N is stored 12.
The list L 11 stores 31 words / phrases corresponding to [date] of the node N.
The list L 12 stores two words “AM” and “PM” corresponding to the [classification] of the node N.
The list L 13 stores 12 words / phrases corresponding to [time] of the node N.

この場合、統合グラフ生成手段12Aは、図10(c)に示すように、ノードNで置換可能な4個の語句[月度],[日付],[区分],[時間]を、1個の置換可能な語句[月度−日付−区分−時間]に結合する。   In this case, as shown in FIG. 10C, the integrated graph generation unit 12A converts four words [monthly], [date], [division], and [time] that can be replaced by the node N into one Join the replaceable word [monthly-date-division-time].

また、統合グラフ生成手段12Aは、図10(d)に示すように、リストL10〜L13に含まれる語句の全組み合わせが格納された統合リストL20を生成する。つまり、統合リストL20は、12×31×2×12=8928個の語句が格納される。 The integrated graph generation unit 12A, as shown in FIG. 10 (d), to produce a consolidated list L 20 that all combinations of words in the list L 10 ~L 13 is stored. That, consolidated list L 20 is, 12 × 31 × 2 × 12 = 8928 pieces of words are stored.

例えば、統合リストL20に格納された1語目の語句は、リストL10〜L13の1語目の語句を組み合わせた「1月1日午前0時」となる。また、統合リストL20に格納された2語目の語句は、リストL10〜L12の1語目の語句と、リストL13の2語目の語句とを組み合わせた「1月1日午前1時」となる。また、統合リストL20に格納された3語目の語句は、リストL10〜L12の1語目の語句と、リストL13の3語目の語句とを組み合わせた「1月1日午前2時」となる。 For example, the first word / phrase stored in the integrated list L 20 is “midnight on January 1,” which is a combination of the first word / phrases in the lists L 10 to L 13 . Also, the second word stored in the integrated list L 20 is “January 1 AM”, which is a combination of the first word in the lists L 10 to L 12 and the second word in the list L 13. 1 o'clock ". Also, the third word stored in the integrated list L 20 is “January 1 AM”, which is a combination of the first word in the lists L 10 to L 12 and the third word in the list L 13. 2 o'clock ".

そして、統合グラフ生成手段12Aは、図10(d)の統合リストL20に貪欲アルゴリズムを適用することで、音声合成に最小限のコンパクトリスト(不図示)を生成して、図10(c)のノードNに対応づける。 The integrated graph generation unit 12A, by applying the greedy algorithm to integrate the list L 20 in FIG. 10 (d), to generate a minimum compact list (not shown) to the speech synthesis, and FIG. 10 (c) Correspond to the node N.

この貪欲アルゴリズムは、例えば、参考文献「T.コルメン他著、“アルゴリズムイントロダクション”、第3巻、近代科学社、1995年12月30日、p313−317」に記載されているため、詳細な説明を省略する。
また、貪欲アルゴリズムとして、特許第4741208号公報に記載の逐次貪欲アルゴリズムを用いることもできる。
This greedy algorithm is described in, for example, the reference document “T. Colmen et al.,“ Algorithm Introduction ”, Volume 3, Modern Science, December 30, 1995, p313-317”, so that detailed explanations are given. Is omitted.
As the greedy algorithm, a sequential greedy algorithm described in Japanese Patent No. 4741208 can also be used.

以上のように、音声合成用読み上げ文生成装置1Aは、ノードNに置換可能な語句が複数含まれる場合でも、その語句を1個にすることができる。このため、音声合成用読み上げ文生成装置1Aは、ノードNに含まれる置換可能な語句の個数に関わらず、読み上げ文の生成処理を共通化でき、構成を簡素にすることができる。   As described above, the speech synthesizing speech generation device 1A can reduce the number of words even if the node N includes a plurality of replaceable words. For this reason, the speech synthesizing speech generation apparatus 1A for speech synthesis can make the reading text generation process common regardless of the number of replaceable words included in the node N, and can simplify the configuration.

1,1A 音声合成用読み上げ文生成装置
10 グラフ入力手段
11 グラフ分岐削除手段(グラフ統合手段)
12,12A 統合グラフ生成手段(グラフ統合手段)
13 テキストデータ入力手段
14 グラフ比較手段
15 リスト除外手段
16 条件式生成手段
17 最小通過回数算出手段
18 読み上げ文生成手段
1,1A Speech Synthesizer for Speech Synthesis 10 Graph Input Unit 11 Graph Branch Deletion Unit (Graph Integration Unit)
12, 12A integrated graph generation means (graph integration means)
13 Text data input means 14 Graph comparison means 15 List exclusion means 16 Conditional expression generation means 17 Minimum pass count calculation means 18 Reading sentence generation means

Claims (5)

文に含まれる語句を示す複数のノードと前記ノード間の接続関係を示すエッジとで構成され、前記ノードに置換可能な語句を割り当てた有向グラフによって前記文が表現され、前記有向グラフを用いて、音声合成に必要となる音声合成データベース用の読み上げ文を生成する音声合成用読み上げ文生成装置であって、
前記有向グラフと、前記有向グラフのノードに対応し、かつ、当該ノードで置換する語句を1以上格納するリストとが入力されるグラフ入力手段と、
前記グラフ入力手段に入力された有向グラフを統合するグラフ統合手段と、
発話内容を示すテキストデータが入力されるテキストデータ入力手段と、
前記テキストデータ入力手段に入力されたテキストデータと、統合された前記有向グラフとを比較することで、前記リストから、前記テキストデータに含まれる語句を求めるグラフ比較手段と、
前記グラフ比較手段が求めた語句を前記リストから除外するリスト除外手段と、
前記ノードの通過回数を、当該ノードに対応し、かつ、前記リスト除外手段で除外されたリストに格納された語句の個数以上とする第1条件式を生成する第1条件式生成手段と、
第2条件式として、前記ノードに入力されるエッジの通過回数の和が前記ノードの通過回数に等しくなる条件式と、当該ノードから出力するエッジの通過回数の和が前記ノードの通過回数に等しくなる条件式とを生成する第2条件式生成手段と、
前記第1条件式及び前記第2条件式を満たすように、前記文の先頭における通過回数が最小になる最小通過回数を算出する最小通過回数算出手段と、
前記最小通過回数算出手段が算出した最小通過回数と等しい数、前記リスト除外手段で削除されたリストに格納された語句の組み合わせを変えて、前記読み上げ文を生成する読み上げ文生成手段と、
を備えることを特徴とする音声合成用読み上げ文生成装置。
The sentence is expressed by a directed graph composed of a plurality of nodes indicating words included in the sentence and an edge indicating a connection relation between the nodes, and the replaceable words are assigned to the nodes. A speech synthesis generation device for speech synthesis that generates speech for a speech synthesis database necessary for synthesis,
A graph input means for inputting the directed graph and a list that stores one or more words corresponding to the nodes of the directed graph and replaced by the nodes;
Graph integration means for integrating the directed graph input to the graph input means;
Text data input means for inputting text data indicating the utterance content;
A graph comparing means for obtaining a phrase contained in the text data from the list by comparing the text data input to the text data input means and the integrated directed graph;
A list excluding unit for excluding the word obtained by the graph comparing unit from the list;
First conditional expression generation means for generating a first conditional expression that sets the number of passages of the node to be equal to or more than the number of words stored in the list that corresponds to the node and is excluded by the list exclusion means;
As a second conditional expression, a conditional expression in which the sum of the number of times of passage of edges input to the node is equal to the number of times of passage of the node, and a sum of the number of times of passage of edges output from the node are equal to the number of times of passage of the node Second conditional expression generation means for generating a conditional expression
Minimum passage number calculating means for calculating a minimum number of passages that minimizes the number of passages at the head of the sentence so as to satisfy the first conditional expression and the second conditional expression;
A reading sentence generation means for generating the reading sentence by changing a combination of words stored in the list deleted by the list exclusion means, a number equal to the minimum passage number calculated by the minimum passage number calculation means,
A speech synthesis apparatus for speech synthesis, comprising:
前記グラフ統合手段は、
前記グラフ入力手段に2番目以降に入力された有向グラフのエッジが分岐しているか否かを判定し、前記エッジが分岐していない有向グラフを分岐削除済みグラフとし、前記エッジが分岐している有向グラフから、前記エッジの分岐先にあるノードを別々にして当該エッジの分岐が削除された分岐削除済みグラフを生成するグラフ分岐削除手段と、
DPマッチング法によって、前記グラフ入力手段に最初に入力された有向グラフ又は統合グラフの一方と前記分岐削除済みグラフとからなる比較対象グラフ対が類似するか否かを判定し、前記比較対象グラフ対が類似する場合、前記比較対象グラフ対を1個の前記統合グラフに統合し、前記比較対象グラフ対が類似しない場合、前記比較対象グラフ対のそれぞれを新たな前記統合グラフとする統合グラフ生成手段と、を備え、
前記グラフ比較手段は、前記統合グラフ生成手段から入力された統合グラフと、前記テキストデータとを比較することを特徴とする請求項1に記載の音声合成用読み上げ文生成装置。
The graph integration means includes:
It is determined whether or not the edge of the directed graph input to the graph input means for the second time and thereafter is branched, the directed graph in which the edge is not branched is defined as a branch deleted graph, and the directed graph from which the edge is branched , A graph branch deletion means for separately generating nodes at the branch destination of the edge and generating a branch deleted graph in which the branch of the edge is deleted;
By the DP matching method, it is determined whether the comparison target graph pair composed of one of the directed graph or the integrated graph first input to the graph input means and the branch deleted graph is similar, and the comparison target graph pair is When similar, the comparison target graph pair is integrated into one integrated graph, and when the comparison target graph pair is not similar, an integrated graph generating unit that sets each of the comparison target graph pairs as a new integrated graph; With
2. The speech synthesis read-out sentence generation apparatus according to claim 1, wherein the graph comparison unit compares the integrated graph input from the integrated graph generation unit with the text data.
前記第1条件式生成手段は、前記グラフ分岐削除手段により同一のノードが前記分岐削除済みグラフで複数のノードに分けられた場合、当該複数のノードの通過回数の和が、前記同一のノードに対応し、かつ、前記リスト除外手段で除外されたリストに格納された語句の個数以上となる第1条件式を生成することを特徴とする請求項2に記載の音声合成用読み上げ文生成装置。   When the same node is divided into a plurality of nodes in the branch-deleted graph by the graph branch deletion unit, the first conditional expression generation unit determines that the sum of the number of passes of the plurality of nodes is the same node. 3. The speech synthesis read-out sentence generation apparatus according to claim 2, wherein the first conditional expression corresponding to and greater than or equal to the number of words stored in the list excluded by the list exclusion unit is generated. 前記統合グラフ生成手段は、前記統合グラフのノードに置換可能な語句が複数含まれる場合、複数の前記語句が格納された別々のリストから、当該別々のリストに含まれる語句の全組み合わせが格納された統合リストを生成し、当該統合リストに貪欲アルゴリズムを適用することで、前記音声合成に最小限のコンパクトリストを生成し、当該ノードと前記コンパクトリストとを対応づけることを特徴とする請求項2又は請求項3に記載の音声合成用読み上げ文生成装置。   In the integrated graph generation means, when a plurality of replaceable words / phrases are included in the nodes of the integrated graph, all combinations of the words / phrases included in the separate lists are stored from different lists in which the plurality of words / phrases are stored. 3. An integrated list is generated, and a greedy algorithm is applied to the integrated list to generate a minimum compact list for the speech synthesis, and the node is associated with the compact list. Or the speech-speech production | generation apparatus for speech synthesis of Claim 3. コンピュータを、請求項1に記載の音声合成用読み上げ文生成装置として機能させるための音声合成用読み上げ文生成プログラム。   A speech synthesis read-out sentence generation program for causing a computer to function as the speech synthesis read-out sentence generation apparatus according to claim 1.
JP2012271461A 2012-12-12 2012-12-12 Spoken sentence generation device for speech synthesis and program thereof Active JP6088233B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012271461A JP6088233B2 (en) 2012-12-12 2012-12-12 Spoken sentence generation device for speech synthesis and program thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012271461A JP6088233B2 (en) 2012-12-12 2012-12-12 Spoken sentence generation device for speech synthesis and program thereof

Publications (2)

Publication Number Publication Date
JP2014115577A true JP2014115577A (en) 2014-06-26
JP6088233B2 JP6088233B2 (en) 2017-03-01

Family

ID=51171594

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012271461A Active JP6088233B2 (en) 2012-12-12 2012-12-12 Spoken sentence generation device for speech synthesis and program thereof

Country Status (1)

Country Link
JP (1) JP6088233B2 (en)

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004251953A (en) * 2003-02-18 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for text selection
JP2004347955A (en) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for automatic sentence set, and storage medium therefor
JP2006030892A (en) * 2004-07-21 2006-02-02 Nippon Hoso Kyokai <Nhk> Program and device for read-aloud text data selection for speech synthesizing
JP2007334264A (en) * 2006-06-19 2007-12-27 Nippon Telegr & Teleph Corp <Ntt> Text selecting device, and method, program and recording medium thereof
US20080091431A1 (en) * 2003-03-10 2008-04-17 Chih-Chung Kuo Method And Apparatus Of Generating Text Script For A Corpus-Based Text-To Speech System
JP2010033462A (en) * 2008-07-30 2010-02-12 Nippon Hoso Kyokai <Nhk> Read-aloud text generation device for voice synthesis and program thereof
JP2010032918A (en) * 2008-07-30 2010-02-12 Nippon Hoso Kyokai <Nhk> Voice synthesizing method, voice synthesizer, and voice synthesis program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004251953A (en) * 2003-02-18 2004-09-09 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for text selection
US20080091431A1 (en) * 2003-03-10 2008-04-17 Chih-Chung Kuo Method And Apparatus Of Generating Text Script For A Corpus-Based Text-To Speech System
JP2004347955A (en) * 2003-05-23 2004-12-09 Nippon Telegr & Teleph Corp <Ntt> Method, device, and program for automatic sentence set, and storage medium therefor
JP2006030892A (en) * 2004-07-21 2006-02-02 Nippon Hoso Kyokai <Nhk> Program and device for read-aloud text data selection for speech synthesizing
JP2007334264A (en) * 2006-06-19 2007-12-27 Nippon Telegr & Teleph Corp <Ntt> Text selecting device, and method, program and recording medium thereof
JP2010033462A (en) * 2008-07-30 2010-02-12 Nippon Hoso Kyokai <Nhk> Read-aloud text generation device for voice synthesis and program thereof
JP2010032918A (en) * 2008-07-30 2010-02-12 Nippon Hoso Kyokai <Nhk> Voice synthesizing method, voice synthesizer, and voice synthesis program

Also Published As

Publication number Publication date
JP6088233B2 (en) 2017-03-01

Similar Documents

Publication Publication Date Title
JP4130190B2 (en) Speech synthesis system
JP5293460B2 (en) Database generating apparatus for singing synthesis and pitch curve generating apparatus
US9620092B2 (en) Composition using correlation between melody and lyrics
Raczyński et al. Melody harmonization with interpolated probabilistic models
US20100121642A1 (en) Speech Data Retrieval Apparatus, Speech Data Retrieval Method, Speech Data Retrieval Program and Computer Usable Medium Having Computer Readable Data Retrieval Program Embodied Therein
JP5310563B2 (en) Speech recognition system, speech recognition method, and speech recognition program
Wu et al. Encoding linear models as weighted finite-state transducers.
Huang et al. Iterative Viterbi A* algorithm for k-best sequential decoding
KR20170128070A (en) Chord composition method based on recurrent neural network
CN1787072B (en) Method for synthesizing pronunciation based on rhythm model and parameter selecting voice
JP2020118929A (en) Summary generation device, method, program, and storage medium
JP6088233B2 (en) Spoken sentence generation device for speech synthesis and program thereof
JP5512597B2 (en) Speech synthesis apparatus, method and program thereof
JP2013164609A (en) Singing synthesizing database generation device, and pitch curve generation device
Garani et al. An algorithmic approach to South Indian classical music
US9704482B2 (en) Method and system for order-free spoken term detection
Long et al. T-music: A melody composer based on frequent pattern mining
Kumar et al. Meeting summarization: A survey of the state of the art
Sproat et al. Applications of lexicographic semirings to problems in speech and language processing
Kang et al. Lattice based transcription loss for end-to-end speech recognition
Lee et al. Improved model adaptation approach for recognition of reduced-frame-rate continuous speech
JP5881157B2 (en) Information processing apparatus and program
JP5020763B2 (en) Apparatus, method, and program for generating decision tree for speech synthesis
JP5113662B2 (en) Text-to-speech reading device for speech synthesis and program thereof
JP5020759B2 (en) Segment database generation apparatus, method and program for various speech synthesizers

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20140328

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20161216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20170110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20170203

R150 Certificate of patent or registration of utility model

Ref document number: 6088233

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250