JP4859101B2 - A system that supports editing of pronunciation information given to text - Google Patents

A system that supports editing of pronunciation information given to text Download PDF

Info

Publication number
JP4859101B2
JP4859101B2 JP2006018063A JP2006018063A JP4859101B2 JP 4859101 B2 JP4859101 B2 JP 4859101B2 JP 2006018063 A JP2006018063 A JP 2006018063A JP 2006018063 A JP2006018063 A JP 2006018063A JP 4859101 B2 JP4859101 B2 JP 4859101B2
Authority
JP
Japan
Prior art keywords
pronunciation information
phrase
information
target text
pronunciation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2006018063A
Other languages
Japanese (ja)
Other versions
JP2007199410A (en
Inventor
哲也 宇田
裕介 北川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Priority to JP2006018063A priority Critical patent/JP4859101B2/en
Priority to CN2007100044550A priority patent/CN101009094B/en
Publication of JP2007199410A publication Critical patent/JP2007199410A/en
Application granted granted Critical
Publication of JP4859101B2 publication Critical patent/JP4859101B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、編集を支援するシステムに関する。特に、本発明は、テキストに付与する発音情報の編集を支援するシステムに関する。   The present invention relates to a system that supports editing. In particular, the present invention relates to a system that supports editing of pronunciation information added to text.

近年、コンピュータによってテキストに基づいて発音情報を生成する技術が用いられている。この技術は、テキストの読み上げのみならず、字幕付きテレビ放送の支援など、応用範囲が広い。しかしながら、従来は、テキストに含まれる全ての語句に対して誤り無く発音情報を生成することは困難であった。例えば、「東」という漢字に敬称の「さん」を付した人名は、「ひがしさん」と読まれる場合や、「あずまさん」と読まれる場合がある。このような人名の読みは、従来の形態素解析や文脈解析によっても区別することが困難である。そのうえ、人名の読み間違いは聞き手に不快感や違和感を与え易い場合が多い。
特開平9−171392号公報
In recent years, a technique for generating pronunciation information based on text by a computer has been used. This technology has a wide range of applications, including not only reading out text but also supporting TV broadcasting with subtitles. However, conventionally, it has been difficult to generate pronunciation information without error for all words included in the text. For example, the name of a person with the title “san” added to the kanji “east” may be read as “higashi-san” or “azuma-san”. Such human name reading is difficult to distinguish even by conventional morphological analysis and context analysis. In addition, mistakes in reading the name of the person often tend to make the listener uncomfortable or uncomfortable.
JP-A-9-171392

したがって、従来、校正者が、コンピュータによって生成された発音情報を確認し、必要な修正を施している。例えば、特許文献1では、発音情報の修正のために、コンピュータとの対話的なユーザインターフェイスを校正者に提供する技術が提案されている。しかしながら、この技術では、テキストの量が多い場合には、校正者の作業負担が膨大となってしまっていた。また、人名の誤りを正確に修正するためには、この校正者が、充分なスキル・背景知識を有していなければならなかった。   Therefore, conventionally, a proofreader confirms pronunciation information generated by a computer and makes necessary corrections. For example, Patent Document 1 proposes a technique for providing a proofreader with an interactive user interface with a computer for correcting pronunciation information. However, with this technique, when the amount of text is large, the work load on the proofreader has become enormous. In addition, in order to correct the mistake in the name correctly, this proofreader had to have sufficient skill and background knowledge.

そこで本発明は、上記の課題を解決することのできるシステム、プログラムおよび方法を提供することを目的とする。この目的は特許請求の範囲における独立項に記載の特徴の組み合わせにより達成される。また従属項は本発明の更なる有利な具体例を規定する。   Therefore, an object of the present invention is to provide a system, a program, and a method that can solve the above problems. This object is achieved by a combination of features described in the independent claims. The dependent claims define further advantageous specific examples of the present invention.

上記課題を解決するために、本発明の第1の形態においては、テキストの発音を示す発音情報の編集を支援するシステムであって、語句の表層表現、発音情報、および、品詞を対応付けて記録した辞書を格納する辞書格納部と、発音情報を生成する対象となる対象テキストの表層表現を先頭側から走査して辞書に記録されている表層表現と一致する語句を検索し、表層表現と一致した語句の発音情報を生成する言語処理部と、対象テキスト、言語処理部によって生成された発音情報、および、言語処理部から対象テキストに含まれる語句の品詞の候補を取得する取得部と、品詞の候補として固有名詞を含む語句の発音情報を他の語句の発音情報よりも目立たせて、対象テキストに対応付けて表示する表示制御部と、表示された発音情報を利用者の指示に応じて修正し、修正された発音情報を対象テキストに対応付けて記録装置に記録する修正処理部とを備えるシステム、当該システムとして情報処理装置を機能させるプログラム、および、当該システムによって発音情報の編集を支援する方法を提供する。 In order to solve the above-mentioned problem, in the first embodiment of the present invention, there is provided a system that supports editing of pronunciation information indicating the pronunciation of a text , and correlates a surface expression of a phrase, pronunciation information, and part of speech A dictionary storage unit for storing the recorded dictionary, and a search for words that match the surface expression recorded in the dictionary by scanning the surface expression of the target text for which pronunciation information is to be generated, and matching language processing unit for generating phonetic information words, target text, sound information generated by the language processing unit, and an acquisition unit for acquiring a word part of speech of candidates included from the language processor the target text, pronunciation information of phrases including proper names as part of speech of the candidate also stand out from the pronunciation information of other words, use a display control unit for displaying in association with the target text, the sound information displayed And a correction processing unit that corrects the pronunciation information in association with the target text and records the corrected pronunciation information in the recording device, a program that causes the information processing device to function as the system, and pronunciation by the system Provide a way to support the editing of information.

本発明によれば、テキストの読みを、これまでより効率的に生成することができる。   According to the present invention, text reading can be generated more efficiently than before.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではなく、また実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention. However, the following embodiments do not limit the invention according to the scope of claims, and all combinations of features described in the embodiments are included. It is not necessarily essential for the solution of the invention.

図1は、編集支援システム10の全体構成を示す。編集支援システム10は、発音情報編集装置30と、発音情報記録装置35と、言語処理部40と、辞書格納部50とを備え、テキストの発音を示す発音情報の編集を支援することを目的とする。発音情報編集装置30は、発音情報を生成する対象となる対象テキスト20を取得する。言語処理部40は、形態素解析などの言語処理によって、対象テキスト20の表層表現に基づいて発音情報を生成する。発音情報とは、テキストの読み方を示す情報であり、母音や子音などの音のみならずアクセントを含んでよい。発音情報を生成するためには辞書格納部50が用いられる。辞書格納部50は、複数の語句のそれぞれについて、当該語句の表層表現、発音情報、および、品詞を対応付けて記録した辞書を格納する。言語処理部40は、対象テキスト20の表層表現を先頭側から走査することによって、表層表現が対象テキスト20の一部と一致する複数の語句を辞書格納部50から順次検索する。   FIG. 1 shows the overall configuration of the editing support system 10. The editing support system 10 includes a pronunciation information editing device 30, a pronunciation information recording device 35, a language processing unit 40, and a dictionary storage unit 50, and is intended to support editing of pronunciation information indicating the pronunciation of text. To do. The pronunciation information editing device 30 acquires the target text 20 that is a target for generating pronunciation information. The language processing unit 40 generates pronunciation information based on the surface expression of the target text 20 by language processing such as morphological analysis. The pronunciation information is information indicating how to read text, and may include not only sounds such as vowels and consonants but also accents. A dictionary storage unit 50 is used to generate pronunciation information. The dictionary storage unit 50 stores, for each of a plurality of words and phrases, a dictionary in which the surface expression of the word, pronunciation information, and part of speech are recorded in association with each other. The language processing unit 40 sequentially searches the dictionary storage unit 50 for a plurality of phrases whose surface layer expression matches a part of the target text 20 by scanning the surface layer expression of the target text 20 from the top side.

同一の表層表現を有する複数の語句が辞書に登録されている場合や、語句の区切りの候補が複数ある場合には、対象テキスト20が、複数通りの語句の組み合わせに一致する場合がある。このような場合には、言語処理部40は、ある品詞の語句の次にそれぞれの品詞の語句が配列される確率などに基づいて、尤もらしい語句の組み合わせを選択する。尤もらしい語句の組み合わせを選択するために、言語処理部40は、それぞれの語句について、当該語句の発音情報の確度を算出してもよい。この場合、言語処理部40は、算出された確度の合計や平均の最も高い語句の組み合わせを選択してもよい。そして、言語処理部40は、選択された語句の組み合わせに対応する発音情報の組み合わせを発音情報編集装置30に対し出力する。   When a plurality of words having the same surface representation are registered in the dictionary, or when there are a plurality of word break candidates, the target text 20 may match a plurality of word combinations. In such a case, the language processing unit 40 selects a probable word / phrase combination based on, for example, the probability that each part of speech is arranged next to a certain part of speech. In order to select a plausible phrase combination, the language processing unit 40 may calculate the accuracy of pronunciation information of the phrase for each phrase. In this case, the language processing unit 40 may select a combination of words with the highest sum or average of the calculated accuracy. Then, the language processing unit 40 outputs a pronunciation information combination corresponding to the selected phrase combination to the pronunciation information editing device 30.

発音情報編集装置30は、取得部300と、表示制御部310と、修正処理部320とを有する。取得部300は、対象テキスト20を外部から取得して言語処理部40に出力し、言語処理部40によって対象テキスト20の発音情報を生成させる。そして、取得部300は、生成された発音情報を言語処理部40から取得する。また、取得部300は、発音情報が生成される過程で生成された、対象テキスト20に含まれるそれぞれの語句の品詞の候補を言語処理部40から取得する。更に、取得部300は、発音情報が生成される過程で生成された、対象テキスト20に含まれるそれぞれの語句について複数の発音情報の候補を言語処理部40から取得してもよい。また、取得部300は、それぞれの語句の発音情報の確度を言語処理部40から取得してもよい。更に、取得部300は、対象テキスト20に、品詞を解析した結果文の区切りと判断された箇所に挿入された読点を含めて取得してもよい。   The pronunciation information editing device 30 includes an acquisition unit 300, a display control unit 310, and a correction processing unit 320. The acquisition unit 300 acquires the target text 20 from the outside, outputs the target text 20 to the language processing unit 40, and causes the language processing unit 40 to generate pronunciation information of the target text 20. Then, the acquisition unit 300 acquires the generated pronunciation information from the language processing unit 40. In addition, the acquisition unit 300 acquires from the language processing unit 40 candidates for part of speech of each word included in the target text 20 generated in the process of generating pronunciation information. Further, the acquisition unit 300 may acquire a plurality of pronunciation information candidates for each word / phrase included in the target text 20 generated in the process of generating pronunciation information from the language processing unit 40. In addition, the acquisition unit 300 may acquire the accuracy of pronunciation information of each phrase from the language processing unit 40. Furthermore, the acquisition unit 300 may acquire the target text 20 including a punctuation mark inserted at a location determined as a sentence break as a result of analyzing the part of speech.

表示制御部310は、対象テキスト20に含まれるそれぞれの語句の発音情報を、対象テキスト20に対応付けて利用者に表示する。また、表示制御部310は、品詞の候補として固有名詞(特に人名名詞)を含む語句の発音情報を他の語句の発音情報よりも優先して表示する。例えば、表示制御部310は、品詞の候補として固有名詞を含む語句の発音情報に、下線を付して表示し、他の語句には下線を付さないで表示してもよい。また、表示制御部310は、発音情報の確度がより低い語句の発音情報を、当該確度がより高い語句の発音情報よりも優先して表示してもよい。例えば、表示制御部310は、確度が予め定められた基準値よりも低い語句に下線を付して表示してもよい。   The display control unit 310 displays the pronunciation information of each phrase included in the target text 20 in association with the target text 20 to the user. In addition, the display control unit 310 displays the pronunciation information of a phrase including a proper noun (particularly a personal noun) as a part-of-speech candidate in preference to the pronunciation information of other phrases. For example, the display control unit 310 may display the pronunciation information of a phrase including a proper noun as a part-of-speech candidate with an underline, and display other words without an underline. In addition, the display control unit 310 may display the pronunciation information of the words with lower accuracy of the pronunciation information in preference to the pronunciation information of the words with higher accuracy. For example, the display control unit 310 may display an underlined word / phrase whose accuracy is lower than a predetermined reference value.

修正処理部320は、表示された発音情報を利用者の指示に応じて修正し、修正された発音情報を対象テキスト20に対応付けて発音情報記録装置35に記録する。また、表示制御部310は、修正処理部320が発音情報を修正したことに応じ、修正前の発音情報に代えて修正後の発音情報を利用者に表示する。   The correction processing unit 320 corrects the displayed pronunciation information in accordance with a user instruction, and records the corrected pronunciation information in the pronunciation information recording device 35 in association with the target text 20. Further, in response to the correction processing unit 320 correcting the pronunciation information, the display control unit 310 displays the corrected pronunciation information instead of the uncorrected pronunciation information to the user.

図2は、対象テキスト20の一例を示す。対象テキスト20は、発音情報を生成する対象であり、文字や句読点などの記号を配列したデータである。具体的には、対象テキスト20は、鈴木秀喜外野手に関するニュース記事であり、当該外野手がいつどこでどのような行動をし、その結果どのようなことが判明したかを示している。そして、対象テキスト20は、例えば「鈴木秀喜外野手」のような固有名詞の表層表現のみを含み、その固有名詞の発音を示す情報は含んでいない。また、対象テキスト20は、「指名打者」のような一般名詞の表層表現のみを含み、その一般名詞の発音を示す情報は含んでいない。更に、対象テキスト20は、野球のスコアボードなどの図表を含んでもよい。なお、対象テキスト20は、インターネット等の外部の通信ネットワークから取得されてもよいし、利用者によって入力されてもよい。   FIG. 2 shows an example of the target text 20. The target text 20 is a target for generating pronunciation information, and is data in which symbols such as characters and punctuation marks are arranged. Specifically, the target text 20 is a news article related to Hideki Suzuki outfielder, and shows what and when the outfielder performs what and when it is found. The target text 20 includes only a surface expression of a proper noun such as “Hideki Outfielder”, for example, and does not include information indicating the pronunciation of the proper noun. Further, the target text 20 includes only a surface expression of a general noun such as “designated batter”, and does not include information indicating the pronunciation of the general noun. Further, the target text 20 may include a chart such as a baseball scoreboard. The target text 20 may be acquired from an external communication network such as the Internet, or may be input by a user.

図3は、辞書格納部50のデータ構造の一例を示す。辞書格納部50は、表層表現に基づいて発音情報を生成するための辞書を格納している。この辞書は、予め登録された複数の語句のそれぞれについて、当該語句の表層表現、当該語句の発音情報、および、当該語句の品詞を対応付けて記録している。例えば、「秀喜」という表層表現は、「ひでき」という発音情報と、「ひでよし」という発音情報と、「ひでのぶ」という発音情報と、「しゅーき」という発音情報とに対応付けて登録されている。また、「秀喜」という表層表現および「ひでき」という発音情報の組は、固有名詞の中の人名名詞に対応付けて登録されている。一方、「秀喜」という表層表現および「しゅーき」という発音情報の組は、一般名詞に対応付けて登録されている。このように、この辞書は、ある表層表現を、互いに異なる複数の発音情報に対応付けて記録していてもよいし、互いに異なる複数の品詞に対応付けて記録していてもよい。   FIG. 3 shows an example of the data structure of the dictionary storage unit 50. The dictionary storage unit 50 stores a dictionary for generating pronunciation information based on the surface layer expression. In this dictionary, for each of a plurality of words registered in advance, the surface layer representation of the word, pronunciation information of the word, and the part of speech of the word are recorded in association with each other. For example, the surface expression “Hideki” is registered in association with pronunciation information “Hide”, pronunciation information “Hideyoshi”, pronunciation information “Hidenobu”, and pronunciation information “Shiki” Has been. In addition, a set of surface expression “Hideki” and pronunciation information “Hide” is registered in association with a personal noun among proper nouns. On the other hand, a set of surface expression “Hideki” and pronunciation information “Shuuki” is registered in association with general nouns. In this way, this dictionary may record a certain surface layer expression in association with a plurality of different pronunciation information, or may record in correspondence with a plurality of different parts of speech.

また、この辞書において、「島」という語句の表層表現は、「しま」という発音情報に対応付けて記録されており、他の発音情報には対応付けて記録されていない。このように、この辞書は、ある表層表現を1つのみの発音情報に対応付けて記録していてもよい。また、「監督」という語句の表層表現は、一般名詞に対応付けて記録されており、「受け」という語句の表層表現は動詞に対応付けて記録されている。このように、この辞書は、固有名詞のみならず様々な品詞に対応付けて表層表現を記録していてもよい。
なお、図3では発音情報を、日本語のひらがなのような表音文字によって示したが、発音情報とは表音文字のみならず所定の発音記号やアクセント記号によって構成されるものであってもよい。
In this dictionary, the surface expression of the word “island” is recorded in association with the pronunciation information “shima”, and is not recorded in association with other pronunciation information. Thus, this dictionary may record a certain surface layer expression in association with only one pronunciation information. Further, the surface expression of the word “director” is recorded in association with the general noun, and the surface expression of the word “receive” is recorded in association with the verb. As described above, this dictionary may record the surface expression in association with various parts of speech as well as proper nouns.
In FIG. 3, the phonetic information is shown by phonetic characters such as Japanese hiragana, but the phonetic information may be composed of not only phonetic characters but also predetermined phonetic symbols and accent symbols. Good.

図4は、表示制御部310による第1の表示例を示す。表示制御部310は、発音情報「すずき」を語句「鈴木」に対応付けて表示する。また、表示制御部310は、語句「鈴木」が品詞の候補として固有名詞を含むので、当該語句に2重下線を付すことにより発音情報「すずき」を他の語句の発音情報より優先して表示する。また、表示制御部310は、発音情報「しゅーき」を語句「秀喜」に対応付けて表示する。発音情報「しゅーき」は一般名詞に対応付けて登録されているが、表層表現「秀喜」は固有名詞にも対応付けて登録されている。このように、語句「秀喜」が品詞の候補として固有名詞を含むので、表示制御部310は、語句「秀喜」に2重下線を付すことにより、発音情報「しゅーき」を他の語句の発音情報より優先して表示する。
なお、優先した表示とは、図4の例のように下線を付した表示の他、目に付き易い色彩による表示であってもよい。これに代えて、表示制御部310は、優先すべき語句の発音情報のみを一覧表示し、他の語句の発音情報を表示しなくてもよい。何れの場合でも、誤っている可能性の高い発音情報のみを目立たせて表示することができ、利用者の作業負担を軽減できる。
FIG. 4 shows a first display example by the display control unit 310. The display control unit 310 displays the pronunciation information “Suzuki” in association with the phrase “Suzuki”. In addition, since the phrase “Suzuki” includes a proper noun as a part of speech candidate, the display control unit 310 displays the pronunciation information “Suzuki” with priority over the pronunciation information of other phrases by adding a double underline to the phrase. To do. Further, the display control unit 310 displays the pronunciation information “Shuuki” in association with the phrase “Hideki”. The pronunciation information “Shiki” is registered in association with general nouns, while the surface expression “Hideki” is registered in association with proper nouns. In this way, since the phrase “Hideki” includes a proper noun as a part of speech candidate, the display control unit 310 adds the pronunciation information “Shuuki” to another phrase by adding a double underline to the phrase “Hideki”. Display with priority over pronunciation information.
The prioritized display may be a display with an easily visible color in addition to the underlined display as in the example of FIG. Instead of this, the display control unit 310 may display only the pronunciation information of the words to be prioritized and may not display the pronunciation information of other words. In any case, only the pronunciation information that is likely to be wrong can be displayed conspicuously, and the work burden on the user can be reduced.

また、好ましくは、表示制御部310は、辞書に複数の発音情報が登録された語句の発音情報を、辞書に1つのみの発音情報が登録された語句の発音情報よりも優先して表示する。例えば、表示制御部310は、語句「秀喜」には複数の発音情報が対応付けて登録されているので、発音情報「しゅーき」に文字囲いを付すことにより、発音情報「しゅーき」を優先して表示してもよい。一方で、表示制御部310は、語句「鈴木」には1つの発音情報のみが対応付けて登録されているので、文字囲いを付さずに発音情報「すずき」を表示する。これにより、誤っている可能性の更に高い発音情報を更に目立たせて表示することができる。   Preferably, the display control unit 310 displays the pronunciation information of a phrase having a plurality of pronunciation information registered in the dictionary in preference to the pronunciation information of a phrase in which only one pronunciation information is registered in the dictionary. . For example, since the phrase “Hideki” is registered in association with a plurality of pronunciation information, the display control unit 310 attaches a character box to the pronunciation information “Shuuki”, thereby generating the pronunciation information “Shuuki”. May be displayed with priority. On the other hand, since only one pronunciation information is registered in association with the phrase “Suzuki”, the display control unit 310 displays the pronunciation information “Suzuki” without attaching a character box. As a result, pronunciation information that is more likely to be erroneous can be displayed more conspicuously.

また、表示制御部310は、辞書に登録されていない語句(以下、未知語と呼ぶ)の発音情報を、辞書に登録されている語句の発音情報よりも優先して表示してもよい。例えば、表示制御部310は、語句「MRI」が辞書に登録されていないので、当該語句に下線を付して表示する。この結果、当該語句の発音情報「えむあーるあい」は、下線の付されていない語句の発音情報「びょーいん」などより優先して表示される。また、語句「MRI」には、語句「秀喜」や「鈴木」の2重下線とは異なり1重下線を付すことにより、表示制御部310は、未知語の発音情報と、品詞の候補として固有名詞を含む語句の発音情報とを識別可能に表示する。これにより、利用者は、発音情報に誤りが生じ易い理由を直感的に認識することができる。   Further, the display control unit 310 may display the pronunciation information of a word / phrase not registered in the dictionary (hereinafter referred to as an unknown word) with priority over the pronunciation information of the word / phrase registered in the dictionary. For example, since the word “MRI” is not registered in the dictionary, the display control unit 310 displays the word with an underline. As a result, the pronunciation information “Emua Ruai” for the word is displayed with priority over the pronunciation information “Byoin” for the underlined word. In addition, the phrase “MRI” is given a single underline unlike the double underline of the phrases “Hideki” and “Suzuki”, so that the display control unit 310 can uniquely identify the pronunciation information of the unknown word and the candidate part of speech. The pronunciation information of words including nouns is displayed so as to be distinguishable. As a result, the user can intuitively recognize the reason why an error is likely to occur in the pronunciation information.

更に、表示制御部310は、発音情報の確度がより低い語句の発音情報を、当該確度がより高い語句の発音情報よりも優先して表示してもよい。例えば、語句「1日」の発音情報「ついたち」の確度が基準値より低いので、表示制御部310は、語句「1日」に点線の下線を付すことにより、当該発音情報を優先して表示する。一方で、表示制御部310は、語句「病院」の発音情報「びょーいん」の確度が基準値より高いので、語句「病院」には下線を付さないで表示する。これにより、発音情報の確度が低い語句を目立たせて表示することができる。   Furthermore, the display control unit 310 may display the pronunciation information of a phrase with lower accuracy of pronunciation information in preference to the pronunciation information of a phrase with higher accuracy. For example, since the accuracy of the pronunciation information “Tatsutachi” for the phrase “1 day” is lower than the reference value, the display control unit 310 gives priority to display the pronunciation information by underlining the dotted line for the phrase “1 day”. To do. On the other hand, the display control unit 310 displays the word “hospital” without underlining since the accuracy of the pronunciation information “Byoin” of the word “hospital” is higher than the reference value. As a result, words or phrases with low accuracy of pronunciation information can be displayed conspicuously.

また、図4の3行目の後尾に表示された「良ければ」と「指名打者」との間には、言語処理部40によって読点が挿入されている。この読点は、言語処理部40によって意味の区切りと判断された箇所に挿入される場合がある。言語処理部40は、対象テキスト20において、句読点を含まずに連続する語句の数が多い場合に、意味の区切りに読点を挿入することにより、対象テキスト20の読み上げ音声を聞き易くする。この読点の位置は、対象テキスト20の作成者によって決定されたものではないので、当該作成者の意図とは異なっていて不自然な場合がある。即ち、読点の位置の誤りは、言語処理部40による解析の誤りを示唆しており、発音情報の誤りに関連している場合が多い。このため、表示制御部310は、読点に隣接する語句の発音情報を、他の語句の発音情報よりも優先して表示する。図4の例では、表示制御部310は、この読点に隣接する語句「良ければ」と語句「指名打者」とに波線を付して表示する。   Also, a reading mark is inserted by the language processing unit 40 between “if it is good” and “nominated batter” displayed at the end of the third line in FIG. This punctuation mark may be inserted at a location determined as a semantic break by the language processing unit 40. When the target text 20 has a large number of consecutive words that do not include punctuation marks, the language processing unit 40 inserts punctuation marks at the meaning breaks to make it easier to hear the read-out voice of the target text 20. Since the position of this punctuation mark is not determined by the creator of the target text 20, it may be unnatural and different from the intention of the creator. That is, an error in the position of a reading point suggests an error in analysis by the language processing unit 40 and is often related to an error in pronunciation information. For this reason, the display control unit 310 displays the pronunciation information of the phrase adjacent to the punctuation with priority over the pronunciation information of other words. In the example of FIG. 4, the display control unit 310 displays the phrase “if it is good” and the phrase “designated hitter” adjacent to the reading with wavy lines.

また、表示制御部310は、野球のスコアボードなどの予め定められたフォーマットと一致する定型データの発音情報を他の語句の発音情報よりも優先して表示してもよい。このような定型データは、文字をそのまま読み上げても意味の分かりづらい発音となる場合がある。このような定型データには、波線などを付して目立たせることにより、利用者の注意を喚起できる。   In addition, the display control unit 310 may display the pronunciation information of the standard data that matches a predetermined format such as a baseball scoreboard in preference to the pronunciation information of other words. Such standard data may result in pronunciation that is difficult to understand even if the characters are read as they are. Such standard data can be noticed by adding wavy lines or the like to attract the user's attention.

図5は、表示制御部310による第2の表示例を示す。表示制御部310は、利用者の操作に応じて表示面上を移動するカーソルを表示する。このカーソルは、マウスなどのポインティングデバイスの操作によって表示面上を移動してもよい。利用者は、例えば、語句の発音情報にこのカーソルを重ねて、クリック操作やキー操作を行うことにより、当該語句の発音情報を操作の対象とする。表示制御部310は、修正処理部320が利用者から修正のための操作を受け付けたことに応じ、当該操作の対象となる語句の発音情報の候補を表示してもよい。図5の例では、利用者が語句「秀喜」を選択したので、表示制御部310は、語句「秀喜」に対応する発音情報の全ての候補を一覧表示する。即ち、表示制御部310は、発音情報「しゅーき」の他、その候補として辞書格納部50に登録された「ひでき」、「ひでよし」、および、「ひでのぶ」を表示する。   FIG. 5 shows a second display example by the display control unit 310. The display control unit 310 displays a cursor that moves on the display surface in accordance with a user operation. The cursor may be moved on the display surface by operating a pointing device such as a mouse. The user, for example, superimposes the cursor on the pronunciation information of a phrase and performs a click operation or key operation, thereby setting the pronunciation information of the phrase as a target of operation. The display control unit 310 may display pronunciation information candidates of the word / phrase to be operated in response to the correction processing unit 320 receiving a correction operation from the user. In the example of FIG. 5, since the user has selected the phrase “Hideki”, the display control unit 310 displays a list of all pronunciation information candidates corresponding to the phrase “Hideki”. That is, the display control unit 310 displays “hidori”, “hidoshi”, and “hidenobu” registered in the dictionary storage unit 50 as candidates, in addition to the pronunciation information “shu-ki”.

図6は、表示制御部310による第3の表示例を示す。修正処理部320が利用者の指示に応じて発音情報を修正したことに応じ、表示制御部310は、修正前の発音情報に代えて修正後の発音情報を表示する。図6の例において、修正処理部320は3行目の語句「秀喜」の発音情報を「ひでき」に修正したので、表示制御部310は、修正前の発音情報「しゅーき」に代えて修正後の発音情報「ひでき」を表示する。更に、修正処理部320は、ある語句の発音情報の修正に応じ、対象テキスト20中で当該語句と同一の表層表現を有する他の語句の発音情報を、当該語句の発音情報と同一となるように修正してもよい。図6の例において、修正処理部320は、3行目の語句「秀喜」の発音情報の修正に応じ、1行目の語句「秀喜」の発音情報を「ひでき」に修正する。この場合、表示制御部310は、1行目の語句「秀喜」の発音情報を、3行目の語句「秀喜」の発音情報と同一となるように修正して表示してもよい。   FIG. 6 shows a third display example by the display control unit 310. In response to the correction processing unit 320 correcting the pronunciation information in accordance with the user's instruction, the display control unit 310 displays the corrected pronunciation information instead of the uncorrected pronunciation information. In the example of FIG. 6, since the correction processing unit 320 has corrected the pronunciation information of the word “Hideki” on the third line to “Hide”, the display control unit 310 replaces the pronunciation information “Shiki” before the correction. The corrected pronunciation information “Hidashi” is displayed. Further, in accordance with the correction of the pronunciation information of a certain phrase, the correction processing unit 320 makes the pronunciation information of another phrase having the same surface expression as the phrase in the target text 20 the same as the pronunciation information of the phrase. You may correct it. In the example of FIG. 6, the correction processing unit 320 corrects the pronunciation information of the phrase “Hideki” on the first line to “hidori” in accordance with the correction of the pronunciation information of the phrase “Hideki” on the third line. In this case, the display control unit 310 may correct and display the pronunciation information of the phrase “Hideki” on the first line so as to be the same as the pronunciation information of the phrase “Hideki” on the third line.

なお、対象テキスト20が複数のトピックを含む場合には、修正処理部320は、同一のトピック内にある語句のみに修正結果を反映し、他のトピック内にある語句には修正結果を反映させなくてもよい。即ち、修正処理部320は、ある語句の発音情報の修正に応じ、当該語句と同一のトピック内で当該語句と同一の表層表現を有する他の語句の発音情報を、当該語句の発音情報と同一となるように修正してもよい。トピックの区切りは、トピックの区切りを示す所定の記号などが対象テキスト20に埋め込まれていれば容易に判別可能である。   When the target text 20 includes a plurality of topics, the correction processing unit 320 reflects the correction result only on the words and phrases in the same topic, and reflects the correction results on the words and phrases in the other topics. It does not have to be. That is, according to the correction of the pronunciation information of a certain phrase, the correction processing unit 320 sets the pronunciation information of another phrase having the same surface expression as the phrase within the same topic as the phrase as the pronunciation information of the phrase. It may be modified so that The topic delimiter can be easily determined if a predetermined symbol or the like indicating the topic delimiter is embedded in the target text 20.

図7は、編集支援システム10によって発音情報が生成される処理のフローチャートである。言語処理部40は、対象テキスト20の表層表現に基づいて発音情報を生成する(S700)。取得部300は、生成された発音情報のみならず、辞書格納部50に登録された各語句の発音情報の候補、および、品詞の候補などを取得する(S710)。表示制御部310および修正処理部320は、発音情報を表示し、利用者の指示に応じて当該発音情報を修正して発音情報記録装置35に記録する(S720)。   FIG. 7 is a flowchart of processing for generating pronunciation information by the editing support system 10. The language processing unit 40 generates pronunciation information based on the surface expression of the target text 20 (S700). The acquisition unit 300 acquires not only the generated pronunciation information, but also the pronunciation information candidates and the part of speech candidates of each word registered in the dictionary storage unit 50 (S710). The display control unit 310 and the correction processing unit 320 display the pronunciation information, correct the pronunciation information according to a user instruction, and record it in the pronunciation information recording device 35 (S720).

図8は、図7のS720における処理の詳細を示す。表示制御部310は、発音情報を表示する(S800)。修正処理部320が利用者から操作を受けていなければ(S810:NO)、表示制御部310は同一の発音情報を表示し続ける(S800)。修正処理部320は、利用者から操作を受けたことに応じ(S810:YES)、操作の対象となる語句が複数の発音情報の候補を有するかを判断する(S820)。複数の発音情報の候補を有することを条件に(S820:YES)、修正処理部320は、複数の発音情報の候補を表示する(S830)。   FIG. 8 shows details of the processing in S720 of FIG. The display control unit 310 displays pronunciation information (S800). If the correction processing unit 320 has not received an operation from the user (S810: NO), the display control unit 310 continues to display the same pronunciation information (S800). In response to receiving an operation from the user (S810: YES), the correction processing unit 320 determines whether the word to be operated has a plurality of pronunciation information candidates (S820). On condition that there are a plurality of pronunciation information candidates (S820: YES), the correction processing unit 320 displays a plurality of pronunciation information candidates (S830).

続いて、修正処理部320は、操作の対象となる語句に対し、新たな発音情報の入力を受けたかを判断する(S840)。新たな発音情報の入力を受けたことに応じ(S840:YES)、修正処理部320は、その入力に基づいて発音情報を修正し、発音情報記録装置35に記録する(S850)。また、修正処理部320は、当該語句と同一の表層表現を有する他の語句の発音情報を、当該語句の発音情報と同一となるように修正する(S860)。修正処理部320は、修正を完了する操作を受けたことを条件に(S870:YES)、S720の処理を終了する。一方で、修正を完了する操作を受けていなければ(S870:NO)、修正処理部320は、S800に処理を戻して修正後の発音情報を表示させる。   Subsequently, the correction processing unit 320 determines whether new pronunciation information has been input for the word or phrase to be operated (S840). In response to receiving the input of new pronunciation information (S840: YES), the correction processing unit 320 corrects the pronunciation information based on the input and records it in the pronunciation information recording device 35 (S850). In addition, the correction processing unit 320 corrects the pronunciation information of other words having the same surface expression as the word so as to be the same as the pronunciation information of the word (S860). The correction processing unit 320 ends the process of S720 on the condition that an operation for completing the correction is received (S870: YES). On the other hand, if the operation for completing the correction has not been received (S870: NO), the correction processing unit 320 returns the process to S800 to display the corrected pronunciation information.

図9は、図8のS800における処理の詳細を示す。表示制御部310は、ある語句が品詞の候補として人名名詞を含むことを条件に(S900:YES)、その語句に2重下線を付して表示する(S910)。なお、ある語句が品詞の候補として人名名詞を含むか否かは、本実施例では言語処理部40によって判断されるが、これに代えて発音情報編集装置30によって判断されてもよい。具体的には、発音情報編集装置30は、「さん」、「選手」、「容疑者」、「社」または「駅」などの、固有名詞の接尾語を対象テキスト20から検出し、その直前の語句が、品詞の候補として人名名詞を含むと判断してもよい。   FIG. 9 shows details of the processing in S800 of FIG. The display control unit 310 displays a word with a double underline (S910) on condition that a word includes a personal noun as a part of speech candidate (S900: YES). Whether or not a word includes a personal noun as a part of speech candidate is determined by the language processing unit 40 in this embodiment, but may be determined by the pronunciation information editing device 30 instead. Specifically, the pronunciation information editing device 30 detects a suffix of a proper noun such as “san”, “player”, “suspect”, “company” or “station” from the target text 20 and immediately before that. May be determined to include personal nouns as part-of-speech candidates.

また、表示制御部310は、ある語句が未知語であることを条件に(S920:YES)、その語句に下線を付して表示する(S930)。未知語には、具体的には、アルファベットと数字や記号との連続から成る製品名などが含まれる。また、表示制御部310は、ある語句について言語処理部40によって生成された発音情報の確度が基準値以下であることを条件に(S940:YES)、その語句に点線の下線を付して表示する(S950)。また、表示制御部310は、ある語句が、発音情報が誤り易い所定の条件を満たすことを条件に(S960:YES)、その語句に波線の下線を付して表示する(S970)。   The display control unit 310 displays the word with an underline (S930) on condition that the word is an unknown word (S920: YES). Specifically, the unknown word includes a product name composed of a sequence of alphabets, numbers, and symbols. In addition, the display control unit 310 displays the word with a dotted underline on the condition that the accuracy of the pronunciation information generated by the language processing unit 40 for the word is equal to or less than the reference value (S940: YES). (S950). In addition, the display control unit 310 displays a word with an underline of a wavy line on the condition that a certain phrase satisfies a predetermined condition that the pronunciation information is likely to be erroneous (S960: YES) (S970).

所定の条件とは、言語処理部40によって生成された読点に連続して配列されていること、または、予め定められたフォーマットと一致する定型データであることなどである。更に、所定の条件とは、発音情報を誤り易いとして予め定められた語句と表層表現が一致することであってもよい。具体的には、「行った」という表層表現は、「いった」とも読めるし「おこなった」とも読める。また、「降り」という表層表現は、「ふり」とも読めるし「おり」とも読める。このような発音情報の誤り易い語句の表層表現を発音情報編集装置30が予め記憶しておき、表示制御部310は、これらの何れかと表層表現の一致する語句に下線を付して表示してよい。   The predetermined condition is that the reading data generated by the language processing unit 40 is continuously arranged, or that the data is fixed data that matches a predetermined format. Further, the predetermined condition may be that a predetermined phrase and a surface layer expression match that the pronunciation information is likely to be erroneous. Specifically, the surface expression “I went” can be read as “I did” or “I did”. In addition, the surface expression “get down” can be read as “pretend” and “ori”. The pronunciation information editing apparatus 30 stores in advance the surface expression of such words that are prone to error in the pronunciation information, and the display control unit 310 displays an underlined word or phrase that matches one of these expressions. Good.

図10は、図9に続く処理の詳細を示す。続いて、表示制御部310は、ある語句の発音情報の候補が辞書格納部50に複数登録されていることを条件に(S1000:YES)、その語句の発音情報に文字囲いを付して表示する(S1010)。なお、辞書格納部50は、複合語として予め定められた語句の発音情報を登録している場合がある。複合語は、例えば、「山田首相」や「佐藤法相」などであり、その発音は「やまだしゅしょう」や「さとうほうしょう」などである。複合語は、登録された発音以外の発音を有しない場合が多い。このため、表示制御部310は、下線などを付して優先表示をした語句がその複合語として登録されていることを条件に(S1020:YES)、当該優先表示を解除する(S1030)。これにより、発音の誤り易い語句のみを一層目立たせることができる。   FIG. 10 shows details of the processing following FIG. Subsequently, on the condition that a plurality of pronunciation information candidates for a certain phrase are registered in the dictionary storage section 50 (S1000: YES), the display control section 310 displays the pronunciation information for that word with a character box. (S1010). Note that the dictionary storage unit 50 may register pronunciation information of a predetermined phrase as a compound word. The compound words are, for example, “Prime Minister Yamada” and “Fair Minister Sato”, and their pronunciation is “Yamada Shusho”, “Sato Hosho”, and the like. Compound words often do not have pronunciations other than registered pronunciations. For this reason, the display control unit 310 cancels the priority display (S1030) on the condition that the phrase that is preferentially displayed with an underline or the like is registered as the compound word (S1020: YES). As a result, it is possible to make only words and phrases that are prone to pronunciation errors stand out more.

図11は、編集支援システム10として機能する情報処理装置600のハードウェア構成の一例を示す。情報処理装置600は、ホストコントローラ1082により相互に接続されるCPU1000、RAM1020、及びグラフィックコントローラ1075を有するCPU周辺部と、入出力コントローラ1084によりホストコントローラ1082に接続される通信インターフェイス1030、ハードディスクドライブ1040、及びCD−ROMドライブ1060を有する入出力部と、入出力コントローラ1084に接続されるBIOS1010、フレキシブルディスクドライブ1050、及び入出力チップ1070を有するレガシー入出力部とを備える。   FIG. 11 shows an example of the hardware configuration of the information processing apparatus 600 that functions as the editing support system 10. The information processing apparatus 600 includes a CPU peripheral unit including a CPU 1000, a RAM 1020, and a graphic controller 1075 connected to each other by a host controller 1082, a communication interface 1030, a hard disk drive 1040, and the like connected to the host controller 1082 by an input / output controller 1084. And an input / output unit having a CD-ROM drive 1060, and a legacy input / output unit having a BIOS 1010, a flexible disk drive 1050, and an input / output chip 1070 connected to the input / output controller 1084.

ホストコントローラ1082は、RAM1020と、高い転送レートでRAM1020をアクセスするCPU1000及びグラフィックコントローラ1075とを接続する。CPU1000は、BIOS1010及びRAM1020に格納されたプログラムに基づいて動作し、各部の制御を行う。グラフィックコントローラ1075は、CPU1000等がRAM1020内に設けたフレームバッファ上に生成する画像データを取得し、表示装置1080上に表示させる。これに代えて、グラフィックコントローラ1075は、CPU1000等が生成する画像データを格納するフレームバッファを、内部に含んでもよい。   The host controller 1082 connects the RAM 1020 to the CPU 1000 and the graphic controller 1075 that access the RAM 1020 at a high transfer rate. The CPU 1000 operates based on programs stored in the BIOS 1010 and the RAM 1020 and controls each unit. The graphic controller 1075 acquires image data generated by the CPU 1000 or the like on a frame buffer provided in the RAM 1020 and displays it on the display device 1080. Alternatively, the graphic controller 1075 may include a frame buffer that stores image data generated by the CPU 1000 or the like.

入出力コントローラ1084は、ホストコントローラ1082と、比較的高速な入出力装置である通信インターフェイス1030、ハードディスクドライブ1040、及びCD−ROMドライブ1060を接続する。通信インターフェイス1030は、ネットワークを介して外部の装置と通信する。ハードディスクドライブ1040は、情報処理装置600が使用するプログラム及びデータを格納する。CD−ROMドライブ1060は、CD−ROM1095からプログラム又はデータを読み取り、RAM1020又はハードディスクドライブ1040に提供する。   The input / output controller 1084 connects the host controller 1082 to the communication interface 1030, the hard disk drive 1040, and the CD-ROM drive 1060, which are relatively high-speed input / output devices. The communication interface 1030 communicates with an external device via a network. The hard disk drive 1040 stores programs and data used by the information processing apparatus 600. The CD-ROM drive 1060 reads a program or data from the CD-ROM 1095 and provides it to the RAM 1020 or the hard disk drive 1040.

また、入出力コントローラ1084には、BIOS1010と、フレキシブルディスクドライブ1050や入出力チップ1070等の比較的低速な入出力装置とが接続される。BIOS1010は、情報処理装置600の起動時にCPU1000が実行するブートプログラムや、情報処理装置600のハードウェアに依存するプログラム等を格納する。フレキシブルディスクドライブ1050は、フレキシブルディスク1090からプログラム又はデータを読み取り、入出力チップ1070を介してRAM1020またはハードディスクドライブ1040に提供する。入出力チップ1070は、フレキシブルディスク1090や、例えばパラレルポート、シリアルポート、キーボードポート、マウスポート等を介して各種の入出力装置を接続する。   The input / output controller 1084 is connected to the BIOS 1010 and relatively low-speed input / output devices such as the flexible disk drive 1050 and the input / output chip 1070. The BIOS 1010 stores a boot program executed by the CPU 1000 when the information processing apparatus 600 is activated, a program depending on the hardware of the information processing apparatus 600, and the like. The flexible disk drive 1050 reads a program or data from the flexible disk 1090 and provides it to the RAM 1020 or the hard disk drive 1040 via the input / output chip 1070. The input / output chip 1070 connects various input / output devices via a flexible disk 1090 and, for example, a parallel port, a serial port, a keyboard port, a mouse port, and the like.

情報処理装置600に提供されるプログラムは、フレキシブルディスク1090、CD−ROM1095、又はICカード等の記録媒体に格納されて利用者によって提供される。プログラムは、入出力チップ1070及び/又は入出力コントローラ1084を介して、記録媒体から読み出され情報処理装置600にインストールされて実行される。プログラムが情報処理装置600等に働きかけて行わせる動作は、図1から図10において説明した編集支援システム10における動作と同一であるから、説明を省略する。   A program provided to the information processing apparatus 600 is stored in a recording medium such as the flexible disk 1090, the CD-ROM 1095, or an IC card and provided by the user. The program is read from the recording medium via the input / output chip 1070 and / or the input / output controller 1084, installed in the information processing apparatus 600, and executed. The operation that the program causes the information processing apparatus 600 to perform is the same as the operation in the editing support system 10 described with reference to FIGS.

以上に示したプログラムは、外部の記憶媒体に格納されてもよい。記憶媒体としては、フレキシブルディスク1090、CD−ROM1095の他に、DVDやPD等の光学記録媒体、MD等の光磁気記録媒体、テープ媒体、ICカード等の半導体メモリ等を用いることができる。また、専用通信ネットワークやインターネットに接続されたサーバシステムに設けたハードディスク又はRAM等の記憶装置を記録媒体として使用し、ネットワークを介してプログラムを情報処理装置600に提供してもよい。   The program shown above may be stored in an external storage medium. As the storage medium, in addition to the flexible disk 1090 and the CD-ROM 1095, an optical recording medium such as a DVD or PD, a magneto-optical recording medium such as an MD, a tape medium, a semiconductor memory such as an IC card, or the like can be used. Further, a storage device such as a hard disk or a RAM provided in a server system connected to a dedicated communication network or the Internet may be used as a recording medium, and the program may be provided to the information processing device 600 via the network.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

図1は、編集支援システム10の全体構成を示す。FIG. 1 shows the overall configuration of the editing support system 10. 図2は、対象テキスト20の一例を示す。FIG. 2 shows an example of the target text 20. 図3は、辞書格納部50のデータ構造の一例を示す。FIG. 3 shows an example of the data structure of the dictionary storage unit 50. 図4は、表示制御部310による第1の表示例を示す。FIG. 4 shows a first display example by the display control unit 310. 図5は、表示制御部310による第2の表示例を示す。FIG. 5 shows a second display example by the display control unit 310. 図6は、表示制御部310による第3の表示例を示す。FIG. 6 shows a third display example by the display control unit 310. 図7は、編集支援システム10によって発音情報が生成される処理のフローチャートである。FIG. 7 is a flowchart of processing for generating pronunciation information by the editing support system 10. 図8は、図7のS720における処理の詳細を示す。FIG. 8 shows details of the processing in S720 of FIG. 図9は、図8のS800における処理の詳細を示す。FIG. 9 shows details of the processing in S800 of FIG. 図10は、図9に続く処理の詳細を示す。FIG. 10 shows details of the processing following FIG. 図11は、編集支援システム10として機能する情報処理装置600のハードウェア構成の一例を示す。FIG. 11 shows an example of the hardware configuration of the information processing apparatus 600 that functions as the editing support system 10.

符号の説明Explanation of symbols

10 編集支援システム
20 対象テキスト
30 発音情報編集装置
35 発音情報記録装置
40 言語処理部
50 辞書格納部
300 取得部
310 表示制御部
320 修正処理部
600 情報処理装置
10 Editing Support System 20 Target Text 30 Pronunciation Information Editing Device 35 Pronunciation Information Recording Device 40 Language Processing Unit 50 Dictionary Storage Unit 300 Acquisition Unit 310 Display Control Unit 320 Correction Processing Unit 600 Information Processing Device

Claims (11)

テキストの発音を示す発音情報の編集を支援するシステムであって、
語句の表層表現、発音情報、および、品詞を対応付けて記録した辞書を格納する辞書格納部と、
発音情報を生成する対象となる対象テキストの表層表現を先頭側から走査して前記辞書に記録されている表層表現と一致する語句を検索し、表層表現と一致した語句の発音情報を生成する言語処理部と、
前記対象テキスト、前記言語処理部によって生成された発音情報、および、前記言語処理部から前記対象テキストに含まれる語句の品詞の候補を取得する取得部と、
品詞の候補として固有名詞を含む語句の発音情報を他の語句の発音情報よりも目立たせて、前記対象テキストに対応付けて表示する表示制御部と、
表示された前記発音情報を利用者の指示に応じて修正し、修正された前記発音情報を前記対象テキストに対応付けて記録装置に記録する修正処理部と
を備えるシステム。
A system that supports editing of pronunciation information indicating the pronunciation of text,
A dictionary storage unit for storing a dictionary in which surface expression of words, pronunciation information, and part of speech are recorded in association with each other;
A language that scans the surface representation of the target text for which pronunciation information is to be generated from the top, searches for the phrase that matches the surface representation recorded in the dictionary, and generates pronunciation information for the phrase that matches the surface representation A processing unit;
The target text, the pronunciation information generated by the language processing unit , and an acquisition unit that acquires candidate parts of speech of words included in the target text from the language processing unit ;
A display control unit that displays pronunciation information of a phrase including a proper noun as a candidate for part of speech, more prominently than pronunciation information of another phrase, in association with the target text; and
A correction processing unit that corrects the displayed pronunciation information in accordance with a user instruction and records the corrected pronunciation information in a recording device in association with the target text.
前記取得部は、前記対象テキストの表層表現に基づいて生成された、前記発音情報の候補を、それぞれの語句について少なくとも1つ取得し、
前記表示制御部は、前記修正処理部が利用者から修正のための操作を受け付けたことに応じ、前記操作の対象となる語句の発音情報の候補を表示する
請求項1に記載のシステム。
The acquisition unit acquires at least one candidate for the pronunciation information generated based on a surface layer representation of the target text for each word,
The system according to claim 1, wherein the display control unit displays pronunciation information candidates of words and phrases to be operated according to the correction processing unit receiving an operation for correction from a user.
記取得部は、前記発音情報の候補を前記辞書から取得し、
前記表示制御部は、前記辞書に複数の発音情報が登録された語句の発音情報を、前記辞書に1つの発音情報が登録された語句の発音情報よりも目立たせて表示する
請求項2に記載のシステム。
Before SL acquisition unit acquires candidates of the sound information from said dictionary,
The display control unit displays the pronunciation information of a phrase in which a plurality of pronunciation information is registered in the dictionary more conspicuously than the pronunciation information of a phrase in which one pronunciation information is registered in the dictionary. System.
前記表示制御部は、品詞の候補として人名を含むことを条件に、当該語句の発音情報を他の語句の発音情報よりも更に目立たせて表示する
請求項1から3のいずれか1項に記載のシステム。
The display controller, on condition that includes a person's name as a part of speech of candidates, according to any one of claims 1 to 3 displayed with further conspicuous than phonetic information pronunciation information other words of the phrase System.
前記辞書は、複合語として予め定められた語句の発音情報を更に登録し、
前記表示制御部は、複合語として登録された語句の発音情報よりも、他の語句の発音情報を目立たせて更に表示する
請求項1から4のいずれか1項に記載のシステム。
The dictionary further registers pronunciation information of a predetermined word as a compound word,
The system according to any one of claims 1 to 4, wherein the display control unit further displays pronunciation information of other words more conspicuously than pronunciation information of words registered as compound words.
前記修正処理部は、ある語句の発音情報の修正に応じ、前記対象テキスト中で当該語句と同一の表層表現を有する他の語句の発音情報を、当該語句の発音情報と同一となるように修正して前記記録装置に記録し、
前記表示制御部は、当該語句の発音情報の修正に応じ、前記対象テキスト中で当該語句と同一の表層表現を有する他の語句の発音情報を、当該語句の発音情報と同一となるように修正して表示する
請求項1から5のいずれか1項に記載のシステム。
The correction processing unit corrects the pronunciation information of another word having the same surface expression as the word in the target text to be the same as the sound information of the word, according to the correction of the pronunciation information of a word. And record in the recording device,
In response to the correction of the pronunciation information of the word, the display control unit corrects the pronunciation information of another word having the same surface expression as the word in the target text to be the same as the pronunciation information of the word The system according to any one of claims 1 to 5 .
前記取得部は、前記対象テキストに、品詞を解析した結果文の区切りと判断された箇所に挿入された読点を含めて取得し、
前記表示制御部は、前記読点に隣接する語句の発音情報を、他の語句の発音情報よりも目立たせて更に表示する
請求項1から6のいずれか1項に記載のシステム。
The acquisition unit acquires the target text including a punctuation mark inserted at a position determined to be a sentence break as a result of analyzing the part of speech;
The system according to any one of claims 1 to 6, wherein the display control unit further displays the pronunciation information of a phrase adjacent to the reading point more prominently than the pronunciation information of another phrase.
前記表示制御部は、予め定められたフォーマットと一致する定型データの発音情報を、他の語句の発音情報よりも目立たせて更に表示する
請求項1から7のいずれか1項に記載のシステム。
The system according to any one of claims 1 to 7, wherein the display control unit further displays the pronunciation information of the standard data that matches a predetermined format, more prominently than the pronunciation information of other words.
前記取得部は、前記対象テキストに含まれる語句毎に算出された当該発音情報の確度を更に取得し、
前記表示制御部は、前記確度がより低い語句の発音情報を、前記確度がより高い語句の発音情報よりも目立たせて、前記対象テキストに対応付けて表示する
請求項1から8のいずれか1項に記載のシステム。
The acquisition unit further acquires the accuracy of the pronunciation information calculated for each word included in the target text,
The display controller, a sound information of the accuracy is lower word, said accuracy is not conspicuous than higher phrase pronunciation information, any one of claims 1 to 8 to be displayed in association with the target text 1 The system described in the section .
テキストの発音を示す発音情報の編集を支援するシステムとして、情報処理装置を機能させるプログラムであって、
前記情報処理装置を、
語句の表層表現、発音情報、および、品詞を対応付けて記録した辞書を格納する辞書格納部と、
発音情報を生成する対象となる対象テキストの表層表現を先頭側から走査して前記辞書に記録されている表層表現と一致する語句を検索し、表層表現と一致した語句の発音情報を生成する言語処理部と、
前記対象テキスト、前記言語処理部によって生成された発音情報、および、前記言語処理部から前記対象テキストに含まれる語句の品詞の候補を取得する取得部と、
品詞の候補として固有名詞を含む語句の発音情報を他の語句の発音情報よりも目立たせて、前記対象テキストに対応付けて表示する表示制御部と、
表示された前記発音情報を利用者の指示に応じて修正し、修正された前記発音情報を前記対象テキストに対応付けて記録装置に記録する修正処理部と
して機能させるプログラム。
A program that causes an information processing device to function as a system that supports editing of pronunciation information indicating the pronunciation of text,
The information processing apparatus;
A dictionary storage unit for storing a dictionary in which surface expression of words, pronunciation information, and part of speech are recorded in association with each other;
A language that scans the surface representation of the target text for which pronunciation information is to be generated from the top, searches for the phrase that matches the surface representation recorded in the dictionary, and generates pronunciation information for the phrase that matches the surface representation A processing unit;
The target text, the pronunciation information generated by the language processing unit , and an acquisition unit that acquires candidate parts of speech of words included in the target text from the language processing unit ;
A display control unit that displays pronunciation information of a phrase including a proper noun as a candidate for part of speech, more prominently than pronunciation information of another phrase, in association with the target text; and
A program that functions as a correction processing unit that corrects the displayed pronunciation information according to a user instruction and records the corrected pronunciation information in association with the target text in a recording device.
テキストの発音を示す発音情報の編集を支援する方法であって、
語句の表層表現、発音情報、および、品詞を対応付けて記録した辞書を格納する辞書格納ステップと、
発音情報を生成する対象となる対象テキストの表層表現を先頭側から走査して前記辞書に記録されている表層表現と一致する語句を検索し、表層表現と一致した語句の発音情報を生成する言語処理ステップと、
前記対象テキスト、前記言語処理ステップによって生成された発音情報、および、前記言語処理ステップから前記対象テキストに含まれる語句の品詞の候補を取得する取得ステップと、
品詞の候補として固有名詞を含む語句の発音情報を他の語句の発音情報よりも目立たせて、前記対象テキストに対応付けて表示する表示ステップと、
表示された前記発音情報を利用者の指示に応じて修正し、修正された前記発音情報を前記対象テキストに対応付けて記録装置に記録する修正処理ステップと
を備える方法。
A method for supporting editing of pronunciation information indicating the pronunciation of a text,
A dictionary storing step for storing a dictionary in which the surface expression of words, pronunciation information, and parts of speech are recorded in association with each other;
A language that scans the surface representation of the target text for which pronunciation information is to be generated from the top, searches for the phrase that matches the surface representation recorded in the dictionary, and generates pronunciation information for the phrase that matches the surface representation Processing steps;
The target text, sound information generated by the language processing steps, and, the steps of acquiring part of speech of candidate phrases contained in the target text from the language processing step,
A display step of making the pronunciation information of a phrase including a proper noun as a candidate for part of speech stand out from the pronunciation information of another phrase and displaying it in association with the target text;
A correction processing step of correcting the displayed pronunciation information according to a user's instruction, and recording the corrected pronunciation information in a recording device in association with the target text.
JP2006018063A 2006-01-26 2006-01-26 A system that supports editing of pronunciation information given to text Expired - Fee Related JP4859101B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2006018063A JP4859101B2 (en) 2006-01-26 2006-01-26 A system that supports editing of pronunciation information given to text
CN2007100044550A CN101009094B (en) 2006-01-26 2007-01-23 System and method for support pronunciation information editing

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006018063A JP4859101B2 (en) 2006-01-26 2006-01-26 A system that supports editing of pronunciation information given to text

Publications (2)

Publication Number Publication Date
JP2007199410A JP2007199410A (en) 2007-08-09
JP4859101B2 true JP4859101B2 (en) 2012-01-25

Family

ID=38454084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006018063A Expired - Fee Related JP4859101B2 (en) 2006-01-26 2006-01-26 A system that supports editing of pronunciation information given to text

Country Status (2)

Country Link
JP (1) JP4859101B2 (en)
CN (1) CN101009094B (en)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5838781B2 (en) * 2011-12-20 2016-01-06 富士通株式会社 Compound word reading display method and program, and reading generation apparatus
JP2014191587A (en) * 2013-03-27 2014-10-06 Fujitsu Ltd Program, conversion method and information processor
JP6290230B2 (en) 2013-10-10 2018-03-07 株式会社東芝 Transliteration work support device, transliteration work support method, and program
JP6336749B2 (en) * 2013-12-18 2018-06-06 株式会社日立超エル・エス・アイ・システムズ Speech synthesis system and speech synthesis method
WO2015162737A1 (en) 2014-04-23 2015-10-29 株式会社東芝 Transcription task support device, transcription task support method and program
CN107909993A (en) * 2017-11-27 2018-04-13 安徽经邦软件技术有限公司 A kind of intelligent sound report preparing system
JP7320976B2 (en) * 2019-04-18 2023-08-04 株式会社河合楽器製作所 Lyrics editing device and lyrics editing program
CN110767209B (en) * 2019-10-31 2022-03-15 标贝(北京)科技有限公司 Speech synthesis method, apparatus, system and storage medium
WO2023149644A1 (en) * 2022-02-03 2023-08-10 삼성전자주식회사 Electronic device and method for generating customized language model
CN115470753B (en) * 2022-09-27 2024-01-02 广州优谷信息技术有限公司 Method, system, device and storage medium for displaying guide text

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3230868B2 (en) * 1992-12-28 2001-11-19 株式会社リコー Speech synthesizer
JPH06223058A (en) * 1993-01-26 1994-08-12 Sharp Corp Japanese processor
JPH06308998A (en) * 1993-04-26 1994-11-04 Nippon Telegr & Teleph Corp <Ntt> Voice reading-aloud device
JPH0773174A (en) * 1993-06-29 1995-03-17 Texas Instr Inc <Ti> Processing system of japanese language
JP3483230B2 (en) * 1995-10-20 2004-01-06 株式会社リコー Utterance information creation device
JPH11305987A (en) * 1998-04-27 1999-11-05 Matsushita Electric Ind Co Ltd Text voice converting device
JP2002207728A (en) * 2001-01-12 2002-07-26 Fujitsu Ltd Phonogram generator, and recording medium recorded with program for realizing the same
EP1237094A1 (en) * 2001-01-22 2002-09-04 Sun Microsystems, Inc. A method for determining rubies
JP2003140679A (en) * 2001-11-06 2003-05-16 Mitsubishi Electric Corp Voice synthesizer and method, and computer-readable recording medium with program making computer perform voice synthesis processing recorded thereon
JP2004054794A (en) * 2002-07-23 2004-02-19 Nec Access Technica Ltd Portable mobile communication terminal and mail character conversion method in the same
JP2004139530A (en) * 2002-10-21 2004-05-13 Osaka Gas Co Ltd Reading correction program
KR100463655B1 (en) * 2002-11-15 2004-12-29 삼성전자주식회사 Text-to-speech conversion apparatus and method having function of offering additional information

Also Published As

Publication number Publication date
CN101009094A (en) 2007-08-01
CN101009094B (en) 2011-06-29
JP2007199410A (en) 2007-08-09

Similar Documents

Publication Publication Date Title
JP4859101B2 (en) A system that supports editing of pronunciation information given to text
JP4559946B2 (en) Input device, input method, and input program
JP3945778B2 (en) Setting device, program, recording medium, and setting method
KR101255402B1 (en) Redictation 0f misrecognized words using a list of alternatives
KR100378898B1 (en) A pronunciation setting method, an articles of manufacture comprising a computer readable medium and, a graphical user interface system
US20060149557A1 (en) Sentence displaying method, information processing system, and program product
JPH03224055A (en) Method and device for input of translation text
JP2002117026A (en) Method and system for filtration and selection from candidate list generated by probabilistic input method
JP5787780B2 (en) Transcription support system and transcription support method
JP2008209717A (en) Device, method and program for processing inputted speech
JP2006277677A (en) Communication support device, method, and program
JP2006178087A (en) Caption generator, retrieval device, method for integrating document processing and speech processing together, and program
JP6150268B2 (en) Word registration apparatus and computer program therefor
EP1611570B1 (en) System for correction of speech recognition results with confidence level indication
JP5106608B2 (en) Reading assistance apparatus, method, and program
US20200394258A1 (en) Generation of edited transcription for speech audio
JP4738847B2 (en) Data retrieval apparatus and method
JP4048169B2 (en) A system to support text input by automatic space generation
US9798804B2 (en) Information processing apparatus, information processing method and computer program product
JP2009059159A (en) Information processor, information processing method and program
JP6676093B2 (en) Interlingual communication support device and system
JP5629543B2 (en) Character string conversion device, character string conversion method, computer program, and recording medium
JP2006031725A (en) Character processor
JP2006309469A (en) Retrieval device, retrieval method, program, and computer-readable recording medium
JP2014137636A (en) Information retrieval apparatus and information retrieval method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20080926

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110608

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20111018

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

RD14 Notification of resignation of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7434

Effective date: 20111019

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20111028

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20141111

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees