WO2012023450A1 - テキスト処理システム、テキスト処理方法およびテキスト処理プログラム - Google Patents

テキスト処理システム、テキスト処理方法およびテキスト処理プログラム Download PDF

Info

Publication number
WO2012023450A1
WO2012023450A1 PCT/JP2011/068008 JP2011068008W WO2012023450A1 WO 2012023450 A1 WO2012023450 A1 WO 2012023450A1 JP 2011068008 W JP2011068008 W JP 2011068008W WO 2012023450 A1 WO2012023450 A1 WO 2012023450A1
Authority
WO
WIPO (PCT)
Prior art keywords
text
analysis result
analysis
unit
break
Prior art date
Application number
PCT/JP2011/068008
Other languages
English (en)
French (fr)
Inventor
長田 誠也
健 花沢
隆行 荒川
岡部 浩司
田中 大介
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to JP2012529568A priority Critical patent/JPWO2012023450A1/ja
Priority to US13/814,611 priority patent/US20130144609A1/en
Publication of WO2012023450A1 publication Critical patent/WO2012023450A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/12Use of codes for handling textual entities
    • G06F40/131Fragmentation of text files, e.g. creating reusable text-blocks; Linking to fragments, e.g. using XInclude; Namespaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/53Processing of non-Latin text
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems

Definitions

  • the present invention relates to a text processing system, a text processing method, and a text processing program for processing text.
  • a text processing system for processing text decomposes the text into sentence elements and analyzes them. Further, the text processing system recognizes a sentence break.
  • Patent Document 2 A text processing system that recognizes voice streaming in near real time and performs text processing for each predetermined unit is also well known. Such a text processing system using speech recognition needs to accurately find a predetermined unit break of stream-like text that does not include a punctuation such as a speech recognition result.
  • Patent Document 1 assigns a plurality of grammatical rules to sentence elements that are separated, and cannot accurately find stream-like text breaks.
  • Patent Document 2 requires exchange between the terminal on its own side and the interactive translation main body, and processing in real time is difficult.
  • Non-Patent Document 1 analyzes a dependency based on a node boundary to determine a summary unit.
  • the method of Non-Patent Document 1 described above has the following problems.
  • the method of Non-Patent Document 1 determines the summary unit after analyzing the dependency structure of not only the portion determined as the summary unit but also the subsequent portion. Therefore, when the method of Non-Patent Document 1 determines the next summarization unit, the above-mentioned latter part that becomes a part of the next summarization unit is analyzed again, resulting in low processing efficiency. There was a problem.
  • An object of the present invention is to provide a text processing system that solves the reduction in processing efficiency in the case of analyzing text that does not include break information, which is the above-described problem.
  • a text processing system generates linked data by concatenating acquired text after an analysis result to be linked that is an analysis result of text acquired before the text.
  • Linking means for analyzing the linking data using at least a part of the linking target analysis result, and determining a break of a predetermined unit included in the linking data based on the analysis result of the analyzing means
  • the connection target analysis result is an analysis result after the break determined by the determination unit.
  • the text processing method generates the concatenated data by concatenating the acquired text after the concatenation target analysis result that is the analysis result of the text acquired before the text,
  • the connected data is subjected to language analysis using at least a part of the target analysis result, a predetermined unit break included in the connected data is determined based on the analysis result, and the connection target analysis result is determined It is the analysis result behind the break.
  • the text processing program is a process for generating linked data by connecting the acquired text behind a link target analysis result that is an analysis result of the text acquired before the text; A process of performing language analysis on the connected data using at least a part of the connection target analysis result, a process of determining a predetermined unit break included in the connection data based on the analysis result, and the connection target analysis result , Causing the computer to execute a process that is an analysis result after the determined break.
  • FIG. 1 is a diagram showing an example of a hardware configuration of a text processing system 1 according to the first embodiment of the present invention.
  • a text processing system 1 includes a CPU (Central Processing Unit) 10, a memory 12, a hard disk drive (HDD: Hard Disk Drive) 14, and a communication interface (IF: data communication) via a network (not shown).
  • Interface 16
  • display device 18 such as a display
  • input device 20 including a pointing device such as a keyboard and a mouse.
  • FIG. 2 is a block diagram illustrating an example of a logical or functional configuration example of the text processing system 1 according to the first embodiment. As shown in FIG.
  • the text processing system 1 includes a connection unit 30, an analysis unit 32, and a determination unit 34.
  • the functions of the text processing system 1 are realized by, for example, loading a program into the memory 12 (see FIG. 1) and executing the program by the CPU 10. Note that all or some of the functions of the text processing system 1 may be realized using hardware.
  • the text processing system 1 may also include a recording medium (not shown) that stores a program executed by a computer such as the CPU 10.
  • the linking means 30 concatenates the acquired text (hereinafter referred to as “acquired text”) with the data (hereinafter referred to as “link target analysis result”) concatenated after the analysis result of the text acquired earlier (hereinafter referred to as “link target analysis result”).
  • connection target analysis result is data output by the determination unit 34 described later.
  • connection unit 30 outputs the acquired text to the analysis unit 32 as connection data when there is no analysis result of the previously acquired text, for example, when the text is first acquired.
  • the analysis unit 32 receives the connection data from the connection unit 30 and performs language analysis.
  • the analysis unit 32 uses a syntax analysis method such as a CYK (Cocke-Younger-Kasami) method or a chart method based on CFG (Context-Free Grammar) rules.
  • the analysis means 32 may use methods, such as morphological analysis (Morphological Analysis), such as Japanese and Chinese, and a part of speech tagger (Part-of-Speech Tagger), as language analysis.
  • the analysis unit 32 uses at least a part of the connection target analysis result included in the connection data as it is, that is, without reanalysis, when performing language analysis on the connection data. For example, when a partial tree structure is obtained as a connection target analysis result, the analysis unit 32 uses the closed partial tree in the connection target analysis result as it is, and performs language analysis on the connection data.
  • the determination unit 34 determines the break of the predetermined unit of the linked data analysis result based on the structure of the predetermined unit included in the result analyzed by the analyzing unit 32 (hereinafter referred to as “linked data analysis result”). Specifically, the determination unit 34 determines that the structure before the last predetermined unit is a break. The determination unit 34 treats a clause, a section, a sentence, a paragraph, and the like as a predetermined unit of the linked data analysis result. Further, the determination means 34 outputs the analysis result after the break (this is the above “connection object analysis result”) to the connection means 30 among the connection data analysis results.
  • the connection target analysis result is a portion determined to constitute a part of a predetermined unit of the next acquired text.
  • the determination unit 34 outputs the analysis result before the break (hereinafter referred to as “predetermined unit analysis result”) to the display device 18 among the connected data analysis results.
  • the predetermined unit analysis result is a portion determined to be established as a predetermined unit.
  • the determination unit 34 may output a text portion that does not include the result of the language analysis based on the analysis unit 32 to the display device 18.
  • the determination unit 34 may store the predetermined unit analysis result in the memory 12 or the HDD 14 or may output the result to another computer via the communication IF 16. Note that the determination unit 34 determines that there is no break when the linked data analysis result does not include a predetermined unit structure. Then, the determination unit 34 outputs the entire connection data analysis result to the connection unit 30.
  • FIG. 3 is a flowchart showing an example of the operation of the first embodiment.
  • the connection means 30 acquires a text (step A1).
  • the connection means 30 connects the acquired text to the back of the connection target analysis result to generate connection data (step A2).
  • the connection unit 30 outputs the connection data to the analysis unit 32.
  • the connecting means 30 uses the acquired text as connection data.
  • the analysis unit 32 performs language analysis on the connection data connected by the connection unit 30 (step A3).
  • the analysis unit 32 outputs a connected data analysis result, which is a result of language analysis, to the determination unit 34.
  • the determination unit 34 determines a predetermined unit break of the connected data analysis result analyzed by the analysis unit 32 (step A4). Further, the determination unit 34 outputs a predetermined unit analysis result that is a portion before the break among the connected data analysis results to the display device 18. (Step A5). Furthermore, the determination unit 34 outputs the connection target analysis result, which is the analysis result after the break, to the connection unit 30 (step A6).
  • the connecting means 30 acquires the next text from the portion immediately after the text acquired in the previous step A1.
  • the text processing system 1 ends the operation.
  • the connecting unit 30 displays the finally acquired connection target analysis result of the newly input text. It may be concatenated with the first acquired text.
  • the text processing system 1 concatenates the next text to the connection target analysis result, which is a part behind a predetermined unit break, and performs at least a part of the connection target analysis result when performing language analysis. Use it as it is for language analysis.
  • FIG. 4 is a block diagram illustrating an example of a configuration example of the text processing system according to the second embodiment. Referring to FIG. 4, the second embodiment of the present invention is different from the first embodiment in that a dividing unit 36 is added. Therefore, a detailed description of the other configuration excluding the dividing unit 36 is omitted.
  • the dividing unit 36 divides a text (hereinafter referred to as “input text”) input from the input device 20 (see FIG. 1) to obtain an acquired text.
  • the dividing means 36 may divide the text for every fixed number of characters or words. Further, when text is input in a streaming format, the dividing unit 36 may divide the text by dividing the text in the streaming format at regular intervals.
  • the connecting means 30 sequentially acquires the text divided by the dividing means 36 as the acquired text. Other configurations including the connecting means 30 operate in the same manner as in the first embodiment. Next, the effect of this embodiment will be described.
  • a predetermined unit of text that does not include break information can be determined and output at high speed.
  • FIG. 5 is a block diagram illustrating an example of a configuration example of the text processing system according to the third embodiment.
  • the third embodiment of the present invention is different from the second embodiment in that voice recognition means 38 is added. Therefore, a detailed description of the other configuration excluding the voice recognition unit 38 is omitted.
  • the input device 20 (refer FIG. 1) in this Embodiment is comprised, for example with a microphone.
  • Voice data (hereinafter referred to as “input voice”) is input from the input device 20 to the voice recognition means 38.
  • the speech recognition means 38 sequentially recognizes the input speech and outputs a text as a result of speech recognition (hereinafter referred to as “speech recognition text”).
  • the dividing unit 36 receives the voice recognition text as input text, divides it, and outputs the acquired text.
  • input text includes speech recognition text.
  • Other configurations operate in the same manner as in the second embodiment.
  • the speech recognition means 38 and the dividing device 36 may be configured as a single speech recognition device.
  • FIG. 6 is a block diagram illustrating an example of a configuration example of the text processing system according to the fourth embodiment.
  • the fourth embodiment is different from the third embodiment in that the voice recognition unit 38 outputs not only the voice recognition text but also the acoustic information obtained at the time of voice recognition, and the determination unit 34.
  • the difference is that the acoustic information is used for determination.
  • the acoustic information is, for example, the pause length of the input voice.
  • the determination unit 34 determines a point where the gap between the words can be a break from the syntax analysis result, and further, when the pause length between the words is long, It is determined that there is a break between words.
  • the acoustic information may be speaker information.
  • the determination unit 34 determines the point where the speaker has changed using the speaker information given to the speech recognition result, and determines that point as a break.
  • the dividing unit 36 of the fourth embodiment may divide the input text (speech recognition text) using acoustic information.
  • the determination unit 34 also uses acoustic information when determining a break. Based on the use of the acoustic information, the fourth embodiment can determine the break more accurately than the third embodiment that determines without using the acoustic information. (Embodiment 5) FIG.
  • the text processing means 40 text-processes the predetermined unit analysis result output from the determination means 34. For example, the text processing unit 40 translates the predetermined unit analysis result and outputs the processing result data. Further, the text processing means 40 may synthesize speech using the predetermined unit analysis result and output the speech of the predetermined unit analysis result as processing result data. Further, the text processing means 40 may extract reputation information using a predetermined unit analysis result and output it as processing result data.
  • FIG. 8 is a block diagram illustrating an example of a configuration example of the text processing system according to the sixth embodiment.
  • the sixth embodiment has a configuration in which the fourth embodiment and the fifth embodiment are combined. Since the operation of each component is as described in the fourth embodiment and the fifth embodiment, detailed description thereof is omitted. Next, effects of the sixth exemplary embodiment of the present invention will be described.
  • the input device 20 is a keyboard.
  • the personal computer has a CPU 10, a memory 12, and an HDD 14.
  • the display device 18 is a display.
  • the communication IF 16 is omitted in the description of this embodiment. First, the input text “he saw the girl with the bag she had the big bag” is input to the dividing unit 36 from the keyboard which is the input device 20.
  • the dividing means 36 divides the input text into six words, for example, with a space as a word break.
  • the connection unit 30 acquires “he saw the girl with the”, which is the first part divided by the division unit 36, as an acquisition text, Connect to the analysis result to be linked, which is the analysis result. However, since there is no connection target analysis result at this time, the connection data is “he saw the girl with the” of the acquired text.
  • the analysis unit 32 performs language analysis on the connection data. In the present embodiment, the analysis unit 32 performs syntax analysis by CYK method, chart method, or the like based on CFG (context free grammar) rules as language analysis.
  • the CFG rule is expressed in the form of “A ⁇ ⁇ ”.
  • the analyzing means 32 includes “S ⁇ NP + VP”, “VP ⁇ VP + NP”, “NP ⁇ NP + PP”, “NP ⁇ det + noun”, “NP ⁇ adj + NP”, “PP ⁇ prep + NP”, “NP ⁇ noun”.
  • S is a sentence
  • NP is a noun phrase
  • VP is a verb phrase
  • PP is a past participle
  • det is a determiner
  • noun is a noun
  • adj is an adjective
  • prep is a preposition
  • verb is a verb.
  • the determination unit 34 determines a sentence. In more detail, when the highest node has a structure of [S, S,..., S, X], the determination unit 34 determines that the structure of S that is to the left of the last S is a sentence.
  • S indicates a sentence
  • X indicates a sequence of non-terminal symbols other than S.
  • the determination unit 34 determines that the first S is a sentence when the analysis result is [S, S, X], and the last [S, X] when [S, S,..., S, S, X].
  • Each part other than S is determined as one sentence.
  • the determination unit 34 determines that there is no sentence when the analysis result is [S, X].
  • the highest node in the analysis result of FIG. 9 is [S, prep, det]. Therefore, the analysis result of FIG. 9 is in the form of [S, X]. Therefore, the determination unit 34 determines that there is no sentence. Therefore, the determination unit 34 outputs nothing to the display device 18.
  • the determination unit 34 outputs “(he (saw (the girl))) with the”, which is the entire analysis result, to the connection unit 30 as a connection target analysis result.
  • the connection means 30 acquires the text following the first acquired text. That is, the connecting means 30 acquires “bag she had the big bag”, which is six words from the seventh word to the twelfth word. Further, the connecting means 30 connects the text after the connection target analysis result “(he (saw (the girl))) with the” including the structure of the subtree, and generates the connection data.
  • the analysis unit 32 performs language analysis on the connection data. Here, the subtree closed within the six words of “he saw the girl with the” from the first word to the sixth word is created by the previous analysis.
  • the analysis unit 32 does not create the subtree in the current analysis.
  • the closed subtree is specifically a portion corresponding to two NPs in FIG.
  • the analysis means 32 analyzes the other part and outputs the analysis result (see FIG. 10).
  • This structure is expressed as “(he (saw ((the girl) (with (the bag)))) (she (had (the (big bag)))”.
  • the determination unit 34 determines that the leftmost S is a sentence. Therefore, the determination unit 34 outputs “he saw the girl with the bag” determined as a sentence to the display device 18 as a unit.
  • the determination unit 34 outputs the analysis result “(she (had (the (big bag)))” after the sentence break to the connection unit 30 as the connection target analysis result.
  • the connection means 30 connects the text acquired next and this connection object analysis result, and produces
  • the voice recognition means 38 and the dividing device 36 are configured as a single voice recognition device.
  • the speech recognition apparatus recognizes input speech and obtains speech recognition text and acoustic information (in this embodiment, a pause length). Then, when it is detected that a pause of a predetermined time or more has entered the input voice based on the pause length of the acoustic information, the voice recognition device sequentially outputs the acquired text while separating the voice recognition text at the pause. That is, the voice recognition device has both functions of the voice recognition means 38 and the dividing device 36.
  • the input device 20 of the present embodiment is a microphone. When a voice “he saw the girl with the bag she has the big bag” is input from the microphone, the voice recognition device converts the voice into voice recognition text.
  • the speech recognition device divides the speech recognition text at that location and outputs it to the connection means 30 as the acquired text. . Therefore, the connecting means 30 first acquires the text “he saw the girl with the”, and then acquires “bag she had the big bag”. Thereafter, as in the first embodiment, the analysis unit 32 analyzes the connected text “he saw the girl with the”. Further, the determination unit 34 determines that the sentence is not included in the analysis result of the connected text, and connects “(he (saw (the girl))) with the” as the connection target analysis result. Output to means 30.
  • connection means 30 acquires “bag she had the big bag”, which is the next acquired text, and connects it to the analysis result of the connection target (“(he (saw (the girl))) with the”). Thereafter, as in the first embodiment, the determination unit 34 outputs “he saw the girl with the bag” determined as a sentence to the text processing unit 40 as a predetermined unit analysis result.
  • the text processing means 40 translates the predetermined unit analysis result in sentence units, and outputs the translation result to the display which is the display device 18.
  • the analysis means 32 of the present embodiment analyzes the connection data connected by the connection means 30.
  • the determination unit 34 determines a break using the analysis result of the analysis unit 32 and outputs a result determined as a sentence.
  • the text processing means 40 translates the output of the determination means 34. Therefore, even if the speech recognition apparatus of the present embodiment outputs the speech recognition result as acquired text based on the pause length different from the sentence unit for the input stream speech, the text processing means 40 The text can be translated at sentence speed. While the present invention has been described with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention. This application claims the priority on the basis of Japanese application Japanese Patent Application No. 2010-183996 for which it applied on August 19, 2010, and takes in those the indications of all here.

Abstract

 切れ目情報が含まれないテキストの解析において、処理効率の低下を防止できるテキスト処理システムを提供する。 本発明のテキスト処理システムは、取得したテキストをそのテキストより前に取得したテキストの解析結果である連結対象解析結果の後ろに連結して連結データを生成する連結手段と、連結対象解析結果の少なくとも一部を用いて連結データを言語解析する解析手段と、解析手段の解析結果を基に連結データに含まれる所定の単位の切れ目を判定する判定手段とを含み、連結対象解析結果は、判定手段で判定された切れ目より後ろの解析結果である。

Description

テキスト処理システム、テキスト処理方法およびテキスト処理プログラム
 本発明は、テキストを処理するテキスト処理システム、テキスト処理方法およびテキスト処理プログラムに関する。
 テキストを処理するテキスト処理システムは、テキストを文要素に分解して解析する。(例えば、特許文献1参照)さらに、テキスト処理システムは、文の切れ目を認識する。(例えば、特許文献2参照)
 また、音声ストリーミングをほぼリアルタイムで音声認識して、所定の単位ごとにテキスト処理するテキスト処理システムも、よく知られている。このような音声認識を用いるテキスト処理システムは、音声認識結果のような句点を含まない、ストリーム的なテキストの所定の単位の切れ目を、精度良く見つけることが必要である。
 しかし、特許文献1は、区切った文要素に対して、複数の文法規則を割り当てるものであり、ストリーム的なテキストの切れ目を精度よく見つけることができない。
 また、特許文献2は、自分側端末と対話翻訳本体部とのやり取りが必要であり、リアルタイムでの処理が難しい。
 そこで、ストリーム的なテキストの所定の単位の切れ目を、精度良く見つけテキスト処理システムとして、節境界を解析するものがある。(例えば、非特許文献1参照)
 非特許文献1は、節境界に基づく係り受けを解析して、要約単位を判定する。
特開2010−079705 特開平04−055978 大野 誠寛,松原 茂樹,柏岡 秀紀,加藤 直人,稲垣 康善:同時的な独話音声要約に基づくリアルタイム字幕生成,情報処理学会研究報告,SLP−62−10,pp.51−56,July 7−8,2006.
 しかし、上述した非特許文献1の手法には、以下のような問題点があった。
 非特許文献1の手法は、要約単位として判定する部分だけでなく、その後ろの部分の係り受け構造を解析してから、要約単位を判定する。よって、非特許文献1の手法は、次の要約単位を判定する際に、再度、次の要約単位の一部となる上記の後ろの部分を再度解析するため、処理効率が低くなってしまうという問題があった。
 本発明の目的は、上述した課題である、切れ目情報を含まないテキストを解析する場合においての処理効率の低下を解決する、テキスト処理システムを提供することにある。
 かかる目的を達成するため、本発明の一形態であるテキスト処理システムは、取得したテキストを当該テキストより前に取得したテキストの解析結果である連結対象解析結果の後ろに連結して連結データを生成する連結手段と、前記連結対象解析結果の少なくとも一部を用いて前記連結データを言語解析する解析手段と、前記解析手段の解析結果を基に前記連結データに含まれる所定の単位の切れ目を判定する判定手段とを含み、前記連結対象解析結果は、前記判定手段で判定された切れ目より後ろの解析結果である。
 また、本発明の他の形態であるテキスト処理方法は、取得したテキストを当該テキストより前に取得したテキストの解析結果である連結対象解析結果の後ろに連結して連結データを生成し、前記連結対象解析結果の少なくとも一部を用いて前記連結データを言語解析し、前記解析結果を基に前記連結データに含まれる所定の単位の切れ目を判定し、前記連結対象解析結果が、前記判定された切れ目より後ろの解析結果である。
 さらに、本発明の他の形態であるテキスト処理プログラムは、取得したテキストを当該テキストより前に取得したテキストの解析結果である連結対象解析結果の後ろに連結して連結データ生成する処理と、前記連結対象解析結果の少なくとも一部を用いて前記連結データを言語解析する処理と、前記解析結果に基づいて前記連結データに含まれる所定の単位の切れ目を判定する処理と、前記連結対象解析結果が、前記判定された切れ目より後ろの解析結果である処理をコンピュータに実行させる。
 本発明に基づけば、切れ目情報が含まれないテキストを解析する場合において、処理効率の低下を解決できる。
本発明の第1の実施の形態に係るハードウェア構成図である。 本発明の第1の実施の形態の構成を示すブロック図である。 本発明の第1の実施の形態の動作を示す流れ図である。 本発明の第2の実施の形態の構成を示すブロック図である。 本発明の第3の実施の形態の構成を示すブロック図である。 本発明の第4の実施の形態の構成を示すブロック図である。 本発明の第5の実施の形態の構成を示すブロック図である。 本発明の第6の実施の形態の構成を示すブロック図である。 本発明の第1の実施例を説明するための図である。 本発明の第1の実施例を説明するための図である。
 (実施の形態1)
 図1は、本発明の第1の実施の形態に係るテキスト処理システム1のハードウェア構成の一例の図である。
 図1に示すように、テキスト処理システム1は、CPU(Central Processing Unit)10、メモリ12、ハードディスクドライブ(HDD:Hard Disk Drive)14、図示しないネットワークを介してデータを通信する通信インタフェース(IF:Interface)16、ディスプレイ等の表示装置18、および、キーボードやマウス等のポインティングデバイスを含む入力装置20を含む。これらの構成要素は、バス22を介して互いに接続し、データを入出力する。
 図2は、第1の実施の形態のテキスト処理システム1の論理的または機能的な構成例の一例を示すブロック図である。図2に示すように、テキスト処理システム1は、連結手段30、解析手段32および判定手段34を含む。テキスト処理システム1の機能は、例えば、プログラムがメモリ12(図1参照)にロードされ、CPU10がそのプログラムを実行して、実現される。なお、テキスト処理システム1の全部または一部の機能は、ハードウェアを用いて実現されてもよい。
 また、テキスト処理システム1は、CPU10のようなコンピュータで実行するプログラムを記憶する図示しない記録媒体を含んでいても良い。
 連結手段30は、取得したテキスト(以下、「取得テキスト」と呼ぶ)を、それより前に取得したテキストの解析結果(以下、「連結対象解析結果」と呼ぶ)の後ろに連結したデータ(以下、「連結データ」と呼ぶ)を生成し、解析手段32に出力する。この連結対象解析結果は、後述する判定手段34が出力するデータである。なお、連結手段30は、例えばテキストを最初に取得した場合のように、前に取得したテキストの解析結果がない場合、取得したテキストを連結データとして解析手段32に出力する。
 解析手段32は、連結手段30から連結データを受け取り、言語解析する。言語解析として、例えば、解析手段32は、CFG(Context−Free Grammar:文脈自由文法)のルールに基づいたCYK(Cocke−Younger−Kasami)法やチャート(Chart)法の構文解析手法を用いる。また、解析手段32は、言語解析として、日本語や中国語などの形態素解析(Morphological Analysis)、品詞タガー(Part−of−Speech Tagger)などの手法を用いてもよい。
 ここで、解析手段32は、連結データに対して言語解析する際、連結データに含まれる連結対象解析結果の少なくとも一部を、そのまま、つまり再解析しないで、利用する。例えば、連結対象解析結果として部分木の構造が得られているときに、解析手段32は、その連結対象解析結果内で閉じた部分木をそのまま利用し、連結データを言語解析する。
 判定手段34は、解析手段32が解析した結果(以下、「連結データ解析結果」と呼ぶ)に含まれる所定の単位の構造に基づいて、連結データ解析結果の所定の単位の切れ目を判定する。具体的には、判定手段34は、最後の所定の単位の構造の前を、切れ目と判定する。また、判定手段34は、文節、節、文、段落などを連結データ解析結果の所定の単位として扱う。
 さらに、判定手段34は、連結データ解析結果のうち、切れ目より後ろの解析結果(これが、上記の「連結対象解析結果」である。)を連結手段30に出力する。連結対象解析結果は、次に取得したテキストの所定の単位の一部を構成すると判定された部分である。
 また、判定手段34は、連結データ解析結果のうち、切れ目より前の解析結果(以下、「所定単位解析結果」と呼ぶ)を表示装置18に出力する。所定単位解析結果は、所定の単位として成立すると判定された部分である。なお、判定手段34は、解析手段32に基づく言語解析の結果を含まないテキスト部分を表示装置18に出力してもよい。また、判定手段34は、所定単位解析結果をメモリ12やHDD14に記憶してもよいし、通信IF16を介して他のコンピュータに出力してもよい。
 なお、判定手段34は、連結データ解析結果に所定の単位の構造が含まれない場合、切れ目がないと判定する。そして、判定手段34は、連結データ解析結果の全体を連結手段30に出力する。
 次に、本発明を実施するための第1の実施の形態の動作について詳細に説明する。
 図3は、第1の実施の形態の動作の一例を示す流れ図である。
 図3に示すように、連結手段30は、テキストを取得する(ステップA1)。
 次に、連結手段30は、取得したテキストを、連結対象解析結果の後ろに連結して、連結データを生成する(ステップA2)。そして、連結手段30は、連結データを解析手段32に出力する。なお、連結手段30が、最初にテキストを取得した際は、それより前に取得したテキストの解析結果がない。そのため、連結手段30は、取得したテキストを連結データとする。
 解析手段32は、連結手段30が連結した連結データを言語解析する(ステップA3)。解析手段32は、言語解析の結果である、連結データ解析結果を判定手段34に出力する。
 判定手段34は、解析手段32が解析した連結データ解析結果の所定の単位の切れ目を判定する(ステップA4)。
 さらに、判定手段34は、連結データ解析結果のうち、切れ目より前の部分である所定単位解析結果を表示装置18に出力する。(ステップA5)。
 さらに、判定手段34は、切れ目より後ろの解析結果である連結対象解析結果を連結手段30に出力する(ステップA6)。
 ここで、連結手段30は、入力装置20から入力されたテキストの全てが取得されていない場合(ステップA7でNO)、前のステップA1で取得したテキストの直後の部分から、次のテキストを取得する(ステップA1)。
 一方、連結手段30が、入力装置20から入力されたテキストの全てを取得した場合(ステップA7でYES)、テキスト処理システム1は、動作を終了する。
 なお、取得したテキストに続くテキストが、動作終了後に入力装置20から連結手段30に新たに入力された場合、連結手段30は、最後に取得した連結対象解析結果を、新たに入力されたテキストの最初に取得するテキストと連結してもよい。
 次に、本実施の形態の効果について説明する。
 本実施の形態に係るテキスト処理システム1は、所定の単位の切れ目の後ろの部分である連結対象解析結果に次のテキストを連結し、言語解析する際に、連結対象解析結果の少なくとも一部をそのまま用いて言語解析する。このように、本実施の形態に係るテキスト処理システム1は、切れ目の後ろの部分の少なくとも一部が複数回解析されることを防止する。このため、本実施の形態のテキスト処理システム1は、切れ目情報が含まれないテキストを解析する場合において、処理効率の低下を解決できる。その結果、本実施の形態に係るテキスト処理システム1は、高速に、切れ目情報が含まれないテキストの所定の単位を判定し、出力できる。
(実施の形態2)
 図4は、第2の実施の形態のテキスト処理システムの構成例の一例を示すブロック図である。図4を参照すると、本発明の第2の実施の形態は、第1の実施の形態と比較して、分割手段36が加わっている点で異なる。そのため、分割手段36を除く他の構成の詳細な説明は省略する。
 分割手段36は、入力装置20(図1参照)から入力されるテキスト(以下、「入力テキスト」と呼ぶ)を分割し、取得テキストとする。分割手段36は、一定の文字数や単語数ごとにテキストを分割してもよい。また、ストリーミング形式でテキストが入力される場合に、分割手段36は、一定の間隔でストリーミング形式のテキストを区切り、テキストを分割してもよい。
 連結手段30は、分割手段36が分割したテキストを、取得テキストとして順次取得する。連結手段30を含む他の構成は、第1の実施の形態と同様に動作する。
 次に、本実施の形態の効果について説明する。
 第2の実施の形態では、第1の実施の形態と同様に、高速に、切れ目情報が含まれないテキストの所定の単位を判定し、出力できる。
 さらに、第2の実施の形態の連結手段30は、分割手段36が分割したテキスト、つまり所定の長さのテキストを受け取る。そのため、第2の実施の形態の連結手段30は、連結するテキストの長さが長くなる場合もある第1の実施の形態に比べ、より高速に連結データの生成が可能になる。
(実施の形態3)
 図5は、第3の実施の形態のテキスト処理システムの構成例の一例を示すブロック図である。図5を参照すると、本発明の第3の実施の形態は、第2の実施の形態と比較して、音声認識手段38が加わっている点で異なる。そのため、音声認識手段38を除く他の構成の詳細な説明は省略する。
 また、本実施の形態における入力装置20(図1参照)は、例えばマイクで構成される。音声認識手段38には、入力装置20から、音声データ(以下、「入力音声」と呼ぶ)が入力される。
 音声認識手段38は、入力音声を逐次音声認識し、音声認識の結果のテキスト(以下、「音声認識テキスト」と呼ぶ)を出力する。
 分割手段36は、音声認識テキストを入力テキストとして受け取り、分割し、取得テキストを出力する。(以下、入力テキストは、音声認識テキストを含むものとする。)その他の構成は、第2の実施の形態と同様に動作する。
 なお、第3の実施の形態のテキスト処理システムは、音声認識手段38と分割装置36とを、併せてひとつの音声認識装置として構成してもよい。例えば、入力音声に一定時間以上のポーズが入ったときに、音声認識装置が、そこで区切りながら、音声認識テキストを所得テキストして順次出力していく場合である。この場合は、音声認識装置は、音声認識手段38と分割装置36との両方として機能する。
 次に、本発明の第3の実施の形態の効果について説明する。
 第3の実施の形態では、音声認識手段38が、入力音声を音声認識して出力した音声認識テキストを入力テキストとして処理する。そのため、第3の実施の形態は、音声データが入力される場合においても、この音声データの音声認識結果であるテキストに対して、高速に所定の単位を判定できる。
(実施の形態4)
 図6は、第4の実施の形態のテキスト処理システムの構成例の一例を示すブロック図である。第4の実施の形態は、第3の実施の形態と比較して、音声認識手段38が、音声認識テキストだけでなく、音声認識の際に得られる音響情報も出力する点と、判定手段34が、その音響情報を判定に使用する点が異なる。そのため、音声認識手段38及び判定手段34を除く他の構成の詳細な説明は省略する。
 なお、音響情報とは、例えば、入力音声のポーズ長である。音響情報がポーズ長の場合、判定手段34は、構文解析結果から単語と単語との間が切れ目となりうる点を判断し、さらに、その単語と単語との間のポーズ長が長い場合に、その単語と単語との間を切れ目と判定する。
 また、音響情報は、話者情報でもよい。音響情報が話者情報の場合、判定手段34は、音声認識結果に付与されている話者情報を用いて話者が変わった点を判断し、その点を切れ目と判定する。
 なお、第4の実施の形態の分割手段36は、音響情報を用いて、入力テキスト(音声認識テキスト)を分割してもよい。
 次に、本発明の第4の実施の形態の効果について説明する。
 第4の実施の形態では、判定手段34が、切れ目を判定するときに音響情報も利用する。この音響情報の利用に基づき、第4の実施の形態は、音響情報を使用しないで判定する第3の実施の形態に比べ、より精度よく切れ目を判定できる。
(実施の形態5)
 図7は、第5の実施の形態のテキスト処理システムの構成例の一例を示すブロック図である。第5の実施の形態は、第1の実施の形態と比較して、テキスト処理手段40が加わっている点で異なる。そのため、テキスト処理手段40を除く他の構成の詳細な説明は省略する。
 テキスト処理手段40は、判定手段34から出力される所定単位解析結果をテキスト処理する。テキスト処理手段40は、例えば、所定単位解析結果を翻訳し、処理結果データを出力する。また、テキスト処理手段40は、所定単位解析結果を用いて音声合成し、所定単位解析結果の音声を処理結果データとして出力してもよい。また、テキスト処理手段40は、所定単位解析結果を用いて、評判情報を抽出し、それを処理結果データとして出力してもよい。
 次に、本発明の第5の実施の形態の効果について説明する。
 第5の実施の形態では、テキスト処理手段40が、判定手段34が判定した切れ目より前の所定単位解析結果を、テキスト処理する。そのため、第5の実施の形態は、ストリーム形式のテキストが入力される場合においても、適切に区切られた単位でテキスト処理が可能になる。
(実施の形態6)
 図8は、第6の実施の形態のテキスト処理システムの構成例の一例を示すブロック図である。第6の実施の形態は、第4の実施の形態と第5の実施の形態とを組み合わせた構成となっている。各構成の動作は、第4の実施の形態及び第5の実施の形態で説明したとおりであるため、詳細な説明を省略する。
 次に、本発明の第6の実施の形態の効果について説明する。
 第6の実施の形態では、第4の実施の形態と第5の実施の形態との効果、例えば、ストリーム形式の音声データが入力される場合においても、適切に区切られた単位でテキスト処理が可能になる。
(第1の実施例)
 次に、本発明の第1の実施例を、図面を参照して説明する。本実施例は、本発明を実施するための第2の実施の形態に対応するものである。
 本実施例において、入力装置20は、キーボードである。また、パーソナル・コンピュータが、CPU10、メモリ12、HDD14を有している。さらに、表示装置18は、ディスプレイである。通信IF16は、本実施例の説明では省略する。
 はじめに、「he saw the girl with the bag she had the big bag」との入力テキストが、入力装置20であるキーボードから分割手段36に入力される。
 分割手段36は、この入力テキストを、例えば、スペースを単語の区切りとし、6単語ずつに分割する。
 連結手段30は、連結データを解析手段32に出力するため、分割手段36で分割された最初の部分である「he saw the girl with the」を取得テキストとして取得し、その前に取得したテキストの解析結果である連結対象解析結果に連結する。
 ただし、ここ時点では連結対象解析結果が存在しないため、連結データは、取得テキストの「he saw the girl with the」となる。
 解析手段32は、連結データに対して、言語解析する。
 本実施例では、解析手段32は、言語解析として、CFG(文脈自由文法)のルールに基づいて、CYK法やチャート法などで構文解析する。
 CFGルールは、「A→α」の形で表される。本実施例では、解析手段32は、「S→NP+VP」、「VP→VP+NP」、「NP→NP+PP」、「NP→det+noun」、「NP→adj+NP」、「PP→prep+NP」、「NP→noun」、「VP→verb」というCFGルールに従って、連結データのテキストを構文解析する。なお、Sは文、NPは名詞句、VPは動詞句、PPは過去分詞、detは限定詞、nounは名詞、adjは形容詞、prepは前置詞、verbは動詞、を表している。
 図9は、連結データ「he saw the girl with the」の解析結果の一例である。この解析結果は、括弧を用いて表すと、「(he(saw(the girl)))with the」となる。また、この構造だけでなく、言語解析中に、さまざまな部分木の構造ができる。組みあがった構造の最上位のノード(node)を[]で表す場合、図9の解析結果は、[S,prep,det]となる。
 本実施例では、判定手段34は、文を判定する。より詳細に説明すると、判定手段34は、最上位のノードが[S,S,…,S,X]の構造のとき、最後のSよりも左のSの構造を文と判定する。なお、ここで、Sは文を示し、XはS以外の非終端記号の連続を示す。ただし、Xは、無い場合もある。
 例えば、判定手段34は、解析結果が[S,S,X]のとき最初のSを文と判定し、[S,S,…,S,S,X]のとき最後の[S,X]以外の部分のSを各々1つの文と判定する。また、判定手段34は、解析結果が[S,X]のとき、文が無いと判定する。
 図9の解析結果の最上位ノードは[S,prep,det]となっている。従って、図9の解析結果は、[S,X]の形である。よって、判定手段34は、文が1つも無いと判定する。
 そのため、判定手段34は、表示装置18に何も出力しない。また、判定手段34は、解析結果の全体である「(he(saw(the girl)))with the」を、連結対象解析結果として連結手段30に出力する。
 連結手段30は、最初に取得したテキストの次のテキストを取得する。つまり、連結手段30は、7単語目から12単語目までの6単語である「bag she had the big bag」を取得する。
 さらに、連結手段30は、部分木の構造を含む連結対象解析結果「(he(saw(the girl)))with the」の後ろに、このテキストを連結し、連結データとする。
 解析手段32は、連結データに対して言語解析する。ここで、1単語目から6単語目までの「he saw the girl with the」の6単語内で閉じた部分木は、前回の解析で作成されている。よって、解析手段32は、今回の解析においてその部分木を作成しない。なお、閉じた部分木とは、具体的には図9における2つのNPにあたる部分である。解析手段32は、それ以外の部分を解析し、解析結果を出力する(図10を参照)。この構造は、括弧を用いて表すと、「(he(saw((the girl)(with(the bag)))))(she(had(the(big bag))))」となる。
 図10で一例として示すように、組みあがった構造の最上位ノードは[S,S]となっているので、判定手段34は、一番左のSを文と判定する。よって、判定手段34は、文と判定された「he saw the girl with the bag」を、1つの単位として表示装置18であるディスプレイに出力する。また、判定手段34は、文の切れ目より後ろの部分の解析結果「(she(had(the(big bag))))」を連結対象解析結果として連結手段30に出力する。連結手段30は、次に取得したテキストとこの連結対象解析結果とを連結し、連結データを生成する。
 このように、本実施例は、前に解析した連結対象解析結果の解析結果の少なくとも一部をそのまま利用し、重複して言語解析しない。そのため、本実施例は、高速に処理できる。
(第2の実施例)
 次に、本発明の第2の実施例を説明する。本実施例は、第6の実施の形態に対応する。
 ここで、本実施例は、音声認識手段38と分割装置36とを、併せてひとつの音声認識装置として構成する。具体的には、本実施例の音声認識装置は、入力音声を音声認識して音声認識テキストと音響情報(本実施例ではポーズ長とする)とを求める。そして、音響情報のポーズ長を基に入力音声に一定時間以上のポーズが入ったことを検出すると、音声認識装置は、そのポーズで音声認識テキストを区切りながら取得テキストとして順次出力する。つまり、音声認識装置は、音声認識手段38と分割装置36との両方の機能を有している。
 本実施例の入力装置20は、マイクである。マイクから「he saw the girl with the bag she had the big bag」という音声が入力されると、音声認識装置は、この音声を音声認識テキストに変換する。
 さらに、例えば6単語目の「the」と7単語目の「bag」の間にポーズがある場合、音声認識装置は、その場所で音声認識テキストを分割し、取得テキストとして連結手段30に出力する。
 よって、連結手段30は、「he saw the girl with the」というテキストを最初に取得し、その次に「bag she had the big bag」を取得する。
 以降、第1の実施例と同様に、解析手段32は、「he saw the girl with the」という連結テキストを解析する。また、判定手段34は、この連結テキストの解析結果に文は含まれないと判定し、解析結果の全体である「(he(saw(the girl)))with the」を連結対象解析結果として連結手段30に出力する。連結手段30は、次の取得テキストである「bag she had the big bag」を取得して、連結対象解析結果(「(he(saw(the girl)))with the」)と連結する。
 以降、第1の実施例と同様に、判定手段34は、文と判定された「he saw the girl with the bag」を所定単位解析結果として、テキスト処理手段40に出力する。テキスト処理手段40は、この所定単位解析結果を文単位で翻訳し、その翻訳結果を表示装置18であるディスプレイに出力する。
 このように、本実施例の解析手段32は、連結手段30が連結した連結データを解析する。判定手段34は、解析手段32の解析結果を用いて切れ目を判定し、文と判定された結果を出力する。そして、テキスト処理手段40は、判定手段34の出力を翻訳する。そのため、本実施例の音声認識装置が、入力されたストリーム音声に対して、文の単位と異なるポーズ長に基づいて音声認識の結果を取得テキストとして出力しても、テキスト処理手段40は、そのテキストを文単位で高速に翻訳できる。
 以上、実施の形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施の形態及び実施例に限定されものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。
 この出願は、2010年8月19日に出願された日本出願特願2010−183996を基礎とする優先権を主張し、その開示の全てをここに取り込む。
 1  テキスト処理システム
 10 CPU
 12 メモリ
 14 HDD
 16 通信IF
 18 表示装置
 20 入力装置
 22 バス
 30 連結手段
 32 解析手段
 34 判定手段
 36 分割手段
 38 音声認識手段
 40 テキスト処理手段

Claims (10)

  1.  取得したテキストを当該テキストより前に取得したテキストの解析結果である連結対象解析結果の後ろに連結して連結データを生成する連結手段と、
     前記連結対象解析結果の少なくとも一部を用いて前記連結データを言語解析する解析手段と、
     前記解析手段の解析結果を基に前記連結データに含まれる所定の単位の切れ目を判定する判定手段と、を含み、
     前記連結対象解析結果は、前記判定手段で判定された切れ目より後ろの解析結果である
     テキスト処理システム。
  2.  前記連結対象解析結果が部分木を含む場合、
     前記解析手段は、前記連結対象解析結果の内で閉じる部分木を用いて、言語解析する請求項1に記載のテキスト処理システム。
  3.  テキストを分割する分割手段をさらに含み、
     前記連結手段は、前記分割手段が分割したテキストを取得する請求項1または2に記載のテキスト処理システム。
  4.  音声を音声認識する音声認識手段をさらに含み、
     前記分割手段は、前記音声認識手段が音声認識した結果を取得する請求項3に記載のテキスト処理システム。
  5.  前記音声認識手段は、前記音声に対応する音響情報を含む音声認識の結果を出力し、
     前記判定手段または前記分割手段の少なくともいずれかは、前記音響情報を用いる請求項4に記載のテキスト処理システム。
  6.  前記判定手段が判定した切れ目より前の解析結果をテキスト処理するテキスト処理手段を含む請求項1乃至5のいずれかに記載のテキスト処理システム。
  7.  前記判定手段は、前記解析手段に基づく前記連結データの解析結果に所定の単位の構造が含まれる場合、最後の所定の単位の構造の前を切れ目と判定する請求項1乃至6のいずれかに記載のテキスト処理システム。
  8.  前記判定手段は、前記連結データの解析結果の文または節の単位を用いて切れ目を判定する請求項1乃至7のいずれかに記載のテキスト処理システム。
  9.  取得したテキストを当該テキストより前に取得したテキストの解析結果である連結対象解析結果の後ろに連結した連結データを生成し、
     前記連結対象解析結果の少なくとも一部を用いて前記連結データを言語解析し、
     前記解析結果を基に前記連結データに含まれる所定の単位の切れ目を判定し、
     前記連結対象解析結果が前記判定した切れ目より後ろの解析結果である
     テキスト処理方法。
  10.  取得したテキストを当該テキストより前に取得したテキストの解析結果である連結対象解析結果の後ろに連結して連結データを生成する処理と、
     前記連結対象解析結果の少なくとも一部を用いて前記連結データを言語解析する処理と、
     前記解析結果を基に前記連結データに含まれる所定の単位の切れ目を判定する処理と、を含み、
     前記連結対象解析結果が前記判定した切れ目より後ろの解析結果である処理を
     コンピュータに実行させるテキスト処理プログラム。
PCT/JP2011/068008 2010-08-19 2011-08-02 テキスト処理システム、テキスト処理方法およびテキスト処理プログラム WO2012023450A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2012529568A JPWO2012023450A1 (ja) 2010-08-19 2011-08-02 テキスト処理システム、テキスト処理方法およびテキスト処理プログラム
US13/814,611 US20130144609A1 (en) 2010-08-19 2011-08-02 Text processing system, text processing method, and text processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-183996 2010-08-19
JP2010183996 2010-08-19

Publications (1)

Publication Number Publication Date
WO2012023450A1 true WO2012023450A1 (ja) 2012-02-23

Family

ID=45605106

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/068008 WO2012023450A1 (ja) 2010-08-19 2011-08-02 テキスト処理システム、テキスト処理方法およびテキスト処理プログラム

Country Status (3)

Country Link
US (1) US20130144609A1 (ja)
JP (1) JPWO2012023450A1 (ja)
WO (1) WO2012023450A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130474A1 (ja) * 2016-01-25 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
WO2019031268A1 (ja) * 2017-08-09 2019-02-14 ソニー株式会社 情報処理装置、及び情報処理方法

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH052605A (ja) * 1990-10-29 1993-01-08 Ricoh Co Ltd 機械翻訳方式
JPH08249333A (ja) * 1995-03-10 1996-09-27 Fujitsu Ltd 翻訳原文の行分割装置
JPH1097535A (ja) * 1996-05-16 1998-04-14 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 音声言語解析装置
JPH11237894A (ja) * 1998-02-19 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> 言語理解方法及び言語理解装置
JP2003015686A (ja) * 2001-06-29 2003-01-17 Toshiba Corp 音声対話装置、音声対話方法及び音声対話処理プログラム
JP2010079705A (ja) * 2008-09-26 2010-04-08 Fuji Xerox Co Ltd 構文解析装置及びプログラム

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4887212A (en) * 1986-10-29 1989-12-12 International Business Machines Corporation Parser for natural language text
JP3476237B2 (ja) * 1993-12-28 2003-12-10 富士通株式会社 構文解析装置
US7464031B2 (en) * 2003-11-28 2008-12-09 International Business Machines Corporation Speech recognition utilizing multitude of speech features
US20070106513A1 (en) * 2005-11-10 2007-05-10 Boillot Marc A Method for facilitating text to speech synthesis using a differential vocoder

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH052605A (ja) * 1990-10-29 1993-01-08 Ricoh Co Ltd 機械翻訳方式
JPH08249333A (ja) * 1995-03-10 1996-09-27 Fujitsu Ltd 翻訳原文の行分割装置
JPH1097535A (ja) * 1996-05-16 1998-04-14 Atr Onsei Honyaku Tsushin Kenkyusho:Kk 音声言語解析装置
JPH11237894A (ja) * 1998-02-19 1999-08-31 Nippon Telegr & Teleph Corp <Ntt> 言語理解方法及び言語理解装置
JP2003015686A (ja) * 2001-06-29 2003-01-17 Toshiba Corp 音声対話装置、音声対話方法及び音声対話処理プログラム
JP2010079705A (ja) * 2008-09-26 2010-04-08 Fuji Xerox Co Ltd 構文解析装置及びプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
KOICHIRO RYU ET AL.: "Japanese Sentence Segmentation for Simultaneous Japanese- English Spoken Dialogue Translation", IPSJ SIG NOTES, vol. 2006, no. 136, 21 December 2006 (2006-12-21), pages 161 - 166 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017130474A1 (ja) * 2016-01-25 2017-08-03 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JPWO2017130474A1 (ja) * 2016-01-25 2018-11-22 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US11120063B2 (en) 2016-01-25 2021-09-14 Sony Corporation Information processing apparatus and information processing method
WO2019031268A1 (ja) * 2017-08-09 2019-02-14 ソニー株式会社 情報処理装置、及び情報処理方法
JPWO2019031268A1 (ja) * 2017-08-09 2020-09-10 ソニー株式会社 情報処理装置、及び情報処理方法
JP7230806B2 (ja) 2017-08-09 2023-03-01 ソニーグループ株式会社 情報処理装置、及び情報処理方法

Also Published As

Publication number Publication date
US20130144609A1 (en) 2013-06-06
JPWO2012023450A1 (ja) 2013-10-28

Similar Documents

Publication Publication Date Title
JP3971373B2 (ja) ルールベース方式と翻訳パターン方式とを混合したハイブリッド自動翻訳装置
Chen et al. Improving dependency parsing with subtrees from auto-parsed data
JP2007517338A (ja) サーチ品質の改善システムおよび改善方法
EP2950306A1 (en) A method and system for building a language model
JP2017199363A (ja) 機械翻訳装置及び機械翻訳のためのコンピュータプログラム
CN115039171A (zh) 使用有效文字标准化的语言无关的多语言建模
JP2001282786A (ja) 機械翻訳システム、機械翻訳方法及び機械翻訳方法を実行するためのプログラムを記憶した記憶媒体
WO2012023450A1 (ja) テキスト処理システム、テキスト処理方法およびテキスト処理プログラム
US7003740B2 (en) Method and apparatus for minimizing weighted networks with link and node labels
CN105895091B (zh) 一种eswfst构建方法
Monga et al. Speech to Indian Sign Language Translator
JP4007413B2 (ja) 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム
JP2014191484A (ja) 文末表現変換装置、方法、及びプログラム
JP5142395B2 (ja) 関係情報抽出装置、その方法、プログラム及び記録媒体
JP4940251B2 (ja) 文書処理プログラム及び文書処理装置
JP2003263184A5 (ja)
JP4971732B2 (ja) 自然言語処理装置、およびプログラム
US7617089B2 (en) Method and apparatus for compiling two-level morphology rules
WO2018179729A1 (ja) インデックス生成プログラム、データ検索プログラム、インデックス生成装置、データ検索装置、インデックス生成方法、及びデータ検索方法
JP2019087058A (ja) 文章中の省略を特定する人工知能装置
JP2008293302A (ja) 文書解析システム、および文書解析方法、並びにコンピュータ・プログラム
JP4033088B2 (ja) 自然言語処理システム及び自然言語処理方法、並びにコンピュータ・プログラム
JP2010079705A (ja) 構文解析装置及びプログラム
US20130080144A1 (en) Machine translation apparatus, a method and a non-transitory computer readable medium thereof
JP6565262B2 (ja) 短縮文生成装置、方法、及びプログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11818092

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 13814611

Country of ref document: US

ENP Entry into the national phase

Ref document number: 2012529568

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 11818092

Country of ref document: EP

Kind code of ref document: A1