JP2020126493A - 対訳処理方法および対訳処理プログラム - Google Patents

対訳処理方法および対訳処理プログラム Download PDF

Info

Publication number
JP2020126493A
JP2020126493A JP2019019167A JP2019019167A JP2020126493A JP 2020126493 A JP2020126493 A JP 2020126493A JP 2019019167 A JP2019019167 A JP 2019019167A JP 2019019167 A JP2019019167 A JP 2019019167A JP 2020126493 A JP2020126493 A JP 2020126493A
Authority
JP
Japan
Prior art keywords
document
parallel translation
paragraph
probability
morpheme
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019019167A
Other languages
English (en)
Other versions
JP7251181B2 (ja
Inventor
育昌 鄭
Yuchang Cheng
育昌 鄭
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019019167A priority Critical patent/JP7251181B2/ja
Priority to US16/780,963 priority patent/US11645475B2/en
Publication of JP2020126493A publication Critical patent/JP2020126493A/ja
Application granted granted Critical
Publication of JP7251181B2 publication Critical patent/JP7251181B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/44Statistical methods, e.g. probability models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/166Editing, e.g. inserting or deleting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/268Morphological analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/51Translation evaluation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/53Processing of non-Latin text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/10Text processing
    • G06F40/194Calculation of difference between files
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/55Rule-based translation
    • G06F40/56Natural language generation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Machine Translation (AREA)

Abstract

【課題】対訳語句の生成精度を向上させることを課題とする。【解決手段】対訳処理装置は、第一の言語で記述された第一の文書に含まれる各第一の形態素から、第一の文書と同等の内容が第二の言語で記述された第二の文書に含まれる各第二の形態素への第一の対訳確率、および、各第二の形態素から各第一の形態素への第二の対訳確率を算出する。対訳処理装置は、第一の対訳確率および第二の対訳確率が閾値以上である、第一の言語と第二の言語との組である形態素対を抽出する。対訳処理装置は、抽出された形態素対に基づき、第一の文書と第二の文書とにおける対訳語句を生成する。【選択図】図10

Description

本発明は、対訳処理方法および対訳処理プログラムに関する。
グローバル企業などでは、業務文書に社内用語が含まれることから、社内文書の多言語化において、社内用語の意味を正確に訳す対訳辞書の整備が行われている。また、対訳辞書の整備対象データとしては、整備コストが高く行単位で対応する第1の多言語文書対(parallel corpus)と、容易に整備でき、内容の主旨が対応する第2の多言語文書対(comparable corpus)とが用いられる。
なお、「parallel corpus」は、意味の過不足なく、文単位で完全に対応した文書対であり、例えば各国が正式に発表する議事録や公文書などである。「comparable corpus」は、ページ毎に情報の粒度が異なる文書対であり、企業のプレスリリースや観光地などの各種情報を提示するWebページなどである。
近年では、整備コストが少ない第2の多言語文書対(comparable corpus)から対訳語句を抽出することが行われている。例えば、単語意味分類技術(topic model)で文書群の単語を意味分類毎にグルーピングしてから、単語対応確率の計算(word alignment)で対訳語句を抽出する手法が知られている。
対訳語句の抽出では、複数単語から構成される専門用語(以下、複合語と記載する場合がある)を一語としてまとめることが要求される。例えば、第2の多言語文書対(comparable corpus)に該当する日本語の文書と英語の文書とから、対訳語句を抽出する例を考える。一例として、日本語文書の形態素解析の結果として「電子/加速/装置」が抽出され、英語文書の形態素解析の結果として「the/electronic/acceleration/device」が抽出されたとする。
この場合に、専門用語を一単語として識別しない場合は、対訳語句として[電子:electronic]、[加速:acceleration]、[装置:device]が生成される。一方、複合語技術により専門用語を一単語として識別する場合は、対訳語句として[電子加速装置:electronic acceleration device]が生成される。
このように、単語をどのように区切るかにより対訳語句の内容が異なることから、内容が対応する多言語文書群に対し、複数単語から構成される専門用語(複合語)の対訳語を正確に抽出する技術が要求されている。例えば、言語依存の複合語抽出ルールにより、複合語候補を抽出し、複数の統計的な手法で複合語候補の適切性を判定し、複合語と判定されるものを一単語とし、その後に一般的な単語の対訳確率を計算して、複合語の対訳抽出を行う技術が知られている。
特開2013−242654号公報 特開2004−310170号公報 特開2005−92253号公報
しかしながら、上記技術では、相手言語に対応語句がない単語にも間違って高い対訳確率が付与される場合があるので、正確に複合語の対訳語句群を識別できない場合があり、対訳語句の生成精度が低下する。
上述した例と同様、日本語の文書と英語の文書とから、対訳語句を抽出する例を考える。一例として、日本語文書の形態素解析の結果として「我々/は/先日/電子/加速/装置/で/実験/を/・・・」が抽出され、英語文書の形態素解析の結果として「We/used/the/electronic/acceleration/device/to/experiment/・・・」が抽出されたとする。この場合に、[先日]と[electronic]などの用語との共起確率が高い場合、[先日電子加速装置]が[electronic/acceleration/device]の対訳語句であると誤判定される可能性が高い。
一つの側面では、対訳語句の生成精度を向上させることができる対訳処理方法および対訳処理プログラムを提供することを目的とする。
第1の案では、対訳処理方法は、コンピュータが、第一の言語で記述された第一の文書に含まれる各第一の形態素から、前記第一の文書と同等の内容が第二の言語で記述された第二の文書に含まれる各第二の形態素への第一の対訳確率、および、前記各第二の形態素から前記各第一の形態素への第二の対訳確率を算出する処理を実行する。対訳処理方法は、コンピュータが、前記第一の対訳確率および前記第二の対訳確率が閾値以上である、前記第一の言語と前記第二の言語との組である形態素対を抽出する処理を実行する。対訳処理方法は、コンピュータが、抽出された前記形態素対に基づき、前記第一の文書と前記第二の文書とにおける対訳語句を生成する処理を実行する。
一実施形態によれば、対訳語句の生成精度を向上させることができる。
図1は、実施例1にかかる対訳語句の抽出を説明する図である。 図2は、実施例1にかかる対訳処理装置の機能構成を示す機能ブロック図である。 図3は、形態素解析の結果の例を示す図である。 図4は、対訳確率の算出結果の例を示す図である。 図5は、統計結果の例を示す図である。 図6は、複合語の境界の特定を説明する図である。 図7は、補正を説明する図である。 図8は、学習データの置換を説明する図である。 図9は、複合語候補の評価を説明する図である。 図10は、実施例1にかかる処理の流れを示すフローチャートである。 図11は、実施例2にかかる品詞ルールに基づく複合語の境界を特定する図である。 図12は、実施例2にかかる既知の対訳語句に基づく複合語の境界を特定する図である。 図13は、実施例2にかかる構文構造に基づく複合語の境界を特定する図である。 図14は、実施例3にかかる新規の多言語文書対の生成を説明する図である。 図15は、実施例3にかかる対訳処理装置の機能構成を示す機能ブロック図である。 図16は、段落分割の結果を説明する図である。 図17は、段落意味ベクトルの算出例を説明する図である。 図18は、削除可能な段落の検出手法を説明する図である。 図19は、意味ベクトル空間を説明する図である。 図20は、新規の多言語文書対の生成を説明する図である。 図21は、実施例3にかかる生成処理の流れを示すフローチャートである。 図22は、実施例3にかかる生成処理の詳細な流れを示すフローチャートである。 図23は、実施例4にかかる文書情報に基づく削除可否の判定を説明する図である。 図24は、実施例4にかかる既知の対訳語句に基づく削除可否の判定を説明する図である。 図25は、実施例5にかかる対訳語句の抽出例1を説明する図である。 図26は、実施例5にかかる対訳語句の抽出例2を説明する図である。 図27は、利用形態の一例を説明する図である。 図28は、ハードウェア構成例を説明する図である。
以下に、本願の開示する対訳処理方法および対訳処理プログラムの実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。また、各実施例は、矛盾がない範囲内で適宜組み合わせることができる。
[対訳処理装置10の説明]
実施例1にかかる対訳処理装置10は、容易に整備でき、内容の主旨が対応する第2の多言語文書対(comparable corpus)から、対訳語句を抽出し、対訳辞書を生成するコンピュータ装置の一例である。
図1は、実施例1にかかる対訳語句の抽出を説明する図である。図1に示すように、対訳処理装置10は、comparable corpusである多言語文書群として、日本語文書1−英語文書1、日本語文書2−英語文書2、日本語文書3−英語文書3を保持する。ここで、日本語文書1−英語文書1、日本語文書2−英語文書2、日本語文書3−英語文書3のそれぞれは、同じ内容が記載されている文書であり、ページ毎に情報の粒度が異なる文書対である。なお、実施例においては、日本語文書を第1言語の文書、英語文書を第2言語の文書などと記載する場合がある。
そして、対訳処理装置10は、日本語文書を構成する単語に対する英語文書を構成する単語との共起確率が予め設定された条件を満たし、かつ、英語文書を構成する単語に対する日本語文書を構成する単語との共起確率が予め設定された条件を満たすとともに、単語列の範囲を示す複数の未知語の候補を抽出する。そして、対訳処理装置10は、抽出した複数の未知語の候補の中で、文書対のいずれかの文書での共起確率が予め設定された条件を満たす単語列の範囲を未知語として対応づける。
例えば、対訳処理装置10は、内容の主旨が対応する多言語文書対から、対訳確率の高い単語対群を抽出する。続いて、対訳処理装置10は、単語対の最大境界を求め、境界内の単語列を1単語とみなして、対訳確率を再度算出する。そして、対訳処理装置10は、みなし単語対の再算出後の対訳確率が境界内の各単語対より高い場合、みなし単語対が複合語対と判定する。
このようにして、対訳処理装置10は、専門用語などの複合語および未登録語を正確に切り出して対訳関係を抽出できるので、対訳語句の生成精度を向上させることができる。
[機能構成]
図2は、実施例1にかかる対訳処理装置10の機能構成を示す機能ブロック図である。図2に示すように、対訳処理装置10は、通信部11、記憶部12、制御部20を有する。
通信部11は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部11は、管理者等が利用する管理装置から処理開始指示を受信し、管理装置に処理結果を送信する。また、通信部11は、各種データベースサーバなどから文書情報を取得する。
記憶部12は、データや制御部20が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部12は、文書DB13と対訳辞書DB14を記憶する。
文書DB13は、対訳語句の抽出元である、comparable corpusの関係である多言語の文書対を記憶するデータベースである。例えば、文書DB13は、日本語で記述された日本語文書と、当該日本語と同じ内容が英語で記述された英語文書とを対応付けて記憶する。
ここで記憶される文書対は、文書の主旨が対応した多言語の文書集合である。例えば、インターネット百科事典などの条目は、各言語に独自のページがあり、詳細な内容が異なるが、ページ自体の主旨(条目)は同じであるため、同一条目の異なる言語のページが内容の主旨が対応する多言語文書である。なお、文書の形式は、テキストデータであってもよく、それ以外の形式であってもよい。
対訳辞書DB14は、対訳語句を記憶するデータベースである。具体的には、対訳辞書DB14は、既知である対訳語句や対訳処理装置10によって新たに生成された対訳語句などを記憶する。例えば、対訳辞書DB14は、対訳語句[日本度:英語]として[富士通:Fujitsu]などを記憶する。
制御部20は、対訳処理装置10全体を司る処理部であり、例えばプロセッサなどである。制御部20は、形態素解析部21、確率計算部22、統計情報取得部23、検出処理部24を有する。
形態素解析部21は、文書DB13に記憶される文書対である各文書に対して形態素解析を実行する処理部である。具体的には、形態素解析部21は、日本語文書である第1言語の文書と、英語文書である第2言語の文書とのそれぞれに対して、文字列(テキスト)を抽出して形態素解析を行い、文字列を形態素列に変換する。このようにして、形態素解析部21は、各文書から形態素(単語)を抽出して、確率計算部22に出力する。
図3は、形態素解析の結果の例を示す図である。図3に示すように、第1言語の文書からは「先日/の/会見/で/富士通/タブレット/株式/会社/が/発表/した/・・・」が抽出される。同様に、第2言語の文書からは「Fujitsu Tablet/limited/announced/・・・」が抽出される。なお、形態素解析には、オープンソースソフトウェアなどの各種手法を用いることができる。
確率計算部22は、単語単位で分割済みのテキストデータに対し、単語の対訳確率を推定する処理部である。具体的には、確率計算部22は、形態素解析部21の解析結果に対して、言語間における両方向の単語の対訳確率を計算する。なお、単語の両方向の対訳確率とは、第1言語から第2言語への対訳確率と、第2言語から第1言語への対訳確率とを示す。対訳確率は、言語間の単語の共起統計情報を元に、公知の翻訳モデルなどを用いることができる。
そして、確率計算部22は、算出結果を記憶部12に一時的に保存したり、統計情報取得部23に出力したりする。図4は、対訳確率の算出結果の例を示す図である。図4に示すように、確率計算部22は、「元言語、対訳言語、対訳確率」を含む算出結果を生成する。図4の例では、第1言語の文書から抽出された「富士通」から、第2言語の文書から抽出された「Fujitsu Tablet」への対訳確率が「0.68」であることを示す。
統計情報取得部23は、確率計算部22の出力に対し、各単語の出現頻度、言語モデル、相手言語の全単語との共起頻度などの統計情報を取得する処理部である。例えば、統計情報取得部23は、第1言語から第2言語への対訳確率、第2言語から第1言語への対訳確率を参照して、閾値(例えば0.3)以上か否かを集計し、集計結果を検出処理部24に出力する。
図5は、統計結果の例を示す図である。図5に示すように、統計情報取得部23は、各言語から抽出された各単語について、対訳確率が閾値以上である場合には「〇」を設定し、対訳確率が閾値未満である場合には「×」を設定した統計結果を生成する。例を挙げると、統計情報取得部23は、日本語「富士通」から英語「Fujitsu Tablet」への対訳確率が「0.68」であることから「〇」を設定し、英語「Fujitsu Tablet」から日本語「富士通」への対訳確率が「0.65」であることから「〇」を設定する。図5の例では、日本語「先日」から英語「Fujitsu Tablet」への対訳確率が閾値未満かつ英語「Fujitsu Tablet」から日本語「先日」への対訳確率が閾値未満であることがわかる。
また、統計情報取得部23は、各単語(形態素)に対して、1−gram言語モデルなどの公知の言語モデルを用いて、言語モデルの評価値(以下では、言語モデル値と記載する場合がある)を算出する。そして、統計情報取得部23は、統計結果の各単語に対応付けて、各単語の言語モデル値を保持する。
検出処理部24は、境界同定部25、学習データ置換部26、候補評価部27を有し、統計結果に基づいて、対訳語句を抽出して、対訳辞書を生成する処理部である。すなわち、検出処理部24は、語句としては未知である未知語を検出し、当該未知語の対訳語句を特定する。
境界同定部25は、形態素解析部21の出力と統計情報取得部23の統計情報から、多言語文書対における条件が成立する単語例対の最大境界を求める処理部である。ここで、条件とは、以下の条件1と条件2である。
条件1:ある単語対{A1,B1}の第1言語単語(A1)の前後近傍の他の単語(A2,A3,・・・)が単語対の第2言語単語(B1)との両方向(第1言語から第2言語と第2言語から第1言語への双方)の対訳確率が高いこと
条件2:条件1の単語対{A1,B1}の第2言語単語(B1)の近傍単語(B2,B3・・・)も条件1の条件が成立、かつ、隣接単語(A1A2,A2A3,B1B2,B2B3・・・)の言語モデルの評価値が高いこと
例えば、複合語の対訳が存在する場合、複合語の構成単語と相手言語の複合語の構成単語との共起が多いので、単語間の両方向の対訳確率が高いことが多い。図5の例では、{富士通:Fujitsu Tablet}、{タブレット:Fujitsu Tablet}などは両方向で高い対訳確率を有する。
また、複合語の構成単語は、相手言語の複合語の全構成単語との両方向の対訳確率も高い。図5の例では、「富士通」が「Fujitsu Tablet」および「limited」と、「Fujitsu Tablet」が「会社」、「富士通」、「タブレット」と両方向で高い対訳確率を有する。すなわち、日本語側に文字列「富士通」が出現する場合、英語側に「Fujitsu Tablet」と「limited」が出現することが多く、逆方向も成立する。
また、両方向の対訳確率が高い組み合わせの境界は複合語の境界である。図5の例では、「富士通」と「announced」は片方向のみ高い対訳確率を持つため、「announced」は複合語の境界外となる。日本語側に文字列「富士通」が出現する場合、英語側に「announced」が出現することが多少考えられるが、逆方向の英語側に「announced」が出現する場合、日本語側には「富士通」の共起が少ないので、「富士通」と「announced」の対訳が複合語の関係ではないと判定できる。
同様に、「先日」のような相手言語に対応単語がないものは、両方向の対訳確率が共に高い場合がなく、複合語の境界内になることが少ないので、「先日」が複合語の一部である誤判定が軽減できる。また、例えば「が」、「に」などの日本語の助詞が出現する場合、英語側の「in」や「on」以外の特定の単語との共起頻度が高くなることが少ないので、助詞が複合語に含まれることがない。
ここで、上述した条件1および条件2を考慮して、境界を同定し、単語を補正する具体例を説明する。図6は、複合語の境界の特定を説明する図である。図7は、補正を説明する図である。
図5の場合、境界同定部25は、両方向の対訳確率が閾値以上である形態素の組として、「富士通:Fujitsu Tablet」、「タブレット:Fujitsu Tablet」、「会社:Fujitsu Tablet」を特定する。同様に、境界同定部25は、「富士通:limited」、「株式:limited」、「会社:limited」を特定する。なお、ここで特定された各形態素の言語モデル値は閾値以上とする。
次に、図6に示すように、境界同定部25は、言語モデル値が閾値以上かつ対訳確率が両方向で閾値以上である組として、「富士通」と「Fujitsu Tablet」および「limited」を特定し、同様に、「会社」と「Fujitsu Tablet」および「limited」を特定する。そして、境界同定部25は、両方向の対訳確率が閾値以上である形態素に囲まれる範囲の境界であることから、これらを複合語の境界に決定する。
さらに、境界同定部25は、境界に特定された日本語の「富士通」と「会社」の間にある「タブレット」と「株式」について、両方向の対訳確率が閾値以上である組を特定する。すなわち、境界同定部25は、「タブレット:Fujitsu Tablet」を特定し、「株式:limited」を特定する。
そして、境界同定部25は、境界よりも内側にある単語に対して、補正を行う。図7に示すように、境界同定部25は、境界である「富士通」と「会社」の間にある「タブレット」および「株式」を特定する。続いて、境界同定部25は、特定した「タブレット」に対して、境界である「富士通」および「会社」では対訳確率が高く、「タブレット」では対訳確率が低い「limited」を補正(補間)する。同様に、境界同定部25は、特定した「株式」に対して、境界である「富士通」および「会社」では対訳確率が高く、「株式」では対訳確率が低い「Fujitsu Tablet」を補正(補間)する。なお、補正対象の単語の言語モデル値が閾値未満の場合は、補正を抑制することもできる。
このようにして、境界同定部25は、言語モデル値が高いある形態素はその前後の形態素との共起率が高いと考えられるので、形態素の前後関係を考慮して、単語の補正を行う。この結果、境界同定部25は、形態素解析の段階では未知であった未知語の検出を実行する。そして、境界同定部25は、補正後の情報を学習データ置換部26に出力する。
図2に戻り、学習データ置換部26は、形態素解析部21の結果に対し、境界同定部25により検出された複合語のみなし単語対候補に相当する形態素列をみなし複合語で置換し、新しい形態素解析結果を生成する。
上記例で説明すると、学習データ置換部26は、図7に示す補正結果から、複合語を生成する。例えば、第1言語である日本語に対して、学習データ置換部26は、「富士通」、「タブレット」、「株式」、「会社」のそれぞれの両方向の対訳確率が閾値以上になったと判定し、これらをまとめた「富士通タブレット株式会社」を1つの複合語とみなす。
同様に、第2言語である英語に対して、学習データ置換部26は、「Fujitsu Tablet」、「limited」のそれぞれの両方向の対訳確率が閾値以上になったと判定し、これらをまとめた「Fujitsu Tablet limited」を1つの複合語とみなす。
そして、学習データ置換部26は、図3に示した形態素解析の結果を、1つの複合語とみなしたみなし複合語で置換する。図8は、学習データの置換を説明する図である。図8に示すように、学習データ置換部26は、第1言語の形態素解析結果「先日/の/会見/で/富士通/タブレット/株式/会社/が/発表/した/・・・」を、みなし複合語「富士通タブレット株式会社」が1つの形態素となるように、「先日/の/会見/で/富士通タブレット株式会社/が/発表/した/・・・」と置換する。
同様に、学習データ置換部26は、第2言語の形態素解析結果「Fujitsu Tablet/limited/announced/・・・」を、みなし複合語「Fujitsu Tablet limited」が1つの形態素となるように、「Fujitsu Tablet limited/announced/・・・」と置換する。そして、学習データ置換部26は、置換後の学習データを候補評価部27に出力する。
候補評価部27は、学習データ置換部26により新たに生成された学習データに対し、確率計算部22で全単語対の両方向の対訳確率を再算出し、境界同定部25で検出したみなし複合語の対が正確な複合語の対であるかどうかを判定する処理部である。例えば、候補評価部27は、学習データ置換部26から取得した置換後のデータを、確率計算部22に出力して、置換後のデータに対する単語の対訳確率の計算を要求する。
その後、候補評価部27は、確率計算部22から、置換後のデータに対する単語の対訳確率の計算結果を取得する。そして、候補評価部27は、置換前のデータよりも対訳確率が上昇している場合、置換対象であるみなし複合語の対を正確な複合語の対と判定し、対訳辞書DB14に登録する。一方、候補評価部27は、置換前のデータよりも対訳確率が上昇していない場合、置換対象であるみなし複合語の対を正確な複合語の対と判定せず、対訳辞書DB14への登録も行わない。
図9は、複合語候補の評価を説明する図である。候補評価部27は、置換後のデータである第1言語「先日/の/会見/で/富士通タブレット株式会社/が/発表/した/・・・」と第2言語「Fujitsu Tablet limited/announced/・・・」を確率計算部22に出力する。
そして、候補評価部27は、「富士通タブレット」から「Fujitsu Tablet limited」への対訳確率「0.80」と、「Fujitsu Tablet limited」から「富士通タブレット」への対訳確率「0.79」とを含む、再計算された対訳確率の一覧を取得する。
ここで、候補評価部27は、置換後の対訳確率と、図6において複合語の境界と判定された置換前の単語の対訳確率とを比較する。例えば、候補評価部27は、図4と図6を参照し、「富士通」から「Fujitsu Tablet」への対訳確率「0.68」とその逆方向である「Fujitsu Tablet」から「富士通」への対訳確率「0.65」とを取得する。同様に、候補評価部27は、「富士通」から「limited」への対訳確率「0.67」とその逆方向の対訳確率「0.56」とを取得する。
このようにして、候補評価部27は、「富士通」と「Fujitsu Tablet」の両方向の対訳確率、「富士通」と「limited」の両方向の対訳確率、「タブレット」と「Fujitsu Tablet」の両方向の対訳確率、「タブレット」と「limited」の両方向の対訳確率、「株式」と「Fujitsu Tablet」の両方向の対訳確率、「株式」と「limited」の両方向の対訳確率、「会社」と「Fujitsu Tablet」の両方向の対訳確率、「会社」と「limited」の両方向の対訳確率を取得する。
そして、候補評価部27は、置換後の対訳確率が、上記置換前の対訳確率のいずれよりも高い場合に、置換後の複合語対を正しい対訳語句と判定する。この例では、候補評価部27は、置換後の「富士通タブレット:Fujitsu Tablet limited」の対訳確率「0.80」および「0.79」が、置換前の対訳確率のいずれよりも高いので、正しい対訳と判定する。
つまり、「富士通タブレット株式会社」と「Fujitsu Tablet limited」が1単語として、両方向の対訳確率を再計算すると、両文字列は同時に出現することが多いことから、両方向の対訳確率が個別単語(富士通、Fujitsu Tabletなど)の対訳確率より向上する。そして、候補評価部27は、「富士通タブレット:Fujitsu Tablet limited」を新たな対訳語句として、対訳辞書DB14に登録する。
なお、置換後の複合語対が正しい対訳語句か否かを判定する基準は、置換前の対訳確率のいずれよりも高い場合に限らず、置換前の対訳確率の平均値より高いなど任意に設定変更することができる。
[処理の流れ]
図10は、実施例1にかかる処理の流れを示すフローチャートである。図10に示すように、管理者等により処理開始が指示されると(S101:Yes)、形態素解析部21は、文書DB13から多言語文書対を読み込み(S102)、各多言語文書に対して形態素解析を実行して、各単語(形態素)を抽出する(S103)。
続いて、確率計算部22は、各単語や単語の組み合わせの出現頻度などを集計し(S104)、各単語の対訳確率を算出する(S105)。その後、境界同定部25は、統計情報取得部23による対訳確率の集計結果を用いて、最大単語列の境界を同定する(S106)。
そして、学習データ置換部26は、みなし複合語の対を特定し、みなし複合語の対で学習データの置換を実行する(S107)。その後、確率計算部22が置換後の学習データを用いて、単語の対訳確率を再算出する(S108)。
そして、候補評価部27は、対訳確率が向上した場合(S109:Yes)、みなし複合語の対を対訳関係と判定し、新たな対訳語句として、対訳辞書DB14に登録する(S110)。一方、候補評価部27は、対訳確率が向上しない場合(S109:No)、そのまま処理を終了する。
[効果]
上述したように、対訳処理装置10は、対訳確率が高い単語対に、「ある単語対の第1言語単語の前後近傍の他の単語が単語対の第2言語単語とは両方向の対訳確率が高い」の条件が成立する最大境界の単語例対を複合語対の候補とする。そして、対訳処理装置10は、複合語対の候補を用いて、単語の対訳確率を再算出し、対訳確率が向上した場合に、新たな対訳語句として登録する。したがって、対訳処理装置10は、専門用語などの複合語および未登録語を正確に切り出して対訳関係を抽出できるので、対訳語句の生成精度を向上させることができる。
また、対訳処理装置10は、1つの処理で、複数のみなし複合語を特定した場合、一つずつ順次評価することもでき、まとめて評価することもできる。また、対訳処理装置10は、みなし複合語が新たな対訳語句と判定された場合、新たな対訳語句で形態素解析結果を変換した上で、対訳確率の計算やみなし複合語の探索を繰り返すこともできる。
ところで、複合語の境界判定は、予め設定した外部情報を用いて判定することもできる。そこで、実施例2では、実施例1による手法に加えて、外部情報を用いて複合語の境界判定を実行する例を説明する。
[品詞ルール]
図11は、実施例2にかかる品詞ルールに基づく複合語の境界を特定する図である。ここでは、対訳処理装置10は、外部情報として、「助詞+名詞」すなわち助詞と名詞の組み合わせの場合、境界判定の対象外とする品詞ルールを保持する。
例えば、図11に示すように、対訳処理装置10は、第1言語の文書から抽出された「が」から、第2言語の文書から抽出された「Fujitsu Tablet」への対訳確率が「0.59」であり、対訳確率が閾値(0.3)以上であることから、通常であれば、統計情報として「〇」を設定する。しかし、対訳処理装置10は、「が+Fujitsu Tablet」が品詞ルールの「助詞+名詞」に該当することから、統計情報としては「〇」ではなく「×」を設定し、境界判定の対象外とする。このように、対訳処理装置10は、各言語の品詞連続ルールを利用することで、不適切な境界判定を回避することができる。なお、品詞ルールに設定する情報は、任意に設定変更することができる。
[既知の対訳語句]
図12は、実施例2にかかる既知の対訳語句に基づく複合語の境界を特定する図である。ここでは、対訳処理装置10は、外部情報として事前に整備した対訳辞書を保持し、対訳辞書に登録される既知の対訳語句については、両方向の対訳確率が閾値を越えたとみなして処理を実行する。
図12に示すように、対訳処理装置10は、既知の対訳語句として[株式会社:Limited]を保持する。そして、対訳処理装置10は、第1言語の「株式会社」から第2言語の「Limited」への対訳確率が「0.21」であり、逆方向の対訳確率が「0.1」であり、両方向の対訳確率が閾値(0.3)未満と判定する。
この場合、対訳処理装置10は、通常であれば、「株式会社」から「Limited」の統計情報および「Limited」から「株式会社」の統計情報として「×」を設定する。しかし、対訳処理装置10は、既知の対訳語句として[株式会社:Limited]が登録されていることから、対訳確率の算出結果に関係なく、「株式会社」から「Limited」の統計情報および「Limited」から「株式会社」の統計情報として「〇」を設定する。このように、対訳処理装置10は、不適切な境界判定を回避することができる。なお、既知の対訳語句は、あくまで例示であり、任意に設定変更することができる。
[構文構造]
図13は、実施例2にかかる構文構造に基づく複合語の境界を特定する図である。ここでは、対訳処理装置10は、外部情報として、単語間の関係性を示す構文構造を保持し、構文構造に基づいて複合語の対象を判定する。
図13に示すように、対訳処理装置10は、構文構造として、「発表、会見、先日」の関係性と、「発表、会社、株式、タブレット、富士通」の関係性とを保持する。そして、対訳処理装置10は、第1言語の「会見」と第2言語の「Fujitsu Tablet」との両方の対訳確率が閾値以上であることから、「会見」と「Fujitsu Tablet」との組も、複合語の候補として抽出する。
しかし、対訳処理装置10は、構文構造を参照すると、「会見」と「会見」の次に候補として抽出される「富士通」との関係性が直接的ではないことが特定できる。このため、対訳処理装置10は、両方向の対訳確率が閾値以上である「会見」を、複合語の候補から除外する。この結果、対訳処理装置10は、境界の検出精度を向上させることができる。
ところで、対訳語句の抽出元である「comparable corpus」な多言語文書対は、内容の主旨が対応しているものの、情報量がアンバランスであることから、文単位完全対応する「parallel corpus」な多言語文書対と比較して対訳語句の抽出効率が低い。このため、「comparable corpus」な多言語文書対から対訳語句の抽出する際に、ノイズを低減させて、精度を向上させる技術が求められている。
そこで、実施例3では、「parallel corpus」な多言語文書対から、対訳語句抽出用の学習データとなる新たな多言語文書対を生成して、対訳語句の抽出精度を向上させる例を説明する。
[対訳処理装置50の説明]
図14は、実施例3にかかる新規の多言語文書対の生成を説明する図である。図14に示すように、実施例1と同様、対訳処理装置50は、comparable corpusである多言語文書群として、日本語文書A−英語文書Bを保持する。ここで、日本語文書A−英語文書Bは、同じ内容が記載されている文書であり、ページ毎に情報の粒度が異なる文書対である。
そして、対訳処理装置50は、各多言語文書対に対して、文書中の意味が変わらない段落を検出して削除することで、新たな多言語文書対を生成する。例えば、対訳処理装置50は、日本語文書A−英語文書Bから日本語文書A´−英語文書B´を生成する。
つまり、文書全体の意味とかけ離れている段落は、削除されても文書の意味が大きく変化しない。このことから、意味の変わらない段落を削除して生成した新しい多言語文書対も内容が対応する関係を持ち、対訳辞書抽出の学習対象になる。このようにして、対訳処理装置50は、新たな多言語文書対を生成することができ、学習対象データを増やすこともできる。
[機能構成]
図15は、実施例3にかかる対訳処理装置50の機能構成を示す機能ブロック図である。図15に示すように、対訳処理装置50は、通信部51、記憶部52、制御部60を有する。
通信部51は、他の装置との間の通信を制御する処理部であり、例えば通信インタフェースなどである。例えば、通信部51は、管理者等が利用する管理装置から処理開始指示を受信し、管理装置に処理結果を送信する。また、通信部51は、各種データベースサーバなどから文書情報を取得する。
記憶部52は、データや制御部60が実行するプログラムなどを記憶する記憶装置の一例であり、例えばメモリやハードディスクなどである。この記憶部52は、文書DB53と新規文書DB54を記憶する。
文書DB53は、対訳語句の抽出元である、comparable corpusである多言語の文書対を記憶するデータベースである。例えば、文書DB53は、日本語で記述された日本語文書A(以下では文書Aと記載する場合がある)と、当該日本語と同じ内容が英語で記述された英語文書(以下では文書Bと記載する場合がある)とを対応付けて記憶する。ここで記憶される文書対の情報は、実施例1と同様なので、詳細な説明を省略する。
新規文書DB54は、対訳処理装置10により新たに生成された多言語文書対を記憶するデータベースである。例えば、新規文書DB54は、文書Aと文書Bとの多言語文書対から生成された、日本語文書A´(以下では文書A´と記載する場合がある)と英語文書B´(以下では文書B´と記載する場合がある)との多言語文書対を記憶する。
制御部60は、対訳処理装置50全体を司る処理部であり、例えばプロセッサなどである。制御部60は、文書意味算出部61、段落分割部62、生成処理部63を有する。
文書意味算出部61は、文書DB53に記憶される多言語文書対に対し、各文書自体の意味を高次元ベクトルで表現する処理部である。例えば、文書意味算出部61は、文書Aと文書Bとのそれぞれについて、「topic models」や「Doc2Vec」などの公知の手法を用いて、文書の意味をベクトルに変換する。そして、文書意味算出部61は、得られた文書の意味ベクトルを生成処理部63等に出力する。
段落分割部62は、文書DB53に記憶される多言語文書対に対し、段落単位に各文書を分割する処理部である。例えば、段落分割部62は、文書Aと文書Bとのそれぞれについて、htmlタグ、改行、文字下げ、行間距離などのレイアウト情報を基に、段落を識別して各段落に分割する。
図16は、段落分割の結果を説明する図である。図16に示すように、段落分割部62は、文書Aを段落1,2,3,4に分割し、文書Bを段落a,b,cに分割する。そして、段落分割部62は、分割した情報を記憶部52に保持したり、生成処理部63に出力したりする。
生成処理部63は、段落意味算出部64、評価部65、生成部66を有し、多言語文書対の各文書から、削除前後で意味の変わらない段落の検出と削除を実行して、新たな多言語文書対を生成する処理部である。
段落意味算出部64は、段落分割部62により分割された各文書について、各段落の情報を基に、文書の一部の段落と残りの段落とに分割したときの段落の意味を示すベクトルを算出する処理部である。具体的には、段落意味算出部64は、1文書を2分割する段落の組み合わせを抽出し、2分割した文書の段落を独立な文書とみなして、文書意味算出部61と同様の手法により各段落の文書意味ベクトルを算出する。
図17は、段落意味ベクトルの算出例を説明する図である。図17に示すように、段落意味算出部64は、段落1、2、3、4を有する文書Aに対して、文書Aを2分割できる組み合わせとして、「(1)段落1と(2)段落2〜4」、「(3)段落2と(4)段落1,3〜4」、「(5)段落3と(6)段落1,2,4」、「(7)段落1,2と(8)段落3,4」などの組み合わせを生成する。そして、段落意味算出部64は、(1)から(8)の各意味ベクトルを算出する。その後、段落意味算出部64は、算出結果を評価部65に出力する。
評価部65は、各文書の各段落を評価し、削除可能な段落を検出する処理部である。具体的には、評価部65は、段落意味算出部64により算出された段落の組み合わせの文書意味ベクトル、および、文書意味算出部61により算出された文書意味ベクトルを用いて、多言語文書対に対して、2分割段落及び文書全体の意味ベクトル同士の距離を算出する。そして、評価部65は、算出結果を用いて、削除可能な分割段落を検出して、生成部66に出力する。
図18は、削除可能な段落の検出手法を説明する図である。図18に示すように、評価部65は、段落分割済みの文書Aが有するすべての段落n(nは自然数)に対して、(1)文書Aの意味ベクトルと、(2)段落nの意味ベクトルと、(3)文書Aから文書nを削除した残りの段落(A−n)の意味ベクトルとの各間の意味ベクトルの距離を算出する。そして、評価部65は、(1)と(3)の距離が閾値未満、かつ、(1)と(2)の距離および(2)と(3)の距離が閾値以上の段落nを削除可能と判定する。
つまり、評価部65は、段落の意味ベクトルが元文書の意味ベクトルとの類似度が低く、かつ、残りの文書内容の意味ベクトルが元文書の意味ベクトルとの類似度が高い場合、その段落を削除可能と判定する。これは、「段落」の内容が文書全体の意味(トピック、主旨)とかけ離れている場合、その段落の意味ベクトルが文書全体の意味ベクトルとの類似度が低くなることに着目している。したがって、文書全体の意味とかけ離れている段落を削除しても、残りの段落集合で文書の意味を表すことができる。
ここで、意味ベクトルの詳細について説明する。図19は、意味ベクトル空間を説明する図である。ここでは、段落数がmの文書Aを例にして説明する。例えば、文書意味算出部61は、多言語文書{D,D}に対して、意味ベクトル{PD,PD}を算出する。また、段落意味算出部64は、[n]段落とその残りの[m=1−n]段落を分割し、組み合わせ{D ,D ,D ,D }の段落群を生成し、その意味ベクトル{PD ,PD ,PD ,PD }を算出する。
この状態で、評価部65は、PDとPD の類似度S(PDとPD )、PDとPD の類似度S(PDとPD )、PDとPD の類似度S(PDとPD )、PDとPD の類似度S(PDとPD )を算出する。そして、評価部65は、式(1)および式(2)が成り立つ場合、多言語文書対{D,D}から段落{D ,D }を削除可能と判定する。
Figure 2020126493
Figure 2020126493
なお、式1および式2におけるSおよびSは、閾値である。例えば、閾値Sは、削除候補の段落nが文書全体との意味ベクトル距離の制約や閾値を超える場合、段落nの意味が文書全体の意味とは異なることを判定する。閾値Sは、残り段落mが文書全体との意味ベクトル距離の制約や閾値を超える場合、段落mの意味が文書全体の意味とは異なることを判定する。
また、SおよびSは、予め設定される。例えば、利用者等の経験により設定することができる。また、事前に多言語文書群の一部に対し、人手で削除可能な段落にタグを付け、対訳処理装置50で意味ベクトルの類似度S(PDとPD )、S(PDとPD )、S(PDとPD )、S(PDとPD )のそれぞれを計算し、既知の削除可能な段落を検出できるように閾値を自動設定することもできる。また、SおよびSは、言語別で設定することもできる。
図15に戻り、生成部66は、多言語文書対の各文書について、評価部65によって削除可能と判定された段落を削除して、新たな多言語文書対を生成する処理部である。具体的には、生成部66は、文書DB53に記憶される元の多言語対応文書対に対し、評価部65で検出された削除可能な段落を削除し、残りの段落で新規の内容が対応する多言語文書対を生成して、新規文書DB54に格納する。
図20は、新規の多言語文書対の生成を説明する図である。図20に示すように、評価部65によって、comparable corpusである文書A(段落1,2,3,4)および文書B(段落a,b,c)から、段落3と段落cが削除可能と判定されたとする。この場合、生成部66は、文書A(段落1,2,3,4)から段落3を削除した文書A´と、文書B(a,b,c)から段落cを削除した文書B´とを生成する。
そして、生成部66は、文書A´(段落1,2,4)と文書B´(段落a,b)を新たな多言語文書対として、新規文書DB54に格納する。段落削除後、元文書との意味は大きく変更しないので、元文書対のcomparable関係は新文書対が継承する。
[全体的な処理の流れ]
図21は、実施例3にかかる生成処理の流れを示すフローチャートである。図21に示すように、処理開始が指示されると(S201:Yes)、文書意味算出部61は、多言語文書対の各文書の意味ベクトルを算出する(S202)。続いて、段落分割部62は、各文書を段落に分割する(S203)。
そして、生成処理部63は、特定段落の意味ベクトルとそれ以外の段落の意味ベクトルとを算出し(S204)、段落間の意味ベクトルの距離を用いて、削除可能な段落を検出する(S205)。その後、生成処理部63は、削除可能な段落を削除した新規の多言語文書対を生成する(S206)。
[詳細な処理の流れ]
図22は、実施例3にかかる生成処理の詳細な流れを示すフローチャートである。この処理は、図21のS204からS206に該当する。
図22に示すように、生成処理部63は、多言語文書対に対して、S301からS310のループ処理を実行する。具体的には、生成処理部63は、多言語文書対に対して任意の段落とその残りの段落を分割した段落との組み合わせを生成する(S302)。続いて、生成処理部63は、多言語文書対に対して、その意味ベクトルを算出する(S303)。
その後、生成処理部63は、段落を分割した組み合わせに対してS304からS309のループ処理を実行する。具体的には、生成処理部63は、S303で生成された部分段落それぞれの意味ベクトルを算出し(S305)、算出した各部分段落の意味ベクトル間の類似度を算出する(S306)。
そして、生成処理部63は、意味ベクトル間の類似度が条件(上記式(1)および式(2))を満たす場合(S307:Yes)、該当段落を削除した新規の多言語文書対を生成する(S308)。一方、生成処理部63は、意味ベクトル間の類似度が条件を満たさない場合(S307:No)、S304以降を繰り返す。
ところで、段落の削除可否の判定は、各文書のメタデータや外部情報などを用いて判定することもできる。そこで、実施例4では、実施例1による手法に加えて、外部情報等を用いて、段落の削除可否を判定する例を説明する。
[文書情報]
図23は、実施例4にかかる文書情報に基づく削除可否の判定を説明する図である。ここでは、対訳処理装置50は、文書情報として、文書及び段落の文字数、文書及び段落に出現した用語の全体出現頻度などを記憶する。
具体的には、図23に示すように、対訳処理装置50は、実施例3の手法により、文書Aの段落3と文書Bの段落cとが削除対象と判定した場合、各文書の文書情報を参照し、除外条件に該当する段落3については削除対象から除外する。
例えば、対訳処理装置50の評価部65は、多言語文書{D,D}の文書Dのサイズ(文字数:WD)と文書Dのサイズ(文字数:WD)との差異(WD/WD)を算出し、文書Dが閾値よりも短い文書であれば、段落の削除を行わない。なお、差異は、「WD−WD」であってもよい。
また、評価部65は、段落D の文字数が文書Dにおける割合(WD /WD)を算出し、割合が閾値以上である場合、段落の削除を行わない。また、評価部65は、段落D の語句D n,iに対して全文書群におけるTFIDF(Term Frequency Inverse Document Frequency)を算出し、段落D の全語句のTFIDFが閾値以上であれば、段落の削除を行わない。なお、TFIDFは、重要度の一例である。
このように、対訳処理装置50は、元々が短い文書の場合、元々の文書の段落数が少ない場合、削除対象である段落内の語句の出現率が高い場合、各段落が文書自体の意味に与える影響も大きく、段落の削除によって文書が極端に短くなって、対訳語句を抽出するための学習データとしては適さないことから、段落の削除を抑制する。
[既知の対訳語句]
図24は、実施例4にかかる既知の対訳語句に基づく削除可否の判定を説明する図である。ここでは、対訳処理装置50は、文書情報として、事前に整備した対訳辞書を保持する。
具体的には、図24に示すように、対訳処理装置50は、実施例3の手法により、文書Aの段落3と文書Bの段落cとが削除対象と判定した場合、既知の対訳語句を参照し、条件に該当する段落3については削除対象から除外する。
例えば、対訳処理装置50の評価部65は、多言語文書{D,D}に対して、削除候補の段落D の語句D n,iの対訳語句D n,jとした場合に、語数TD n,iが文書Dにおける割合「TD n,i/文字数(WD)」を算出し、閾値以上である場合には削除を行わない。すなわち、対訳処理装置50は、TD n,iが大きく占める場合は、該当段落に対訳語句が多く登場することから、削除しない。
ところで、実施例3や実施例4で生成した新たな多言語文書対を用いて、対訳語句を算出する手法としては、実施例1や実施例2を採用することができるが、それ以外の手法を採用することもできる。そこで、実施例5では、新たな多言語文書対から対訳語句を算出手法の例を説明する。
(具体例1)
図25は、実施例5にかかる対訳語句の抽出例1を説明する図である。図25に示すように、対訳処理装置50は、元の多言語文書対のみ、新たな多言語文書対のみ、元の多言語文書対および新たな多言語文書対の両方を、学習データとして、対訳語句を抽出することができる。
例えば、対訳処理装置50は、元の多言語文書対と新たな多言語文書対とのファイル数を比較し、ファイル数が多い方を選択することができる。また、対訳処理装置50は、ファイル数が基準(閾値)を満たす方を選択することもできる。また、対訳処理装置50は、元の多言語文書対と新たな多言語文書対とのそれぞれの文字数を算出し、ファイル数が多くかつ文字数が多い方を選択することもできる。
(具体例2)
図26は、実施例5にかかる対訳語句の抽出例2を説明する図である。図26に示すように、対訳処理装置50は、元の多言語文書対または新たな多言語文書対を学習データとして、半教師あり学習により対訳語句の抽出および対訳辞書の生成を実行することができる。
例えば、対訳処理装置50は、内容が対応する多言語文書対から対訳語句を抽出する特開2018−10514の手法を用いた半教師あり学習を実行する。詳細には、対訳処理装置50は、特開2018−10514の手法により計算されたスコアを元に、上位数位までの対訳語句、または、スコア値が閾値以上の対訳語句を登録する。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、種々の異なる形態にて実施されてよいものである。
[利用形態]
上述した実施例1−4の対訳処理装置は、特定のコミュニティのユーザが利用することができる。図27は、利用形態の一例を説明する図である。図27に示すように、実施例1−4の対訳処理装置は、インターネットや社内ネットワークなどのネットワーク上に設置され、部門や会社などの特定コミュニティのユーザが日々作成、更新した多言語文書群を蓄積した部門文書DBから部門の専門用語対訳辞書を作成して、翻訳サーバに搭載する。このようにすることで、ユーザは、翻訳サーバに格納される対訳辞書を用いて、各文書の翻訳や内容の把握を行うことができる。
[データや数値等]
上記実施例で用いた数値、データ例、文書の数、段落数等は、あくまで一例であり、任意に変更することができる。また、上記実施例では、内容の主旨が対応する第2の多言語文書対(comparable corpus)を対象とした例で説明したが、行単位で対応する第1の多言語文書対(parallel corpus)を対象とすることもできる。また、多言語文書対の言語も日本語と英語に限らず、フランス語や中国語など他の言語を用いることができる。
[段落の削除可否]
例えば、上記実施例で説明した判定手法以外の手法を用いることができる。例えば、対訳処理装置50は、第一の文書において削除対象と判定された段落cに含まれる語句と対応付けられる既知の対訳語句が、第二の文書内に所定数以上含まれる場合は、段落cを削除対象から除外することもできる。また、多言語文書対の両方から段落を削除する例を説明したが、これに限定されず、片方の文書のみから段落を削除することもできる。
[システム]
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。例えば、実施例1−2の対訳処理装置10と実施例3−4の対訳処理装置50とを別々のサーバで実現することもでき、同じサーバで実現することもできる。
さらに、各装置にて行なわれる各処理機能は、その全部または任意の一部が、CPUおよび当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
[ハードウェア]
また、上記対訳処理装置10と対訳処理装置50とは同様のハードウェア構成を有するので、ここでは、対訳処理装置100として説明する。図28は、ハードウェア構成例を説明する図である。図28に示すように、対訳処理装置100は、通信装置100a、HDD(Hard Disk Drive)100b、メモリ100c、プロセッサ100dを有する。また、図28に示した各部は、バス等で相互に接続される。
通信装置100aは、ネットワークインタフェースカードなどであり、他のサーバとの通信を行う。HDD100bは、図2や図16に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ100dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ100cに展開することで、図2等で説明した各機能を実行するプロセスを動作させる。すなわち、このプロセスは、対訳処理装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ100dは、形態素解析部21、確率計算部22、統計情報取得部23、検出処理部24等と同様の機能を有するプログラムをHDD100b等から読み出す。そして、プロセッサ100dは、形態素解析部21、確率計算部22、統計情報取得部23、検出処理部24等と同様の処理を実行するプロセスを実行する。なお、図16についても同様である。
このように対訳処理装置10は、プログラムを読み出して実行することで対訳処理方法を実行する情報処理装置として動作する。また、対訳処理装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、対訳処理装置10によって実行されることに限定されるものではない。例えば、他のコンピュータまたはサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
10 対訳処理装置
11 通信部
12 記憶部
13 文書DB
14 対訳辞書DB
20 制御部
21 形態素解析部
22 確率計算部
23 統計情報取得部
24 検出処理部
25 境界同定部
26 学習データ置換部
27 候補評価部
50 対訳処理装置
51 通信部
52 記憶部
53 文書DB
54 新規文書DB
60 制御部
61 文書意味算出部
62 段落分割部
63 生成処理部
64 段落意味算出部
65 評価部
66 生成部

Claims (13)

  1. コンピュータが、
    第一の言語で記述された第一の文書に含まれる各第一の形態素から、前記第一の文書と同等の内容が第二の言語で記述された第二の文書に含まれる各第二の形態素への第一の対訳確率、および、前記各第二の形態素から前記各第一の形態素への第二の対訳確率を算出し、
    前記第一の対訳確率および前記第二の対訳確率が閾値以上である、前記第一の言語と前記第二の言語との組である形態素対を抽出し、
    抽出された前記形態素対に基づき、前記第一の文書と前記第二の文書とにおける対訳語句を生成する
    処理を実行することを特徴とする対訳処理方法。
  2. 前記抽出する処理は、前記第一の対訳確率と前記第二の対訳確率との両方向の対訳確率が閾値以上である複数の形態素対を特定し、
    前記生成する処理は、前記複数の形態素対を1つの単語として前記対訳語句を生成することを特徴とする請求項1に記載の対訳処理方法。
  3. 前記複数の形態素対を1つの単語とみなしたみなし複合語を生成し、
    前記みなし複合語を1つの形態素として、前記第一の対訳確率および前記第二の対訳確率を算出し、
    前記みなし複合語に対する前記第一の対訳確率および前記第二の対訳確率が、前記みなし複合語を構成する各形態素の前記第一の対訳確率および前記第二の対訳確率よりも高い場合に、前記みなし複合語を1つの単語とする前記対訳語句を生成する、処理を前記コンピュータが実行することを特徴とする請求項2に記載の対訳処理方法。
  4. 前記抽出する処理は、隣接する第一の形態素の前記両方向の対訳確率、および、隣接する第二の形態素の前記両方向の対訳確率を用いて、前記みなし複合語とみなす最大の範囲を決定することを特徴とする請求項3に記載の対訳処理方法。
  5. 前記抽出する処理は、算出された各対訳確率に関わらず、予め指定した助詞に該当する形態素については、前記第一の対訳確率または前記第二の対訳確率が前記閾値未満として扱って、または、既知の対訳語句に該当する形態素については、前記第一の対訳確率または前記第二の対訳確率が前記閾値以上として扱って、前記形態素対を抽出することを特徴とする請求項1に記載の対訳処理方法。
  6. コンピュータに、
    第一の言語で記述された第一の文書に含まれる各第一の形態素から、前記第一の文書と同等の内容が第二の言語で記述された第二の文書に含まれる各第二の形態素への第一の対訳確率、および、前記各第二の形態素から前記各第一の形態素への第二の対訳確率を算出し、
    前記第一の対訳確率および前記第二の対訳確率が閾値以上である、前記第一の言語と前記第二の言語との組である形態素対を抽出し、
    抽出された前記形態素対に基づき、前記第一の文書と前記第二の文書とにおける対訳語句を生成する
    処理を実行させることを特徴とする対訳処理プログラム。
  7. コンピュータが、
    第一の言語で記述された第一の文書と前記第一の文書と同等の内容が第二の言語で記述された第二の文書とが対応付けられた文書対に対して、前記第一の文書に含まれる各段落を特定し、
    前記各段落が前記第一の文書の意味に与える影響を推定し、
    推定された前記影響に基づいて、削除対象の段落を特定し、
    前記削除対象の段落を前記第一の文書から削除した更新後の第一の文書と、前記第二の文書とが対応付けられた文書対を生成する
    処理を実行することを特徴する対訳処理方法。
  8. 前記第二の文書に含まれる各段落を特定し、
    前記各段落が前記第二の文書の意味に与える影響を推定し、
    推定された前記影響に基づいて、削除対象の段落を特定し、
    前記削除対象の段落を前記第二の文書から削除した更新後の第二の文書と、前記更新後の第一の文書とが対応付けられた文書対を生成する、処理を前記コンピュータが実行することを特徴とする請求項7に記載の対訳処理方法。
  9. 前記推定する処理は、前記第一の文書の意味を高次元ベクトルで表現した第一の意味ベクトル、ある段落に対応する第二の意味ベクトル、前記ある段落を除く残りの段落に対応する第三の意味ベクトルを算出し、
    前記特定する処理は、前記第一の意味ベクトルと前記第三の意味ベクトルとの距離が閾値未満、かつ、前記第一の意味ベクトルと前記第二の意味ベクトルとの距離が閾値以上および前記第二の意味ベクトルと前記第三の意味ベクトルとの距離が閾値以上である場合に、前記ある段落を削除可能と判定することを特徴とする請求項7に記載の対訳処理方法。
  10. 前記特定する処理は、ある段落の文字数が前記第一の文書全体に占める割合が閾値以上の場合、または、前記第一の文書全体におけるある段落の全語句の重要度の平均が閾値以上の場合、前記ある段落を削除対象から除外することを特徴とする請求項7に記載の対訳処理方法。
  11. 前記特定する処理は、前記第一の文書の文字数と前記第二の文書の文字数の差異が閾値以上の場合、前記第一の文書から段落を削除することを抑制することを特徴とする請求項8に記載の対訳処理方法。
  12. 前記特定する処理は、前記第一の文書において削除対象と判定されたある段落に含まれる語句に対応付けられる既知の対訳語句が、前記第二の文書内に所定数以上含まれる場合は、前記ある段落を削除対象から除外することを特徴とする請求項8に記載の対訳処理方法。
  13. コンピュータに、
    第一の言語で記述された第一の文書と前記第一の文書と同等の内容が第二の言語で記述された第二の文書とが対応付けられた文書対に対して、前記第一の文書に含まれる各段落を特定し、
    前記各段落が前記第一の文書の意味に与える影響を推定し、
    推定された前記影響に基づいて、削除対象の段落を特定し、
    前記削除対象の段落を前記第一の文書から削除した更新後の第一の文書と、前記第二の文書とが対応付けられた文書対を生成する
    処理を実行させることを特徴する対訳処理プログラム。
JP2019019167A 2019-02-05 2019-02-05 対訳処理方法および対訳処理プログラム Active JP7251181B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019019167A JP7251181B2 (ja) 2019-02-05 2019-02-05 対訳処理方法および対訳処理プログラム
US16/780,963 US11645475B2 (en) 2019-02-05 2020-02-04 Translation processing method and storage medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019019167A JP7251181B2 (ja) 2019-02-05 2019-02-05 対訳処理方法および対訳処理プログラム

Publications (2)

Publication Number Publication Date
JP2020126493A true JP2020126493A (ja) 2020-08-20
JP7251181B2 JP7251181B2 (ja) 2023-04-04

Family

ID=71838114

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019019167A Active JP7251181B2 (ja) 2019-02-05 2019-02-05 対訳処理方法および対訳処理プログラム

Country Status (2)

Country Link
US (1) US11645475B2 (ja)
JP (1) JP7251181B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115329785A (zh) * 2022-10-15 2022-11-11 小语智能信息科技(云南)有限公司 融入音素特征的英-泰-老多语言神经机器翻译方法及装置

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10325014B2 (en) 2015-04-30 2019-06-18 Workiva Inc. System and method for convergent document collaboration
DE102016114265A1 (de) * 2016-08-02 2018-02-08 Claas Selbstfahrende Erntemaschinen Gmbh Verfahren zum zumindest teilweise maschinellen Transferieren einer in einer Quellsprache abgefassten Wortfolge in eine Wortfolge einer Zielsprache
JP7251181B2 (ja) * 2019-02-05 2023-04-04 富士通株式会社 対訳処理方法および対訳処理プログラム
US11093720B2 (en) * 2019-03-28 2021-08-17 Lenovo (Singapore) Pte. Ltd. Apparatus, method, and program product for converting multiple language variations
US11755825B2 (en) 2019-09-12 2023-09-12 Workiva Inc. Method, system, and computing device for facilitating private drafting
US11100281B1 (en) 2020-08-17 2021-08-24 Workiva Inc. System and method for maintaining links and revisions
US11443108B2 (en) 2020-08-17 2022-09-13 Workiva Inc. System and method for document management using branching
US11100277B1 (en) 2021-02-15 2021-08-24 Workiva Inc. Systems, methods, and computer-readable media for flow-through formatting for links
US11354362B1 (en) 2021-05-06 2022-06-07 Workiva Inc. System and method for copying linked documents
US11640495B1 (en) * 2021-10-15 2023-05-02 Workiva Inc. Systems and methods for translation comments flowback

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342325A (ja) * 2001-05-15 2002-11-29 Nec Corp 対訳確率付与装置、対訳確率付与方法並びにそのプログラム
US20160306794A1 (en) * 2015-04-20 2016-10-20 Alibaba Group Holding Limited System and method for training a machine translation system

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7620538B2 (en) * 2002-03-26 2009-11-17 University Of Southern California Constructing a translation lexicon from comparable, non-parallel corpora
JP4708682B2 (ja) 2003-04-02 2011-06-22 日本電信電話株式会社 対訳単語対の学習方法、装置、及び、対訳単語対の学習プログラムを記録した記録媒体
JP2005092253A (ja) 2003-09-11 2005-04-07 Fuji Xerox Co Ltd 機械学習用データ生成システム及び機械学習用データ生成方法、類似文書対生成システム及び類似文書対生成方法、並びにコンピュータ・プログラム
US7620539B2 (en) * 2004-07-12 2009-11-17 Xerox Corporation Methods and apparatuses for identifying bilingual lexicons in comparable corpora using geometric processing
US9020804B2 (en) * 2006-05-10 2015-04-28 Xerox Corporation Method for aligning sentences at the word level enforcing selective contiguity constraints
JP5082374B2 (ja) * 2006-10-19 2012-11-28 富士通株式会社 フレーズアラインメントプログラム、翻訳プログラム、フレーズアラインメント装置およびフレーズアラインメント方法
US20080120092A1 (en) * 2006-11-20 2008-05-22 Microsoft Corporation Phrase pair extraction for statistical machine translation
US8504354B2 (en) * 2008-06-02 2013-08-06 Microsoft Corporation Parallel fragment extraction from noisy parallel corpora
JP5918625B2 (ja) 2012-05-18 2016-05-18 日本放送協会 句翻訳モデル学習装置およびそのプログラム
CN104239286A (zh) * 2013-06-24 2014-12-24 阿里巴巴集团控股有限公司 同义短语的挖掘方法和装置及搜索相关内容的方法和装置
JP6705318B2 (ja) * 2016-07-14 2020-06-03 富士通株式会社 対訳辞書作成装置、対訳辞書作成方法、及び対訳辞書作成プログラム
JP7251181B2 (ja) * 2019-02-05 2023-04-04 富士通株式会社 対訳処理方法および対訳処理プログラム

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002342325A (ja) * 2001-05-15 2002-11-29 Nec Corp 対訳確率付与装置、対訳確率付与方法並びにそのプログラム
US20160306794A1 (en) * 2015-04-20 2016-10-20 Alibaba Group Holding Limited System and method for training a machine translation system

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
春野瑞季 他3名: "文パターンを用いた句の抽出方法の検討", 言語処理学会第19回年次大会 発表論文集[ONLINE], JPN6022041979, 4 March 2013 (2013-03-04), JP, pages 741 - 744, ISSN: 0004887042 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN115329785A (zh) * 2022-10-15 2022-11-11 小语智能信息科技(云南)有限公司 融入音素特征的英-泰-老多语言神经机器翻译方法及装置
CN115329785B (zh) * 2022-10-15 2023-01-20 小语智能信息科技(云南)有限公司 融入音素特征的英-泰-老多语言神经机器翻译方法及装置

Also Published As

Publication number Publication date
US11645475B2 (en) 2023-05-09
US20200250383A1 (en) 2020-08-06
JP7251181B2 (ja) 2023-04-04

Similar Documents

Publication Publication Date Title
JP7251181B2 (ja) 対訳処理方法および対訳処理プログラム
US10489439B2 (en) System and method for entity extraction from semi-structured text documents
TWI536181B (zh) 在多語文本中的語言識別
Şeker et al. Initial explorations on using CRFs for Turkish named entity recognition
Sadat et al. Automatic identification of arabic dialects in social media
US9483460B2 (en) Automated formation of specialized dictionaries
US20130060769A1 (en) System and method for identifying social media interactions
US20160188568A1 (en) System and method for determining the meaning of a document with respect to a concept
JP5379138B2 (ja) 領域辞書の作成
CN108319583B (zh) 从中文语料库提取知识的方法与系统
Forsyth et al. Document dissimilarity within and across languages: a benchmarking study
JP2005174336A (ja) 情報抽出のための一般化文字列パターンの学習および使用
Deng et al. Resolving ambiguity in sentiment classification: The role of dependency features
JP4534666B2 (ja) テキスト文検索装置及びテキスト文検索プログラム
Zamora et al. Tweets Language Identification using Feature Weighting.
Golpar-Rabooki et al. Feature extraction in opinion mining through Persian reviews
CN114692628A (zh) 样本生成方法、模型训练方法、文本抽取方法和装置
US20100094615A1 (en) Document translation apparatus and method
Venčkauskas et al. Problems of authorship identification of the national language electronic discourse
Mahmoud et al. Using twitter to monitor political sentiment for Arabic slang
Subha et al. Quality factor assessment and text summarization of unambiguous natural language requirements
Ahmed et al. Arabic/english word translation disambiguation using parallel corpora and matching schemes
Tahmasebi et al. On the applicability of word sense discrimination on 201 years of modern english
JP2009295052A (ja) 複合語の区切り位置を推定する複合語区切り推定装置、方法、およびプログラム
Mekki et al. Tokenization of Tunisian Arabic: a comparison between three Machine Learning models

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211109

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220929

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221202

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230221

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230306

R150 Certificate of patent or registration of utility model

Ref document number: 7251181

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150