JP7115187B2 - 情報処理装置、情報処理方法及びプログラム - Google Patents

情報処理装置、情報処理方法及びプログラム Download PDF

Info

Publication number
JP7115187B2
JP7115187B2 JP2018182652A JP2018182652A JP7115187B2 JP 7115187 B2 JP7115187 B2 JP 7115187B2 JP 2018182652 A JP2018182652 A JP 2018182652A JP 2018182652 A JP2018182652 A JP 2018182652A JP 7115187 B2 JP7115187 B2 JP 7115187B2
Authority
JP
Japan
Prior art keywords
kanji
language
reading
sentence
target sentence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018182652A
Other languages
English (en)
Other versions
JP2020052819A (ja
Inventor
征二 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2018182652A priority Critical patent/JP7115187B2/ja
Publication of JP2020052819A publication Critical patent/JP2020052819A/ja
Application granted granted Critical
Publication of JP7115187B2 publication Critical patent/JP7115187B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Description

本発明は、情報処理装置、情報処理方法及びプログラムに関する。
近年、電子書籍の読み上げ機能、ロボットの音声発話機能、車両に搭載されたナビゲーション装置における音声案内機能等のように、文章を音声により再生する種々のシステムが提案されている。特許文献1には、容量の制限された辞書を参照しながらも、配信された文字データを適切に解析し、該文字データを読み上げる文章読み上げ装置が開示されている。
特開2005-208421号公報
しかしながら、例えば日本語の文章では、文脈により文章内の漢字の読み仮名が変わる場合がある。従来の技術では、漢字に複数の読み仮名の候補がある場合、コンピュータは文脈によって変わる読み仮名を適切に選択できず、漢字の読み間違いが起こる恐れがあった。
一つの側面では、漢字の読み間違いを低減することが可能な情報処理装置等を提供することにある。
一つの側面に係る情報処理装置は、漢字を含む第1言語の対象文を取得する取得部と、前記第1言語の文章の読みを学習済みの学習済みモデルを用いて、前記対象文の読みを推定する推定部と、前記対象文に含まれる前記漢字に対して複数の読みが推定された場合、前記対象文を、前記第1言語と異なる第2言語に翻訳した翻訳文に変換する変換部と、前記翻訳文から、前記漢字に対応する語句を抽出する抽出部と、抽出した前記語句を前記第1言語の語句に変換する第2変換部と、変換後の語句に基づき、前記複数の読みから前記漢字の読みを選択する選択部とを備えることを特徴とする。
一つの側面では、漢字の読み間違いを低減することが可能となる。
音声生成システムの概要を示す説明図である。 サーバの構成例を示すブロック図である。 文章DBのレコードレイアウトの一例を示す説明図である。 漢字ごとに複数の読み仮名の候補がある場合の読み仮名の選択処理を説明する説明図である。 音声生成処理の処理手順を示すフローチャートである。 音声生成処理の処理手順を示すフローチャートである。 実施形態2のサーバの構成例を示すブロック図である。 実施形態2の文章DBのレコードレイアウトの一例を示す説明図である。 読み仮名DBのレコードレイアウトの一例を示す説明図である。 専用辞書を用いて読み仮名を取得する際の処理手順を示すフローチャートである。
以下、本発明をその実施形態を示す図面に基づいて詳述する。
(実施形態1)
実施形態1は、漢字を含む日本語(第1言語)の対象文を音声に変換して出力する場合に、対象文を日本語と異なる言語(第2言語)に翻訳した翻訳文を参照しながら漢字の読み仮名を特定することにより、読み間違いを低減する形態に関する。図1は、音声生成システムの概要を示す説明図である。本実施形態のシステムは、情報処理装置1、翻訳情報処理装置2、及び端末3を含み、各装置はインターネット等のネットワークNを介して情報の送受信を行う。
情報処理装置1は、読み上げ対象とする対象文の取得、漢字に対する読み仮名の推定、対象文の他言語への変換等、種々の情報処理、情報記憶及び情報の送受信を行う情報処理装置であり、例えばサーバ装置、パーソナルコンピュータ等である。本実施形態において情報処理装置1はサーバ装置であるものとし、以下では簡潔のためサーバ1と読み替える。
翻訳情報処理装置2は、多言語間の翻訳を行うシステムを搭載している情報処理装置であり、例えばサーバ装置、パーソナルコンピュータ等である。なお、翻訳情報処理装置2は外部の翻訳システムまたは翻訳サイト等であっても良く、またはサーバ1内の翻訳機能として実装されても良い。翻訳情報処理装置2を通じて、日本語と英語、日本語と中国語、英語と韓国語等の翻訳を行うことが可能となる。本実施形態において、翻訳情報処理装置2はサーバ装置であるものとし、以下では簡潔のため翻訳サーバ2と読み替える。
端末3は、本システムを利用して文章の音声再生サービスを受けるユーザの端末装置であり、例えば多機能端末、パーソナルコンピュータ等である。サーバ1は、端末3からの出力要求を受けて対象文を音声に変換し、変換後の音声データを端末3に配信して再生させる。
続いて、日本語と異なる言語を用いて読み間違いを低減する処理の流れを説明する。サーバ1は、漢字を含む日本語で記述された対象文を取得し、日本語文章の読みを学習済みの学習済みモデルを用いて、取得した対象文に含まれる漢字の読み仮名を推定する。学習済みモデルは所謂言語モデルであり、前後の文脈から該当語句の読み仮名、品詞等を推定可能なモデルデータである。本実施形態では、学習済みモデルはディープラーニングにより構築(生成)された識別器であり、例えばRNN(Recurrent Neural Network;再帰型ニューラルネットワーク)であるものとして説明する。
なお、学習済みモデルはRNNに限定されるものではなく、例えばその他のニューラルネットワーク、N-gramモデル、隠れマルコフモデル(Hidden Markov Model)、形態素解析(Morphological Analysis)等であっても良い。
サーバ1は、対象文を所定単位の語句(例えば形態素)に分割して各語句を学習済みモデルに入力し、語句ごとに品詞、属性及び読み仮名を付与する(図4参照)。なお、属性は日本語の語句を概念的に分類した区分であり、例えば時間、場所、人、物、事等の意味的区分である。なお、日本語語句の属性を学習済みモデルに学習させることができない場合、サーバ1は、概念辞書(所謂オントロジー)のような外部DBを参照して属性を識別しても良い。
サーバ1は、一の漢字に対して複数の読み仮名の候補があった場合、当該漢字の読みに揺らぎがあると判定する。なお、以下の説明では便宜上、当該漢字を「対象漢字」とも呼ぶ。漢字の読みに揺らぎがあると判定した場合、サーバ1は、対象文を翻訳サーバ2に送信する。翻訳サーバ2は、サーバ1から送信された対象文を日本語と異なる言語の翻訳文に変換し、変換した翻訳文をサーバ1に送信する。例えば、翻訳サーバ2は、日英翻訳システムを利用し、対象文を英語の翻訳文に変換する。
なお、本実施形態では対象文を英語に翻訳文に変換するものとして説明するが、翻訳文の言語(第2言語)は日本語(第1言語)と異なっていれば良く、例えばフランス語、中国語、韓国語等であっても良いことは勿論である。
サーバ1は、受信した翻訳文から、対象漢字を含む対象文の一部(例えば文節単位のテキスト)に対応する語句を抽出し、抽出した語句を翻訳サーバ2に送信する。翻訳サーバ2は、サーバ1から送信された語句を日本語の語句に変換する。すなわち、翻訳サーバ2は、英語の語句を日本語の語句に逆翻訳する。なお、翻訳サーバ2は、変換された日本語の語句を使い、概念辞書またはWord2Vec等のベクトル化されたデータを検索し、日本語の語句に対する別の言い回し語句を収集しても良い。
翻訳サーバ2は、変換された日本語の語句をサーバ1に送信する。サーバ1は、翻訳サーバ2から送信された日本語の語句に基づき、複数の読み仮名の候補からいずれか一つを選択する。例えば、サーバ1は、複数の翻訳文それぞれに対応する変換後の日本語の語句において、最も多い漢字の読み仮名を選択しても良い。
サーバは、上記の処理を終了した後、選択した漢字の読み仮名に基づき、対象文に対応する音声を生成して出力する。音声の生成処理に関しては、例えば音声生成エンジンAITalk(登録商標)のWeb API(Application Programming Interface)を利用し、対象文のテキストから音声を生成しても良い。また、例えばサーバ1は、TTS(Text-to-Speech)エンジンを利用し、対象文のテキストから読み上げ音声が生成されても良い。
図2は、サーバ1の構成例を示すブロック図である。サーバ1は、制御部11、記憶部12、通信部13、入力部14、表示部15、読取部16及び大容量記憶部17を含む。各構成はバスBで接続されている。
制御部11はCPU(Central Processing Unit)、MPU(Micro-Processing Unit)、GPU(Graphics Processing Unit)等の演算処理装置を含み、記憶部12に記憶された制御プログラム1Pを読み出して実行することにより、サーバ1に係る種々の情報処理、制御処理等を行う。なお、図2では制御部11を単一のプロセッサであるものとして説明するが、マルチプロセッサであっても良い。
記憶部12はRAM(Random Access Memory)、ROM(Read Only Memory)等のメモリ素子を含み、制御部11が処理を実行するために必要な制御プログラム1P又はデータ等を記憶している。また、記憶部12は、制御部11が演算処理を実行するために必要なデータ等を一時的に記憶する。通信部13は通信に関する処理を行うための通信モジュールであり、ネットワークNを介して、翻訳サーバ2との間で情報の送受信を行う。
入力部14は、マウス、キーボード、タッチパネル、ボタン等の入力デバイスであり、受け付けた操作情報を制御部11へ出力する。表示部15は、液晶ディスプレイ又は有機EL(Electro Luminescence)ディスプレイ等であり、制御部11の指示に従い各種情報を表示する。
読取部16は、CD(Compact Disc)-ROM又はDVD(Digital Versatile Disc)-ROMを含む可搬型記憶媒体1aを読み取る。制御部11が読取部16を介して、制御プログラム1Pを可搬型記憶媒体1aより読み取り、大容量記憶部17に記憶しても良い。また、ネットワークN等を介して他のコンピュータから制御部11が制御プログラム1Pをダウンロードし、大容量記憶部17に記憶しても良い。さらにまた、半導体メモリ1bから、制御部11が制御プログラム1Pを読み込んでも良い。
大容量記憶部17は、例えばハードディスク等を含む大容量の記憶装置である。大容量記憶部17は、文章DB171及び学習済みモデル172を含む。文章DB171は、音声生成により読み上げられ、日本語で記述された対象文の情報を記憶している。学習済みモデルは、漢字に対し、品詞、属性、または読み仮名等を学習済みの学習済みモデルを記憶している。
なお、本実施形態において記憶部12及び大容量記憶部17は一体の記憶装置として構成されていても良い。また、大容量記憶部17は複数の記憶装置により構成されていても良い。更にまた、大容量記憶部17はサーバ1に接続された外部記憶装置であっても良い。
なお、本実施形態では、サーバ1は一台の情報処理装置であるものとして説明するが、複数台により分散して処理させても良く、または複数の仮想マシンにより構成されていても良い。
図3は、文章DB171のレコードレイアウトの一例を示す説明図である。文章DB171は、管理ID列、著者列、タイトル列及び文章列を含む。管理ID列は、各文章を識別するために、一意に特定される文章のIDを記憶している。著者列は、文章の著者名を記憶している。タイトル列は、文章のタイトルを記憶している。文章列は、文章の内容を記憶している。なお、本実施形態では、文章列に文章の内容が記憶されているものとするが、これに限るものではない。例えば、文章の内容が記載されているファイルのパスが記憶されても良い。
図4は、漢字ごとに複数の読み仮名の候補がある場合の読み仮名の選択処理を説明する説明図である。一の漢字に対して複数の読み仮名の候補がある場合において、日本語の文脈等を考慮しても読み仮名の誤選択を起こした場合、漢字の読み間違いが起こる恐れがある。そこで本実施形態では、日本語と異なる言語を利用し、日本語の読み仮名を正確に取り出すように処理する。具体的には以下で詳述する。
サーバ1の制御部11は、大容量記憶部17の文章DB171から、日本語で記述された対象文を取得する。なお、本実施形態では、「彼は人気のない場所で会った。」例として、読み仮名の選択処理を説明する。制御部11は、取得した対象文に対して学習済みモデルを用い、対象文中の漢字ごとに品詞、属性及び読み仮名を付与する。例えば、「彼」の品詞、属性、読み仮名それぞれが、「名詞」、「人」、「かれ」である。「人気」の品詞、属性、読み仮名それぞれが、「名詞」、「なし」、「にんき/ひとけ/じんき/ひとげ」である。
制御部11は、漢字ごとに読み仮名の数をカウントすることで、漢字の読み仮名に揺らぎがあるか否かを判定する。「彼」の読み仮名の数が1であるため、「彼」の読み仮名を明確に特定することができる。「人気」の読み仮名の数が4であるため、揺らぎがあるものと判定される。
制御部11は、通信部13を介して、対象文「彼は人気のない場所で会った。」を翻訳サーバ2に送信する。翻訳サーバ2は、サーバ1から対象文を受信し、受信した対象文を複数の英語の翻訳文に変換する。図4の例では、翻訳サーバ2は、「彼は人気のない場所で会った。」を「He called me without anyone noticing」、「He called me without anyone knowing」、「He called me in secret」という三通りの翻訳文に変換する。翻訳サーバ2は、変換した翻訳文をサーバ1に送信する。
サーバ1の制御部11は、通信部13を介して、翻訳サーバ2から複数の翻訳文を受信し、受信した各翻訳文から、対象漢字を含む対象文の一部に対応する英語の語句を抽出する。具体的には、制御部11は、翻訳文「He called me without anyone noticing」、「He called me without anyone knowing」、「He called me in secret」からぞれぞれ、対象漢字を含む対象文の一部「人気のない」に対応する英語の語句「without anyone noticing」、「without anyone knowing」、「in secret」を抽出する。
サーバ1の制御部11は、通信部13を介して、抽出した複数の英語の語句を翻訳サーバ2に送信する。翻訳サーバ2は、サーバ1から複数の英語の語句を受信し、受信した英語の各語句を日本語に変換する。具体的には、翻訳サーバ2は、「without anyone noticing」、「without anyone knowing」、「in secret」をそれぞれ、「人目につかないところで」、「誰にも気付かれずに、人目につかないところで」、「人の目を盗んで、人目を忍んで」という日本語の語句に変換する。翻訳サーバ2は、変換した日本語の語句をサーバ1に送信する。
サーバ1の制御部11は、通信部13を介して、翻訳サーバ2から変換後の日本語の語句を受信する。制御部11はさらに、変換後の英語の語句に類似する語句(例えば同義語、類義語等)のリクエストを翻訳サーバ2に送信する。翻訳サーバ2は、サーバ1からのリクエストに応じて、類似する英語の語句を、例えば英語表現を格納した所定のDB(例えば英語辞書)から取得する。図4の例では、翻訳サーバ2は、「without anyone noticing」、「without anyone knowing」、「in secret」と類似する語句「hidden place」、「behind-the-scenes」、「a poor place」、「deserted place」を取得する。
翻訳サーバ2は、取得した各語句「hidden place」、「behind-the-scenes」、「a poor place」、「deserted place」を、それぞれ「知られていない場所」、「舞台裏で、陰で、ひそかに、水面下で」、「人気(ひとけ)のない場所」、「人気(ひとけ)のない場所」という日本語の語句に変換する。翻訳サーバ2は、変換した日本語の語句をサーバ1に送信する。
サーバ1の制御部11は、通信部13を介して、翻訳サーバ2から変換後の日本語の各語句を受信する。そして制御部11は、受信した全ての日本語の語句における、当初推定した対象漢字の読み仮名の候補それぞれの出現頻度に応じて、最終的な読み仮名を選択する。例えば制御部11は、受信した全ての日本語の語句それぞれから、上記の漢字と一致する漢字を識別して読み仮名を特定し、最も多い読み仮名を最終的な読み仮名として選択する。図4の例では、一致した「人気」に対して「ひとけ」の読み仮名の数が最も多いため、制御部11は、「彼は人気のない場所で会った。」中の「人気」の読み仮名として、四つの読み仮名の候補から「ひとけ」を選択する。制御部11は、選択した漢字の読み仮名に基づき、対象文に対応する音声を生成し、端末3に出力する。
図5及び図6は、音声生成処理の処理手順を示すフローチャートである。サーバ1の制御部11は、大容量記憶部17の文章DB171から、日本語で記述された対象文を取得する(ステップS101)。制御部11は、取得した対象文に対して学習済みモデルを用い、対象文に品詞、属性及び読み仮名を付与する(ステップS102)。制御部11は、付与した読み仮名から漢字ごとに読み仮名の数をカウントし(ステップS103)、漢字ごとに読み仮名の数が2以上であるか否かを判定する(ステップS104)。
制御部11は、読み仮名の数が2以上でないと判定した場合(ステップS104でNO)、ステップS114に移行する。制御部11は、読み仮名の数が2以上であると判定した場合(ステップS104でYES)、通信部13を介して、取得した対象文を翻訳サーバ2に送信する(ステップS105)。
翻訳サーバ2は、サーバ1から送信された対象文を受信する(ステップS201)。翻訳サーバ2は、受信した対象文を英語の翻訳文に変換し(ステップS202)、変換した英語の翻訳文をサーバ1に送信する(ステップS203)。例えば翻訳サーバ2は、サーバ1から受信した対象文を、複数の翻訳文に変換してサーバ1に送信する。サーバ1の制御部11は、通信部13を介して、翻訳サーバ2から送信された英語の翻訳文を受信する(ステップS106)。制御部11は、受信した英語の翻訳文から、対象漢字を含む対象文の一部に対応する英語の語句を抽出し(ステップS107)、抽出した英語の語句を通信部13により翻訳サーバ2に送信する(ステップS108)。具体的には、制御部11は、翻訳サーバ2から受信した複数の翻訳文それぞれから対応する英語の語句を抽出して、翻訳サーバ2に送信する。
翻訳サーバ2は、サーバ1から送信された英語の語句を受信し(ステップS204)、受信した英語の語句を日本語の語句に変換する(ステップS205)。具体的には、翻訳サーバ2は、サーバ1から送信された複数の英語の語句をそれぞれ日本語の語句に変換する。翻訳サーバ2は、変換した日本語の語句をサーバ1に送信する(ステップS206)。サーバ1の制御部11は、通信部13を介して、翻訳サーバ2から送信された日本語の語句を受信する(ステップS109)。さらに制御部11は、ステップS108で送信した英語の語句に類似する語句のリクエストを翻訳サーバ2に送信する(ステップS110)。
翻訳サーバ2は、サーバ1から送信されたリクエストを受信し(ステップS207)、ステップS204で受信した英語の語句に類似する語句を取得(特定)する(ステップS208)。翻訳サーバ2は、取得した語句を日本語の語句に変換し(ステップS209)、変換後の日本語の語句をサーバ1に送信する(ステップS210)。
サーバ1の制御部11は、通信部13を介して、翻訳サーバ2から送信された日本語の語句を受信する(ステップS111)。制御部11は、受信した全ての日本語の語句から、対象漢字と一致した漢字があるか否かを判定する(ステップS112)。制御部11は、複数の読み仮名の候補がある対象漢字と一致した漢字があると判定した場合(ステップS112でYES)、最も多い漢字の読み仮名を選択する(ステップS113)。
制御部11は、対象漢字と一致した漢字がないと判定した場合(ステップS112でNO)、複数の読み仮名の候補から事前に決められたルールに基づいて読み仮名を選択し、ステップS114に遷移して音声の生成処理を行う。例えば制御部11は、学習済みモデル172を参照して使用頻度が最も高い読み仮名を選択しても良い。さらにまた、英語と異なる言語(例えば、中国語、フランス語等)に変換し、複数の読み仮名の候補がある対象漢字に対し、上述した処理の流れと同様に当該漢字の読み仮名が選択されても良い。
制御部11は、選択した読み仮名に基づき、対象文に対応する音声を生成する(ステップS114)。制御部11は、生成した音声を出力し(ステップS115)、一連の処理を終了する。
また、本実施形態では対象文の言語(第1言語)が日本語であるものとして説明したが、対象文は漢字を含む言語の文章であればよく、例えば中国語であってもよい。
また、本実施形態では音声変換を一例に説明を行ったが、例えば文書内の漢字に対する読み仮名の付与(所謂ルビの付与)に本システムを用いてもよい。すなわち、音声への変換は必須ではない。
本実施形態によると、日本語以外の言語に翻訳しながら漢字の読み仮名を選択することにより、読み間違いを低減することが可能となる。
また、本実施形態によると、適切な読みで日本語文章の音声再生を行うことができる。
また、本実施形態によると、対象文を複数の翻訳文に変換し、当該複数の翻訳文を日本語に変換して、出現頻度が高い対象漢字の読み仮名を選択することで、読み間違いをより適切に防ぐことができる。
また、本実施形態によると、対象文において漢字を含む部分を直訳した語句だけでなく、直訳した語句の同義語、類義語等の類似する語句まで広げて対象漢字の読み仮名を収集することで、読み間違いをより適切に防ぐことができる。
(実施形態2)
実施形態2は、対象文が著作物等である場合に、対象文の種別に応じて予め用意された読み仮名の専用DBを組み合わせて用いることで、読み間違いを低減する形態に関する。なお、実施形態1と重複する内容については説明を省略する。
図7は、実施形態2のサーバ1の構成例を示すブロック図である。図2と重複する内容については同一の符号を付して説明を省略する。大容量記憶部17は、読み仮名DB173を含む。読み仮名DB173は、対象文の種別に応じた漢字と読み仮名との対応付けを記憶している。
図8は、実施形態2の文章DB171のレコードレイアウトの一例を示す説明図である。図3と重複する内容については説明を省略する。本実施形態における文章DB171は、カテゴリ列を含む。カテゴリ列は、文章のカテゴリ(分野)を示す情報を記憶している。
図9は、読み仮名DB173のレコードレイアウトの一例を示す説明図である。読み仮名DB173は、読み仮名ID列、管理ID列、章列、段落列、漢字列及び読み仮名列を含む。読み仮名ID列は、各読み仮名を識別するために、一意に特定される読み仮名のIDを記憶している。管理ID列は、文章を管理する管理IDを記憶している。章列は、対象漢字を所在している章の情報を記憶している。段落列は、対象漢字を所在している段落の情報を記憶している。漢字列は、文脈により読み仮名が付与される対象漢字を記憶している。読み仮名列は、対象文(著作物)に応じて用いられる対象漢字の特殊な読み仮名を記憶している。例えば図9では、読み仮名ID「0000001」の対象漢字「宇宙」に対応付けて、読み仮名列に、常識的な「うちゅう」の代わりに「コスモ」が記憶されている。
上記の例のように、著作物によっては漢字を特殊な読み仮名で読ませる場合がある。また、例えば専門書で用いられる専門用語のように、一般の文書、すなわち学習済みモデル172の構築の際に学習対象とするような文章には出現しない語句(漢字)が対象文に含まれる場合もある。このような場合に備えて、本実施の形態では対象文の種別に応じて専用の読み仮名DB173を用意しておき、当該DBを参照しながら読み仮名を選択する。
なお、上述した各DBの記憶形態は一例であり、データ間の関係が維持されていれば、他の記憶形態であっても良い。
本実施形態では、対象文の種別に応じた漢字と読み仮名との対応付けが大容量記憶部17の各DBに記憶されている。制御部11は、対象文に複数の読み仮名の候補を有する漢字がある場合に、まず対象文の種別を特定して、読み仮名DB173から対象漢字の読み仮名を検索する。対象文の種別は、例えば文書内における対象文の章、段落等の所在情報、あるいは当該対象文の著者、カテゴリ、書籍名等の情報である。制御部11は、上記の各種情報を対象文から特定し、特定した各種情報に従って、読み仮名DB173から対象漢字の読み仮名を検索する。
制御部11は、読み仮名DB173に対象漢字の読み仮名が記憶されていた場合、読み仮名DB173から対象漢字の読み仮名を取得して音声を生成し、端末3に出力する。制御部11は、読み仮名DB173に対象漢字の読み仮名が記憶されていない場合、通信部13を介して、対象文を翻訳サーバ2に送信する。翻訳サーバ2は、サーバ1から送信された対象文を受信し、他の言語を用いて読み仮名の選択処理を行う。なお、他の言語を用いて読み仮名の選択処理に関しては、実施形態1と同様であるため説明を省略する。
図10は、専用辞書を用いて読み仮名を取得する際の処理手順を示すフローチャートである。なお、図5、図6と重複する内容については同一の符号を付して説明を省略する。サーバ1の制御部11は、読み仮名の数が2以上であると判定した場合(ステップS104でYES)、対象文の種別を特定する(ステップS121)。対象文の種別は、例えば文書内における対象文の章、段落等の所在情報、あるいは当該対象文の著者、カテゴリ、書籍名等の情報である。制御部11は、特定した対象文の種別に基づき、大容量記憶部17の読み仮名DB173から対象漢字の読み仮名を検索する(ステップS122)。
制御部11は、対象漢字に対応する読み仮名が読み仮名DB173にあるか否かを判定する(ステップS123)。制御部11は、対象漢字に対応する読み仮名があると判定した場合(ステップS123でYES)、制御部11は、当該対象漢字に対応する読み仮名を取得し(ステップS124)、ステップS114に遷移する。制御部11は、対象漢字に対応する読み仮名がないと判定した場合(ステップS123でNO)、ステップS105に遷移する。
今回開示された実施形態はすべての点で例示であって、制限的なものではないと考えられるべきである。本発明の範囲は、上記した意味ではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。
1 情報処理装置(サーバ)
11 制御部
12 記憶部
13 通信部
14 入力部
15 表示部
16 読取部
17 大容量記憶部
171 文章DB
172 学習済みモデル
173 読み仮名DB
1a 可搬型記憶媒体
1b 半導体メモリ
1P 制御プログラム
2 翻訳情報処理装置(翻訳サーバ)
3 端末

Claims (6)

  1. 漢字を含む第1言語の対象文を取得する取得部と、
    前記第1言語の文章の読みを学習済みの学習済みモデルを用いて、前記対象文の読みを推定する推定部と、
    前記対象文に含まれる前記漢字に対して複数の読みが推定された場合、前記対象文を、前記第1言語と異なる第2言語に翻訳した翻訳文に変換する変換部と、
    前記翻訳文から、前記漢字に対応する語句を抽出する抽出部と、
    抽出した前記語句を前記第1言語の語句に変換する第2変換部と、
    変換後の語句に基づき、前記複数の読みから前記漢字の読みを選択する選択部と
    を備えることを特徴とする情報処理装置。
  2. 前記選択部が選択した前記漢字の読みに基づき、前記対象文に対応する音声を生成する生成部と、
    生成した音声を出力する出力部と
    を備える請求項1に記載の情報処理装置。
  3. 前記変換部は、前記対象文を複数の前記翻訳文に変換し、
    前記抽出部は、前記複数の翻訳文それぞれから前記漢字に対応する語句を抽出し、
    前記第2変換部は、前記複数の翻訳文それぞれから抽出した複数の前記語句を、前記第1言語の語句に変換し、
    前記選択部は、変換後の前記第1言語の語句における前記複数の読みそれぞれの出現頻度に応じて、前記漢字の読みを選択する
    ことを特徴とする請求項1又は2に記載の情報処理装置。
  4. 前記抽出部が抽出した語句と類似する語句を特定する特定部を備え、
    前記第2変換部は、前記翻訳文から抽出した語句と、前記類似する語句とを前記第1言語の語句に変換する
    ことを特徴とする請求項1~3のいずれか1項に記載の情報処理装置。
  5. 漢字を含む第1言語の対象文を取得し、
    前記第1言語の文章の読みを学習済みの学習済みモデルを用いて、前記対象文の読みを推定し、
    前記対象文に含まれる前記漢字に対して複数の読みが推定された場合、前記対象文を、前記第1言語と異なる第2言語に翻訳した翻訳文に変換し、
    前記翻訳文から、前記漢字に対応する語句を抽出し、
    抽出した前記語句を前記第1言語の語句に変換し、
    変換後の語句に基づき、前記複数の読みから前記漢字の読みを選択する
    処理をコンピュータに実行させる情報処理方法。
  6. コンピュータに、
    漢字を含む第1言語の対象文を取得し、
    前記第1言語の文章の読みを学習済みの学習済みモデルを用いて、前記対象文の読みを推定し、
    前記対象文に含まれる前記漢字に対して複数の読みが推定された場合、前記対象文を、前記第1言語と異なる第2言語に翻訳した翻訳文に変換し、
    前記翻訳文から、前記漢字に対応する語句を抽出し、
    抽出した前記語句を前記第1言語の語句に変換し、
    変換後の語句に基づき、前記複数の読みから前記漢字の読みを選択する
    処理を実行させるプログラム。
JP2018182652A 2018-09-27 2018-09-27 情報処理装置、情報処理方法及びプログラム Active JP7115187B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018182652A JP7115187B2 (ja) 2018-09-27 2018-09-27 情報処理装置、情報処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018182652A JP7115187B2 (ja) 2018-09-27 2018-09-27 情報処理装置、情報処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2020052819A JP2020052819A (ja) 2020-04-02
JP7115187B2 true JP7115187B2 (ja) 2022-08-09

Family

ID=69997351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018182652A Active JP7115187B2 (ja) 2018-09-27 2018-09-27 情報処理装置、情報処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7115187B2 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323475A (ja) 2006-06-02 2007-12-13 Advanced Telecommunication Research Institute International 自然言語における多義解消装置及びコンピュータプログラム
WO2010113396A1 (ja) 2009-03-31 2010-10-07 日本電気株式会社 読み方判断装置、方法、プログラム、及びそのコンピュータ可読媒体、並びに音声合成装置
US20130041647A1 (en) 2011-08-11 2013-02-14 Apple Inc. Method for disambiguating multiple readings in language conversion
JP2013206397A (ja) 2012-03-29 2013-10-07 Fujitsu Ltd 機械翻訳装置、機械翻訳方法及び機械翻訳プログラム
US20170351661A1 (en) 2016-06-06 2017-12-07 Comigo Ltd. System and method for understanding text using a translation of the text

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007323475A (ja) 2006-06-02 2007-12-13 Advanced Telecommunication Research Institute International 自然言語における多義解消装置及びコンピュータプログラム
WO2010113396A1 (ja) 2009-03-31 2010-10-07 日本電気株式会社 読み方判断装置、方法、プログラム、及びそのコンピュータ可読媒体、並びに音声合成装置
US20130041647A1 (en) 2011-08-11 2013-02-14 Apple Inc. Method for disambiguating multiple readings in language conversion
JP2013206397A (ja) 2012-03-29 2013-10-07 Fujitsu Ltd 機械翻訳装置、機械翻訳方法及び機械翻訳プログラム
US20170351661A1 (en) 2016-06-06 2017-12-07 Comigo Ltd. System and method for understanding text using a translation of the text

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
羽鳥 潤、外1名,機械翻訳手法に基づいた日本語の読み推定,言語処理学会第17回年次大会発表論文集 チュートリアル 本会議 ワークショップ [CD-ROM],日本,言語処理学会,2011年03月07日,pp.579-582

Also Published As

Publication number Publication date
JP2020052819A (ja) 2020-04-02

Similar Documents

Publication Publication Date Title
US10055403B2 (en) Rule-based dialog state tracking
US9805718B2 (en) Clarifying natural language input using targeted questions
CN108124477B (zh) 基于伪数据改进分词器以处理自然语言
US8346537B2 (en) Input apparatus, input method and input program
RU2458391C2 (ru) Проверка ошибок сочетаний слов на базе сети интернет
JP5235344B2 (ja) 機械翻訳を行う装置、方法およびプログラム
KR20180114781A (ko) 방언을 표준어로 변환하는 방법 및 장치
WO2016151700A1 (ja) 意図理解装置、方法およびプログラム
KR20160008480A (ko) 명칭을 강인하게 태깅하는 방법 및 시스템
KR101573854B1 (ko) 관계어 기반 확률추정 방법을 이용한 통계적 문맥의존 철자오류 교정 장치 및 방법
JP2006277677A (ja) コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
CN105210055B (zh) 根据跨语种短语表的断词器
KR20100029221A (ko) 명칭 엔터티와 신규 단어를 검출하는 것
CN102982021A (zh) 用于消除语言转换中的多个读法的歧义的方法
US11282521B2 (en) Dialog system and dialog method
JP2016516247A (ja) 翻字、翻訳、書記素洞察のキュレーション及び統合による多言語ビジネスの印の向上
US7136803B2 (en) Japanese virtual dictionary
JP5323652B2 (ja) 類似語決定方法およびシステム
KR101709693B1 (ko) 크라우드 소싱을 이용한 웹툰 언어 자동 번역 방법
JP2011008784A (ja) ローマ字変換を用いる日本語自動推薦システムおよび方法
JP7115187B2 (ja) 情報処理装置、情報処理方法及びプログラム
Núñez et al. Phonetic normalization for machine translation of user generated content
KR20040018008A (ko) 품사 태깅 장치 및 태깅 방법
KR101664278B1 (ko) 하이브리드 방법을 사용한srl 기반의 문장 분석 방법 및 장치
JP6451151B2 (ja) 質問応答装置、質問応答方法、プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220623

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220628

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220711

R150 Certificate of patent or registration of utility model

Ref document number: 7115187

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150