JP5221768B2 - 翻訳装置、及びプログラム - Google Patents

翻訳装置、及びプログラム Download PDF

Info

Publication number
JP5221768B2
JP5221768B2 JP2011532847A JP2011532847A JP5221768B2 JP 5221768 B2 JP5221768 B2 JP 5221768B2 JP 2011532847 A JP2011532847 A JP 2011532847A JP 2011532847 A JP2011532847 A JP 2011532847A JP 5221768 B2 JP5221768 B2 JP 5221768B2
Authority
JP
Japan
Prior art keywords
sentence
language
unit
translation
next utterance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2011532847A
Other languages
English (en)
Other versions
JPWO2011036769A1 (ja
Inventor
一男 住田
康顕 有賀
哲朗 知野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Publication of JPWO2011036769A1 publication Critical patent/JPWO2011036769A1/ja
Application granted granted Critical
Publication of JP5221768B2 publication Critical patent/JP5221768B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/42Data-driven translation
    • G06F40/45Example-based machine translation; Alignment

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Machine Translation (AREA)

Description

本発明は、翻訳装置、及びプログラムに関する。
近年、文化や経済のグローバル化に伴い、異なる言語を母語とする人同士のコミュニケーションを支援する翻訳装置への期待が高まっている。例えば特許文献1には、利用者の過去の対話履歴をデータベースに格納し、この対話履歴を参照して利用者の次発話を予測し、提示する技術が開示されている。
特許第3962766号公報
しかしながら、特許文献1に開示された技術では、対話支援装置の使用回数に比例して対話履歴のデータ量が増大するため、大容量の記憶装置が必要となり、コストの増大を招いてしまう。
本発明は、上記に鑑みてなされたものであり、低コストで利用者の次発話を予測することができる翻訳装置、及びプログラムを提供することを目的とする。
本発明の翻訳装置は、意味内容が同義の第1言語の文及び第2言語の文を対応付けた対訳と、前記対訳のIDとを、対応付けて複数記憶する対訳記憶部と、選択された前記第1言語の第1文を、前記対訳を用いて前記第2言語に翻訳する翻訳部と、前記IDを有し、前記IDが示す前記対訳に含まれる前記第1言語の文か前記第2言語の文かを識別する第1識別情報と、前記第1識別情報が示す文の次発話として過去に前記対訳記憶部から選択された文を識別する第2識別情報と、を対応付けた次発話テーブルを記憶する次発話テーブル記憶部と、前記次発話テーブルを参照し、前記第1文の前記第1識別情報に対応付けられた前記第2識別情報が示す文である次発話候補を前記対訳記憶部から取得する取得部と、前記第1文、前記第1文の翻訳結果、及び前記次発話候補を表示する表示部と、前記次発話候補の選択を受け付ける選択受付部と、を備え、前記翻訳部は、選択された前記次発話候補が前記第1言語の場合、前記対訳を用いて前記第2言語に翻訳し、選択された前記次発話候補が前記第2言語の場合、前記対訳を用いて前記第1言語に翻訳することを特徴とする。
本発明によれば、低コストで利用者の次発話を予測することができるという効果を奏する。
第1実施形態の翻訳装置の概要の説明図。 第1実施形態の翻訳装置の概要の説明図。 第1実施形態の翻訳装置を示すブロック図。 初期画面例を示す図。 第1実施形態の対訳の例を示す図。 次発話テーブルの例を示す図。 次発話の候補例を示す図。 次発話の候補例を示す図。 次発話の候補の画面表示例を示す図。 次発話の候補の画面表示例を示す図。 第1実施形態の翻訳装置の処理例を示すフローチャート。 第1実施形態の翻訳装置の次発話候補取得処理例を示すフローチャート。 第2実施形態の翻訳装置を示すブロック図。 意味カテゴリ辞書の例を示す図。 第2実施形態の検索処理例を示すフローチャート。 第2実施形態の対訳の例を示す図。 第2実施形態の対訳の例を示す図。 第1、2実施形態の翻訳装置のハードウェア構成図。
以下、添付図面を参照しながら、本発明の翻訳装置、及びプログラムの実施形態を詳細に説明する。なお、以下の各実施形態では、第1言語に日本語を用い、第2言語に英語を用いた場合を例にとり説明するが、翻訳形態はこれに限定されるものではなく、あらゆる言語間での翻訳に適用することができる。
(第1実施形態)
まず、図1及び図2を参照しながら、第1の実施形態の翻訳装置の概要を説明する。図1及び図2に示す例では、日本語を母語とするユーザJと英語を母語とするユーザEとが翻訳装置1を利用してコミュニケーションを行う様子を示しており、詳細には、日本語を母語とするユーザJがマイク11から音声を入力し、音声認識結果を次発話として選択した後の状態を示している。
ディスプレイ12には、マイク11から入力された音声の音声認識結果であってタッチペン13により次発話として選択された日本語文15が表示されるとともに、日本語文15の次発話の候補として日本語文16〜18が表示されている。この後、ユーザJは、ディスプレイ12に表示された日本語文16〜18のいずれかをタッチペン13で選択したり、新たな発話を行ってマイク11から音声を入力することにより、次発話を行う。なお、ユーザEにより次発話が行われた場合には、その翻訳結果がスピーカ14から音声出力される。
ディスプレイ22には、日本語文15の翻訳結果である英語文25が表示されるとともに、日本語文15の次発話の候補として英語文26〜28が表示されている。なお、日本語文15の翻訳結果は、スピーカ24からも音声出力される。この後、ユーザEは、ディスプレイ22に表示された英語文26〜28のいずれかをタッチペン23で選択したり、新たな発話を行ってマイク21から音声を入力することにより、次発話を行う。
次に、第1の実施形態の翻訳装置の構成を説明する。
図3は、第1実施形態の翻訳装置1の構成の一例を示すブロック図である。図3に示すように、翻訳装置1は、表示部10と、選択部20と、入力部30と、音声出力部40と、記憶部50と、選択受付部60と、更新部65と、翻訳部70と、取得部75と、出力制御部80と、入力受付部85と、認識部90と、検索部95とを備える。
表示部10は、後述する出力制御部80の指示により、翻訳結果、次発話の候補、及び音声認識結果などを表示するものであり、例えば、タッチパネル式ディスプレイ、液晶ディスプレイ、又は有機ELディスプレイなどの既存の表示装置により実現できる。また、表示部10は、翻訳装置1が起動されると、初期画面を表示する。
図4は、初期画面の一例を示す図である。図4に示す例では、日本語表示画面100の候補表示エリア110に、ユーザJにより最初に発話される可能性の高い日本語の挨拶文などが候補として表示されている。同様に、英語表示画面200の候補表示エリア210に、ユーザEにより最初に発話される可能性の高い英語の挨拶文などが候補として表示されている。なお、日本語表示画面100は、図1に示すディスプレイ12に表示される画面であり、英語表示画面200は、図2に示すディスプレイ22に表示される画面である。
図3に戻り、選択部20は、表示部10に表示された候補の中から次発話を選択するものであり、タッチパネル式ディスプレイ、又はポインティングデバイスなどの既存の入力装置により実現できる。なお、表示部10及び選択部20は、タッチパネル式ディスプレイなどにより一体的に実現してもよい。
入力部30は、ユーザJやユーザEが発話する音声などを入力するものであり、例えば、マイクなどの既存の音声入力装置により実現できる。
音声出力部40は、後述する出力制御部80の指示により、翻訳結果などを音声出力するものであり、スピーカなどの既存の音声出力装置により実現できる。
記憶部50は、翻訳装置1で実行される各種プログラムや翻訳装置1で行われる各種処理に使用される情報などを記憶するものである。記憶部50は、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)、メモリカード、光ディスク、ROM(Read Only Memory)、RAM(Random Access Memory)などの磁気的、光学的、又は電気的に記憶可能な既存の記憶装置により実現できる。そして、記憶部50は、対訳記憶部52と、次発話テーブル記憶部54とを含む。
対訳記憶部52は、意味内容が同義の日本語文及び英語文を対応付けた対訳と、対訳のIDとを、対応付けて複数記憶する。図5は、対訳記憶部52に記憶されている対訳の一例を示す図である。図5に示す例では、対訳記憶部52は、対訳を特定するIDと、対訳を構成する日本語文と、日本語文の使用頻度と、対訳を構成する英語文と、英語文の使用頻度とを対応付けて記憶している。例えば、IDが00001の対訳の場合、日本語文が日本語文120、日本語文120の使用頻度が390回、英語文が英語文220、英語文220の使用頻度が238回であることを表している。同様に、IDが00009の対訳の場合、日本語文が日本語文121、日本語文121の使用頻度が0回、英語文が英語文221、英語文221の使用頻度が115回であることを表している。
図3に戻り、次発話テーブル記憶部54は、IDを識別するとともにIDが示す対訳を構成する第1言語の文か第2言語の文かを識別する第1識別情報と、第1識別情報が示す文の次発話として過去に対訳記憶部52から選択された文を識別する第2識別情報とを対応付けた次発話テーブルを記憶する。
図6は、次発話テーブル記憶部54に記憶されている次発話テーブルの一例を示す図である。図6に示す例では、次発話テーブル記憶部54は、第1識別情報と、第2識別情報と、頻度情報とを対応付けた次発話テーブルを記憶している。頻度情報は、第1識別情報が示す文の次発話として第2識別情報が示す文が選択された頻度を示す情報であり、選択頻度と、合計頻度とを含む。選択頻度は、第1識別情報が示す文の次発話として第2識別情報が示す文が選択された回数を表し、合計頻度は、第1識別情報が示す文の次発話として第2識別情報が示す文と同じ言語の文が選択された回数を表す。なお、第1識別情報には、対訳記憶部52に記憶されている対訳を特定するID1と対訳の言語を示す言語種別1が含まれ、第2識別情報には、対訳記憶部52に記憶されている対訳を特定するID2と対訳の言語を示す言語種別2が含まれている。
例えば、図6に示す対訳テーブルの1行目のエントリ130は、ID1が00001、言語種別1がJ、ID2が00001、言語種別2がE、選択頻度が49回、合計頻度が255回である。そして、図5に示すように、対訳のIDが00001の日本語文は日本語文120であり、対訳のIDが00001の英語文は英語文220である。従って、エントリ130は、日本語文120の次発話として英語文220が選択された回数が49回であること、及び日本語文120の次発話として何らかの英語文が選択された回数が255回であることを表している。
また、図6に示す対訳テーブルの6行目のエントリ131は、ID1が00004、言語種別1がJ、ID2が00009、言語種別2がE、選択頻度が30回、合計頻度が229回である。そして、図5に示すように、対訳のIDが00004の日本語文は日本語文112であり、対訳のIDが00009の英語文は英語文221である。従って、エントリ131は、日本語文112の次発話として英語文221が選択された回数が30回であること、及び日本語文112の次発話として何らかの英語文が選択された回数が229回であることを表している。
図3に戻り、選択受付部60は、選択部20からの選択を受け付ける。例えば、図4において、選択部20により日本語文112が次発話として選択された場合、選択受付部60は、日本語文112の選択を受け付ける。
更新部65は、次発話テーブルを参照して、前回選択を受け付けた文の第1識別情報と今回選択を受け付けた文の第2識別情報とに対応付けられた頻度情報を更新する。具体的には、更新部65は、前回選択を受け付けた文の第1識別情報と今回選択を受け付けた文の第2識別情報とに対応付けられた頻度情報の選択頻度と合計頻度とをインクリメントする。また更新部65は、前回選択を受け付けた文の第1識別情報と、今回選択を受け付けた文と同じ言語の文の第2識別情報と、に対応付けられた頻度情報の合計頻度をインクリメントする。更に、更新部65は、対訳記憶部52に記憶されている対訳を参照して、今回選択を受け付けた文の使用頻度をインクリメントする。
例えば、図4において、選択部20により日本語文112が次発話として選択された場合、更新部65は、図5に示す対訳を参照して、今回選択を受け付けた日本語文112の使用頻度をインクリメントする。なお、図4では、前回選択を受け付けた文が存在しないため、更新部65は、図6に示す次発話テーブルの選択頻度及び合計頻度を更新しない。
翻訳部70は、対訳記憶部52に記憶されている対訳を用いて、選択受付部60により選択が受け付けられた文を翻訳する。具体的には、選択受付部60により日本語文の選択が受け付けられた場合、翻訳部70は、日本語文を英語に翻訳する。また、選択受付部60により英語文の選択が受け付けられた場合、翻訳部70は、英語文を日本語に翻訳する。なお、後述の認識部90により音声認識された認識結果が対訳中に存在しない場合には、翻訳部70は、認識結果を機械翻訳する。
取得部75は、次発話テーブル記憶部54に記憶されている次発話テーブルを参照し、選択受付部60により選択が受け付けられた文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す日本語及び英語の文を対訳記憶部52から取得する。具体的には、取得部75は、次発話テーブルを参照し、選択受付部60により選択が受け付けられた文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す日本語文を、頻度情報が示す頻度が高い順に所定数の範囲内で対訳記憶部52から取得する。同様に、取得部75は、次発話テーブルを参照し、選択受付部60により選択が受け付けられた文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す英語文を、頻度情報が示す頻度が高い順に所定数の範囲内で対訳記憶部52から取得する。
例えば、図4において、選択受付部60により日本語文112の選択が受け付けられた場合、取得部75は、次発話テーブルを参照し、日本語文112を示す第1識別情報に対応付けられた第2識別情報のうち言語種別2がJであるエントリのスコアを、数式(1)を用いて求める。そして、取得部75は、算出されたスコア(頻度)が高い順に所定数の範囲内で対訳記憶部52から第2識別情報が示す文を取得する。この場合、取得部75は、ID1が00004、言語種別1がJ、ID2が00008、及び言語種別2がJであるエントリ133のスコアと、ID1が00004、言語種別1がJ、ID2が00439、及び言語種別2がJであるエントリ134のスコアとを求める。そして、取得部75は、対訳記憶部52からIDが00008の日本語文、IDが00439の日本語文の順に取得し、日本語文の次発話の候補に追加する。なお、図4において、選択受付部60により日本語文112の選択が受け付けられた場合、取得部75は、日本語文112を示す第1識別情報に対応付けられた第2識別情報のうち言語種別2がEであるエントリについても同様の処理を行い、英語文の次発話の候補に追加する。
Figure 0005221768
(s,l)はID2及び言語種別2を示し、(s,l)はID1及び言語種別1を示し、Freq((s,l))は合計頻度を示し、Freq((s,l),(s,l))は選択頻度を示す。つまり、数式(1)では、合計頻度に対する選択頻度の割合を求める。
また、取得部75は、取得した日本語文の数が所定数に満たない場合には、更に、数式(2)を用いて、対訳記憶部52に記憶されている対訳の日本語文のスコアを求め、算出されたスコアが高い順に所定数の範囲内で対訳記憶部52から第2識別情報が示す日本語文を取得する。但し、取得部75は、既に取得済みの第2識別情報が示す文については取得しない。ここでは取得部75は、対訳記憶部52からIDが00001の日本語文、IDが00005の日本語文、IDが00006の日本語文、IDが00007の日本語文の順に取得し、候補に追加する。なお、取得部75は、取得した英語文の数が所定数に満たない場合にも同様の処理を行い、英語文の次発話の候補である候補に追加する。
Figure 0005221768
Smは、数式(1)で求めたスコアの最小値であり(但し、対象となるエントリが存在せず、数式(1)を用いてスコアが求められなかった場合は、1)、bは係数であり、max(Freq((s,l)))は使用頻度の最大値を示し、Freq((s,l))は使用頻度を示す。なお、係数bの値は、数式(1)で求めたスコアの最小値を超えないようにするため、1未満の値(例えば、0)にすることが望ましい。
このようにして次発話の候補を取得することにより、次発話テーブルから求めた文に矛盾せず、使用頻度の高い文を次発話の候補に追加することができる。
図7は、取得部75により取得された日本語文の次発話の候補の一例を示す図である。図7に示す例では、IDが00008の日本語文、IDが00439の日本語文、IDが00001の日本語文、IDが00005の日本語文、IDが00006の日本語文、IDが00007の日本語文というスコアの高い順に候補に追加されている。なお、図7に示す例では、IDが00001の日本語文、及びIDが00005の日本語文のスコアは数式(1)で求められ、他の日本語文のスコアは数式(2)で求められている。
図8は、取得部75により取得された英語文の次発話の候補の一例を示す図である。図8に示す例では、IDが00009の英語文、IDが00010の英語文、IDが00921の英語文、IDが01219の英語文、IDが00086の英語文、IDが02055の英語文というスコアの高い順に候補に追加されている。なお、図8に示す例では、いずれの英語文のスコアも数式(1)で求められている。
図3に戻り、出力制御部80は、表示部10に対する表示制御や音声出力部40に対する音声制御を行うものであり、表示制御部82と、音声制御部84とを含む。なお、出力制御部80は、以下で説明する表示出力及び音声出力を必要に応じて切り替えるようにしてもよいし、併用するようにしてもよい。
表示制御部82は、選択受付部60により選択が受け付けられた文、選択受付部60により選択が受け付けられた文の翻訳結果を表示部10に表示させる。また、表示制御部82は、取得部75により取得された日本語文を日本語の次発話の候補として表示部10に表示させ、取得部75により取得された英語文を英語の次発話の候補として表示部10に表示させる。また、表示制御部82は、後述の認識部90の認識結果等も表示部10に表示させるが、詳細は後述する。
図9は、取得部75により取得された文を次発話の候補として表示した画面の一例を示す図である。図9に示す例では、日本語表示画面100の対話履歴表示エリア140に日本語文112が表示され、候補表示エリア110に、図7に示す日本語文が日本語の次発話の候補として表示されている。同様に、英語表示画面200の対話履歴表示エリア240に日本語文112の翻訳結果である英語文212が表示され、候補表示エリア210に、図8に示す英語文が英語の次発話の候補として表示されている。
図3に戻り、音声制御部84は、選択受付部60により選択が受け付けられた文の翻訳結果などを音声出力部40に出力させる。具体的には、音声制御部84は、翻訳結果を音声信号に変換する音声合成処理を行い、音声合成処理により生成した音声信号をDA変換して音声出力部40に音声出力させる。
入力受付部85は、入力部30から日本語又は英語の音声の入力を受け付ける。具体的には、入力受付部85は、入力部30から入力された音声のアナログ信号に対してサンプリングを行って、ステレオのデジタル信号に変換する。なお、デジタル信号への変換には、例えば、AD変換など既存の技術を用いることができる。
認識部90は、入力受付部85により受け付けられた音声を認識し、認識した音声の文字列を生成する。例えば、入力受付部85により受け付けられた音声が日本語の場合、認識部90は、音声を認識して日本語の文字列を生成し、入力受付部85により受け付けられた音声が英語の場合、認識部90は、音声を認識して英語の文字列を生成する。具体的には、認識部90は、入力受付部85により変換されたデジタル信号から、音声を構成する音素を判別するための音響的な特徴を示す特徴量を時系列で抽出する。そして認識部90は、抽出した特徴量の時系列に基づいて、入力受付部85により受け付けられた音声に対して確からしい文字列や単語列を生成する。
なお、特徴量の抽出には、FFT(高速フーリエ変換)に基づく周波数スペクトル分析、線形予測分析、又はケプストラム分析などの既存の手法を用いることができる。これらの手法では、連続する音声波形の短い時間区間を切り出し処理することにより、分析対象とした時間区間における特徴量を抽出でき、分析の時間区間を順次シフトさせていくことにより、特徴量を時系列で抽出できる。特徴量の抽出、及び文字列や単語列の生成の詳細な手法については、例えば、「鹿野清宏他編、“音声認識システム”、オーム社出版局、2001」などで開示されている方法を用いることができる。
検索部95は、認識部90に認識された文と類似する文を対訳記憶部52から検索する。具体的には、入力受付部85により受け付けられた音声が日本語の場合、検索部95は、認識部90により生成された日本語の文字列に類似する日本語文を対訳記憶部52から検索する。また、入力受付部85により受け付けられた音声が英語の場合、検索部95は、認識部90により生成された英語の文字列に類似する英語文を対訳記憶部52から検索する。例えば、検索部95は、数式(3)に示すDice係数、数式(4)に示すJaccard係数、又は数式(5)に示すコサイン係数などを用いて、文同士の類似度を算出する。
Figure 0005221768
Figure 0005221768
Figure 0005221768
なお、数式(3)〜数式(5)において、σ(s,s)は、文sと文sとの類似度を表し、x、yは、それぞれ文s、文sの単語の有無を表す。文s又は文sに含まれる1番目からT番目までの単語に対し、文sにi番目の単語が存在すればxは1、存在しなければxは0に設定され、文sにi番目の単語が存在すればyは1、存在しなければyは0に設定される。なお、日本語の単語には、助詞や助動詞などの付属語を用い、英語の単語には、冠詞や前置詞を除いた自立語を用いることが好ましい。
数式(3)〜数式(5)では、比較する文同士で同じ単語が多く含まれているほど類似度σが大きくなる定義になっており、単語の意味や品詞などの違いは考慮していないが、これらの違いを考慮して文同士の類似度を算出してもよい。
ここで、表示制御部82による認識結果等の表示手法について説明する。表示制御部82は、認識部90に認識された文、検索部95により検索された類似文を次発話の候補として表示部10に表示させる。具体的には、入力受付部85により受け付けられた音声が日本語の場合、表示制御部82は、認識部90により生成された日本語の文字列、及び検索部95により検索された日本語文を日本語の次発話の候補として表示部10に表示させる。同様に、入力受付部85により受け付けられた音声が英語の場合、表示制御部82は、認識部90により生成された英語の文字列、及び検索部95により検索された英語文を英語の次発話の候補として表示部10に表示させる。
図10は、検索部95により検索された文を次発話の候補として表示した画面の一例を示す図であり、詳細には、図9に示す状態において、ユーザEがSpeakボタン260を押下して英語の音声を入力した後の状態を示している。図10に示す例では、英語表示画面200の認識結果表示エリア250にユーザEにより入力された音声の認識結果が表示され、候補表示エリア210に、音声の認識結果である英語文252と、検索部95により検索された英語文252に類似する複数の英語文が英語の次発話の候補として表示されている。
次に、第1の実施形態の翻訳装置の動作を説明する。
図11は、第1実施形態の翻訳装置1で行われる処理の流れの一例を示すフローチャートである。
まず、表示制御部82は、初期画面を表示部10に表示させる(ステップS100)。表示制御部82は、例えば、図4に示すような初期画面を表示部10に表示させる。
続いて、入力受付部85は、入力部30から音声が入力されたか否かを確認する(ステップS102)。
音声が入力されなかった場合(ステップS102でNo)、選択受付部60は、表示部10に表示されている候補の中から次発話が選択されたか否かを確認する(ステップS104)。例えば図4において、日本語文112が次発話として選択された場合、選択受付部60は、日本語文112の選択を確認する。なお、次発話が選択されなかった場合(ステップS104でNo)、ステップS102に戻る。
次発話が選択された場合(ステップS104でYes)、更新部65は、次発話テーブルを参照して、前回選択を受け付けた文の第1識別情報と今回選択を受け付けた文の第2識別情報とに対応付けられた頻度情報を更新する(ステップS106)。
続いて、翻訳部70は、対訳記憶部52に記憶されている対訳を用いて、選択受付部60により選択が受け付けられた文を翻訳する(ステップS108)。翻訳部70は、例えば、日本語文112を英語文212に翻訳する。
続いて、取得部75は、次発話テーブルを参照し、選択受付部60により選択が受け付けられた文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す日本語及び英語の文を対訳記憶部52から取得する(ステップS110)。なお、取得部75による次発話候補取得処理の詳細は、後述する。
続いて、表示制御部82は、選択受付部60により選択が受け付けられた文、選択受付部60により選択が受け付けられた文の翻訳結果、日本語文の次発話の候補、及び英語文の次発話の候補を表示部10に表示させる(ステップS112)。表示制御部82は、例えば、図9に示すような画面を表示部10に表示させる。そして、ステップS112が終了すると、ステップS102へ戻る。
一方、ステップS102において、音声が入力された場合(ステップS102でYes)、認識部90は、入力受付部85により受け付けられた音声を認識し、認識した音声の文字列を生成する(ステップS114)。
続いて、検索部95は、認識部90に認識された文と類似する文を対訳記憶部52から検索する(ステップS116)。
続いて、表示制御部82は、認識部90の認識結果、及び検索部95により検索された類似文を表示部10に表示させる(ステップS118)。表示制御部82は、例えば、図10に示すような画面を表示部10に表示させる。
続いて、選択受付部60は、表示部10に表示されている候補の中から次発話の選択を待ち(ステップS120でNo)、選択が確認されると(ステップS120でYes)、ステップS106へ進む。
図12は、第1実施形態の翻訳装置1で行われる次発話候補取得処理の流れの一例を示すフローチャートである。
まず、取得部75は、選択受付部60により選択された文が対訳記憶部52に記憶されているか否か確認する(ステップS200)。
選択された文が対訳記憶部52に記憶されている場合(ステップS200でYes)、取得部75は、選択された文を前発話文に設定する(ステップS202)。
一方、選択された文が対訳記憶部52に記憶されていない場合(ステップS200でNo)、検索部95は、選択された文との類似度が最も高い文を対訳記憶部52から検索し、検索された文を前発話文に設定する(ステップS204)。
続いて、取得部75は、選択受付部60により選択された文と、選択受付部60により選択された文の翻訳結果とを対応付けて対訳記憶部52に対訳として追加する(ステップS206)。
続いて、取得部75は、次発話テーブルを参照し、前発話文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す前発話文と同一言語の文を取得する。即ち、取得部75は、ID1及び言語種別1が前発話文に一致し、かつ言語種別1と言語種別2とが一致するID2の文を、頻度が高い順に所定数の範囲内で対訳記憶部52から取得し、候補1に追加する(ステップS208)。
続いて、取得部75は、次発話テーブルを参照し、前発話文の第1識別情報に対応付けられた複数の第2識別情報それぞれが示す前発話文と異なる言語の文を取得する。即ち、取得部75は、ID1及び言語種別1が前発話文に一致し、かつ言語種別1と言語種別2とが異なるID2の文を、頻度が高い順に所定数の範囲内で対訳記憶部52から取得し、候補2に追加する(ステップS210)。
続いて、取得部75は、候補1に追加した文が所定数に満たない場合、前発話文と言語が一致する文を頻度が高い順に所定数の範囲になるまで対訳記憶部52から取得し、候補1に追加する(ステップS212)。
続いて、取得部75は、候補2に追加した文が所定数に満たない場合、前発話文と言語が異なる文を頻度が高い順に所定数の範囲になるまで対訳記憶部52から取得し、候補2に追加する(ステップS214)。
以上のように第1実施形態では、対訳を構成する複数の第1言語及び第2言語の文をそれぞれ識別する第1識別情報と、第1識別情報が示す文の次発話として過去に対訳から選択された文を識別する第2識別情報とを対応付けた次発話テーブルを用いて、次発話の候補を取得する。従って第1実施形態によれば、翻訳装置1の使用を重ねても対話履歴のデータ量などは増加しないため、低コストで利用者の次発話を予測することができる。
特に第1実施形態では、第1識別情報が示す文の次発話として第2識別情報が示す文の選択された頻度が高い順に次発話の候補を取得するため、次発話としてユーザに選択される可能性の高いものを優先的に表示することができる。
(第2実施形態)
第2実施形態では、意味カテゴリ辞書を用いて類似文を検索する例について説明する。以下では、第1実施形態との相違点の説明を主に行い、同様の機能を有する構成要素については、同様の名称・符号を付し、その説明を省略する。
図13は、第2実施形態の翻訳装置1001の構成の一例を示すブロック図である。図13に示す翻訳装置1001は、記憶部1050に意味カテゴリ辞書記憶部1056が含まれる点、検索部1095の処理内容、及び対訳記憶部1052に記憶されている対訳が第1実施形態の翻訳装置1と相違する。
図14は、意味カテゴリ辞書記憶部1056に記憶されている意味カテゴリ辞書の一例を示す図である。図14に示すように、意味カテゴリ辞書記憶部1056は、単語と当該単語の意味カテゴリとを対応付けた意味カテゴリ辞書を記憶する。
図13に戻り、検索部1095は、意味カテゴリ辞書を参照して、認識部90により認識された文字列に類似する文を対訳記憶部1052から検索する。
図15は、第2実施形態の検索部1095の検索の詳細を示すフローチャートである。
検索部1095は、意味カテゴリ辞書を参照して、認識部90により認識された文字列を複数の単語に分割する(ステップS300)。つまり、検索部1095は、認識部90により認識された文字列の形態素解析を行う。
続いて、検索部1095は、分割した単語それぞれの意味カテゴリを求める(ステップS302)。具体的には、入力受付部85により受け付けられた音声が日本語の場合、意味カテゴリ辞書を参照して、認識部90により認識された日本語の文字列を分割した単語それぞれの意味カテゴリを求める。同様に、入力受付部85により受け付けられた音声が
英語の場合、意味カテゴリ辞書を参照して、認識部90により認識された英語の文字列を分割した単語それぞれの意味カテゴリを求める。
ここで、対訳記憶部1052について説明する。対訳記憶部1052は、対訳を構成する日本語文、英語文それぞれに意味カテゴリを対応付けて記憶する。図16は、対訳記憶部1052に記憶されている対訳を構成する日本語文の一例を示す図である。図16に示す例では、対訳を構成する日本語文それぞれに意味カテゴリが対応付けられている。図17は、対訳記憶部1052に記憶されている対訳を構成する英語文の一例を示す図である。図17に示す例では、対訳を構成する英語文それぞれに意味カテゴリが対応付けられている。例えば、図16及び図17において、日本語文120や英語文220には、「挨拶」という意味カテゴリが対応付けられ、日本語の単語161や英語の単語261には、「衣服」という意味カテゴリが対応付けられている。なお、対訳を構成する日本語文、英語文への意味カテゴリの付与は、図15に示すフローチャートのステップS300、S302の処理により行うことができる。
図15に戻り、続いて、検索部1095は、分割した単語それぞれの意味カテゴリと、対訳記憶部1052に記憶されている文を構成する複数の単語それぞれの意味カテゴリとを比較して、認識部90により認識された文字列に類似する文を検索する(ステップS304)。具体的には、入力受付部85により受け付けられた音声が日本語の場合、検索部1095は、日本語の文字列を分割した単語それぞれの意味カテゴリと、図16に示すような、対訳記憶部1052に記憶されている日本語文を構成する複数の単語それぞれの意味カテゴリとを比較して、認識部90により認識された日本語の文字列に類似する日本語文を検索する。同様に、入力受付部85により受け付けられた音声が英語の場合、検索部1095は、英語の文字列を分割した単語それぞれの意味カテゴリと、図17に示すような、対訳記憶部1052に記憶されている英語文を構成する複数の単語それぞれの意味カテゴリとを比較して、認識部90により認識された英語の文字列に類似する英語文を検索する。例えば、検索部1095は、数式(3)に示すDice係数、数式(4)に示すJaccard係数、又は数式(5)に示すコサイン係数などを用いて、文同士の類似度を算出する。
例えば、図16に示す日本語文171には、「頭・目鼻・顔」と「意識・感覚」という意味カテゴリが対応付けられ、日本語文172には、「頭・目鼻・顔」と「意識・感覚」という意味カテゴリが対応付けられ、日本語文173には、「衣服」と「包摂」という意味カテゴリが対応付けられている。
この場合、日本語文171と日本語文172の類似度、及び日本語文171と日本語文173の類似度は、数式(3)を用いて計算すると、以下の通りである。なお以下では、日本語文171を文1、日本語文172を文2、日本語文173を文3としている。
σ(文1,文2)=2*(e(頭・目鼻・顔,文1)*e(頭・目鼻・顔,文2)+e(意識・感覚,文1)*e(意識・感覚,文2))/((e(頭・目鼻・顔,文1)+e(意識・感覚,文1))+(e(頭・目鼻・顔,文2)+e(意識・感覚,文2)))=2*(1*1+1*1)/((1+1)+(1+1))=1
σ(文1,文3)=2*(e(頭・目鼻・顔,文1)*e(頭・目鼻・顔,文2) +e(意識・感覚,文1)*e(意識・感覚,文2)+e(衣服,文1)*e(衣服,文2)+e(包摂,文1)*e(包摂,文2))/((e(頭・目鼻・顔,文1))+e(意識・感覚,文1))+(e(衣服,文2)+e(包摂,文2)))=2*(1*0+1*0+0*1+0*1)/((1+1)+(1+1))=0
この結果、σ(文1,文2)=1であるため、日本語文171と日本語文172とは類似する。一方、σ(文1,文3)=0であるため、日本語文171と日本語文173とは類似しない。なお、e(x,s)は、文sに意味カテゴリxが存在する場合に1、存在しない場合に0を出力する関数である。
以上のように、意味カテゴリ辞書を用いても類似文を検索することができる。なお、文が疑問か肯定かという情報も文の類似度を算出する上で重要であるため、このような情報を用いて、類似度計算を行うようにしてもよい。
(ハードウェア構成)
図18は、第1、2実施形態の翻訳装置1、1001のハードウェア構成の一例を示すブロック図である。図18に示すように、第1、2の実施の形態の翻訳装置1、1001は、CPU901と、ROM、RAM、及びHDDなどの記憶装置902と、ユーザの音声を入力するマイク909と、入力された音声をAD変換するAD装置908と、翻訳結果などを音声に変換するDA装置910と、音声を出力するスピーカ911と、キーボード、マウス、又はペンなどの入力装置905と、入力装置905を制御する入力コントローラ904と、ディスプレイなどの表示装置907と、表示装置907を制御する出力コントローラ906と、各モジュールを接続するバス903とを備えており、通常のコンピュータを利用したハードウェア構成となっている。
第1、2実施形態の翻訳装置1、1001で実行される翻訳プログラムは、インストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。また、第1、2実施形態の翻訳装置1、1001で実行される翻訳プログラムを、ROM等に予め組み込んで提供するように構成してもよい。
第1、2実施形態の翻訳装置1、1001で実行される翻訳プログラムは、上述した各部をコンピュータ上で実現させるためのモジュール構成となっている。実際のハードウェアとしては、CPUがHDDから翻訳プログラムをRAM上に読み出して実行することにより、上記各部がコンピュータ上で実現されるようになっている。
(変形例)
なお、本発明は、上記実施の形態そのままに限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で構成要素を変形して具体化することができる。また、上記実施の形態に開示されている複数の構成要素の適宜な組み合わせにより、種々の発明を形成することができる。例えば、実施の形態に示される全構成要素からいくつかの構成要素を削除してもよい。さらに、異なる実施の形態にわたる構成要素を適宜組み合わせても良い。
例えば、検索部95、1095が類似文を検索する場合、一般的に、対訳記憶部52、1052に記憶されている文のうち次発話候補として取得部75により取得された文を優先することが望ましい。このため、検索部95、1095は、対訳記憶部52、1052
に記憶されている文のうち取得部75により取得された文の優先度を上げて、認識部90に認識された文字列に類似する文を対訳記憶部52、1052から検索するようにしてもよい。
具体的には、入力受付部85により受け付けられた音声が日本語の場合、検索部95、1095は、対訳記憶部52、1052に記憶されている日本語文のうち取得部75により取得された日本語文の優先度を上げて、日本語の文字列に類似する日本語文を対訳記憶部52、1052から検索する。同様に、入力受付部85により受け付けられた音声が英語の場合、検索部95、1095は、対訳記憶部52、1052に記憶されている英語文のうち取得部75により取得された英語文の優先度を上げて、英語の文字列に類似する英語文を対訳記憶部52、1052から検索する。
なお、例えば、数式(6)を用いることで、次発話候補として取得された文を優先することができる。
Figure 0005221768
但し、0<α<1である。
以上のように、本発明にかかる翻訳装置、及びプログラムは、異なる言語を母語とするユーザ同士のコミュニケーションの支援に有用である。
1、1001 翻訳装置
10 表示部
11、21 マイク
12、22 ディスプレイ
13、23 タッチペン
14、24 スピーカ
20 選択部
30 入力部
40 音声出力部
50、1050 記憶部
52、1052 対訳記憶部
54 次発話テーブル記憶部
60 選択受付部
65 更新部
70 翻訳部
75 取得部
80 出力制御部
82 表示制御部
84 音声制御部
85 入力受付部
90 認識部
95、1095 検索部
901 CPU
902 記憶装置
903 バス
904 入力コントローラ
905 入力装置
906 出力コントローラ
907 表示装置
908 AD装置
909 マイク
910 DA装置
911 スピーカ
1056 意味カテゴリ辞書記憶部

Claims (6)

  1. 意味内容が同義の第1言語の文及び第2言語の文を対応付けた対訳と、前記対訳のIDとを、対応付けて複数記憶する対訳記憶部と、
    選択された前記第1言語の第1文を、前記対訳を用いて前記第2言語に翻訳する翻訳部と、
    前記IDを有し、前記IDが示す前記対訳に含まれる前記第1言語の文か前記第2言語の文かを識別する第1識別情報と、前記第1識別情報が示す文の次発話として過去に前記対訳記憶部から選択された文を識別する第2識別情報と、を対応付けた次発話テーブルを記憶する次発話テーブル記憶部と、
    前記次発話テーブルを参照し、前記第1文の前記第1識別情報に対応付けられた前記第2識別情報が示す文である次発話候補を前記対訳記憶部から取得する取得部と、
    前記第1文、前記第1文の翻訳結果、及び前記次発話候補を表示する表示部と、
    前記次発話候補の選択を受け付ける選択受付部と、
    を備え、
    前記翻訳部は、選択された前記次発話候補が前記第1言語の場合、前記対訳を用いて前記第2言語に翻訳し、選択された前記次発話候補が前記第2言語の場合、前記対訳を用いて前記第1言語に翻訳することを特徴とする翻訳装置。
  2. 前記次発話テーブル記憶部は、更に、前記第1識別情報が示す文の次発話として前記第2識別情報が示す文が選択された頻度を示す頻度情報を前記次発話テーブルに対応付けて記憶し、
    前回選択を受け付けた文の前記第1識別情報と前記第1文の前記第2識別情報とに対応付けられた前記頻度情報を更新する更新部を更に備え、
    前記取得部は、前記次発話テーブルを参照し、前記第1文の前記第1識別情報に対応付けられた複数の前記第2識別情報それぞれが示す前記第1言語の文である前記第1言語の次発話候補を前記頻度情報が示す頻度が高い順に所定数の範囲内で前記対訳記憶部から取得するとともに、前記第1文の前記第1識別情報に対応付けられた複数の前記第2識別情報それぞれが示す前記第2言語の文である前記第2言語の次発話候補を前記頻度情報が示す頻度が高い順に所定数の範囲内で前記対訳記憶部から取得することを特徴とする請求項1に記載の翻訳装置。
  3. 前記第1言語又は前記第2言語の発話の音声の入力を受け付ける入力受付部と、
    前記音声が前記第1言語の場合、前記音声を認識して前記第1言語の第1文字列を生成し、前記音声が前記第2言語の場合、前記音声を認識して前記第2言語の第2文字列を生成する認識部と、
    前記音声が前記第1言語の場合、前記第1文字列に類似する前記第1言語の文を前記対訳記憶部から検索し、前記音声が前記第2言語の場合、前記第2文字列に類似する前記第2言語の文を前記対訳記憶部から検索する検索部と、を更に備え、
    前記表示部は、前記音声が前記第1言語の場合、前記第1文字列及び検索された前記第1言語の文を前記第1文の前記第1言語の次発話候補として表示し、前記音声が前記第2言語の場合、前記第2文字列及び検索された前記第2言語の文を前記第1文の前記第2言語の次発話候補として表示することを特徴とする請求項1に記載の翻訳装置。
  4. 単語と前記単語の意味カテゴリとを対応付けた意味カテゴリ辞書を記憶する意味カテゴリ辞書記憶部を更に備え、
    前記検索部は、前記音声が前記第1言語の場合、前記第1文字列を構成する複数の単語それぞれの意味カテゴリと、前記対訳記憶部に記憶されている前記第1言語の文を構成する複数の単語それぞれの意味カテゴリとを比較して、前記第1文字列に類似する前記第1言語の文を検索し、前記音声が前記第2言語の場合、前記第2文字列を構成する複数の単語それぞれの意味カテゴリと、前記対訳記憶部に記憶されている前記第2言語の文を構成する複数の単語それぞれの意味カテゴリとを比較して、前記第2文字列に類似する前記第2言語の文を検索することを特徴とする請求項3に記載の翻訳装置。
  5. 前記検索部は、前記音声が前記第1言語の場合、前記対訳記憶部に記憶されている前記第1言語の文のうち前記取得部により取得された前記第1言語の文の優先度を上げて、前記第1文字列に類似する前記第1言語の文を前記対訳記憶部から検索し、前記音声が前記第2言語の場合、前記対訳記憶部に記憶されている前記第2言語の文のうち前記取得部により取得された前記第2言語の文の優先度を上げて、前記第2文字列に類似する前記第2言語の文を前記対訳記憶部から検索することを特徴とする請求項3に記載の翻訳装置。
  6. 選択された前記第1言語の第1文を、意味内容が同義の第1言語の文及び第2言語の文を対応付けた対訳と前記対訳のIDとを対応付けて複数記憶する対訳記憶部の前記対訳を用いて前記第2言語に翻訳する翻訳部と、
    前記IDを有し、前記IDが示す前記対訳に含まれる前記第1言語の文か前記第2言語の文かを識別する第1識別情報と、前記第1識別情報が示す文の次発話として過去に前記対訳記憶部から選択された文を識別する第2識別情報と、を対応付けた次発話テーブルを記憶する次発話テーブル記憶部の前記次発話テーブルを参照し、前記第1文の前記第1識別情報に対応付けられた前記第2識別情報が示す文である次発話候補を前記対訳記憶部から取得する取得部と、
    前記第1文、前記第1文の翻訳結果、及び前記次発話候補を表示する表示部と、
    前記次発話候補の選択を受け付ける選択受付部と、
    してコンピュータを機能させ、
    前記翻訳部は、選択された前記次発話候補が前記第1言語の場合、前記対訳を用いて前記第2言語に翻訳し、選択された前記次発話候補が前記第2言語の場合、前記対訳を用いて前記第1言語に翻訳することを特徴とする翻訳プログラム。
JP2011532847A 2009-09-25 2009-09-25 翻訳装置、及びプログラム Active JP5221768B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2009/066677 WO2011036769A1 (ja) 2009-09-25 2009-09-25 翻訳装置、及びプログラム

Publications (2)

Publication Number Publication Date
JPWO2011036769A1 JPWO2011036769A1 (ja) 2013-02-14
JP5221768B2 true JP5221768B2 (ja) 2013-06-26

Family

ID=43795540

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011532847A Active JP5221768B2 (ja) 2009-09-25 2009-09-25 翻訳装置、及びプログラム

Country Status (3)

Country Link
US (1) US8583417B2 (ja)
JP (1) JP5221768B2 (ja)
WO (1) WO2011036769A1 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5666937B2 (ja) 2011-02-16 2015-02-12 株式会社東芝 機械翻訳装置、機械翻訳方法および機械翻訳プログラム
EP2784693A4 (en) * 2011-11-22 2015-07-29 Nec Casio Mobile Comm Ltd TRANSLATION DEVICE, TRANSLATION SYSTEM, TRANSLATION METHOD AND PROGRAM
US9189476B2 (en) * 2012-04-04 2015-11-17 Electronics And Telecommunications Research Institute Translation apparatus and method thereof for helping a user to more easily input a sentence to be translated
JP5967569B2 (ja) * 2012-07-09 2016-08-10 国立研究開発法人情報通信研究機構 音声処理システム
US20160283469A1 (en) * 2015-03-25 2016-09-29 Babelman LLC Wearable translation device
US20170097930A1 (en) * 2015-10-06 2017-04-06 Ruby Thomas Voice language communication device and system
JP2017167659A (ja) 2016-03-14 2017-09-21 株式会社東芝 機械翻訳装置、方法、およびプログラム
JP6715492B2 (ja) * 2016-08-09 2020-07-01 パナソニックIpマネジメント株式会社 識別制御方法及び識別制御装置
US11238226B2 (en) * 2018-11-15 2022-02-01 Nuance Communications, Inc. System and method for accelerating user agent chats

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030187A (ja) * 2001-07-18 2003-01-31 Nec Corp 自動通訳システム、会話学習装置、自動通訳装置及びその方法並びにそのプログラム
JP2006012179A (ja) * 2005-07-19 2006-01-12 Sony Corp 自然言語処理装置および自然言語処理方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07105220A (ja) 1993-09-30 1995-04-21 Hitachi Ltd 会話翻訳装置
JPH0877176A (ja) * 1994-09-07 1996-03-22 Hitachi Ltd 外国語翻訳装置
US20060025091A1 (en) * 2004-08-02 2006-02-02 Matsushita Electric Industrial Co., Ltd Method for creating and using phrase history for accelerating instant messaging input on mobile devices
CN1842788B (zh) 2004-10-08 2012-04-04 松下电器产业株式会社 对话支援装置、系统及方法
US20070073745A1 (en) * 2005-09-23 2007-03-29 Applied Linguistics, Llc Similarity metric for semantic profiling

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030187A (ja) * 2001-07-18 2003-01-31 Nec Corp 自動通訳システム、会話学習装置、自動通訳装置及びその方法並びにそのプログラム
JP2006012179A (ja) * 2005-07-19 2006-01-12 Sony Corp 自然言語処理装置および自然言語処理方法

Also Published As

Publication number Publication date
US8583417B2 (en) 2013-11-12
WO2011036769A1 (ja) 2011-03-31
US20120221323A1 (en) 2012-08-30
JPWO2011036769A1 (ja) 2013-02-14

Similar Documents

Publication Publication Date Title
JP5221768B2 (ja) 翻訳装置、及びプログラム
JP6013951B2 (ja) 環境音検索装置、環境音検索方法
KR102582291B1 (ko) 감정 정보 기반의 음성 합성 방법 및 장치
JP4791984B2 (ja) 入力された音声を処理する装置、方法およびプログラム
JP3962763B2 (ja) 対話支援装置
JP3848319B2 (ja) 情報処理方法及び情報処理装置
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
US8577679B2 (en) Symbol insertion apparatus and symbol insertion method
US20090204401A1 (en) Speech processing system, speech processing method, and speech processing program
JP5561123B2 (ja) 音声検索装置と音声検索方法
US20180039632A1 (en) Information processing apparatus, information processing method, and computer program
Abushariah et al. Phonetically rich and balanced text and speech corpora for Arabic language
JP2015125499A (ja) 音声通訳装置、音声通訳方法及び音声通訳プログラム
JP5611270B2 (ja) 単語分割装置、及び単語分割方法
JP2013029652A (ja) 音声認識装置および音声認識プログラム
JP5243325B2 (ja) 音声認識に仮名漢字変換システムを用いた端末、方法及びプログラム
US20230148275A1 (en) Speech synthesis device and speech synthesis method
JP5208795B2 (ja) 通訳装置、方法、及びプログラム
JP2013011843A (ja) 対話制御装置、対話制御方法及び対話制御用コンピュータプログラム
JP2011027979A (ja) 音声翻訳装置及び音声翻訳方法
JP4986301B2 (ja) 音声認識処理機能を用いたコンテンツ検索装置、プログラム及び方法
US20240012998A1 (en) Information processing device, information processing method, and computer program product
JP4674609B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP2009129405A (ja) 感情推定装置、事例感情情報生成装置、及び感情推定プログラム
KR101704501B1 (ko) 적어도 하나의 의미론적 유닛의 집합을 개선하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130307

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5221768

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160315

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

Free format text: JAPANESE INTERMEDIATE CODE: R313114

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350