JP6401488B2 - Foreign language conversation understanding support device, foreign language conversation understanding support method and program - Google Patents
Foreign language conversation understanding support device, foreign language conversation understanding support method and program Download PDFInfo
- Publication number
- JP6401488B2 JP6401488B2 JP2014088115A JP2014088115A JP6401488B2 JP 6401488 B2 JP6401488 B2 JP 6401488B2 JP 2014088115 A JP2014088115 A JP 2014088115A JP 2014088115 A JP2014088115 A JP 2014088115A JP 6401488 B2 JP6401488 B2 JP 6401488B2
- Authority
- JP
- Japan
- Prior art keywords
- time
- word
- unit
- data
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 48
- 238000013519 translation Methods 0.000 claims description 87
- 238000012545 processing Methods 0.000 claims description 62
- 238000000605 extraction Methods 0.000 claims description 52
- 239000000284 extract Substances 0.000 claims description 4
- 230000008569 process Effects 0.000 description 33
- 238000004891 communication Methods 0.000 description 17
- 238000012986 modification Methods 0.000 description 16
- 230000004048 modification Effects 0.000 description 16
- 238000010586 diagram Methods 0.000 description 12
- 230000006870 function Effects 0.000 description 6
- 238000003825 pressing Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 230000003287 optical effect Effects 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000002596 correlated effect Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011156 evaluation Methods 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 230000002250 progressing effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
Description
本発明は、外国語による会話の理解を支援する技術に関する。 The present invention relates to a technology that supports understanding of conversation in a foreign language.
従来、外国語による会話の内容を音声認識して、その認識の結果得られた文字列やその翻訳を画面に表示する技術が知られている。例えば、特許文献1には、タッチパネルに表示されるSpeak-inボタンが利用者により押下されると同ボタンが再度押下されるまでの間、利用者の音声を取り込み、その取り込んだ音声の音声認識結果と同結果の翻訳結果とを画面に表示する技術が記載されている。 2. Description of the Related Art Conventionally, a technique for recognizing the content of a conversation in a foreign language and displaying a character string obtained as a result of the recognition and its translation on a screen is known. For example, in Patent Document 1, when a Speak-in button displayed on a touch panel is pressed by a user, the user's voice is captured until the button is pressed again, and voice recognition of the captured voice is performed. A technique for displaying the result and the translation result of the result on the screen is described.
この特許文献1に記載の技術は、利用者が発話する前に、自身が発話する音声を取り込むための操作を行い、自身が発話後に、音声認識と翻訳の開始を指示する操作を行うという流れを想定している。このような技術は、発話者による発話のタイミングに合わせて予め音声を取り込むための操作を行うことができる場合には有効である。しかし、一般的な会話のように、会話相手の発話のタイミングを利用者側で指定できない場合には、会話相手の発話のタイミングに合わせて予め音声を取り込むための操作を行うことができず、その結果、会話相手の音声を始めから音声認識して翻訳を行うといったことができない。 The technology described in Patent Document 1 is a flow of performing an operation for capturing a voice spoken by the user before the user utters, and performing an operation for instructing the start of speech recognition and translation after the utterance. Is assumed. Such a technique is effective when an operation for capturing speech in advance can be performed in accordance with the timing of the utterance by the speaker. However, if the user cannot specify the timing of the conversation partner's utterance as in a general conversation, the operation for capturing the voice in advance according to the timing of the conversation partner's speech cannot be performed. As a result, the voice of the conversation partner cannot be recognized from the beginning and translated.
本発明は、このような事情に鑑みてなされたものであり、外国語による会話の理解を支援することを目的とする。 The present invention has been made in view of such circumstances, and an object thereof is to support understanding of conversations in a foreign language.
上記の課題を解決するため、本発明は、会話の相手により発話された内容を示す発話内容データと、時刻を示す時刻情報とが対応づけられた組を複数記憶する記憶部と、前記記憶部に記憶された発話内容データに対する処理の指示を利用者より受け付ける入力部と、前記入力部により前記指示が受け付けられた時刻よりも第1の時間遡った時刻以降の時刻を示す時刻情報と前記記憶部において対応づけられている発話内容データを抽出する抽出部と、前記抽出部により抽出された発話内容データに対する音声認識処理又は翻訳処理の結果に関連する情報を出力する出力部とを備える外国語会話理解支援装置を提供する。 In order to solve the above problems, the present invention provides a storage unit that stores a plurality of sets in which speech content data indicating content spoken by a conversation partner and time information indicating time are associated with each other, and the storage unit An input unit that receives from the user an instruction to process the utterance content data stored in the user, time information indicating a time after a time that is a first time later than the time at which the instruction is received by the input unit, and the storage A foreign language comprising: an extraction unit for extracting utterance content data associated with the unit; and an output unit for outputting information related to a result of speech recognition processing or translation processing for the utterance content data extracted by the extraction unit A conversation understanding support device is provided.
好ましい態様において、前記抽出部は、前記入力部により前記指示が受け付けられた時刻よりも予め定められた時間遡った時刻以降の時刻を示す時刻情報と前記記憶部において対応づけられている発話内容データであって、かつ前記利用者により入力された又は予め定められた条件に合致する発話内容データを抽出してもよい。 In a preferred aspect, the extraction unit includes utterance content data correlated in the storage unit with time information indicating a time after a time that is a predetermined time before the time when the instruction is received by the input unit. In addition, utterance content data input by the user or meeting predetermined conditions may be extracted.
さらに好ましい態様において、前記入力部は、前記利用者による文字の入力をさらに受け付け、前記条件に合致する発話内容データとは、前記入力部によりその入力が受け付けられた前記文字を含む単語を表す発話内容データであってもよい。 In a further preferred aspect, the input unit further accepts input of characters by the user, and the utterance content data matching the condition is an utterance representing a word including the characters whose input has been accepted by the input unit. It may be content data.
別のさらに好ましい態様において、前記入力部は、前記利用者による、発音記号を特定するための情報の入力をさらに受け付け、前記条件に合致する発話内容データとは、前記入力部によりその入力が受け付けられた前記情報により特定される発音記号をその発音記号に含む単語を表す発話内容データであってもよい。 In another more preferable aspect, the input unit further accepts input of information for specifying a phonetic symbol by the user, and utterance content data matching the condition is accepted by the input unit. It may be utterance content data representing a word including a phonetic symbol specified by the given information in the phonetic symbol.
別のさらに好ましい態様において、前記条件に合致する発話内容データとは、その品詞が予め定められた品詞である単語を表す発話内容データであってもよい。 In another more preferable aspect, the utterance content data matching the condition may be utterance content data representing a word whose part of speech is a predetermined part of speech.
また、本発明は、会話の相手により発話された内容を示す発話内容データと、時刻を示す時刻情報とが対応づけられた組を複数記憶する記憶部を備える外国語会話理解支援装置により実行される外国語会話理解支援方法であって、前記記憶部に記憶された発話内容データに対する処理の指示を利用者より受け付けるステップと、前記指示が受け付けられた時刻よりも第1の時間遡った時刻以降の時刻を示す時刻情報と前記記憶部において対応づけられている発話内容データを抽出するステップと、前記抽出された発話内容データに対する音声認識処理又は翻訳処理の結果に関連する情報を出力するステップとを備える外国語会話理解支援方法を提供する。 Further, the present invention is executed by a foreign language conversation understanding support device including a storage unit that stores a plurality of sets in which speech content data indicating content spoken by a conversation partner is associated with time information indicating time. A foreign language conversation understanding support method comprising: a step of accepting a processing instruction for utterance content data stored in the storage unit from a user; and a time that is a first time later than a time when the instruction is accepted Extracting the utterance content data associated with the time information indicating the time and the storage unit, and outputting information related to the result of speech recognition processing or translation processing on the extracted utterance content data; A foreign language conversation understanding support method is provided.
また、本発明は、会話の相手により発話された内容を示す発話内容データと、時刻を示す時刻情報とが対応づけられた組を複数記憶する記憶部を備えるコンピュータに、前記記憶部に記憶された発話内容データに対する処理の指示を利用者より受け付けるステップと、前記指示が受け付けられた時刻よりも第1の時間遡った時刻以降の時刻を示す時刻情報と前記記憶部において対応づけられている発話内容データを抽出するステップと、前記抽出された発話内容データに対する音声認識処理又は翻訳処理の結果に関連する情報を出力するステップとを実行させるためのプログラムを提供する。 Further, the present invention is stored in the storage unit in a computer including a storage unit that stores a plurality of sets in which speech content data indicating content uttered by a conversation partner and time information indicating time are associated with each other. A step of accepting an instruction to process the received utterance content data from the user, and utterance associated in the storage unit with time information indicating a time after a time that is a first time later than the time when the instruction was accepted There is provided a program for executing a step of extracting content data and a step of outputting information related to a result of speech recognition processing or translation processing on the extracted utterance content data.
本発明によれば、外国語による会話の理解を支援することができる。 According to the present invention, it is possible to support understanding of a conversation in a foreign language.
1.実施形態
1−1.構成
図1は、本発明の一実施形態に係る外国語会話理解支援装置1の機能ブロック図である。この外国語会話理解支援装置1は、ネットワークを介して接続される他の装置の利用者との間で音声と映像を使った会話を可能にするコンピュータである。特にこの外国語会話理解支援装置1は、その会話が当該装置の利用者にとって外国語で行われる場合に、その会話の理解を支援するコンピュータである。
1. Embodiment 1-1. Configuration FIG. 1 is a functional block diagram of a foreign language conversation understanding support device 1 according to an embodiment of the present invention. This foreign language conversation understanding support device 1 is a computer that enables conversation using voice and video with users of other devices connected via a network. In particular, the foreign language conversation understanding support device 1 is a computer that supports understanding of a conversation when the conversation is performed in a foreign language for the user of the device.
この外国語会話理解支援装置1は、具体的には、例えばパーソナルコンピュータである。より具体的には、スマートフォンやタブレット端末等の携帯端末や、据え置き型のコンピュータである。外国語会話理解支援装置1は、大まかに言うと、図1に示されるように、処理部11と、記憶部12と、タッチパネル13と、カメラ14と、マイク15と、スピーカ16と、通信部17とを備える。
The foreign language conversation understanding support device 1 is specifically a personal computer, for example. More specifically, it is a mobile terminal such as a smartphone or a tablet terminal, or a stationary computer. Generally speaking, the foreign language conversation understanding support device 1 is, as shown in FIG. 1, a
処理部11は、例えばCPU(Central Processing Unit)等の演算処理装置である。この処理部11は、図1に示されるように、エンコーダ111と、デコーダ112と、単語認識部113と、記憶情報更新部114と、時計部115と、抽出部116と、翻訳部117と、表示制御部118という機能を有する。これらの機能は、処理部11により、記憶部12に記憶されるプログラムが実行されることにより実現される。これらの機能については後述する。
The
記憶部12は、例えばEEPROM(Electronically Erasable and Programmable ROM)やフラッシュメモリ等の記憶装置である。この記憶部12は、処理部11により実行されるプログラムを記憶する。また、記憶部12は、図1に示されるように、学習モデルDB(Database)121と、単語DB122と、翻訳辞書DB123とを記憶する。
The
学習モデルDB121は、単語認識部113により実行される音声認識処理に必要な学習モデルを格納するデータベースである。学習モデルDB121は、具体的には、例えば、音響モデルと、言語モデルと、辞書とを格納する。この学習モデルDB121は、複数言語に対応すべく複数の学習モデルを格納してもよい。
The learning model DB 121 is a database that stores a learning model necessary for speech recognition processing executed by the
単語DB122は、単語認識部113により実行される音声認識処理の結果生成される単語データを時刻情報と対応づけて格納するデータベースである。図2は、この単語DB122のデータ構成の一例を示す図である。単語DB122を構成する各レコードは、図2に示されるように、「時刻」と「単語」の各フィールドにより構成される。単語のフィールドには、単語認識部113により実行される音声認識処理の結果生成される単語データが格納され、時刻のフィールドには、その単語データが格納される時刻を示す時刻情報が格納される。この単語データは、本発明に係る「発話内容データ」の一例である。
なお、本実施形態では、冠詞と前置詞と人称代名詞とは単語DB122の登録対象としていないが、これらも登録対象としてもよい。
The word DB 122 is a database that stores word data generated as a result of speech recognition processing executed by the
In the present embodiment, articles, prepositions, and personal pronouns are not registered in the word DB 122, but may be registered.
翻訳辞書DB123は、翻訳部117により実行される翻訳処理に必要な翻訳辞書データを格納するデータベースである。この翻訳辞書DB123は、複数言語に対応すべく複数の翻訳辞書データを格納してもよい。
The translation dictionary DB 123 is a database that stores translation dictionary data necessary for translation processing executed by the
タッチパネル13は、タッチセンサ等の入力装置である入力部131と、液晶ディスプレイ等の表示装置である表示部132とを備える。入力部131は、利用者による翻訳の指示を受け付けると、抽出部116にその旨を通知する。表示部132は、デコーダ112から取得した画像データにより表される画像を表示する。この表示部132は、本発明に係る「出力部」の一例である。
The
カメラ14は、例えば、CCD(Charge Coupled Device)等の撮像素子とレンズとを備えたデジタルカメラである。カメラ14は、生成した画像データを処理部11に出力する。なお、カメラ14は、静止画に限らず動画を撮影してもよい。
The
マイク15は、外国語会話理解支援装置1の利用者の音声を収音して音声データを処理部11に出力する。
スピーカ16は、処理部11(具体的には、デコーダ112)から入力された音声データにより表される音声を出力する。
The
The
通信部17は、例えばネットワークカードである。通信部17は、外部装置との間でネットワークを介してデータ通信を行う。具体的には、通信部17は、ネットワークを介して符号化された音声データ又は画像データが含まれるパケット群を受信すると、当該パケット群を再構成して、符号化された音声データ又は画像データを処理部11に受け渡す。また、通信部17は、処理部11から符号化された音声データ又は画像データを取得すると、当該データをパケット化してネットワークを介して外部装置に送信する。
次に、処理部11の各機能について説明する。
The
Next, each function of the
エンコーダ111は、カメラ14から画像データを取得したり、マイク15から音声データを取得したりすると、当該データを符号化して通信部17に受け渡す。
デコーダ112は、通信部17から取得した符号化された音声データをデコード(言い換えると、復号)して、単語認識部113とスピーカ16に受け渡す。また、デコーダ112は、通信部17から取得した符号化された画像データをデコードして、表示制御部118に受け渡す。
When the
The
単語認識部113は、デコーダ112から取得した音声データに対して、記憶部12に記憶される学習モデルDB121を参照して音声認識処理を行い、その処理の結果生成される単語データを記憶情報更新部114に受け渡す。音声認識処理の方法については周知の方法を用いてよい。
記憶情報更新部114は、単語認識部113から単語データを取得すると、時計部115から時刻情報を取得して、単語データと時刻情報とを対応づけて単語DB122に記憶する。
The
When the storage
時計部115は、記憶情報更新部114又は抽出部116からの要求を受けて、現在時刻を示す時刻情報を応答として返す。
抽出部116は、タッチパネル13の入力部131が、利用者による翻訳の指示を受け付け、その旨の通知を受けると、一定の条件に合致する単語データを単語DB122から抽出する抽出処理を実行する。この抽出処理において抽出部116は、以下の処理を実行する。
The
When the
まず、抽出部116は、時計部115から時刻情報を取得する。次に、抽出部116の遡及時刻作成部1161は、取得した時刻情報により示される時刻から予め定められた時間遡った時刻を示す遡及時刻情報を作成する。この予め定められた時間は、本発明に係る「第1の時間」の一例である。この予め定められた時間は、例えば利用者により設定される。
次に、抽出部116は、作成した遡及時刻情報により示される時刻以降の時刻であって、かつ時計部115から取得した時刻情報により示される時刻以前の時刻を示す時刻情報と単語DB122において対応づけられている単語データを取得する。次に、抽出部116は、取得した単語データにより示される単語のリストのデータを翻訳部117に受け渡す。
First, the
Next, the
翻訳部117は、抽出部116から単語リストのデータを取得すると、当該リスト内の各単語について翻訳辞書DB123を検索して翻訳先の単語を求め、翻訳元の単語(すなわち、リスト内の単語)と翻訳先の単語とを対応づけた単語ペアのリストのデータを表示制御部118に受け渡す。
When the
表示制御部118は、翻訳部117から取得したデータにより示される単語ペアのリストを、タッチパネル13の表示部132により表示される画面の所定の位置に表示させる。
以上が処理部11の各機能の説明である。
The
The above is the description of each function of the
1−2.動作
次に、外国語会話理解支援装置1の動作について説明する。具体的には、会話相手により発話された内容が音声認識されてその結果生成される単語データを単語DB122に記憶する単語記憶処理と、利用者による指示に応じて単語DB122から単語データを抽出して、その単語データにより示される単語とその翻訳先の単語とをタッチパネル13に表示する単語表示処理について説明する。
1-2. Operation Next, the operation of the foreign language conversation understanding support device 1 will be described. Specifically, a word storage process for storing the word data generated as a result of speech recognition of the content uttered by the conversation partner in the
これらの処理の実行に先立ち外国語会話理解支援装置1が起動されると、音声認識の対象となる言語と翻訳先の言語とに応じて学習モデルと翻訳辞書とがそれぞれ利用学習モデル、利用翻訳辞書として選択される。ここで選択される学習モデル及び翻訳辞書は、利用者によりタッチパネル13の入力部131を使って予め指定されてもよい。また、外国語会話理解支援装置1が起動されると、タッチパネル13の入力部131は、利用者による翻訳の指示を受け付け可能な状態となる。
When the foreign language conversation understanding support device 1 is activated prior to the execution of these processes, the learning model and the translation dictionary are used as the learning model and the translation used, respectively, according to the speech recognition target language and the translation destination language. Selected as a dictionary. The learning model and the translation dictionary selected here may be designated in advance by the user using the
以下の説明では、翻訳元の言語が英語であり翻訳先の言語が日本語である例について説明するが、言語の組み合わせはこの例に限られず、他の言語同士の組み合わせであってもよい。 In the following description, an example in which the language of the translation source is English and the language of the translation destination is Japanese will be described, but the combination of languages is not limited to this example, and may be a combination of other languages.
1−2−1.単語記憶処理
図3は、単語記憶処理の一例を示すフローチャートである。外国語会話理解支援装置1は、この単語記憶処理を、タッチパネル13の入力部131により利用者による処理の終了の指示が受け付けられるか、又は当該装置の電源が切断されるまで継続する。
1-2-1. Word Storage Process FIG. 3 is a flowchart illustrating an example of the word storage process. The foreign language conversation understanding support device 1 continues this word storage processing until an instruction to end the processing by the user is received by the
まず、ステップS11において通信部17は、符号化された音声データを受信すると、当該音声データをデコーダ112に受け渡す。デコーダ112は、受け渡された音声データをデコードして、デコードされた音声データを単語認識部113に受け渡す(ステップS12)。
First, in step S <b> 11, when the
単語認識部113は、受け渡された音声データに対して、記憶部12に記憶される学習モデルDB121を参照して音声認識処理を行い、その処理の結果生成される単語データを記憶情報更新部114に受け渡す(ステップS13)。記憶情報更新部114は、単語データを受け取ると、時計部115から時刻情報を取得して、単語データと時刻情報とを対応づけて単語DB122に記憶する(ステップS14)。例えば、単語「hello」を示す単語データと、時刻「10:05:30」を示す時刻情報とを取得した場合には、図2に示されるように、これらのデータを対応づけて単語DB122に記憶する。
The
1−2−2.単語表示処理
図4は、単語表示処理の一例を示すフローチャートである。
まず、タッチパネル13の入力部131は、利用者による翻訳の指示を受け付けると、抽出部116にその旨を通知する(ステップS21)。抽出部116は、入力部131から通知を受けると、一定の条件に合致する単語データを単語DB122から抽出する抽出処理を実行する(ステップS22)。
1-2-2. Word Display Process FIG. 4 is a flowchart illustrating an example of the word display process.
First, when the
図5は、この抽出処理の一例を示すフローチャートである。
この抽出処理において抽出部116はまず、入力部131から通知を受けると、時計部115に対して時刻情報の要求を出し、時計部115から時刻情報を取得する(ステップS31)。次に、抽出部116の遡及時刻作成部1161は、時計部115から取得した時刻情報により示される時刻から予め定められた時間遡った時刻を示す遡及時刻情報を作成する(ステップS32)。例えば、時計部115から取得した時刻情報が時刻「10:05:34」を示し、予め定められた時間が「3秒」に設定されている場合には、時刻「10:05:31」を示す遡及時刻情報が作成される。
FIG. 5 is a flowchart showing an example of this extraction process.
In this extraction process, the
次に、抽出部116は、作成した遡及時刻情報により示される時刻以降の時刻であって、かつ時計部115から取得した時刻情報により示される時刻以前の時刻を示す時刻情報と単語DB122において対応づけられている単語データを取得する(ステップS33)。例えば、作成した遡及時刻情報が時刻「10:05:31」を示し、時計部115から取得した時刻情報が時刻「10:05:34」を示す場合には、図2に示される単語DB122の例においては、単語「live」、「Tokyo」、「work」、「computer」及び「company」を示す各単語データが取得される。
Next, the
次に、抽出部116は、取得した単語データにより示される単語のリストのデータを翻訳部117に受け渡す(ステップS34)。
以上が抽出処理の説明である。
Next, the
The above is the description of the extraction process.
翻訳部117は、抽出部116から単語リストのデータを取得すると、当該リスト内の各単語について翻訳辞書DB123を検索して翻訳先の単語を求め、翻訳元の単語(すなわち、リスト内の単語)と翻訳先の単語とを対応づけた単語ペアのリストのデータを表示制御部118に受け渡す(ステップS23)。表示制御部118は、受け渡されたデータにより示される単語ペアのリストを、タッチパネル13の表示部132により表示される画面の所定の位置に表示させる(ステップS24)。
When the
図6は、ステップS24の結果タッチパネル13の表示部132に表示される画面の一例を示す図である。同画面は、図6に示されるように、会話相手の映像を表示する映像表示エリアA1と、単語ペアリストを表示するリスト表示エリアA2とを有する。
リスト表示エリアA2に表示された単語ペアリストは、利用者によるタッチパネル13の入力部131に対する操作に応じて非表示とされてもよいし、一定時間後に自動的に非表示とされてもよい。
FIG. 6 is a diagram illustrating an example of a screen displayed on the
The word pair list displayed in the list display area A2 may be hidden in response to an operation on the
なお、単語ペアリストが表示される画面上の位置は、図示された例に限られず、会話の進行を妨げない位置であればよい。例えば、実行中の会話進行用のアプリケーションが図示された例のようにTV会議用のアプリケーションである場合には、会話相手の映像が表示されていない領域であればよい。 The position on the screen where the word pair list is displayed is not limited to the illustrated example, and may be any position that does not hinder the progress of the conversation. For example, when the application for progressing conversation being executed is a TV conference application as in the illustrated example, it may be an area where the video of the conversation partner is not displayed.
以上説明した本実施形態に係る外国語会話理解支援装置1によれば、会話相手により発話された内容が継続的に音声認識されてその単語が記憶され、利用者による翻訳の指示が受け付けられると、その時点から予め定められた時間遡った時刻以降の時刻と対応づけられている単語が特定され、その単語とその翻訳先の単語とが画面に表示される。よって、利用者は、会話の中で理解できない部分があった場合に、その時点よりも後に翻訳の指示をすることで、その部分の内容を理解することができる。 According to the foreign language conversation understanding support device 1 according to the present embodiment described above, the content uttered by the conversation partner is continuously voice-recognized, the word is stored, and a translation instruction from the user is accepted. Then, a word associated with a time after a predetermined time after that time is specified, and the word and a translation destination word are displayed on the screen. Therefore, when there is a part that cannot be understood in the conversation, the user can understand the contents of the part by giving a translation instruction after that point.
また、この外国語会話理解支援装置1によれば、利用者は画面に対するタップ操作等の操作により翻訳の指示を行うことができる。このような操作は比較的簡単な操作であり、また音声を使った操作ではないため、音声により行われる会話を妨げることがない。また、このような操作は比較的目立たない操作でもあるため、会話相手に訳語を調べていることを悟られにくい。
また、この外国語会話理解支援装置1によれば、音声認識された単語とその翻訳先の単語とは音声情報としてではなく文字情報として画面に表示される。そのため、音声により行われる会話を妨げることがない。
Further, according to the foreign language conversation understanding support device 1, the user can instruct translation by an operation such as a tap operation on the screen. Such an operation is a relatively simple operation and is not an operation using voice, so that it does not hinder a conversation performed by voice. Moreover, since such an operation is also a relatively inconspicuous operation, it is difficult for the conversation partner to realize that the translated word is being examined.
Further, according to the foreign language conversation understanding support device 1, the speech-recognized word and the translated word are displayed on the screen as character information, not as speech information. Therefore, it does not disturb the conversation conducted by voice.
2.変形例
上記の実施形態は、以下のように変形してもよい。また、以下の変形例は互いに組み合わせてもよい。
2. Modifications The above embodiment may be modified as follows. Further, the following modifications may be combined with each other.
2−1.変形例1
上記の実施形態に係る抽出処理において抽出部116は、時刻情報に加えてさらに別の情報に基づいて単語データを抽出するようにし、利用者による必要な情報の特定を支援するようにしてもよい。具体的な方法としては以下の2つの方法が考えられる。
(1)時刻情報に加えて、翻訳指示の際に利用者から受け付ける別の情報に基づいて単語データの抽出を行う。
(2)時刻情報に加えて、利用者により予め設定された別の情報に基づいて単語データの抽出を行う。
2-1. Modification 1
In the extraction process according to the above-described embodiment, the
(1) In addition to time information, word data is extracted based on other information received from the user at the time of a translation instruction.
(2) In addition to the time information, word data is extracted based on other information preset by the user.
2−1−1.利用者から受け付ける別の情報に基づいて絞り込みを行う場合
上記の(1)の方法としては具体的には以下の2つの方法が考えられる。
(1−1)利用者により入力される検索文字に基づいて絞り込みを行う。
(1−2)利用者により入力される発音記号(又は、発音記号を特定するための情報)に基づいて絞り込みを行う。
2-1-1. When narrowing down based on other information received from the user As the method (1), specifically, the following two methods are conceivable.
(1-1) Narrowing is performed based on a search character input by a user.
(1-2) Narrowing down based on phonetic symbols (or information for specifying phonetic symbols) input by the user.
2−1−1−1.検索文字に基づいて絞り込みを行う場合
本例の場合、タッチパネル13の入力部131は、上記の単語表示処理のステップS21において、利用者による翻訳の指示に加えて検索文字の入力を受け付け、当該指示を受け付けたことを抽出部116に通知するとともに、当該入力された検索文字を示す文字データを抽出部116に受け渡すようにしてもよい。ここで、検索文字は1文字であっても複数文字であってもよい。
2-1-1-1. In the case of this example, the
抽出部116は、当該通知を受け、かつ文字データを取得すると、上記の抽出処理のステップS33において、遡及時刻情報により示される時刻以降の時刻であって、かつ時計部115から取得した時刻情報により示される時刻以前の時刻を示す時刻情報と単語DB122において対応づけられている単語データであって、かつ取得した文字データにより示される検索文字で始まる(又は、含む)単語を表す単語データを取得するようにしてもよい。
例えば、作成した遡及時刻情報が時刻「10:05:31」を示し、時計部115から取得した時刻情報が時刻「10:05:34」を示し、かつ取得した文字データが文字「li」を示す場合には、図2に示される単語DB122の例においては、単語「live」を示す単語データが取得される。
When the
For example, the created retroactive time information indicates the time “10:05:31”, the time information acquired from the
なお、検索文字が入力部131に入力される際には、タッチパネル13の表示部132は画面にソフトウェアキーボードを表示するようにし、このソフトウェアキーボードを使って検索文字は入力されてもよい。または、タッチパネル13の表示部132は画面に手書き入力用の領域を表示するようにし、当該領域に入力された文字が検索文字として認識されてもよい。
When the search character is input to the
また別の例として、検索文字は、外国語会話理解支援装置1に接続された有体のキーボード(図示せず)を使って入力されてもよい。または、マイク15により収音された利用者の音声のデータに対して音声認識処理を行い、その結果特定される文字を検索文字としてもよい。
As another example, the search characters may be input using a tangible keyboard (not shown) connected to the foreign language conversation understanding support device 1. Alternatively, voice recognition processing may be performed on the user's voice data collected by the
2−1−1−2.発音記号に基づいて絞り込みを行う場合
図7は、本例に係る外国語会話理解支援装置1Aの機能ブロック図である。同図に示される外国語会話理解支援装置1Aは、記憶部12が単語DB122Aと、発音記号辞書DB124と、読み辞書DB125とを記憶する点において、上記の実施形態に係る外国語会話理解支援装置1と相違している。
2-1-1-2. FIG. 7 is a functional block diagram of the foreign language conversation understanding support device 1A according to the present example. The foreign language conversation understanding support device 1A shown in the figure is the foreign language conversation understanding support device according to the above embodiment in that the
図8は、単語DB122Aのデータ構成の一例を示す図である。この単語DB122Aの各レコードは、図8に示されるように、上記の実施形態に係る単語DB122と比較して、「発音記号」のフィールドをさらに有する点において相違している。
FIG. 8 is a diagram illustrating an example of a data configuration of the
図9は、発音記号辞書DB124のデータ構成の一例を示す図である。この発音記号辞書DB124は、翻訳元の言語の単語データとその発音記号データとを対応づけて格納するデータベースである。この発音記号辞書DB124を構成する各レコードは、図9に示されるように、「翻訳元言語の単語」と「発音記号」の各フィールドにより構成される。
FIG. 9 is a diagram illustrating an example of a data configuration of the phonetic
図10は、読み辞書DB125のデータ構成の一例を示す図である。この読み辞書DB125は、翻訳先の言語の文字(具体的には、表音文字)データと、翻訳元の言語の発音記号データとを対応づけて格納するデータベースである。この読み辞書DB125を構成する各レコードは、図10に示されるように、「翻訳先言語の文字」と「翻訳元言語の発音記号」の各フィールドにより構成される。1つの文字データに対して複数の発音記号データが対応づけられてもよい。
FIG. 10 is a diagram illustrating an example of a data configuration of the
この外国語会話理解支援装置1Aにおいて、記憶情報更新部114は、上記の単語記憶処理のステップS14において、単語認識部113から単語データを受け取ると、当該単語データと発音記号辞書DB124において対応づけられている発音記号データを取得するようにしてもよい。そして、時計部115から時刻情報を取得して、当該単語データと発音記号データと時刻情報とを対応づけて単語DB122Aに記憶するようにしてもよい。
In the foreign language conversation understanding support device 1A, when the storage
タッチパネル13の入力部131は、上記の単語表示処理のステップS21において、利用者による翻訳の指示に加えて、発音記号を特定するための文字(具体的には、表音文字)の入力を受け付け、当該指示を受け付けたことを抽出部116に通知するとともに、当該入力された文字を示す文字データを抽出部116に受け渡すようにしてもよい。
In step S21 of the word display process, the
抽出部116は、当該通知を受け、かつ文字データを取得すると、上記の抽出処理のステップS33において、まず、当該文字データと読み辞書DB125に対応づけられている発音記号データを取得するようにしてもよい。
例えば、取得した文字データが文字「り」を示す場合には、図10に示される読み辞書DB125の例においては、発音記号「l」及び「r」を示す各発音記号データが取得される。
When the
For example, when the acquired character data indicates the character “RI”, each phonetic symbol data indicating phonetic symbols “l” and “r” is acquired in the example of the
そして、抽出部116は、遡及時刻情報により示される時刻以降の時刻であって、かつ時計部115から取得した時刻情報により示される時刻以前の時刻を示す時刻情報と単語DB122において対応づけられている単語データであって、かつ取得した発音記号データにより示される発音記号で始まる発音記号群を示す発音記号データと単語DB122において対応づけられている単語データを取得するようにしてもよい。
例えば、作成した遡及時刻情報が時刻「10:05:31」を示し、時計部115から取得した時刻情報が時刻「10:05:34」を示し、かつ取得した発音記号データがそれぞれ発音記号「l」、「r」を示す場合には、図8に示される単語DB122Aの例においては、単語「live」を示す単語データが取得される。
The
For example, the created retroactive time information indicates the time “10:05:31”, the time information acquired from the
なお、抽出部116により取得される単語データは、上記の例のように、取得した発音記号データにより示される発音記号で始まる発音記号群を示す発音記号データと対応づけられている単語データに限られず、取得した発音記号データにより示される発音記号を含む発音記号群を示す発音記号データと対応づけられている単語データであってもよい。
Note that the word data acquired by the
この例によれば、利用者は、その意味を理解できなかった単語のスペルがわからなくても、聞き取った音をたよりに当該単語の訳語を表示させることができる。 According to this example, even if the user does not understand the spelling of the word whose meaning could not be understood, the user can display the translation of the word based on the sound that he has heard.
なお、この例において発音記号を特定するための文字は、タッチパネル13の表示部132に表示されるソフトウェアキーボードや手書き入力用の領域を使って入力されてもよい。または、外国語会話理解支援装置1Aに接続された有体のキーボード(図示せず)を使って入力されてもよい。
図11は、発音記号を特定するための文字が手書き入力用の領域を使って入力される場合にタッチパネル13の表示部132に表示される画面の一例を示す図である。同画面は、図11に示されるように、図6に示される画面と比較して、手書き入力領域A3をさらに有している。
In this example, a character for specifying a phonetic symbol may be input using a software keyboard or a handwriting input area displayed on the
FIG. 11 is a diagram illustrating an example of a screen displayed on the
また別の例として、発音記号を特定するための文字はマイク15を使って入力されてもよい。この場合、マイク15は、収音した利用者の音声のデータを音声記号変換部(図示せず)に受け渡してもよい。そして、音声記号変換部は、取得した音声データに対して、音声データに基づいて発音記号データを出力するための学習モデル(図示せず)を参照して音声認識処理を行い、その結果生成される発音記号データを抽出部116に受け渡すようにしてもよい。抽出部116は、取得した発音記号データを使って単語データの絞り込みを行うようにしてもよい。
As another example, a character for specifying a phonetic symbol may be input using the
2−1−2.利用者により予め設定された別の情報に基づいて絞り込みを行う場合
上記の(2)の方法としては具体的には以下の2つの方法が考えられる。
(2−1)単語の品詞の種類に基づいて絞り込みを行う。
(2−2)単語のレベル(具体的には、難易度)に基づいて絞り込みを行う。
2-1-2. When narrowing down based on other information preset by the user As the above method (2), specifically, the following two methods are conceivable.
(2-1) Narrow down based on the type of part of speech of the word.
(2-2) Narrowing is performed based on the level of the word (specifically, difficulty level).
2−1−2−1.単語の品詞の種類に基づいて絞り込みを行う場合
本例の場合、単語認識部113は、上記の単語記憶処理のステップS13において、デコーダ112から音声データを取得すると、当該音声データに対して、記憶部12に記憶される学習モデルDB121を参照して音声認識処理を行い、その処理の結果生成される単語データと、当該単語データにより表される単語の品詞を示す品詞データとを記憶情報更新部114に受け渡すようにしてもよい。
2-2-1-1. When narrowing down based on the type of part of speech of a word In the case of this example, when the
単語データに加えて品詞データを取得する記憶情報更新部114は、上記の単語記憶処理のステップS14において、まず、記憶部12に記憶される、品詞の種類と重要度とを対応づけた評価基準情報(図示せず)を参照して、当該品詞データにより示される品詞の重要度を特定するようにしてもよい。そして、記憶情報更新部114は、その特定した重要度が予め定められた閾値以上である場合にのみ、取得した単語データを時計部115から取得した時刻情報と対応づけて単語DB122に記憶するようにしてもよい。ここで、品詞の重要度と閾値とは、利用者により予め設定されてもよい。
The storage
この例によれば、予め定められた閾値以上の重要度をもつ品詞の単語データのみが単語DB122に記憶されるため、そのような単語データのみが抽出処理において抽出部116により抽出されることになる。
According to this example, since only the part-of-speech word data having an importance level equal to or higher than a predetermined threshold is stored in the
なお、本例において、記憶情報更新部114は、上述の評価基準情報に代えて、記憶対象とすべき品詞のリストの情報(図示せず)を参照して、当該リストに含まれる品詞の単語データのみを時刻情報と対応づけて単語DB122に記憶するようにしてもよい。
In this example, the stored
2−1−2−2.単語のレベルに基づいて絞り込みを行う場合
本例の場合、記憶情報更新部114は、上記の単語記憶処理のステップS14において、単語認識部113から単語データを取得すると、まず、記憶部12に記憶される、単語データとレベル情報とを対応づけたレベル辞書(図示せず)を参照して、当該単語データにより表される単語のレベルを特定するようにしてもよい。そして、記憶情報更新部114は、その特定したレベルが利用者の語学レベル以上である場合にのみ、取得した単語データを時計部115から取得した時刻情報と対応づけて単語DB122に記憶するようにしてもよい。ここで、利用者の語学レベルは、タッチパネル13の入力部131を使って予め入力されてもよい。
2-1-2-2. In the case of this example, the storage
この例によれば、利用者の語学レベル以上のレベルの単語データのみが単語DB122に記憶されるため、そのような単語データのみが抽出処理において抽出部116により抽出されることになる。
According to this example, since only word data of a level higher than the user's language level is stored in the
2−2.変形例2
上記の実施形態に係る単語記憶処理では、通信部17により受信された符号化された音声データがデコーダ112によりデコードされて単語認識部113に受け渡されているが(ステップS11及びS12参照)、利用者の会話相手が外国語会話理解支援装置1の前に存在する場合には、マイク15により収音された会話相手の音声のデータが音声認識処理の対象として単語認識部113に受け渡されてもよい。
2-2. Modification 2
In the word storage processing according to the above embodiment, the encoded voice data received by the
2−3.変形例3
上記の実施形態に係る単語記憶処理において、音声認識の対象となる言語に応じて、音声認識処理用のソフトウェアを使い分けてもよい。また、上記の実施形態に係る単語表示処理において、翻訳元の言語と翻訳先の言語とに応じて、翻訳処理用のソフトウェアを使い分けてもよい。利用される音声認識用のソフトウェアと翻訳処理用のソフトウェアとは、利用者により予め設定されてもよい。
2-3. Modification 3
In the word storage processing according to the above-described embodiment, the software for speech recognition processing may be properly used according to the language that is the target of speech recognition. Further, in the word display processing according to the above-described embodiment, the software for translation processing may be properly used according to the language of the translation source and the language of the translation destination. The voice recognition software and translation processing software to be used may be set in advance by the user.
2−4.変形例4
上記の実施形態に係る単語記憶処理では、単語データと時刻情報とが対応づけて単語DB122に記憶されているが(ステップS14参照)、単語データに代えて、複数の単語からなる文のデータと時刻情報とを対応づけて単語DB122に記憶するようにしてもよい。これに伴い、上記の実施形態に係る単語表示処理では、抽出部116は、単語データに代えて文データを抽出して、抽出した文データにより表される文のリストのデータを翻訳部117に受け渡すようにしてもよい(ステップS22参照)。また、翻訳部117は、取得したリストデータ内の各文について翻訳辞書DB123を検索して翻訳先の文を求め、翻訳元の文(すなわち、リスト内の文)と翻訳先の文とを対応づけた文ペアのリストのデータを表示制御部118に受け渡すようにしてもよい(ステップS23参照)。
2-4. Modification 4
In the word storage processing according to the above embodiment, the word data and the time information are associated with each other and stored in the word DB 122 (see step S14). However, instead of the word data, the sentence data including a plurality of words and The time information may be stored in the
2−5.変形例5
上記の実施形態において単語DB122に記憶される単語データと時刻情報との組は古いものから順に順次削除されてもよい。例えば、上記の単語記憶処理のステップS14において記憶情報更新部114は、記憶部12に確保されたリングバッファに単語データと時刻情報との組を記憶するようにしてもよい。この場合、記憶情報更新部114は、最後に書き込みを行ったバッファのアドレスの情報を管理しておき、次に書き込みを行う際には当該アドレスの次のアドレスのバッファに対して行うようにしてもよい。
2-5. Modification 5
In the above embodiment, pairs of word data and time information stored in the
また別の例として、記憶情報更新部114は、単語データと時刻情報との組を新たに単語DB122に記憶する際に、当該時刻情報に示される時刻よりも予め定められた時間遡った時刻よりも前の時刻を示す時刻情報と対応づけられている単語データをその時刻情報とともに単語DB122から削除するようにしてもよい。
または、記憶情報更新部114は、一定の周期で時計部115から時刻情報を取得し、その時刻情報に示される時刻よりも予め定められた時間遡った時刻よりも前の時刻を示す時刻情報と対応づけられている単語データをその時刻情報とともに単語DB122から削除するようにしてもよい。
As another example, when the stored
Alternatively, the stored
2−6.変形例6
上記の実施形態に係る単語記憶処理では、デコーダ112により音声データのデコードがなされ、単語認識部113により当該音声データに対して音声認識処理が施されることによって生成された単語データが時刻情報と対応づけられて単語DB122に記憶されているが(ステップS12〜S14参照)、この単語データに代えて、デコーダ112によりデコードされた音声データと時刻情報とを単語DB122に記憶するようにしてもよい。ここで、時刻情報と対応づけられる音声データは、デコードされた音声データにおいて所定期間の無音期間ごとに切り出された音声データとしてもよい(例えば、特開2001−154691号公報参照)。本変形例に係る音声データは、本発明に係る「発話内容データ」の一例である。
2-6. Modification 6
In the word storage processing according to the above embodiment, the speech data is decoded by the
この場合、上記の実施形態に係る単語表示処理では、抽出部116は、単語データに代えて音声データを単語DB122から抽出した後(ステップS22参照)、この音声データを単語認識部113に受け渡すようにしてもよい。単語認識部113は、取得した音声データに対して、記憶部12に記憶される学習モデルDB121を参照して音声認識処理を行い、その処理の結果生成される単語データにより示される単語のリストのデータを翻訳部117に受け渡すようにしてもよい。翻訳部117は、取得した単語リスト内の各単語について翻訳辞書DB123を検索して翻訳先の単語を求め、翻訳元の単語と翻訳先の単語とを対応づけた単語ペアのリストのデータを表示制御部118に受け渡すようにしてもよい(ステップS23)。
In this case, in the word display process according to the above-described embodiment, the
この変形例によれば、画面に表示される単語を示す音声データについてのみ音声認識処理を行えばよいため、処理部11に対する処理負荷を軽減することができる。
なお、上記の例ではデコードされた音声データと時刻情報とが単語DB122に記憶されているが、符号化されたままの音声データと時刻情報とを単語DB122に記憶しておき、音声データを抽出後に(ステップS22参照)デコードして、その後音声認識処理を行うようにしてもよい。この例によれば、不必要なデコード処理が省略されるため、その点においてさらに処理部11に対する処理負荷を軽減することができる。
According to this modification, since it is only necessary to perform the speech recognition process on the speech data indicating the word displayed on the screen, the processing load on the
In the above example, the decoded voice data and time information are stored in the
2−7.変形例7
上記の実施形態においては音声認識処理は外国語会話理解支援装置1内において行われているが、この装置とネットワークを介して接続される他の装置(例えば、音声認識サーバ)において行われてもよい。この場合、上記の単語記憶処理において通信部17は、受信した符号化された音声データを音声認識サーバ(図示せず)に転送し、音声認識サーバにて音声認識処理の結果生成された単語データを受信して、この単語データを記憶情報更新部114に受け渡すようにしてもよい。ここで、通信部17は、すでに符号化されている音声データをそのまま音声認識サーバに転送すればよいため、新たにエンコード処理を行う必要はなく、従って処理部11に対する新たな処理負荷が発生することはない。
2-7. Modification 7
In the above embodiment, the speech recognition process is performed in the foreign language conversation understanding support device 1, but it may be performed in another device (for example, a speech recognition server) connected to this device via a network. Good. In this case, in the word storage process, the
2−8.変形例8
上記の実施形態に係る単語表示処理では、抽出部116によって抽出された単語データは翻訳部117により翻訳処理され、その結果、翻訳元の単語だけでなく翻訳先の単語も画面に表示されている(ステップS23及びS24参照)。しかし、ここで、翻訳元の単語だけを画面に表示するようにしてもよい。すなわち、上記の実施形態に係る単語表示処理においてステップS23は省略されてもよい。これは、利用者によっては、会話中に登場する翻訳元言語の単語さえ特定できれば、翻訳先言語の単語まで示されなくても会話の内容を理解することができる場合があるからである。
2-8. Modification 8
In the word display processing according to the above embodiment, the word data extracted by the
2−9.変形例9
上記の実施形態に係る抽出処理では、時計部115から取得した時刻情報により示される時刻から予め定められた時間遡った時刻を示す遡及時刻情報が作成されているが(ステップS32)、この予め定められた時間は、条件に応じて変化する可変時間としてもよい。例えば、当該可変時間は、利用者により翻訳の指示が入力される際の利用者の指の押圧力や押圧時間に応じて変化してもよい。具体的には、押圧力が強くなるにつれて又は押圧時間が長くなるにつれて、可変時間が長くなるように制御してもよい。この可変時間は、本発明に係る「第1の時間」の一例である。
2-9. Modification 9
In the extraction process according to the above-described embodiment, retroactive time information indicating a time that is a predetermined time backward from the time indicated by the time information acquired from the
2−10.変形例10
上記の実施形態に係る単語表示処理において表示制御部118は、単語ペアのリストに加えて又は代えて、当該リストに含まれる翻訳元又は翻訳先の単語に関連する情報を画面に表示させるようにしてもよい。ここで、翻訳元又は翻訳先の単語に関連する情報とは、例えば、当該単語を検索キーとしてインターネット上で検索を行った結果ヒットした情報である。
2-10. Modification 10
In the word display process according to the above embodiment, the
2−11.変形例11
上記の実施形態及び変形例群に係る外国語会話理解支援装置1又は1Aの機能群を実現するプログラムは、コンピュータ装置が読み取り可能な記録媒体を介して提供されてもよい。ここで、記録媒体とは、例えば、磁気テープや磁気ディスクなどの磁気記録媒体や、光ディスクなどの光記録媒体や、光磁気記録媒体や、半導体メモリ等である。また、このプログラムは、インターネット等のネットワークを介して提供されてもよい。
2-11.
The program for realizing the function group of the foreign language conversation understanding support device 1 or 1A according to the above-described embodiment and modification group may be provided via a recording medium readable by the computer device. Here, the recording medium is, for example, a magnetic recording medium such as a magnetic tape or a magnetic disk, an optical recording medium such as an optical disk, a magneto-optical recording medium, or a semiconductor memory. In addition, this program may be provided via a network such as the Internet.
1…外国語会話理解支援装置、11…処理部、12…記憶部、13…タッチパネル、14…カメラ、15…マイク、16…スピーカ、17…通信部、111…エンコーダ、112…デコーダ、113…単語認識部、114…記憶情報更新部、115…時計部、116…抽出部、117…翻訳部、118…表示制御部、121…学習モデルDB、122…単語DB、123…翻訳辞書DB、124…発音記号辞書DB、125…読み辞書DB、131…入力部、132…表示部、1161…遡及時刻作成部
DESCRIPTION OF SYMBOLS 1 ... Foreign language conversation understanding support apparatus, 11 ... Processing part, 12 ... Memory | storage part, 13 ... Touch panel, 14 ... Camera, 15 ... Microphone, 16 ... Speaker, 17 ... Communication part, 111 ... Encoder, 112 ... Decoder, 113 ...
Claims (4)
前記記憶部に記憶された発話内容データに対する処理の指示を前記利用者より受け付ける入力部と、
前記入力部により前記指示が受け付けられた時刻よりも第1の時間遡った時刻以降の時刻を示す時刻情報と前記記憶部において対応づけられている発話内容データを抽出する抽出部と、
前記抽出部により抽出された発話内容データに対する音声認識処理又は翻訳処理の結果に関連する情報を出力する出力部と
を備え、
前記入力部はタッチセンサであり、
前記第1の時間は、前記入力部が前記利用者により押圧される力又は時間に応じて変化する
ことを特徴とする外国語会話理解支援装置。 Of speech contents data indicating the content uttered by the other party of the conversation, only speech contents data representing the words of the inputted or predetermined difficulty by the user, in association time information and corresponds indicating a time more A storage unit for storing;
An input unit processing instructions for speech contents data stored in the storage unit receives from the user,
An extraction unit that extracts time information indicating a time after a time that is a first time later than a time when the instruction is received by the input unit and utterance content data that is associated with the storage unit;
An output unit that outputs information related to a result of speech recognition processing or translation processing for the utterance content data extracted by the extraction unit;
The input unit is a touch sensor;
The foreign language conversation understanding support device, wherein the first time changes according to a force or time when the input unit is pressed by the user.
前記生成された単語データのうち、前記難易度の単語を表す単語データのみを、前記発話内容データとして、時刻を示す時刻情報と対応付けて前記記憶部に記憶する記憶情報更新部と
をさらに備え、
前記出力部は、前記抽出部により抽出された発話内容データに関連する情報又は当該発話内容データに対する翻訳処理の結果に関連する情報を出力する
ことを特徴とする請求項1に記載の外国語会話理解支援装置。 A word recognition unit for generating word data by performing voice recognition processing on voice data indicating contents uttered by the conversation partner;
A storage information updating unit that stores only word data representing the difficulty level word in the generated word data in the storage unit in association with time information indicating time as the utterance content data; ,
The foreign language conversation according to claim 1, wherein the output unit outputs information related to the utterance content data extracted by the extraction unit or information related to a result of translation processing on the utterance content data. Understanding support device.
前記記憶部に記憶された発話内容データに対する処理の指示を前記利用者より受け付けるステップと、
前記指示が受け付けられた時刻よりも第1の時間遡った時刻以降の時刻を示す時刻情報と前記記憶部において対応づけられている発話内容データを抽出するステップと、
前記抽出された発話内容データに対する音声認識処理又は翻訳処理の結果に関連する情報を出力するステップと
を備え、
前記外国語会話理解支援装置はタッチセンサを備え、
前記第1の時間は、前記タッチセンサが前記利用者により押圧される力又は時間に応じて変化する
ことを特徴とする外国語会話理解支援方法。 Of speech contents data indicating the content uttered by the other party of the conversation, only speech contents data representing the words of the inputted or predetermined difficulty by the user, in association time information and corresponds indicating a time more A foreign language conversation understanding support method executed by a foreign language conversation understanding support device including a storage unit for storing,
A step of processing instructions for the speech contents data stored in the storage unit receives from the user,
Extracting utterance content data associated with time information indicating a time after a time that is a first time later than the time when the instruction is received and the storage unit;
Outputting information related to a result of speech recognition processing or translation processing on the extracted utterance content data, and
The foreign language conversation understanding support device includes a touch sensor,
The foreign language conversation understanding support method, wherein the first time changes according to a force or time when the touch sensor is pressed by the user.
前記記憶部に記憶された発話内容データに対する処理の指示を前記利用者より受け付けるステップと、
前記指示が受け付けられた時刻よりも第1の時間遡った時刻以降の時刻を示す時刻情報と前記記憶部において対応づけられている発話内容データを抽出するステップと、
前記抽出された発話内容データに対する音声認識処理又は翻訳処理の結果に関連する情報を出力するステップと
を実行させるためのプログラムであって、
前記コンピュータはタッチセンサを備え、
前記第1の時間は、前記タッチセンサが前記利用者により押圧される力又は時間に応じて変化する
ことを特徴とするプログラム。 Of speech contents data indicating the content uttered by the other party of the conversation, only speech contents data representing the words of the inputted or predetermined difficulty by the user, in association time information and corresponds indicating a time more In a computer having a storage unit for storing,
A step of processing instructions for the speech contents data stored in the storage unit receives from the user,
Extracting utterance content data associated with time information indicating a time after a time that is a first time later than the time when the instruction is received and the storage unit;
Outputting information related to a result of speech recognition processing or translation processing on the extracted utterance content data, and a program for executing
The computer includes a touch sensor,
The program according to claim 1, wherein the first time changes according to a force or time when the touch sensor is pressed by the user.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014088115A JP6401488B2 (en) | 2014-04-22 | 2014-04-22 | Foreign language conversation understanding support device, foreign language conversation understanding support method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014088115A JP6401488B2 (en) | 2014-04-22 | 2014-04-22 | Foreign language conversation understanding support device, foreign language conversation understanding support method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2015207191A JP2015207191A (en) | 2015-11-19 |
JP6401488B2 true JP6401488B2 (en) | 2018-10-10 |
Family
ID=54603936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014088115A Active JP6401488B2 (en) | 2014-04-22 | 2014-04-22 | Foreign language conversation understanding support device, foreign language conversation understanding support method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6401488B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP7376071B2 (en) * | 2018-09-03 | 2023-11-08 | 株式会社アイルビーザワン | Computer program, pronunciation learning support method, and pronunciation learning support device |
WO2022215140A1 (en) * | 2021-04-05 | 2022-10-13 | 株式会社KPMG Ignition Tokyo | Program, information processing device, and information processing method |
Family Cites Families (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005316022A (en) * | 2004-04-27 | 2005-11-10 | Aisin Aw Co Ltd | Navigation device and program |
JP2008092287A (en) * | 2006-10-02 | 2008-04-17 | Nec Corp | System, server, method and program for communicating conversation content |
-
2014
- 2014-04-22 JP JP2014088115A patent/JP6401488B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2015207191A (en) | 2015-11-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11227129B2 (en) | Language translation device and language translation method | |
US10614803B2 (en) | Wake-on-voice method, terminal and storage medium | |
KR102100389B1 (en) | Personalized entity pronunciation learning | |
CN107632980B (en) | Voice translation method and device for voice translation | |
US20170323637A1 (en) | Name recognition system | |
US20160078020A1 (en) | Speech translation apparatus and method | |
KR101819458B1 (en) | Voice recognition apparatus and system | |
CN111128183B (en) | Speech recognition method, apparatus and medium | |
CN107291704B (en) | Processing method and device for processing | |
CN110992942B (en) | Voice recognition method and device for voice recognition | |
CN113689879B (en) | Method, device, electronic equipment and medium for driving virtual person in real time | |
JPWO2018043138A1 (en) | INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, AND PROGRAM | |
JP2018045001A (en) | Voice recognition system, information processing apparatus, program, and voice recognition method | |
WO2021208531A1 (en) | Speech processing method and apparatus, and electronic device | |
JP2020507165A (en) | Information processing method and apparatus for data visualization | |
US11948564B2 (en) | Information processing device and information processing method | |
CN111640452B (en) | Data processing method and device for data processing | |
JPWO2018079294A1 (en) | Information processing apparatus and information processing method | |
JP6401488B2 (en) | Foreign language conversation understanding support device, foreign language conversation understanding support method and program | |
CN105913841B (en) | Voice recognition method, device and terminal | |
JP7058588B2 (en) | Conversation system and conversation program | |
CN111506767A (en) | Song word filling processing method and device, electronic equipment and storage medium | |
CN109979435B (en) | Data processing method and device for data processing | |
JP2011027979A (en) | Voice translation device and method of the same | |
CN113053364A (en) | Voice recognition method and device for voice recognition |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170215 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171226 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171222 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180222 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20180313 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180612 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20180620 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180828 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180907 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6401488 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |