JP6449181B2 - Speech translation system, speech translation method, and speech translation program - Google Patents
Speech translation system, speech translation method, and speech translation program Download PDFInfo
- Publication number
- JP6449181B2 JP6449181B2 JP2016017071A JP2016017071A JP6449181B2 JP 6449181 B2 JP6449181 B2 JP 6449181B2 JP 2016017071 A JP2016017071 A JP 2016017071A JP 2016017071 A JP2016017071 A JP 2016017071A JP 6449181 B2 JP6449181 B2 JP 6449181B2
- Authority
- JP
- Japan
- Prior art keywords
- translation
- text
- speech
- unit
- content
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
- 238000013519 translation Methods 0.000 title claims description 170
- 238000000034 method Methods 0.000 title claims description 50
- 238000012545 processing Methods 0.000 claims description 114
- 230000008569 process Effects 0.000 claims description 43
- 238000004364 calculation method Methods 0.000 claims description 9
- 238000004886 process control Methods 0.000 claims description 5
- 230000005540 biological transmission Effects 0.000 description 33
- 238000004891 communication Methods 0.000 description 31
- 230000006870 function Effects 0.000 description 30
- 230000010365 information processing Effects 0.000 description 18
- 230000015572 biosynthetic process Effects 0.000 description 15
- 238000010586 diagram Methods 0.000 description 15
- 238000003786 synthesis reaction Methods 0.000 description 15
- 230000004044 response Effects 0.000 description 7
- 230000005236 sound signal Effects 0.000 description 5
- 238000013461 design Methods 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 230000008901 benefit Effects 0.000 description 3
- 238000010079 rubber tapping Methods 0.000 description 3
- 238000006243 chemical reaction Methods 0.000 description 2
- 238000005516 engineering process Methods 0.000 description 2
- 238000003384 imaging method Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 101150012579 ADSL gene Proteins 0.000 description 1
- 102100020775 Adenylosuccinate lyase Human genes 0.000 description 1
- 108700040193 Adenylosuccinate lyases Proteins 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000010295 mobile communication Methods 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F40/00—Handling natural language data
- G06F40/40—Processing or translation of natural language
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L13/00—Speech synthesis; Text to speech systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Acoustics & Sound (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Theoretical Computer Science (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Machine Translation (AREA)
Description
本発明は、音声翻訳システム、音声翻訳方法、及び音声翻訳プログラムに関する。 The present invention relates to a speech translation system, a speech translation method, and a speech translation program.
互いの言語を理解できない人同士の会話、例えば店員(飲食店等の店舗の販売員)と顧客(海外からの観光客等)との会話を可能ならしめるべく、話者の発話音声をテキスト化し、そのテキストの内容を相手の言語に機械翻訳した上で画面に表示したり、或いは、音声合成技術を用いてそのテキストの内容を音声再生したりする音声翻訳技術が提案されている(例えば特許文献1参照)。また、かかる音声翻訳技術を具現化したスマートフォン等の情報端末で動作する音声翻訳アプリケーションも実用化されている(例えば非特許文献1参照)。 In order to enable conversation between people who cannot understand each other's language, for example, conversation between a store clerk (sales clerk at a restaurant, etc.) and a customer (tourist from abroad, etc.) A speech translation technique has been proposed in which the text content is machine-translated into the language of the other party and displayed on the screen, or the text content is played back using speech synthesis technology (for example, a patent). Reference 1). In addition, a speech translation application that operates on an information terminal such as a smartphone that embodies such speech translation technology has been put into practical use (see, for example, Non-Patent Document 1).
一方、電話による複数の利用者間の通話を可能にする通訳システムが知られている(例えば特許文献2参照)。 On the other hand, an interpreting system that enables a telephone call between a plurality of users is known (for example, see Patent Document 2).
上記従来の音声翻訳装置においては、飲食店において、店員が顧客の注文の内容を尋ねたり、料理の素材を説明したりする際に、音声が入力されると翻訳エンジンによる機械翻訳を実行する。よって、入力される音声の内容がその言語の基本的な文型になっていないような場合や、発話した語順等が異なる場合には、誤訳が生じてしまう可能性が高くなる傾向にある。上記機械翻訳の精度が悪く、両者のコミュニケーションが円滑に行えないような場合には、例えば店員は、当該店員が携帯する音声翻訳装置から通訳者に電話をし、通訳者に翻訳をしてもらうことで、両者のコミュニケーションを円滑に行うことが可能となる。 In the above-described conventional speech translation apparatus, when a store clerk asks about the contents of a customer's order or explains a cooking material in a restaurant, machine translation by a translation engine is executed. Therefore, when the content of the input voice is not a basic sentence pattern of the language or when the order of spoken words is different, there is a tendency that mistranslation is likely to occur. If the accuracy of the machine translation is poor and communication between the two is not smooth, for example, the store clerk will call the interpreter from the speech translation device carried by the store clerk and have the interpreter translate it. Thus, communication between the two can be performed smoothly.
しかしながら、従来の音声翻訳装置において音声翻訳処理を実行している際に、通訳者に電話をする場合、通訳者(通訳者が使用する通訳者端末)を識別するための識別情報、例えば電話番号を、当該音声翻訳装置が記憶する電話帳や通信履歴等から探さなければならない。そして、電話番号を特定した後、さらに発信操作を行わなければならず、ユーザ(利用者、発話者)の負担の増加や利便性の低下を招いてしまうおそれがある。 However, identification information for identifying an interpreter (interpreter terminal used by an interpreter), for example, a telephone number, when calling an interpreter while performing speech translation processing in a conventional speech translation apparatus Must be searched from the telephone directory, communication history, etc. stored in the speech translation apparatus. Then, after specifying the telephone number, it is necessary to further perform a call operation, which may increase the burden on the user (user, speaker) and decrease convenience.
そこで、本発明は、かかる事情に鑑みてなされたものであり、ユーザの負担を軽減し且つ利便性を向上させることができるとともに、誤訳の発生を防止し且つ円滑なコミュニケーションを実現することができる音声翻訳システム、音声翻訳方法、及び音声翻訳プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of such circumstances, and can reduce the burden on the user and improve convenience, and can prevent occurrence of mistranslation and realize smooth communication. An object is to provide a speech translation system, a speech translation method, and a speech translation program.
上記課題を解決するため、本発明の一側面に係る音声翻訳システムは、ユーザの音声を入力する情報端末と、情報端末に入力された音声の内容を翻訳するサーバ装置と、情報端末との間の通話処理をする通訳者端末と、を備える音声翻訳システムであって、サーバ装置は、情報端末に入力された音声の内容を認識する音声認識部と、音声認識部で認識された内容を異なる言語の内容に翻訳する翻訳部と、を備え、情報端末は、サーバ装置の翻訳部で翻訳された内容を音声で出力する音声出力部と、翻訳された内容のテキストを表示する処理を制御する第1表示処理制御部であって、テキストに加え、第1画像を選択的に表示する処理を制御する第1表示処理制御部と、通訳者端末との間の通話処理を制御する通話処理制御部であって、第1画像が選択されたとき、通話処理を開始するための通話処理開始リクエストを通訳者端末に送信する通話処理制御部と、を備える、音声翻訳システム。 In order to solve the above problems, a speech translation system according to an aspect of the present invention is provided between an information terminal that inputs a user's speech, a server device that translates the content of speech input to the information terminal, and the information terminal. A speech translation system comprising: an interpreter terminal that performs the telephone call processing, wherein the server device differs in the content recognized by the speech recognition unit and the content recognized by the speech recognition unit. A translation unit that translates the content into a language, and the information terminal controls a speech output unit that outputs the content translated by the translation unit of the server device by voice, and a process of displaying the text of the translated content Call processing control for controlling call processing between an interpreter terminal and a first display processing control unit that controls processing for selectively displaying a first image in addition to text The first drawing When but a selected comprises a call processing control unit for transmitting a call processing start request to initiate a call processing interpreter terminal, a speech translation system.
上記音声翻訳システムにおいて、サーバ装置は、翻訳精度に関するスコアを算出するスコア算出部を更に備え、第1表示処理制御部は、スコアが所定の閾値以下である場合に第1画像を表示する処理を制御してもよい。 In the speech translation system, the server device further includes a score calculation unit that calculates a score related to translation accuracy, and the first display processing control unit performs a process of displaying the first image when the score is equal to or less than a predetermined threshold. You may control.
上記音声翻訳システムにおいて、サーバ装置は、入力された音声の内容に対応付けられた翻訳された内容をユーザごとに関連付けて翻訳履歴として記憶する記憶部を更に備え、通訳者端末は、翻訳履歴をユーザごとに関連付けて表示する処理を制御する第2表示処理制御部を更に備えてもよい。 In the speech translation system, the server device further includes a storage unit that associates the translated content associated with the input speech content for each user and stores it as a translation history, and the interpreter terminal stores the translation history. You may further provide the 2nd display process control part which controls the process linked and displayed for every user.
上記音声翻訳システムにおいて、第1表示処理制御部は、二以上の言語をそれぞれ示す二以上の第2画像を更に表示する処理を制御し、通話処理制御部は、第2画像のうち一の画像が選択された後に、第1画像が選択された場合に、選択された第2画像のうち一の画像が示す言語を使用できる通訳者に対応付けられた通訳者端末との間の通話処理を制御してもよい。 In the speech translation system, the first display processing control unit controls processing for further displaying two or more second images respectively indicating two or more languages, and the call processing control unit selects one image of the second images. When the first image is selected after the selection is made, call processing with the interpreter terminal associated with the interpreter who can use the language indicated by one of the selected second images is performed. You may control.
上記課題を解決するため、本発明の一側面に係る音声翻訳方法は、ユーザの音声の内容であって、異なる言語の内容に翻訳された内容を音声で出力するステップと、翻訳された内容のテキストを表示する処理を制御するステップであって、テキストに加え、第1画像を選択的に表示する処理を制御するステップと、通訳者端末との間の通話処理を制御するステップであって、第1画像が選択されたとき、通話処理を開始するための通話処理開始リクエストを通訳者端末に送信するステップと、を含む。 In order to solve the above-described problem, a speech translation method according to an aspect of the present invention includes a step of outputting a content of a user's speech that is translated into content in a different language, and a step of outputting the translated content. A step of controlling processing for displaying text, the step of controlling processing for selectively displaying the first image in addition to the text, and the step of controlling call processing between the interpreter terminals, Transmitting a call process start request for starting the call process to the interpreter terminal when the first image is selected.
上記課題を解決するため、本発明の一側面に係る音声翻訳プログラムは、コンピュータを、ユーザの音声の内容であって、異なる言語の内容に翻訳された内容を音声で出力する音声出力部と、翻訳された内容のテキストを表示する処理を制御する第1表示処理制御部であって、テキストに加え、第1画像を選択的に表示する処理を制御する第1表示処理制御部と、通訳者端末との間の通話処理を制御する通話処理制御部であって、第1画像が選択されたとき、通話処理を開始するための通話処理開始リクエストを通訳者端末に送信する通話処理制御部と、して機能させる。 In order to solve the above problems, a speech translation program according to an aspect of the present invention provides a computer, a speech output unit that outputs the content of a user's speech and the content translated into content of a different language, A first display processing control unit for controlling processing for displaying translated text, a first display processing control unit for controlling processing for selectively displaying a first image in addition to text, and an interpreter A call processing control unit for controlling a call process with a terminal, wherein when the first image is selected, a call process control unit for transmitting a call process start request for starting the call process to the interpreter terminal; And make it work.
なお、本発明において、「部」、「装置」、「システム」とは、単に物理的手段を意味するものではなく、その「部」、「装置」、「システム」が有する機能をソフトウェアによって実現する場合も含む。また、1つの「部」、「装置」、「システム」が有する機能が2つ以上の物理的手段や装置により実現されても、2つ以上の「部」、「装置」、「システム」の機能が1つの物理的手段や装置により実現されても良い。 In the present invention, “part”, “apparatus”, and “system” do not simply mean physical means, but the functions of the “part”, “apparatus”, and “system” are realized by software. This includes cases where Further, even if the functions of one “part”, “apparatus”, and “system” are realized by two or more physical means and apparatuses, two or more “parts”, “apparatus”, “system” The function may be realized by one physical means or apparatus.
本発明によれば、ユーザの負担を軽減し且つ利便性を向上させることができるとともに、誤訳の発生を防止し且つ円滑なコミュニケーションを実現することができる。 ADVANTAGE OF THE INVENTION According to this invention, while being able to reduce a user's burden and to improve convenience, generation | occurrence | production of a mistranslation can be prevented and smooth communication can be implement | achieved.
以下、本発明の実施の形態について詳細に説明する。なお、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。さらに、当業者であれば、以下に述べる各要素を均等なものに置換した実施の形態を採用することが可能であり、かかる実施の形態も本発明の範囲に含まれる。またさらに、必要に応じて示す上下左右等の位置関係は、特に断らない限り、図示の表示に基づくものとする。さらにまた、図面における各種の寸法比率は、その図示の比率に限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail. The following embodiments are examples for explaining the present invention, and are not intended to limit the present invention only to the embodiments. The present invention can be variously modified without departing from the gist thereof. Furthermore, those skilled in the art can employ embodiments in which the elements described below are replaced with equivalent ones, and such embodiments are also included in the scope of the present invention. Furthermore, positional relationships such as up, down, left, and right shown as needed are based on the display shown unless otherwise specified. Furthermore, various dimensional ratios in the drawings are not limited to the illustrated ratios.
(システム構成)
図1は、本発明による音声翻訳システムに係るネットワーク構成の好適な一実施形態を概略的に示すシステムブロック図である。この例において、音声翻訳システム100は、例示的に、ユーザ(発話者、他の発話者)が使用する、ユーザの音声を入力する情報端末10と、情報端末10にネットワークNを介して電子的に接続される、情報端末10に入力された音声の内容を翻訳するサーバ装置20と、情報端末10及びサーバ装置20にネットワークNを介して電子的に接続されオペレータ端末30(通訳者端末)であって、通訳者が使用する、情報端末10との間の通話処理をするオペレータ端末30(通訳者端末)と、を備える。
(System configuration)
FIG. 1 is a system block diagram schematically showing a preferred embodiment of a network configuration relating to a speech translation system according to the present invention. In this example, the
図2は、本発明による音声翻訳システムにおけるユーザ者装置(情報端末)の構成の一例を概略的に示すシステムブロック図である。図2に示すように、情報端末10は、例示的に、プロセッサ11と、記憶資源12と、音声入出力デバイス13(例えばマイクとスピーカーが別体のものも一体のものも含む)と、通信インターフェイス14と、入力デバイス15と、表示デバイス16と、カメラ17とを備えている。また、情報端末10は、インストールされた音声翻訳アプリケーションソフト(本発明の一実施形態による音声翻訳プログラムの少なくとも一部)が動作することにより、本発明の一実施形態による音声翻訳システムの一部又は全部として機能するものである。なお、ここでの情報端末10は、例えば、ネットワークNとの通信機能を有するスマートフォンに代表される携帯電話を含む可搬型のタブレット型端末装置である。
FIG. 2 is a system block diagram schematically showing an example of the configuration of the user device (information terminal) in the speech translation system according to the present invention. As shown in FIG. 2, the
プロセッサ11は、算術論理演算ユニット及び各種レジスタ(プログラムカウンタ、データレジスタ、命令レジスタ、汎用レジスタ等)から構成される。また、プロセッサ11は、記憶資源12に格納されているプログラムP10である音声翻訳アプリケーションソフトを解釈及び実行し、各種処理を行う。このプログラムP10としての音声翻訳アプリケーションソフトは、例えばサーバ装置20からネットワークNを通じて配信可能なものであり、手動的に又は自動的にインストール及びアップデートされてもよい。
The
なお、ネットワークNは、例えば、有線ネットワーク(近距離通信網(LAN)、広域通信網(WAN)、又は付加価値通信網(VAN)等)と無線ネットワーク(移動通信網、衛星通信網、ブルートゥース(Bluetooth:登録商標)、WiFi(Wireless Fidelity)、HSDPA(High Speed Downlink Packet Access)等)が混在して構成される通信網である。 The network N includes, for example, a wired network (a short-range communication network (LAN), a wide-area communication network (WAN), a value-added communication network (VAN), etc.) and a wireless network (mobile communication network, satellite communication network, Bluetooth ( Bluetooth (registered trademark), WiFi (Wireless Fidelity), HSDPA (High Speed Downlink Packet Access), etc.).
記憶資源12は、物理デバイス(例えば、半導体メモリ等のコンピュータ読み取り可能な記憶媒体)の記憶領域が提供する論理デバイスであり、情報端末10の処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、各種情報等を格納する。ドライバプログラムとしては、例えば、音声入出力デバイス13を制御するための入出力デバイスドライバプログラム、入力デバイス15を制御するための入力デバイスドライバプログラム、表示デバイス16を制御するための出力デバイスドライバプログラム等が挙げられる。さらに、音声入出力デバイス13は、例えば、一般的なマイクロフォン、及びサウンドデータを再生可能なサウンドプレイヤである。
The
通信インターフェイス14は、例えばサーバ装置20やオペレータ端末30との接続インターフェイスを提供するものであり、無線通信インターフェイス及び/又は有線通信インターフェイスから構成される。また、入力デバイス15は、例えば、表示デバイス16に表示されるアイコン、ボタン、仮想キーボード等のタップ動作による入力操作を受け付けるインターフェイスを提供するものであり、タッチパネルの他、情報端末10に外付けされる各種入力装置を例示することができる。
The
表示デバイス16は、画像表示インターフェイスとして各種の情報をユーザや、必要に応じて会話の相手方に提供するものであり、例えば、有機ELディスプレイ、液晶ディスプレイ、CRTディスプレイ等が挙げられ、好ましくは各種方式のタッチパネルが採用されたものを含む。また、カメラ17は、種々の被写体の静止画や動画を撮像するためのものである。
The
図3は、本発明による音声翻訳システムにおけるユーザ者装置(情報端末)の機能構成の一例を概略的に示す機能ブロック図である。図3に示すように、情報端末10は、機能的に、音声入出力部101と、送受信部103と、入力操作受付部105と、表示部107と、情報処理部109と、記憶部117と、を備える。また、情報処理部109は、機能的に、スコア比較部111と、第1表示処理制御部113と、通話処理制御部115と、オペレータ端末特定部116と、を備える。
FIG. 3 is a functional block diagram schematically showing an example of the functional configuration of the user device (information terminal) in the speech translation system according to the present invention. As shown in FIG. 3, the
音声入出力部101は、例えば、ユーザの音声を入力する。また、音声入出力部101は、例えば、後述するとおり、図1に示すサーバ装置20で翻訳された内容を音声で出力する。ここで、図2に示す音声入出力デバイス13は、音声入出力部101として機能する。
The voice input /
送受信部103は、例えば図1に示すサーバ装置20やオペレータ端末30と各種情報を送受信する。送受信部103は、例えば、入力された音声の内容をサーバ装置20に送信する。送受信部103は、例えば、サーバ装置20で翻訳された内容のテキスト情報や音声情報等を受信する。また、送受信部103は、例えば、サーバ装置20から翻訳精度に関するスコアを受信する。図2に示す通信インターフェイス14は、送受信部103として機能する。
The transmission /
入力操作受付部105は、例えば、ユーザの入力操作を受け付けるブロックである。ここで、図2に示す入力デバイス15は、入力操作受付部105として機能する。
The input
表示部107は、各種情報を表示する。表示部107は、例えば、翻訳された内容のテキストを表示する。また、表示部107は、例えば、図9(A)に示す言語ボタン61(第2画像)や図10(C)に示す通話開始ボタン73(第1画像)を表示する。ここで、図2に示す表示デバイス16は、表示部107として機能する。
The
情報処理部109は、図2に示すプロセッサ11の機能を示し、スコア比較部111は、例えば、サーバ装置20が行う翻訳処理の翻訳精度に関するスコアと、所定の閾値(スコア)と、を比較する。第1表示処理制御部113は、表示部107において各種情報を表示する処理を制御するブロックである。第1表示処理制御部113は、例えば、サーバ装置20において翻訳された内容のテキストを表示する処理を制御し、サーバ装置20において翻訳された内容のテキストに加え、図10(C)に示す通話開始ボタン73(第1画像)を選択的に表示する処理を制御する。通話処理制御部115は、例えば、情報端末10とオペレータ端末30との間の通話処理を制御するブロックであり、表示部107に表示される通話開始ボタン73が選択されたとき、通話処理を開始するための通話処理開始リクエストをオペレータ端末30に送信する。オペレータ端末特定部116は、例えば、図9(A)に示す言語ボタン61において選択された英語ボタンが示す言語を使用できる通訳者の使用するオペレータ端末30を特定する。
The
記憶部117は、情報端末10の処理に用いられる各種プログラム及び情報等を記憶するブロックである。記憶部117は、例えば、送受信部103が受信した、サーバ装置20で翻訳された内容のテキスト情報や音声情報等を記憶する。また、記憶部117は、送受信部103が受信した、サーバ装置20の翻訳精度に関するスコアを記憶する。ここで、図2に示す記憶資源12は、記憶部117として機能する。なお、図2に示すカメラ17は、図3において不図示であるが例えば撮像部として機能する。
The
図4は、本発明による音声翻訳システムにおけるサーバ装置の構成の一例を概略的に示すシステムブロック図である。図4に示すように、サーバ装置20は、例示的に、プロセッサ21と、通信インターフェイス22と、記憶資源23と、を備える。サーバ装置20は、例えば、演算処理能力の高いホストコンピュータによって構成され、そのホストコンピュータにおいて所定のサーバ用プログラムが動作することにより、サーバ機能を発現するものであり、例えば、音声認識サーバ、翻訳サーバ、及び音声合成サーバとして機能する単数又は複数のホストコンピュータから構成される(図示においては単数で示すが、これに限定されない)。
FIG. 4 is a system block diagram schematically showing an example of the configuration of the server device in the speech translation system according to the present invention. As illustrated in FIG. 4, the
プロセッサ21は、算術演算、論理演算、ビット演算等を処理する算術論理演算ユニット及び各種レジスタ(プログラムカウンタ、データレジスタ、命令レジスタ、汎用レジスタ等)から構成され、記憶資源23に格納されているプログラムP20を解釈及び実行し、所定の演算処理結果を出力する。また、通信インターフェイス22は、ネットワークNを介して情報端末10に接続するためのハードウェアモジュールであり、例えば、ISDNモデム、ADSLモデム、ケーブルモデム、光モデム、ソフトモデム等の変調復調装置である。
The
記憶資源23は、例えば、物理デバイス(ディスクドライブ又は半導体メモリ等のコンピュータ読み取り可能な記憶媒体等)の記憶領域が提供する論理デバイスであり、それぞれ単数又は複数の、プログラムP20、各種モジュールL20、各種データベースD20、及び各種モデルM20が格納されている。
The
プログラムP20は、サーバ装置20のメインプログラムである上述したサーバ用プログラム等である。また、各種モジュールL20は、情報端末10から送信されてくる要求及び情報に係る一連の情報処理を行うため、プログラムP20の動作中に適宜呼び出されて実行されるソフトウェアモジュール(モジュール化されたサブプログラム)である。かかるモジュールL20としては、音声認識モジュール、翻訳モジュール、音声合成モジュール等が挙げられる。
The program P20 is the above-described server program that is the main program of the
また、各種データベースD20としては、音声翻訳処理のために必要な各種コーパス(例えば、日本語と英語の音声翻訳の場合、日本語音声コーパス、英語音声コーパス、日本語文字(語彙)コーパス、英語文字(語彙)コーパス、日本語辞書、英語辞書、日英対訳辞書、日英対訳コーパス等)、後述する音声データベース、ユーザに関する情報を管理するための管理用データベース等が挙げられる。また、各種モデルM20としては、後述する音声認識に使用する音響モデルや言語モデル等が挙げられる。 The various databases D20 include various corpora required for speech translation processing (for example, in the case of Japanese and English speech translation, a Japanese speech corpus, an English speech corpus, a Japanese character (vocabulary) corpus, an English character) (Vocabulary) corpus, Japanese dictionary, English dictionary, Japanese-English bilingual dictionary, Japanese-English bilingual corpus, etc.), a speech database described later, a management database for managing information related to users, and the like. In addition, examples of the various models M20 include an acoustic model and a language model used for speech recognition described later.
図5は、本発明による音声翻訳システムにおけるサーバ装置の機能構成の一例を概略的に示す機能ブロック図である。図5に示すように、サーバ装置20は、機能的に、送受信部201と、情報処理部203と、記憶部213と、を備える。また、情報処理部203は、例えば、音声認識部205と、多言語翻訳部207と、スコア算出部209と、音声合成部211と、を備える。
FIG. 5 is a functional block diagram schematically showing an example of the functional configuration of the server device in the speech translation system according to the present invention. As illustrated in FIG. 5, the
送受信部201は、例えば、図1に示す情報端末10やオペレータ端末30と各種情報を送受信する。送受信部201は、例えば、情報端末10に入力された音声の内容を情報端末10から受信する。送受信部201は、例えば、後述する多言語翻訳部207により翻訳された内容のテキスト情報や音声情報等を情報端末10に送信する。また、送受信部201は、例えば、後述するスコア算出部209により算出される翻訳精度に関するスコアを情報端末10に送信する。ここで、図4に示す通信インターフェイス22は、送受信部201として機能する。
The transmission /
情報処理部203は、図4に示すプロセッサ21の機能を示し、音声認識部205は、例えば、情報端末10に入力された音声の内容を認識する。多言語翻訳部207は、例えば、音声認識部205で認識された内容を異なる言語の内容に翻訳する。スコア算出部209は、例えば、多言語翻訳部207の翻訳精度に関するスコアを算出する。音声合成部211は、例えば、多言語翻訳部207による翻訳結果に基づいて音声合成を行う。
The
記憶部213は、例えば、サーバ装置20の処理に用いられる各種プログラム及び情報等を記憶するブロックである。記憶部213は、例えば、送受信部201が受信した、情報端末10に入力された音声の内容を記憶する。また、記憶部213は、例えば、翻訳された内容を記憶する。記憶部213は、例えば、入力された音声の内容に対応付けられた翻訳された内容をユーザごとに関連付けて翻訳履歴として記憶する。ここで、図4に示す記憶資源23は、記憶部213として機能する。
The
図6は、本発明による音声翻訳システムにおけるオペレータ端末(通訳者装置)の構成の一例を概略的に示すシステムブロック図である。図6に示すように、オペレータ端末30は、プロセッサ31、記憶資源32、音声入出力デバイス33(例えばマイクとスピーカーが別体のものも一体のものも含む)、通信インターフェイス34、入力デバイス35、表示デバイス36、及びカメラ37を備えている。上記したとおりオペレータ端末30は、図2に示す情報端末10と同様なブロック構成を備えている。以下においては、特に、情報端末10が備える構成と異なる構成について説明する。また、オペレータ端末30は、例えば、本発明の一実施形態による音声翻訳プログラムの少なくとも一部として実行されるインストールされたCTI(Computer Telephony Integration)アプリケーションソフトが動作することにより、本発明の一実施形態による音声翻訳システムの一部又は全部として機能するものである。
FIG. 6 is a system block diagram schematically showing an example of the configuration of an operator terminal (interpreter device) in the speech translation system according to the present invention. As shown in FIG. 6, the
オペレータ端末30は、図1に示す情報端末10からの電話を受け付ける。通訳者は、オペレータ端末30を介して、通訳を実行する。オペレータ端末30は、電話の相手方、例えば、情報端末10及び当該情報端末10の操作者の少なくとも一方に関する情報や後で詳述する翻訳履歴等を表示デバイス36に表示する。なお、オペレータ端末30は、例示的に、ネットワークNとの通信機能を有する、デスクトップ型パソコンを含む据え置き型の端末装置である。
The
プロセッサ31は、記憶資源32に格納されているプログラムP30であるCTIアプリケーションソフトを解釈及び実行し、各種処理を行う。入力デバイス35は、例えば、表示デバイス36に表示されるアイコン、ボタン、仮想キーボード等のタップ動作による入力操作を受け付けるインターフェイスを提供するものであり、オペレータ端末30に外付けされる各種入力装置、例えばキーボードやマウスを例示することができる。なお、入力デバイス35は、表示デバイス36の機能を含んだ各種方式のタッチパネル等のデバイスであってもよい。
The
図7は、本発明による音声翻訳システムにおけるオペレータ端末(通訳者装置)の機能構成の一例を概略的に示す機能ブロック図である。図7に示すように、オペレータ端末30は、機能的に、音声入出力部301と、送受信部303と、入力操作受付部305と、表示部307と、情報処理部309と、記憶部315と、を備える。また、情報処理部309は、機能的に、通話処理部311と、第2表示処理制御部313と、を備える。
FIG. 7 is a functional block diagram schematically showing an example of a functional configuration of an operator terminal (interpreter device) in the speech translation system according to the present invention. As shown in FIG. 7, the
音声入出力部301は、例えば、通訳者を含むオペレータの音声を入力する。また、音声入出力部301は、例えば、後述するとおり、送受信部303が受信する翻訳履歴を示す内容を音声で出力するように構成されてもよい。ここで、図6に示す音声入出力デバイス33は、音声入出力部301として機能する。
The voice input /
送受信部303は、例えば図1に示す情報端末10やサーバ装置20と各種情報を送受信する。送受信部303は、例えば、サーバ装置20から情報端末10を介して送信される翻訳履歴を受信する。また、送受信部303は、例えば、情報端末10から送信される通話処理開始リクエストを受信する。送受信部303は、例えば、通話処理開始リクエストに対する応答信号を送信する。図6に示す通信インターフェイス34は、送受信部303として機能する。
The transmission /
入力操作受付部305は、例えば、オペレータの入力操作を受け付けるブロックである。ここで、図6に示す入力デバイス35は、入力操作受付部305として機能する。
The input
表示部307は、各種情報を表示する。表示部307は、例えば、翻訳履歴をユーザごとに関連付けて表示する。ここで、図6に示す表示デバイス36は、表示部307として機能する。
The
情報処理部309は、図6に示すプロセッサ31の機能を示し、通話処理部311は、例えば、情報端末10から送信される通話処理開始リクエストに基づいて、オペレータ端末30と情報端末10との間で通話可能か否かを判断し、通話処理開始リクエストに対する応答信号を生成する。応答信号は、オペレータ端末30と情報端末10との間で通話可能であることを示す信号や、オペレータ端末30と情報端末10との間で通話可能であることを示す信号を含む。第2表示処理制御部313は、例えば、表示部307において各種情報を表示する処理を制御するブロックである。第2表示処理制御部313は、例えば、表示部307において、翻訳履歴をユーザごとに関連付けて表示する処理を制御する。
The
記憶部315は、オペレータ端末30の処理に用いられる各種プログラム及び情報等を記憶するブロックである。記憶部315は、例えば、送受信部303が受信した、サーバ装置20から情報端末10を介して送信される翻訳履歴を記憶する。ここで、図6に示す記憶資源32は、記憶部315として機能する。なお、図6に示すカメラ37は、図7において不図示であるが例えば撮像部として機能する。
The
以上のとおり構成された音声翻訳システム100における、音声翻訳処理及び通話処理の操作及び動作の一例について、以下に更に説明する。
An example of operations and operations of speech translation processing and call processing in the
(音声翻訳処理及び通話処理)
(第1実施形態)
図8は、本発明による音声翻訳システムにおける処理の流れ(一部)の一例を示すフローチャートである。図9(A)乃至(C)、図10(A)乃至(C)、及び図11(A)乃至(D)は、本発明による情報端末における表示画面の遷移の一例を示す平面図である。図12は、本発明による通訳者端末における表示画面の一例を示す図である。ここでは、情報端末10のユーザが日本語を話す飲食店の店員であり、会話の相手が英語を話す顧客である場合の会話、すなわち、入力言語が日本語であり、翻訳言語が英語である会話を想定する。但し、これに限定されない。
(Voice translation processing and call processing)
(First embodiment)
FIG. 8 is a flowchart showing an example (part) of the processing flow in the speech translation system according to the present invention. FIGS. 9A to 10C, FIGS. 10A to 10C, and FIGS. 11A to 11D are plan views showing examples of display screen transition in the information terminal according to the present invention. . FIG. 12 is a diagram showing an example of a display screen in the interpreter terminal according to the present invention. Here, the conversation when the user of the
まず、ユーザ(店員)が、情報端末10の表示部107に表示されている音声翻訳アプリケーションソフトのアイコン(図示せず)をタップする場合、情報端末10において当該アプリケーションを起動する(図8;ステップSJ1)。
First, when the user (clerk) taps an icon (not shown) of the speech translation application software displayed on the
当該アプリケーションが起動すると、表示部107に、顧客の言語選択画面が表示される(図8;ステップSJ2)。図9(A)に示すように、この言語選択画面には、例えば顧客に言語を尋ねる旨の日本語のテキストT21、その旨の英語のテキストT22、及び、想定される複数の代表的な言語(ここでも、英語、中国語(例えば書体により2種類)、ハングル語)を示す言語ボタン61(第2画像)が表示される。 When the application is activated, a customer language selection screen is displayed on the display unit 107 (FIG. 8; step SJ2). As shown in FIG. 9A, this language selection screen includes, for example, a Japanese text T21 for inquiring about the language to the customer, an English text T22 for that purpose, and a plurality of typical languages assumed. Here, a language button 61 (second image) indicating English, Chinese (for example, two types depending on the typeface), and Hangul) is displayed.
このとき、日本語のテキストT21及び英語のテキストT22は、第1表示処理制御部113及び表示部107により、情報端末10の表示部107の画面において、例えば異なる色の領域によって区分けされ、且つ、互いに逆向き(互いに異なる向き;図示において上下逆向き)に表示される。これにより、ユーザと顧客が対面している状態で会話を行う場合、ユーザは日本語のテキストT21を確認し易い一方、顧客は、英語のテキストT22を確認し易くなる。また、テキストT21とテキストT22が区分けして表示されるので、両者を明別して更に視認し易くなる利点がある。
At this time, the Japanese text T21 and the English text T22 are classified by the first display
それから、ユーザは、図9(A)の言語選択画面に表示されたテキストT21を顧客に提示し、顧客に英語(English)のボタンをタップしてもらうことで、顧客の言語が選択される。これにより、表示デバイスには、ホーム画面として、日本語と英語の音声入力の待機画面が表示される(図8;ステップSJ3)。このホーム画面には、ユーザと顧客の言語の何れを発話するかを問うテキストT23、並びに、日本語の音声入力を行うための日本語入力ボタン62a及び英語の音声入力を行うための英語入力ボタン62bが表示される。また、このホーム画面には、入力内容の履歴を表示するための履歴表示ボタン63、言語選択画面に戻って顧客の言語を切り替える(言語選択をやり直す)ための言語選択ボタン64、及び当該アプリケーションソフトの各種設定を行うための設定ボタン65も表示される。
Then, the user presents the text T21 displayed on the language selection screen of FIG. 9A to the customer, and has the customer tap the English button so that the customer's language is selected. As a result, a standby screen for voice input in Japanese and English is displayed on the display device as the home screen (FIG. 8; step SJ3). On this home screen, text T23 asking which of the user's or customer's language is to be spoken, a
次に、図9(B)のホーム画面において、ユーザ(店員)が日本語入力ボタン62aをタップして日本語の音声入力を選択すると、ユーザの日本語による発話内容を受け付ける音声入力画面となる(図9(C))。この音声入力画面が表示されると、音声入出力部101からの音声入力が可能な状態となる。また、この音声入力画面には、ユーザの音声入力を促すテキストT24、及び、音声入力の待機状態であることを示すマイク図案66が表示される。なお、その前の画面である図9(B)において日本語音声入力が選択されたことを示すため、図9(C)の音声入力画面には、日本語入力ボタン62aが表示されない。また、英語入力ボタン62bは、マイク図案66の背面に、その一部が隠れるように、且つ例えば淡い色彩で表示される(後記の図10(A)及び図10(B)において同様)。
Next, on the home screen in FIG. 9B, when the user (clerk) taps the
また、この音声入力画面の下部には、キャンセルボタン67が表示され、これをタップすることにより、ホーム画面である音声入力の待機画面(図9(B))へ戻って音声入力をやり直すことができる(後記の図10(A)及び図10(B)において同様)。この状態で、ユーザにより顧客への伝達事項等が日本語で音声入力されると、図10(A)に示すように、表示部107の画面において、テキストT24とともに、声量の大小を模式的に且つ動的に示す多重円形図案68が表示され、音声入力レベルが発話者であるユーザへ視覚的にフィードバックされる(図8;ステップSJ4)。
In addition, a cancel
それから、ユーザによる発話が終了し、例えば音声入力が一定期間ないことを情報端末10の情報処理部109が検知すると、情報処理部109は、ユーザによる発話内容の受け付けを終了する。次いで、情報処理部109は、その音声入力に基づいて音声信号を生成し、その音声信号を送受信部103及びネットワークNを通してサーバ装置20へ送信する。
Then, when the user's utterance ends, for example, when the
次に、サーバ装置20の情報処理部203の音声認識部205は、送受信部201を通してその音声信号を受信し、音声認識処理を行う(図8;ステップSS1)。このとき、音声認識部205は、記憶部213から、必要なモジュールL20、データベースD20、及びモデルM20(音声認識モジュール、日本語音声コーパス、音響モデル、言語モデル等)を呼び出し、入力音声の「音」を「読み」(文字)へ変換する。
Next, the
ここで、情報処理部203は、認識された音声の「読み」(文字)に基づいてテキスト出力用のテキスト信号を生成し、送受信部201及びネットワークNを通して、情報端末10へ送信する。このとき、情報処理部203は、認識された音声そのものの内容に基づくテキスト信号と、予め記憶部213に記憶されている日本語の会話コーパスのなかから、実際の発話内容に対応するものを呼び出し、それに基づくテキスト信号を生成する。そして、図10(B)に示すように、送受信部201を通してそのテキスト信号を受信した情報端末10の第1表示処理制御部113は、画面において、ユーザによって入力された日本語の発話内容の認識結果として、認識された音声の内容である日本語のテキストT25を表示する。
Here, the
次いで、多言語翻訳部207は、認識された音声の「読み」(文字)を他の言語に翻訳する多言語翻訳処理へ移行する(図8;ステップSS2)。このとき、多言語翻訳部207は、記憶部213から、必要なモジュールL20及びデータベースD20(翻訳モジュール、日本語文字コーパス、日本語辞書、英語辞書、日英対訳辞書、日英対訳コーパス等)を呼び出し、認識結果である入力音声の「読み」(文字列)を適切に並び替えて日本語の句、節、文等へ変換し、その変換結果に対応する英語を抽出し、それらを英文法に従って並び替えて自然な英語の句、節、文等へと変換し、記憶部213からそれに対応する英語の会話コーパスを選定する。その際、図10(B)に示すように、表示部107には、翻訳中であることを示す日本語のテキストT26、及び、翻訳中であることを示す円形図案69を含む待機画面が表示される。
Next, the
記憶部213は、入力音声の内容に対応付けられた翻訳結果(翻訳内容)をユーザごとに関連付けて翻訳履歴として記憶する(図8;ステップSS3)。例えば、記憶部213は、翻訳後の英語の句、節、文等に対応する英語の会話コーパス等を入力音声の内容に対応付けて翻訳履歴として記憶する。
The
次に、音声合成部211は、記憶部213から、音声合成に必要なモジュールL20、データベースD20、及びモデルM20(音声合成モジュール、英語音声コーパス、音響モデル、言語モデル等)を呼び出し、翻訳結果である英語の句、節、文等に対応する英語の会話コーパスを自然な音声に変換する(図8;ステップSS4)。
Next, the
これらの多言語翻訳処理及び音声合成処理が完了すると、情報処理部203は、翻訳結果(翻訳内容)である英語の会話コーパスに基づいてテキスト表示用のテキスト信号を生成し、また、合成された音声に基づいて音声出力用の音声信号を生成し、送受信部201及びネットワークNを通して、情報端末10へ送信する。
When these multilingual translation processing and speech synthesis processing are completed, the
そして、図10(C)に示すように、送受信部103を通して、それらのテキスト信号及び音声信号を受信した情報端末10の第1表示処理制御部113は、テキストT25、テキストT25に対応する日本語の会話コーパスのテキストT27(ここではテキストT25と同じであるが、これに限定されない)、及びその翻訳結果である英語の会話コーパスのテキストT28を会話画面として表示し、さらに、当該画面において通話開始ボタン73(第1画像)を選択的に表示する処理を制御する(図8;ステップSJ5)。ここで、情報端末10の記憶部117は、例えば、サーバ装置20から受信した上記テキスト信号や音声信号を翻訳履歴として記憶してもよい。
Then, as shown in FIG. 10C, the first display
また、ステップSJ5と同時に、音声入出力部101は、翻訳結果である英語のテキストT28の内容(翻訳内容)を音声で出力する(読み上げる)(図8;ステップSJ6)。なお、当該ステップSJ6は、ステップSJ5の前、又は、後に実行されてもよい。
Simultaneously with step SJ5, the voice input /
このとき、図10(C)の如く、日本語のテキストT25,T27と英語のテキストT28も、情報端末10の表示部107の画面において、例えば異なる色の領域や線分によって区分けされ、且つ、互いに逆向き(互いに異なる向き;図示において上下逆向き)に表示される。これにより、ユーザと顧客が対面している状態で会話を行う場合、両者が表示部107の画面を視認できる状態であれば、ユーザが日本語のテキストT25,T27(入力された内容)を確認し易い一方、顧客は、英語のテキストT28(翻訳された内容)を確認し易くなる。また、それらのテキストT25,T27とテキストT28が区分けして表示されるので、両者を明別して更に視認し易くなる利点がある。
At this time, as shown in FIG. 10C, the Japanese texts T25 and T27 and the English text T28 are also divided on the screen of the
なお、図10(C)の会話画面に表示される音声出力ボタン70をタップすることにより、音声出力が繰り返される。また、この会話画面には、その時点での翻訳を終了する旨のチェックボタン71が表示され、これをタップすることにより、翻訳処理を終了してホーム画面(図9(B))に戻ることができる。
Note that the voice output is repeated by tapping the
次に、翻訳が精度よく行われることによって、顧客がユーザ(店員)の質問事項を理解することができた場合、今度は、顧客の音声の入力、認識、翻訳、及び音声合成といった音声処理が行われる(図8;ステップSJ7においてNo)。この顧客の音声処理では、まず、図10(C)に表示されているチェックボタン71をタップしてホーム画面(図9(B))を表示する。次に、そのホーム画面において、英語入力ボタン62bをタップして顧客による英語の音声入力を選択する。この後の処理は、発話者がユーザから顧客に代わり、日本語の音声入力が英語の音声入力に切り替わり、且つ、英語の音声及びテキスト出力が日本語による音声及びテキスト出力に代わること以外は、上述した処理と基本的に同等であるので、ここでの詳細な説明は省略する。そして、ユーザと顧客の会話が完了した場合、一連の音声翻訳処理を終了する。
Next, if the customer can understand the user's (clerk's) questions due to the accuracy of the translation, then the voice processing such as the customer's voice input, recognition, translation, and voice synthesis will be performed. Is performed (FIG. 8; No in step SJ7). In this customer voice processing, first, the
他方、店員による日本語入力、又は、顧客による英語入力の内容がその言語の基本的な文型になっていないような場合や、発話した語順等が異なる場合には、誤訳が生じてしまう可能性が高まりやすい。そして、実際に誤訳が存在する等翻訳精度が高くないような場合は、店員及び顧客のコミュニケーションが円滑に行われないおそれがある。そこで、このような場合においては、店員及び顧客の少なくとも一方は、図8のステップSJ5において情報端末10の表示部107にて表示される通話開始ボタン73(第1画像)を選択する場合、通話処理制御部115は、通訳者と通話するためにオペレータ端末30に通話処理開始リクエストを送信する(図8;ステップSJ7においてYes)。
On the other hand, if the contents of the Japanese input by the store clerk or the English input by the customer are not in the basic sentence pattern of the language, or if the order of spoken words is different, mistranslation may occur. Is likely to increase. If the translation accuracy is not high, such as when there is a mistranslation actually, there is a possibility that communication between the store clerk and the customer may not be performed smoothly. Therefore, in such a case, when at least one of the store clerk and the customer selects the call start button 73 (first image) displayed on the
具体的に、店員及び顧客の少なくとも一方が、図8のステップSJ5において情報端末10の表示部107において表示される通話開始ボタン73を選択する場合、図11(B)に示すように、表示部107の画面がグレーアウトされ、当該画面上に、通訳者と通話するか否かを確認するための画像75が表示される。そして、店員及び顧客の少なくとも一方が、当該画像75に表示される「はい」を選択する場合、図11(C)に示すように、第1表示処理制御部113は表示部107の画面にテキストT29を表示する処理を制御する。例えば、店員及び顧客の少なくとも一方が、当該画像75に表示される「はい」を選択する場合、通話処理制御部115は、通訳者と通話するために通話処理開始リクエストを送信するように構成されてもよい。
Specifically, when at least one of the store clerk and the customer selects the
通話処理制御部115は、例えば、通話開始ボタン73が選択された時に通話処理開始リクエストを生成してもよいし、通話開始ボタン73が選択される前にあらかじめ通話処理開始リクエストを生成してもよい。通話処理開始リクエストは、例えば、情報端末10の識別情報を含んで構成される。また、サーバ装置20からの翻訳履歴を含んで生成される。情報端末10の識別情報は、例えば、情報端末10の使用者の属性、つまり、使用者の名称、住所、生年月日、年齢、所属、家族構成等や情報端末10の電話番号や識別番号(ID)等を含む。また、情報端末10を利用する店員又は顧客とオペレータ端末30を使用する通訳者との通話は、一般的な電話回線網やIP電話回線網等を含むネットワークNを介して実行される。なお、通話手段に特に制限はなく、両者の通話が可能であればよい。
For example, the call
ここで、店員は、通話が可能な通訳者が複数人いる場合、より適切な通訳者と通話することを望む。例えば、情報端末10の記憶部117には、各通訳者又は各通訳者が使用する端末の識別情報と、各通訳者が使用できる一以上の言語を示す言語情報とが関連付けて記憶されている。図8に示すステップSJ3において、ユーザは、図9(A)に示す言語選択画面に表示されたテキストT21を顧客に提示し、顧客に英語(English)のボタンをタップしてもらうことで、顧客の言語が選択される。そうするとオペレータ端末特定部116は、記憶部117が記憶する各通訳者が使用する端末の識別情報と、各通訳者が使用できる一以上の言語を示す言語情報とを参照することにより、選択された英語ボタンが示す言語つまり英語を使用できる通訳者が使用するオペレータ端末30を特定する。そして、通話処理制御部115は、当該通訳者が使用するオペレータ端末に対して通話処理開始リクエストを送信することによって、両者の通話が開始される。このように、店員と顧客とのコミュニケーションにおいて用いられる言語に対応できる通訳者を適切に特定できる。
Here, when there are a plurality of interpreters capable of making a call, the store clerk desires to make a call with a more appropriate interpreter. For example, in the
また、店員は、英語を使用できる通訳者が複数人いる場合に、通訳がより上手な通訳者と通話することを望むと考えられる。例えば、情報端末10の記憶部117は、各通訳者が使用する端末の識別情報、及び、各通訳者が使用できる一以上の言語を示す言語情報の他に、各通訳者の通訳レベルや通訳能力を示す情報を各通訳者の識別情報又は各通訳者が使用する端末の識別情報に関連付けて記憶してもよい。そして、図8に示すステップSJ3において、英語のボタンが選択されると、オペレータ端末特定部116は、英語を使用できる複数の通訳者の中から通訳レベル・能力がより高い通訳者が使用するオペレータ端末を特定するように構成されてもよい。
Also, if there are multiple interpreters who can use English, the store clerk may want to talk to an interpreter who is better at interpreting. For example, the
なお、オペレータ端末特定部116において、通訳者の特定は、図8のステップSJ5において情報端末10の表示部117にて表示される通話開始ボタン73(第1画像)が選択されるときに、実行されてもよい。また、オペレータ端末特定部116において、あらかじめ、店員と顧客とのコミュニケーションにおいて用いられる言語ごとに、通話する通訳者が使用するオペレータ端末を特定するように構成されてもよい。
The operator
他方、店員及び顧客の少なくとも一方が、当該画像75に表示される「いいえ」を選択する場合、図11(A)に示す画面に戻る。
On the other hand, when at least one of the store clerk and the customer selects “No” displayed in the
次に、オペレータ端末30の送受信部303は、情報端末10からの通話処理開始リクエストを受信する(図8;ステップSO1)。送受信部303は、情報端末10に対して応答信号を送信する(図8;ステップSO2)。例えば、通話処理部311は、情報端末10とオペレータ端末30との通話を許可する場合、通話を許可する旨の応答信号を生成する。例えば、通話処理部311は、受信した通話処理開始リクエストに含まれる情報端末10の識別情報を、記憶部315又はオペレータ端末30と通信可能な他の記憶資源に予め記憶されている、通話可能な情報端末の識別情報と比較することで、情報端末10との通話を許可するか否か判断する。他方で、通話処理部311は、情報端末10とオペレータ端末30との通話を許可しない場合、通話を許可しない旨の応答信号を生成する。
Next, the transmission /
第2表示処理制御部313は、表示部307において、サーバ装置20から情報端末10を介して送信された翻訳履歴をユーザごとに関連付けて表示する(図8;ステップSO3)。例えば、図12に示すように、第2表示処理制御部313は、表示部307の画面において、「通話中」であることを示す画像81を表示する処理を制御し、通話中であるユーザの名称を示す欄、当該ユーザが使用する情報端末の電話番号を示す欄、当該情報端末の識別番号を示す欄、及び、その他ユーザの住所等を示す属性情報を示す欄を含む画像83を表示する処理を制御し、店員(ユーザ1)及び顧客(ユーザX)の入力音声の翻訳履歴をユーザごとに関連付けて翻訳履歴画像85として表示する処理を制御する。
The second display
このように、オペレータ端末30は、表示部307において、音声翻訳履歴をユーザごとに関連付けて表示するので、通訳者は、音声翻訳履歴を確認できるので、店員と顧客との間の今までのコミュニケーションの流れを踏まえた応対が可能となる。
Thus, since the
また、図12に示すように、オペレータ端末30は、表示部307において、音声翻訳履歴を時系列に表示するので、通訳者は、店員と顧客との間の今までのコミュニケーションの流れをより容易に把握でき、当該流れを踏まえた適切な応対が可能となる。
As shown in FIG. 12, the
他方、情報端末10がオペレータ端末30から応答信号を受信する(図8;ステップSJ8)場合に、情報端末10とオペレータ端末30との接続が確立し、店員又は顧客と、通訳者との通話が実現する(図8;ステップSJ9及びSO4)。ここで、店員又は顧客と、通訳者との通話が実現する場合に、図11(D)に示すように、プロセッサ11は、表示部107の画面上にテキストT30を表示する。
On the other hand, when the
(第2実施形態)
第1実施形態においては、情報端末は、翻訳結果を出力する場合に通話開始ボタン(第1画像)を表示するが、第2実施形態においては、情報端末は、サーバ装置が算出した翻訳精度に関するスコアと、所定の閾値とを比較し、当該スコアが所定の閾値以下である場合に、通話開始ボタン(第1画像)を表示する点において、第1実施形態と第2実施形態とは異なる。図13を用いて第2実施形態を説明する。第1実施形態を説明する、図8に示すフローチャートと異なる点について特に説明し、図8に示すフローチャートと同様な点については、説明を省略する。
(Second Embodiment)
In the first embodiment, the information terminal displays a call start button (first image) when outputting the translation result. In the second embodiment, the information terminal relates to the translation accuracy calculated by the server device. The first embodiment and the second embodiment are different in that a call start button (first image) is displayed when the score is compared with a predetermined threshold and the score is equal to or lower than the predetermined threshold. A second embodiment will be described with reference to FIG. Differences from the flowchart shown in FIG. 8 that describe the first embodiment will be particularly described, and descriptions of points that are similar to the flowchart shown in FIG. 8 will be omitted.
図13は、音声翻訳システムにおける処理の流れ(一部)の他の一例を示すフローチャートである。図13に示すように、サーバ装置20の多言語翻訳部207は、認識された音声の「読み」(文字)を他の言語に翻訳する多言語翻訳処理を実行する(図13;ステップSS12)。記憶部213は、入力音声の内容に対応付けられた翻訳結果(翻訳内容)及び当該翻訳結果に対応する翻訳精度に関するスコアをユーザごとに関連付けて翻訳履歴として記憶する(図13;ステップSS13)。
FIG. 13 is a flowchart showing another example of the process flow (part) in the speech translation system. As shown in FIG. 13, the
ここで、当該翻訳処理においては、例えば統計翻訳が実施されており、対訳データから二言語間の単語や句の対応関係を抽出した、例えば確率付きの対訳辞書と確率付きの語順変換表を含む翻訳モデルと、訳文の言語らしさを表現する、並びの自然さを表す確率付き日本語の単語連鎖データを含む言語モデルと、に基づいてこれらの確率の積を最大化する訳文候補を出力する。よって、スコア算出部209は、例えば、各翻訳結果に対してそれぞれ何%という翻訳精度に関するスコアを算出するように構成されている。
Here, in the translation processing, for example, statistical translation is performed, and the correspondence between words and phrases between two languages is extracted from the bilingual data, for example, including a bilingual dictionary with probability and a word order conversion table with probability Based on the translation model and the language model including the Japanese word chain data with probabilities representing the naturalness of the sequence that expresses the language likeness of the translation, a translation candidate that maximizes the product of these probabilities is output. Therefore, the
多言語翻訳処理及び音声合成処理が完了すると、音声合成部211は、翻訳結果(翻訳内容)である英語の会話コーパスに基づいてテキスト表示用のテキスト信号を生成し、また、合成された音声に基づいて音声出力用の音声信号を生成する。そして、生成されたテキスト信号、生成された音声信号、及び翻訳精度を送受信部201及びネットワークNを通して、情報端末10へ送信する。
When the multilingual translation process and the speech synthesis process are completed, the
次に、情報端末10のスコア比較部111は、サーバ装置20が算出した翻訳精度に関するスコアと所定の閾値とを比較する(図13;ステップSJ15)。スコアが所定の閾値より高ければ(図13;ステップSJ15においてNo)、翻訳精度が良いことを示しており、第1表示処理制御部113は、表示部107に翻訳結果を表示し、合成された音声を出力する(図13;ステップSJ16)。例えば、所定の閾値が80%である場合であって、サーバ装置20における翻訳処理の翻訳精度に関するスコアが90%である場合は、その翻訳精度は、良いことを示している。そして、翻訳が精度よく行われることによって、顧客がユーザ(店員)の質問事項を理解することができた場合、図13に示すステップSJ13に戻り、今度は、顧客の音声の入力、認識、翻訳、及び音声合成といった音声処理を行う。
Next, the
他方、翻訳精度に関するスコアが所定の閾値以下であれば(図13;ステップSJ15においてYes)、翻訳精度が悪いことを示しており、第1表示処理制御部113は、表示部107に翻訳結果及び通話開始ボタンを表示する(図13;ステップSJ17)。
On the other hand, if the score relating to the translation accuracy is equal to or lower than the predetermined threshold value (FIG. 13; Yes in step SJ15), it indicates that the translation accuracy is poor, and the first display
本発明によれば、情報端末の第1表示処理制御部は、表示部において翻訳結果を表示する場合に通話開始ボタンを選択的に表示する処理を制御し、情報端末の通話処理制御部は、通話開始ボタンが選択された場合に、ユーザと通訳者との通話を開始するための通話処理開始リクエストを送信することによって、ユーザの負担を軽減し且つ利便性を向上させることができるとともに、誤訳の発生を防止し且つ円滑なコミュニケーションを実現することができる。 According to the present invention, the first display processing control unit of the information terminal controls the process of selectively displaying the call start button when the translation result is displayed on the display unit. When the call start button is selected, by transmitting a call processing start request for starting a call between the user and an interpreter, the burden on the user can be reduced and convenience can be improved. Can be prevented and smooth communication can be realized.
また、本発明によれば、情報端末において音声翻訳の翻訳精度に関するスコアと所定の閾値とを比較し、翻訳精度が低い場合に、通話開始ボタンを表示するように構成する。よって、情報端末において通訳者との通話の必要性がより高い場合にのみ通話開始ボタンを表示するので、通訳者との通話をより円滑に開始することができる。 In addition, according to the present invention, the information terminal compares the score related to the translation accuracy of speech translation with a predetermined threshold, and displays a call start button when the translation accuracy is low. Therefore, since the call start button is displayed only when the need for a call with the interpreter is higher at the information terminal, the call with the interpreter can be started more smoothly.
(他の実施形態)
本実施形態は、本発明の理解を容易にするためのものであり、本発明を限定して解釈するものではない。本発明はその趣旨を逸脱することなく、変更/改良され得るとともに、本発明にはその等価物も含まれる。また、本発明は、その趣旨を逸脱しない範囲で種々変形(各実施形態を組み合わせる等)して実施することができる。
(Other embodiments)
This embodiment is for facilitating the understanding of the present invention, and should not be construed as limiting the present invention. The present invention can be changed / improved without departing from the gist thereof, and the present invention includes equivalents thereof. Further, the present invention can be implemented with various modifications (combining the embodiments, etc.) without departing from the spirit of the present invention.
また、上記各実施形態では、音声認識、翻訳、及び音声合成の各処理をサーバ装置20によって実行する例について記載したが、これらの処理を情報端末10において実行するように構成してもよい。この場合、それらの処理に用いるモジュールL20は、情報端末10の記憶資源12に保存されていてもよいし、サーバ装置20の記憶資源23に保存されていてもよい。さらに、音声データベースのデータベースD20、及び/又は、音響モデル等のモデルM20も、情報端末10の記憶資源12に保存されていてもよいし、サーバ装置20の記憶資源23に保存されていてもよい。このとおり、音声翻訳システムは、ネットワークN及びサーバ装置20を備えなくてもよい。なお、上記実施形態では、翻訳精度を判断する処理を情報端末10によって実行する例について記載したが、この処理をサーバ装置20において実行するように構成してもよい。
Moreover, although each said embodiment described the example which performs each process of speech recognition, translation, and a speech synthesis by the
なお、図8に示すステップSO3に係る翻訳履歴をユーザごとに関連付けて表示するステップは、ステップSO1と同時に実行されてもよいし、ステップSO1の後であってステップSO2と同時に又はステップSO2の前に実行されてもよい。また、図10に示すステップSO13に係る翻訳履歴をユーザごとに関連付けて表示するステップは、ステップSO11と同時に実行されてもよいし、ステップSO11の後であってステップSO12と同時に又はステップSO12の前に実行されてもよい。 The step of displaying the translation history relating to step SO3 shown in FIG. 8 in association with each user may be executed simultaneously with step SO1, or after step SO1 and simultaneously with step SO2 or before step SO2. May be executed. Further, the step of displaying the translation history related to step SO13 shown in FIG. 10 in association with each user may be executed simultaneously with step SO11, or after step SO11 and simultaneously with step SO12 or before step SO12. May be executed.
上記実施形態においては、オペレータ端末30は、翻訳履歴を、当該翻訳履歴を含む通話処理開始リクエストを受信することによって得ることができると説明したが、これに限られない。例えば、オペレータ端末30は、通話処理開始リクエストを受信する前に、又は後に、サーバ装置20から直接翻訳履歴を受信するように構成されてもよい。
In the said embodiment, although the
また、情報端末10とネットワークNとの間、又は、オペレータ端末30とネットワークNとの間には、両者間の通信プロトコルを変換するゲートウェイサーバ等が介在してももちろんよい。また、情報端末10は、携帯型装置に限らず、例えば、デスクトップ型パソコン、ノート型パソコン、タブレット型パソコン、ラップトップ型パソコン等でもよい。さらに、オペレータ端末30は、据え置き型装置に限られず、ネットワークNとの通信機能を有する可搬型のタブレット型端末装置等で構成されてもよい。
Of course, a gateway server for converting a communication protocol between the
10 情報端末
11,21,31 プロセッサ
12,23,32 記憶資源
13,33 音声入出力デバイス
14,22,34 通信インターフェイス
15,35 入力デバイス
16,36 表示デバイス
17,37 カメラ
20 サーバ装置
30 オペレータ端末
100 音声翻訳システム
101,301 音声入出力部
103,201,303 送受信部
105,305 入力操作受付部
107,307 表示部
109,203,309 情報処理部
111 スコア比較部
113 第1表示処理制御部
115 通話処理制御部
117,213,315 記憶部
205 音声認識部
207 多言語翻訳部
209 スコア算出部
211 音声合成部
311 通話処理部
313 第2表示処理制御部
D20 データベース
L20 モジュール
M20 モデル
N ネットワーク
P10,P20,P30 プログラム
DESCRIPTION OF
Claims (7)
前記情報端末に入力された音声の内容を翻訳するサーバ装置と、
前記情報端末との間の通話処理をする通訳者端末と、を備える音声翻訳システムであって、
前記サーバ装置は、
前記情報端末に入力された音声の内容を認識する音声認識部と、
前記音声認識部で認識された内容を異なる言語の内容に翻訳する翻訳部と、
翻訳精度に関するスコアを算出するスコア算出部と、を備え、
前記情報端末は、
前記サーバ装置の前記翻訳部で翻訳された内容を音声で出力する音声出力部と、
前記入力された音声の内容の第1テキストを画面における第1領域に表示し、且つ、前記翻訳された内容の第2テキストを前記画面における前記第1領域とは異なる第2領域に表示する処理を制御する第1表示処理制御部であって、前記スコア算出部により算出された前記スコアが所定の閾値以下である場合に、前記第1テキスト及び前記第2テキストに加え、前記通訳者端末との間の通話処理を開始するための通話処理開始リクエストを前記通訳者端末に送信するための第1画像を、前記画面において選択的に表示する処理を制御する第1表示処理制御部と、
前記第1画像が選択されたとき、前記通話処理開始リクエストを前記通訳者端末に送信する通話処理制御部と、を備える、
音声翻訳システム。 An information terminal for inputting the user's voice;
A server device for translating the content of the voice input to the information terminal;
An interpreter terminal that performs call processing with the information terminal; and a speech translation system comprising:
The server device
A speech recognition unit for recognizing the content of speech input to the information terminal;
A translation unit that translates the content recognized by the voice recognition unit into content in a different language;
A score calculation unit that calculates a score related to translation accuracy,
The information terminal
A voice output unit that outputs the content translated by the translation unit of the server device by voice;
A process of displaying the first text of the input speech content in a first area on the screen and displaying the second text of the translated content in a second area different from the first area on the screen A first display processing control unit for controlling the interpreter terminal, in addition to the first text and the second text, when the score calculated by the score calculation unit is a predetermined threshold value or less. A first display process control unit for controlling a process of selectively displaying a first image for transmitting a call process start request for starting a call process to the interpreter terminal on the screen ;
A call processing control unit that transmits the call processing start request to the interpreter terminal when the first image is selected;
Speech translation system.
前記通訳者端末は、前記翻訳履歴を前記ユーザごとに関連付けて表示する処理を制御する第2表示処理制御部を更に備える、
請求項1に記載の音声翻訳システム。 The server device further includes a storage unit that stores the translated content associated with the content of the input voice as a translation history in association with each user,
The interpreter terminal further includes a second display processing control unit that controls processing of displaying the translation history in association with each user.
The speech translation system according to claim 1.
前記通話処理制御部は、前記第2画像のうち一の画像が選択された後に、前記第1画像が選択された場合に、選択された前記第2画像のうち一の画像が示す言語を使用できる通訳者に対応付けられた前記通訳者端末との間の前記通話処理を制御する、
請求項1又は請求項2に記載の音声翻訳システム。 The first display processing control unit controls processing for further displaying two or more second images respectively indicating two or more languages,
The call processing control unit uses a language indicated by one of the selected second images when the first image is selected after the one of the second images is selected. Controlling the call processing with the interpreter terminal associated with an interpreter capable of
The speech translation system according to claim 1 or 2.
請求項1〜3のいずれか一項に記載の音声翻訳システム。 The second area is set below the first area on the screen.
The speech translation system according to any one of claims 1 to 3.
請求項1〜4のいずれか一項に記載の音声翻訳システム。 The first display processing control unit displays the first text and the second text in opposite directions on the screen;
The speech translation system according to any one of claims 1 to 4.
前記入力された音声の内容の第1テキストを画面における第1領域に表示し、且つ、前記翻訳された内容の第2テキストを前記画面における前記第1領域とは異なる第2領域に表示する処理を制御するステップであって、翻訳精度に関するスコアが所定の閾値以下である場合に、前記第1テキスト及び前記第2テキストに加え、通訳者端末との間の通話処理を開始するための通話処理開始リクエストを前記通訳者端末に送信するための第1画像を、前記画面において選択的に表示する処理を制御するステップと、
前記第1画像が選択されたとき、前記通話処理開始リクエストを前記通訳者端末に送信するステップと、を含む、
音声翻訳方法。 Outputting the contents of the user's voice, which are translated into different languages, in voice;
A process of displaying the first text of the input speech content in a first area on the screen and displaying the second text of the translated content in a second area different from the first area on the screen Call processing for starting call processing with the interpreter terminal in addition to the first text and the second text when the score relating to translation accuracy is equal to or lower than a predetermined threshold. Controlling a process of selectively displaying a first image for transmitting a start request to the interpreter terminal on the screen ;
Transmitting the call processing start request to the interpreter terminal when the first image is selected,
Speech translation method.
ユーザの音声の内容であって、異なる言語の内容に翻訳された内容を音声で出力する音声出力部と、
前記入力された音声の内容の第1テキストを画面における第1領域に表示し、且つ、前記翻訳された内容の第2テキストを前記画面における前記第1領域とは異なる第2領域に表示する処理を制御する第1表示処理制御部であって、翻訳精度に関するスコアが所定の閾値以下である場合に、前記第1テキスト及び前記第2テキストに加え、通訳者端末との間の通話処理を開始するための通話処理開始リクエストを前記通訳者端末に送信するための第1画像を、前記画面において選択的に表示する処理を制御する第1表示処理制御部と、
前記第1画像が選択されたとき、前記通話処理開始リクエストを前記通訳者端末に送信する通話処理制御部と、
して機能させる、
音声翻訳プログラム。 Computer
A voice output unit that outputs the contents of the user's voice, which are translated into different languages, in voice;
A process of displaying the first text of the input speech content in a first area on the screen and displaying the second text of the translated content in a second area different from the first area on the screen A first display processing control unit for controlling a translation accuracy, and when a score relating to translation accuracy is equal to or lower than a predetermined threshold, in addition to the first text and the second text, a call process with an interpreter terminal is started. A first display process control unit for controlling a process of selectively displaying a first image for transmitting a call process start request to the interpreter terminal on the screen ;
When the first image is selected, a call processing control unit that transmits the call processing start request to the interpreter terminal;
Make it work,
Speech translation program.
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016017071A JP6449181B2 (en) | 2016-02-01 | 2016-02-01 | Speech translation system, speech translation method, and speech translation program |
PCT/JP2017/003300 WO2017135214A1 (en) | 2016-02-01 | 2017-01-31 | Speech translation system, speech translation method, and speech translation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016017071A JP6449181B2 (en) | 2016-02-01 | 2016-02-01 | Speech translation system, speech translation method, and speech translation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2017138650A JP2017138650A (en) | 2017-08-10 |
JP6449181B2 true JP6449181B2 (en) | 2019-01-09 |
Family
ID=59499823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016017071A Expired - Fee Related JP6449181B2 (en) | 2016-02-01 | 2016-02-01 | Speech translation system, speech translation method, and speech translation program |
Country Status (2)
Country | Link |
---|---|
JP (1) | JP6449181B2 (en) |
WO (1) | WO2017135214A1 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107507615A (en) * | 2017-08-29 | 2017-12-22 | 百度在线网络技术(北京)有限公司 | Interface intelligent interaction control method, device, system and storage medium |
CN111478971A (en) * | 2020-04-14 | 2020-07-31 | 青岛联合视界数字传媒有限公司 | Multilingual translation telephone system and translation method |
CN112818707B (en) * | 2021-01-19 | 2024-02-27 | 传神语联网网络科技股份有限公司 | Reverse text consensus-based multi-turn engine collaborative speech translation system and method |
Family Cites Families (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS62286172A (en) * | 1986-06-04 | 1987-12-12 | Ricoh Co Ltd | Document processor |
JPS63106866A (en) * | 1986-10-24 | 1988-05-11 | Toshiba Corp | Machine translation device |
JPH01230177A (en) * | 1988-03-10 | 1989-09-13 | Oki Electric Ind Co Ltd | Translation processing system |
JPH07105220A (en) * | 1993-09-30 | 1995-04-21 | Hitachi Ltd | Conference translating device |
JP3918437B2 (en) * | 2001-01-26 | 2007-05-23 | 株式会社日立製作所 | Interpretation service management device |
JP2004157882A (en) * | 2002-11-07 | 2004-06-03 | Patolis Corp | Online document retrieval/translation method |
JP5821096B2 (en) * | 2011-06-30 | 2015-11-24 | 三井金属アクト株式会社 | Door lock device for automobile |
JP6570893B2 (en) * | 2015-06-23 | 2019-09-04 | 株式会社Nttドコモ | Translation support system and information processing apparatus |
-
2016
- 2016-02-01 JP JP2016017071A patent/JP6449181B2/en not_active Expired - Fee Related
-
2017
- 2017-01-31 WO PCT/JP2017/003300 patent/WO2017135214A1/en active Application Filing
Also Published As
Publication number | Publication date |
---|---|
WO2017135214A1 (en) | 2017-08-10 |
JP2017138650A (en) | 2017-08-10 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6678764B1 (en) | Facilitating end-to-end communication with automated assistants in multiple languages | |
JPWO2005101235A1 (en) | Dialogue support device | |
JP2015153108A (en) | Voice conversion support device, voice conversion support method, and program | |
JP2002116796A (en) | Voice processor and method for voice processing and storage medium | |
US11538476B2 (en) | Terminal device, server and controlling method thereof | |
US20220350961A1 (en) | Systems and methods for tool integration using cross channel digital forms | |
US20080195375A1 (en) | Echo translator | |
JP6449181B2 (en) | Speech translation system, speech translation method, and speech translation program | |
JPH07222248A (en) | System for utilizing speech information for portable information terminal | |
JP6141483B1 (en) | Speech translation device, speech translation method, and speech translation program | |
US20120215521A1 (en) | Software Application Method to Translate an Incoming Message, an Outgoing Message, or an User Input Text | |
JP6290479B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP2000075887A (en) | Device, method and system for pattern recognition | |
KR100593589B1 (en) | Multilingual Interpretation / Learning System Using Speech Recognition | |
JP6353860B2 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6250209B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6310950B2 (en) | Speech translation device, speech translation method, and speech translation program | |
WO2017122657A1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6383748B2 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6110539B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6334589B2 (en) | Fixed phrase creation device and program, and conversation support device and program | |
JP6198879B1 (en) | Speech translation device, speech translation method, and speech translation program | |
US20070244687A1 (en) | Dialog supporting device | |
JP6174746B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP2003271532A (en) | Communication system, data transfer method of the system, server of the system, processing program for the system and record medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20170619 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170914 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20170925 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20171006 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180910 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20181205 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6449181 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |