JP2018147112A - Voice translation device and voice translation method and voice translation program - Google Patents
Voice translation device and voice translation method and voice translation program Download PDFInfo
- Publication number
- JP2018147112A JP2018147112A JP2017039760A JP2017039760A JP2018147112A JP 2018147112 A JP2018147112 A JP 2018147112A JP 2017039760 A JP2017039760 A JP 2017039760A JP 2017039760 A JP2017039760 A JP 2017039760A JP 2018147112 A JP2018147112 A JP 2018147112A
- Authority
- JP
- Japan
- Prior art keywords
- emotion
- voice
- user
- speech
- translation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Landscapes
- Machine Translation (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、音声翻訳装置、音声翻訳方法、及び音声翻訳プログラムに関する。 The present invention relates to a speech translation device, a speech translation method, and a speech translation program.
互いの言語を理解できない人同士の会話、例えば店舗の店員と外国人客との会話を可能ならしめるべく、話し手の発話音声をテキスト化し、そのテキストの内容を聞き手の言語に機械翻訳した上で画面に表示したり、或いは、音声合成技術を用いてそのテキストの内容を音声再生したりする音声翻訳技術が提案されている(例えば特許文献1)。また、かかる音声翻訳技術を具現化したスマートフォン等の情報端末で動作する音声翻訳アプリケーションも実用化されている(例えば非特許文献1)。 In order to enable conversations between people who do not understand each other's language, for example, conversations between store clerk and foreign customers, the speech of the speaker is converted into text and the content of the text is machine translated into the language of the listener There has been proposed a speech translation technique for displaying on a screen or playing back the text content using a speech synthesis technique (for example, Patent Document 1). A speech translation application that operates on an information terminal such as a smartphone that embodies such speech translation technology has also been put into practical use (for example, Non-Patent Document 1).
一般に、かかる従来の音声翻訳技術では、発話された音声の認識処理を行ってその音声の読み(文字)を取得し、辞書を用いてその文字を他の言語へ翻訳する。この場合、音声認識処理には、予め構築された音響モデルや言語モデルが適用され、また、翻訳処理には、予め用意された各言語のコーパス等のデータベースが用いられる。しかし、このような音声認識処理及び翻訳処理では、会話の内容によっては、音声翻訳を通して話し手の真意や本音が伝わらず、誤解が生じてしまうことにより両者の十分なコミュニケーションがとれないといった不都合が生じる場合があった。 In general, in the conventional speech translation technology, a spoken speech is recognized to obtain a reading (character) of the speech, and the character is translated into another language using a dictionary. In this case, an acoustic model or a language model built in advance is applied to the speech recognition process, and a database such as a corpus of each language prepared in advance is used for the translation process. However, in such speech recognition processing and translation processing, depending on the content of the conversation, the intent and true intention of the speaker cannot be transmitted through speech translation, and there is a problem that the two cannot communicate sufficiently due to misunderstandings. There was a case.
具体的には、聞き手が不快に感じないように、或いは、聞き手を困惑させないように、話し手が婉曲的な表現を用いること、すなわち、話し手が、否定的又は不都合な含意を有する語句を含む内容をそのまま聞き手に伝えることを避けるために、そのような語句を直接用いずに他の語句に置き換えて発話することが考えられる。これに対し、従来の翻訳技術では、かかる婉曲な表現を踏まえた音声認識処理と翻訳処理を行わず、発話された音声の内容そのものの翻訳結果を取得し、聞き手に伝えることが想定される。その結果、話し手が意図した本来の否定的又は不都合な含意が聞き手に伝わらないおそれがある。 Specifically, in order not to make the listener feel uncomfortable or to confuse the listener, the speaker should use eclectic expressions, i.e. content that includes words with negative or inconvenient implications. In order to avoid telling the listener as it is, it is conceivable that such a phrase is not directly used but replaced with another phrase. On the other hand, in the conventional translation technology, it is assumed that the speech recognition processing and translation processing based on such a concavo-convex expression are not performed, and the translation result of the spoken speech content itself is acquired and transmitted to the listener. As a result, the original negative or inconvenient implications intended by the speaker may not be conveyed to the listener.
また、例えば、話し手と聞き手の親密度が高い場合、その親密さと好意的な感情を込めた内容を聞き手に伝えるために、話し手は、敢えて、悪い意味、無礼な意味、不都合な意味等を有する語句や表現(言い方)を使用し、場合によっては、話し手の真意や本音とは反対の意味を示す内容を発話することがあり得る。これに対し、従来の翻訳技術では、そのような話し手の真意や本音を考慮した上で音声認識処理と翻訳処理を行うわけではなく、発話された音声の内容そのものの翻訳結果を取得し、聞き手に伝えることが想定される。その結果、話し手の真意や本音が聞き手に伝わらないおそれがある。 Also, for example, when the intimacy of the speaker and listener is high, the speaker has a bad meaning, a rude meaning, an inconvenient meaning, etc. in order to convey to the listener the contents with intimacy and favorable feelings. Words and expressions (speaking methods) are used, and in some cases, content that shows the meaning opposite to the speaker's real intention or real intention can be spoken. On the other hand, conventional translation technology does not perform speech recognition processing and translation processing in consideration of such speaker's intention and real intention, but obtains the translation result of the spoken speech content itself, It is assumed to be communicated to. As a result, there is a risk that the speaker's real intention and true intention will not be transmitted to the listener.
そこで、本発明は、かかる事情に鑑みてなされたものであり、ユーザ(話し手又は聞き手)の感情を考慮した音声認識処理及び翻訳処理を実行することにより、ユーザの真意や本音を聞き手に伝えることができ、その結果、ユーザ同士(話し手と聞き手)のコミュニケーションの向上を図ることが可能な音声翻訳装置、音声翻訳方法、及び音声翻訳プログラムを提供することを目的とする。 Therefore, the present invention has been made in view of such circumstances, and conveys the user's intention and true intention to the listener by executing speech recognition processing and translation processing in consideration of the emotion of the user (speaker or listener). As a result, an object of the present invention is to provide a speech translation device, a speech translation method, and a speech translation program capable of improving communication between users (speaker and listener).
上記課題を解決するため、本発明の一態様による音声翻訳装置は、ユーザの音声を入力するための入力部と、入力された音声を認識する認識部と、ユーザが音声を入力する前、入力している間、又は入力した後に、ユーザの感情を表現するための感情文字又は感情記号を、ユーザが選択可能なように提示する提示部と、認識された音声の内容と選択された感情文字又は感情記号に基づいて、認識された音声の内容を異なる言語の内容に翻訳する翻訳部と、異なる言語に翻訳された内容を、音声及び/又はテキストで出力する出力部とを備える。 In order to solve the above problems, a speech translation apparatus according to an aspect of the present invention includes an input unit for inputting a user's speech, a recognition unit that recognizes the input speech, and an input before the user inputs the speech. While presenting or after input, a presentation unit that presents an emotion character or emotion symbol for expressing the user's emotion so that the user can select, the content of the recognized voice, and the selected emotion character Alternatively, a translation unit that translates the content of the recognized speech into content of a different language based on the emotion symbol, and an output unit that outputs the content translated into a different language as speech and / or text.
より具体的には、出力部は、感情文字又は感情記号を表示させるためのボタンを、入力された音声の認識結果が表示された画面に表示するように構成しても好適である。 More specifically, the output unit may be configured to display a button for displaying an emotion character or an emotion symbol on a screen on which a recognition result of the input voice is displayed.
さらには、出力部は、選択された感情文字又は感情記号を、異なる言語に翻訳された内容が表示された画面に表示するように構成しても好適である。 Furthermore, the output unit may be configured to display the selected emotion character or emotion symbol on a screen on which content translated into different languages is displayed.
また、所定のフレーズと感情文字又は感情記号との組み合わせと、その組み合わせのそれぞれに対する異なる言語の内容とを関連付けて記憶する記憶部を備え、翻訳部は、感情文字又は感情記号が入力されたときに、入力された音声に含まれるフレーズと該感情文字又は該感情記号との組み合わせが記憶部に記憶されているか否かを判定し、その組み合わせが記憶されているときに、その組み合わせに関連付けて記憶されている異なる言語の内容を用いて、翻訳を行うようにしてもよい。なお、「フレーズ」には、文、節、句、語、及び数字が含まれるものとする。 In addition, a storage unit that stores a combination of a predetermined phrase and an emotion character or an emotion symbol in association with contents of different languages for each of the combinations is stored, and the translation unit receives an emotion character or an emotion symbol And determining whether or not a combination of the phrase included in the input voice and the emotion character or the emotion symbol is stored in the storage unit, and when the combination is stored, You may make it translate using the content of the different language memorize | stored. The “phrase” includes sentences, clauses, phrases, words, and numbers.
或いは、所定のフレーズと感情文字又は感情記号との組み合わせと、その組み合わせのそれぞれに対する異なる言語の内容とを関連付けて記憶する記憶部を備え、出力部は、入力された音声に含まれるフレーズが、所定のフレーズに含まれるときに、その所定のフレーズと感情文字又は感情記号との組み合わせの一覧を、ユーザが選択可能なように表示し、翻訳部は、選択された組み合わせに関連付けて記憶されている異なる言語の内容を用いて、翻訳を行うようにしてもよい。 Alternatively, a storage unit that stores a combination of a predetermined phrase and an emotion character or an emotion symbol and the contents of different languages for each of the combinations is stored, and the output unit includes a phrase included in the input voice, When included in a predetermined phrase, a list of combinations of the predetermined phrase and emotion characters or emotion symbols is displayed so that the user can select, and the translation unit is stored in association with the selected combination. Translation may be performed using the contents of different languages.
また、本発明の一態様による音声翻訳方法は、入力部、認識部、提示部、翻訳部、及び出力部を備える音声翻訳装置を用い、入力部が、ユーザの音声を入力するステップと、認識部が、入力された音声を認識するステップと、提示部が、ユーザが音声を入力する前、入力している間、又は入力した後に、ユーザの感情を表現するための感情文字又は感情記号を、ユーザが選択可能なように提示するステップと、翻訳部が、認識された音声の内容と選択された感情文字又は感情記号に基づいて、認識された音声の内容を異なる言語の内容に翻訳するステップと、出力部が、異なる言語に翻訳された内容を、音声及び/又はテキストで出力するステップとを含む。 A speech translation method according to an aspect of the present invention uses a speech translation device including an input unit, a recognition unit, a presentation unit, a translation unit, and an output unit, and the input unit inputs a user's speech, The step of recognizing the input voice, and the presentation unit displays emotion characters or emotion symbols for expressing the user's emotion before, during, or after the user inputs the voice. The step of presenting the user so that the user can select the content, and the translation unit translates the content of the recognized speech into content of a different language based on the content of the recognized speech and the selected emotion character or emotion symbol. A step and a step in which the output unit outputs the contents translated into different languages in sound and / or text.
また、本発明の一態様による音声翻訳プログラムは、コンピュータ(単数又は単一種に限られず、複数又は複数種でもよい;以下同様)を、ユーザの音声を入力するための入力部と、入力された音声を認識する認識部と、ユーザが前声を入力する前、入力している間、又は入力した後に、ユーザの感情を表現するための感情文字又は感情記号を、ユーザが選択可能なように提示する提示部と、認識された音声の内容と選択された感情文字又は感情記号に基づいて、認識された音声の内容を異なる言語の内容に翻訳する翻訳部と、異なる言語に翻訳された内容を、音声及び/又はテキストで出力する出力部として機能させる。 A speech translation program according to an aspect of the present invention is input to a computer (not limited to a single type or a single type, and may be a plurality or a plurality of types; the same applies hereinafter) and an input unit for inputting a user's speech. A recognition unit for recognizing speech, and a user can select emotion characters or emotion symbols for expressing a user's emotion before, during, or after inputting a forehead A presentation unit to present, a translation unit for translating the recognized speech content into different language content based on the recognized speech content and the selected emotion character or emotion symbol, and content translated into a different language Is made to function as an output unit that outputs audio and / or text.
本発明によれば、ユーザ(話し手又は聞き手)による音声の入力とともに、そのユーザの感情を表現するための感情文字又は感情記号を選択し、認識された入力音声の内容だけでなく、それとともに選択された感情文字又は感情記号に基づいて、認識された音声の内容を異なる言語の内容に翻訳して出力するので、言わば、ユーザの感情を考慮した翻訳処理を実行することにより、話し手の真意や本音を聞き手に伝えることができ、その結果、ユーザ同士(話し手と聞き手)のコミュニケーションの向上を図ることが可能となる。 According to the present invention, voice input by a user (speaker or listener) and an emotion character or emotion symbol for expressing the user's emotion are selected, and not only the content of the recognized input voice but also selected together with it. Since the recognized speech content is translated into different language content based on the emotional characters or emotional symbols that have been recognized, the translation process that takes into account the user's emotions, The real intention can be transmitted to the listener, and as a result, communication between users (speaker and listener) can be improved.
以下、本発明の実施の形態について詳細に説明する。なお、以下の実施の形態は、本発明を説明するための例示であり、本発明をその実施の形態のみに限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、さまざまな変形が可能である。さらに、当業者であれば、以下に述べる各要素を均等なものに置換した実施の形態を採用することが可能であり、かかる実施の形態も本発明の範囲に含まれる。またさらに、必要に応じて示す上下左右等の位置関係は、特に断らない限り、図示の表示に基づくものとする。さらにまた、図面における各種の寸法比率は、その図示の比率に限定されるものではない。 Hereinafter, embodiments of the present invention will be described in detail. The following embodiments are examples for explaining the present invention, and are not intended to limit the present invention only to the embodiments. The present invention can be variously modified without departing from the gist thereof. Furthermore, those skilled in the art can employ embodiments in which the elements described below are replaced with equivalent ones, and such embodiments are also included in the scope of the present invention. Furthermore, positional relationships such as up, down, left, and right shown as needed are based on the display shown unless otherwise specified. Furthermore, various dimensional ratios in the drawings are not limited to the illustrated ratios.
(装置構成)
図1は、本発明による音声翻訳装置に係るネットワーク構成等の好適な一実施形態を概略的に示すシステムブロック図である。この例において、音声翻訳装置100は、ユーザが使用する情報端末10(ユーザ装置)にネットワークNを介して電子的に接続されるサーバ20を備える(但し、これに限定されない)。
(Device configuration)
FIG. 1 is a system block diagram schematically showing a preferred embodiment such as a network configuration related to a speech translation apparatus according to the present invention. In this example, the speech translation apparatus 100 includes a server 20 that is electronically connected to the information terminal 10 (user apparatus) used by the user via the network N (but is not limited to this).
情報端末10は、例えば、タッチパネル等のユーザインターフェイス及び視認性が高いディスプレイを採用する。また、ここでの情報端末10は、ネットワークNとの通信機能を有するスマートフォンに代表される携帯電話を含む可搬型のタブレット型端末装置である。さらに、情報端末10は、プロセッサ11、記憶資源12、音声入出力デバイス13、通信インターフェイス14、入力デバイス15、表示デバイス16、及びカメラ17を備えている。また、情報端末10は、インストールされた音声翻訳アプリケーションソフト(本発明の一実施形態による音声翻訳プログラムの少なくとも一部)が動作することにより、本発明の一実施形態による音声翻訳装置の一部又は全部として機能するものである。 The information terminal 10 employs a user interface such as a touch panel and a display with high visibility, for example. The information terminal 10 here is a portable tablet terminal device including a mobile phone represented by a smartphone having a communication function with the network N. The information terminal 10 further includes a processor 11, a storage resource 12, a voice input / output device 13, a communication interface 14, an input device 15, a display device 16, and a camera 17. In addition, the information terminal 10 operates by the installed speech translation application software (at least a part of the speech translation program according to the embodiment of the present invention), so that a part of the speech translation apparatus according to the embodiment of the present invention or It functions as a whole.
プロセッサ11は、算術論理演算ユニット及び各種レジスタ(プログラムカウンタ、データレジスタ、命令レジスタ、汎用レジスタ等)から構成される。また、プロセッサ11は、記憶資源12に格納されているプログラムP10である音声翻訳アプリケーションソフトを解釈及び実行し、各種処理を行う。このプログラムP10としての音声翻訳アプリケーションソフトは、例えばサーバ20からネットワークNを通じて配信可能なものであり、手動で又は自動でインストール及びアップデートされてもよい。 The processor 11 includes an arithmetic logic unit and various registers (program counter, data register, instruction register, general-purpose register, etc.). Further, the processor 11 interprets and executes speech translation application software, which is the program P10 stored in the storage resource 12, and performs various processes. The speech translation application software as the program P10 can be distributed from the server 20 through the network N, for example, and may be installed and updated manually or automatically.
なお、ネットワークNは、例えば、有線ネットワーク(近距離通信網(LAN)、広域通信網(WAN)、又は付加価値通信網(VAN)等)と無線ネットワーク(移動通信網、衛星通信網、ブルートゥース(Bluetooth(登録商標))、WiFi(Wireless Fidelity)、HSDPA(High Speed Downlink Packet Access)等)が混在して構成される通信網である。 The network N includes, for example, a wired network (a short-range communication network (LAN), a wide-area communication network (WAN), a value-added communication network (VAN), etc.) and a wireless network (mobile communication network, satellite communication network, Bluetooth ( Bluetooth (registered trademark)), WiFi (Wireless Fidelity), HSDPA (High Speed Downlink Packet Access), etc.).
記憶資源12は、物理デバイス(例えば、半導体メモリ等のコンピュータ読み取り可能な記録媒体)の記憶領域が提供する論理デバイスであり、情報端末10の処理に用いられるオペレーティングシステムプログラム、ドライバプログラム、各種データ等を格納する。ドライバプログラムとしては、例えば、音声入出力デバイス13を制御するための入出力デバイスドライバプログラム、入力デバイス15を制御するための入力デバイスドライバプログラム、表示デバイス16を制御するための表示デバイスドライバプログラム等が挙げられる。さらに、音声入出力デバイス13は、例えば、一般的なマイクロフォン、及びサウンドデータを再生可能なサウンドプレイヤである。 The storage resource 12 is a logical device provided by a storage area of a physical device (for example, a computer-readable recording medium such as a semiconductor memory), and an operating system program, a driver program, various data, etc. used for processing of the information terminal 10 Is stored. Examples of the driver program include an input / output device driver program for controlling the audio input / output device 13, an input device driver program for controlling the input device 15, and a display device driver program for controlling the display device 16. Can be mentioned. Furthermore, the voice input / output device 13 is, for example, a general microphone and a sound player capable of reproducing sound data.
通信インターフェイス14は、例えばサーバ20との接続インターフェイスを提供するものであり、無線通信インターフェイス及び/又は有線通信インターフェイスから構成される。また、入力デバイス15は、例えば、表示デバイス16に表示されるアイコン、ボタン、仮想キーボード、テキスト等のタップ動作による入力操作を受け付けるインターフェイスを提供するものであり、タッチパネルの他、情報端末10に外付けされる各種入力装置を例示することができる。 The communication interface 14 provides a connection interface with the server 20, for example, and is configured from a wireless communication interface and / or a wired communication interface. The input device 15 provides an interface for accepting an input operation by a tap operation such as an icon, a button, a virtual keyboard, or a text displayed on the display device 16. Various input devices to be attached can be exemplified.
表示デバイス16は、画像表示インターフェイスとして各種の情報をユーザ(話し手と聞き手)に提供するものであり、例えば、有機ELディスプレイ、液晶ディスプレイ、CRTディスプレイ等が挙げられる。また、カメラ17は、種々の被写体の静止画や動画を撮像するためのものである。 The display device 16 provides various kinds of information to a user (speaker and listener) as an image display interface, and examples thereof include an organic EL display, a liquid crystal display, and a CRT display. The camera 17 is for capturing still images and moving images of various subjects.
サーバ20は、例えば、演算処理能力の高いホストコンピュータによって構成され、そのホストコンピュータにおいて所定のサーバ用プログラムが動作することにより、サーバ機能を発現するものであり、例えば、音声認識サーバ、翻訳サーバ、及び音声合成サーバとして機能する単数又は複数のホストコンピュータから構成される(図示においては単数で示すが、これに限定されない)。そして、各サーバ20は、プロセッサ21、通信インターフェイス22、及び記憶資源23を備える。 The server 20 is constituted by, for example, a host computer having a high arithmetic processing capability, and expresses a server function by operating a predetermined server program in the host computer, for example, a speech recognition server, a translation server, And a single or a plurality of host computers functioning as a speech synthesis server (in the drawing, it is indicated by a single, but is not limited thereto). Each server 20 includes a processor 21, a communication interface 22, and a storage resource 23.
プロセッサ21は、算術演算、論理演算、ビット演算等を処理する算術論理演算ユニット及び各種レジスタ(プログラムカウンタ、データレジスタ、命令レジスタ、汎用レジスタ等)から構成され、記憶資源23に格納されているプログラムP20を解釈及び実行し、所定の演算処理結果を出力する。また、通信インターフェイス22は、ネットワークNを介して情報端末10に接続するためのハードウェアモジュールであり、例えば、ISDNモデム、ADSLモデム、ケーブルモデム、光モデム、ソフトモデム等の変調復調装置である。 The processor 21 is composed of an arithmetic and logic unit for processing arithmetic operations, logical operations, bit operations and the like and various registers (program counter, data register, instruction register, general-purpose register, etc.), and is stored in the storage resource 23. P20 is interpreted and executed, and a predetermined calculation processing result is output. The communication interface 22 is a hardware module for connecting to the information terminal 10 via the network N. For example, the communication interface 22 is a modulation / demodulation device such as an ISDN modem, an ADSL modem, a cable modem, an optical modem, or a soft modem.
記憶資源23は、例えば、物理デバイス(ディスクドライブ又は半導体メモリ等のコンピュータ読み取り可能な記録媒体等)の記憶領域が提供する論理デバイスであり、それぞれ単数又は複数のプログラムP20、各種モジュールL20、各種データベースD20、及び各種モデルM20が格納されている。また、記憶資源23には、会話の一方のユーザ(話し手)が会話の他方のユーザ(聞き手)へ話しかけるために予め用意された複数の質問定型文、入力音声の履歴データ、各種設定用のデータ、後述するフレーズデータ等も記憶されている。 The storage resource 23 is a logical device provided by, for example, a storage area of a physical device (a computer-readable recording medium such as a disk drive or a semiconductor memory), and each includes one or a plurality of programs P20, various modules L20, and various databases. D20 and various models M20 are stored. In addition, the storage resource 23 stores a plurality of question phrases prepared in advance for one user (speaker) of the conversation to speak to the other user (listener) of the conversation, history data of input speech, and data for various settings. Phrase data and the like described later are also stored.
プログラムP20は、サーバ20のメインプログラムである上述したサーバ用プログラム等である。また、各種モジュールL20は、情報端末10から送信されてくる要求及び情報に係る一連の情報処理を行うため、プログラムP10の動作中に適宜呼び出されて実行されるソフトウェアモジュール(モジュール化されたサブプログラム)である。かかるモジュールL20としては、音声認識モジュール、翻訳モジュール、音声合成モジュール等が挙げられる。 The program P20 is the above-described server program that is the main program of the server 20. In addition, the various modules L20 perform a series of information processing related to requests and information transmitted from the information terminal 10, so that they are appropriately called and executed during the operation of the program P10 (moduleized subprograms). ). Examples of the module L20 include a speech recognition module, a translation module, and a speech synthesis module.
また、各種データベースD20としては、音声翻訳処理のために必要な各種コーパス(例えば、日本語と英語の音声翻訳の場合、日本語音声コーパス、英語音声コーパス、日本語文字(語彙)コーパス、英語文字(語彙)コーパス、日本語辞書、英語辞書、日英対訳辞書、日英対訳コーパス等)、音声データベース、ユーザに関する情報を管理するための管理用データベース、後述する階層構造を有するフレーズデータベース等が挙げられる。また、各種モデルM20としては、音声認識に使用する音響モデルや言語モデル等が挙げられる。 The various databases D20 include various corpora required for speech translation processing (for example, in the case of Japanese and English speech translation, a Japanese speech corpus, an English speech corpus, a Japanese character (vocabulary) corpus, an English character) (Vocabulary) Corpus, Japanese dictionary, English dictionary, Japanese-English bilingual dictionary, Japanese-English bilingual corpus, etc.), voice database, management database for managing information about users, phrase database having a hierarchical structure described later, etc. It is done. Examples of the various models M20 include acoustic models and language models used for speech recognition.
(通常の音声翻訳による会話)
以上のとおり構成された音声翻訳装置100における処理操作及び動作の一例について、以下に説明する。ここでは、ユーザ同士(話し手と聞き手)の会話及び/又は会話準備における通常の音声翻訳処理の一例について説明する。図2は、音声翻訳装置100における処理の流れ(の一部)の一例を示すフローチャートである。また、図3(A)乃至(D)及び図4(A)乃至(D)は、情報端末における表示画面の遷移の一例を示す平面図である。なお、本実施形態においては、一方の話者の言語が日本語であり、他方の話者の言語が中国語である場合の会話を想定する(但し、言語やシチュエーションはこれに限定されない)。
(Normal speech translation conversation)
An example of processing operations and operations in the speech translation apparatus 100 configured as described above will be described below. Here, an example of normal speech translation processing in conversation between users (speaker and listener) and / or conversation preparation will be described. FIG. 2 is a flowchart showing an example of (a part of) the processing flow in the speech translation apparatus 100. FIGS. 3A to 3D and FIGS. 4A to 4D are plan views illustrating examples of display screen transition in the information terminal. In the present embodiment, a conversation is assumed in which the language of one speaker is Japanese and the language of the other speaker is Chinese (however, the language and situation are not limited to this).
まず、ユーザ(話し手)が当該アプリケーションを起動する(ステップSU1)と、サーバ20のプロセッサ21及び情報端末10のプロセッサ11により、情報端末10の表示デバイス16に、ユーザ(聞き手)の言語を選択するための言語選択画面が表示される(図3(A);ステップSJ1)。この言語選択画面には、聞き手に言語を尋ねることを話し手に促すための日本語のテキストT1、聞き手に言語を尋ねる旨の英語のテキストT2、及び、想定される複数の代表的な言語(ここでは、英語、中国語(例えば書体により2種類)、ハングル語)を示す言語ボタン31が表示される。さらにその下方には、言語選択画面を閉じて当該アプリケーションを終了するためのキャンセルボタンB1も表示される。 First, when the user (speaker) starts the application (step SU1), the language of the user (listener) is selected on the display device 16 of the information terminal 10 by the processor 21 of the server 20 and the processor 11 of the information terminal 10. Is displayed (FIG. 3A; step SJ1). This language selection screen includes a Japanese text T1 for prompting the speaker to ask the listener for a language, an English text T2 for asking the listener for the language, and a plurality of typical languages assumed here (here Then, a language button 31 indicating English, Chinese (for example, two types depending on the typeface), and Hangul) is displayed. Further below that, a cancel button B1 for closing the language selection screen and ending the application is also displayed.
このとき、図3(A)に示す如く、日本語のテキストT1及び英語のテキストT2は、プロセッサ11及び表示デバイス16により、情報端末10の表示デバイス16の画面において、異なる領域によって区分けされ、且つ、互いに逆向き(互いに異なる向き;図示において上下逆向き)に表示される。これにより、話し手と聞き手が対面している状態で会話を行う場合、話し手は日本語のテキストT1を確認し易い一方、聞き手は、英語のテキストT2を確認し易くなる。また、日本語のテキストT1と英語のテキストT2が区分けして表示されるので、両者を明別して更に視認し易くなる利点がある。 At this time, as shown in FIG. 3A, the Japanese text T1 and the English text T2 are divided by the processor 11 and the display device 16 into different areas on the screen of the display device 16 of the information terminal 10, and Are displayed in opposite directions (different directions; upside down in the figure). Accordingly, when a conversation is performed in a state where the speaker and the listener are facing each other, the speaker can easily confirm the Japanese text T1, while the listener can easily confirm the English text T2. In addition, since the Japanese text T1 and the English text T2 are displayed separately, there is an advantage that both are clearly distinguished and can be visually recognized more easily.
話し手がその言語選択画面における英語のテキストT2の表示を聞き手に提示し、聞き手に「中国語」のボタンをタップしてもらうことにより、又は、聞き手が自ら、聞き手の言語である「中国語」を選択することができる。こうして聞き手の言語が選択されると、サーバ20のプロセッサ21及び情報端末10のプロセッサ11により、ホーム画面として、日本語と中国語の音声入力の待機画面が表示デバイス16に表示される(図3(B);ステップSJ2)。この音声入力待機画面には、日本語の音声入力を行うためのマイクを図案化した入力ボタン32a及び中国語の音声入力を行うためのマイクを図案化した入力ボタン32bが表示される。また、入力ボタン32a,32bよりも画面の縁側には、それぞれ、日本語を中国語に変換することを示す日本語のテキストT3、及び、中国語を日本語に変換することを示す中国語のテキストT4が表示される。さらに、入力ボタン32a,32bよりも画面の中央側には、それぞれ、マイクを図案化した入力ボタン32a,32bをタップして会話を始めることを促す日本語のテキストT5及び中国語のテキストT6が表示される。 The speaker presents the display of the English text T2 on the language selection screen to the listener and asks the listener to tap the “Chinese” button, or the listener himself “Chinese” which is the language of the listener Can be selected. When the listener's language is selected in this way, the processor 21 of the server 20 and the processor 11 of the information terminal 10 display a standby screen for voice input in Japanese and Chinese on the display device 16 as the home screen (FIG. 3). (B); Step SJ2). On this voice input standby screen, an input button 32a which is designed as a microphone for inputting Japanese speech and an input button 32b which is designed as a microphone for inputting Chinese speech are displayed. Further, on the edge side of the screen from the input buttons 32a and 32b, a Japanese text T3 indicating conversion of Japanese into Chinese and a Chinese text indicating conversion of Chinese into Japanese, respectively. Text T4 is displayed. Further, in the center of the screen from the input buttons 32a and 32b, there are a Japanese text T5 and a Chinese text T6 prompting to start a conversation by tapping the input buttons 32a and 32b each having a microphone. Is displayed.
またさらに、この音声入力待機画面には、ユーザが予め登録しておいたフレーズ群を表示させるための登録フレーズボタンB2、音声入力に代えてテキストで入力するためのテキスト入力ボタンB3、及び当該アプリケーションソフトの各種設定を行うための設定ボタンB4も表示される。 Furthermore, the voice input standby screen includes a registered phrase button B2 for displaying a group of phrases registered in advance by the user, a text input button B3 for inputting text instead of voice input, and the application. A setting button B4 for performing various software settings is also displayed.
次に、図3(B)に示す音声入力待機画面において、ユーザ(話し手)が日本語の入力ボタン32aをタップして日本語の音声入力を選択すると、ユーザの日本語による発話内容を受け付ける音声入力画面となる(図3(C))。この音声入力画面が表示されると、音声入出力デバイス13からの音声入力が可能な状態となる。また、この音声入力画面には、情報端末10のマイクに向かって音声入力を行うように促す日本語のテキストT6、相手が音声入力中であることを示す中国語のテキストT7、マイクを図案化した入力ボタン32a、及び、その入力ボタン32aを囲うような多重円形図案33が表示される。この多重円形図案33は、音声入力状態にあることを示し、声量の大小を模式的に且つ動的に表すように、声量に応じて表示される円部分の大きさが変化する。これにより、音声入力レベルがユーザへ視覚的にフィードバックされる。 Next, on the voice input standby screen shown in FIG. 3B, when the user (speaker) taps the Japanese input button 32a and selects Japanese voice input, the voice for accepting the user's Japanese utterance content. The input screen is displayed (FIG. 3C). When this voice input screen is displayed, voice input from the voice input / output device 13 is enabled. In addition, this voice input screen is designed with Japanese text T6 prompting voice input to the microphone of the information terminal 10, Chinese text T7 indicating that the other party is inputting voice, and a microphone. The input button 32a and the multiple circular design 33 surrounding the input button 32a are displayed. The multiple circular design 33 indicates that the voice input state is present, and the size of a circle portion to be displayed changes in accordance with the voice volume so as to schematically and dynamically represent the magnitude of the voice volume. Thereby, the voice input level is visually fed back to the user.
さらに、この音声入力画面にも、キャンセルボタンB1が表示され、これをタップすることにより、当該アプリケーションを終了するか、音声入力待機画面(図3(B))へ戻って音声入力をやり直すことができる。また、入力ボタン32aの近傍には、音声入力が終了した後に、後述の音声認識処理及び多言語翻訳処理を行うための日本語のテキストT8が表示される。 Further, a cancel button B1 is also displayed on this voice input screen, and when this is tapped, the application can be terminated, or the voice input standby screen (FIG. 3B) can be returned to perform voice input again. it can. Further, in the vicinity of the input button 32a, Japanese text T8 for performing later-described speech recognition processing and multilingual translation processing is displayed after the speech input is completed.
この状態で、話し手が聞き手への伝達事項等を発話する(ステップSU2)と、音声入出力デバイス13を通して音声入力が行われる(ステップSJ3)。情報端末10のプロセッサ11は、その音声入力に基づいて音声信号を生成し、その音声信号を通信インターフェイス14及びネットワークNを通してサーバ20へ送信する。このとおり、情報端末10自体、又はプロセッサ11及び音声入出力デバイス13が「入力部」として機能する。 In this state, when the speaker speaks a matter to be transmitted to the listener (step SU2), voice input is performed through the voice input / output device 13 (step SJ3). The processor 11 of the information terminal 10 generates an audio signal based on the audio input, and transmits the audio signal to the server 20 through the communication interface 14 and the network N. As described above, the information terminal 10 itself, or the processor 11 and the voice input / output device 13 function as an “input unit”.
それから、発話が終了して日本語のテキストT8がタップ(タッチ)されると、プロセッサ11は、発話内容の受け付けを終了する。情報端末10のプロセッサ11は、その音声入力に基づいて音声信号を生成し、その音声信号を通信インターフェイス14及びネットワークNを通してサーバ20へ送信する。 Then, when the utterance is finished and the Japanese text T8 is tapped (touched), the processor 11 finishes accepting the utterance content. The processor 11 of the information terminal 10 generates an audio signal based on the audio input, and transmits the audio signal to the server 20 through the communication interface 14 and the network N.
次に、サーバ20のプロセッサ21は、通信インターフェイス22を通してその音声信号を受信し、音声認識処理を行う(ステップSJ4)。このとき、プロセッサ21は、記憶資源23から、必要なモジュールL20、データベースD20、及びモデルM20(音声認識モジュール、日本語音声コーパス、音響モデル、言語モデル等)を呼び出し、入力音声の「音」を「読み」(文字)へ変換する。このとおり、プロセッサ21は、「翻訳部」としても機能し、サーバ20は、全体として「音声認識サーバ」としても機能する。また、プロセッサ21は、認識された内容を、音声入力の履歴データとして、記憶資源23(記憶部)に(必要に応じて適宜のデータベースに)記憶する。 Next, the processor 21 of the server 20 receives the voice signal through the communication interface 22 and performs voice recognition processing (step SJ4). At this time, the processor 21 calls the necessary module L20, database D20, and model M20 (speech recognition module, Japanese speech corpus, acoustic model, language model, etc.) from the storage resource 23, and obtains “sound” of the input speech. Convert to "reading" (character). As described above, the processor 21 also functions as a “translation unit”, and the server 20 also functions as a “voice recognition server” as a whole. In addition, the processor 21 stores the recognized content in the storage resource 23 (storage unit) (in an appropriate database as necessary) as voice input history data.
続いて、プロセッサ21は、認識された音声の「読み」(文字)を複数の他言語に翻訳する多言語翻訳処理へ移行する(ステップSJ5)。ここでは、聞き手の言語として中国語が選択されているので、プロセッサ21は、記憶資源23から、必要なモジュールL20及びデータベースD20(翻訳モジュール、日本語文字コーパス、日本語辞書、中国語辞書、日本語/中国語対訳辞書、日本語/中国語対訳コーパス等)を呼び出し、認識結果である入力音声の「読み」(文字列)を適切に並び替えて日本語の句、節、文等へ変換し、その変換結果に対応する中国語を抽出し、それらを中国語の文法に従って並び替えて自然な中国語の句、節、文等へと変換する。このとおり、プロセッサ21は、入力音声の内容を第1言語(日本語)とは異なる第2言語(中国語)の内容に翻訳する「翻訳部」としても機能し、サーバ20は、全体として「翻訳サーバ」としても機能する。なお、入力音声が正確に認識されなかった場合には、音声の再入力を行うことができる(図示省略)。また、プロセッサ21は、それらの日本語及び中国語の句、節、文等を、記憶資源23に記憶しておくこともできる。 Subsequently, the processor 21 proceeds to multilingual translation processing for translating the recognized “reading” (characters) of the recognized speech into a plurality of other languages (step SJ5). Here, since Chinese is selected as the language of the listener, the processor 21 sends the necessary module L20 and database D20 (translation module, Japanese character corpus, Japanese dictionary, Chinese dictionary, Japan) from the storage resource 23. Japanese / Chinese bilingual dictionary, Japanese / Chinese bilingual corpus, etc.), and the input speech “reading” (character string) as the recognition result is appropriately sorted and converted to Japanese phrases, clauses, sentences, etc. Then, the Chinese corresponding to the conversion result is extracted, rearranged according to the Chinese grammar, and converted into natural Chinese phrases, clauses, sentences, and the like. As described above, the processor 21 also functions as a “translation unit” that translates the content of the input speech into the content of the second language (Chinese) different from the first language (Japanese). It also functions as a “translation server”. If the input voice is not correctly recognized, the voice can be re-input (not shown). Further, the processor 21 can also store those Japanese and Chinese phrases, clauses, sentences, and the like in the storage resource 23.
また、この翻訳処理中に、情報端末10のプロセッサ11は、図3(D)に示す翻訳処理中画面を表示する。この翻訳処理中画面には、翻訳処理中であることを示す日本語のテキストT9及び中国語のテキストT10、並びに、翻訳処理中であることを表すための円弧の一部が回動するように表示される環状図案34も表示される。さらに、この翻訳処理中画面にも、キャンセルボタンB1が表示され、これをタップすることにより、当該アプリケーションを終了するか、音声入力待機画面(図3(B))へ戻って音声入力をやり直すことができる。 Further, during the translation process, the processor 11 of the information terminal 10 displays a translation process in progress screen shown in FIG. In this translation processing in progress screen, Japanese text T9 and Chinese text T10 indicating that translation processing is in progress, and a part of an arc for indicating that translation processing is in progress rotate. The displayed circular design 34 is also displayed. Furthermore, the cancel button B1 is also displayed on this translation processing screen, and when this is tapped, the application is terminated, or the voice input standby screen (FIG. 3B) is returned to perform voice input again. Can do.
次に、多言語翻訳処理が完了すると、プロセッサ21は、音声合成処理へ移行する(ステップSJ6)。このとき、プロセッサ21は、記憶資源23から、必要なモジュールL20、データベースD20、及びモデルM20(音声合成モジュール、中国語音声コーパス、音響モデル、言語モデル等)を呼び出し、翻訳結果である中国語の句、節、文等を自然な音声に変換する。このとおり、プロセッサ21は、「音声合成部」としても機能し、サーバ20は、全体として「音声合成サーバ」としても機能する。 Next, when the multilingual translation processing is completed, the processor 21 proceeds to speech synthesis processing (step SJ6). At this time, the processor 21 calls the necessary module L20, database D20, and model M20 (speech synthesis module, Chinese speech corpus, acoustic model, language model, etc.) from the storage resource 23, and the translation result of Chinese. Convert phrases, clauses, sentences, etc. to natural speech. As described above, the processor 21 also functions as a “speech synthesis unit”, and the server 20 also functions as a “speech synthesis server” as a whole.
次いで、プロセッサ21は、中国語による翻訳結果(対応する中国語の会話コーパスでもよい)に基づいてテキスト表示用のテキスト信号を生成し、情報端末10へ送信する。そのテキスト信号を受信したプロセッサ11は、音声認識した入力音声の内容を示す日本語のテキストT11と、その中国語による翻訳結果(対訳)のテキストT12を、図4(A)に示す翻訳結果表示画面に表示する。 Next, the processor 21 generates a text signal for text display based on the translation result in Chinese (or a corresponding Chinese conversation corpus), and transmits the text signal to the information terminal 10. The processor 11 which has received the text signal displays the Japanese text T11 indicating the content of the input speech that has been speech-recognized, and the translation result (translation) text T12 in Chinese as a translation result display shown in FIG. Display on the screen.
また、この翻訳結果表示画面には、図3(B)のホーム画面にも表示されたマイクを図案化した日本語の入力ボタン32a及び中国語の入力ボタン32bが表示され、それらの近傍には、それぞれ、日本語及び中国語であることを示すテキストT13,T14が表示される。 In addition, on this translation result display screen, a Japanese input button 32a and a Chinese input button 32b, which are designed microphones also displayed on the home screen of FIG. 3B, are displayed, and in the vicinity thereof. , Texts T13 and T14 indicating Japanese and Chinese, respectively, are displayed.
さらに、プロセッサ21は、合成された音声に基づいて音声出力用の音声信号を生成し、情報端末10へ送信する。その音声信号を受信したプロセッサ11は、テキストT13,T14の表示とともに、音声入出力デバイス13(出力部)を用いて、中国語のテキストT12の内容の音声を出力する(読み上げる)(ステップSJ7)。 Furthermore, the processor 21 generates a voice signal for voice output based on the synthesized voice, and transmits the voice signal to the information terminal 10. The processor 11 that has received the speech signal outputs (reads out) the speech of the content of the Chinese text T12 using the speech input / output device 13 (output unit) together with the display of the texts T13 and T14 (step SJ7). .
さらに、テキストT11の近傍には、音声入力に代えてテキストで入力するためのテキスト入力ボタンB5が表示され、画面下部には、図3(B)のホーム画面へ戻るためのチェックボタンB6、及び、翻訳結果の誤りを報告するための誤訳通知ボタンB7が表示される。またさらに、この翻訳結果表示画面には、ユーザ(話し手と聞き手)の感情を表現するための感情文字又は感情記号(以下まとめて「感情文字」という)を表示させるための表示ボタンB8も表示される。 Further, a text input button B5 for inputting text instead of voice input is displayed near the text T11, and a check button B6 for returning to the home screen in FIG. Then, a mistranslation notification button B7 for reporting an error in the translation result is displayed. Furthermore, a display button B8 for displaying emotion characters or emotion symbols (hereinafter collectively referred to as “emotional characters”) for expressing the emotions of the users (speakers and listeners) is also displayed on this translation result display screen. The
ここで、テキスト入力ボタンB5をタップすると、図4(B)に示すテキスト入力画面が表示される。このテキスト入力画面には、図4(A)に表示された日本語のテキストT11が淡いグレースケールで表示される。日本語のキーボードKからテキスト入力を開始すると、テキストT11が消去され、その場所に新たに入力されたテキストの内容が表示される。また、テキスト入力画面の上部には、入力したテキストをキャンセルして消去するための消去ボタンB9が表示され、キーボードKの直上には、入力したテキストを翻訳するための翻訳ボタンB10が表示される。この翻訳ボタンB10がタップされると、先述の翻訳処理と音声合成処理が行われ、図4(A)に示す翻訳結果表示画面と同様の画面が表示される。 Here, when the text input button B5 is tapped, a text input screen shown in FIG. 4B is displayed. On this text input screen, the Japanese text T11 displayed in FIG. 4A is displayed in a light gray scale. When text input is started from the Japanese keyboard K, the text T11 is erased and the content of the newly input text is displayed at that location. Further, an erase button B9 for canceling and erasing the input text is displayed at the top of the text input screen, and a translation button B10 for translating the input text is displayed immediately above the keyboard K. . When this translation button B10 is tapped, the above translation process and speech synthesis process are performed, and a screen similar to the translation result display screen shown in FIG. 4A is displayed.
その後、聞き手が回答する場合、図4(A)の翻訳結果表示画面に表示された中国語の入力ボタン32bをタップして中国語の音声入力を選択すると、聞き手の中国語による発話内容を受け付ける音声入力画面となる(図4(C))。この音声入力画面が表示されると、図3(C)に示す音声入力画面と同様に、音声入出力デバイス13からの音声入力が可能な状態となる。また、この音声入力画面には、情報端末10のマイクに向かって音声入力を行うように促す中国語のテキストT15、相手が音声入力中であることを示す日本語のテキストT16、マイクを図案化した入力ボタン32b、及び、その入力ボタン32bを囲うような多重円形図案33が表示される。 Thereafter, when the listener answers, when the Chinese input button 32b displayed on the translation result display screen of FIG. 4A is tapped and the Chinese voice input is selected, the utterance content in the listener's Chinese is accepted. The voice input screen is displayed (FIG. 4C). When this voice input screen is displayed, a voice input from the voice input / output device 13 is possible as in the voice input screen shown in FIG. In addition, this voice input screen is designed with a Chinese text T15 that prompts the user to input voice into the microphone of the information terminal 10, a Japanese text T16 indicating that the other party is inputting voice, and a microphone. The input button 32b and the multiple circular design 33 surrounding the input button 32b are displayed.
さらに、この音声入力画面にも、キャンセルボタンB1が表示され、これをタップすることにより、当該アプリケーションを終了するか、音声入力待機画面(図3(B))へ戻って音声入力をやり直すことができる。また、入力ボタン32bの近傍には、音声入力が終了した後に、後述の音声認識処理及び多言語翻訳処理を行うための中国語のテキストT17が表示される。 Further, a cancel button B1 is also displayed on this voice input screen, and when this is tapped, the application can be terminated, or the voice input standby screen (FIG. 3B) can be returned to perform voice input again. it can. Further, in the vicinity of the input button 32b, Chinese text T17 for performing speech recognition processing and multilingual translation processing described later is displayed after the speech input is completed.
この状態で、聞き手が話し手への回答事項等を発話する(ステップSU2)と、音声入出力デバイス13を通して音声入力が行われる(ステップSJ3)。情報端末10のプロセッサ11は、その音声入力に基づいて音声信号を生成し、その音声信号を通信インターフェイス14及びネットワークNを通してサーバ20へ送信する。それから、発話が終了して中国語のテキストT14がタップ(タッチ)されると、プロセッサ11は、発話内容の受け付けを終了する。情報端末10のプロセッサ11は、その音声入力に基づいて音声信号を生成し、その音声信号を通信インターフェイス14及びネットワークNを通してサーバ20へ送信する。 In this state, when the listener speaks an answer item to the speaker (step SU2), voice input is performed through the voice input / output device 13 (step SJ3). The processor 11 of the information terminal 10 generates an audio signal based on the audio input, and transmits the audio signal to the server 20 through the communication interface 14 and the network N. Then, when the utterance is finished and the Chinese text T14 is tapped (touched), the processor 11 finishes accepting the utterance content. The processor 11 of the information terminal 10 generates an audio signal based on the audio input, and transmits the audio signal to the server 20 through the communication interface 14 and the network N.
次に、サーバ20のプロセッサ21は、通信インターフェイス22を通してその音声信号を受信し、音声認識処理を行う(ステップSJ4)。このとき、プロセッサ21は、記憶資源23から、必要なモジュールL20、データベースD20、及びモデルM20(音声認識モジュール、中国語音声コーパス、音響モデル、言語モデル等)を呼び出し、入力音声の「音」を「読み」(文字)へ変換する。また、プロセッサ21は、認識された内容を、音声入力の履歴データとして、記憶資源23に(必要に応じて適宜のデータベースに)記憶する。 Next, the processor 21 of the server 20 receives the voice signal through the communication interface 22 and performs voice recognition processing (step SJ4). At this time, the processor 21 calls the necessary module L20, database D20, and model M20 (speech recognition module, Chinese speech corpus, acoustic model, language model, etc.) from the storage resource 23, and obtains the “sound” of the input speech. Convert to "reading" (character). In addition, the processor 21 stores the recognized content in the storage resource 23 (in an appropriate database as necessary) as voice input history data.
続いて、プロセッサ21は、認識された音声の「読み」(文字)を複数の他言語に翻訳する多言語翻訳処理へ移行する(ステップSJ5)。プロセッサ21は、記憶資源23から、必要なモジュールL20及びデータベースD20(翻訳モジュール、中国語文字コーパス、中国語辞書、日本語辞書、中国語/日本語対訳辞書、中国語/日本語対訳コーパス等)を呼び出し、認識結果である入力音声の「読み」(文字列)を適切に並び替えて中国語の句、節、文等へ変換し、その変換結果に対応する日本語を抽出し、それらを日本語の文法に従って並び替えて自然な日本語の句、節、文等へと変換する。なお、入力音声が正確に認識されなかった場合には、音声の再入力を行うことができる(図示省略)。また、プロセッサ21は、それらの中国御及び日本語の句、節、文等を、記憶資源23に記憶しておくこともできる。 Subsequently, the processor 21 proceeds to multilingual translation processing for translating the recognized “reading” (characters) of the recognized speech into a plurality of other languages (step SJ5). The processor 21 receives the necessary module L20 and database D20 from the storage resource 23 (translation module, Chinese character corpus, Chinese dictionary, Japanese dictionary, Chinese / Japanese bilingual dictionary, Chinese / Japanese bilingual corpus, etc.) , And appropriately sort the “reading” (character string) of the input speech that is the recognition result to convert it into Chinese phrases, clauses, sentences, etc., extract the Japanese corresponding to the conversion result, and extract them Rearrange according to Japanese grammar and convert to natural Japanese phrases, clauses, sentences, etc. If the input voice is not correctly recognized, the voice can be re-input (not shown). Further, the processor 21 can also store those Chinese and Japanese phrases, clauses, sentences and the like in the storage resource 23.
また、この翻訳処理中に、情報端末10のプロセッサ11は、図4(D)に示す翻訳処理中画面を表示する。この翻訳処理中画面には、翻訳処理中であることを示す日本語のテキストT9及び中国語のテキストT10、並びに、翻訳処理中であることを表すため円弧の一部が回動するように表示される環状図案34も表示される。さらに、この翻訳処理中画面にも、キャンセルボタンB1が表示され、これをタップすることにより、当該アプリケーションを終了するか、音声入力待機画面(図3(B))へ戻って音声入力をやり直すことができる。 Further, during the translation process, the processor 11 of the information terminal 10 displays a translation process in progress screen shown in FIG. On this translation processing screen, Japanese text T9 and Chinese text T10 indicating that translation processing is in progress, and a part of an arc that rotates to indicate that translation processing is in progress are displayed. An annular design 34 is also displayed. Furthermore, the cancel button B1 is also displayed on this translation processing screen, and when this is tapped, the application is terminated, or the voice input standby screen (FIG. 3B) is returned to perform voice input again. Can do.
次に、多言語翻訳処理が完了すると、プロセッサ21は、音声合成処理へ移行する(ステップSJ6)。このとき、プロセッサ21は、記憶資源23から、必要なモジュールL20、データベースD20、及びモデルM20(音声合成モジュール、日本語音声コーパス、音響モデル、言語モデル等)を呼び出し、翻訳結果である日本語の句、節、文等を自然な音声に変換する。 Next, when the multilingual translation processing is completed, the processor 21 proceeds to speech synthesis processing (step SJ6). At this time, the processor 21 calls the necessary module L20, database D20, and model M20 (speech synthesis module, Japanese speech corpus, acoustic model, language model, etc.) from the storage resource 23, and translates the Japanese translation result. Convert phrases, clauses, sentences, etc. to natural speech.
次いで、プロセッサ21は、日本語による翻訳結果(対応する日本語の会話コーパスでもよい)に基づいてテキスト表示用のテキスト信号を生成し、情報端末10へ送信する。そのテキスト信号を受信したプロセッサ11は、音声認識した入力音声の内容を示す中国語のテキストと、その日本語による翻訳結果(対訳)のテキストを、図4(A)に示す翻訳結果表示画面と同様に表示する。 Next, the processor 21 generates a text signal for text display based on the translation result in Japanese (or a corresponding Japanese conversation corpus), and transmits the text signal to the information terminal 10. The processor 11 that has received the text signal converts the Chinese text indicating the content of the input speech that has been voice-recognized and the text of the translation result (translation) in Japanese into the translation result display screen shown in FIG. Display in the same way.
(ユーザの感情を考慮した音声翻訳による会話)
次に、ユーザ同士(話し手と聞き手)の会話及び/又は会話準備において、ユーザが自分の感情を表現するための感情文字又は感情記号を選択し、その感情を考慮して音声翻訳を行う場合の処理操作及び動作の一例について、以下に説明する。図5は、音声翻訳装置100における処理の流れ(の一部)の一例を示すフローチャートである。また、図6(A)及び(B)は、情報端末における表示画面の遷移の一例を示す平面図である。なお、本実施形態においては、一方の話者の言語が日本語であり、他方の話者の言語が英語である場合の会話を想定する(但し、言語やシチュエーションはこれに限定されない)。
(Conversation by speech translation considering user's emotions)
Next, in the case of conversation between users (speaker and listener) and / or conversation preparation, the user selects an emotion character or emotion symbol for expressing his / her emotion and performs speech translation in consideration of the emotion An example of processing operations and operations will be described below. FIG. 5 is a flowchart showing an example of (part of) the processing flow in the speech translation apparatus 100. 6A and 6B are plan views showing an example of display screen transition in the information terminal. In the present embodiment, a conversation is assumed when the language of one speaker is Japanese and the language of the other speaker is English (however, the language and situation are not limited to this).
ここでの処理手順は、図2に示す多言語翻訳(ステップSJ5)と音声合成(ステップSJ6)の間に、感情文字の選択(ステップSU3)、及び、その選択された感情文字で表現されるユーザの感情を考慮した多言語翻訳、つまり入力音声の内容と感情文字に基づく多言語翻訳(ステップSJ50)を実施すること以外は、図2に示す「通常の音声翻訳による会話」における処理手順と同様である。 The processing procedure here is expressed by selecting an emotion character (step SU3) and the selected emotion character between the multilingual translation (step SJ5) and the speech synthesis (step SJ6) shown in FIG. Except for performing multilingual translation in consideration of the user's emotions, that is, multilingual translation based on the contents of the input speech and emotion characters (step SJ50), the processing procedure in “conversation by normal speech translation” shown in FIG. It is the same.
すなわち、ユーザ(話し手)が当該アプリケーションを起動して(ステップSU1)、ユーザ(聞き手)の言語を選択するための言語選択画面を表示し(図3(A);ステップSJ1)、さらに、聞き手の言語を選択して日本語と英語の音声入力待機画面を表示デバイス16に表示する(図3(B)と同様;ステップSJ2)。それから、話し手が日本語の入力ボタン32aをタップして聞き手への伝達事項等を発話して(ステップSU2)、音声入力を行い(ステップSJ3)、入力された音声の音声認識処理を実施した後(ステップSJ4)、一旦、多言語翻訳処理を実行する(ステップSJ5)。 That is, the user (speaker) activates the application (step SU1), and displays a language selection screen for selecting the user (listener) language (FIG. 3A; step SJ1). A language is selected and a voice input standby screen in Japanese and English is displayed on the display device 16 (similar to FIG. 3B; step SJ2). Then, after the speaker taps the Japanese input button 32a to utter a matter to be transmitted to the listener (step SU2), performs speech input (step SJ3), and performs speech recognition processing of the input speech (Step SJ4) Once, multilingual translation processing is executed (Step SJ5).
ここで、一例として、図4(A)に示すフレーズと異なり、聞き手が「君は本当に馬鹿だな」というフレーズを発話した場合の英語への翻訳結果を図6(A)に示す。図6(A)は、図4(A)と同様の翻訳結果表示画面であり、音声認識した入力音声の内容を示す日本語のテキストT18と、その英語による翻訳結果(対訳)のテキストT19が表示される。また、この翻訳結果表示画面におけるその他の各種ボタンB5,B6,B7,B8は、図4(A)における翻訳結果表示画面に表示されるものと同じである。 Here, as an example, unlike the phrase shown in FIG. 4 (A), FIG. 6 (A) shows the result of translation into English when the listener speaks the phrase “You are really stupid”. FIG. 6A is a translation result display screen similar to that in FIG. 4A. A Japanese text T18 indicating the content of the input speech that has been voice-recognized, and a text T19 of the translation result (translation) in English are shown. Is displayed. The other various buttons B5, B6, B7, and B8 on this translation result display screen are the same as those displayed on the translation result display screen in FIG.
この際、図6(A)における翻訳結果表示画面に表示された日本語のテキストT18としては、発話された内容である「君は本当に馬鹿だな」と表示され、その英語による翻訳結果のテキストT19には、その本来のフレーズどおりの意味である例えば「You are so stupid.」と表示される。ところで、話し手は、聞き手への親しみを込めて、敢えて失礼な言い方として「君は本当に馬鹿だな」という表現を用いる場合があり得るが、この場合に、その本来のフレーズどおりの意味である「You are so stupid.」と翻訳してしまうと、話し手の真意や本音が聞き手に伝わらないばかりか、誤解を招いてコミュニケーションを阻害してしまうおそれがある。 At this time, as the Japanese text T18 displayed on the translation result display screen in FIG. 6A, the spoken content “You are really stupid” is displayed, and the translation result text in English In T19, for example, “You are so stubid.” Is displayed as the original phrase. By the way, the speaker may use the expression “you are really stupid” as a way of saying something rude, with the familiarity of the listener. If translated as “You are so stubid.”, The true intention and true intention of the speaker may not be transmitted to the listener, and communication may be hindered by misunderstanding.
そこで、かかる場合に、話し手は、図6(A)に示す翻訳結果表示画面に表示されているユーザの感情を表現する感情文字を表示させるための表示ボタンB8をタップして、図6(B)に示す感情文字入出力画面を表示させることができる。表示ボタンB8がタップされると、プロセッサ11,21は、感情文字入出力画面の下部に、感情文字キーボードEを表示し、各種ジャンルの絵文字、顔文字、アスキーアート等(ここでは、絵文字のみ表示)を、ユーザ(話し手)が適宜選択できるような一覧表示によって提示する。このとおり、プロセッサ11,21が、「提示部」として機能する。ユーザ(話し手)は、各種ジャンルのタブをタップする等して一覧表示を切り替え、所望の感情文字をタップして選択入力することができる。例えば、話し手が、親しみを込める意味で、ハート型の目を有する顔マークE1を選択すると、感情文字キーボードEの上方に、入力音声の認識内容である日本語のテキストT18(「君は本当に馬鹿だな」)とともに、その選択された顔マークE1が表示される。 Therefore, in such a case, the speaker taps the display button B8 for displaying the emotion character expressing the user's emotion displayed on the translation result display screen shown in FIG. ) Can be displayed. When the display button B8 is tapped, the processors 11 and 21 display the emotion character keyboard E at the bottom of the emotion character input / output screen, and display pictograms, emoticons, ASCII art, etc. of various genres (here, only the pictograms are displayed). Are presented in a list display that the user (speaker) can select as appropriate. As described above, the processors 11 and 21 function as a “presentation unit”. The user (speaker) can switch the list display by tapping tabs of various genres, and can select and input desired emotion characters. For example, when the speaker selects the face mark E1 having a heart-shaped eye in a sense that the speaker is familiar, the Japanese text T18 that is the recognition content of the input voice is displayed above the emotion character keyboard E (“You are really idiot. And the selected face mark E1 is displayed.
ここで、サーバ20の記憶資源23には、複数の所定の日本語のフレーズの各々と感情文字との組み合わせが保存(記憶)されており、さらに、それらの各フレーズと感情文字の組み合わせについて、対応する英語による内容が関連付けられて記憶されている。 Here, the storage resource 23 of the server 20 stores (stores) a combination of each of a plurality of predetermined Japanese phrases and emotion characters, and further, for each of the combinations of these phrases and emotion characters, Corresponding English content is associated and stored.
本実施形態の例では、例えば、「ばか・だ」というフレーズについて、図6(B)に示す顔マークE1、及び、その顔マークE1と同種のハート型図形が含まれている顔マークや、笑っている系の顔マークとの各種組み合わせに対して、「バカ・だ」という本来の意味の「stupid」とはほぼ反対の意味を有する「cute」や「lovely」等といった訳文を記憶しておく。一方、「ばか・だ」というフレーズについて、図6(B)に示す顔マークE1の如く、しかめ面や泣いている表情の顔マーク、及び、怒っている表情の顔マークとの各種組み合わせに対しては、「バカ・だ」という本来の意味の「stupid」や「silly」といった訳文を記憶しておく。 In the example of the present embodiment, for example, with respect to the phrase “fool / da”, the face mark E1 shown in FIG. 6B and a face mark including a heart-shaped figure of the same type as the face mark E1, For various combinations with laughing face marks, memorize translations such as “cute” and “lovely” that have the opposite meaning of “stupid” which is the original meaning of “stupid” deep. On the other hand, with respect to the phrase “baka-da”, various combinations of frown face, crying facial expression mark, and angry facial expression facial mark E1, as shown in FIG. For example, the original meaning of “stupid” or “silly” is stored.
そして、サーバ20のプロセッサ21は、感情文字キーボードEから感情文字が入力された場合(ステップSU3)、入力された音声を解析して認識されるその音声の内容に含まれるフレーズ(「馬鹿・だ」)と該感情文字の組み合わせが記憶資源23に記憶されているか否かを判定する。上記の例では、話し手が、「君は本当に馬鹿だな」という音声入力とともに、顔マークE1を選択して入力すると、プロセッサ21は、その音声に含まれるフレーズの組み合わせの一つである「馬鹿・だ」と顔マークE1の組み合わせが記憶資源に23に予め記憶されていると判定する。この場合、プロセッサ21は、「馬鹿・だ」と顔マークE1の組み合わせに関連付けて記憶されていた「cute」又は「lovely」が、話し手が意図している訳語であるとして、その英語フレーズを用い、「君は本当に馬鹿だな」という音声入力の内容を、図6(B)の英語のテキストT20に示す如く「You are so cute!」と翻訳する(ステップSJ50)。 Then, when an emotion character is input from the emotion character keyboard E (step SU3), the processor 21 of the server 20 analyzes the input speech and recognizes the phrase (“idiot / da” included in the content of the speech recognized. It is determined whether or not the combination of “)” and the emotional character is stored in the storage resource 23. In the above example, when the speaker selects and inputs the face mark E1 together with the voice input “You are really stupid”, the processor 21 is one of the combinations of phrases included in the voice “Idiot” It is determined that the combination of the face mark E1 is stored in the storage resource 23 in advance. In this case, the processor 21 uses the English phrase, assuming that “cut” or “lovely” stored in association with the combination of “fool / da” and the face mark E1 is a translation intended by the speaker. The contents of the voice input “You are really stupid” are translated as “You are so cut!” As shown in the English text T20 in FIG. 6B (step SJ50).
次に、多言語翻訳処理が完了すると、プロセッサ21は、音声合成処理へ移行し(ステップSJ6)、記憶資源23から、必要なモジュールL20、データベースD20、及びモデルM20(音声合成モジュール、英語音声コーパス、音響モデル、言語モデル等)を呼び出し、翻訳結果である英語の句、節、文等を自然な音声に変換する。 Next, when the multilingual translation processing is completed, the processor 21 proceeds to speech synthesis processing (step SJ6), and from the storage resource 23, the necessary module L20, database D20, and model M20 (speech synthesis module, English speech corpus). , Acoustic model, language model, etc.) and translate English phrases, clauses, sentences, etc., which are the translation results, into natural speech.
それから、プロセッサ21は、英語による翻訳結果(対応する英語の会話コーパスでもよい)に基づいてテキスト表示用のテキスト信号を生成し、プロセッサ11へ送信する。そのテキスト信号を受信したプロセッサ11は、図6(B)に示す感情文字入出力画面において、音声認識した入力音声の内容を示す日本語のテキストT18及び顔マークE1とともに、その英語による翻訳結果(対訳)のテキストT20を表示する。この場合、英語のテキストT20の近傍にも、話し手が選択した顔マークE1を表示してもよい。 Then, the processor 21 generates a text signal for text display based on the translation result in English (or a corresponding English conversation corpus), and transmits the text signal to the processor 11. The processor 11 that has received the text signal, along with the Japanese text T18 and the face mark E1 indicating the content of the input speech that has been voice-recognized on the emotion character input / output screen shown in FIG. (Translation) text T20 is displayed. In this case, the face mark E1 selected by the speaker may be displayed near the English text T20.
以上のように構成された音声翻訳装置100及びそれを用いた音声翻訳方法並びに音声翻訳プログラムによれば、ユーザ(話し手又は聞き手)による音声の入力とともに、そのユーザの感情を表現するための顔マークE1のような感情文字を選択し、認識された入力音声の内容だけでなく、それとともに選択された感情文字に基づいて、認識された音声の内容を異なる言語の内容に翻訳して出力する。すなわち、ユーザの感情を考慮した翻訳処理を実行することにより、話し手の真意や本音を聞き手に伝えることができ、その結果、ユーザ同士(話し手と聞き手)のコミュニケーションの向上を図ることが可能となる。 According to the speech translation apparatus 100 configured as described above, the speech translation method using the speech translation device, and the speech translation program, the face mark for expressing the user's emotions together with the speech input by the user (speaker or listener) An emotion character such as E1 is selected, and the recognized speech content is translated into a different language content based on the emotion character selected together with the recognized input speech content and output. That is, by executing the translation process in consideration of the user's emotions, it is possible to convey the speaker's real intention and true intention to the listener, and as a result, it becomes possible to improve communication between the users (speaker and listener). .
また、所定のフレーズと感情文字との組み合わせと、その組み合わせのそれぞれに対する異なる言語の内容とを関連付けて、予め記憶資源23に記憶しておき、入力音声にその所定のフレーズが含まれ且つ感情文字が選択された場合に、記憶資源23にその組み合わせが含まれているか判定し、その組み合わせが記憶されているときに、その組み合わせに関連付けて記憶されている異なる言語の内容を用いて翻訳を行うので、翻訳処理の速度を向上させることができる。 In addition, a combination of a predetermined phrase and an emotion character and the content of a different language for each of the combinations are associated with each other and stored in advance in the storage resource 23, and the input speech includes the predetermined phrase and the emotion character. Is selected, it is determined whether or not the combination is included in the storage resource 23. When the combination is stored, translation is performed using the contents of different languages stored in association with the combination. Therefore, the speed of translation processing can be improved.
なお、上述したとおり、上記の各実施形態は、本発明を説明するための一例であり、本発明をその実施形態に限定する趣旨ではない。また、本発明は、その要旨を逸脱しない限り、様々な変形が可能である。例えば、当業者であれば、実施形態で述べたリソース(ハードウェア資源又はソフトウェア資源)を均等物に置換することが可能であり、そのような置換も本発明の範囲に含まれる。 Note that, as described above, each of the above embodiments is an example for explaining the present invention, and is not intended to limit the present invention to the embodiment. The present invention can be variously modified without departing from the gist thereof. For example, those skilled in the art can replace the resources (hardware resources or software resources) described in the embodiments with equivalents, and such replacements are also included in the scope of the present invention.
また、所定のフレーズと感情文字との組み合わせと、その組み合わせのそれぞれに対する異なる言語の内容とを関連付けて記憶資源23に記憶させておいた上で、以下の処理を実施してもよい。すなわち、入力音声に含まれるフレーズ(上記の例では、「馬鹿・だ」)が、記憶された所定のフレーズに含まれるときに、その所定のフレーズと感情文字(上記の例では、顔マークE1,E2等)との組み合わせの一覧を、ユーザが選択可能なように表示し、ユーザによって選択された組み合わせに関連付けて記憶されている異なる言語の内容を用いて、翻訳処理を行ってもよい。 Further, the following processing may be performed after the combination of a predetermined phrase and emotion character and the contents of different languages corresponding to each combination are stored in the storage resource 23 in association with each other. That is, when a phrase included in the input speech (in the above example, “idiot / da”) is included in the stored predetermined phrase, the predetermined phrase and emotion character (in the above example, the face mark E1). , E2, etc.) may be displayed so that the user can select them, and translation processing may be performed using the contents of different languages stored in association with the combinations selected by the user.
また、音声認識、翻訳、音声合成等の各処理をサーバ20によって実行する例について記載したが、これらの処理を情報端末10において実行するように構成してもよい。この場合、それらの処理に用いるモジュールL20は、情報端末10の記憶資源12に保存されていてもよいし、サーバ20の記憶資源23に保存されていてもよい。さらに、音声データベースであるデータベースD20、及び/又は、音響モデル等のモデルM20も、情報端末10の記憶資源12に保存されていてもよいし、サーバ20の記憶資源23に保存されていてもよい。このとおり、音声翻訳装置は、ネットワークN及びサーバ20を備えなくてもよい。 Moreover, although the example which performs each process, such as speech recognition, translation, speech synthesis, by server 20, was described, you may comprise so that these processes may be performed in the information terminal 10. FIG. In this case, the module L20 used for these processes may be stored in the storage resource 12 of the information terminal 10 or may be stored in the storage resource 23 of the server 20. Furthermore, the database D20 that is a voice database and / or a model M20 such as an acoustic model may be stored in the storage resource 12 of the information terminal 10 or may be stored in the storage resource 23 of the server 20. . As described above, the speech translation apparatus may not include the network N and the server 20.
また、情報端末10とネットワークNとの間には、両者間の通信プロトコルを変換するゲートウェイサーバ等が介在してももちろんよい。また、情報端末10は、携帯型装置に限らず、例えば、デスクトップ型パソコン、ノート型パソコン、タブレット型パソコン、ラップトップ型パソコン等でもよい。 Of course, a gateway server for converting a communication protocol between the information terminal 10 and the network N may be interposed. The information terminal 10 is not limited to a portable device, and may be a desktop personal computer, a notebook personal computer, a tablet personal computer, a laptop personal computer, or the like.
本発明によれば、ユーザの感情を考慮した翻訳処理を実行することにより、話し手の真意や本音を聞き手に伝えることができ、その結果、ユーザ同士(話し手と聞き手)のコミュニケーションの向上を図ることができるので、例えば、互いの言語を理解できない人同士の会話に関するサービスの提供分野における、プログラム、装置、システム、及び方法の設計、製造、提供、販売等の活動に広く利用することができる。 According to the present invention, by executing the translation processing in consideration of the user's emotions, it is possible to convey the speaker's true intention and true intention to the listener, and as a result, the communication between the users (speaker and listener) is improved. Therefore, it can be widely used for activities such as design, manufacture, provision, and sales of programs, devices, systems, and methods in the field of providing services related to conversations between people who cannot understand each other's languages.
10…情報端末、11…プロセッサ、12…記憶資源、13…音声入出力デバイス、14…通信インターフェイス、15…入力デバイス、16…表示デバイス、17…カメラ、20…サーバ、21…プロセッサ、22…通信インターフェイス、23…記憶資源、31…言語ボタン、32a、32b…入力ボタン、33…多重円形図案、34…環状図案、100…音声翻訳装置、B1…キャンセルボタン、B2…登録フレーズボタン、B3…テキスト入力ボタン、B4…設定ボタン、B5…テキスト入力ボタン、B6…チェックボタン、B7…誤訳通知ボタン、B8…表示ボタン、B9…消去ボタン、B10…翻訳ボタン、D20…データベース、E…感情文字キーボード、E1,E2…顔マーク、K…キーボード、L20…モジュール、M20…モデル、N…ネットワーク、P10,P20…プログラム、SJ1〜SJ7,SJ50,SU1〜SU3…ステップ、T1〜T20…テキスト。 DESCRIPTION OF SYMBOLS 10 ... Information terminal, 11 ... Processor, 12 ... Storage resource, 13 ... Voice input / output device, 14 ... Communication interface, 15 ... Input device, 16 ... Display device, 17 ... Camera, 20 ... Server, 21 ... Processor, 22 ... Communication interface, 23 ... Memory resource, 31 ... Language button, 32a, 32b ... Input button, 33 ... Multiple circular design, 34 ... Circular design, 100 ... Speech translation device, B1 ... Cancel button, B2 ... Registered phrase button, B3 ... Text input button, B4 ... Setting button, B5 ... Text input button, B6 ... Check button, B7 ... Mistranslation notification button, B8 ... Display button, B9 ... Erase button, B10 ... Translation button, D20 ... Database, E ... Emotion character keyboard , E1, E2 ... face mark, K ... keyboard, L20 ... module, M2 ... model, N ... network, P10, P20 ... program, SJ1~SJ7, SJ50, SU1~SU3 ... step, T1~T20 ... text.
Claims (7)
前記入力された音声を認識する認識部と、
前記ユーザが前記音声を入力する前、入力している間、又は入力した後に、該ユーザの感情を表現するための感情文字又は感情記号を、該ユーザが選択可能なように提示する提示部と、
前記認識された音声の内容と前記選択された感情文字又は感情記号に基づいて、前記認識された音声の内容を異なる言語の内容に翻訳する翻訳部と、
前記異なる言語に翻訳された内容を、音声及び/又はテキストで出力する出力部と、
を備える音声翻訳装置。 An input unit for inputting the user's voice;
A recognition unit for recognizing the input voice;
A presentation unit for presenting emotion characters or emotion symbols for expressing the emotion of the user so that the user can select the user before, during or after inputting the voice; ,
A translating unit for translating the recognized speech content into different language content based on the recognized speech content and the selected emotion character or emotion symbol;
An output unit for outputting the content translated into the different languages in audio and / or text;
A speech translation apparatus comprising:
請求項1記載の音声翻訳装置。 The output unit displays a button for displaying the emotion character or the emotion symbol on a screen on which the recognition result of the input voice is displayed.
The speech translation apparatus according to claim 1.
請求項1又は2記載の音声翻訳装置。 The output unit displays the selected emotion character or emotion symbol on a screen on which content translated into the different language is displayed.
The speech translation apparatus according to claim 1 or 2.
前記翻訳部は、前記感情文字又は前記感情記号が入力されたときに、前記入力された音声に含まれるフレーズと該感情文字又は該感情記号との組み合わせが前記記憶部に記憶されているか否かを判定し、該組み合わせが記憶されているときに、該組み合わせに関連付けて記憶されている前記異なる言語の内容を用いて、前記翻訳を行う、
請求項1乃至3の何れか1項記載の音声翻訳装置。 A storage unit that stores a combination of a predetermined phrase and the emotion character or the emotion symbol and the content of the different language for each of the combinations;
Whether the translation unit stores a combination of a phrase included in the input speech and the emotion character or the emotion symbol in the storage unit when the emotion character or the emotion symbol is input And when the combination is stored, the translation is performed using the contents of the different languages stored in association with the combination.
The speech translation apparatus according to any one of claims 1 to 3.
前記出力部は、前記入力された音声に含まれるフレーズが、前記所定のフレーズに含まれるときに、該所定のフレーズと前記感情文字又は前記感情記号との組み合わせの一覧を、前記ユーザが選択可能なように表示し、
前記翻訳部は、前記選択された組み合わせに関連付けて記憶されている前記異なる言語の内容を用いて、前記翻訳を行う、
請求項1乃至3のいずれか1項記載の音声翻訳装置。 A storage unit that stores a combination of a predetermined phrase and the emotion character or the emotion symbol and the content of the different language for each of the combinations;
The output unit allows the user to select a list of combinations of the predetermined phrase and the emotion character or the emotion symbol when a phrase included in the input voice is included in the predetermined phrase Display
The translation unit performs the translation using the contents of the different languages stored in association with the selected combination.
The speech translation apparatus according to any one of claims 1 to 3.
前記入力部が、ユーザの音声を入力するステップと、
前記認識部が、前記入力された音声を認識するステップと、
前記提示部が、前記ユーザが前記音声を入力する前、入力している間、又は入力した後に、該ユーザの感情を表現するための感情文字又は感情記号を、該ユーザが選択可能なように提示するステップと、
前記翻訳部が、前記認識された音声の内容と前記選択された感情文字又は感情記号に基づいて、前記認識された音声の内容を異なる言語の内容に翻訳するステップと、
前記出力部が、前記異なる言語に翻訳された内容を、音声及び/又はテキストで出力するステップと、
を含む音声翻訳方法。 Using a speech translation device including an input unit, a recognition unit, a presentation unit, a translation unit, and an output unit,
The input unit inputs a user's voice;
The recognition unit recognizing the input voice;
The presenting unit is configured so that the user can select emotion characters or emotion symbols for expressing the user's emotions before, during or after the user inputs the voice. Presenting steps;
The translating unit translating the recognized speech content into different language content based on the recognized speech content and the selected emotion character or emotion symbol;
The output unit outputting the content translated into the different languages in voice and / or text;
Speech translation method including
ユーザの音声を入力するための入力部と、
前記入力された音声を認識する認識部と、
前記ユーザが前記音声を入力する前、入力している間、又は入力した後に、該ユーザの感情を表現するための感情文字又は感情記号を、該ユーザが選択可能なように提示する提示部と、
前記認識された音声の内容と前記選択された感情文字又は感情記号に基づいて、前記認識された音声の内容を異なる言語の内容に翻訳する翻訳部と、
前記異なる言語に翻訳された内容を、音声及び/又はテキストで出力する出力部と、
して機能させる音声翻訳プログラム。 Computer
An input unit for inputting the user's voice;
A recognition unit for recognizing the input voice;
A presentation unit for presenting emotion characters or emotion symbols for expressing the emotion of the user so that the user can select the user before, during or after inputting the voice; ,
A translating unit for translating the recognized speech content into different language content based on the recognized speech content and the selected emotion character or emotion symbol;
An output unit for outputting the content translated into the different languages in audio and / or text;
A speech translation program that makes it work.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017039760A JP6290479B1 (en) | 2017-03-02 | 2017-03-02 | Speech translation device, speech translation method, and speech translation program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017039760A JP6290479B1 (en) | 2017-03-02 | 2017-03-02 | Speech translation device, speech translation method, and speech translation program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP6290479B1 JP6290479B1 (en) | 2018-03-07 |
JP2018147112A true JP2018147112A (en) | 2018-09-20 |
Family
ID=61557991
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017039760A Expired - Fee Related JP6290479B1 (en) | 2017-03-02 | 2017-03-02 | Speech translation device, speech translation method, and speech translation program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6290479B1 (en) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076999A (en) * | 2019-11-07 | 2021-05-20 | 株式会社Mobility Technologies | Translation system, translation terminal device and translation terminal program |
WO2022071044A1 (en) * | 2020-10-01 | 2022-04-07 | ソニーグループ株式会社 | Information processing device and information processing method |
WO2022260432A1 (en) * | 2021-06-08 | 2022-12-15 | 네오사피엔스 주식회사 | Method and system for generating composite speech by using style tag expressed in natural language |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH02183371A (en) * | 1989-01-10 | 1990-07-17 | Nec Corp | Automatic interpreting device |
JP2012190112A (en) * | 2011-03-09 | 2012-10-04 | Nec Casio Mobile Communications Ltd | Electronic data creation device, electronic data creation method, and electronic data creation program |
EP2704024B1 (en) * | 2011-04-26 | 2017-09-06 | NEC Corporation | Input assistance device, input asssistance method, and program |
WO2015019774A1 (en) * | 2013-08-09 | 2015-02-12 | シャープ株式会社 | Data generating device, data generating method, translation processing device, program, and data |
-
2017
- 2017-03-02 JP JP2017039760A patent/JP6290479B1/en not_active Expired - Fee Related
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021076999A (en) * | 2019-11-07 | 2021-05-20 | 株式会社Mobility Technologies | Translation system, translation terminal device and translation terminal program |
WO2022071044A1 (en) * | 2020-10-01 | 2022-04-07 | ソニーグループ株式会社 | Information processing device and information processing method |
WO2022260432A1 (en) * | 2021-06-08 | 2022-12-15 | 네오사피엔스 주식회사 | Method and system for generating composite speech by using style tag expressed in natural language |
Also Published As
Publication number | Publication date |
---|---|
JP6290479B1 (en) | 2018-03-07 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US11942082B2 (en) | Facilitating communications with automated assistants in multiple languages | |
US11354521B2 (en) | Facilitating communications with automated assistants in multiple languages | |
Sherwani et al. | Speech vs. touch-tone: Telephony interfaces for information access by low literate users | |
US8560326B2 (en) | Voice prompts for use in speech-to-speech translation system | |
JP6290479B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6141483B1 (en) | Speech translation device, speech translation method, and speech translation program | |
KR100593589B1 (en) | Multilingual Interpretation / Learning System Using Speech Recognition | |
JP6353860B2 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6250209B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6449181B2 (en) | Speech translation system, speech translation method, and speech translation program | |
JP6310950B2 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6383748B2 (en) | Speech translation device, speech translation method, and speech translation program | |
WO2017122657A1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6110539B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6198879B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP6334589B2 (en) | Fixed phrase creation device and program, and conversation support device and program | |
JP6174746B1 (en) | Speech translation device, speech translation method, and speech translation program | |
JP2018173910A (en) | Voice translation system and voice translation program | |
JP6298806B2 (en) | Speech translation system, control method therefor, and speech translation program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180111 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180207 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6290479 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |