JP2016148943A - 通訳サービス提供システムおよび通訳支援方法ならびに通訳支援プログラム - Google Patents
通訳サービス提供システムおよび通訳支援方法ならびに通訳支援プログラム Download PDFInfo
- Publication number
- JP2016148943A JP2016148943A JP2015024580A JP2015024580A JP2016148943A JP 2016148943 A JP2016148943 A JP 2016148943A JP 2015024580 A JP2015024580 A JP 2015024580A JP 2015024580 A JP2015024580 A JP 2015024580A JP 2016148943 A JP2016148943 A JP 2016148943A
- Authority
- JP
- Japan
- Prior art keywords
- translation
- text data
- character string
- contact center
- interpreter
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Information Transfer Between Computers (AREA)
- Machine Translation (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Abstract
【課題】通訳の対象となる原言語の文字列が正確に翻訳されているかを確認可能にする技術を提供する。【解決手段】コンタクトセンター200は、携帯端末100から送信される音声の音声データを翻訳前テキストデータへ変換するデータ変換部210と、翻訳前テキストデータを、音声を翻訳後の文字列で表示するための翻訳後テキストデータへと変換する翻訳部220と、を有し、通訳者端末300は、コンタクトセンター200から送信される翻訳前テキストデータと翻訳後テキストデータとに基づき、音声を文字列に変換した翻訳前文字列と、音声を翻訳後の文字列に変換した翻訳後文字列とをディスプレイに表示させる画面処理部310を有する。【選択図】図1
Description
本発明は、通訳サービス提供システムおよび通訳支援方法ならびに通訳支援プログラムに関する。
通訳者と通訳される者(通訳サービスの利用者および利用者と対話する対話者)との間でインターネットを介したビデオチャットを可能にする技術が知られている。
また、通訳される者が発声した音声を文字列に変換し、変換した文字列を翻訳する技術が知られている。
特開2010−186339号公報(特許文献1)には通訳の対象となる原言語のデータの入力を受け付ける受付部と、データの認識に用いる認識知識データベースを記憶する認識知識記憶部と、認識知識データベースを用いてデータを認識し、原言語の文字列を生成する認識部と、文字列の翻訳に用いる翻訳知識データベースを記憶する翻訳知識記憶部と、翻訳知識データベースを用いて文字列を目的言語に翻訳する翻訳部と、翻訳部の翻訳結果を出力する出力部とを有する通訳装置が開示されている。
特許文献1に開示されている技術では、通訳の対象となる原言語の文字列を翻訳できる。
しかし、特許文献1に開示されている技術では、翻訳される前の原言語の文字列が通訳者に提示されないため、翻訳された後の文字列が正確に翻訳されているかを確認できないことがあった。
本発明の目的は、通訳の対象となる原言語の文字列が正確に翻訳されているかを確認可能にする技術を提供することである。
本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次の通りである。
本発明の一実施の形態の通訳サービス提供システムは、コンタクトセンターと、前記コンタクトセンターとネットワークを介して接続される携帯端末と、前記コンタクトセンターとネットワークを介して接続され、通訳者により使用される通訳者端末とを有する。また、前記コンタクトセンターは、前記携帯端末から送信される音声の音声データを翻訳前テキストデータへ変換するデータ変換部と、前記翻訳前テキストデータを、前記音声を翻訳後の文字列で表示するための翻訳後テキストデータへと変換する翻訳部とを有する。また、前記通訳者端末は、前記コンタクトセンターから送信される前記翻訳前テキストデータと前記翻訳後テキストデータとに基づき、前記音声を文字列に変換した翻訳前文字列と、前記音声を翻訳後の文字列に変換した翻訳後文字列とをディスプレイに表示させる画面処理部を有する。
また、本発明の一実施の形態の通訳支援方法は、コンタクトセンターと、前記コンタクトセンターとネットワークを介して接続される携帯端末と、前記コンタクトセンターとネットワークを介して接続され、通訳者により使用される通訳者端末と、を有する通訳サービス提供システムにおける通訳支援方法であって、前記コンタクトセンターのデータ変換部が、前記携帯端末から送信される音声の音声データを翻訳前テキストデータへ変換するデータ変換ステップを有する。また、前記コンタクトセンターの翻訳部が、前記翻訳前テキストデータを、前記音声を翻訳後の文字列で表示するための翻訳後テキストデータへと変換する翻訳ステップを有する。また、前記通訳者端末の画面処理部が、前記コンタクトセンターから送信される前記翻訳前テキストデータと前記翻訳後テキストデータとに基づき、前記音声を文字列に変換した翻訳前文字列と、前記音声を翻訳後の文字列に変換した翻訳後文字列とをディスプレイに表示させる表示ステップを有する。
また、本発明の一実施の形態の通訳支援プログラムは、データ変換部と、翻訳部と、画面データ生成部とを有するコンタクトセンターのコンピュータに実行させるための通訳支援プログラムであって、前記データ変換部が、携帯端末から送信される音声の音声データを翻訳前テキストデータへ変換するデータ変換ステップを前記コンピュータに実行させる。また、前記翻訳部が、前記翻訳前テキストデータを、前記音声を翻訳後の文字列で表示するための翻訳後テキストデータへと変換する翻訳ステップを前記コンピュータに実行させる。また、前記画面データ生成部が、前記翻訳前テキストデータと前記翻訳後テキストデータとに基づき、前記音声を文字列に変換した翻訳前文字列と、前記音声を翻訳後の文字列に変換した翻訳後文字列とを表示させるための画面データを生成する画面データ生成ステップを前記コンピュータに実行させる。
本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。
本発明の代表的な実施の形態によれば、通訳の対象となる原言語の文字列が正確に翻訳されているかを確認できる。
以下、本発明の実施の形態を図面に基づいて詳細に説明する。なお、実施の形態を説明するための全図において、同一部には原則として同一の符号を付し、その繰り返しの説明は省略する。
<システム構成>
図1は、本発明の一実施の形態における通訳サービス提供システム10の構成例の概要を示す図である。
図1は、本発明の一実施の形態における通訳サービス提供システム10の構成例の概要を示す図である。
図1に示されるように、通訳サービス提供システム10は、コンタクトセンター200と、コンタクトセンター200とネットワークを介して接続される携帯端末100と、コンタクトセンター200とネットワークを介して接続され、通訳者により使用される複数の通訳者端末300とを有する。
携帯端末100、コンタクトセンター200、通訳者端末300は、所定のハードウェアおよびソフトウェアにより実装される。例えば、携帯端末100、コンタクトセンター200、通訳者端末300は、プロセッサやメモリなどを有し、プロセッサにより実行されるメモリ上のプログラムが、通訳サービス提供システム10として、携帯端末100、コンタクトセンター200、通訳者端末300のコンピュータを機能させる。
通訳サービス提供システム10は、携帯端末100と通訳者端末300との接続を確立(または携帯端末100とコンタクトセンター内の通訳者により使用される通訳者端末との接続を確立)させた後に、通訳サービスを提供する。
詳細には、携帯端末100のマイクに入力される利用者または対話者(利用者と対話する対話者)が発声する音声は、通訳者端末300のスピーカから出力される。また、通訳者は、スピーカから出力された音声を通訳して、通訳者端末300のマイクに発声する。通訳者端末300のマイクに入力された通訳者の音声は、携帯端末100のスピーカから出力される。通訳者は、対話者(例えば、日本人)が発声した音声を解釈し、利用者(外国人)が使用する言語で発声する。また、通訳者は、利用者(外国人)が使用する音声を解釈し、対話者(例えば、日本人)が使用する言語で発声する。
また、通訳者端末300のカメラにより撮像された通訳者の映像は携帯端末100のディスプレイに表示され、携帯端末100のカメラにより撮像された利用者または対話者の映像は、通訳者端末300のディスプレイに表示される。
携帯端末100は、画面表示を行うとともに、タッチパネルを介してユーザからのタッチ操作を受け付ける。そして、携帯端末100は、タッチ操作を受け付けた位置と対応する処理を実行する。また、携帯端末100は、利用者または対話者が発声した音声の音声データをコンタクトセンターへ送信する。
コンタクトセンター200は、データ変換部210と、翻訳部220と、翻訳情報更新部230と、画面データ生成部240と、通訳者情報記憶部250と、翻訳情報記憶部260と、修正文字列記憶部270とを有する。
通訳者情報記憶部250には、通訳者に関する各種情報(通訳者の氏名や、通訳者端末を特定するためのIPアドレスや、通訳者が通訳可能な言語)が記憶されている。
データ変換部210は、携帯端末100から送信される音声の音声データを翻訳前テキストデータへ変換する。また、データ変換部210は、通訳者が発声した音声の音声データを通訳テキストデータへ変換する。
翻訳部220は、公知の技術により、翻訳前テキストデータを、音声を翻訳後の文字列で表示するための翻訳後テキストデータへと変換する。
翻訳情報更新部230は、通訳者端末300から送信される、翻訳前テキストデータと修正対象の文字のテキストデータと修正後の文字のテキストデータとに基づき、翻訳情報記憶部260に記憶されている翻訳情報を更新する。
翻訳情報記憶部260には、翻訳前テキストデータを翻訳後テキストデータへ変換するのに用いる翻訳情報が記憶されている。例えば、翻訳情報は、翻訳前テキストデータに含まれる単語と、翻訳後テキストデータに含まれる単語とを対応付けた情報を含む。また、翻訳情報は、翻訳前の言語と翻訳後の言語の文法規則や、構造変換規則などを含む。
修正文字列記憶部(後述、図2)270には、翻訳前テキストデータと、翻訳後テキストデータと、翻訳後文字列に含まれる修正対象の文字のテキストデータとが対応付けられて記憶されている。
通訳者端末300は、画面処理部310と、修正処理部320とを有し、翻訳後文字列から、修正対象の文字を指定するための入力を受け付ける。
通訳者端末300は、翻訳前テキストデータと、翻訳後文字列に含まれる修正対象の文字のテキストデータと、入力を受けつけた修正後の文字のテキストデータとをコンタクトセンター200へ送信する。
また、画面処理部310は、コンタクトセンター200から送信される翻訳前テキストデータと翻訳後テキストデータと、通訳テキストデータとに基づき、音声を文字列に変換した翻訳前文字列と、音声を翻訳後の文字列に変換した翻訳後文字列と、通訳文字列と含む通訳画面(後述、図4〜図6)を通訳者端末300のディスプレイに表示させる。
また、画面処理部310は、修正文字列記憶部270に記憶されている翻訳前テキストデータと、翻訳後テキストデータと、修正対象の文字のテキストデータとに基づく、翻訳後文字列修正画面(後述、図7)を携帯端末100のディスプレイに表示させる。
なお、コンタクトセンター200の画面データ生成部240が、翻訳前テキストデータと翻訳後テキストデータとに基づき、音声を文字列に変換した翻訳前文字列と、前記音声を翻訳後の文字列に変換した翻訳後文字列とを表示させるための画面データを生成しても良い。この場合、通訳者端末300は、画面データ生成部240が生成した画面データに基づき、音声を文字列に変換した翻訳前文字列と、音声を翻訳後の文字列に変換した翻訳後文字列と、通訳文字列と含む通訳画面を通訳者端末300のディスプレイに表示させる。
<修正文字列記憶部>
図2は、本発明の一実施の形態におけるコンタクトセンター200の修正文字列記憶部270に記憶されている情報の例を示す図である。
図2は、本発明の一実施の形態におけるコンタクトセンター200の修正文字列記憶部270に記憶されている情報の例を示す図である。
図2に示されるように、修正文字列記憶部270には、翻訳前テキストデータと、翻訳後テキストデータと、翻訳後文字列に含まれる修正対象の文字のテキストデータとが対応付けられて記憶されている。
<通訳画面>
以下、図3〜図6を用いて、通訳者端末300のディスプレイに表示される通訳画面について説明する。
以下、図3〜図6を用いて、通訳者端末300のディスプレイに表示される通訳画面について説明する。
利用者から通訳の開始を指示する入力を受け付けた携帯端末100は、コンタクトセンター200にアクセスする。その後、コンタクトセンター200により選定された通訳者端末300と携帯端末100との接続が確立され、携帯端末100のディスプレイに図3に示される通訳画面が表示される。
図3に示されるように、通訳者端末300のディスプレイに表示される通訳画面には、携帯端末100のカメラにより撮像された利用者(または利用者と対話する対話者)301が表示される。また、通訳画面には、事後検討ボタン302が表示される。
利用者または対話者が発声し、利用者または対話者が発声した音声の音声データを受信した後、通訳者端末300のディスプレイには、図4に示される通訳画面が表示される。
携帯端末100のマイクに入力された利用者の音声は、通訳者端末300のスピーカから出力される。また、図4に示されるように、通訳者端末300のディスプレイに表示される通訳画面には、利用者または対話者が発声した音声を文字列に変換した翻訳前文字列401が表示される。また、図4に示されるように、通訳画面には、翻訳前文字列401を翻訳した翻訳後文字列402が表示される。通訳者は、翻訳後文字列402を参照しながら通訳する。翻訳後文字列402の内容が正しい場合は、通訳者は、翻訳後文字列402の内容をそのまま読み上げる。これにより、通訳サービスの品質のばらつきが小さくなる。通訳者が通訳者端末300のマイクに発声すると、通訳者端末300のディスプレイには、図5に示される通訳画面が表示される。
図5に示されるように、通訳画面には、翻訳前文字列401と、翻訳後文字列402と、通訳者が発声した音声を文字列に変換した通訳文字列501が表示される。また、通訳者端末300のマイクに入力された通訳者の音声は、携帯端末100のスピーカから出力される。
通訳者により、翻訳後文字列402を修正対象の文字を指定するための入力を受け付けると、通訳者端末300のディスプレイには図6に示される通訳画面が表示される。図6に示されるように、通訳者端末300は、入力装置(マウスなど)が操作されることで、翻訳後文字列402を修正する範囲を指定するための入力を受け付ける。その後、入力装置(キーボードなど)が文字入力を受け付けることで、修正対象として指定された文字列が、入力装置が文字入力を受け付けた内容へと修正される。
事後検討ボタン302が、押下されると、翻訳前文字列401のテキストデータと、翻訳後文字列402のテキストデータと、修正対象の文字のテキストデータとが、コンタクトセンター200へ送信され、コンタクトセンター200の修正文字列記憶部270に記憶される。
他の通訳者(事後検討ボタン302を押下した通訳者以外の通訳者)の通訳者端末300から要求があると、コンタクトセンター200は、修正文字列記憶部270に記憶される翻訳前文字列401のテキストデータと、翻訳後文字列402のテキストデータと、修正対象の文字のテキストデータとを、要求があった通訳者端末300へ送信する。そして、通訳者端末300は、受信した翻訳前文字列401のテキストデータと、翻訳後文字列402のテキストデータと、修正対象の文字のテキストデータとに基づく翻訳後文字列修正画面が表示される。そして、翻訳後文字列402は、通訳者端末300のディスプレイに表示される翻訳後文字列修正画面(後述、図7)を介して修正される。これによって、手が空いている通訳者や、修正対象の文字を修正できる通訳者が翻訳文字列402を修正できる。
<翻訳後文字列修正画面>
以下、図7を用いて通訳者端末300のディスプレイに表示される翻訳後文字列修正画面について説明する。図7に示されるように、翻訳後文字列修正画面には、翻訳前文字列401と、翻訳後文字列402と、修正後の文字が入力される修正後文字列入力欄701と、決定ボタン702とが表示される。また、修正対象として指定された文字列は、他の文字列と異なる態様で表示される。
以下、図7を用いて通訳者端末300のディスプレイに表示される翻訳後文字列修正画面について説明する。図7に示されるように、翻訳後文字列修正画面には、翻訳前文字列401と、翻訳後文字列402と、修正後の文字が入力される修正後文字列入力欄701と、決定ボタン702とが表示される。また、修正対象として指定された文字列は、他の文字列と異なる態様で表示される。
入力装置が(キーボードなど)が文字入力を受け付けることで、修正後文字列入力欄701に修正後の文字が入力される。修正後文字列入力欄701に入力された修正後の文字は、コンタクトセンター200へ送信される。そして、修正後の文字に基づき、翻訳情報記憶部260の翻訳情報が更新される。これによって、正確に翻訳されなかった翻訳後文字列402を、通訳時に修正できなかった場合であっても、他の通訳者による翻訳後文字列402の修正が可能になる。
<通訳画面表示処理>
図8は、本発明の一実施の形態における通訳画面表示処理の概要を示す図である。通訳画面表示処理は、利用者の使用言語が入力された後に携帯端末100が通訳の開始を指示する入力を受け付けた場合に開始する。
図8は、本発明の一実施の形態における通訳画面表示処理の概要を示す図である。通訳画面表示処理は、利用者の使用言語が入力された後に携帯端末100が通訳の開始を指示する入力を受け付けた場合に開始する。
まず、S801にて、携帯端末100は、通訳の開始を指示させるため通訳開始要求を生成する。そして、携帯端末100は、利用者の使用言語と、生成した通訳開始要求とをコンタクトセンター200へ送信する。なお、利用者の使用言語は、予め携帯端末100に登録されるようにしても良い。
次に、S802にて、コンタクトセンター200は、S801にて送信された利用者の使用言語と通訳開始要求開始を受信する。そして、コンタクトセンター200は、通訳者端末300を特定するための接続先情報を通訳者情報記憶部250から取得し、取得した接続先情報を携帯端末100へ送信する。なお、コンタクトセンター200は、利用者の使用言語をキーに通訳者情報テーブルを検索し、対応する接続先を取得する。これによって、利用者が使用する言語を通訳できる通訳者が使用する通訳者端末300の接続先情報を取得できる。
次に、S803にて、携帯端末100は、S802にて送信された接続先情報を受信する。そして、携帯端末100は、受信した接続先情報から特定される通訳者端末300との通信を確立する。
次に、S804にて、携帯端末100のカメラは、利用者または利用者と対話する対話者を撮像する。そして、携帯端末100は、カメラにより撮像された利用者または対話者を描画するための画像データを、コンタクトセンター200を介して通訳者端末300へ送信する。
次に、S805にて、通訳者端末300は、S804にて送信された画像データを受信する。そして、通訳者端末300の画面処理部310は、受信した画像データに基づく通訳画面(前述、図3)をディスプレイに表示させる。
次に、S806にて、携帯端末100は、マイクに入力された利用者または対話者の音声の音声データを、コンタクトセンター200へ送信する。
次に、S807にて、コンタクトセンター200のデータ変換部210は、受信した音声データを、翻訳前テキストデータ(利用者または対話者が発声した音声を文字列で表示するためのテキストデータ)へ変換する。
次に、S808にて、コンタクトセンター200の翻訳部220は、S807にて音声データから変換された翻訳前テキストデータを、利用者または対話者が使用可能な言語の文字列を表示するための翻訳後テキストデータへと変換する。
なお、翻訳前テキストデータが、利用者が発声した音声の音声データから変換されたものである場合、翻訳部220は、翻訳前テキストデータを対話者が使用可能な言語(例えば、日本語)の文字列を表示するための翻訳後テキストデータへと変換する。一方、翻訳前テキストデータが、対話者が発生した音声の音声データから変換されたものである場合、翻訳部220は、翻訳前テキストデータを利用者が使用可能な言語(S802にて受信した利用者の使用言語)の文字列を表示するための翻訳後テキストデータへと変換する。
次に、S809にて、コンタクトセンター200は、S807にて変換された翻訳前テキストデータと、S808にて変換された翻訳後テキストデータとを通訳者端末300へ送信する。
次に、S810にて、通訳者端末300は、S809にて送信された翻訳前テキストデータと、翻訳後テキストデータとを受信する。
次に、S811にて、通訳者端末300の画面処理部310は、S805にて受信した画像データと、S810にて受信した翻訳前テキストデータと、翻訳後テキストデータとに基づく通訳画面(前述、図4)をディスプレイに表示させる。すなわち、通訳画面には、利用者または対話者が発声した音声を文字列に変換した翻訳前文字列401と、翻訳前文字列401を翻訳した翻訳後文字列402とが表示される。通訳者が発声した音声が通訳者端末300のマイクに入力されると、S812へ進む。
次に、S812にて、通訳者端末300は、通訳者が発声した音声の音声データをコンタクトセンター200へ送信する。
次に、S813にて、コンタクトセンター200のデータ変換部210は、通訳者が発声した音声の音声データを文字列で表示するための通訳テキストデータへ変換する。
次に、S814にて、コンタクトセンター200は、S813にて変換された通訳テキストデータを通訳者端末300へ送信する。
次に、S815にて、通訳者端末300は、S814にて送信された通訳テキストデータを受信する。
次に、S816にて、通訳者端末300は、S805にて受信した画像データと、S810にて受信した翻訳前テキストデータと、翻訳後テキストデータと、S815にて受信した通訳テキストデータとに基づく通訳画面(前述、図5)をディスプレイに表示させる。
次に、S817にて、通訳者端末300は、通訳画面に表示されている翻訳後文字列402から修正対象の文字を指定するための入力を受け付けたか否かを判定する。通訳者端末300が、修正対象の文字を指定するための入力を受け付けていないと判定する場合(S817−No)、S819へ進む。一方、通訳者端末300が、修正対象の文字を指定するための入力を受け付けたと判定する場合(S817−Yes)、S818へ進む。
次に、S818にて、翻訳情報更新処理(後述、図9)が実行される。S818の次は、S804へ戻る。
S817にてNoだった場合、S819にて、通訳者端末300は、通訳画面に表示されている事後検討ボタン302を選択する入力を受け付けたか否かを判定する。通訳者端末300が、事後検討ボタン302を選択する入力を受け付けていないと判定する場合(S819−No)、S804へ戻る。一方、通訳者端末300が、事後検討ボタン302を選択する入力を受け付けたと判定する場合(S819−Yes)、S820へ進む。
次に、S820にて、修正文字列記憶処理(後述、図10)が実行される。S820の次は、S804へ戻る。
<翻訳情報更新処理>
図9は、本発明の一実施の形態における翻訳情報更新処理の概要を示す図である。
図9は、本発明の一実施の形態における翻訳情報更新処理の概要を示す図である。
まず、S901にて、通訳者端末300の修正処理部320は、S817にて入力を受け付けた修正対象の文字を保持する。
次に、S902にて、通訳者端末300の入力装置が文字入力を受け付ける。そして、入力装置が入力を受け付けたテキストデータ(修正後の文字のテキストデータ)が修正処理部320に入力される。
次に、S903にて、通訳者端末300は、S807にて音声データから変換された翻訳前テキストデータと、S901にて保持されている文字のテキストデータ(修正対象の文字のテキストデータ)と、S902にて入力されたテキストデータ(修正後の文字のテキストデータ)とをコンタクトセンター200へ送信する。
次に、S904にて、コンタクトセンター200は、翻訳前テキストデータと、S817にて入力を受け付けたテキストデータ(修正対象の文字のテキストデータ)と、S902にて入力されたテキストデータ(修正後の文字のテキストデータ)とを受信する。
次に、S905にて、コンタクトセンター200の翻訳情報更新部230は、受信した翻訳前テキストデータと、S817にて入力を受け付けたテキストデータ(修正対象の文字のテキストデータ)と、S902にて入力されたテキストデータ(修正後の文字のテキストデータ)とに基づき、翻訳情報記憶部260に記憶されている翻訳情報を更新する。例えば、翻訳情報更新部230は、S817にて入力を受け付けたテキストデータ(修正対象の文字のテキストデータ)を翻訳情報記憶部260から取得し、取得したテキストデータ(修正対象の文字のテキストデータ)をS902にて入力されたテキストデータ(修正後の文字のテキストデータ)により更新する。
<修正文字列記憶処理>
図10は、本発明の一実施の形態における修正文字列記憶処理の概要を示す図である。
図10は、本発明の一実施の形態における修正文字列記憶処理の概要を示す図である。
まず、S1001にて、通訳者端末300は、修正対象の文字を指定するための入力を受け付ける。
次に、S1002にて、通訳者端末300は、S807にて音声データから変換された翻訳前テキストデータと、S808にて変換された翻訳後テキストデータと、S1001にて入力を受け付けたテキストデータ(修正対象の文字のテキストデータ)とをコンタクトセンター200へ送信する。
次に、S1003にて、コンタクトセンター200は、翻訳前テキストデータと、翻訳後テキストデータと、S1001にて入力を受け付けたテキストデータ(修正対象の文字のテキストデータ)とを受信する。
次に、S1004にて、コンタクトセンター200の翻訳情報更新部230は、受信した翻訳前テキストデータと、翻訳後テキストデータと、S1001にて入力を受け付けたテキストデータ(修正対象の文字のテキストデータ)とを対応付けて修正文字列記憶部270に記憶する。
<本実施の形態の効果>
以上説明した本実施の形態によれば、通訳者端末300の画面処理部310が、携帯端末100に入力された音声を文字列に変換した翻訳前文字列と、携帯端末100に入力された音声を翻訳後の文字列に変換した翻訳後文字列とをディスプレイに表示させることで、通訳の対象となる原言語の文字列が正確に翻訳されているかを、通訳者が確認できる。また、通訳サービスの品質のばらつきを小さくできる。
以上説明した本実施の形態によれば、通訳者端末300の画面処理部310が、携帯端末100に入力された音声を文字列に変換した翻訳前文字列と、携帯端末100に入力された音声を翻訳後の文字列に変換した翻訳後文字列とをディスプレイに表示させることで、通訳の対象となる原言語の文字列が正確に翻訳されているかを、通訳者が確認できる。また、通訳サービスの品質のばらつきを小さくできる。
また、コンタクトセンター200の翻訳情報更新部230が、翻訳前テキストデータと、修正対象の文字のテキストデータと、修正後の文字のテキストデータとに基づき、翻訳情報記憶部260に記憶されている翻訳情報を更新することで、次回以降、翻訳部220は、正確に翻訳前テキストデータを翻訳後テキストデータへと変換できる。また、修正後の文字として、方言や若者言葉などの新語などが入力されることで、通訳者によっては理解できない方言や、新語などを翻訳情報に反映できる。そして、次回以降、通訳者は、ディスプレイに表示される翻訳後文字列を確認することで、方言や、新語などを通訳可能になり、言語の変化にも対応できる。
また、コンタクトセンター200の修正文字列記憶部270に翻訳前テキストデータと、翻訳後テキストデータと、翻訳後文字列に含まれる修正対象の文字のテキストデータとが対応付けられて記憶されており、通訳者端末の画面処理部310が、修正文字列記憶部270に記憶されている翻訳前テキストデータと、翻訳後テキストデータと、修正対象の文字のテキストデータとに基づく翻訳後文字列修正画面をディスプレイに表示させることで、正確に翻訳されなかった翻訳後文字列402を通訳時に修正できなかった場合であっても、他の通訳者(手が空いている通訳者など)による翻訳後文字列402の修正が可能になる。
以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。たとえば、携帯端末100は、スマートフォン以外にも、タブレット端末等の様々な形態の携帯端末を全て含むものである。
10…通訳サービス提供システム、
100…携帯端末、
200…コンタクトセンター、210…データ変換部、220…翻訳部、230…翻訳情報更新部、240…画面データ生成部、250…通訳者情報記憶部、260…翻訳情報記憶部、270…修正文字列記憶部、
300…通訳者端末、310…画面処理部。
100…携帯端末、
200…コンタクトセンター、210…データ変換部、220…翻訳部、230…翻訳情報更新部、240…画面データ生成部、250…通訳者情報記憶部、260…翻訳情報記憶部、270…修正文字列記憶部、
300…通訳者端末、310…画面処理部。
Claims (6)
- コンタクトセンターと、前記コンタクトセンターとネットワークを介して接続される携帯端末と、前記コンタクトセンターとネットワークを介して接続され、通訳者により使用される通訳者端末と、を有する通訳サービス提供システムであって、
前記コンタクトセンターは、
前記携帯端末から送信される音声の音声データを翻訳前テキストデータへ変換するデータ変換部と、
前記翻訳前テキストデータを、前記音声を翻訳後の文字列で表示するための翻訳後テキストデータへと変換する翻訳部と、
を有し、
前記通訳者端末は、前記コンタクトセンターから送信される前記翻訳前テキストデータと前記翻訳後テキストデータとに基づき、前記音声を文字列に変換した翻訳前文字列と、前記音声を翻訳後の文字列に変換した翻訳後文字列とをディスプレイに表示させる画面処理部を有する、
通訳サービス提供システム。 - 請求項1に記載の通訳サービス提供システムにおいて、
前記コンタクトセンターの前記データ変換部は、前記通訳者が発声した音声の音声データを通訳テキストデータへ変換し、
前記携帯端末の前記画面処理部は、前記コンタクトセンターから送信される前記翻訳前テキストデータと前記翻訳後テキストデータと前記通訳テキストデータとに基づき、前記翻訳前文字列と、前記翻訳後文字列と、前記通訳者が発声した音声を文字列に変換した通訳文字列とを前記ディスプレイに表示させる、
通訳サービス提供システム。 - 請求項1に記載の通訳サービス提供システムにおいて、
前記通訳者端末は、前記翻訳前テキストデータと、前記翻訳後文字列に含まれる修正対象の文字のテキストデータと、入力を受けつけた修正後の文字のテキストデータとを前記コンタクトセンターへ送信し、
前記コンタクトセンターは、
前記翻訳前テキストデータを前記翻訳後テキストデータへ変換するのに用いる翻訳情報が記憶されている翻訳情報記憶部と、
前記翻訳前テキストデータと、前記修正対象の文字のテキストデータと、前記修正後の文字のテキストデータとに基づき、前記翻訳情報記憶部に記憶されている前記翻訳情報を更新する翻訳情報更新部と、
をさらに有する、通訳サービス提供システム。 - 請求項1に記載の通訳サービス提供システムにおいて、
前記コンタクトセンターは、前記翻訳前テキストデータと、前記翻訳後テキストデータと、前記翻訳後文字列に含まれる修正対象の文字のテキストデータとが対応付けられて記憶されている修正文字列記憶部をさらに有し、
前記通訳者端末の前記画面処理部は、前記修正文字列記憶部に記憶されている前記翻訳前テキストデータと、前記翻訳後テキストデータと、前記修正対象の文字のテキストデータとに基づく、翻訳後文字列修正画面を前記ディスプレイに表示させる、
通訳サービス提供システム。 - コンタクトセンターと、前記コンタクトセンターとネットワークを介して接続される携帯端末と、前記コンタクトセンターとネットワークを介して接続され、通訳者により使用される通訳者端末と、を有する通訳サービス提供システムにおける通訳支援方法であって、
前記コンタクトセンターのデータ変換部が、前記携帯端末から送信される音声の音声データを翻訳前テキストデータへ変換するデータ変換ステップと、
前記コンタクトセンターの翻訳部が、前記翻訳前テキストデータを、前記音声を翻訳後の文字列で表示するための翻訳後テキストデータへと変換する翻訳ステップと、
前記通訳者端末の画面処理部が、前記コンタクトセンターから送信される前記翻訳前テキストデータと前記翻訳後テキストデータとに基づき、前記音声を文字列に変換した翻訳前文字列と、前記音声を翻訳後の文字列に変換した翻訳後文字列とをディスプレイに表示させる表示ステップと、
を有する、通訳支援方法。 - データ変換部と、翻訳部と、画面データ生成部とを有するコンタクトセンターのコンピュータに実行させるための通訳支援プログラムであって、
前記データ変換部が、携帯端末から送信される音声の音声データを翻訳前テキストデータへ変換するデータ変換ステップと、
前記翻訳部が、前記翻訳前テキストデータを、前記音声を翻訳後の文字列で表示するための翻訳後テキストデータへと変換する翻訳ステップと、
前記画面データ生成部が、前記翻訳前テキストデータと前記翻訳後テキストデータとに基づき、前記音声を文字列に変換した翻訳前文字列と、前記音声を翻訳後の文字列に変換した翻訳後文字列とを表示させるための画面データを生成する画面データ生成ステップと、
を前記コンピュータに実行させる、通訳支援プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015024580A JP2016148943A (ja) | 2015-02-10 | 2015-02-10 | 通訳サービス提供システムおよび通訳支援方法ならびに通訳支援プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015024580A JP2016148943A (ja) | 2015-02-10 | 2015-02-10 | 通訳サービス提供システムおよび通訳支援方法ならびに通訳支援プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016148943A true JP2016148943A (ja) | 2016-08-18 |
Family
ID=56688395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015024580A Pending JP2016148943A (ja) | 2015-02-10 | 2015-02-10 | 通訳サービス提供システムおよび通訳支援方法ならびに通訳支援プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016148943A (ja) |
-
2015
- 2015-02-10 JP JP2015024580A patent/JP2016148943A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10885318B2 (en) | Performing artificial intelligence sign language translation services in a video relay service environment | |
US10152965B2 (en) | Learning personalized entity pronunciations | |
JP4466666B2 (ja) | 議事録作成方法、その装置及びそのプログラム | |
WO2016165590A1 (zh) | 语音翻译方法及装置 | |
JP5471106B2 (ja) | 音声翻訳システム、辞書サーバ装置、およびプログラム | |
US20150179173A1 (en) | Communication support apparatus, communication support method, and computer program product | |
TW200426780A (en) | Voice browser dialog enabler for a communication system | |
US10741172B2 (en) | Conference system, conference system control method, and program | |
WO2018186416A1 (ja) | 翻訳処理方法、翻訳処理プログラム、及び、記録媒体 | |
JP2010085536A (ja) | 音声認識システム、音声認識方法、音声認識クライアントおよびプログラム | |
JP2014106523A (ja) | 音声入力対応装置及び音声入力対応プログラム | |
US20180288110A1 (en) | Conference support system, conference support method, program for conference support device, and program for terminal | |
JP2018045001A (ja) | 音声認識システム、情報処理装置、プログラム、音声認識方法 | |
JP2017120616A (ja) | 機械翻訳方法、及び、機械翻訳システム | |
JP2017535852A (ja) | コンピュータベースの翻訳システムおよび方法 | |
KR101606128B1 (ko) | 언어권 인식을 이용한 자동 번역 메신저가 탑재된 스마트기기 | |
JP2018170743A (ja) | 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム | |
JP2010026686A (ja) | 統合的インタフェースを有する対話型コミュニケーション端末及びそれを用いたコミュニケーションシステム | |
JP5856708B1 (ja) | 翻訳システム及びサーバ | |
CN105955967A (zh) | 数据处理方法及装置 | |
WO2018198807A1 (ja) | 翻訳装置 | |
JP6922178B2 (ja) | 音声認識システム、情報処理装置、プログラム | |
EP3644309A1 (en) | System and method for integrated printing of voice assistant search results | |
WO2016129188A1 (ja) | 音声認識処理装置、音声認識処理方法およびプログラム | |
JP2016148943A (ja) | 通訳サービス提供システムおよび通訳支援方法ならびに通訳支援プログラム |