JP6327848B2 - コミュニケーション支援装置、コミュニケーション支援方法およびプログラム - Google Patents

コミュニケーション支援装置、コミュニケーション支援方法およびプログラム Download PDF

Info

Publication number
JP6327848B2
JP6327848B2 JP2013264127A JP2013264127A JP6327848B2 JP 6327848 B2 JP6327848 B2 JP 6327848B2 JP 2013264127 A JP2013264127 A JP 2013264127A JP 2013264127 A JP2013264127 A JP 2013264127A JP 6327848 B2 JP6327848 B2 JP 6327848B2
Authority
JP
Japan
Prior art keywords
word
sentence
event
communication support
detected
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013264127A
Other languages
English (en)
Other versions
JP2015121864A (ja
Inventor
長 健太
健太 長
敏行 加納
敏行 加納
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Toshiba Digital Solutions Corp
Original Assignee
Toshiba Corp
Toshiba Digital Solutions Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp, Toshiba Digital Solutions Corp filed Critical Toshiba Corp
Priority to JP2013264127A priority Critical patent/JP6327848B2/ja
Priority to CN201410385427.8A priority patent/CN104731767B/zh
Priority to US14/458,475 priority patent/US20150179173A1/en
Priority to EP14181011.9A priority patent/EP2887229A3/en
Publication of JP2015121864A publication Critical patent/JP2015121864A/ja
Application granted granted Critical
Publication of JP6327848B2 publication Critical patent/JP6327848B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/237Lexical tools
    • G06F40/242Dictionaries
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/40Processing or translation of natural language
    • G06F40/58Use of machine translation, e.g. for multi-lingual retrieval, for server-side translation for client devices or for real-time translation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/221Announcement of recognition results

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Acoustics & Sound (AREA)
  • Human Computer Interaction (AREA)
  • Machine Translation (AREA)
  • Telephonic Communication Services (AREA)
  • Telephone Function (AREA)

Description

本発明の実施形態は、コミュニケーション支援装置、コミュニケーション支援方法およびプログラムに関する。
ユーザ間の会話を音声認識によりテキストに変換し、必要に応じて機械翻訳により他国語のテキストに変換して、ユーザが使用する端末装置に表示する技術が知られている。この技術は、例えば遠隔会議システムなどにおいて、会議に参加するユーザ同士のコミュニケーションを支援する技術として有用である。また、この技術を利用すれば、テキストに変換された会話の内容を例えば会議の議事録として保存し、後に参照することもできる。
上記の技術では、音声認識や機械翻訳で用いる辞書に登録されていない単語がユーザの発言に含まれていると誤認識や誤訳が生じ、ユーザ同士のコミュニケーションを適切に支援できない場合がある。このため、誤認識や誤訳が生じている単語を適切に検出し、正しい単語を辞書に登録することが求められる。また、例えば会議の議事録として保存されたテキストから誤認識や誤訳が生じている単語を適切に検出し、正しい単語に修正することが求められる。
辞書に登録すべき単語や修正対象となる単語をテキストから抽出する方法は様々検討されているが、従来の方法は会話による情報伝達の成否を判断材料としていないため、コミュニケーション支援の観点から適切な単語の抽出を行うことが難しい。
特開2011−182125号公報 特開2005−295017号公報 特開平5−120275号公報
本発明が解決しようとする課題は、ユーザ間の会話を変換したテキストから、会話による情報伝達の失敗要因となっている単語を適切に選び出すことができるコミュニケーション支援装置、コミュニケーション支援方法およびプログラムを提供することである。
実施形態のコミュニケーション支援装置は、辞書を用いてユーザ間の会話をテキストに変換して端末装置に表示させるコミュニケーション支援装置であって、検出部と、抽出部と、選択部と、を備える。検出部は、ユーザの1回の発言に対応するテキスト単位であるセンテンスを解析して、会話による情報伝達が失敗しているときに起こり得る発言のパターンとして予め定められた発言のパターンであるイベントを検出する。抽出部は、前記イベントが検出されたセンテンスから単語を抽出する。選択部は、前記抽出部により抽出された単語のうち、情報伝達の失敗要因となっている単語を選択する。複数の前記イベントの各々に対し、会話による情報伝達が失敗したときに当該イベントが発生する度合いを表す伝達失敗指標の値が定められており、前記イベントが検出されたセンテンスには、当該センテンスにおいて検出された全てのイベントの伝達失敗指標の値を合算した第1総計値が与えられ、前記抽出部により抽出された単語には、当該単語が出現する全てのセンテンスに与えられた第1総計値を合算した第2総計値が与えられる。前記選択部は、前記抽出部により抽出された単語のうち、前記第2総計値が所定の閾値以上の単語を、情報伝達の失敗要因となっている単語として選択する。
図1は、遠隔会議システムの概略構成図である。 図2は、コミュニケーション支援装置の機能的な構成例を示すブロック図である。 図3は、変換部が用いる辞書の一例を模式的に示す図である。 図4は、センテンステーブルの一例を示す図である。 図5は、センテンス表示用UI画面の一例を示す図である。 図6は、イベント種別テーブルの一例を示す図である。 図7は、イベントテーブルの一例を示す図である。 図8は、単語テーブルの一例を示す図である。 図9は、単語修正用UI画面の一例を示す図である。 図10は、コミュニケーション支援装置の動作の一例を示すフローチャートである。 図11は、会議終了後に表示されるセンテンス表示用UI画面の一例を示す図である。 図12は、変形例において追加されるイベント種別テーブルの一例を示す図である。 図13は、変形例のコミュニケーション支援装置の動作の一例を示すフローチャートである。 図14は、コミュニケーション支援装置のハードウェア構成の一例を概略的に示すブロック図である。
以下、実施形態のコミュニケーション支援装置、コミュニケーション支援方法およびプログラムを、図面を参照して詳細に説明する。以下で示す実施形態は、遠隔会議システムへの適用例であるが、本発明を適用可能なシステムはこれに限らない。
(遠隔会議システム)
図1は、実施形態のコミュニケーション支援装置を備える遠隔会議システムの概略構成図である。遠隔会議システムは、図1に示すように、本実施形態のコミュニケーション支援装置10と、会議参加者が使用する端末装置20と、システム管理者が使用する端末装置30とが、通信ネットワーク40を介して接続された構成である。
コミュニケーション支援装置10は、典型的には、一般的なコンピュータシステムとしてのハードウェア構成(プロセッサ、主記憶部、補助記憶部、通信インタフェース)を備えるサーバ装置として実現される。しかし、コミュニケーション支援装置10の実現方法はこの例に限らず、クラウドシステム上で動作する仮想マシンとして実現されてもよいし、端末装置20,30上で動作するアプリケーションとして実現されていてもよい。本実施形態では、コミュニケーション支援装置10は、通信ネットワーク40を介して端末装置20,30との間でWebベースの通信を行う、Webサーバの機能を持ったサーバ装置として実現されているものとする。
会議参加者が使用する端末装置20は、例えば、ソフトウェアとしてWebブラウザを搭載したPC(パーソナルコンピュータ)本体21と、PC本体21に内蔵または外付けで接続された表示部22、マイク23およびスピーカ24を備える。このほか、端末装置20としては、例えばタブレット端末や携帯電話機など、表示部22、マイク23およびスピーカ24をハードウェアとして備え、ソフトウェアとしてWebブラウザを搭載した各種の情報処理端末を利用することができる。システム管理者が使用する端末装置30は、会議参加者が使用する端末装置20と同様の構成である。
本実施形態では、遠隔会議システムを、異なる言語を母国語とする会議参加者間で実施する遠隔会議において利用することを想定する。遠隔会議システムでは、会議参加者の発言が端末装置20のマイク23を用いて取得される。コミュニケーション支援装置10は、この発言を音声認識によりテキストに変換する。合わせて、音声から変換されたテキストを、機械翻訳により他の会議参加者の母国語のテキストに変換する。なお、会議に使用する言語は、会議参加者それぞれの母国語でもよいし、予め定められた言語を使用言語とし、その使用言語と異なる言語を母国語とする会議参加者の発言のみが使用言語に翻訳される構成でもよい。
コミュニケーション支援装置10において音声認識や機械翻訳により変換されたテキストは、会議参加者が使用する端末装置20のWebブラウザの機能により、表示部22に表示される。本実施形態では、会議参加者の1回の発言に対応するテキスト単位をセンテンスと呼ぶ。会議参加者のそれぞれが使用する端末装置20の表示部22には、会議が行われている間、センテンス表示用UI画面が表示される。そして、センテンス表示用UI画面には、会議参加者の発言があるたびに、その発言に対応したセンテンスが順次表示されていく。合わせて、会議参加者の発言は、会議参加者のそれぞれが使用する端末装置20のスピーカ24から音声出力される。なお、音声の共有は、コミュニケーション支援装置10の1つの機能として実現してもよいし、ビデオ会議装置などの別の装置、あるいは端末装置20上で動作するアプリケーションを利用して実現してもよい。
コミュニケーション支援装置10は、会議参加者の発言に対応するセンテンスを、例えば発言の音声と関連付けて保存する機能を持つ。保存されたセンテンスは、会議が終了した後に、例えば端末装置20の表示部22にセンテンス表示用UI画面上で表示させることができ、会議の振り返りなどに利用することができる。
コミュニケーション支援装置10は、会議参加者の発言に対応するセンテンスを解析し、発言の言い直しや聞き直しなど、会話による情報伝達が失敗していることが推察される状況を検出する。このような状況を、本実施形態ではイベントと呼ぶ。情報伝達が失敗しているときに起こり得るいくつかの発言のパターンが予めイベントとして定められ、それぞれのイベントには、情報伝達が失敗している場合に当該イベントが発生する度合いを表す伝達失敗指標が与えられている。
その後、コミュニケーション支援装置10は、イベントが検出されたセンテンスに対して形態素解析などを行って単語を抽出し、抽出した単語のうち、情報伝達の失敗の要因となっている単語を、伝達失敗指標に基づいて選択する。そして、コミュニケーション支援装置10は、選択した単語を正しい単語に修正するための単語修正用UI画面を、会議参加者が使用する端末装置20やシステム管理者が使用する端末装置30の表示部22に表示させる。この単語修正用UI画面から正しい単語が入力されると、コミュニケーション支援装置10は、この入力された単語を音声認識や機械翻訳に用いる辞書に登録したり、センテンスの修正を行ったりする。イベントが検出されたセンテンスから単語を抽出し、情報伝達の失敗の要因となっている単語を選択して、端末装置20,30の表示部22に単語修正用UI画面を表示させるタイミングは、会議中であってもよいし、会議終了後であってもよい。
(コミュニケーション支援装置)
次に、本実施形態のコミュニケーション支援装置10の詳細について、具体例を挙げながら説明する。図2は、コミュニケーション支援装置10の機能的な構成例を示すブロック図である。コミュニケーション支援装置10は、図2に示すように、変換部11と、センテンス管理部12と、UI制御部13と、イベント検出部14と、単語抽出部15と、単語選択部16とを備える。
変換部11は、端末装置20のマイク23を用いて取得された会議参加者の発言に対し、辞書Dを用いて音声認識および必要に応じて機械翻訳を行ってテキストに変換する。音声認識は、マイク23から入力された音声から自動的に発話区間を検出し、それを単一センテンスとして音声認識する構成でもよいし、会議参加者が例えばセンテンス表示用UI画面から明示的に発話開始と終了タイミングを入力し、その区間を単一センテンスとして音声認識する構成でもよい。
図3は、変換部11が用いる辞書Dの一例を模式的に示す図である。辞書Dには、登録されたそれぞれの単語について、原言語テキスト、読み、および原言語テキストに対応する翻訳語テキストが対応付けて格納されている。変換部11は、会議者の発言に含まれる単語がこの辞書Dに登録されていれば、この辞書Dを用いて、その単語を正しい原言語テキストや翻訳語テキストに変換することができる。
センテンス管理部12は、変換部11による処理の結果であるセンテンスを受け取り、センテンステーブルTb1に記録する。また、センテンス管理部12は、変換部11から受け取ったセンテンスをUI制御部13に渡す。
図4は、センテンステーブルTb1の一例を示す図である。センテンステーブルTb1には、会議参加者の発言をテキストに変換した各センテンスが、センテンスIDおよび発言者の情報と対応付けて格納される。センテンスIDは、各センテンスに対して与えられる固有の識別情報である。発言者の情報は、例えば、会議を開催する際に会議主催者が登録した情報などを利用することができる。センテンステーブルTb1は、会議ごとに独立して作成される。
本例では、会議参加者の発言に、固有のサービス名である「Toscribe(読み:てぅーすくらいぶ)」や、組織略称(ソリューション事業部の略称)である「Solジ(読み:そるじ)」が含まれている場合を想定する。これらの単語は、辞書Dに登録されていないため、音声認識や機械翻訳に失敗している。
UI制御部13は、会議参加者が使用する端末装置20やシステム管理者が使用する端末30の表示部22に、センテンス表示用UI画面DS1や単語修正用UI画面DS2を表示させたり、これらのUI画面DS1,DS2から入力された操作入力を受け付けたりといった制御を行う。本実施形態では、このUI制御部13の機能をWebサーバにより実現する。UI制御部13は、センテンス管理部12から新たなセンテンスを受け取るたびにセンテンス表示用UI画面DS1を更新し、Webブラウザを搭載した端末装置20の表示部22に、最新のセンテンス表示用UI画面DS1を表示させる。
図5は、端末装置20の表示部22に表示されるセンテンス表示用UI画面DS1の一例を示す図である。センテンス表示用UI画面DS1では、その上部の表示領域101に会議の情報、中央の表示領域102に発話の時系列順に並べられたセンテンスが表示される。会議の情報は、例えば、会議を開催する際に会議主催者が登録した情報を利用することができる。音声入力中は、下部の表示領域103に音声認識中のテキスト、およびその機械翻訳結果のテキストが表示される。図5に示す例では、日本語の発話が英語に翻訳される場合を想定している。
イベント検出部14は、センテンステーブルTb1に記録されたセンテンスを解析し、会話による情報伝達が失敗していることを示すイベントを検出する。イベントは、上述したように、情報伝達が失敗しているときに起こり得る発言のパターンであり、伝達失敗指標と対応付けられて、予めイベント種別テーブルTb2に登録されている。イベント検出部14は、このイベント種別テーブルTb2に基づいてイベントを検出し、イベントが検出されたセンテンスをイベントテーブルTb3に記録する。
図6は、イベント種別テーブルTb2の一例を示す図である。イベント種別テーブルTb2には、予め定められた発言のパターンであるイベントが、イベント種別IDおよび伝達失敗指標の値と対応付けて格納されている。本実施形態では、「言い直し」、「言い直し対象」、「疑問表現」、「疑問対象」、「説明表現」、「説明対象」、「誤動作表現」、「誤動作対象」、「聞き直し」、「聞き直し対象」が、それぞれイベントとして予め定められている。イベント種別IDは、各イベントに対して与えられる固有の識別情報である。伝達失敗指標は、上述したように、情報伝達が失敗している場合に当該イベントが発生する度合いを表し、イベントの種別ごとに定められた値を持つ。伝達失敗指標の値は、イベントの種別ごとに予め固定値として設定されていてもよいし、実際に単語修正用UI画面DS2で修正された単語を含むセンテンスに対応するイベントの失敗伝達指標の値を大きくするなど、システムの利用状況に応じて動的に変化する値であってもよい。
図6のイベント種別テーブルTb2で例示するイベントのうち、「言い直し」と「言い直し対象」は、ある会議参加者が他の会議参加者の発言を待たずに同様の発言を繰り返すパターンである。イベント検出部14は、直前のセンテンスと同様のセンテンスが同一の会議参加者から続けて発言されている場合に、そのセンテンスを「言い直し」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。また、イベント検出部14は、「言い直し」イベントが検出された直前のセンテンスを、「言い直し対象」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。
「疑問表現」と「疑問対象」は、特定の単語の意味を問い合わせる場合の発言のパターンである。イベント検出部14は、例えば「○○とはなんですか」などの、特定の単語に対する意味を問うセンテンスを特定のルールで検知し、そのセンテンスを「疑問表現」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。また、イベント検出部14は、「疑問表現」イベントを引き起こした直前の他の会議参加者が発言したセンテンスを、「疑問対象」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。
「説明表現」と「説明対象」は、特定の単語の意味を説明する場合の発言のパターンである。イベント検出部14は、特定の単語の意味を説明しているセンテンスを特定のルールで検知し、そのセンテンスを「説明表現」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。また、イベント検出部14は、「説明表現」イベントが検出されたセンテンスを発言した会議参加者と同一の会議参加者がそのセンテンスより前に発言した、「説明表現」イベントの対象となる単語を含むセンテンスを、「説明対象」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。
「誤動作表現」と「誤動作対象」は、コミュニケーション支援装置10が正しく動作していないことを表明する場合の発言のパターンである。イベント検出部14は、例えば「うまく出ない」などの、コミュニケーション支援装置10が正しく動作していないことを表明しているセンテンスを特定のルールで検知し、そのセンテンスを「誤動作表現」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。また、イベント検出部14は、「誤動作表現」イベントが検出されたセンテンスの直前のセンテンスを、「誤動作対象」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。
「聞き直し」と「聞き直し対象」は、ある会議参加者が他の会議参加者に対して同様の発言の繰り返しを要求する場合の発言のパターンである。イベント検出部14は、例えば「もう一度言ってください」などの、他の会議参加者に対して同様の発言を要求するセンテンスを特定のルールで検知し、そのセンテンスを「聞き直し」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。また、イベント検出部14は、「聞き直し」イベントを引き起こした直前の他の会議参加者が発言したセンテンスを、「聞き直し対象」イベントが検出されたセンテンスとしてイベントテーブルTb3に記録する。
上述したセンテンスを検知するルールとしては、例えば、形態素解析を行った結果に対して、形態素や特定単語の列でのマッチングを行う方式などを用いることができる。単語のマッチングにおいては、単語間の違いを表す距離を定義し、一定範囲内の距離の単語は同一と判定してもよい。また、上述したセンテンスを検知するルールは、確率的言語モデルで示されたものであってもよい。また、各イベント種別に対して複数のルールが存在してもよい。
図7は、イベントテーブルTb3の一例を示す図である。イベントテーブルTb3には、イベントが検出されたセンテンスのセンテンスIDと、そのセンテンスにより検出された全てのイベントのイベント種別IDと、伝達失敗指標総計とが、対応付けて格納されている。伝達失敗指標総計は、そのセンテンスにより検出された全てのイベントの伝達失敗指標の値を加算した総計値(第1総計値)であり、情報伝達が失敗していることの確からしさを表す指標となる。
単語抽出部15は、イベントテーブルTb3およびセンテンステーブルTb1を用い、イベントが検出されたセンテンスから単語を抽出して、単語テーブルTb4を作成する。
図8は、単語テーブルTb4の一例を示す図である。単語テーブルTb4には、イベントが検出されたセンテンスから抽出された単語が、単語ID、センテンスIDおよび伝達失敗指標総計と対応付けて格納されている。単語IDは、抽出された各単語に対して与えられる固有の識別情報である。センテンスIDは、当該単語が抽出されたセンテンスのセンテンスIDであり、複数のセンテンスから同じ単語が抽出された場合は、全てのセンテンスのセンテンスIDが列挙される。伝達失敗指標総計は、当該単語が抽出されたセンテンスに与えられた伝達失敗指標総計であり、複数のセンテンスから同じ単語が抽出された場合は、全てのセンテンスに与えられた伝達失敗指標総計を加算した総計値(第2総計値)が、その単語に対応する伝達失敗指標総計となる。
単語抽出部15が単語テーブルTb4を作成する際は、まず、イベントが検出された各センテンスに対して形態素解析を行って、単語を抽出する。そして、センテンスから抽出した各単語を、単語テーブルTb4に記録していく。この際、抽出した単語が単語テーブルTb4に存在していなければ、単語テーブルTb4に新たに単語を追加し、当該単語を抽出したセンテンスのセンテンスIDを対応付けて記録するとともに、当該センテンスの持つ伝達失敗指標総計を単語の伝達失敗指標総計としてそのまま転記する。一方、抽出した単語が単語テーブルTb4にすでに存在する場合は、当該単語を抽出したセンテンスのセンテンスIDを当該単語に対応するセンテンスIDに追記し、当該センテンスの伝達失敗指標総計を単語の伝達失敗指標総計に加算する。単語抽出部15は、抽出した単語全てについて以上の処理を行って、単語テーブルTb4を作成する。図8に示す例では、図示を簡略化するために一部の単語のみを記載しているが、単語テーブルTb4には、イベントが検出された全てのセンテンスから抽出された全ての単語が列挙される。なお、全ての単語を単語テーブルTb4に記録する代わりに、既存の未知語抽出方式を用いて抽出された未知語のみを追記してもよい。
単語選択部16は、単語テーブルTb4に記録された単語の伝達失敗指標総計をもとに、単語テーブルTb4に記録された単語のうち、情報伝達の失敗要因となっている単語を選択する。例えば単語選択部16は、単語テーブルTb4に記録された単語のうち、単語の伝達失敗指標総計が所定の閾値以上となっている単語を、情報伝達の失敗要因となっている単語として選択する。また、単語選択部16は、単語テーブルTb4に記録された単語を伝達失敗指標総計の値が大きい順にソートし、上位の所定数の単語を、情報伝達の失敗要因となっている単語として選択するようにしてもよい。上記の閾値や所定数は、適切な値を予め定めておけばよい。
単語選択部16により選択された単語は、UI制御部13に渡される。UI制御部13は、単語選択部16から単語を受け取ると、その単語を正しい単語に修正するための単語修正用UI画面DS2を作成し、Webブラウザを搭載した端末装置20,30の表示部22に、作成した単語修正用UI画面DS2を表示させる。
図9は、端末装置20,30の表示部22に表示される単語修正用UI画面DS2の一例を示す図である。単語修正用UI画面DS2には、単語選択部16により選択された単語が、伝達失敗指標総計の値が大きい順に、修正対象語201として表示される。修正対象語201の右側には、その修正対象語201に対して正しい単語を入力するための正解入力のテキストボックス202が設けられ、さらにその修正対象語201が出現した文例(センテンス)203や、そのセンテンスから検出されたイベント204が表示される。端末装置20を使用する会議参加者や、端末装置30を使用するシステム管理者は、表示部22に表示された単語修正用UI画面DS2のテキストボックス202に、修正対象語201に対する正しい単語を入力することで、修正対象語201の修正を行うことができる。
本実施形態では、システム管理者が単語修正用UI画面DS2を用いて辞書Dの更新を行うことを想定する。この場合、UI制御部13は、会議終了後にシステム管理者からの要求に応じて、システム管理者が使用する端末装置30の表示部22に単語修正用UI画面DS2を表示させる。そして、この単語修正用UI画面DS2のテキストボックス202から単語が入力されると、UI制御部13は、この入力を受け付けて、入力された単語を辞書Dに追加する処理を行う。なお、単語を辞書Dに追加する処理は、UI制御部13とは別の機能により行うようにしてもよい。
また、UI制御部13は、会議中に会議参加者が使用する端末装置20の表示部22に単語修正用UI画面DS2を表示し、この単語修正用UI画面DS2のテキストボックス202から入力された単語を辞書Dに追加する処理を行うようにしてもよい。この場合、イベント検出部14、単語抽出部15および単語選択部16の処理が会議中に随時行われる。そして、ある単語の伝達失敗指標総計の値が閾値以上になると、UI制御部13が、例えばセンテンス表示用UI画面DS1上のポップアップ画面として、会議参加者が使用する端末装置20の表示部22に単語修正用UI画面DS2を表示させる。そして、この単語修正用UI画面DS2のテキストボックス202から単語が入力されると、UI制御部13は、この入力を受け付けて、入力された単語を辞書Dに追加する処理を行う。
また、UI制御部13は、単語修正用UI画面DS2のテキストボックス202から入力された単語を辞書Dに追加することに加えて、あるいは辞書Dに追加する代わりに、センテンステーブルTb1に記録されているセンテンス中の修正前の単語を正しい単語に置き換えることで、センテンスの修正を行うようにしてもよい。なお、修正前の単語を含むセンテンスを修正する処理は、UI制御部13とは別の機能により行うようにしてもよい。
また、センテンステーブルTb1に記録されているセンテンスに対応する発言の音声が保存されている場合には、単語修正用UI画面DS2のテキストボックス202から入力された単語が辞書Dに追加された後、センテンステーブルTb1に記録されているセンテンスに対応する発言の音声に対して音声認識や機械翻訳を再度行い、その結果をセンテンス表示用UI画面DS1上で表示したり、センテンステーブルTb1に追記したりしてもよい。
また、辞書Dに単語を追加する際に、追加した単語に高い重みをもたせ、音声認識時に優先的に使われるようにしてもよい。さらに、辞書Dに単語を追加する際に、その単語が含まれているセンテンスを、機械学習に基づく未知語抽出方式の学習用途に用いるようにしてもよい。
(動作)
次に、本実施形態のコミュニケーション支援装置10の動作について、図10を参照しながら説明する。図10は、本実施形態のコミュニケーション支援装置10の動作の一例を示すフローチャートである。図10に示す例は、会議中は会議参加者が使用する端末装置20の表示部22にセンテンス表示用UI画面DS1を表示させ、会議終了後にシステム管理者が使用する端末装置30の表示部22に単語修正用UI画面DS2を表示させて辞書Dの更新を行う場合のコミュニケーション支援装置10の動作を示している。
会議中、会議参加者の端末装置20のマイク23により発言の音声が取得されると(ステップS101)、コミュニケーション支援装置10の変換部11が、この発言を音声認識や機械翻訳によりテキストに変換し(ステップS102)、発言単位のセンテンスとしてセンテンス管理部12に渡す。
センテンス管理部12は、変換部11から受け取ったセンテンスをセンテンステーブルTb1に追記し(ステップS103)、このセンテンスをUI制御部13に渡す。
UI制御部13は、センテンス管理部12からセンテンスを受け取ると、センテンス表示用UI画面DS1を更新し(ステップS104)、更新したセンテンス表示用UI画面DS1を、会議参加者が使用する端末装置20の表示部22に表示させる。
次に、イベント検出部14が、センテンステーブルTb1に記録されたセンテンスを解析して(ステップS105)、イベントが検出されたか否かを判定する(ステップS106)。そして、イベントが検出された場合(ステップS106:Yes)、イベント検出部14は、検出されたイベントの情報をイベントテーブルTb3に記録する(ステップS107)。イベントが検出されない場合は(ステップS106:No)、ステップS107の処理はスキップする。
その後、コミュニケーション支援装置10は、会議が終了したか否かを判定し(ステップS108)、会議が終了していなければ(ステップS108:No)、ステップS101に戻って以降の処理が繰り返される。なお、会議が終了したか否かは、例えば、会議参加者がセンテンス表示用UI画面DS1から明示的に会議終了の入力を行ったか否かにより判定される。
会議が終了すると(ステップS108:Yes)、単語抽出部15が、イベントテーブルTb3に記録された、イベントが検出されたセンテンスから単語を抽出し、単語テーブルTb4を作成する(ステップS109)。そして、単語選択部16が、単語テーブルTb4に記録された単語のうち、伝達失敗指標総計の値が所定の閾値以上の単語を、情報伝達の失敗要因となっている単語として選択し(ステップS110)、選択した単語をUI制御部13に渡す。
UI制御部13は、単語選択部16から単語を受け取ると、単語修正用UI画面DS2を作成して、システム管理者が使用する端末装置30の表示部22に表示させる(ステップS111)。そして、UI制御部13は、この単語修正用UI画面DS2を用いてシステム管理者が行った修正入力を受け付けて(ステップS112)、修正語の単語を辞書Dに登録する(ステップS113)。
(変形例)
なお、以上説明した例では、会議中に作成されたイベントテーブルTb3に基づいて、会議終了後に単語テーブルTb4を作成している。しかし、イベントの検出およびイベントテーブルTb3への情報の記録を会議中だけでなく会議終了後にも行い、得られたイベントテーブルTb3に基づいて単語テーブルTb4を作成するようにしてもよい。
以下では、会議終了後に会議の振り返りを行うために、端末装置20の表示部22にセンテンス表示用UI画面を表示させる場合を想定し、このセンテンス表示用UI画面からの入力操作をイベントの一つとして検出してイベントテーブルTb3への情報の記録を行う変形例について説明する。なお、本変形例では、会議参加者による会議中の発言の音声が、その発言をテキスト化したセンテンスと関連付けられて保存されているものとする。また、本変形例では、音声認識を用いた発言のテキスト化のみを行い、機械翻訳や会議中のセンテンスの表示は行わないものとする。
本変形例では、UI制御部13は、会議終了後に会議参加者などからの要求に応じて、会議の振り返りを行うためのセンテンス表示用UI画面DS1’を、端末装置20の表示部22に表示させる。図11は会議終了後に端末装置20の表示部22に表示されるセンテンス表示用UI画面DS1’の一例を示す図である。このセンテンス表示用UI画面DS1’では、その上部の表示領域101に会議の情報が表示され、中央の表示領域102にセンテンステーブルTb1に記録されているセンテンスが発話の時系列順に並べて表示される。また、このセンテンス表示用UI画面DS1’には、表示中のセンテンスに対する修正を行うための「修正」ボタン105、表示中のセンテンスに対応する音声を再生するための「再生」ボタン106、表示中のセンテンスに対する修正を保守サービス(システム管理者など)に依頼する「修正依頼」ボタン107が設けられている。
本変形例では、イベント検出部14が、このセンテンス表示用UI画面DS1’に設けられた「修正」ボタン105、「再生」ボタン106および「修正依頼」ボタン107に対する操作をそれぞれイベントとして検出して、イベントテーブルTb3に追記する。このとき、イベント検出部14が参照するイベント種別テーブルTb2には、図12に示すように、「修正」、「再生」、「修正依頼」のそれぞれがイベントとして登録されており、イベント種別IDおよび伝達失敗指標の値と対応付けられている。
その後、センテンス表示用UI画面DS1’によるセンテンスの閲覧が終了すると、上述した例と同様の方法によって、単語抽出部15が単語テーブルTb4を作成し、単語選択部16が情報伝達の失敗要因となっている単語を選択する。
(変形例の動作)
次に、変形例のコミュニケーション支援装置10の動作について、図13を参照しながら説明する。図13は、変形例のコミュニケーション支援装置10の動作の一例を示すフローチャートである。
会議中、会議参加者の端末装置20のマイク23により発言の音声が取得されると(ステップS201)、コミュニケーション支援装置10の変換部11が、この発言を音声認識によりテキストに変換し(ステップS202)、発言単位のセンテンスとしてセンテンス管理部12に渡す。
センテンス管理部12は、変換部11から受け取ったセンテンスをセンテンステーブルTb1に追記する(ステップS203)。
次に、イベント検出部14が、センテンステーブルTb1に記録されたセンテンスを解析して(ステップS204)、イベントが検出されたか否かを判定する(ステップS205)。そして、イベントが検出された場合(ステップS205:Yes)、イベント検出部14は、検出されたイベントの情報をイベントテーブルTb3に記録する(ステップS206)。イベントが検出されない場合は(ステップS205:No)、ステップS206の処理はスキップする。
その後、コミュニケーション支援装置10は、会議が終了したか否かを判定し(ステップS207)、会議が終了していなければ(ステップS207:No)、ステップS201に戻って以降の処理が繰り返される。なお、会議が終了したか否かは、例えば、マイク23による音声の取得が一定時間以上途絶えているか否かにより判定される。
会議が終了した後(ステップS207:Yes)、例えば、会議の振り返りを行う会議参加者から会議名を指定したセンテンス閲覧要求があると、UI制御部13が、指定された会議名に対応するセンテンステーブルTb1に基づいてセンテンス表示用UI画面DS1’を作成し、センテンス閲覧要求を行った会議参加者が使用する端末装置20の表示部22にセンテンス表示用UI画面DS1’を表示させる(ステップS208)。
センテンス表示用UI画面DS1’を端末装置20の表示部22に表示させている間、UI制御部13は、センテンス表示用UI画面DS1’に設けられた「修正」ボタン105、「再生」ボタン106、「修正依頼」ボタン107のいずれかが操作されたか否かを判定する(ステップS209)。そして、「修正」ボタン105、「再生」ボタン106、「修正依頼」ボタン107のいずれかが操作されると(ステップS209:Yes)、イベント検出部14がその操作をイベントとして検出し、検出したイベントの情報をイベントテーブルTb3に追記する(ステップS210)。いずれのボタンも操作されない場合は(ステップS209:No)、ステップS210の処理はスキップする。
その後、コミュニケーション支援装置10は、会議の振り返りのためのセンテンスの閲覧が終了したか否かを判定し(ステップS211)、センテンスの閲覧が終了していなければ(ステップS211:No)、ステップS209に戻って以降の処理が繰り返される。なお、センテンスの閲覧が終了したか否かは、例えば、会議の振り返りを行っている会議参加者がセンテンス表示用UI画面DS1’から明示的に閲覧終了の入力を行ったか否かにより判定される。
センテンスの閲覧が終了すると(ステップS211:Yes)、単語抽出部15が、イベントテーブルTb3に記録された、イベントが検出されたセンテンスから単語を抽出し、単語テーブルTb4を作成する(ステップS212)。そして、単語選択部16が、単語テーブルTb4に記録された単語のうち、伝達失敗指標総計の値が所定の閾値以上の単語を、情報伝達の失敗要因となっている単語として選択し(ステップS213)、選択した単語をUI制御部13に渡す。
UI制御部13は、単語選択部16から単語を受け取ると、単語修正用UI画面DS2を作成して、例えば、システム管理者が使用する端末装置30の表示部22に表示させる(ステップS214)。そして、UI制御部13は、この単語修正用UI画面DS2を用いてシステム管理者が行った修正入力を受け付けて(ステップS215)、修正語の単語を辞書Dに登録する(ステップS216)。
(実施形態の効果)
以上、具体的な例を挙げながら詳細に説明したように、本実施形態のコミュニケーション支援装置10は、会議参加者の発言をテキスト化したセンテンスを解析して、会話による情報伝達に失敗していることを示すイベントを検出する。そして、イベントが検出されたセンテンスから単語を抽出し、抽出した単語のうち、イベント種別ごとに定められた値を持つ伝達失敗指標に基づいて、情報伝達の失敗要因となっている単語を選択する。したがって、本実施形態のコミュニケーション支援装置10によれば、ユーザ間の会話を変換したテキストから、会話による情報伝達の失敗要因となっている単語を適切に選び出すことができる。
また、本実施形態のコミュニケーション支援装置10によれば、選択された単語に対する修正を受け付けて、修正された単語を音声認識や機械翻訳に用いる辞書Dに登録することによって、辞書Dの更新を低コストで実現することができる。また、辞書Dを更新することで誤認識や誤訳を減らし、コミュニケーションの支援を適切に行うことができる。
また、本実施形態のコミュニケーション支援装置10によれば、選択された単語に対する修正を受け付けて、修正された単語でセンテンスを修正することにより、ユーザ間で伝達すべき情報を明確化することができ、コミュニケーションの支援を適切に行うことができる。
(補足)
以上説明した本実施形態のコミュニケーション支援装置10における各機能的な構成要素は、例えば、汎用のコンピュータシステムを基本ハードウェアとして用いて実行されるプログラム(ソフトウェア)により実現することができる。
図14は、コミュニケーション支援装置10のハードウェア構成の一例を概略的に示すブロック図である。コミュニケーション支援装置10は、図14に示すように、CPUなどのプロセッサ51と、RAMなどの主記憶部52と、各種の記憶装置を用いた補助記憶部53と、通信インタフェース54と、これらの各部を接続するバス55とを含んだ汎用のコンピュータシステムとして構成される。なお、補助記憶部53は、有線または無線によるLAN(Local Area Network)などで各部に接続されてもよい。
コミュニケーション支援装置10の各機能的な構成要素は、例えば、プロセッサ51が、主記憶部52を利用して、補助記憶部53などに格納されたプログラムを実行することによって実現される。このプログラムは、例えば、インストール可能な形式又は実行可能な形式のファイルでCD−ROM(Compact Disk Read Only Memory)、フレキシブルディスク(FD)、CD−R(Compact Disk Recordable)、DVD(Digital Versatile Disc)などのコンピュータで読み取り可能な記録媒体に記録されてコンピュータプログラムプロダクトとして提供される。
また、このプログラムを、インターネットなどのネットワークに接続された他のコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、このプログラムをインターネットなどのネットワーク経由で提供または配布するように構成してもよい。また、このプログラムを、コンピュータ内部のROM(補助記憶部53)などに予め組み込んで提供するように構成してもよい。
このプログラムは、コミュニケーション支援装置10の機能的な構成要素(変換部11、センテンス管理部12、UI制御部13、イベント検出部14、単語抽出部15および単語選択部16)を含むモジュール構成となっており、実際のハードウェアとしては、例えば、プロセッサ51が上記記録媒体からプログラムを読み出して実行することにより、上記の各構成要素が主記憶部52上にロードされ、上記の各構成要素が主記憶部52上に生成されるようになっている。なお、コミュニケーション支援装置10の機能的な構成要素は、その一部または全部を、ASIC(Application Specific Integrated Circuit)やFPGA(Field-Programmable Gate Array)などの専用のハードウェアを用いて実現することも可能である。
以上、本発明の実施形態を説明したが、この実施形態は例として提示したものであり、発明の範囲を限定することは意図していない。この新規な実施形態は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。これら実施形態やその変形は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
10 コミュニケーション支援装置
11 変換部
12 センテンス管理部
13 UI制御部
14 イベント検出部
15 単語抽出部
16 単語選択部
20,30 端末装置
40 通信ネットワーク
D 辞書
DS1 センテンス表示用UI画面
DS2 単語修正用UI画面
Tb1 センテンステーブル
Tb2 イベント種別テーブル
Tb3 イベントテーブル
Tb4 単語テーブル

Claims (10)

  1. 辞書を用いてユーザ間の会話をテキストに変換して端末装置に表示させるコミュニケーション支援装置であって、
    ユーザの1回の発言に対応するテキスト単位であるセンテンスを解析して、会話による情報伝達が失敗しているときに起こり得る発言のパターンとして予め定められた発言のパターンであるイベントを検出する検出部と、
    前記イベントが検出されたセンテンスから単語を抽出する抽出部と、
    前記抽出部により抽出された単語のうち、情報伝達の失敗要因となっている単語を選択する選択部と、を備え
    複数の前記イベントの各々に対し、会話による情報伝達が失敗したときに当該イベントが発生する度合いを表す伝達失敗指標の値が定められており、
    前記イベントが検出されたセンテンスには、当該センテンスにおいて検出された全てのイベントの伝達失敗指標の値を合算した第1総計値が与えられ、
    前記抽出部により抽出された単語には、当該単語が出現する全てのセンテンスに与えられた第1総計値を合算した第2総計値が与えられ、
    前記選択部は、前記抽出部により抽出された単語のうち、前記第2総計値が所定の閾値以上の単語を、情報伝達の失敗要因となっている単語として選択するコミュニケーション支援装置。
  2. 前記選択部により選択された単語を提示して正しい単語の入力を受け付けるUI画面を前記端末装置に表示させるUI制御部をさらに備える、請求項1に記載のコミュニケーション支援装置。
  3. 前記UI画面から入力された単語が前記辞書に追加される、請求項に記載のコミュニケーション支援装置。
  4. 前記UI画面から入力された単語により、前記選択部により選択された単語を含むセンテンスが修正される、請求項2または3に記載のコミュニケーション支援装置。
  5. 前記検出部は、同様の発言が繰り返される言い直しを、前記イベントの一つとして検出する、請求項1乃至4のいずれか一項に記載のコミュニケーション支援装置。
  6. 前記検出部は、同様の発言を繰り返すことを要求する聞き直しを、前記イベントの一つとして検出する、請求項1乃至5のいずれか一項に記載のコミュニケーション支援装置。
  7. 前記検出部は、発言の意味を問う疑問表現を、前記イベントの一つとして検出する、請求項1乃至6のいずれか一項に記載のコミュニケーション支援装置。
  8. 前記検出部は、発言の意味を説明する説明表現を、前記イベントの一つとして検出する、請求項1乃至7のいずれか一項に記載のコミュニケーション支援装置。
  9. 辞書を用いてユーザ間の会話をテキストに変換して端末装置に表示させるコミュニケーション支援装置において実行されるコミュニケーション支援方法であって、
    ユーザの1回の発言に対応するテキスト単位であるセンテンスを解析して、会話による情報伝達が失敗しているときに起こり得る発言のパターンとして予め定められた発言のパターンであるイベントを検出するステップと、
    前記イベントが検出されたセンテンスから単語を抽出するステップと、
    抽出した単語のうち、情報伝達の失敗要因となっている単語を選択するステップと、を含み、
    複数の前記イベントの各々に対し、会話による情報伝達が失敗したときに当該イベントが発生する度合いを表す伝達失敗指標の値が定められており、
    前記イベントが検出されたセンテンスには、当該センテンスにおいて検出された全てのイベントの伝達失敗指標の値を合算した第1総計値が与えられ、
    前記抽出された単語には、当該単語が出現する全てのセンテンスに与えられた第1総計値を合算した第2総計値が与えられ、
    前記単語を選択するステップでは、前記抽出された単語のうち、前記第2総計値が所定の閾値以上の単語を、情報伝達の失敗要因となっている単語として選択するコミュニケーション支援方法。
  10. コンピュータに、
    辞書を用いてユーザ間の会話をテキストに変換して端末装置に表示させる機能と、
    ユーザの1回の発言に対応するテキスト単位であるセンテンスを解析して、会話による情報伝達が失敗しているときに起こり得る発言のパターンとして予め定められた発言のパターンであるイベントを検出する機能と、
    前記イベントが検出されたセンテンスから単語を抽出する機能と、
    抽出した単語のうち、情報伝達の失敗要因となっている単語を選択する機能と、を実現させるためのプログラムであって、
    複数の前記イベントの各々に対し、会話による情報伝達が失敗したときに当該イベントが発生する度合いを表す伝達失敗指標の値が定められており、
    前記イベントが検出されたセンテンスには、当該センテンスにおいて検出された全てのイベントの伝達失敗指標の値を合算した第1総計値が与えられ、
    前記抽出された単語には、当該単語が出現する全てのセンテンスに与えられた第1総計値を合算した第2総計値が与えられ、
    前記抽出された単語のうち、前記第2総計値が所定の閾値以上の単語を、情報伝達の失敗要因となっている単語として選択するプログラム
JP2013264127A 2013-12-20 2013-12-20 コミュニケーション支援装置、コミュニケーション支援方法およびプログラム Active JP6327848B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013264127A JP6327848B2 (ja) 2013-12-20 2013-12-20 コミュニケーション支援装置、コミュニケーション支援方法およびプログラム
CN201410385427.8A CN104731767B (zh) 2013-12-20 2014-08-07 交流支援装置以及交流支援方法
US14/458,475 US20150179173A1 (en) 2013-12-20 2014-08-13 Communication support apparatus, communication support method, and computer program product
EP14181011.9A EP2887229A3 (en) 2013-12-20 2014-08-14 Communication support apparatus, communication support method and computer program product

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013264127A JP6327848B2 (ja) 2013-12-20 2013-12-20 コミュニケーション支援装置、コミュニケーション支援方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2015121864A JP2015121864A (ja) 2015-07-02
JP6327848B2 true JP6327848B2 (ja) 2018-05-23

Family

ID=51355453

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013264127A Active JP6327848B2 (ja) 2013-12-20 2013-12-20 コミュニケーション支援装置、コミュニケーション支援方法およびプログラム

Country Status (4)

Country Link
US (1) US20150179173A1 (ja)
EP (1) EP2887229A3 (ja)
JP (1) JP6327848B2 (ja)
CN (1) CN104731767B (ja)

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016091266A (ja) * 2014-11-04 2016-05-23 富士通株式会社 翻訳装置、翻訳方法、及び翻訳プログラム
US10409919B2 (en) * 2015-09-28 2019-09-10 Konica Minolta Laboratory U.S.A., Inc. Language translation for display device
CN105427857B (zh) * 2015-10-30 2019-11-08 华勤通讯技术有限公司 生成文字记录的方法及系统
US10614418B2 (en) * 2016-02-02 2020-04-07 Ricoh Company, Ltd. Conference support system, conference support method, and recording medium
JP7098875B2 (ja) * 2016-02-02 2022-07-12 株式会社リコー 会議支援システム、会議支援装置、会議支援方法及びプログラム
WO2017163284A1 (ja) * 2016-03-25 2017-09-28 パナソニックIpマネジメント株式会社 翻訳装置
JP6526608B2 (ja) * 2016-09-06 2019-06-05 株式会社東芝 辞書更新装置およびプログラム
KR101818980B1 (ko) * 2016-12-12 2018-01-16 주식회사 소리자바 다중 화자 음성 인식 수정 시스템
JP2018174439A (ja) * 2017-03-31 2018-11-08 本田技研工業株式会社 会議支援システム、会議支援方法、会議支援装置のプログラム、および端末のプログラム
JP6790003B2 (ja) * 2018-02-05 2020-11-25 株式会社東芝 編集支援装置、編集支援方法及びプログラム
JP2019153099A (ja) * 2018-03-05 2019-09-12 コニカミノルタ株式会社 会議支援システム及び会議支援プログラム
WO2020054244A1 (ja) * 2018-09-13 2020-03-19 株式会社Nttドコモ 対話情報生成装置
CN111046680B (zh) 2018-10-15 2022-05-24 华为技术有限公司 一种翻译方法及电子设备
US10936827B1 (en) * 2018-10-24 2021-03-02 Amazon Technologies, Inc. Machine evaluation of translation accuracy
CN111753558B (zh) * 2020-06-23 2022-03-04 北京字节跳动网络技术有限公司 视频翻译方法和装置、存储介质和电子设备
JP2022019125A (ja) * 2020-07-17 2022-01-27 株式会社東芝 運転訓練評価システムおよび運転訓練評価方法

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001236091A (ja) * 2000-02-23 2001-08-31 Nippon Telegr & Teleph Corp <Ntt> 音声認識結果の誤り訂正方法およびその装置
JP4050755B2 (ja) * 2005-03-30 2008-02-20 株式会社東芝 コミュニケーション支援装置、コミュニケーション支援方法およびコミュニケーション支援プログラム
US8073699B2 (en) * 2005-08-16 2011-12-06 Nuance Communications, Inc. Numeric weighting of error recovery prompts for transfer to a human agent from an automated speech response system
US8700383B2 (en) * 2005-08-25 2014-04-15 Multiling Corporation Translation quality quantifying apparatus and method
US20070239455A1 (en) * 2006-04-07 2007-10-11 Motorola, Inc. Method and system for managing pronunciation dictionaries in a speech application
JP4481972B2 (ja) * 2006-09-28 2010-06-16 株式会社東芝 音声翻訳装置、音声翻訳方法及び音声翻訳プログラム
US8234289B2 (en) * 2007-12-17 2012-07-31 International Business Machines Corporation Restoration of conversation stub for recognized experts
JP5274163B2 (ja) * 2008-09-05 2013-08-28 インターナショナル・ビジネス・マシーンズ・コーポレーション コミュニケーション・エラーを検出するシステムおよび方法
JP5336805B2 (ja) * 2008-09-26 2013-11-06 株式会社東芝 音声翻訳装置、方法、およびプログラム
JP5195369B2 (ja) * 2008-12-05 2013-05-08 富士通株式会社 対話選別プログラム、対話選別装置、および対話選別方法
JP5398295B2 (ja) * 2009-02-16 2014-01-29 株式会社東芝 音声処理装置、音声処理方法及び音声処理プログラム
US8515749B2 (en) * 2009-05-20 2013-08-20 Raytheon Bbn Technologies Corp. Speech-to-speech translation
ES2408906B1 (es) * 2011-05-26 2014-02-28 Telefónica, S.A. Sistema y método para analizar el contenido de una conversación de voz

Also Published As

Publication number Publication date
JP2015121864A (ja) 2015-07-02
EP2887229A3 (en) 2015-09-30
CN104731767B (zh) 2018-04-17
CN104731767A (zh) 2015-06-24
US20150179173A1 (en) 2015-06-25
EP2887229A2 (en) 2015-06-24

Similar Documents

Publication Publication Date Title
JP6327848B2 (ja) コミュニケーション支援装置、コミュニケーション支援方法およびプログラム
US11049493B2 (en) Spoken dialog device, spoken dialog method, and recording medium
JP6484236B2 (ja) オンライン音声翻訳方法及び装置
KR101683943B1 (ko) 음성번역 시스템, 제1 단말장치, 음성인식 서버장치, 번역 서버장치, 및 음성합성 서버장치
US8954335B2 (en) Speech translation system, control device, and control method
WO2020117504A1 (en) Training of speech recognition systems
EP3891732A1 (en) Transcription generation from multiple speech recognition systems
WO2020117505A1 (en) Switching between speech recognition systems
WO2020117507A1 (en) Training speech recognition systems using word sequences
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
US8423351B2 (en) Speech correction for typed input
JP5706384B2 (ja) 音声認識装置、音声認識システム、音声認識方法および音声認識プログラム
US20130253932A1 (en) Conversation supporting device, conversation supporting method and conversation supporting program
JP2018045001A (ja) 音声認識システム、情報処理装置、プログラム、音声認識方法
JP2012113542A (ja) 感情推定装置、その方法、プログラム及びその記録媒体
JP2017120616A (ja) 機械翻訳方法、及び、機械翻訳システム
US9805740B2 (en) Language analysis based on word-selection, and language analysis apparatus
CN111192586B (zh) 语音识别方法及装置、电子设备、存储介质
US9697834B2 (en) Text formatter with intuitive customization
JP5396530B2 (ja) 音声認識装置および音声認識方法
WO2018198807A1 (ja) 翻訳装置
JP5160594B2 (ja) 音声認識装置および音声認識方法
JP6233867B2 (ja) 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム
JP6429294B2 (ja) 音声認識処理装置、音声認識処理方法およびプログラム
JP2020118910A (ja) 情報処理装置、情報処理システム、および情報処理プログラム

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20151102

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20160923

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170831

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170905

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171020

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180320

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180417

R150 Certificate of patent or registration of utility model

Ref document number: 6327848

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150