JP2016095727A - 表示装置、サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及び制御プログラム - Google Patents

表示装置、サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及び制御プログラム Download PDF

Info

Publication number
JP2016095727A
JP2016095727A JP2014232154A JP2014232154A JP2016095727A JP 2016095727 A JP2016095727 A JP 2016095727A JP 2014232154 A JP2014232154 A JP 2014232154A JP 2014232154 A JP2014232154 A JP 2014232154A JP 2016095727 A JP2016095727 A JP 2016095727A
Authority
JP
Japan
Prior art keywords
display
utterance content
information
display device
content information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014232154A
Other languages
English (en)
Inventor
浩章 奥本
Hiroaki Okumoto
浩章 奥本
慶子 蛭川
Keiko Hirukawa
慶子 蛭川
門脇 幹宏
Mikihiro Kadowaki
幹宏 門脇
佳成 澤田
Yoshinari Sawada
佳成 澤田
紋 中川
Aya Nakagawa
紋 中川
直 山口
Sunao Yamaguchi
直 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2014232154A priority Critical patent/JP2016095727A/ja
Publication of JP2016095727A publication Critical patent/JP2016095727A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Digital Computer Display Output (AREA)
  • Machine Translation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる技術を提供する。【解決手段】店員向け画像及び客向け画像を表示する表示装置(200)であって、表示情報を取得する表示情報取得部(231)と、表示装置が店員向けであるか客向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、表示画像を表示する表示部(250)とを備える表示装置。【選択図】図1

Description

本発明はサービス提供者及びサービス利用者のコミュニケーションを支援するために用いられる表示装置、サーバ、コミュニケーション支援システム、コミュニケーション支援方法、当該表示装置の制御プログラム、及び当該サーバの制御プログラムに関する。
経済や文化のグローバル化が進む現在、異なる言語を母語とする人同士がコミュニケーションを図る機会が増えている。そのため、このようなコミュニケーションを支援することを目的とする翻訳装置が開発されている。例えば特許文献1には、日本語を母語とするユーザ(ユーザJ)向けに日本語を表示するディスプレイと、英語を母語とするユーザ(ユーザE)向けに英語を表示するディスプレイとを備えた翻訳装置が記載されている。
特許文献2には、異なる母語の利用者同士の音声によるコミュニケーションを支援する音声翻訳装置が記載されている。この音声翻訳装置は、入力された音声信号の認識結果及び当該認識結果に対応する翻訳結果を表示することに加えて、上記認識結果に関連するキーワードを検索するとともに当該キーワードの翻訳結果を表示することによってコミュニケーションを支援する。
また、特許文献3には、(1)入力された音声の認識結果である文字列と、webページに含まれている画像情報を解析することによって得られたキーワードとを比較し、(2)上記文字列と上記キーワードとが一致する場合には、上記文字列を文字画像に変換し、認識された音声に対応する映像と上記文字画像とを合成することによって新たな画像情報を生成する画像処理装置が記載されている。このようにして生成された上記新たな画像情報は、商品を販売するためのホームページやチラシとして利用することができる。
国際公開第2011/036769号公報(2011年3月31日公開) 特開2009−205579号公報(2009年9月10日公開) 特開2007−225952号公報(2007年9月6日公開)
特許文献2に記載の音声翻訳装置を利用する場合、異なる母語の利用者同士は、入力された音声信号の認識結果(特許文献2の図5に示された表示エリアA)と、当該認識結果に対応する翻訳結果(同図に示された表示エリアB)と、キーワード(同図に示された表示エリアC)と、翻訳されたキーワード(同図に示された表示エリアD)とが表示された表示部を参照しながらコミュニケーションを図る。換言すれば、異なる言語を用いる各利用者は、表示部にそれぞれの母語で表示された情報であって、同一の内容からなる情報を参照しながらコミュニケーションを図る。
上記音声翻訳装置においては、各表示エリアに表示される上記認識結果、上記翻訳結果、上記キーワード、及び上記翻訳されたキーワードは、軽重のない一様なテキストとして表示される。また、上記音声翻訳装置においては、入力された発話の認識結果が表示エリアAに表示されるため、(1)利用者が発話する言語が日本語である場合には表示エリアAに日本語の認識結果が表示され、表示エリアBに英語の翻訳結果が表示され、(2)利用者が発話する言語が英語である場合には表示エリアAに英語の認識結果が表示され、表示エリアBに日本語の翻訳結果が表示される。換言すれば、上記音声翻訳装置において、利用者の母語を用いて認識結果または翻訳結果を表示する表示エリアは、発話する利用者が代わるたびに表示エリアAから表示エリアBへ、また、表示エリアBから表示エリアAへと変更される。
このような上記音声翻訳装置を利用する利用者同士は、軽重のない一様なテキストであって、発話する利用者が代わるたびに異なる表示エリアに表示される上記認識結果及び上記翻訳結果を絶えず注視しながらコミュニケーションを図られることを強いられる。換言すれば、上記音声翻訳装置は、上記表示部に表示された情報のうち注目すべき情報がどれであるのかが利用者にとって分かりにくく、利用者の使い勝手において改善の余地を残している。
また、複数の利用者同士が共通する情報を参照しながらコミュニケーションを図るという状況は、異なる言語を母語とする人同士がコミュニケーションを図る場合に限定されるものではない。例えば、家電製品を販売する量販店において、ユーザ及び店員(利用者)が、量販店が用意している表示装置を参照しながら商談を進める場合においても同様の状況が生じ得る。表示装置の表示部に多くの情報が表示されることは、多くの情報をユーザと店員との間で共有できるというメリットを有する。その反面、それら多くの情報に軽重が付けられていないために、それら多くの情報のうち注目すべき情報がどれであるのかがユーザ及び店員にとって分かりにくいというデメリットを有する。すなわち、このような表示装置は、利用者の使い勝手において改善の余地を残している。
本発明は、上記の課題を鑑みてなされたものであり、その目的は、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる技術を提供することである。
上記の課題を解決するために、本発明の一態様に係る表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、表示すべき情報を含む表示情報を取得する取得部と、上記取得部が取得した表示情報の示す表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部と、上記表示画像生成部が生成した表示画像を表示する表示部と、を備えている。
上記の課題を解決するために、本発明の一態様に係る表示装置は、サービス提供者向け画像を表示する第1の表示領域と、サービス利用者向け画像を表示する第2の表示領域とを有する表示装置であって、表示すべき情報を含む表示情報を取得する取得部と、上記取得部が取得した表示情報の示す表示画像であって、上記第1の表示領域に表示する表示画像であって、サービス提供者向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像と、上記第2の表示領域に表示する表示画像であって、上記第1の表示態様とは異なる第2の表示態様を有する表示画像である第2の表示画像とを生成する表示画像生成部と、上記表示画像生成部が生成した第1の表示画像を上記第1の表示領域に表示し、上記表示画像生成部が生成した第2の表示画像を上記第2の表示領域に表示する表示部と、を備えている。
上記の課題を解決するために、本発明の一態様に係るサーバは、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部と、上記発話内容情報取得部が取得した発話内容情報を表示装置に出力する発話内容情報出力部と、上記発話内容情報が示す発話内容を出力する発話内容出力部と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部と、を備えている。
上記の課題を解決するために、本発明の一態様に係るコミュニケーション支援システムは、サーバと表示装置とを備えるコミュニケーション支援システムであって、上記サーバは、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部と、上記発話内容情報取得部が取得した発話内容情報を上記表示装置に出力する発話内容情報出力部と、上記発話内容情報が示す発話内容を出力する発話内容出力部と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部と、を備え、上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部と、上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部と、上記表示画像生成部が生成した表示画像を表示する表示部と、を備えている。
上記の課題を解決するために、本発明の一態様に係るコミュニケーション支援システムは、サーバと表示装置とを備えるコミュニケーション支援システムであって、上記サーバは、発話した音声を示す音声情報を取得する音声情報取得部と、上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、発話内容情報を生成する発話内容情報生成部と、上記発話内容情報生成部が生成した発話内容情報を上記表示装置に出力する発話内容情報出力部と、上記発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部と、上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部と、を備え、上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部と、上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部と、上記表示画像生成部が生成した表示画像を表示する表示部と、を備えている。
上記の課題を解決するために、本発明の一態様に係るコミュニケーション支援方法は、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得工程と、上記発話内容情報取得工程において取得された発話内容情報を表示装置に出力する発話内容情報出力工程と、上記発話内容情報が示す発話内容を出力する発話内容出力工程と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得工程と、上記翻訳内容情報取得工程において取得された翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力工程と、を含む。
上記の課題を解決するために、本発明の一態様に係る制御プログラムは、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置としてコンピュータを機能させるための制御プログラムであって、表示すべき情報を含む表示情報を取得する取得部と、上記取得部が取得した表示情報の示す表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部と、としてコンピュータを機能させる。
上記の課題を解決するために、本発明の一態様に係る制御プログラムは、サーバとしてコンピュータを機能させるための制御プログラムであって、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部と、上記発話内容情報取得部が取得した発話内容情報を表示装置に出力する発話内容情報出力部と、上記発話内容情報が示す発話内容を出力する発話内容出力部と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部と、としてコンピュータを機能させる。
本発明の一態様によれば、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。
本発明の実施形態1に係るコミュニケーション支援システムを模式的に示す図である。 本発明の実施形態1におけるサーバの要部構成を示すブロック図である。 本発明の実施形態1における表示装置の要部構成を示すブロック図である。 本発明の実施形態1に係るコミュニケーション支援システムにおいて、客の発話内容の翻訳が表示されるまでの処理の流れを示すシークエンス図である。 本発明の実施形態1における表示情報の構造を示す図である。 本発明の実施形態1における表示装置が表示する画像を示す図である。 本発明の実施形態1に係るコミュニケーション支援システムにおいて、店員の発話内容の翻訳が表示されるまでの処理の流れを示すシークエンス図である。 本発明の実施形態1における表示装置が表示する画像を示す図である。 本発明の実施形態2におけるサーバの要部構成を示すブロック図である。 本発明の実施形態2におけるキーフレーズ情報が格納されたキーフレーズテーブルである。 本発明の実施形態2に係るコミュニケーション支援システムにおける処理の流れを示すシークエンス図である。 本発明の実施形態2における表示装置が表示する表示画像を示す図である。 本発明の実施形態2における表示装置が表示する他の表示画像を示す図である。 本発明の実施形態3におけるサーバの要部構成を示すブロック図である。 本発明の実施形態3における表示装置の要部構成を示すブロック図である。 本発明の実施形態3におけるキーフレーズ情報が格納されたキーフレーズテーブルである。 本発明の実施形態3における表示装置が表示する表示画像を示す図である。 本発明の実施形態3に係るコミュニケーション支援システムにおける処理の流れを示すシークエンス図である。 本発明の実施形態3における表示装置が表示する他の表示画像を示す図である。 本発明の実施形態3における表示装置が表示する更に他の表示画像を示す図である。 本発明の実施形態4における表示装置の要部構成を示すブロック図である。 本発明の実施形態5におけるサーバの要部構成を示すブロック図である。 サーバ及び表示装置として利用可能なコンピュータの構成を例示したブロック図である。
〔実施形態1〕
以下、本発明の一実施形態について、図1〜図8を用いて詳細に説明する。以下の特定の実施形態で説明する構成以外の構成については、必要に応じて説明を省略する場合があるが、他の実施形態で説明されている場合は、その構成と同じである。また、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。
(コミュニケーション支援システム1)
図1は、本発明の実施形態1に係るコミュニケーション支援システム1を模式的に示す図である。コミュニケーション支援システム1は、図1に示すように、サーバ100、表示装置200a、及び表示装置200bによって構成されている。
コミュニケーション支援システム1は、サービス提供者及びサービス利用者がコミュニケーションを円滑にすることができるシステムである。本明細書では、サービス提供者が店員、サービス利用者が客である場合について説明するが、コミュニケーション支援システム1は、タクシー運転手と客、受付と来訪者等にも利用可能である。
コミュニケーション支援システム1では、クラウド上に設置されたサーバ100と、店舗に設置された表示装置200a及び表示装置200bとがそれぞれ通信可能に接続されている。本実施形態では、店員が日本語を話し、客が英語を話し、客が店頭のおでんを購入する場合を例に挙げて説明する。なお、コミュニケーション支援システム1は、店のキャッシュレジスターと連携する構成であってもよい。
また、コミュニケーション支援システム1では、表示装置200a及び表示装置200bにはそれぞれ店員向けまたは客向けの設定がされている。本明細書では、表示装置200aには店員向けの設定がされており、表示装置200bには客向けの設定がされているとして説明する。なお、表示装置200a及び表示装置200bは、店員向けまたは客向けの設定がされているという点において区別される。そのため、表示装置200a及び表示装置200bは同じ機能を有し、以下において、表示装置200a及び表示装置200bを表示装置200と総称する。
(サーバ100)
図2は、本発明の実施形態1におけるサーバ100の要部構成を示すブロック図である。サーバ100について、図2を用いて説明する。
サーバ100は、図2に示すように、サーバ通信部110及びサーバ制御部120を備えている。
サーバ通信部110は、外部の機器と情報を送受信することができる。
サーバ制御部120は、サーバ100の各構成を統括的に制御するものである。サーバ制御部120の詳細について、以下に説明する。
(サーバ制御部120)
サーバ制御部120は、図2に示すように、音声情報取得部131、音声抽出部132、音声認識部(発話内容情報生成部)133、表示情報生成部134、翻訳部(翻訳内容情報生成部)135、及び表示情報出力部(発話内容情報出力部、翻訳内容情報出力部)136としても機能する。
音声情報取得部131は、サーバ通信部110を制御し、表示装置200から出力された音声情報を取得する。
音声抽出部132は、音声情報取得部131が取得した音声情報に含まれている音声から、客または店員が発話した音声を抽出し、抽出した音声を示す抽出音声情報を出力する。
音声認識部133は、音声抽出部132が出力した抽出音声情報が示す音声を認識し、認識した音声内容を示す発話内容情報を出力する。
表示情報生成部134は、表示装置200に表示させるべき情報を含む表示情報を生成する。表示情報生成部134が生成する表示情報の詳細については、後述する。
翻訳部135は、発話内容を取得し、当該発話内容を翻訳した翻訳内容を示す翻訳発話内容情報を生成して出力する。
表示情報出力部136は、表示情報生成部134が生成した表示情報を、サーバ通信部110を制御して表示装置200に出力する。
(表示装置200)
図3は、本発明の実施形態1における表示装置200の要部構成を示すブロック図である。表示装置200について、図3を用いて説明する。
表示装置200は、図3に示すように、表示装置通信部210、表示装置制御部220、表示部250、及び音声受付部260を備えている。
表示装置通信部210は、外部の機器と情報を送受信することができる。
表示装置制御部220は、表示装置200の各構成を統括的に制御するものである。表示装置制御部220の詳細については、後述する。
表示部250は、表示装置制御部220から出力される画像信号が示す画像を表示する。
音声受付部260は、表示装置200の周辺の音声を取得し、取得した音声を示す音声情報を出力する。
(表示装置制御部220)
表示装置制御部220は、図3に示すように、表示情報取得部(取得部)231、表示画像生成部232、及び音声情報取得部233としても機能する。
表示情報取得部231は、表示装置通信部210を制御し、サーバ100から出力された表示情報を取得する。
表示画像生成部232は、表示情報が示す表示画像であって、表示装置200が店員向けであるか客向けであるのかに応じた表示態様を有する表示画像を生成する。ここで、店員向けであるか客向けであるのかに応じた表示態様を有する表示画像とは、店員向けであるか客向けであるのかに応じた文字の設定によって表されるテキストを含む表示画像である。店員向けであるか客向けであるのかに応じた文字の設定の例として、文字の書体、文字の色、文字の大きさ、文字の飾り(傍点、下線、取り消し線、二重取り消し線、影付き、網掛け、背景色、上付き文字、下付き文字、中抜き、浮きだし、浮彫など)の設定が挙げられる。表示画像生成部232が表示画像を生成する処理の詳細は、後述する。
音声情報取得部233は、音声受付部260を介して音声情報を取得する。
(コミュニケーション支援システム1の処理1)
図4は、本発明の実施形態1に係るコミュニケーション支援システム1において、客の発話内容の翻訳が表示されるまでの処理の流れ(コミュニケーション支援方法)を示すシークエンス図である。また、図5は、本発明の実施形態1における表示情報の構造を示す図である。また、図6は、本発明の実施形態1における表示装置200が表示する画像を示す図である。コミュニケーション支援システム1において、客の発話内容の翻訳が表示されるまでの処理の流れについて、図4〜図6を用いて説明する。
図6の(a)は、表示装置200aの初期画像を示す図であり、図6の(b)は、表示装置200bの初期画像を示す図である。図6の(a)及び図6の(b)に示すように、表示装置200aの表示部250a及び表示装置200bの表示部250bに表示される初期画像にはそれぞれ、発話を促すテキスト800a及び800bを含む画像が表示されている。
なお、図6の(a)及び(b)に示す初期画像を表示している期間において、表示装置200a及び表示装置200bが取得した音声の言語を判定し、後述する翻訳の処理において、当該言語に翻訳する構成であってもよい。例えば、表示装置200aが日本語の音声を取得し、表示装置200bが英語の音声を取得した場合、後述する翻訳処理(ステップS27)では、サーバ100は、表示装置200aから取得した音声に含まれる発話内容を英語に翻訳し、表示装置200bから取得した音声に含まれる発話内容を日本語に翻訳する構成であってもよい。なお、本明細書では、店員が日本語を話し、客が英語を話す場合について、説明する。
(ステップS1)
まず、表示装置200bの音声情報取得部233bは、音声受付部260bを介して客が発話した音声を含む音声情報を取得する。例えば、客が店員におでんを購入する方法を尋ねるため、「How can I buy it?」と発話すると、音声情報取得部233bは、「How can I buy it?」を含む音声情報を取得する。
(ステップS3)
音声情報取得部233bは、取得した上記音声情報を、表示装置通信部210bを介してサーバ100に出力する。
(ステップS5)
サーバ100の音声情報取得部131は、サーバ通信部110を介して上記音声情報を取得する。そして、音声情報取得部131は、上記音声情報を、音声抽出部132に出力する。
(ステップS7)
音声抽出部132は、取得した上記音声情報に含まれている音声から客が発話した音声を抽出する。そして、抽出した音声を示す抽出音声情報を音声認識部133に出力する。
(ステップS9)
音声認識部133は、取得した上記抽出音声情報が示す音声を認識し、認識した発話内容を示す発話内容情報を表示情報生成部134に出力する。
(ステップS11、発話内容情報取得工程)
表示情報生成部134は、取得した上記発話内容情報含む表示情報を生成する。ここで、表示情報生成部134が生成する表示情報について、図5の(a)を用いて説明する。図5の(a)は、発話内容を表示するための表示情報の一例を示す図である。
図5の(a)に示すように、発話内容を表示するための表示情報を「communication」と称する。「communication」は、図5の(a)に示すように、項目「cid」、項目「type」、項目「kind」、項目「state」、及び項目「data」によって構成されている。
項目「cid」には、当該「communication」を他の「communication」と識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。
項目「type」には、後述する項目「data」に格納されている発話内容を発話した人を示す情報が格納される。より具体的には、客が発話したことを示す「customer」または店員が発話したことを示す「staff」が格納される。
項目「kind」には、後述する項目「data」の種類を示す情報が格納される。より具体的には、発話内容を示す「speech」または発話内容の翻訳である翻訳発話内容を示す「trans」が格納される。
項目「state」には、後述する吹き出しを新たに生成するか、または既に生成されている吹き出しを更新するか、を示す情報が格納される。より具体的には、吹き出しを新たに生成することを示す「new」または既に生成されている吹き出しを更新することを示す「update」が格納される。
項目「data」には、発話内容または翻訳発話内容が格納される。
例えば、ステップS3において、音声情報取得部233bが「How can I buy it?」を含む音声情報を取得すると、ステップS11において表示情報生成部134は、図5の(a)に示すように、項目「cid」に「1」を格納し、項目「type」に「customer」を格納し、項目「kind」に「speech」を格納し、項目「state」に「new」を格納し、項目「data」に「How can I buy it?」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した上記表示情報を表示情報出力部136に出力する。
(ステップS13、発話内容情報出力工程)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(ステップS15)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(ステップS17)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「1」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「customer」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「How can I buy it?」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(ステップS19)
表示部250bは、取得した上記表示画像を表示する。
(ステップS21)
ステップS13においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(ステップS23)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「1」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「customer」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「How can I buy it?」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(ステップS25)
表示部250aは、取得した上記表示画像を表示する。
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、客の発話内容を含む画像について、図6の(c)及び(d)を用いて説明する。図6の(c)は、店員向けの表示装置200aが表示する画像の例であり、図6の(d)は、客向けの表示装置200bが表示する画像の例である。
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、新しく生成した吹き出し300aの中に発話内容を示すテキストの文字を小さくしたテキスト400aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、新しく生成した吹き出し300bの中に発話内容を示すテキストの文字を大きくしたテキスト400bを含ませ、表示する。なお、表示部250a及び250bがそれぞれ、上述した図6の(c)及び(d)に示す表示画像を表示するまでの期間、例えば、(1)「音声認識処理中」のテキストを含むポップアップウィンドウを表示する、(2)音声認識処理中を示すアイコンを表示する、といった、音声認識処理を実行中であることを客または店員に提示する構成であってもよい。
(ステップS27、発話内容出力工程)
ステップS13の処理が終わると、サーバ100の表示情報生成部134は、ステップS11において取得した発話内容情報を翻訳部135に出力する。翻訳部135は、取得した上記発話内容情報が示す発話内容の翻訳である翻訳発話内容を示す翻訳発話内容情報を生成する。そして、上記翻訳発話内容情報を表示情報生成部134に出力する。例えば、ステップS11において、表示情報生成部134が「How can I buy it?」を示す発話内容情報を取得している場合、翻訳部135は、「それはどのように購入できますか?」を示す翻訳発話内容情報を表示情報生成部134に出力する。
(ステップS29、翻訳内容情報取得工程)
表示情報生成部134は、取得した上記翻訳発話内容情報を表示するための「communication」を生成する。より具体的には、表示情報生成部134は、項目「cid」に「1」を格納し、項目「type」に「customer」を格納し、項目「kind」に「trans」を格納し、項目「state」に「update」を格納し、項目「data」に「それはどのように購入できますか?」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した上記表示情報を、表示情報出力部136に出力する。
(ステップS31、翻訳内容情報出力工程)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(ステップS33)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(ステップS35)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「1」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「customer」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「それはどのように購入できますか?」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(ステップS37)
表示部250bは、取得した上記表示画像を表示する。
(ステップS39)
ステップS31においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(ステップS41)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示画像を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「1」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「customer」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「それはどのように購入できますか?」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(ステップS43)
表示部250aは、取得した上記表示画像を表示する。
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、客の翻訳発話内容を含む画像について、図6の(e)及び(f)を用いて説明する。図6の(e)は、店員向けの表示装置200aが表示する画像の他の例であり、図6の(f)は、客向けの表示装置200bが表示する画像の他の例である。
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、既に生成していた吹き出し300aの中に翻訳発話内容を示すテキストの文字を大きくしたテキスト402aを含ませ、表示する。換言すると、表示画像生成部232aは、発話内容と当該発話内容の翻訳発話内容とがグループ化された表示画像を生成する。一方、客向けの表示装置200bの表示部250bは、既に生成していた吹き出し300bの中に翻訳発話内容を示すテキストの文字を小さくしたテキスト402bを含ませ、表示する(更新する)。
なお、表示部250a及び250bがそれぞれ、上述した図6の(c)及び(d)に示す表示画像を表示した後、図6の(e)及び(f)に示す表示画像を表示するまでの期間、例えば、(1)「翻訳処理中」のテキストを含むポップアップウィンドウを表示する、(2)翻訳処理中を示すアイコンを表示する、といった、翻訳処理を実行中であることを客または店員に提示する構成であってもよい。
(コミュニケーション支援システム1の処理2)
図7は、本発明の実施形態1に係るコミュニケーション支援システム1において、店員の発話内容の翻訳が表示されるまでの処理の流れを示すシークエンス図である。また、図8は、本発明の実施形態1における表示装置200が表示する画像を示す図である。コミュニケーション支援システム1において、店員の発話内容の翻訳が表示されるまでの処理の流れについて、図7及び図8を用いて説明する。
(ステップS51)
上述したステップS43において、表示装置200aの表示部250aが客の発話内容の翻訳を含む表示画像を表示すると、音声情報取得部233aは、音声受付部260aを介して店員が発話した音声を含む音声情報を取得する。例えば、店員が客におでんを購入する方法を教えるため、「おでんですか。欲しいものを注文して下さい」と発話すると、音声情報取得部233aは、「おでんですか。欲しいものを注文して下さい」を含む音声情報を取得する。
(ステップS53)
音声情報取得部233aは、取得した上記音声情報を、表示装置通信部210aを介してサーバ100に出力する。
サーバ100の音声情報取得部131が音声情報を取得し、音声認識部133が発話内容を表示情報生成部134に出力する処理については、上述したステップS5〜ステップS9と同じであるため、説明は省略する。
(ステップS11)
表示情報生成部134は、取得した上記発話内容情報含む表示情報を生成する。例えば、ステップS53において、音声情報取得部233aが「おでんですか。欲しいものを注文して下さい」を含む音声情報を取得すると、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「speech」を格納し、項目「state」に「new」を格納し、項目「data」に「おでんですか。欲しいものを注文して下さい」を格納した「communication」を生成する。そして、表示情報生成部134は、上記表示情報を表示情報出力部136に出力する。
(ステップS13)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(ステップS15)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(ステップS17)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「2」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(ステップS19)
表示部250bは、取得した上記表示画像を表示する。
(ステップS21)
ステップS13においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(ステップS23)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「2」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(ステップS25)
表示部250aは、取得した上記表示画像を表示する。
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、店員の発話内容を含む画像について、図8の(a)及び(b)を用いて説明する。図8の(a)は、店員向けの表示装置200aが表示する画像の他の例であり、図8の(b)は、客向けの表示装置200bが表示する画像の他の例である。
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、新しく生成した吹き出し302aの中に発話内容を示すテキストの文字を大きくしたテキスト404aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、新しく生成した吹き出し302bの中に発話内容を示すテキストの文字を小さくしたテキスト404bを含ませ、表示する。
(ステップS27)
ステップS13の処理が終わると、サーバ100の表示情報生成部134は、ステップS11において取得した発話内容情報を翻訳部135に出力する。翻訳部135は、取得した上記発話内容情報の翻訳である翻訳内容を示す翻訳発話内容情報を生成する。そして、上記翻訳発話内容情報を表示情報生成部134に出力する。例えば、ステップS11において、表示情報生成部134が「おでんですか。欲しいものを注文して下さい」を示す発話内容情報を取得している場合、翻訳部135は、「Oden? You order what you want.」を示す翻訳発話内容情報を表示情報生成部134に出力する。
(ステップS29)
表示情報生成部134は、取得した上記翻訳発話内容を表示するための「communication」を生成する。より具体的には、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「trans」を格納し、項目「state」に「update」を格納し、項目「data」に「Oden? You order what you want.」を格納した「communication」を生成する。そして、表示情報生成部134は、上記表示情報を、表示情報出力部136に出力する。
(ステップS31)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(ステップS33)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(ステップS35)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「Oden? You order what you want.」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(ステップS37)
表示部250bは、取得した上記表示画像を表示する。
(ステップS39)
ステップS31においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(ステップS41)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「Oden? You order what you want.」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(ステップS43)
表示部250aは、取得した上記表示画像を表示する。
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、店員の翻訳発話内容を含む画像について、図8の(c)及び(d)を用いて説明する。図8の(c)は、店員向けの表示装置200aが表示する画像の他の例であり、図8の(d)は、客向けの表示装置200bが表示する画像の他の例である。
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、既に生成していた吹き出し302aの中に翻訳発話内容を示すテキストの文字を小さくしたテキスト406aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、既に生成していた吹き出し302bの中に翻訳発話内容を示すテキストの文字を大きくしたテキスト406bを含ませ、表示する。
このように、本実施形態に係るコミュニケーション支援システム1では、店員向け画像及び客向け画像の少なくとも何れかを表示する表示装置200は、表示すべき情報を含む表示情報(communication)を含む表示情報を取得し、表示情報の示す表示画像であって、表示装置200が店員向けであるか客向けであるのかに応じた表示態様を有する表示画像を生成し、当該表示画像を表示する。そのため、店員向けの表示装置200aは、店員が見たいテキストの文字を大きく表示し、店員が見なくてもいいテキストの文字を小さく表示する。一方、客向けの表示装置200bは、客が見たいテキストの文字を大きく表示し、客が見なくてもいいテキストの文字を小さく表示する。
また、コミュニケーション支援システム1では、表示装置200a及び表示装置200bがそれぞれ表示する画像は、表示態様は異なるが情報量は同じである。そのため、店員と客とは、例えば、自らが発した発話内容が翻訳されていること、相手が自らの発した発話内容の翻訳を待っていること、などといった情報を互いに共有することができる。
そのため、コミュニケーション支援システム1では、表示装置200の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。
なお、本実施形態では、店員向けの表示装置200aにおいて、表示画像生成部232aは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より大きい表示画像を生成したが、この構成に限定されない。表示画像生成部232は、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より目立つ表示画像を生成する構成であればよい。
ここで、「店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より目立つ」とは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より大きい、太い、色が濃い等が挙げられる。
また、表示画像生成部232aは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字を大きくする、太くする、色を濃くする構成であってもよいし、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字を小さくする、細くする、色を薄くする構成であってもよい。
また、上記構成は客向けの表示装置200bでも同様であり、表示画像生成部232bは、客の発話内容を示すテキストの文字及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より目立つ表示画像を生成する構成であれば良い。また、表示画像生成部232bは、客の発話内容を示すテキストの文字及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字を大きくする、太くする、色を濃くする構成であってもよいし、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字を小さくする、細くする、色を薄くする構成であってもよい。
〔実施形態2〕
本発明の他の実施形態に係るコミュニケーション支援システム2について、図9〜図13に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(コミュニケーション支援システム2)
コミュニケーション支援システム2は、サーバ101及び表示装置201によって構成され、サーバ101及び表示装置201は、上述した実施形態におけるコミュニケーション支援システム1におけるサーバ100及び表示装置200が備えている各機能に加えて、サーバ101はキーフレーズを検索し、表示装置201は、キーフレーズを強調表示し、さらにキーフレーズに関連した図を表示する。本実施形態におけるサーバ101について、図9を用いて説明する。なお、表示装置201の構成は、実施形態1における表示装置200と同じであるため、説明を省略する。
(サーバ101)
図9は、本発明の実施形態2におけるサーバ101の要部構成を示すブロック図である。サーバ101は、図9に示すように、実施形態1におけるサーバ100が備えているサーバ制御部120に替えてサーバ制御部121を備え、キーフレーズデータベース150を更に備えている。
(サーバ制御部121)
サーバ制御部121は、サーバ101の各部を統括的に制御するものであり、図9に示すように、サーバ制御部120の機能に加えて、キーフレーズ検索部(フレーズ判定部)137としても機能する。
キーフレーズ検索部137は、後述するキーフレーズデータベース150を参照し、取得した発話内容情報及び翻訳発話内容情報の中のキーフレーズを検索する。そして、キーフレーズ検索部137は、キーフレーズを検出した場合、当該キーフレーズに関連付けられたキーフレーズ情報を、キーフレーズデータベース150から取得する。
(キーフレーズデータベース150)
キーフレーズデータベース150には、キーフレーズに関する情報であるキーフレーズ情報が、キーフレーズに関連付けられたキーフレーズテーブルとして格納されている。キーフレーズデータベース150に格納されているキーフレーズテーブルについて、図10を用いて説明する。図10は、本発明の実施形態2におけるキーフレーズ情報が格納されたキーフレーズテーブルである。
キーフレーズテーブルは、図10に示すように、項目「ID」、項目「キーフレーズ(日本語)」、項目「キーフレーズ(英語)」、項目「置換文字列」、及び項目「画像No.」を含んでいる。
項目「ID」には、キーフレーズを他のキーフレーズと識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。
項目「キーフレーズ(日本語)」には、キーフレーズを日本語で表記したテキストが格納される。
項目「キーフレーズ(英語)」には、キーフレーズを英語で表示したテキストが格納される。
項目「置換文字列」は、キーフレーズに置き換えられるテキストが格納される。より具体的には、キーフレーズを強調表示する指示を含むテキストが格納される。
項目「画像No.」は、キーフレーズに関連した画像の番号が格納される。
(コミュニケーション支援システム2の処理)
図11は、本発明の実施形態2に係るコミュニケーション支援システム2における処理の流れを示すシークエンス図である。また、図12は、本発明の実施形態2における表示装置201が表示する表示画像を示す図である。また、図13は、本発明の実施形態2における表示装置201が表示する他の表示画像を示す図である。本発明の実施形態2に係るコミュニケーション支援システム2の処理について、図11〜図13を用いて説明する。
まず、表示装置201が客または店員の発話した音声情報を取得し、発話テキスト及び翻訳テキストを表示する処理は、上述した実施形態1における処理と同じであるため、説明を省略する。
(ステップS101)
表示情報生成部134は、発話内容を表示するための表示情報を表示情報出力部136に出力すると、当該発話内容を示す発話内容情報をキーフレーズ検索部137に出力する。キーフレーズ検索部137は、キーフレーズデータベース150に格納されているキーフレーズテーブルを参照し、取得した上記発話内容情報が示す発話内容の中のキーフレーズを検索する。
(ステップS103)
キーフレーズ検索部137は、上記発話テキスト内にキーフレーズが検出されたか否かを判定する。
(ステップS105)
ステップS103において、「キーフレーズが検出された」と判定された場合(ステップS105:YES)、該当するキーレフレーズに関連付けられたキーフレーズ情報を、キーフレーズデータベース150から取得する。例えば、ステップS101において、キーフレーズ検索部137が「おでんですか。欲しいものを注文して下さい」を示す発話内容情報を取得した場合、図10に記載のキーフレーズテーブルを参照し、キーフレーズ「おでん」を検出する。そして、取得したキーフレーズ情報のうち、項目「置換文字列」に格納されているキーフレーズ情報を参照し、キーフレーズ「おでん」を、「<span dlink="1">おでん</span>」に置換し、置換後の発話内容情報を表示情報生成部134に出力する。また、キーフレーズ検索部137は、取得したキーフレーズ情報のうち、項目「画像No.」に格納されている「1」によって特定される画像を示す画像情報を表示情報生成部134に出力する。
(ステップS107)
表示情報生成部134は、置換後の発話内容情報が示す発話内容を表示するための表示情報を生成する。ここで、置換後の発話テキストには、画像の格納先を含んでいるため、上述した「communication」に加えて、画像を表示するための表示情報を生成する。画像を表示するための表示情報について、図5の(b)を用いて説明する。
図5の(b)は、画像を表示するための表示情報の一例を示す図である。図5の(b)に示すように、画像を表示するための表示情報を「display」と称する。「display」は、図5の(b)に示すように、項目「did」及び項目「data」によって構成されている。
項目「did」には、当該「display」を他の「display」と識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。
項目「data」には、画像を示す画像情報または格納先を示す格納先情報が格納される。
例えば、表示情報生成部134が取得した画像情報が「ODEN1.png」であった場合、ステップS107において表示情報生成部134が生成する「display」には、図5の(b)に示すように、項目「did」に「1」が格納され、項目「data」に「ODEN1.png」が格納される。また、ステップS107において、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「speech」を格納し、項目「state」に「update」を格納し、項目「data」に「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した「display」及び「communication」を含む表示情報を、表示情報出力部136に出力する。
(ステップS109)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置201a及び表示装置201bに出力する。
(ステップS111)
表示装置201bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(ステップS113)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しに含まれるテキストのうち、店員が発話した発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」に更新した上で、当該テキストの文字を小さくした画像を生成する。
さらに、表示画像生成部232bは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(ステップS115)
表示部250bは、取得した上記表示画像を表示する。
(ステップS117)
ステップS109においてサーバ101が表示情報を出力すると、表示装置201aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(ステップS119)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しに含まれるテキストのうち、店員が発話した発話内容を示す「おでんですか。欲しいものを注文して下さい」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」に更新した上で、当該テキストの文字を大きくした画像を生成する。
さらに表示画像生成部232aは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(ステップS121)
表示部250aは、取得した上記表示画像を表示する。
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、キーフレーズ及びキーフレーズに関連した画像を含む画像について、図12の(a)及び(b)を用いて説明する。図12の(a)は、店員向けの表示装置201aが表示する画像の例であり、図12の(b)は、客向けの表示装置201bが表示する画像の例である。
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれるキーフレーズ及び画像を含む表示画像を生成する。そのため、店員向けの表示装置201aの表示部250aは、吹き出し302aに含まれるテキスト404aに含まれるキーフレーズ(おでん)500aを太字に更新し、おでんの画像600aを含む表示画像を表示する。また、客向けの表示装置201bの表示部250bも同様に、吹き出し302bに含まれるテキスト404bに含まれるキーフレーズ(おでん)500bを太字に更新し、おでんの画像600bを含む表示画像を表示する。なお、強調表示の例として、太字以外にも、色を変える、背景色を変えるなども挙げられる。
続いて、コミュニケーション支援システム2では、翻訳テキストについても、上述したステップS101〜S121と同様の処理を実行する。翻訳テキストでは、検出されるキーフレーズは「Oden」であるため、ステップS105において、キーフレーズ検索部137が「Oden」を検出すると、キーフレーズ「Oden」を「<span dlink="1">Oden</span>」に置換し、置換後の発話内容情報を表示情報生成部134に出力する。また、キーフレーズ検索部137は、取得したキーフレーズ情報のうち、項目「画像No.」に格納されている「1」によって特定される画像を示す画像情報を表示情報生成部134に出力する。
そして、ステップS107において表示情報生成部134が生成する「display」には、項目「did」に「1」が格納され、項目「data」に「ODEN1.png」が格納される。また、ステップS107において、表示情報生成部134は、「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「trans」を格納し、項目「state」に「update」を格納し、項目「data」に「<span dlink="1">Oden</span>? You order what you want.」を格納した「communication」を生成する。
続いて、表示装置201bの表示画像生成部232bは、ステップS113において、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストを更に含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しに含まれるテキストのうち、店員の翻訳発話内容を示すテキスト「Oden? You order what you want.」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">Oden</span>? You order what you want.」に更新した上で、当該テキストの文字を大きくした画像を生成する。
更に、表示画像生成部232bは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
また、表示装置201aの表示画像生成部232aは、ステップS119において、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストを更に含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しに含まれるテキストのうち、店員の翻訳発話内容を示すテキスト「Oden? You order what you want.」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">Oden</span>? You order what you want.」に更新した上で、当該テキストの文字を小さくした画像を生成する。
更に、表示画像生成部232aは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、キーフレーズ及びキーフレーズに関連した画像を含む画像について、図13の(a)及び(b)を用いて説明する。図13の(a)は、店員向けの表示装置201aが表示する画像の他の例であり、図13の(b)は、客向けの表示装置201bが表示する画像の他の例である。
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれるキーフレーズ及び画像を含む表示画像を生成する。そのため、店員向けの表示装置201aの表示部250aは、吹き出し302aに含まれるテキスト406aに含まれるキーフレーズ(Oden)502aを太字に更新し、おでんの画像600aを含む表示画像を表示する。また、客向けの表示装置201bの表示部250bも同様に、吹き出し302bに含まれるテキスト406bに含まれるキーフレーズ(Oden)502bを太字に更新し、おでんの画像600bを含む表示画像を表示する。
このように、本実施形態に係るコミュニケーション支援システム2では、サーバ101は、発話内容または翻訳内容に所定のフレーズが含まれているか否かを判定し、所定のフレーズが含まれている場合、所定のフレーズを強調表示するよう表示装置201に対して指示する。また、コミュニケーション支援システム2では、表示装置201は、所定のフレーズに関連した画像を表示する。そのため、コミュニケーション支援システム2では、例えば、所定のフレーズとして商品名を設定することにより、当該商品名を客または店員が発話すると表示装置201は商品の画像を表示するので、表示装置201の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。
なお、本実施形態では、「display」の「data」に画像情報が格納されている場合について説明したが、上述したように、「display」の「data」には画像の格納先を示す格納先情報が格納されていてもよい。この場合、表示画像生成部232は、当該格納先情報が示す格納先から画像を取得し、当該画像を含む表示画像を生成する。
〔実施形態3〕
本発明の他の実施形態に係るコミュニケーション支援システム3について、図14〜図21に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(コミュニケーション支援システム3)
コミュニケーション支援システム3はサーバ102及び表示装置202によって構成され、サーバ102及び表示装置202は、上述した実施形態におけるコミュニケーション支援システム2におけるサーバ101及び表示装置201が備えている各機能に加えて、客または店員による操作を示す操作情報を取得する。本実施形態におけるサーバ102及び表示装置202について、図14及び図15を用いて説明する。
(サーバ102)
図14は、本発明の実施形態3におけるサーバ102の要部構成を示すブロック図である。サーバ102は、図14に示すように、実施形態2におけるサーバ101が備えているサーバ制御部121及びキーフレーズデータベース150に替えて、サーバ制御部122及びキーフレーズデータベース152を備えている。
(サーバ制御部122)
サーバ制御部122は、サーバ102の各部を統括的に制御するものであり、図14に示すように、サーバ制御部121の機能に加えて、操作情報取得部138としても機能する。
操作情報取得部138は、サーバ通信部110を制御し、表示装置202から出力された操作情報を取得する。
(キーフレーズデータベース152)
キーフレーズデータベース152に格納されているキーフレーズテーブルを、図16に示す。図16は、本発明の実施形態3におけるキーフレーズ情報が格納されたキーフレーズテーブルである。
キーフレーズテーブルは、図16に示すように、実施形態2におけるキーフレーズデータベース150に格納されていたキーフレーズテーブルに加えて、項目「ポークフラグ」を含んでいる。
項目「ポークフラグ」には、関連付けられたキーフレーズがポークと関連しているか否かを示す情報が格納される。より具体的には、関連付けられたキーフレーズがポークと関連していることを示す「1」または関連付けられたキーフレーズがポークと関連していないことを示す「0」が格納される。
(表示装置202)
図15は、本発明の実施形態3における表示装置202の要部構成を示すブロック図である。表示装置202は、図15に示すように、実施形態2における表示装置200が備えている表示装置制御部220に替えて表示装置制御部222を備え、操作受付部270を更に備えている。
操作受付部270は、ユーザの操作を受け付け、当該操作を示す操作情報を出力する。なお、操作受付部270は、表示部250と一体となったタッチパネル式表示部であってもよい。
(表示装置制御部222)
表示装置制御部222は、表示装置202の各部を統括的に制御するものであり、図15に示すように、表示装置制御部220の機能に加えて、操作情報取得部234としても機能する。
操作情報取得部234は、操作受付部270から出力された操作情報を取得し、表示装置通信部210を制御し、取得した操作情報をサーバ102に出力する。
(コミュニケーション支援システム3の処理1)
図17は、本発明の実施形態3における表示装置202が表示する表示画像を示す図である。コミュニケーション支援システム3の処理の内、キーフレーズに関連したオブジェクトであって、客または店員の操作を受け付けるオブジェクトを表示する処理について、上述した図4、図7、図11を用いて説明する。
まず、上述した実施形態2において、図13に示す表示画像を表示装置201が表示した後、おでんの画像に含まれる「つくね」に対して客が「What is this?」と発話し、それに対して店員が「つくねです」と発話した場合、コミュニケーション支援システム3は、上述した図4、図7に示した処理に従い、表示装置201が表示画像を表示する。
続いて、コミュニケーション支援システム3は図11に示した処理に従い、サーバ102は、ステップS101においてキーフレーズを検索する。この場合、発話内容にキーフレーズ「つくね」が含まれているため、キーフレーズ検索部137は、ステップS105において、「つくね」に関連付けられたキーフレーズ情報をキーフレーズデータベース152から取得する。そして、キーフレーズ検索部137は、キーフレーズを置換した発話内容情報と画像情報とを表示情報生成部134に出力する。更に、キーフレーズ検索部137は、ステップS105において、項目「ポークフラグ」に「1」が格納されていることを示すフラグ情報を表示情報生成部134に出力する。
表示情報生成部134は、ステップS107において、置換後の発話内容情報が示す発話内容を表示するための表示情報を生成する。ここで、表示情報生成部134は、取得したフラグ情報を参照し、当該フラグ情報が項目「ポークフラグ」に「1」が格納されていることを示す場合、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示すオブジェクト情報を含む表示情報を生成する。そして、ステップS109において、表示情報出力部136は当該表示情報を、サーバ通信部110を介して表示装置201a及び表示装置201bに出力する。
表示装置201bの表示画像生成部232bは、ステップS113において、上記表示情報が示す表示画像を生成する。ここで、上述したステップS113の処理に加えて、表示画像生成部232bは、表示情報に含まれているオブジェクト情報を参照する。なお、表示画像生成部232bは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、追加の処理は実行しない。
続いて、表示装置201aの表示画像生成部232aは、ステップS119において、上記表示情報が示す表示画像を生成する。ここで、上述したステップS119の処理に加えて、表示画像生成部232aは、表示情報に含まれているオブジェクト情報を参照する。そして、表示画像生成部232aは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを含む表示画像を生成する。
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、操作を受け付けるオブジェクトを含む画像及び操作を受け付けるオブジェクトを含まない画像について、図17の(a)を用いて説明する。図17の(a)は、店員向けの表示装置202aが表示する画像の例であり、(b)は、客向けの表示装置202bが表示する画像の例である。
図17の(a)に示すように、表示部250aは、キーフレーズ(つくね)510a及びキーフレーズ(chicken meatball)512aが強調表示され、キーフレーズに関連した画像602aを含み、更に、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトである「Porkless」ボタン604aを含む表示画像を表示する。一方、図17の(b)に示すように、表示部250bは、キーフレーズ(つくね)510b及びキーフレーズ(chicken meatball)512bが強調表示され、キーフレーズに関連した画像602bを含む画像を表示し、当該画像は操作を受け付けるオブジェクトは含まない。
なお、本実施形態では、客向けの表示装置202bは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合であっても、追加の処理は実行しないとしたが、上述した店員向け表示装置202aと同様、「Porkless」ボタン604bを表示する構成であってもよい。また、店員向け表示装置202aも同様に、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、追加の処理は実行しない構成であってもよい。また、図17の(a)に示すように、表示装置202aは、初期画面に戻る操作を受け付けるオブジェクトである「Top Page」ボタン605aを含む表示画像を表示してもよい。
また、本実施形態では、キーフレーズテーブルが「ポーク」と関連しているかを示す項目を含む場合について説明したが、この構成に限定されない。例えば、関連付けられたキーフレーズが他の素材(例えば、「野菜」など)と関連しているかを示す項目、関連付けられたキーフレーズの調理(例えば、「生もの」)の状態を示す項目、関連付けられたキーフレーズの属性を示す項目(例えば、項目「○○円以下」など)を含む構成であってもよい。
(コミュニケーション支援システム3の処理2)
図18は、本発明の実施形態3に係るコミュニケーション支援システム3における処理の流れを示すシークエンス図である。また、図19は、本発明の実施形態3における表示装置202が表示する他の表示画像を示す図である。コミュニケーション支援システム3において、上述した図17の表示画像を表示した後、客または店員の操作を受け付けた場合の処理について、図18及び図19を用いて説明する。
(ステップS201)
表示装置202aの操作情報取得部234aは、操作受付部270aを介して、「Porkless」ボタン604aが押されたことを示す操作情報を取得する。
(ステップS203)
操作情報取得部234aは、表示装置通信部210aを介して、取得した操作情報をサーバ102に出力する。
(ステップS204)
サーバ102の操作情報取得部138は、サーバ通信部110を介して、上記操作情報を取得する。そして、操作情報取得部138は、取得した上記操作情報を、表示情報生成部134に出力する。
(ステップS205)
表示情報生成部134は、取得した上記操作情報を参照し、表示情報を生成する。ここで、上記操作情報は、「Porkless」ボタン604aが押されたことを示すので、豚肉が含まれる商品は含まない画像を表示するための表示情報を生成する。より具体的には、表示情報生成部134は、項目「did」に「3」を格納し、項目「data」に豚肉が含まれる商品は含まない画像である「ODEN4.png」を格納した「display」を生成する。そして、表示情報生成部134は、生成した「display」を含む表示情報を、表示情報出力部136に出力する。
(ステップS207)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置202a及び表示装置202bに出力する。
(ステップS209)
表示装置202bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(ステップS211)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、表示画像生成部232bは、取得した表示情報に含まれている「display」を参照し、表示画像に含まれる画像を項目「data」に格納されている「ODEN4.png」に更新した表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(ステップS213)
表示部250bは、取得した上記表示画像を表示する。
(ステップS215)
ステップS207においてサーバ102が表示情報を出力すると、表示装置202aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(ステップS217)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、表示画像生成部232aは、取得した表示情報に含まれている「display」を参照し、表示画像に含まれる画像を項目「data」に格納されている「ODEN4.png」に更新した表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(ステップS219)
表示部250aは、取得した上記表示画像を表示する。
ここで、表示部250a及び表示部250bがそれぞれ表示する画像について、図19を用いて説明する。図19の(a)は、店員向けの表示装置202aが表示する他の表示画像の例であり、(b)は、客向けの表示装置202bが表示する他の表示画像の例である。
図19の(a)に示すように、表示部250aは、豚肉が含まれる商品は含まない画像で606aを含む表示画像を表示する。また、表示部250bも同様に、豚肉が含まれる商品は含まない画像で606bを含む表示画像を表示する。
また、操作を受け付けるオブジェクトは、テキストであってもよい。テキストを、操作を受け付けるオブジェクトとした場合について、図20を用いて説明する。図20は、本発明の実施形態3における表示装置202が表示する更に他の表示画像を示す図であり、(a)は、店員向けの表示装置202aが表示する更に他の表示画像の例であり、(b)は、客向けの表示装置202bが表示する更に他の表示画像の例である。
例えば、表示画像に含まれるテキスト「おでん」を、おでんの画像を表示する操作を受け付けるオブジェクトとした場合、表示装置202aは、図19の(a)に示す画像に含まれる「おでん」のテキスト500aまたは「Oden」のテキスト502aが押されたことを示す操作情報を取得すると、当該操作情報をサーバ102に出力する。そして、表示装置202aは、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202aは、図20の(a)に示すように、おでんの画像600aを含む表示画像を表示する。また、表示装置202bも同様に、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202bは、図20の(b)に示すように、おでんの画像600bを含む表示画像を表示する。
また、表示装置202bにおいても、表示画像に含まれるテキスト「おでん」を、おでんの画像を表示する操作を受け付けるオブジェクトとした場合、図19の(b)に示す画像に含まれる「おでん」のテキスト500bまたは「Oden」のテキスト502bが押されたことを示す操作情報を取得すると、当該操作情報をサーバ102に出力する。そして、表示装置202bは、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202bは、図20の(b)に示すように、おでんの画像600bを含む表示画像を表示する。また、表示装置202aも同様に、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202aは、図20の(a)に示すように、おでんの画像600aを含む表示画像を表示する。
このように、本実施形態に係るコミュニケーション支援システム3では、表示装置202は、キーフレーズに関連したオブジェクトであって、客または店員の操作を受け付けるオブジェクトを含む表示画像を生成する。そのため、コミュニケーション支援システム3では、表示装置202の使い勝手を向上させることができる。また、店員向けの表示装置202a及び客向けの表示装置202bの何れかにおいて操作を受け付けた場合であっても、店員向けの表示装置202a及び客向けの表示装置202bの表示画像が更新されるので、利用者同士のコミュニケーションを円滑にすることができる。
〔実施形態4〕
本発明の他の実施形態に係るコミュニケーション支援システム4について、図21に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(コミュニケーション支援システム4)
コミュニケーション支援システム4は、サーバ103及び表示装置203によって構成される。上述した実施形態では、表示装置は2台(表示装置200a及び表示装置200bなど)で構成されていたが、コミュニケーション支援システム4では、表示装置が1台(表示装置203)である場合について説明する。なお、サーバ103は、上述したサーバ100と同様の機能を備えているため、説明は省略する。
(表示装置203)
図21は、本発明の実施形態4における表示装置203の要部構成を示すブロック図である。表示装置203は、図21に示すように、表示装置通信部210、表示装置制御部223、表示部251、及び音声受付部260を備えている。なお、表示装置通信部210及び音声受付部260は上述した機能と同様の機能を備えているため、説明は省略する。
表示部251は、上述した表示部250の機能に加えて、店員向け画像を表示する第1の表示領域と、客向け画像を表示する第2の表示領域を備えている。そして、表示部251は、表示装置制御部223が出力する表示画像のうち、店員向けの表示画像である第1の表示画像を上記第1の表示領域に表示し、客向けの表示画像である第2の表示画像を上記第2の表示領域に表示する。
(表示装置制御部223)
表示装置制御部223は、表示装置203の各部を統括的に制御するものであり、図21に示すように、上述した表示装置制御部220における表示画像生成部232に替えて、表示画像生成部240として機能する。
表示画像生成部240は、店員向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像と、上記第2の表示領域に表示する表示画像であって、上記第1の表示態様とは異なる第2の表示態様を有する表示画像である第2の表示画像とを生成し、表示部251に出力する。
このように、本実施形態に係るコミュニケーション支援システム4では、店員向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像を、表示部251の第1の表示領域に表示し、客向けの表示態様である第2の表示態様を有する表示画像である第2の表示画像を、表示部251の第2の表示領域に表示する。そのため、上述の実施形態と同様、表示装置203の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。
〔実施形態5〕
本発明の他の実施形態に係るコミュニケーション支援システム5について、図22に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
(コミュニケーション支援システム5)
コミュニケーション支援システム5は、サーバ104、表示装置204、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740によって構成される。上述の各実施形態におけるサーバ100〜103が有する各機能が、サーバ104、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740にて実現されている。サーバ104、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740について、図22を用いて説明する。図22は、本発明の実施形態5におけるサーバの要部構成を示すブロック図である。なお、表示装置204は、上述した表示装置200〜203と同様の構成を備えるため、説明を省略する。
(サーバ104)
サーバ104は、図22に示すように、サーバ通信部110及びサーバ制御部124を備えている。
サーバ通信部110は、外部の機器と情報を送受信することができる。
(サーバ制御部124)
サーバ制御部124は、サーバ104の各構成を統括的に制御するものであり、図22に示すように、表示情報出力部136、音声情報取得部140、発話内容情報取得部(発話内容出力部)141、表示情報生成部(発話内容情報出力部、翻訳内容情報出力部)142、及び翻訳発話内容情報取得部(翻訳内容情報取得部)143としても機能する。
表示情報出力部136は、表示情報生成部142が生成した表示情報を、サーバ通信部110を制御して表示装置204に出力する。
音声情報取得部140は、サーバ通信部110を制御して、表示装置204から出力された音声情報を取得し、当該音声情報を音声抽出サーバ700に出力する。また、音声情報取得部140は、音声抽出サーバ700から出力された抽出音声情報を取得し、音声認識サーバ720に出力する。
発話内容情報取得部141は、サーバ通信部110を制御して、音声認識サーバ720から出力された発話内容情報を取得する。また、発話内容情報取得部141は、取得した発話内容情報が示す発話内容を、翻訳サーバ740に出力する。
表示情報生成部142は、発話内容情報取得部141が取得した発話内容情報と、翻訳発話内容情報取得部143が取得した翻訳発話内容情報とを関連付け、当該発話内容情報及び翻訳発話内容情報の少なくとも何れかを含む表示情報を表示情報出力部136に出力する。
翻訳発話内容情報取得部143は、サーバ通信部110を制御して、翻訳サーバ740から出力された翻訳内容を示す翻訳内容情報を取得する。
(音声抽出サーバ700)
音声抽出サーバ700は、図22に示すように、音声抽出サーバ通信部701及び音声抽出部702を備えている。
音声抽出サーバ通信部701は、外部の機器と情報を送受信することができる。
音声抽出部702は、音声抽出サーバ通信部701を制御し、サーバ104から出力された音声情報に含まれている音声から、客または店員が発話した音声を抽出し、抽出した音声を示す抽出音声情報を、サーバ104に出力する。
(音声認識サーバ720)
音声認識サーバ720は、図22に示すように、音声認識サーバ通信部721及び音声認識部722を備えている。
音声認識サーバ通信部721は、外部の機器と情報を送受信することができる。
音声認識部722は、音声認識サーバ通信部721を制御し、サーバ104から出力された抽出音声情報が示す音声を認識し、認識した音声内容を示す発話内容情報を、サーバ104に出力する。
(翻訳サーバ740)
翻訳サーバ740は、図22に示すように、翻訳サーバ通信部741及び翻訳部742を備えている。
翻訳サーバ通信部741は、外部の機器と情報を送受信することができる。
翻訳部742は、翻訳サーバ通信部741を制御し、サーバ104から出力された発話内容を取得し、当該発話内容の翻訳内容を示す翻訳内容情報をサーバ104に出力する。
このように、本実施形態に係るコミュニケーション支援システム5では、上述の各実施形態におけるサーバ100〜103を、サーバ104、音声抽出サーバ700、音声認識サーバ720、翻訳サーバ740によって実現することができる。そのため、各サーバをそれぞれ適した場所(店舗内、クラウド上など)に設置することができる。
例えば、音声抽出サーバ700を店舗内に設置することにより、各店舗の状況に応じた設定(例えば、ノイズのフィルタリングなど)をすることができる。そのため、音声抽出サーバ700は、店舗内に設置することが好ましい。また、音声抽出サーバ700は、店員の発話した音声を抽出する音声抽出サーバ700aと、客の発話した音声を抽出する音声抽出サーバ700bとによって構成されてもよい。
また、サーバ104はクラウド上に設置することにより、各店舗での発話内容を取得し、各店舗で起こったことを共有することができる。
また、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。
〔実施形態6〕
サーバ100〜104及び表示装置200〜204の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、サーバ100〜104及び表示装置200〜204のそれぞれを、図23に示すようなコンピュータ(電子計算機)を用いて構成することができる。
図23は、サーバ100〜104及び表示装置200〜204として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、及び補助記憶装置914は、それぞれ、例えばCPU、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、及び、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920及び出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920及び出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。
補助記憶装置914には、コンピュータ910をサーバ100〜104及び表示装置200〜204として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、サーバ100〜104及び表示装置200〜204が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。
また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
〔変形例〕
上述の各実施形態では、コミュニケーション支援システム1〜5が翻訳を行う場合について説明したが、コミュニケーション支援システム1〜5はその構成に限定されない。
例えば、商品名をキーフレーズで登録し、当該商品に関連したおすすめ商品の画像を表示装置に表示させてもよい。この場合、商品の型番、管理番号、在庫数、商品のマニュアル、取説、及び接客マニュアルなどを、店員向け表示装置にのみ表示させる構成としてもよい。また、当該商品に関連した広告、CMを客向け表示装置にのみ表示させる構成としてもよい。
また、登録したキーフレーズに関連したキーフレーズをSNS(Social Network Service)上にて検索し、登録したキーフレーズに関連したキーフレーズを含むコメントやコメント数を表示する構成であってもよい。
〔まとめ〕
本発明の態様1に係る表示装置(200〜202)は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、表示すべき情報を含む表示情報を取得する取得部(表示情報取得部231)と、上記取得部が取得した表示情報の示す表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。
上記の構成によれば、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。
本発明の態様2に係る表示装置は、上記態様1において、上記表示画像生成部は、上記表示情報の示すテキストであって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた文字の設定によって表されるテキストを含む表示画像を生成してもよい。
上記の構成によれば、サービス提供者及びサービス利用者がそれぞれ見たいテキストを見やすく表示することができる。
本発明の態様3に係る表示装置は、上記態様1または2において、上記表示情報は、サービス提供者またはサービス利用者が発話した内容である発話内容を示す発話内容情報を含み、上記表示画像生成部は、上記取得部が取得した発話内容情報を参照し、当該発話内容情報が示す発話内容を含む表示画像を生成してもよい。
上記の構成によれば、サービス提供者またはサービス利用者が発話した発話内容をサービス提供者及びサービス利用者に提示することができる。
本発明の態様4に係る表示装置は、上記態様3において、上記表示情報は、上記発話内容情報が示す発話内容の翻訳である翻訳発話内容を示す翻訳発話内容情報を含み、上記表示画像生成部は、上記取得部が取得した翻訳発話内容情報を参照し、当該翻訳発話内容情報が示す翻訳発話内容を更に含むよう上記表示画像を更新してもよい。
上記の構成によれば、発話内容の後に、当該発話内容の翻訳をサービス提供者及びサービス利用者に提示することができる。
本発明の態様5に係る表示装置は、上記態様4において、上記表示画像生成部は、ある発話内容と、当該ある発話内容の翻訳である翻訳発話内容とがグループ化された表示画像を生成してもよい。
上記の構成によれば、対応している発話内容と翻訳内容とをサービス提供者及びサービス利用者に提示することができる。
本発明の態様6に係る表示装置は、上記態様4または5において、上記表示画像生成部は、当該表示装置がサービス提供者向け画像を表示する場合、サービス提供者の発話内容を示すテキストの文字及びサービス利用者の発話内容を翻訳した翻訳発話内容を示すテキストの文字を、当該サービス利用者の発話内容を示すテキストの文字及び当該サービス提供者の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きくした表示画像を生成し、当該表示装置がサービス利用者向け画像を表示する場合、サービス利用者の発話内容を示すテキストの文字及びサービス提供者の発話内容を翻訳した翻訳発話内容を示すテキストの文字を、当該サービス提供者の発話内容を示すテキストの文字及び当該サービス利用者の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きくした表示画像を生成してもよい。
上記の構成によれば、サービス提供者及びサービス利用者に対して、それぞれの発言内容の文字を大きくして提示することができる。また、サービス提供者及びサービス利用者に対して、相手の発言内容の翻訳の文字を大きくして提示することができる。
本発明の態様7に係る表示装置は、上記態様1〜6の何れかにおいて、上記表示画像生成部は、上記表示画像に含まれるフレーズのうち、所定のフレーズを強調表示してもよい。
上記の構成によれば、所定のフレーズを強調してサービス提供者及びサービス利用者に提示することができる。
本発明の態様8に係る表示装置は、上記態様7において、上記表示情報は、上記所定のフレーズに関連した画像を示す画像情報または当該画像の格納先を示す格納先情報を含み、上記表示画像生成部は、上記画像情報または上記格納先情報を参照し、上記所定のフレーズに関連した画像を含む表示画像を生成してもよい。
上記の構成によれば、所定のフレーズに関連した画像をサービス提供者及びサービス利用者に提示することができる。
本発明の態様9に係る表示装置は、上記態様7または8において、上記表示情報は、上記所定のフレーズに関連したオブジェクトであって、サービス利用者またはサービス提供者の操作を受け付けるオブジェクトを示すオブジェクト情報を含み、上記表示画像生成部は、上記オブジェクト情報を参照し、上記オブジェクトを含む表示画像を生成してもよい。
上記の構成によれば、所定のフレーズに関連する情報の表示を受け付けることができる。
本発明の態様10に係る表示装置(203)は、サービス提供者向け画像を表示する第1の表示領域と、サービス利用者向け画像を表示する第2の表示領域とを有する表示装置であって、表示すべき情報を含む表示情報を取得する取得部(表示情報取得部231)と、上記取得部が取得した表示情報の示す表示画像であって、上記第1の表示領域に表示する表示画像であって、サービス提供者向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像と、上記第2の表示領域に表示する表示画像であって、上記第1の表示態様とは異なる第2の表示態様を有する表示画像である第2の表示画像とを生成する表示画像生成部(240)と、上記表示画像生成部が生成した第1の表示画像を上記第1の表示領域に表示し、上記表示画像生成部が生成した第2の表示画像を上記第2の表示領域に表示する表示部(251)と、を備えている。
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
本発明の態様11に係るサーバ(104)は、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部(141)と、上記発話内容情報取得部が取得した発話内容情報を表示装置に出力する発話内容情報出力部(表示情報生成部142、表示情報出力部136)と、上記発話内容情報が示す発話内容を出力する発話内容出力部(発話内容情報取得部141)と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部(翻訳発話内容情報取得部143)と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部142、表示情報出力部136)と、を備えている。
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
本発明の態様12に係るサーバ(101、102)は、上記態様11において、上記発話内容情報が示す発話内容または上記翻訳内容情報が示す翻訳内容に、所定のフレーズが含まれているか否かを判定するフレーズ判定部(キーフレーズ検索部137)と、上記フレーズ判定部が、上記発話内容に上記所定のフレーズが含まれていると判定した場合、上記発話内容情報出力部は更に、上記所定のフレーズを強調表示するよう上記表示装置に対して指示し、上記フレーズ判定部が、上記翻訳内容に上記所定のフレーズが含まれていると判定した場合、上記翻訳内容情報出力部は更に、上記所定のフレーズを強調表示するよう上記表示装置に対して指示してもよい。
上記の構成によれば、所定のフレーズを強調してサービス提供者及びサービス利用者に提示することができる。
本発明の態様13に係るサーバは(100)、上記態様11または12において、発話した音声を示す音声情報を取得する音声情報取得部(131)と、上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、上記発話内容情報を生成する発話内容情報生成部(音声認識部133)と、をさらに備え、上記発話内容情報出力部は、上記発話内容情報生成部が生成した発話内容情報を、上記表示装置に出力してもよい。
上記の構成によれば、サーバが発話内容を認識することができる。
本発明の態様14に係るサーバは、上記態様11〜13の何れかにおいて、上記発話内容情報が示す発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部(翻訳部135)をさらに備え、上記翻訳内容情報出力部は、上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力してもよい。
上記の構成によれば、サーバが発話内容を翻訳することができる。
本発明の態様15に係るコミュニケーション支援システム(5)は、サーバ(104)と表示装置(204)とを備えるコミュニケーション支援システムであって、上記サーバは、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部(141)と、上記発話内容情報取得部が取得した発話内容情報を上記表示装置に出力する発話内容情報出力部(表示情報生成部142、表示情報出力部136)と、上記発話内容情報が示す発話内容を出力する発話内容出力部(発話内容情報取得部141)と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部(翻訳発話内容情報取得部143)と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部142、表示情報出力部136)と、を備え、上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部(表示情報取得部231)と、上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
本発明の態様16に係るコミュニケーション支援システム(1〜3)は、サーバ(100〜102)と表示装置(200〜202)とを備えるコミュニケーション支援システムであって、上記サーバは、発話した音声を示す音声情報を取得する音声情報取得部(231)と、上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、発話内容情報を生成する発話内容情報生成部(音声認識部133)と、上記発話内容情報生成部が生成した発話内容情報を上記表示装置に出力する発話内容情報出力部(表示情報出力部136)と、上記発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部(翻訳部135)と、上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部134、表示情報出力部136)と、を備え、上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部(表示情報取得部231)と、上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
本発明の態様17に係るコミュニケーション支援方法は、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得工程と、上記発話内容情報取得工程において取得された発話内容情報を表示装置に出力する発話内容情報出力工程と、上記発話内容情報が示す発話内容を出力する発話内容出力工程と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得工程と、上記翻訳内容情報取得工程において取得された翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力工程と、を含む。
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
本発明の各態様に係る表示装置及びサーバは、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示装置及びサーバが備える各部(ソフトウェア要素に限る)として動作させることにより上記表示装置及びサーバをコンピュータにて実現させる表示装置及びサーバの制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。
本発明は、店舗において店員と客とのコミュニケーションを支援するシステムに利用することができる。
1、2、3、4、5 コミュニケーション支援システム
100、101、102、103、104 サーバ
110 サーバ通信部
120、121、122、124 サーバ制御部
131、140 音声情報取得部
132 音声抽出部
133 音声認識部(発話内容情報生成部)
134 表示情報生成部
135 翻訳部(翻訳内容情報生成部)
136 表示情報出力部(発話内容情報出力部、翻訳内容情報出力部)
137 キーフレーズ検索部(フレーズ判定部)
138 操作情報取得部
141 発話内容情報取得部(発話内容出力部)
142 表示情報生成部(発話内容情報出力部、翻訳内容情報出力部)
143 翻訳発話内容情報取得部(翻訳内容情報取得部)
150、152 キーフレーズデータベース
200、201、202、203、204 表示装置
210 表示装置通信部
220、222、223 表示装置制御部
231 表示情報取得部(取得部)
232、240 表示画像生成部
233 音声情報取得部
234 操作情報取得部
250、251 表示部
260 音声受付部
270、270a 操作受付部
300a、300b、302a、302b、304a、304b 吹き出し
400a、400b、402a、402b、404a、404b、406a、406b、410a、410b、412a、412b、414a、414b、416a、416b、500a、500b、502a、502b、510a、510b、512a、512b テキスト
600a、600b、602a、602b、606a、606b 画像
604a、604b、605a ボタン
700、700a、700b 音声抽出サーバ
701 音声抽出サーバ通信部
702 音声抽出部
720 音声認識サーバ
721 音声認識サーバ通信部
722 音声認識部
740 翻訳サーバ
741 翻訳サーバ通信部
742 翻訳部
800a、800b テキスト
910 コンピュータ
911 バス
912 演算装置
913 主記憶装置
914 補助記憶装置
915 入出力インターフェース
916 通信インターフェース
920 入力装置
930 出力装置

Claims (19)

  1. サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、
    表示すべき情報を含む表示情報を取得する取得部と、
    上記取得部が取得した表示情報の示す表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部と、
    上記表示画像生成部が生成した表示画像を表示する表示部と、
    を備えていることを特徴とする表示装置。
  2. 上記表示画像生成部は、上記表示情報の示すテキストであって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた文字の設定によって表されるテキストを含む表示画像を生成する、
    ことを特徴とする請求項1に記載の表示装置。
  3. 上記表示情報は、サービス提供者またはサービス利用者が発話した内容である発話内容を示す発話内容情報を含み、
    上記表示画像生成部は、上記取得部が取得した発話内容情報を参照し、当該発話内容情報が示す発話内容を含む表示画像を生成する、
    ことを特徴とする請求項1または2に記載の表示装置。
  4. 上記表示情報は、上記発話内容情報が示す発話内容の翻訳である翻訳発話内容を示す翻訳発話内容情報を含み、
    上記表示画像生成部は、上記取得部が取得した翻訳発話内容情報を参照し、当該翻訳発話内容情報が示す翻訳発話内容を更に含むよう上記表示画像を更新する、
    ことを特徴とする請求項3に記載の表示装置。
  5. 上記表示画像生成部は、ある発話内容と、当該ある発話内容の翻訳である翻訳発話内容とがグループ化された表示画像を生成する、
    ことを特徴とする請求項4に記載の表示装置。
  6. 上記表示画像生成部は、
    当該表示装置がサービス提供者向け画像を表示する場合、サービス提供者の発話内容を示すテキストの文字及びサービス利用者の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、当該サービス利用者の発話内容を示すテキストの文字及び当該サービス提供者の発話内容を翻訳した翻訳発話内容を示すテキストの文字より目立つ表示画像を生成し、
    当該表示装置がサービス利用者向け画像を表示する場合、サービス利用者の発話内容を示すテキストの文字及びサービス提供者の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、当該サービス提供者の発話内容を示すテキストの文字及び当該サービス利用者の発話内容を翻訳した翻訳発話内容を示すテキストの文字より目立つ表示画像を生成する、
    ことを特徴とする請求項4または5に記載の表示装置。
  7. 上記表示画像生成部は、上記表示画像に含まれるフレーズのうち、所定のフレーズを強調表示する、
    ことを特徴とする請求項1〜6の何れか1項に記載の表示装置。
  8. 上記表示情報は、上記所定のフレーズに関連した画像を示す画像情報または当該画像の格納先を示す格納先情報を含み、
    上記表示画像生成部は、上記画像情報または上記格納先情報を参照し、上記所定のフレーズに関連した画像を含む表示画像を生成する、
    ことを特徴とする請求項7に記載の表示装置。
  9. 上記表示情報は、上記所定のフレーズに関連したオブジェクトであって、サービス利用者またはサービス提供者の操作を受け付けるオブジェクトを示すオブジェクト情報を含み、
    上記表示画像生成部は、上記オブジェクト情報を参照し、上記オブジェクトを含む表示画像を生成する、
    ことを特徴とする請求項7または8に記載の表示装置。
  10. サービス提供者向け画像を表示する第1の表示領域と、サービス利用者向け画像を表示する第2の表示領域とを有する表示装置であって、
    表示すべき情報を含む表示情報を取得する取得部と、
    上記取得部が取得した表示情報の示す表示画像であって、上記第1の表示領域に表示する表示画像であって、サービス提供者向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像と、上記第2の表示領域に表示する表示画像であって、上記第1の表示態様とは異なる第2の表示態様を有する表示画像である第2の表示画像とを生成する表示画像生成部と、
    上記表示画像生成部が生成した第1の表示画像を上記第1の表示領域に表示し、上記表示画像生成部が生成した第2の表示画像を上記第2の表示領域に表示する表示部と、
    を備えていることを特徴とする表示装置。
  11. 発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部と、
    上記発話内容情報取得部が取得した発話内容情報を表示装置に出力する発話内容情報出力部と、
    上記発話内容情報が示す発話内容を出力する発話内容出力部と、
    上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部と、
    上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部と、
    を備えていることを特徴とするサーバ。
  12. 上記発話内容情報が示す発話内容または上記翻訳内容情報が示す翻訳内容に、所定のフレーズが含まれているか否かを判定するフレーズ判定部と、
    上記フレーズ判定部が、上記発話内容に上記所定のフレーズが含まれていると判定した場合、上記発話内容情報出力部は更に、上記所定のフレーズを強調表示するよう上記表示装置に対して指示し、
    上記フレーズ判定部が、上記翻訳内容に上記所定のフレーズが含まれていると判定した場合、上記翻訳内容情報出力部は更に、上記所定のフレーズを強調表示するよう上記表示装置に対して指示する、
    ことを特徴とする請求項11に記載のサーバ。
  13. 発話した音声を示す音声情報を取得する音声情報取得部と、
    上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、上記発話内容情報を生成する発話内容情報生成部と、をさらに備え、
    上記発話内容情報出力部は、上記発話内容情報生成部が生成した発話内容情報を、上記表示装置に出力する、
    ことを特徴とする請求項11または12に記載のサーバ。
  14. 上記発話内容情報が示す発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部をさらに備え、
    上記翻訳内容情報出力部は、上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する、
    ことを特徴とする請求項11〜13の何れか1項に記載のサーバ。
  15. サーバと表示装置とを備えるコミュニケーション支援システムであって、
    上記サーバは、
    発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部と、
    上記発話内容情報取得部が取得した発話内容情報を上記表示装置に出力する発話内容情報出力部と、
    上記発話内容情報が示す発話内容を出力する発話内容出力部と、
    上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部と、
    上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部と、を備え、
    上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、
    上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部と、
    上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部と、
    上記表示画像生成部が生成した表示画像を表示する表示部と、
    を備えていることを特徴とするコミュニケーション支援システム。
  16. サーバと表示装置とを備えるコミュニケーション支援システムであって、
    上記サーバは、
    発話した音声を示す音声情報を取得する音声情報取得部と、
    上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、発話内容情報を生成する発話内容情報生成部と、
    上記発話内容情報生成部が生成した発話内容情報を上記表示装置に出力する発話内容情報出力部と、
    上記発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部と、
    上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部と、を備え、
    上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、
    上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部と、
    上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部と、
    上記表示画像生成部が生成した表示画像を表示する表示部と、
    を備えていることを特徴とするコミュニケーション支援システム。
  17. 発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得工程と、
    上記発話内容情報取得工程において取得された発話内容情報を表示装置に出力する発話内容情報出力工程と、
    上記発話内容情報が示す発話内容を出力する発話内容出力工程と、
    上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得工程と、
    上記翻訳内容情報取得工程において取得された翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力工程と、
    を含むことを特徴とするコミュニケーション支援方法。
  18. サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置としてコンピュータを機能させるための制御プログラムであって、
    表示すべき情報を含む表示情報を取得する取得部と、
    上記取得部が取得した表示情報の示す表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部と、
    としてコンピュータを機能させるための制御プログラム。
  19. サーバとしてコンピュータを機能させるための制御プログラムであって、
    発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部と、
    上記発話内容情報取得部が取得した発話内容情報を表示装置に出力する発話内容情報出力部と、
    上記発話内容情報が示す発話内容を出力する発話内容出力部と、
    上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部と、
    上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部と、
    としてコンピュータを機能させるための制御プログラム。
JP2014232154A 2014-11-14 2014-11-14 表示装置、サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及び制御プログラム Pending JP2016095727A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014232154A JP2016095727A (ja) 2014-11-14 2014-11-14 表示装置、サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及び制御プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014232154A JP2016095727A (ja) 2014-11-14 2014-11-14 表示装置、サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及び制御プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2017194646A Division JP6550111B2 (ja) 2017-10-04 2017-10-04 表示装置、表示方法及びプログラム

Publications (1)

Publication Number Publication Date
JP2016095727A true JP2016095727A (ja) 2016-05-26

Family

ID=56071213

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014232154A Pending JP2016095727A (ja) 2014-11-14 2014-11-14 表示装置、サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及び制御プログラム

Country Status (1)

Country Link
JP (1) JP2016095727A (ja)

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278972A (ja) * 1995-04-06 1996-10-22 Sony Corp 音声入力翻訳装置
JPH1097537A (ja) * 1996-09-24 1998-04-14 Inter Group:Kk 翻訳支援システムおよびその記録媒体
JP2004295578A (ja) * 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd 翻訳装置
JP2009205579A (ja) * 2008-02-29 2009-09-10 Toshiba Corp 音声翻訳装置およびプログラム
JP2012203861A (ja) * 2011-03-28 2012-10-22 Toshiba Corp 外国語接客支援装置、外国語接客方法及びプログラム
JP2014010623A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 音声翻訳装置、方法およびプログラム
JP5422775B1 (ja) * 2013-09-02 2014-02-19 敏充 茂木 注文受付管理装置、注文入力端末装置及びそのプログラム
JP2016057986A (ja) * 2014-09-11 2016-04-21 株式会社東芝 音声翻訳装置、方法およびプログラム

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08278972A (ja) * 1995-04-06 1996-10-22 Sony Corp 音声入力翻訳装置
JPH1097537A (ja) * 1996-09-24 1998-04-14 Inter Group:Kk 翻訳支援システムおよびその記録媒体
JP2004295578A (ja) * 2003-03-27 2004-10-21 Matsushita Electric Ind Co Ltd 翻訳装置
JP2009205579A (ja) * 2008-02-29 2009-09-10 Toshiba Corp 音声翻訳装置およびプログラム
JP2012203861A (ja) * 2011-03-28 2012-10-22 Toshiba Corp 外国語接客支援装置、外国語接客方法及びプログラム
JP2014010623A (ja) * 2012-06-29 2014-01-20 Toshiba Corp 音声翻訳装置、方法およびプログラム
JP5422775B1 (ja) * 2013-09-02 2014-02-19 敏充 茂木 注文受付管理装置、注文入力端末装置及びそのプログラム
JP2016057986A (ja) * 2014-09-11 2016-04-21 株式会社東芝 音声翻訳装置、方法およびプログラム

Similar Documents

Publication Publication Date Title
US20120260177A1 (en) Gesture-activated input using audio recognition
US9582808B2 (en) Customizing a presentation based on preferences of an audience
CN108279931A (zh) 场境粘贴目标预测
US20150113006A1 (en) Systems, devices and methods for list display and management
JP6865653B2 (ja) 対話分析システムおよび対話分析プログラム
CN107230142A (zh) 基于语音生成订单的方法及装置、交易方法及系统
US10216382B2 (en) Virtual cultural attache
US20190362022A1 (en) Audio file labeling process for building datasets at scale
US9471567B2 (en) Automatic language recognition
JP2018128869A (ja) 検索結果表示装置、検索結果表示方法、及びプログラム
JP2016021196A (ja) 注文入力システム及び注文入力方法
KR20240073984A (ko) 관찰된 쿼리 패턴들에 기초하는 타겟 디바이스에 대한 증류
JP6488417B1 (ja) ワークショップ支援システムおよびワークショップ支援方法
JP4837887B2 (ja) ユーザ・グループに固有のパターン処理システム
JP2018055689A (ja) 表示装置、表示方法及びプログラム
JP6066791B2 (ja) 商品情報提供システムおよび商品情報提供用プログラム
JP2020027132A (ja) 情報処理装置およびプログラム
JP2011065304A (ja) 接客業務用サーバ、並びに、当該サーバを用いる接客システム及び接客業務の予測終了時間算出方法
JP6709132B2 (ja) 音声注文受付システム
WO2018173943A1 (ja) データ構造化装置、データ構造化方法およびプログラム記憶媒体
JP6803946B2 (ja) 表示装置、表示方法及びプログラム
JP2022020149A (ja) 情報処理装置およびプログラム
US20160259539A1 (en) User terminal device, digital signage device, and controlling methods thereof
JP2016095727A (ja) 表示装置、サーバ、コミュニケーション支援システム、コミュニケーション支援方法、及び制御プログラム
JP6639431B2 (ja) 用件判定装置、要約文表示装置、用件判定方法、要約文表示方法、及びプログラム

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160825

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20161004

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161130

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170418

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170608

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170704