JP6550111B2 - Display device, display method and program - Google Patents
Display device, display method and program Download PDFInfo
- Publication number
- JP6550111B2 JP6550111B2 JP2017194646A JP2017194646A JP6550111B2 JP 6550111 B2 JP6550111 B2 JP 6550111B2 JP 2017194646 A JP2017194646 A JP 2017194646A JP 2017194646 A JP2017194646 A JP 2017194646A JP 6550111 B2 JP6550111 B2 JP 6550111B2
- Authority
- JP
- Japan
- Prior art keywords
- display
- information
- image
- unit
- display device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 41
- 238000013519 translation Methods 0.000 claims description 148
- 238000004891 communication Methods 0.000 description 156
- 230000008569 process Effects 0.000 description 34
- 230000006870 function Effects 0.000 description 28
- 238000010586 diagram Methods 0.000 description 27
- 238000000605 extraction Methods 0.000 description 27
- 238000012545 processing Methods 0.000 description 14
- 235000015277 pork Nutrition 0.000 description 11
- 240000007643 Phytolacca americana Species 0.000 description 8
- 230000000694 effects Effects 0.000 description 5
- 239000000284 extract Substances 0.000 description 5
- 241000287828 Gallus gallus Species 0.000 description 2
- FFBHFFJDDLITSX-UHFFFAOYSA-N benzyl N-[2-hydroxy-4-(3-oxomorpholin-4-yl)phenyl]carbamate Chemical compound OC1=C(NC(=O)OCC2=CC=CC=C2)C=CC(=C1)N1CCOCC1=O FFBHFFJDDLITSX-UHFFFAOYSA-N 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 244000269722 Thea sinensis Species 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 238000010411 cooking Methods 0.000 description 1
- 238000005034 decoration Methods 0.000 description 1
- 238000004049 embossing Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 235000013305 food Nutrition 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 235000013311 vegetables Nutrition 0.000 description 1
Images
Landscapes
- Machine Translation (AREA)
- Controls And Circuits For Display Device (AREA)
- User Interface Of Digital Computer (AREA)
- Management, Administration, Business Operations System, And Electronic Commerce (AREA)
Description
本発明はサービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置等に関する。 The present invention relates to a display device or the like that displays at least one of a service provider image and a service user image.
経済や文化のグローバル化が進む現在、異なる言語を母語とする人同士がコミュニケーションを図る機会が増えている。そのため、このようなコミュニケーションを支援することを目的とする翻訳装置が開発されている。例えば特許文献1には、日本語を母語とするユーザ(ユーザJ)向けに日本語を表示するディスプレイと、英語を母語とするユーザ(ユーザE)向けに英語を表示するディスプレイとを備えた翻訳装置が記載されている。
As the globalization of economy and culture advances, opportunities for communication between people whose native languages are different languages are increasing. Therefore, a translation device has been developed for the purpose of supporting such communication. For example,
特許文献2には、異なる母語の利用者同士の音声によるコミュニケーションを支援する音声翻訳装置が記載されている。この音声翻訳装置は、入力された音声信号の認識結果及び当該認識結果に対応する翻訳結果を表示することに加えて、上記認識結果に関連するキーワードを検索するとともに当該キーワードの翻訳結果を表示することによってコミュニケーションを支援する。
また、特許文献3には、(1)入力された音声の認識結果である文字列と、webページに含まれている画像情報を解析することによって得られたキーワードとを比較し、(2)上記文字列と上記キーワードとが一致する場合には、上記文字列を文字画像に変換し、認識された音声に対応する映像と上記文字画像とを合成することによって新たな画像情報を生成する画像処理装置が記載されている。このようにして生成された上記新たな画像情報は、商品を販売するためのホームページやチラシとして利用することができる。
Further,
特許文献2に記載の音声翻訳装置を利用する場合、異なる母語の利用者同士は、入力された音声信号の認識結果(特許文献2の図5に示された表示エリアA)と、当該認識結果に対応する翻訳結果(同図に示された表示エリアB)と、キーワード(同図に示された表示エリアC)と、翻訳されたキーワード(同図に示された表示エリアD)とが表示された表示部を参照しながらコミュニケーションを図る。換言すれば、異なる言語を用いる各利用者は、表示部にそれぞれの母語で表示された情報であって、同一の内容からなる情報を参照しながらコミュニケーションを図る。
When the speech translation apparatus described in
上記音声翻訳装置においては、各表示エリアに表示される上記認識結果、上記翻訳結果、上記キーワード、及び上記翻訳されたキーワードは、軽重のない一様なテキストとして表示される。また、上記音声翻訳装置においては、入力された発話の認識結果が表示エリアAに表示されるため、(1)利用者が発話する言語が日本語である場合には表示エリアAに日本語の認識結果が表示され、表示エリアBに英語の翻訳結果が表示され、(2)利用者が発話する言語が英語である場合には表示エリアAに英語の認識結果が表示され、表示エリアBに日本語の翻訳結果が表示される。換言すれば、上記音声翻訳装置において、利用者の母語を用いて認識結果または翻訳結果を表示する表示エリアは、発話する利用者が代わるたびに表示エリアAから表示エリアBへ、また、表示エリアBから表示エリアAへと変更される。 In the speech translation apparatus, the recognition result, the translation result, the keyword, and the translated keyword displayed in each display area are displayed as a uniform text without heaviness. Further, in the above-described speech translation apparatus, since the recognition result of the input speech is displayed in the display area A, (1) when the language spoken by the user is Japanese, the display area A is Japanese The recognition result is displayed, the translation result of English is displayed in the display area B, and (2) when the language spoken by the user is English, the recognition result of English in the display area A is displayed, and the display area B is displayed The Japanese translation results are displayed. In other words, in the speech translation apparatus, the display area for displaying the recognition result or the translation result using the user's native language changes from the display area A to the display area B and the display area each time the user who speaks changes. B is changed to display area A.
このような上記音声翻訳装置を利用する利用者同士は、軽重のない一様なテキストであって、発話する利用者が代わるたびに異なる表示エリアに表示される上記認識結果及び上記翻訳結果を絶えず注視しながらコミュニケーションを図られることを強いられる。換言すれば、上記音声翻訳装置は、上記表示部に表示された情報のうち注目すべき情報がどれであるのかが利用者にとって分かりにくく、利用者の使い勝手において改善の余地を残している。 Users who use such a speech translation apparatus are uniform texts that are not disappointing, and the recognition result and the translation result are constantly displayed in different display areas each time the speech user changes. You are forced to be able to communicate while watching. In other words, it is difficult for the user to understand which information to be noticed among the information displayed on the display unit, and the speech translation apparatus leaves room for improvement in usability of the user.
また、複数の利用者同士が共通する情報を参照しながらコミュニケーションを図るという状況は、異なる言語を母語とする人同士がコミュニケーションを図る場合に限定されるものではない。例えば、家電製品を販売する量販店において、ユーザ及び店員(利用者)が、量販店が用意している表示装置を参照しながら商談を進める場合においても同様の状況が生じ得る。表示装置の表示部に多くの情報が表示されることは、多くの情報をユーザと店員との間で共有できるというメリットを有する。その反面、それら多くの情報に軽重が付けられていないために、それら多くの情報のうち注目すべき情報がどれであるのかがユーザ及び店員にとって分かりにくいというデメリットを有する。すなわち、このような表示装置は、利用者の使い勝手において改善の余地を残している。 Further, the situation in which communication is attempted while referring to common information among a plurality of users is not limited to the case where persons whose native language is a different language communicate with each other. For example, the same situation may occur in a case where a user and a store clerk (user) proceed with a business negotiation while referring to a display device provided by a mass retailer in a mass retailer selling home appliances. The display of a large amount of information on the display unit of the display device has an advantage that a large amount of information can be shared between the user and the store clerk. On the other hand, there is a disadvantage that it is difficult for the user and the store clerk to know which of the many pieces of information should be noticed, because the large amount of information is not lightly weighted. That is, such a display device leaves room for improvement in the usability of the user.
本発明は、上記の課題を鑑みてなされたものであり、その目的は、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる技術を提供することである。 The present invention has been made in view of the above problems, and an object thereof is to provide a technology capable of improving the usability of a display device and facilitating communication between users.
上述した課題を解決するために、本発明の表示装置は、
サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、
第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有する表示部と、
発話内容を取得する取得部と、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定の
フレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第
2表示領域に表示する制御を行う表示制御部と、
を備え、
前記表示制御部は、前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行うことを特徴とする。
In order to solve the problems described above, the display device of the present invention is
A display device for displaying at least one of a service provider image and a service user image, comprising:
A display unit having a display screen which can be divided and displayed in a first display area and a second display area;
An acquisition unit for acquiring utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control unit that performs control to display;
Equipped with
The display control unit displays an object associated with the phrase on the display screen, and when the object is selected, performs control to display image information corresponding to the selected object in the second display area. It is characterized by
本発明の表示方法は、
サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示部を有する表示装置における表示方法であって、
前記表示部は、第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有しており、
発話内容を取得する取得ステップと、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定の
フレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第
2表示領域に表示する制御を行う表示制御ステップと、
を含み、
前記表示制御ステップは、前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行うことを特徴とする。
The display method of the present invention is
A display method on a display device including a display unit that displays at least one of a service provider image and a service user image.
The display unit has a display screen which can be divided and displayed in a first display area and a second display area.
An acquisition step of acquiring an utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control step for performing control to be displayed;
Only including,
The display control step displays an object associated with the phrase on the display screen, and when the object is selected, performs control to display image information corresponding to the selected object in the second display area. It is characterized by
本発明のプログラムは、
サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示部を有するコンピュータに、
前記表示部は、第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有しており、
発話内容を取得する取得機能と、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定の
フレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第
2表示領域に表示する制御を行う表示制御機能と、
を実現させ、
前記表示制御機能は、前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行うことを特徴とする。
The program of the present invention is
A computer having a display unit for displaying at least one of a service provider image and a service user image;
The display unit has a display screen which can be divided and displayed in a first display area and a second display area.
An acquisition function for acquiring utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control function that performs control to be displayed;
To achieve,
The display control function displays an object associated with the phrase on the display screen, and when the object is selected, performs control to display image information corresponding to the selected object in the second display area. It is characterized by
本発明の一態様によれば、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。 According to one aspect of the present invention, usability of the display device can be improved and communication between users can be facilitated.
〔実施形態1〕
以下、本発明の一実施形態について、図1〜図8を用いて詳細に説明する。以下の特定の実施形態で説明する構成以外の構成については、必要に応じて説明を省略する場合があるが、他の実施形態で説明されている場合は、その構成と同じである。また、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。
Hereinafter, an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 8. Descriptions of configurations other than the configurations described in the following specific embodiments may be omitted as needed. However, in the case of being described in other embodiments, the configuration is the same as the configuration. Moreover, about the member which has the function same as the member shown to each embodiment for convenience of explanation, the same code | symbol is attached | subjected and the description is abbreviate | omitted suitably.
(コミュニケーション支援システム1)
図1は、本発明の実施形態1に係るコミュニケーション支援システム1を模式的に示す図である。コミュニケーション支援システム1は、図1に示すように、サーバ100、表示装置200a、及び表示装置200bによって構成されている。
(Communication support system 1)
FIG. 1 is a view schematically showing a
コミュニケーション支援システム1は、サービス提供者及びサービス利用者がコミュニケーションを円滑にすることができるシステムである。本明細書では、サービス提供者が店員、サービス利用者が客である場合について説明するが、コミュニケーション支援システム1は、タクシー運転手と客、受付と来訪者等にも利用可能である。
The
コミュニケーション支援システム1では、クラウド上に設置されたサーバ100と、店舗に設置された表示装置200a及び表示装置200bとがそれぞれ通信可能に接続されている。本実施形態では、店員が日本語を話し、客が英語を話し、客が店頭のおでんを購入する場合を例に挙げて説明する。なお、コミュニケーション支援システム1は、店のキャッシュレジスターと連携する構成であってもよい。
In the
また、コミュニケーション支援システム1では、表示装置200a及び表示装置200bにはそれぞれ店員向けまたは客向けの設定がされている。本明細書では、表示装置200aには店員向けの設定がされており、表示装置200bには客向けの設定がされているとして説明する。なお、表示装置200a及び表示装置200bは、店員向けまたは客向けの設定がされているという点において区別される。そのため、表示装置200a及び表示装置200bは同じ機能を有し、以下において、表示装置200a及び表示装置200bを表示装置200と総称する。
Further, in the
(サーバ100)
図2は、本発明の実施形態1におけるサーバ100の要部構成を示すブロック図である。サーバ100について、図2を用いて説明する。
(Server 100)
FIG. 2 is a block diagram showing the main configuration of the
サーバ100は、図2に示すように、サーバ通信部110及びサーバ制御部120を備えている。
The
サーバ通信部110は、外部の機器と情報を送受信することができる。
The
サーバ制御部120は、サーバ100の各構成を統括的に制御するものである。サーバ制御部120の詳細について、以下に説明する。
The
(サーバ制御部120)
サーバ制御部120は、図2に示すように、音声情報取得部131、音声抽出部132、音声認識部(発話内容情報生成部)133、表示情報生成部134、翻訳部(翻訳内容情報生成部)135、及び表示情報出力部(発話内容情報出力部、翻訳内容情報出力部)136としても機能する。
(Server control unit 120)
As shown in FIG. 2, the
音声情報取得部131は、サーバ通信部110を制御し、表示装置200から出力された音声情報を取得する。
The audio
音声抽出部132は、音声情報取得部131が取得した音声情報に含まれている音声から、客または店員が発話した音声を抽出し、抽出した音声を示す抽出音声情報を出力する。
The
音声認識部133は、音声抽出部132が出力した抽出音声情報が示す音声を認識し、認識した音声内容を示す発話内容情報を出力する。
The
表示情報生成部134は、表示装置200に表示させるべき情報を含む表示情報を生成する。表示情報生成部134が生成する表示情報の詳細については、後述する。
The display
翻訳部135は、発話内容を取得し、当該発話内容を翻訳した翻訳内容を示す翻訳発話内容情報を生成して出力する。
The
表示情報出力部136は、表示情報生成部134が生成した表示情報を、サーバ通信部110を制御して表示装置200に出力する。
The display
(表示装置200)
図3は、本発明の実施形態1における表示装置200の要部構成を示すブロック図である。表示装置200について、図3を用いて説明する。
(Display device 200)
FIG. 3 is a block diagram showing the main configuration of the
表示装置200は、図3に示すように、表示装置通信部210、表示装置制御部220、表示部250、及び音声受付部260を備えている。
As shown in FIG. 3, the
表示装置通信部210は、外部の機器と情報を送受信することができる。
The display
表示装置制御部220は、表示装置200の各構成を統括的に制御するものである。表示装置制御部220の詳細については、後述する。
The display
表示部250は、表示装置制御部220から出力される画像信号が示す画像を表示する。
The
音声受付部260は、表示装置200の周辺の音声を取得し、取得した音声を示す音声情報を出力する。
The
(表示装置制御部220)
表示装置制御部220は、図3に示すように、表示情報取得部(取得部)231、表示画像生成部232、及び音声情報取得部233としても機能する。
(Display device controller 220)
The display
表示情報取得部231は、表示装置通信部210を制御し、サーバ100から出力された表示情報を取得する。
The display
表示画像生成部232は、表示情報が示す表示画像であって、表示装置200が店員向けであるか客向けであるのかに応じた表示態様を有する表示画像を生成する。ここで、店員向けであるか客向けであるのかに応じた表示態様を有する表示画像とは、店員向けであるか客向けであるのかに応じた文字の設定によって表されるテキストを含む表示画像である。店員向けであるか客向けであるのかに応じた文字の設定の例として、文字の書体、文字の色、文字の大きさ、文字の飾り(傍点、下線、取り消し線、二重取り消し線、影付き、網掛け、背景色、上付き文字、下付き文字、中抜き、浮きだし、浮彫など)の設定が挙げられる。表示画像生成部232が表示画像を生成する処理の詳細は、後述する。
The display
音声情報取得部233は、音声受付部260を介して音声情報を取得する。
The voice
(コミュニケーション支援システム1の処理1)
図4は、本発明の実施形態1に係るコミュニケーション支援システム1において、客の発話内容の翻訳が表示されるまでの処理の流れ(コミュニケーション支援方法)を示すシークエンス図である。また、図5は、本発明の実施形態1における表示情報の構造を示す図である。また、図6は、本発明の実施形態1における表示装置200が表示する画像を示す図である。コミュニケーション支援システム1において、客の発話内容の翻訳が表示されるまでの処理の流れについて、図4〜図6を用いて説明する。
(
FIG. 4 is a sequence diagram showing a flow of processing (communication support method) until the translation of the uttered content of the customer is displayed in the
図6の(a)は、表示装置200aの初期画像を示す図であり、図6の(b)は、表示装置200bの初期画像を示す図である。図6の(a)及び図6の(b)に示すように、表示装置200aの表示部250a及び表示装置200bの表示部250bに表示される初期画像にはそれぞれ、発話を促すテキスト800a及び800bを含む画像が表示されている。
(A) of FIG. 6 is a diagram showing an initial image of the
なお、図6の(a)及び(b)に示す初期画像を表示している期間において、表示装置200a及び表示装置200bが取得した音声の言語を判定し、後述する翻訳の処理において、当該言語に翻訳する構成であってもよい。例えば、表示装置200aが日本語の音声を取得し、表示装置200bが英語の音声を取得した場合、後述する翻訳処理(ステップS27)では、サーバ100は、表示装置200aから取得した音声に含まれる発話内容を英語に翻訳し、表示装置200bから取得した音声に含まれる発話内容を日本語に翻訳する構成であってもよい。なお、本明細書では、店員が日本語を話し、客が英語を話す場合について、説明する。
In the period during which the initial image shown in (a) and (b) of FIG. 6 is displayed, the language of the voice acquired by the
(ステップS1)
まず、表示装置200bの音声情報取得部233bは、音声受付部260bを介して客が発話した音声を含む音声情報を取得する。例えば、客が店員におでんを購入する方法を尋ねるため、「How can I buy it?」と発話すると、音声情報取得部233bは、「How can I buy it?」を含む音声情報を取得する。
(Step S1)
First, the voice information acquisition unit 233b of the
(ステップS3)
音声情報取得部233bは、取得した上記音声情報を、表示装置通信部210bを介してサーバ100に出力する。
(Step S3)
The voice information acquisition unit 233 b outputs the acquired voice information to the
(ステップS5)
サーバ100の音声情報取得部131は、サーバ通信部110を介して上記音声情報を取得する。そして、音声情報取得部131は、上記音声情報を、音声抽出部132に出力する。
(Step S5)
The voice
(ステップS7)
音声抽出部132は、取得した上記音声情報に含まれている音声から客が発話した音声を抽出する。そして、抽出した音声を示す抽出音声情報を音声認識部133に出力する。
(Step S7)
The
(ステップS9)
音声認識部133は、取得した上記抽出音声情報が示す音声を認識し、認識した発話内容を示す発話内容情報を表示情報生成部134に出力する。
(Step S9)
The
(ステップS11、発話内容情報取得工程)
表示情報生成部134は、取得した上記発話内容情報含む表示情報を生成する。ここで、表示情報生成部134が生成する表示情報について、図5の(a)を用いて説明する。図5の(a)は、発話内容を表示するための表示情報の一例を示す図である。
(Step S11, utterance content information acquisition process)
The display
図5の(a)に示すように、発話内容を表示するための表示情報を「communication」と称する。「communication」は、図5の(a)に示すように、項目「cid」、項目「type」、項目「kind」、項目「state」、及び項目「data」によって構成されている。 As shown to (a) of FIG. 5, the display information for displaying the content of utterance is called "communication." As shown in (a) of FIG. 5, “communication” is configured by an item “cid”, an item “type”, an item “kind”, an item “state”, and an item “data”.
項目「cid」には、当該「communication」を他の「communication」と識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。 The item “cid” stores identification information for identifying the “communication” as another “communication”. More specifically, numbers of serial numbers are stored.
項目「type」には、後述する項目「data」に格納されている発話内容を発話した人を示す情報が格納される。より具体的には、客が発話したことを示す「customer」または店員が発話したことを示す「staff」が格納される。 The item “type” stores information indicating a person who has uttered the utterance content stored in the item “data” described later. More specifically, “customer” indicating that a customer uttered or “staff” indicating that a store clerk uttered is stored.
項目「kind」には、後述する項目「data」の種類を示す情報が格納される。より具体的には、発話内容を示す「speech」または発話内容の翻訳である翻訳発話内容を示す「trans」が格納される。 The item “kind” stores information indicating the type of the item “data” described later. More specifically, "speech" indicating the content of the utterance or "trans" indicating the content of the translated utterance that is a translation of the content of the utterance is stored.
項目「state」には、後述する吹き出しを新たに生成するか、または既に生成されている吹き出しを更新するか、を示す情報が格納される。より具体的には、吹き出しを新たに生成することを示す「new」または既に生成されている吹き出しを更新することを示す「update」が格納される。 The item “state” stores information indicating whether to newly generate a balloon to be described later or to update a balloon that has already been generated. More specifically, “new” indicating that a balloon is newly generated or “update” indicating that a balloon that has already been generated is updated is stored.
項目「data」には、発話内容または翻訳発話内容が格納される。 The item "data" stores the utterance content or the translated utterance content.
例えば、ステップS3において、音声情報取得部233bが「How can I buy it?」を含む音声情報を取得すると、ステップS11において表示情報生成部134は、図5の(a)に示すように、項目「cid」に「1」を格納し、項目「type」に「customer」を格納し、項目「kind」に「speech」を格納し、項目「state」に「new」を格納し、項目「data」に「How can I buy it?」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した上記表示情報を表示情報出力部136に出力する。
For example, in step S3, when the audio information acquisition unit 233b acquires audio information including "How can I buy it?", The display
(ステップS13、発話内容情報出力工程)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(Step S13, utterance content information output process)
The display
(ステップS15)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S15)
The display information acquisition unit 231b of the
(ステップS17)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「1」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「customer」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「How can I buy it?」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S17)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, first, the display image generation unit 232 b refers to the acquired display information, and “new” is stored in the item “state”, so “1” stored in the item “cid” Generate a balloon image associated with the. Subsequently, since “customer” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 b causes the customer to utter the utterance content included in the display information. It can be recognized as the uttered content. Therefore, the display image generation unit 232 b generates an image in which the text “How can I buy it?” Indicating the utterance content stored in the item “data” is enlarged in the above-described balloon. Note that the size of the character in this case indicates that it is larger than the character of the text indicating the uttered content uttered by the store clerk and the text indicating the translated uttered content obtained by translating the uttered content of the customer. Then, the display image generation unit 232 b outputs the generated display image to the
(ステップS19)
表示部250bは、取得した上記表示画像を表示する。
(Step S19)
The
(ステップS21)
ステップS13においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S21)
When the
(ステップS23)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「1」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「customer」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「How can I buy it?」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S23)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, first, the display image generation unit 232a refers to the acquired display information and “new” is stored in the item “state”, so “1” stored in the item “cid” Generate a balloon image associated with the. Subsequently, since “customer” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 a causes the customer to utter the utterance content included in the display information. It can be recognized as the uttered content. Therefore, the display image generation unit 232a generates an image in which the character of the text "How can I buy it?" Indicating the utterance content stored in the item "data" is reduced in the above-described balloon. Note that the size of the character in this case indicates that the text is smaller than the text representing the uttered content uttered by the store clerk and the text representing the translated uttered content obtained by translating the uttered content of the customer. Then, the display image generation unit 232a outputs the generated display image to the
(ステップS25)
表示部250aは、取得した上記表示画像を表示する。
(Step S25)
The
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、客の発話内容を含む画像について、図6の(c)及び(d)を用いて説明する。図6の(c)は、店員向けの表示装置200aが表示する画像の例であり、図6の(d)は、客向けの表示装置200bが表示する画像の例である。
Here, an image that is displayed by the
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、新しく生成した吹き出し300aの中に発話内容を示すテキストの文字を小さくしたテキスト400aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、新しく生成した吹き出し300bの中に発話内容を示すテキストの文字を大きくしたテキスト400bを含ませ、表示する。なお、表示部250a及び250bがそれぞれ、上述した図6の(c)及び(d)に示す表示画像を表示するまでの期間、例えば、(1)「音声認識処理中」のテキストを含むポップアップウィンドウを表示する、(2)音声認識処理中を示すアイコンを表示する、といった、音声認識処理を実行中であることを客または店員に提示する構成であってもよい。
As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information and can recognize that the utterance content included in the display information is the utterance content uttered by the customer . Therefore, the
(ステップS27、発話内容出力工程)
ステップS13の処理が終わると、サーバ100の表示情報生成部134は、ステップS11において取得した発話内容情報を翻訳部135に出力する。翻訳部135は、取得した上記発話内容情報が示す発話内容の翻訳である翻訳発話内容を示す翻訳発話内容情報を生成する。そして、上記翻訳発話内容情報を表示情報生成部134に出力する。例えば、ステップS11において、表示情報生成部134が「How can I buy it?」を示す発話内容情報を取得している場合、翻訳部135は、「それはどのように購入できますか?」を示す翻訳発話内容情報を表示情報生成部134に出力する。
(Step S27, utterance content output process)
When the process of step S13 ends, the display
(ステップS29、翻訳内容情報取得工程)
表示情報生成部134は、取得した上記翻訳発話内容情報を表示するための「communication」を生成する。より具体的には、表示情報生成部134は、項目「cid」に「1」を
格納し、項目「type」に「customer」を格納し、項目「kind」に「trans」を格納し、項
目「state」に「update」を格納し、項目「data」に「それはどのように購入できますか
?」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した上記表示情報を、表示情報出力部136に出力する。
(Step S29, translation content information acquisition process)
The display
(ステップS31、翻訳内容情報出力工程)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(Step S31, translation content information output process)
The display
(ステップS33)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S33)
The display information acquisition unit 231b of the
(ステップS35)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「1」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「customer」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「それはどのように購入できますか?」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S35)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, first, the display image generation unit 232 b refers to the acquired display information, and “update” is stored in the item “state”, so “1” stored in the item “cid” In the balloon associated with the image, an image further including text indicating the utterance content included in the display information is generated. Here, since “customer” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 b causes the customer to utter the utterance content included in the display information. It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232 b generates an image in which the text “How can it be purchased?” Indicating the utterance content stored in the item “data” is reduced in the above-described balloon. Note that the size of the character in this case indicates that the text is smaller than the text representing the uttered content uttered by the customer and the text representing the translated uttered content obtained by translating the uttered content of the store clerk. Then, the display image generation unit 232 b outputs the generated display image to the
(ステップS37)
表示部250bは、取得した上記表示画像を表示する。
(Step S37)
The
(ステップS39)
ステップS31においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S39)
When the
(ステップS41)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示画像を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「1」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「customer」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「それはどのように購入できますか?」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S41)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, the display image generation unit 232a first refers to the acquired display image, and “update” is stored in the item “state”, so “1” stored in the item “cid”. In the balloon associated with the image, an image further including text indicating the utterance content included in the display information is generated. Here, since “customer” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 a causes the customer to utter the utterance content included in the display information. It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232a generates an image in which the text "How can it be purchased?" Indicating the utterance content stored in the item "data" is enlarged in the above-described balloon. Note that the size of the character in this case indicates that it is larger than the character of the text representing the uttered content uttered by the customer and the text representing the translated uttered content obtained by translating the uttered content of the store clerk. Then, the display image generation unit 232a outputs the generated display image to the
(ステップS43)
表示部250aは、取得した上記表示画像を表示する。
(Step S43)
The
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、客の翻訳発話内容を含む画像について、図6の(e)及び(f)を用いて説明する。図6の(e)は、店員向けの表示装置200aが表示する画像の他の例であり、図6の(f)は、客向けの表示装置200bが表示する画像の他の例である。
Here, images that are displayed by the
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、既に生成していた吹き出し300aの中に翻訳発話内容を示すテキストの文字を大きくしたテキスト402aを含ませ、表示する。換言すると、表示画像生成部232aは、発話内容と当該発話内容の翻訳発話内容とがグループ化された表示画像を生成する。一方、客向けの表示装置200bの表示部250bは、既に生成していた吹き出し300bの中に翻訳発話内容を示すテキストの文字を小さくしたテキスト402bを含ませ、表示する(更新する)。
As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and recognize that the utterance content included in the display information is a translation of the utterance content uttered by the customer Can. Therefore, the
なお、表示部250a及び250bがそれぞれ、上述した図6の(c)及び(d)に示す表示画像を表示した後、図6の(e)及び(f)に示す表示画像を表示するまでの期間、例えば、(1)「翻訳処理中」のテキストを含むポップアップウィンドウを表示する、(2)翻訳処理中を示すアイコンを表示する、といった、翻訳処理を実行中であることを客または店員に提示する構成であってもよい。
After the
(コミュニケーション支援システム1の処理2)
図7は、本発明の実施形態1に係るコミュニケーション支援システム1において、店員の発話内容の翻訳が表示されるまでの処理の流れを示すシークエンス図である。また、図8は、本発明の実施形態1における表示装置200が表示する画像を示す図である。コミュニケーション支援システム1において、店員の発話内容の翻訳が表示されるまでの処理の流れについて、図7及び図8を用いて説明する。
(
FIG. 7 is a sequence diagram showing a flow of processing until the translation of the content of the utterance of the store clerk is displayed in the
(ステップS51)
上述したステップS43において、表示装置200aの表示部250aが客の発話内容の翻訳を含む表示画像を表示すると、音声情報取得部233aは、音声受付部260aを介して店員が発話した音声を含む音声情報を取得する。例えば、店員が客におでんを購入する方法を教えるため、「おでんですか。欲しいものを注文して下さい」と発話すると、音声情報取得部233aは、「おでんですか。欲しいものを注文して下さい」を含む音声情報を取得する。
(Step S51)
In step S43 described above, when the
(ステップS53)
音声情報取得部233aは、取得した上記音声情報を、表示装置通信部210aを介してサーバ100に出力する。
(Step S53)
The voice information acquisition unit 233a outputs the acquired voice information to the
サーバ100の音声情報取得部131が音声情報を取得し、音声認識部133が発話内容を表示情報生成部134に出力する処理については、上述したステップS5〜ステップS9と同じであるため、説明は省略する。
The process of the speech
(ステップS11)
表示情報生成部134は、取得した上記発話内容情報含む表示情報を生成する。例えば、ステップS53において、音声情報取得部233aが「おでんですか。欲しいものを注文して下さい」を含む音声情報を取得すると、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「speech」を格納し、項目「state」に「new」を格納し、項目「data」に「おでんですか。欲しいものを注文して下さい」を格納した「communication」を生成する。そして、表示情報生成部134は、上記表示情報を表示情報出力部136に出力する。
(Step S11)
The display
(ステップS13)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(Step S13)
The display
(ステップS15)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S15)
The display information acquisition unit 231b of the
(ステップS17)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「2」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S17)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, first, the display image generation unit 232b refers to the acquired display information, and since "new" is stored in the item "state", "2" stored in the item "cid" Generate a balloon image associated with the. Subsequently, since “staff” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 b causes the store clerk to utter the utterance content included in the display information It can be recognized as the uttered content. Therefore, the display image generation unit 232b generates an image in which the text "Oden? Please order what you want." Indicating the utterance content stored in the item "data" is reduced in the above balloon. Do. Note that the size of the character in this case indicates that the text is smaller than the text representing the uttered content uttered by the customer and the text representing the translated uttered content obtained by translating the uttered content of the store clerk. Then, the display image generation unit 232 b outputs the generated display image to the
(ステップS19)
表示部250bは、取得した上記表示画像を表示する。
(Step S19)
The
(ステップS21)
ステップS13においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S21)
When the
(ステップS23)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「2」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S23)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, first, the display image generation unit 232a refers to the acquired display information, and “2” stored in the item “cid” because “new” is stored in the item “state”. Generate a balloon image associated with the. Subsequently, since “staff” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 a causes the store clerk to utter the utterance content included in the display information It can be recognized as the uttered content. Therefore, the display image generation unit 232a generates an image in which the text "Oden? Please order what you want." Indicating the utterance content stored in the item "data" is enlarged in the above balloon. Do. Note that the size of the character in this case indicates that it is larger than the character of the text representing the uttered content uttered by the customer and the text representing the translated uttered content obtained by translating the uttered content of the store clerk. Then, the display image generation unit 232a outputs the generated display image to the
(ステップS25)
表示部250aは、取得した上記表示画像を表示する。
(Step S25)
The
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、店員の発話内容を含む画像について、図8の(a)及び(b)を用いて説明する。図8の(a)は、店員向けの表示装置200aが表示する画像の他の例であり、図8の(b)は、客向けの表示装置200bが表示する画像の他の例である。
Here, an image that is displayed by the
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、新しく生成した吹き出し302aの中に発話内容を示すテキストの文字を大きくしたテキスト404aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、新しく生成した吹き出し302bの中に発話内容を示すテキストの文字を小さくしたテキスト404bを含ませ、表示する。
As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and can recognize that the utterance content included in the display information is the utterance content uttered by the store clerk . Therefore, the
(ステップS27)
ステップS13の処理が終わると、サーバ100の表示情報生成部134は、ステップS11において取得した発話内容情報を翻訳部135に出力する。翻訳部135は、取得した上記発話内容情報の翻訳である翻訳内容を示す翻訳発話内容情報を生成する。そして、上記翻訳発話内容情報を表示情報生成部134に出力する。例えば、ステップS11において、表示情報生成部134が「おでんですか。欲しいものを注文して下さい」を示す発話内容情報を取得している場合、翻訳部135は、「Oden? You order what you want.」を示す翻訳発話内容情報を表示情報生成部134に出力する。
(Step S27)
When the process of step S13 ends, the display
(ステップS29)
表示情報生成部134は、取得した上記翻訳発話内容を表示するための「communication」を生成する。より具体的には、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「trans」を格納し、項目「state」に「update」を格納し、項目「data」に「Oden? You order what you want.」を格納した「communication」を生成する。そして、表示情報生成部134は、上記表示情報を、表示情報出力部136に出力する。
(Step S29)
The display
(ステップS31)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(Step S31)
The display
(ステップS33)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S33)
The display information acquisition unit 231b of the
(ステップS35)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「Oden? You order what you want.」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S35)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, first, the display image generation unit 232b refers to the acquired display information, and “2” stored in the item “cid” because “update” is stored in the item “state”. In the balloon associated with the image, an image further including text indicating the utterance content included in the display information is generated. Here, since “staff” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 b causes the store clerk to utter the utterance content included in the display information It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232b generates an image in which the character of the text "Oden? You order what you want." Indicating the utterance content stored in the item "data" is enlarged in the above-mentioned balloon. Note that the size of the character in this case indicates that it is larger than the character of the text indicating the uttered content uttered by the store clerk and the text indicating the translated uttered content obtained by translating the uttered content of the customer. Then, the display image generation unit 232 b outputs the generated display image to the
(ステップS37)
表示部250bは、取得した上記表示画像を表示する。
(Step S37)
The
(ステップS39)
ステップS31においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S39)
When the
(ステップS41)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「Oden? You order what you want.」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S41)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, first, the display image generation unit 232a refers to the acquired display information, and “2” stored in the item “cid” because “update” is stored in the item “state”. In the balloon associated with the image, an image further including text indicating the utterance content included in the display information is generated. Here, since “staff” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 a causes the store clerk to utter the utterance content included in the display information. It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232a generates an image in which the characters of the text "Oden? You order what you want." Indicating the utterance content stored in the item "data" are reduced in the above-mentioned balloon. Note that the size of the character in this case indicates that the text is smaller than the text representing the uttered content uttered by the store clerk and the text representing the translated uttered content obtained by translating the uttered content of the customer. Then, the display image generation unit 232a outputs the generated display image to the
(ステップS43)
表示部250aは、取得した上記表示画像を表示する。
(Step S43)
The
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、店員の翻訳発話内容を含む画像について、図8の(c)及び(d)を用いて説明する。図8の(c)は、店員向けの表示装置200aが表示する画像の他の例であり、図8の(d)は、客向けの表示装置200bが表示する画像の他の例である。
Here, images that are displayed by the
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、既に生成していた吹き出し302aの中に翻訳発話内容を示すテキストの文字を小さくしたテキスト406aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、既に生成していた吹き出し302bの中に翻訳発話内容を示すテキストの文字を大きくしたテキスト406bを含ませ、表示する。
As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and recognize that the utterance content included in the display information is a translation of the utterance content uttered by the store clerk Can. Therefore, the
このように、本実施形態に係るコミュニケーション支援システム1では、店員向け画像及び客向け画像の少なくとも何れかを表示する表示装置200は、表示すべき情報を含む表示情報(communication)を含む表示情報を取得し、表示情報の示す表示画像であって、表示装置200が店員向けであるか客向けであるのかに応じた表示態様を有する表示画像を生成し、当該表示画像を表示する。そのため、店員向けの表示装置200aは、店員が見たいテキストの文字を大きく表示し、店員が見なくてもいいテキストの文字を小さく表示する。一方、客向けの表示装置200bは、客が見たいテキストの文字を大きく表示し、客が見なくてもいいテキストの文字を小さく表示する。
As described above, in the
また、コミュニケーション支援システム1では、表示装置200a及び表示装置200bがそれぞれ表示する画像は、表示態様は異なるが情報量は同じである。そのため、店員と客とは、例えば、自らが発した発話内容が翻訳されていること、相手が自らの発した発話内容の翻訳を待っていること、などといった情報を互いに共有することができる。
Further, in the
そのため、コミュニケーション支援システム1では、表示装置200の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。
Therefore, in the
なお、本実施形態では、店員向けの表示装置200aにおいて、表示画像生成部232aは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より大きい表示画像を生成したが、この構成に限定されない。表示画像生成部232は、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より目立つ表示画像を生成する構成であればよい。
In the present embodiment, in the
ここで、「店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より目立つ」とは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より大きい、太い、色が濃い等が挙げられる。 Here, “the character of the text showing the uttered content of the store clerk and the character of the text showing the translated uttered content obtained by translating the uttered content of the customer are the text of the translated uttered content obtained by translating the uttered content of the store clerk The text of the text showing the content is more prominent than the text of the text of the store clerk, and the text of the text showing the translation uttered contents obtained by translating the uttered contents of the customer translates the translated uttered contents obtained by translating the uttered contents of the store clerk The text may be larger than the text of the text shown and the text of the text indicating the uttered content of the customer, or may be thicker or darker.
また、表示画像生成部232aは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字を大きくする、太くする、色を濃くする構成であってもよいし、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字を小さくする、細くする、色を薄くする構成であってもよい。 In addition, the display image generation unit 232a is configured to enlarge, thicken, or darken the characters of the text indicating the uttered content of the store clerk and the translated uttered content obtained by translating the uttered content of the customer. It may be configured to reduce the size of, reduce the size of, and reduce the size of the characters of the text representing the translated uttered content obtained by translating the uttered content of the store clerk and the text representing the uttered content of the customer.
また、上記構成は客向けの表示装置200bでも同様であり、表示画像生成部232bは、客の発話内容を示すテキストの文字及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より目立つ表示画像を生成する構成であれば良い。また、表示画像生成部232bは、客の発話内容を示すテキストの文字及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字を大きくする、太くする、色を濃くする構成であってもよいし、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字を小さくする、細くする、色を薄くする構成であってもよい。
Further, the above configuration is the same as in the
〔実施形態2〕
本発明の他の実施形態に係るコミュニケーション支援システム2について、図9〜図13に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
Second Embodiment
It will be as follows if the
(コミュニケーション支援システム2)
コミュニケーション支援システム2は、サーバ101及び表示装置201によって構成され、サーバ101及び表示装置201は、上述した実施形態におけるコミュニケーション支援システム1におけるサーバ100及び表示装置200が備えている各機能に加えて、サーバ101はキーフレーズを検索し、表示装置201は、キーフレーズを強調表示し、さらにキーフレーズに関連した図を表示する。本実施形態におけるサーバ101について、図9を用いて説明する。なお、表示装置201の構成は、実施形態1における表示装置200と同じであるため、説明を省略する。
(Communication support system 2)
The
(サーバ101)
図9は、本発明の実施形態2におけるサーバ101の要部構成を示すブロック図である。サーバ101は、図9に示すように、実施形態1におけるサーバ100が備えているサーバ制御部120に替えてサーバ制御部121を備え、キーフレーズデータベース150を更に備えている。
(Server 101)
FIG. 9 is a block diagram showing the main configuration of the
(サーバ制御部121)
サーバ制御部121は、サーバ101の各部を統括的に制御するものであり、図9に示すように、サーバ制御部120の機能に加えて、キーフレーズ検索部(フレーズ判定部)137としても機能する。
(Server control unit 121)
The
キーフレーズ検索部137は、後述するキーフレーズデータベース150を参照し、取得した発話内容情報及び翻訳発話内容情報の中のキーフレーズを検索する。そして、キーフレーズ検索部137は、キーフレーズを検出した場合、当該キーフレーズに関連付けられたキーフレーズ情報を、キーフレーズデータベース150から取得する。
The key
(キーフレーズデータベース150)
キーフレーズデータベース150には、キーフレーズに関する情報であるキーフレーズ情報が、キーフレーズに関連付けられたキーフレーズテーブルとして格納されている。キーフレーズデータベース150に格納されているキーフレーズテーブルについて、図10を用いて説明する。図10は、本発明の実施形態2におけるキーフレーズ情報が格納されたキーフレーズテーブルである。
(Key phrase database 150)
The
キーフレーズテーブルは、図10に示すように、項目「ID」、項目「キーフレーズ(日本語)」、項目「キーフレーズ(英語)」、項目「置換文字列」、及び項目「画像No.」を含んでいる。 As shown in FIG. 10, the key phrase table has the item "ID", the item "key phrase (Japanese)", the item "key phrase (English)", the item "replacement character string", and the item "image No." Contains.
項目「ID」には、キーフレーズを他のキーフレーズと識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。 The item “ID” stores identification information for identifying a key phrase as another key phrase. More specifically, numbers of serial numbers are stored.
項目「キーフレーズ(日本語)」には、キーフレーズを日本語で表記したテキストが格納される。 The item "key phrase (Japanese)" stores text in which the key phrase is written in Japanese.
項目「キーフレーズ(英語)」には、キーフレーズを英語で表示したテキストが格納される。 The item “key phrase (English)” stores text in which the key phrase is displayed in English.
項目「置換文字列」は、キーフレーズに置き換えられるテキストが格納される。より具体的には、キーフレーズを強調表示する指示を含むテキストが格納される。 The item "replacement string" stores text to be replaced with a key phrase. More specifically, text is stored that includes instructions to highlight key phrases.
項目「画像No.」は、キーフレーズに関連した画像の番号が格納される。 The item "image No." stores the number of the image associated with the key phrase.
(コミュニケーション支援システム2の処理)
図11は、本発明の実施形態2に係るコミュニケーション支援システム2における処理の流れを示すシークエンス図である。また、図12は、本発明の実施形態2における表示装置201が表示する表示画像を示す図である。また、図13は、本発明の実施形態2における表示装置201が表示する他の表示画像を示す図である。本発明の実施形態2に係るコミュニケーション支援システム2の処理について、図11〜図13を用いて説明する。
(Processing of communication support system 2)
FIG. 11 is a sequence diagram showing a flow of processing in the
まず、表示装置201が客または店員の発話した音声情報を取得し、発話テキスト及び翻訳テキストを表示する処理は、上述した実施形態1における処理と同じであるため、説明を省略する。 First, the process of the display device 201 acquiring the speech information uttered by the customer or the store clerk and displaying the speech text and the translation text is the same as the process in the first embodiment described above, and thus the description is omitted.
(ステップS101)
表示情報生成部134は、発話内容を表示するための表示情報を表示情報出力部136に出力すると、当該発話内容を示す発話内容情報をキーフレーズ検索部137に出力する。キーフレーズ検索部137は、キーフレーズデータベース150に格納されているキーフレーズテーブルを参照し、取得した上記発話内容情報が示す発話内容の中のキーフレーズを検索する。
(Step S101)
When the display
(ステップS103)
キーフレーズ検索部137は、上記発話テキスト内にキーフレーズが検出されたか否かを判定する。
(Step S103)
The key
(ステップS105)
ステップS103において、「キーフレーズが検出された」と判定された場合(ステップS105:YES)、該当するキーレフレーズに関連付けられたキーフレーズ情報を、キーフレーズデータベース150から取得する。例えば、ステップS101において、キーフレーズ検索部137が「おでんですか。欲しいものを注文して下さい」を示す発話内容情報を取得した場合、図10に記載のキーフレーズテーブルを参照し、キーフレーズ「おでん」を検出する。そして、取得したキーフレーズ情報のうち、項目「置換文字列」に格納されているキーフレーズ情報を参照し、キーフレーズ「おでん」を、「<span dlink="1">おでん</span>」に置換し、置換後の発話内容情報を表示情報生成部134に出力する。また、キーフレーズ検索部137は、取得したキーフレーズ情報のうち、項目「画像No.」に格納されている「1」によって特定される画像を示す画像情報を表示情報生成部134に出力する。
(Step S105)
If it is determined in step S103 that "key phrase has been detected" (step S105: YES), key phrase information associated with the relevant key rephrase is acquired from the
(ステップS107)
表示情報生成部134は、置換後の発話内容情報が示す発話内容を表示するための表示情報を生成する。ここで、置換後の発話テキストには、画像の格納先を含んでいるため、上述した「communication」に加えて、画像を表示するための表示情報を生成する。画像を表示するための表示情報について、図5の(b)を用いて説明する。
(Step S107)
The display
図5の(b)は、画像を表示するための表示情報の一例を示す図である。図5の(b)に示すように、画像を表示するための表示情報を「display」と称する。「display」は、図5の(b)に示すように、項目「did」及び項目「data」によって構成されている。 (B) of FIG. 5 is a figure which shows an example of the display information for displaying an image. As shown in (b) of FIG. 5, display information for displaying an image is referred to as “display”. As shown in (b) of FIG. 5, “display” is configured by the item “did” and the item “data”.
項目「did」には、当該「display」を他の「display」と識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。 The item “did” stores identification information for identifying the “display” as another “display”. More specifically, numbers of serial numbers are stored.
項目「data」には、画像を示す画像情報または格納先を示す格納先情報が格納される。 The item “data” stores image information indicating an image or storage destination information indicating a storage destination.
例えば、表示情報生成部134が取得した画像情報が「ODEN1.png」であった場合、ステップS107において表示情報生成部134が生成する「display」には、図5の(b)に示すように、項目「did」に「1」が格納され、項目「data」に「ODEN1.png」が格納される。また、ステップS107において、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「speech」を格納し、項目「state」に「update」を格納し、項目「data」に「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した「display」及び「communication」を含む表示情報を、表示情報出力部136に出力する。
For example, when the image information acquired by the display
(ステップS109)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置201a及び表示装置201bに出力する。
(Step S109)
The display
(ステップS111)
表示装置201bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S111)
The display information acquisition unit 231b of the display device 201b acquires the display information via the display device communication unit 210b. Then, the display information acquisition unit 231 b outputs the display information to the display image generation unit 232 b.
(ステップS113)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しに含まれるテキストのうち、店員が発話した発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」に更新した上で、当該テキストの文字を小さくした画像を生成する。
(Step S113)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, the display image generation unit 232b first refers to "communication" of the acquired display information, and "update" is stored in the item "state", so the display image generation unit 232b stores it in the item "cid". In the balloon associated with “2”, there is generated an image further including text indicating the utterance content included in the display information. Here, since “staff” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 b causes the store clerk to utter the utterance content included in the display information It can be recognized as the uttered content. Therefore, among the texts included in the above-mentioned balloon, the display image generation unit 232b indicates the text “Oden? Please order what you want,” which is the contents of the utterance uttered by the store clerk, the utterance content included in the display information. Update the text to indicate "<span dlink =" 1 "> Oden </ span>? Order what you want" and then generate an image with the text in small size.
さらに、表示画像生成部232bは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
Furthermore, the display image generation unit 232b generates a display image further including “ODEN1.png” stored in the item “data” with reference to “display” of the acquired display information. Then, the display image generation unit 232 b outputs the generated display image to the
(ステップS115)
表示部250bは、取得した上記表示画像を表示する。
(Step S115)
The
(ステップS117)
ステップS109においてサーバ101が表示情報を出力すると、表示装置201aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S117)
When the
(ステップS119)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しに含まれるテキストのうち、店員が発話した発話内容を示す「おでんですか。欲しいものを注文して下さい」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」に更新した上で、当該テキストの文字を大きくした画像を生成する。
(Step S119)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, the display image generation unit 232a first refers to "communication" of the acquired display information, and "update" is stored in the item "state", so the display image generation unit 232a stores it in the item "cid". In the balloon associated with “2”, there is generated an image further including text indicating the utterance content included in the display information. Here, since “staff” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 a causes the store clerk to utter the utterance content included in the display information. It can be recognized as the uttered content. Therefore, among the texts included in the above-mentioned balloon, the display image generation unit 232a indicates “Oden? Please order what you want,” which indicates the uttered contents uttered by the store clerk, and the uttered contents contained in the display information. Update the text to indicate "<span dlink =" 1 "> Oden </ span>? Order what you want" and then generate an image with the text in a larger size.
さらに表示画像生成部232aは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
Further, the display image generation unit 232a refers to the “display” of the acquired display information, and generates a display image further including “ODEN1.png” stored in the item “data”. Then, the display image generation unit 232a outputs the generated display image to the
(ステップS121)
表示部250aは、取得した上記表示画像を表示する。
(Step S121)
The
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、キーフレーズ及びキーフレーズに関連した画像を含む画像について、図12の(a)及び(b)を用いて説明する。図12の(a)は、店員向けの表示装置201aが表示する画像の例であり、図12の(b)は、客向けの表示装置201bが表示する画像の例である。
Here, an image that is displayed by the
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれるキーフレーズ及び画像を含む表示画像を生成する。そのため、店員向けの表示装置201aの表示部250aは、吹き出し302aに含まれるテキスト404aに含まれるキーフレーズ(おでん)500aを太字に更新し、おでんの画像600aを含む表示画像を表示する。また、客向けの表示装置201bの表示部250bも同様に、吹き出し302bに含まれるテキスト404bに含まれるキーフレーズ(おでん)500bを太字に更新し、おでんの画像600bを含む表示画像を表示する。なお、強調表示の例として、太字以外にも、色を変える、背景色を変えるなども挙げられる。
As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and generate a display image including a key phrase and an image included in the display information. Therefore, the
続いて、コミュニケーション支援システム2では、翻訳テキストについても、上述したステップS101〜S121と同様の処理を実行する。翻訳テキストでは、検出されるキーフレーズは「Oden」であるため、ステップS105において、キーフレーズ検索部137が「Oden」を検出すると、キーフレーズ「Oden」を「<span dlink="1">Oden</span>」に置換し、置換後の発話内容情報を表示情報生成部134に出力する。また、キーフレーズ検索部137は、取得したキーフレーズ情報のうち、項目「画像No.」に格納されている「1」によって特定される画像を示す画像情報を表示情報生成部134に出力する。
Subsequently, in the
そして、ステップS107において表示情報生成部134が生成する「display」には、項目「did」に「1」が格納され、項目「data」に「ODEN1.png」が格納される。また、ステップS107において、表示情報生成部134は、「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「trans」を格納し、項目「state」に「update」を格納し、項目「data」に「<span dlink="1">Oden</span>? You order what you want.」を格納した「communication」を生成する。
Then, “1” is stored in the item “did” in “display” generated by the display
続いて、表示装置201bの表示画像生成部232bは、ステップS113において、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストを更に含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しに含まれるテキストのうち、店員の翻訳発話内容を示すテキスト「Oden? You order what you want.」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">Oden</span>? You order what you want.」に更新した上で、当該テキストの文字を大きくした画像を生成する。 Subsequently, in step S113, the display image generation unit 232b of the display device 201b generates a display image having a display mode suitable for the customer. More specifically, the display image generation unit 232b first refers to "communication" of the acquired display information, and "update" is stored in the item "state", so the display image generation unit 232b stores it in the item "cid". In the balloon associated with “2”, there is generated an image further including text indicating the utterance content included in the display information. Here, since “staff” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 b causes the store clerk to utter the utterance content included in the display information It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232b selects the text "Oden? You order what you want." That indicates the content of the translated utterance of the store clerk among the texts included in the balloon and You can update to <span dlink = "1"> Oden </ span>? You order what you want. "and generate an image in which the text is enlarged.
更に、表示画像生成部232bは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
Furthermore, the display image generation unit 232b generates a display image further including “ODEN1.png” stored in the item “data” with reference to “display” of the acquired display information. Then, the display image generation unit 232 b outputs the generated display image to the
また、表示装置201aの表示画像生成部232aは、ステップS119において、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストを更に含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しに含まれるテキストのうち、店員の翻訳発話内容を示すテキスト「Oden? You order what you want.」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">Oden</span>? You order what you want.」に更新した上で、当該テキストの文字を小さくした画像を生成する。 Further, in step S119, the display image generation unit 232a of the display device 201a generates a display image having a display mode suitable for the store clerk. More specifically, the display image generation unit 232a first refers to "communication" of the acquired display information, and "update" is stored in the item "state", so the display image generation unit 232a stores it in the item "cid". In the balloon associated with “2”, there is generated an image further including text indicating the utterance content included in the display information. Here, since “staff” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 a causes the store clerk to utter the utterance content included in the display information. It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232a selects the text "Oden? You order what you want." That indicates the content of the translated utterance of the store clerk among the texts included in the above-mentioned balloon and the text "Available of the content included in the display information". You can update to <span dlink = "1"> Oden </ span>? You order what you want. "and generate an image in which the text is made smaller.
更に、表示画像生成部232aは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
Furthermore, the display image generation unit 232a generates a display image further including “ODEN1.png” stored in the item “data” with reference to “display” of the acquired display information. Then, the display image generation unit 232a outputs the generated display image to the
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、キーフレーズ及びキーフレーズに関連した画像を含む画像について、図13の(a)及び(b)を用いて説明する。図13の(a)は、店員向けの表示装置201aが表示する画像の他の例であり、図13の(b)は、客向けの表示装置201bが表示する画像の他の例である。
Here, an image that is displayed by the
上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれるキーフレーズ及び画像を含む表示画像を生成する。そのため、店員向けの表示装置201aの表示部250aは、吹き出し302aに含まれるテキスト406aに含まれるキーフレーズ(Oden)502aを太字に更新し、おでんの画像600aを含む表示画像を表示する。また、客向けの表示装置201bの表示部250bも同様に、吹き出し302bに含まれるテキスト406bに含まれるキーフレーズ(Oden)502bを太字に更新し、おでんの画像600bを含む表示画像を表示する。
As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and generate a display image including a key phrase and an image included in the display information. Therefore, the
このように、本実施形態に係るコミュニケーション支援システム2では、サーバ101は、発話内容または翻訳内容に所定のフレーズが含まれているか否かを判定し、所定のフレーズが含まれている場合、所定のフレーズを強調表示するよう表示装置201に対して指示する。また、コミュニケーション支援システム2では、表示装置201は、所定のフレーズに関連した画像を表示する。そのため、コミュニケーション支援システム2では、例えば、所定のフレーズとして商品名を設定することにより、当該商品名を客または店員が発話すると表示装置201は商品の画像を表示するので、表示装置201の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。
As described above, in the
なお、本実施形態では、「display」の「data」に画像情報が格納されている場合について説明したが、上述したように、「display」の「data」には画像の格納先を示す格納先情報が格納されていてもよい。この場合、表示画像生成部232は、当該格納先情報が示す格納先から画像を取得し、当該画像を含む表示画像を生成する。
In the present embodiment, the case where image information is stored in “data” of “display” has been described, but as described above, the storage destination indicating the storage destination of the image in “data” of “display” Information may be stored. In this case, the display
〔実施形態3〕
本発明の他の実施形態に係るコミュニケーション支援システム3について、図14〜図21に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
Third Embodiment
It will be as follows if the
(コミュニケーション支援システム3)
コミュニケーション支援システム3はサーバ102及び表示装置202によって構成され、サーバ102及び表示装置202は、上述した実施形態におけるコミュニケーション支援システム2におけるサーバ101及び表示装置201が備えている各機能に加えて、客または店員による操作を示す操作情報を取得する。本実施形態におけるサーバ102及び表示装置202について、図14及び図15を用いて説明する。
(Communication support system 3)
The
(サーバ102)
図14は、本発明の実施形態3におけるサーバ102の要部構成を示すブロック図である。サーバ102は、図14に示すように、実施形態2におけるサーバ101が備えているサーバ制御部121及びキーフレーズデータベース150に替えて、サーバ制御部122及びキーフレーズデータベース152を備えている。
(Server 102)
FIG. 14 is a block diagram showing the main configuration of the
(サーバ制御部122)
サーバ制御部122は、サーバ102の各部を統括的に制御するものであり、図14に示すように、サーバ制御部121の機能に加えて、操作情報取得部138としても機能する。
(Server control unit 122)
The
操作情報取得部138は、サーバ通信部110を制御し、表示装置202から出力された操作情報を取得する。
The operation
(キーフレーズデータベース152)
キーフレーズデータベース152に格納されているキーフレーズテーブルを、図16に示す。図16は、本発明の実施形態3におけるキーフレーズ情報が格納されたキーフレーズテーブルである。
(Key phrase database 152)
The key phrase table stored in the
キーフレーズテーブルは、図16に示すように、実施形態2におけるキーフレーズデータベース150に格納されていたキーフレーズテーブルに加えて、項目「ポークフラグ」を含んでいる。
The key phrase table, as shown in FIG. 16, includes an item “poke flag” in addition to the key phrase table stored in the
項目「ポークフラグ」には、関連付けられたキーフレーズがポークと関連しているか否かを示す情報が格納される。より具体的には、関連付けられたキーフレーズがポークと関連していることを示す「1」または関連付けられたキーフレーズがポークと関連していないことを示す「0」が格納される。 The item "poke flag" stores information indicating whether the associated key phrase is associated with the poke. More specifically, “1” indicating that the associated key phrase is associated with the poke or “0” indicating that the associated key phrase is not associated with the poke is stored.
(表示装置202)
図15は、本発明の実施形態3における表示装置202の要部構成を示すブロック図である。表示装置202は、図15に示すように、実施形態2における表示装置200が備えている表示装置制御部220に替えて表示装置制御部222を備え、操作受付部270を更に備えている。
(Display device 202)
FIG. 15 is a block diagram showing the main configuration of the
操作受付部270は、ユーザの操作を受け付け、当該操作を示す操作情報を出力する。なお、操作受付部270は、表示部250と一体となったタッチパネル式表示部であってもよい。
The
(表示装置制御部222)
表示装置制御部222は、表示装置202の各部を統括的に制御するものであり、図15に示すように、表示装置制御部220の機能に加えて、操作情報取得部234としても機能する。
(Display device control unit 222)
The display
操作情報取得部234は、操作受付部270から出力された操作情報を取得し、表示装置通信部210を制御し、取得した操作情報をサーバ102に出力する。
The operation
(コミュニケーション支援システム3の処理1)
図17は、本発明の実施形態3における表示装置202が表示する表示画像を示す図である。コミュニケーション支援システム3の処理の内、キーフレーズに関連したオブジェクトであって、客または店員の操作を受け付けるオブジェクトを表示する処理について、上述した図4、図7、図11を用いて説明する。
(
FIG. 17 is a view showing a display image displayed by the
まず、上述した実施形態2において、図13に示す表示画像を表示装置201が表示した後、おでんの画像に含まれる「つくね」に対して客が「What is this?」と発話し、それに対して店員が「つくねです」と発話した場合、コミュニケーション支援システム3は、上述した図4、図7に示した処理に従い、表示装置201が表示画像を表示する。
First, in the second embodiment described above, after the display device 201 displays the display image shown in FIG. 13, the customer utters “What is this?” To “Tsukine” included in the image of Oden, and the display When the clerk utters "Tsukune", the
続いて、コミュニケーション支援システム3は図11に示した処理に従い、サーバ102は、ステップS101においてキーフレーズを検索する。この場合、発話内容にキーフレーズ「つくね」が含まれているため、キーフレーズ検索部137は、ステップS105において、「つくね」に関連付けられたキーフレーズ情報をキーフレーズデータベース152から取得する。そして、キーフレーズ検索部137は、キーフレーズを置換した発話内容情報と画像情報とを表示情報生成部134に出力する。更に、キーフレーズ検索部137は、ステップS105において、項目「ポークフラグ」に「1」が格納されていることを示すフラグ情報を表示情報生成部134に出力する。
Subsequently, the
表示情報生成部134は、ステップS107において、置換後の発話内容情報が示す発話内容を表示するための表示情報を生成する。ここで、表示情報生成部134は、取得したフラグ情報を参照し、当該フラグ情報が項目「ポークフラグ」に「1」が格納されていることを示す場合、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示すオブジェクト情報を含む表示情報を生成する。そして、ステップS109において、表示情報出力部136は当該表示情報を、サーバ通信部110を介して表示装置201a及び表示装置201bに出力する。
In step S107, the display
表示装置201bの表示画像生成部232bは、ステップS113において、上記表示情報が示す表示画像を生成する。ここで、上述したステップS113の処理に加えて、表示画像生成部232bは、表示情報に含まれているオブジェクト情報を参照する。なお、表示画像生成部232bは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、追加の処理は実行しない。 In step S113, the display image generation unit 232b of the display device 201b generates a display image indicated by the display information. Here, in addition to the process of step S113 described above, the display image generation unit 232b refers to object information included in the display information. The display image generation unit 232b does not execute the additional process when the referred object information indicates an object that receives an operation of displaying an image that does not include a product that includes pork.
続いて、表示装置201aの表示画像生成部232aは、ステップS119において、上記表示情報が示す表示画像を生成する。ここで、上述したステップS119の処理に加えて、表示画像生成部232aは、表示情報に含まれているオブジェクト情報を参照する。そして、表示画像生成部232aは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを含む表示画像を生成する。 Subsequently, in step S119, the display image generation unit 232a of the display device 201a generates a display image indicated by the display information. Here, in addition to the process of step S119 described above, the display image generation unit 232a refers to object information included in the display information. Then, when the referred object information indicates an object that receives an operation for displaying an image that does not include a product that includes pork, the display image generation unit 232a receives an operation that displays an image that does not include a product that includes pork. Generate a display image that contains objects.
ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、操作を受け付けるオブジェクトを含む画像及び操作を受け付けるオブジェクトを含まない画像について、図17の(a)を用いて説明する。図17の(a)は、店員向けの表示装置202aが表示する画像の例であり、(b)は、客向けの表示装置202bが表示する画像の例である。
Here, an image including an object that receives an operation and an image that does not include an object that receives an operation, which are images displayed by the
図17の(a)に示すように、表示部250aは、キーフレーズ(つくね)510a及びキーフレーズ(chicken meatball)512aが強調表示され、キーフレーズに関連した画像602aを含み、更に、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトである「Porkless」ボタン604aを含む表示画像を表示する。一方、図17の(b)に示すように、表示部250bは、キーフレーズ(つくね)510b及びキーフレーズ(chicken meatball)512bが強調表示され、キーフレーズに関連した画像602bを含む画像を表示し、当該画像は操作を受け付けるオブジェクトは含まない。
As shown in (a) of FIG. 17, the
なお、本実施形態では、客向けの表示装置202bは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合であっても、追加の処理は実行しないとしたが、上述した店員向け表示装置202aと同様、「Porkless」ボタン604bを表示する構成であってもよい。また、店員向け表示装置202aも同様に、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、追加の処理は実行しない構成であってもよい。また、図17の(a)に示すように、表示装置202aは、初期画面に戻る操作を受け付けるオブジェクトである「Top Page」ボタン605aを含む表示画像を表示してもよい。
In the present embodiment, the customer-oriented display device 202b executes the additional process even when the referred object information indicates an object that receives an operation to display an image that does not include a product that includes pork. Although not described, the “Porkless” button 604 b may be displayed as in the case of the display device for a store clerk 202 a described above. Similarly, in the case of the store clerk display device 202a, when the referred object information indicates an object that receives an operation of displaying an image that does not include a product that includes pork, additional processing may not be performed. In addition, as illustrated in (a) of FIG. 17, the display device 202a may display a display image including a “Top Page”
また、本実施形態では、キーフレーズテーブルが「ポーク」と関連しているかを示す項目を含む場合について説明したが、この構成に限定されない。例えば、関連付けられたキーフレーズが他の素材(例えば、「野菜」など)と関連しているかを示す項目、関連付けられたキーフレーズの調理(例えば、「生もの」)の状態を示す項目、関連付けられたキーフレーズの属性を示す項目(例えば、項目「○○円以下」など)を含む構成であってもよい。 Further, in the present embodiment, the case has been described in which the key phrase table includes an item indicating whether the key phrase table is associated with “poke”, but the present invention is not limited to this configuration. For example, an item indicating whether the associated key phrase is associated with another material (eg, "vegetable" etc.), an item indicating the state of cooking of the associated key phrase (eg "raw"), association It may be configured to include an item indicating the attribute of the key phrase (for example, the item “less than or equal to ○ yen and the like”).
(コミュニケーション支援システム3の処理2)
図18は、本発明の実施形態3に係るコミュニケーション支援システム3における処理の流れを示すシークエンス図である。また、図19は、本発明の実施形態3における表示装置202が表示する他の表示画像を示す図である。コミュニケーション支援システム3において、上述した図17の表示画像を表示した後、客または店員の操作を受け付けた場合の処理について、図18及び図19を用いて説明する。
(
FIG. 18 is a sequence diagram showing a flow of processing in the
(ステップS201)
表示装置202aの操作情報取得部234aは、操作受付部270aを介して、「Porkless」ボタン604aが押されたことを示す操作情報を取得する。
(Step S201)
The operation information acquisition unit 234a of the display device 202a acquires, via the operation reception unit 270a, operation information indicating that the “Porkless”
(ステップS203)
操作情報取得部234aは、表示装置通信部210aを介して、取得した操作情報をサーバ102に出力する。
(Step S203)
The operation information acquisition unit 234a outputs the acquired operation information to the
(ステップS204)
サーバ102の操作情報取得部138は、サーバ通信部110を介して、上記操作情報を取得する。そして、操作情報取得部138は、取得した上記操作情報を、表示情報生成部134に出力する。
(Step S204)
The operation
(ステップS205)
表示情報生成部134は、取得した上記操作情報を参照し、表示情報を生成する。ここで、上記操作情報は、「Porkless」ボタン604aが押されたことを示すので、豚肉が含まれる商品は含まない画像を表示するための表示情報を生成する。より具体的には、表示情報生成部134は、項目「did」に「3」を格納し、項目「data」に豚肉が含まれる商品は含まない画像である「ODEN4.png」を格納した「display」を生成する。そして、表示情報生成部134は、生成した「display」を含む表示情報を、表示情報出力部136に出力する。
(Step S205)
The display
(ステップS207)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置202a及び表示装置202bに出力する。
(Step S207)
The display
(ステップS209)
表示装置202bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S209)
The display information acquisition unit 231b of the display device 202b acquires the display information via the display device communication unit 210b. Then, the display information acquisition unit 231 b outputs the display information to the display image generation unit 232 b.
(ステップS211)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、表示画像生成部232bは、取得した表示情報に含まれている「display」を参照し、表示画像に含まれる画像を項目「data」に格納されている「ODEN4.png」に更新した表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S211)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, the display image generation unit 232b refers to "display" included in the acquired display information, and stores the image included in the display image in the item "data""ODEN4.png" Generate an updated display image. Then, the display image generation unit 232 b outputs the generated display image to the
(ステップS213)
表示部250bは、取得した上記表示画像を表示する。
(Step S213)
The
(ステップS215)
ステップS207においてサーバ102が表示情報を出力すると、表示装置202aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S215)
When the
(ステップS217)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、表示画像生成部232aは、取得した表示情報に含まれている「display」を参照し、表示画像に含まれる画像を項目「data」に格納されている「ODEN4.png」に更新した表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S217)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, the display image generation unit 232a refers to "display" included in the acquired display information, and stores the image included in the display image in the item "data""ODEN4.png" Generate an updated display image. Then, the display image generation unit 232a outputs the generated display image to the
(ステップS219)
表示部250aは、取得した上記表示画像を表示する。
(Step S219)
The
ここで、表示部250a及び表示部250bがそれぞれ表示する画像について、図19を用いて説明する。図19の(a)は、店員向けの表示装置202aが表示する他の表示画像の例であり、(b)は、客向けの表示装置202bが表示する他の表示画像の例である。
Here, images displayed by the
図19の(a)に示すように、表示部250aは、豚肉が含まれる商品は含まない画像で606aを含む表示画像を表示する。また、表示部250bも同様に、豚肉が含まれる商品は含まない画像で606bを含む表示画像を表示する。
As shown in (a) of FIG. 19, the
また、操作を受け付けるオブジェクトは、テキストであってもよい。テキストを、操作を受け付けるオブジェクトとした場合について、図20を用いて説明する。図20は、本発明の実施形態3における表示装置202が表示する更に他の表示画像を示す図であり、(a)は、店員向けの表示装置202aが表示する更に他の表示画像の例であり、(b)は、客向けの表示装置202bが表示する更に他の表示画像の例である。
Also, an object that receives an operation may be text. The case where the text is an object for receiving an operation will be described with reference to FIG. FIG. 20 is a view showing still another display image displayed by the
例えば、表示画像に含まれるテキスト「おでん」を、おでんの画像を表示する操作を受け付けるオブジェクトとした場合、表示装置202aは、図19の(a)に示す画像に含まれる「おでん」のテキスト500aまたは「Oden」のテキスト502aが押されたことを示す操作情報を取得すると、当該操作情報をサーバ102に出力する。そして、表示装置202aは、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202aは、図20の(a)に示すように、おでんの画像600aを含む表示画像を表示する。また、表示装置202bも同様に、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202bは、図20の(b)に示すように、おでんの画像600bを含む表示画像を表示する。
For example, when the text "oden" included in the display image is an object that receives an operation to display the image of the oden, the display device 202a displays the
また、表示装置202bにおいても、表示画像に含まれるテキスト「おでん」を、おでんの画像を表示する操作を受け付けるオブジェクトとした場合、図19の(b)に示す画像に含まれる「おでん」のテキスト500bまたは「Oden」のテキスト502bが押されたことを示す操作情報を取得すると、当該操作情報をサーバ102に出力する。そして、表示装置202bは、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202bは、図20の(b)に示すように、おでんの画像600bを含む表示画像を表示する。また、表示装置202aも同様に、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202aは、図20の(a)に示すように、おでんの画像600aを含む表示画像を表示する。
Further, also in the display device 202b, when the text "Oden" included in the display image is an object that receives an operation to display the image of Oden, the text of "Oden" included in the image shown in (b) of FIG. When the operation information indicating that the
このように、本実施形態に係るコミュニケーション支援システム3では、表示装置202は、キーフレーズに関連したオブジェクトであって、客または店員の操作を受け付けるオブジェクトを含む表示画像を生成する。そのため、コミュニケーション支援システム3では、表示装置202の使い勝手を向上させることができる。また、店員向けの表示装置202a及び客向けの表示装置202bの何れかにおいて操作を受け付けた場合であっても、店員向けの表示装置202a及び客向けの表示装置202bの表示画像が更新されるので、利用者同士のコミュニケーションを円滑にすることができる。
As described above, in the
〔実施形態4〕
本発明の他の実施形態に係るコミュニケーション支援システム4について、図21に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
The
(コミュニケーション支援システム4)
コミュニケーション支援システム4は、サーバ103及び表示装置203によって構成される。上述した実施形態では、表示装置は2台(表示装置200a及び表示装置200bなど)で構成されていたが、コミュニケーション支援システム4では、表示装置が1台(表示装置203)である場合について説明する。なお、サーバ103は、上述したサーバ100と同様の機能を備えているため、説明は省略する。
(Communication support system 4)
The
(表示装置203)
図21は、本発明の実施形態4における表示装置203の要部構成を示すブロック図である。表示装置203は、図21に示すように、表示装置通信部210、表示装置制御部223、表示部251、及び音声受付部260を備えている。なお、表示装置通信部210及び音声受付部260は上述した機能と同様の機能を備えているため、説明は省略する。
(Display device 203)
FIG. 21 is a block diagram showing the main configuration of the
表示部251は、上述した表示部250の機能に加えて、店員向け画像を表示する第1の表示領域と、客向け画像を表示する第2の表示領域を備えている。そして、表示部251は、表示装置制御部223が出力する表示画像のうち、店員向けの表示画像である第1の表示画像を上記第1の表示領域に表示し、客向けの表示画像である第2の表示画像を上記第2の表示領域に表示する。
In addition to the functions of the
(表示装置制御部223)
表示装置制御部223は、表示装置203の各部を統括的に制御するものであり、図21に示すように、上述した表示装置制御部220における表示画像生成部232に替えて、表示画像生成部240として機能する。
(Display device controller 223)
The display
表示画像生成部240は、店員向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像と、上記第2の表示領域に表示する表示画像であって、上記第1の表示態様とは異なる第2の表示態様を有する表示画像である第2の表示画像とを生成し、表示部251に出力する。
The display
このように、本実施形態に係るコミュニケーション支援システム4では、店員向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像を、表示部251の第1の表示領域に表示し、客向けの表示態様である第2の表示態様を有する表示画像である第2の表示画像を、表示部251の第2の表示領域に表示する。そのため、上述の実施形態と同様、表示装置203の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。
As described above, in the
〔実施形態5〕
本発明の他の実施形態に係るコミュニケーション支援システム5について、図22に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
Fifth Embodiment
The
(コミュニケーション支援システム5)
コミュニケーション支援システム5は、サーバ104、表示装置204、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740によって構成される。上述の各実施形態におけるサーバ100〜103が有する各機能が、サーバ104、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740にて実現されている。サーバ104、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740について、図22を用いて説明する。図22は、本発明の実施形態5におけるサーバの要部構成を示すブロック図である。なお、表示装置204は、上述した表示装置200〜203と同様の構成を備えるため、説明を省略する。
(Communication support system 5)
The
(サーバ104)
サーバ104は、図22に示すように、サーバ通信部110及びサーバ制御部124を備えている。
(Server 104)
The server 104 includes a
サーバ通信部110は、外部の機器と情報を送受信することができる。
The
(サーバ制御部124)
サーバ制御部124は、サーバ104の各構成を統括的に制御するものであり、図22に示すように、表示情報出力部136、音声情報取得部140、発話内容情報取得部(発話内容出力部)141、表示情報生成部(発話内容情報出力部、翻訳内容情報出力部)142、及び翻訳発話内容情報取得部(翻訳内容情報取得部)143としても機能する。
(Server control unit 124)
The
表示情報出力部136は、表示情報生成部142が生成した表示情報を、サーバ通信部110を制御して表示装置204に出力する。
The display
音声情報取得部140は、サーバ通信部110を制御して、表示装置204から出力された音声情報を取得し、当該音声情報を音声抽出サーバ700に出力する。また、音声情報取得部140は、音声抽出サーバ700から出力された抽出音声情報を取得し、音声認識サーバ720に出力する。
The voice
発話内容情報取得部141は、サーバ通信部110を制御して、音声認識サーバ720から出力された発話内容情報を取得する。また、発話内容情報取得部141は、取得した発話内容情報が示す発話内容を、翻訳サーバ740に出力する。
The utterance content
表示情報生成部142は、発話内容情報取得部141が取得した発話内容情報と、翻訳発話内容情報取得部143が取得した翻訳発話内容情報とを関連付け、当該発話内容情報及び翻訳発話内容情報の少なくとも何れかを含む表示情報を表示情報出力部136に出力する。
The display
翻訳発話内容情報取得部143は、サーバ通信部110を制御して、翻訳サーバ740から出力された翻訳内容を示す翻訳内容情報を取得する。
The translation utterance content
(音声抽出サーバ700)
音声抽出サーバ700は、図22に示すように、音声抽出サーバ通信部701及び音声抽出部702を備えている。
(Voice extraction server 700)
The
音声抽出サーバ通信部701は、外部の機器と情報を送受信することができる。
The voice extraction
音声抽出部702は、音声抽出サーバ通信部701を制御し、サーバ104から出力された音声情報に含まれている音声から、客または店員が発話した音声を抽出し、抽出した音声を示す抽出音声情報を、サーバ104に出力する。
The
(音声認識サーバ720)
音声認識サーバ720は、図22に示すように、音声認識サーバ通信部721及び音声認識部722を備えている。
(Voice recognition server 720)
The
音声認識サーバ通信部721は、外部の機器と情報を送受信することができる。
The voice recognition
音声認識部722は、音声認識サーバ通信部721を制御し、サーバ104から出力された抽出音声情報が示す音声を認識し、認識した音声内容を示す発話内容情報を、サーバ104に出力する。
The
(翻訳サーバ740)
翻訳サーバ740は、図22に示すように、翻訳サーバ通信部741及び翻訳部742を備えている。
(Translation server 740)
The
翻訳サーバ通信部741は、外部の機器と情報を送受信することができる。
The translation
翻訳部742は、翻訳サーバ通信部741を制御し、サーバ104から出力された発話内容を取得し、当該発話内容の翻訳内容を示す翻訳内容情報をサーバ104に出力する。
The
このように、本実施形態に係るコミュニケーション支援システム5では、上述の各実施形態におけるサーバ100〜103を、サーバ104、音声抽出サーバ700、音声認識サーバ720、翻訳サーバ740によって実現することができる。そのため、各サーバをそれぞれ適した場所(店舗内、クラウド上など)に設置することができる。
As described above, in the
例えば、音声抽出サーバ700を店舗内に設置することにより、各店舗の状況に応じた設定(例えば、ノイズのフィルタリングなど)をすることができる。そのため、音声抽出サーバ700は、店舗内に設置することが好ましい。また、音声抽出サーバ700は、店員の発話した音声を抽出する音声抽出サーバ700aと、客の発話した音声を抽出する音声抽出サーバ700bとによって構成されてもよい。
For example, by installing the
また、サーバ104はクラウド上に設置することにより、各店舗での発話内容を取得し、各店舗で起こったことを共有することができる。 In addition, by installing the server 104 on the cloud, it is possible to acquire the utterance content in each store and share what happened in each store.
また、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。 Also, each server may be managed by the same operator or may be managed by different operators.
〔実施形態6〕
サーバ100〜104及び表示装置200〜204の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、サーバ100〜104及び表示装置200〜204のそれぞれを、図23に示すようなコンピュータ(電子計算機)を用いて構成することができる。
Sixth Embodiment
Each block of the
図23は、サーバ100〜104及び表示装置200〜204として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、及び補助記憶装置914は、それぞれ、例えばCPU、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、及び、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920及び出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920及び出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。
FIG. 23 is a block diagram illustrating the configuration of a
補助記憶装置914には、コンピュータ910をサーバ100〜104及び表示装置200〜204として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、サーバ100〜104及び表示装置200〜204が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。
The
また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
Also, the program may be acquired from the outside of the
〔変形例〕
上述の各実施形態では、コミュニケーション支援システム1〜5が翻訳を行う場合について説明したが、コミュニケーション支援システム1〜5はその構成に限定されない。
[Modification]
Although the above-mentioned each embodiment demonstrated the case where the communication assistance systems 1-5 translated, the communication assistance systems 1-5 are not limited to the structure.
例えば、商品名をキーフレーズで登録し、当該商品に関連したおすすめ商品の画像を表示装置に表示させてもよい。この場合、商品の型番、管理番号、在庫数、商品のマニュアル、取説、及び接客マニュアルなどを、店員向け表示装置にのみ表示させる構成としてもよい。また、当該商品に関連した広告、CMを客向け表示装置にのみ表示させる構成としてもよい。 For example, a product name may be registered using a key phrase, and an image of a recommended product related to the product may be displayed on the display device. In this case, the product model number, the management number, the stock quantity, the product manual, the manual, the customer service manual, and the like may be displayed only on the display unit for sales clerks. In addition, an advertisement related to the product and a CM may be displayed only on the display device for customers.
また、登録したキーフレーズに関連したキーフレーズをSNS(Social Network Service)上にて検索し、登録したキーフレーズに関連したキーフレーズを含むコメントやコメント数を表示する構成であってもよい。 Alternatively, the key phrase associated with the registered key phrase may be retrieved on the SNS (Social Network Service), and the comment including the key phrase associated with the registered key phrase may be displayed or the number of comments.
〔まとめ〕
本発明の態様1に係る表示装置(200〜202)は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、表示すべき情報を含む表示情報を取得する取得部(表示情報取得部231)と、上記取得部が取得した表示情報の示す表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。
[Summary]
The display device (200 to 202) according to
上記の構成によれば、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。 According to the above configuration, the usability of the display device can be improved and the communication between users can be facilitated.
本発明の態様2に係る表示装置は、上記態様1において、上記表示画像生成部は、上記表示情報の示すテキストであって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた文字の設定によって表されるテキストを含む表示画像を生成してもよい。
In the display device according to
上記の構成によれば、サービス提供者及びサービス利用者がそれぞれ見たいテキストを見やすく表示することができる。 According to the above configuration, it is possible to display the text that the service provider and the service user want to see in an easy-to-see manner.
本発明の態様3に係る表示装置は、上記態様1または2において、上記表示情報は、サービス提供者またはサービス利用者が発話した内容である発話内容を示す発話内容情報を含み、上記表示画像生成部は、上記取得部が取得した発話内容情報を参照し、当該発話内容情報が示す発話内容を含む表示画像を生成してもよい。
In the display device according to
上記の構成によれば、サービス提供者またはサービス利用者が発話した発話内容をサービス提供者及びサービス利用者に提示することができる。 According to the above configuration, it is possible to present the service provider and the service user with the contents of the utterance uttered by the service provider or the service user.
本発明の態様4に係る表示装置は、上記態様3において、上記表示情報は、上記発話内容情報が示す発話内容の翻訳である翻訳発話内容を示す翻訳発話内容情報を含み、上記表示画像生成部は、上記取得部が取得した翻訳発話内容情報を参照し、当該翻訳発話内容情報が示す翻訳発話内容を更に含むよう上記表示画像を更新してもよい。
In the display device according to
上記の構成によれば、発話内容の後に、当該発話内容の翻訳をサービス提供者及びサービス利用者に提示することができる。 According to the above configuration, the translation of the utterance content can be presented to the service provider and the service user after the utterance content.
本発明の態様5に係る表示装置は、上記態様4において、上記表示画像生成部は、ある発話内容と、当該ある発話内容の翻訳である翻訳発話内容とがグループ化された表示画像を生成してもよい。
In the display device according to
上記の構成によれば、対応している発話内容と翻訳内容とをサービス提供者及びサービス利用者に提示することができる。 According to the above configuration, it is possible to present the corresponding utterance content and translation content to the service provider and the service user.
本発明の態様6に係る表示装置は、上記態様4または5において、上記表示画像生成部は、当該表示装置がサービス提供者向け画像を表示する場合、サービス提供者の発話内容を示すテキストの文字及びサービス利用者の発話内容を翻訳した翻訳発話内容を示すテキストの文字を、当該サービス利用者の発話内容を示すテキストの文字及び当該サービス提供者の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きくした表示画像を生成し、当該表示装置がサービス利用者向け画像を表示する場合、サービス利用者の発話内容を示すテキストの文字及びサービス提供者の発話内容を翻訳した翻訳発話内容を示すテキストの文字を、当該サービス提供者の発話内容を示すテキストの文字及び当該サービス利用者の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きくした表示画像を生成してもよい。
In the display device according to aspect 6 of the present invention, in the
上記の構成によれば、サービス提供者及びサービス利用者に対して、それぞれの発言内容の文字を大きくして提示することができる。また、サービス提供者及びサービス利用者に対して、相手の発言内容の翻訳の文字を大きくして提示することができる。 According to the above configuration, it is possible to present the service provider and the service user with the characters of the respective utterance contents enlarged. In addition, it is possible to present the service provider and the service user by enlarging the characters of the translation contents of the other party.
本発明の態様7に係る表示装置は、上記態様1〜6の何れかにおいて、上記表示画像生成部は、上記表示画像に含まれるフレーズのうち、所定のフレーズを強調表示してもよい。
In the display device according to
上記の構成によれば、所定のフレーズを強調してサービス提供者及びサービス利用者に提示することができる。 According to the above configuration, the predetermined phrase can be emphasized and presented to the service provider and the service user.
本発明の態様8に係る表示装置は、上記態様7において、上記表示情報は、上記所定のフレーズに関連した画像を示す画像情報または当該画像の格納先を示す格納先情報を含み、上記表示画像生成部は、上記画像情報または上記格納先情報を参照し、上記所定のフレーズに関連した画像を含む表示画像を生成してもよい。
In the display device according to aspect 8 of the present invention, in the
上記の構成によれば、所定のフレーズに関連した画像をサービス提供者及びサービス利用者に提示することができる。 According to the above configuration, an image associated with a predetermined phrase can be presented to the service provider and the service user.
本発明の態様9に係る表示装置は、上記態様7または8において、上記表示情報は、上記所定のフレーズに関連したオブジェクトであって、サービス利用者またはサービス提供者の操作を受け付けるオブジェクトを示すオブジェクト情報を含み、上記表示画像生成部は、上記オブジェクト情報を参照し、上記オブジェクトを含む表示画像を生成してもよい。
In the display device according to
上記の構成によれば、所定のフレーズに関連する情報の表示を受け付けることができる。 According to the above configuration, the display of the information related to the predetermined phrase can be received.
本発明の態様10に係る表示装置(203)は、サービス提供者向け画像を表示する第1の表示領域と、サービス利用者向け画像を表示する第2の表示領域とを有する表示装置であって、表示すべき情報を含む表示情報を取得する取得部(表示情報取得部231)と、上記取得部が取得した表示情報の示す表示画像であって、上記第1の表示領域に表示する表示画像であって、サービス提供者向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像と、上記第2の表示領域に表示する表示画像であって、上記第1の表示態様とは異なる第2の表示態様を有する表示画像である第2の表示画像とを生成する表示画像生成部(240)と、上記表示画像生成部が生成した第1の表示画像を上記第1の表示領域に表示し、上記表示画像生成部が生成した第2の表示画像を上記第2の表示領域に表示する表示部(251)と、を備えている。
A display device (203) according to aspect 10 of the present invention is a display device having a first display area for displaying an image for a service provider and a second display area for displaying an image for a service user. An acquisition unit (display information acquisition unit 231) for acquiring display information including information to be displayed, and a display image indicated by the display information acquired by the acquisition unit and displayed in the first display area A first display image which is a display image having a first display mode which is a display mode for a service provider, and a display image to be displayed in the second display area, A display image generation unit (240) that generates a second display image that is a display image having a second display mode different from the display mode, and the first display image generated by the display image generation unit; Displayed in
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
According to the above configuration, the same effect as the display device in the
本発明の態様11に係るサーバ(104)は、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部(141)と、上記発話内容情報取得部が取得した発話内容情報を表示装置に出力する発話内容情報出力部(表示情報生成部142、表示情報出力部136)と、上記発話内容情報が示す発話内容を出力する発話内容出力部(発話内容情報取得部141)と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部(翻訳発話内容情報取得部143)と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部142、表示情報出力部136)と、を備えている。
The server (104) according to
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
According to the above configuration, the same effect as the display device in the
本発明の態様12に係るサーバ(101、102)は、上記態様11において、上記発話内容情報が示す発話内容または上記翻訳内容情報が示す翻訳内容に、所定のフレーズが含まれているか否かを判定するフレーズ判定部(キーフレーズ検索部137)と、上記フレーズ判定部が、上記発話内容に上記所定のフレーズが含まれていると判定した場合、上記発話内容情報出力部は更に、上記所定のフレーズを強調表示するよう上記表示装置に対して指示し、上記フレーズ判定部が、上記翻訳内容に上記所定のフレーズが含まれていると判定した場合、上記翻訳内容情報出力部は更に、上記所定のフレーズを強調表示するよう上記表示装置に対して指示してもよい。
The server (101, 102) according to aspect 12 of the present invention, in the
上記の構成によれば、所定のフレーズを強調してサービス提供者及びサービス利用者に提示することができる。 According to the above configuration, the predetermined phrase can be emphasized and presented to the service provider and the service user.
本発明の態様13に係るサーバは(100)、上記態様11または12において、発話した音声を示す音声情報を取得する音声情報取得部(131)と、上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、上記発話内容情報を生成する発話内容情報生成部(音声認識部133)と、をさらに備え、上記発話内容情報出力部は、上記発話内容情報生成部が生成した発話内容情報を、上記表示装置に出力してもよい。
In the server according to aspect 13 of the present invention (100), according to the
上記の構成によれば、サーバが発話内容を認識することができる。 According to the above configuration, the server can recognize the utterance content.
本発明の態様14に係るサーバは、上記態様11〜13の何れかにおいて、上記発話内容情報が示す発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部(翻訳部135)をさらに備え、上記翻訳内容情報出力部は、上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力してもよい。
In the server according to aspect 14 of the present invention, in any of the
上記の構成によれば、サーバが発話内容を翻訳することができる。 According to the above configuration, the server can translate the utterance content.
本発明の態様15に係るコミュニケーション支援システム(5)は、サーバ(104)と表示装置(204)とを備えるコミュニケーション支援システムであって、上記サーバは、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部(141)と、上記発話内容情報取得部が取得した発話内容情報を上記表示装置に出力する発話内容情報出力部(表示情報生成部142、表示情報出力部136)と、上記発話内容情報が示す発話内容を出力する発話内容出力部(発話内容情報取得部141)と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部(翻訳発話内容情報取得部143)と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部142、表示情報出力部136)と、を備え、上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部(表示情報取得部231)と、上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。
A communication support system (5) according to aspect 15 of the present invention is a communication support system including a server (104) and a display device (204), wherein the server is an uttered content indicating an uttered content which is a uttered content An utterance content information acquisition unit (141) for acquiring information, and an utterance content information output unit (display
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
According to the above configuration, the same effect as the display device in the
本発明の態様16に係るコミュニケーション支援システム(1〜3)は、サーバ(100〜102)と表示装置(200〜202)とを備えるコミュニケーション支援システムであって、上記サーバは、発話した音声を示す音声情報を取得する音声情報取得部(231)と、上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、発話内容情報を生成する発話内容情報生成部(音声認識部133)と、上記発話内容情報生成部が生成した発話内容情報を上記表示装置に出力する発話内容情報出力部(表示情報出力部136)と、上記発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部(翻訳部135)と、上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部134、表示情報出力部136)と、を備え、上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部(表示情報取得部231)と、上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。 A communication support system (1-3) according to a sixteenth aspect of the present invention is a communication support system including servers (100-102) and display devices (200-202), wherein the server indicates a voice uttered Utterance content information that refers to the voice information acquired by the voice information acquisition unit (231) for acquiring voice information and the voice information acquired by the voice information acquisition unit, recognizes the content indicated by the voice information as speech content, and generates speech content information A generation unit (voice recognition unit 133), an utterance content information output unit (display information output unit 136) for outputting the utterance content information generated by the utterance content information generation unit to the display device, and a translation in which the utterance content is translated The translation content information generation unit (translation unit 135) for generating translation content information indicating the content, and the translation content information generated by the translation content information generation unit A translation content information output unit (display information generation unit 134, display information output unit 136) to be output to the display device in association with content information, and the display device is an image for a service provider and an image for a service user An acquisition unit (display information acquisition unit 231) for acquiring at least one of the utterance content information and the translation content information from the server; and the acquisition unit acquires It is a display image including at least one of the utterance content indicated by the above-mentioned utterance content information and the translation content indicated by the above-mentioned translation content information, according to whether the display device is for a service provider or for a service user. A display image generation unit (232) for generating a display image having a display mode, and a display unit (25 for displaying the display image generated by the display image generation unit ), And it is equipped with a.
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
According to the above configuration, the same effect as the display device in the
本発明の態様17に係るコミュニケーション支援方法は、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得工程と、上記発話内容情報取得工程において取得された発話内容情報を表示装置に出力する発話内容情報出力工程と、上記発話内容情報が示す発話内容を出力する発話内容出力工程と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得工程と、上記翻訳内容情報取得工程において取得された翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力工程と、を含む。 A communication support method according to a seventeenth aspect of the present invention includes an utterance content information acquisition step of acquiring utterance content information indicating utterance content that is uttered content, and displaying the utterance content information acquired in the utterance content information acquisition step. A speech content information output process for outputting the speech content, a speech content output process for outputting the speech content indicated by the speech content information, a translation content information acquisition process for acquiring translation content information indicating the translation contents of the speech content, and the translation And a translation content information output step of associating the translation content information acquired in the content information acquisition step with the utterance content information and outputting the result to the display device.
上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。
According to the above configuration, the same effect as the display device in the
本発明の各態様に係る表示装置及びサーバは、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示装置及びサーバが備える各部(ソフトウェア要素に限る)として動作させることにより上記表示装置及びサーバをコンピュータにて実現させる表示装置及びサーバの制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。 The display device and the server according to each aspect of the present invention may be realized by a computer, and in this case, the display device is operated by operating the computer as each unit (limited to software elements) included in the display device and the server. And, a display device and a control program of a server that realize a server by a computer, and a computer readable recording medium recording the same also fall within the scope of the present invention.
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。 The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.
本発明は、店舗において店員と客とのコミュニケーションを支援するシステムに利用することができる。 The present invention can be used in a system for supporting communication between a store clerk and a customer in a store.
1、2、3、4、5 コミュニケーション支援システム
100、101、102、103、104 サーバ
110 サーバ通信部
120、121、122、124 サーバ制御部
131、140 音声情報取得部
132 音声抽出部
133 音声認識部(発話内容情報生成部)
134 表示情報生成部
135 翻訳部(翻訳内容情報生成部)
136 表示情報出力部(発話内容情報出力部、翻訳内容情報出力部)
137 キーフレーズ検索部(フレーズ判定部)
138 操作情報取得部
141 発話内容情報取得部(発話内容出力部)
142 表示情報生成部(発話内容情報出力部、翻訳内容情報出力部)
143 翻訳発話内容情報取得部(翻訳内容情報取得部)
150、152 キーフレーズデータベース
200、201、202、203、204 表示装置
210 表示装置通信部
220、222、223 表示装置制御部
231 表示情報取得部(取得部)
232、240 表示画像生成部
233 音声情報取得部
234 操作情報取得部
250、251 表示部
260 音声受付部
270、270a 操作受付部
300a、300b、302a、302b、304a、304b 吹き出し
400a、400b、402a、402b、404a、404b、406a、406b、410a、410b、412a、412b、414a、414b、416a、416b、500a、500b、502a、502b、510a、510b、512a、512b テキスト
600a、600b、602a、602b、606a、606b 画像
604a、604b、605a ボタン
700、700a、700b 音声抽出サーバ
701 音声抽出サーバ通信部
702 音声抽出部
720 音声認識サーバ
721 音声認識サーバ通信部
722 音声認識部
740 翻訳サーバ
741 翻訳サーバ通信部
742 翻訳部
800a、800b テキスト
910 コンピュータ
911 バス
912 演算装置
913 主記憶装置
914 補助記憶装置
915 入出力インターフェース
916 通信インターフェース
920 入力装置
930 出力装置
1, 2, 3, 4, 5
134 display
136 Display information output unit (utterance content information output unit, translation content information output unit)
137 Key phrase search unit (phrase judgment unit)
138 Operation
142 Display information generation unit (utterance content information output unit, translation content information output unit)
143 Translation Utterance Content Information Acquisition Unit (Translation Content Information Acquisition Unit)
150, 152
232, 240 display
Claims (9)
第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有する表示部と、
発話内容を取得する取得部と、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定のフレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第2表示領域に表示する制御を行う表示制御部と、
を備え、
前記表示制御部は、
前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行い、
前記オブジェクトに対応した画像情報として、前記フレーズに関連する情報と同一の情報に関連するフレーズに対応する商品を含まない画像を示す画像情報を前記第2表示領域に表示する制御を行う、
ことを特徴とする表示装置。 A display device for displaying at least one of a service provider image and a service user image, comprising:
A display unit having a display screen which can be divided and displayed in a first display area and a second display area;
An acquisition unit for acquiring utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control unit that performs control to display;
Equipped with
The display control unit
Display object associated with the phrase on the display screen, when the object is selected, have row control to display the image information corresponding to the selected object in the second display area,
Control is performed to display image information indicating an image not including a product corresponding to a phrase related to the same information as the information related to the phrase as the image information corresponding to the object in the second display area .
A display device characterized by
前記表示制御部は、前記第1表示領域に当該翻訳発話内容情報を発話内容情報と併せて表示することを特徴とする請求項1又は2に記載の表示装置。 The uttered content information includes translated uttered content information indicating translated uttered content which is a translation of the uttered content acquired by the acquisition unit.
The display device according to claim 1 or 2 , wherein the display control unit displays the translated utterance content information together with the utterance content information in the first display area.
前記表示制御部は、前記第2表示領域に当該付加情報を前記商品の画像と併せて表示することを特徴とする請求項1から3の何れか一項に記載の表示装置。 The display device further includes an information addition unit that adds additional information related to the product,
The display device according to any one of claims 1 to 3 , wherein the display control unit displays the additional information and the image of the product in the second display area.
前記表示制御部は、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた文字の設定によって表されるテキストを含む画像を表示することを特徴とする請求項5に記載の表示装置。 The utterance content information displayed in the first display area is a text indicated by the utterance content information, and
The display controller, to claim 5, characterized in that for displaying an image including a text in which the display device is represented by the character set of corresponding to whether a friendly or service users is for the service provider Display device as described.
前記表示部は、第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有しており、
発話内容を取得する取得ステップと、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定のフレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第2表示領域に表示する制御を行う表示制御ステップと、
を含み、
前記表示制御ステップは、
前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行い、
前記オブジェクトに対応した画像情報として、前記フレーズに関連する情報と同一の情報に関連するフレーズに対応する商品を含まない画像を示す画像情報を前記第2表示領域に表示する制御を行う、
ことを特徴とする表示方法。 A display method on a display device including a display unit that displays at least one of a service provider image and a service user image.
The display unit has a display screen which can be divided and displayed in a first display area and a second display area.
An acquisition step of acquiring an utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control step for performing control to be displayed;
Including
The display control step is
Display object associated with the phrase on the display screen, when the object is selected, have row control to display the image information corresponding to the selected object in the second display area,
Control is performed to display image information indicating an image not including a product corresponding to a phrase related to the same information as the information related to the phrase as the image information corresponding to the object in the second display area.
A display method characterized by
前記表示部は、第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有しており、
発話内容を取得する取得機能と、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定のフレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第2表示領域に表示する制御を行う表示制御機能と、
を実現させ、
前記表示制御機能は、
前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行い、
前記オブジェクトに対応した画像情報として、前記フレーズに関連する情報と同一の情報に関連するフレーズに対応する商品を含まない画像を示す画像情報を前記第2表示領域に表示する制御を行う、
ことを特徴とするプログラム。 A computer having a display unit for displaying at least one of a service provider image and a service user image;
The display unit has a display screen which can be divided and displayed in a first display area and a second display area.
An acquisition function for acquiring utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control function that performs control to be displayed;
To achieve
The display control function is
Display object associated with the phrase on the display screen, when the object is selected, have row control to display the image information corresponding to the selected object in the second display area,
Control is performed to display image information indicating an image not including a product corresponding to a phrase related to the same information as the information related to the phrase as the image information corresponding to the object in the second display area.
A program characterized by
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017194646A JP6550111B2 (en) | 2017-10-04 | 2017-10-04 | Display device, display method and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017194646A JP6550111B2 (en) | 2017-10-04 | 2017-10-04 | Display device, display method and program |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014232154A Division JP2016095727A (en) | 2014-11-14 | 2014-11-14 | Display device, server, communication support system, communication support method, and control program |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019102658A Division JP6803946B2 (en) | 2019-05-31 | 2019-05-31 | Display device, display method and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018055689A JP2018055689A (en) | 2018-04-05 |
JP6550111B2 true JP6550111B2 (en) | 2019-07-24 |
Family
ID=61836846
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017194646A Active JP6550111B2 (en) | 2017-10-04 | 2017-10-04 | Display device, display method and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6550111B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020071764A (en) * | 2018-11-01 | 2020-05-07 | 東芝テック株式会社 | Instruction management apparatus and control program thereof |
JP2020190625A (en) * | 2019-05-22 | 2020-11-26 | 株式会社日本レカム | Automatic translation device by speech recognition, and information system |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01103774A (en) * | 1987-07-08 | 1989-04-20 | Ricoh Co Ltd | Translation display device |
JPH08278972A (en) * | 1995-04-06 | 1996-10-22 | Sony Corp | Speech input translation device |
JP3422596B2 (en) * | 1995-07-07 | 2003-06-30 | インターナショナル・ビジネス・マシーンズ・コーポレーション | How to display objects |
JPH113348A (en) * | 1997-06-11 | 1999-01-06 | Sharp Corp | Advertizing device for electronic interaction |
JP2000148756A (en) * | 1998-11-12 | 2000-05-30 | Matsushita Electric Ind Co Ltd | Translation error detecting device |
US7530023B2 (en) * | 2001-11-13 | 2009-05-05 | International Business Machines Corporation | System and method for selecting electronic documents from a physical document and for displaying said electronic documents over said physical document |
JP2005222316A (en) * | 2004-02-05 | 2005-08-18 | Toshiba Corp | Conversation support device, conference support system, reception work support system, and program |
JP5242726B2 (en) * | 2011-03-28 | 2013-07-24 | 株式会社東芝 | Foreign language customer support device, foreign language customer service method and program |
JP5684082B2 (en) * | 2011-09-27 | 2015-03-11 | 株式会社東芝 | Dialog support apparatus, method, and program |
-
2017
- 2017-10-04 JP JP2017194646A patent/JP6550111B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2018055689A (en) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9424838B2 (en) | Pattern processing system specific to a user group | |
CN111538900B (en) | Information recommendation method and related equipment | |
JP6061729B2 (en) | Product information providing system and product information providing program | |
US20060277044A1 (en) | Client-based speech enabled web content | |
CN107864301A (en) | Client's label management method, system, computer equipment and storage medium | |
US20180373705A1 (en) | User device and computer program for translating recognized speech | |
US11262977B2 (en) | Display control apparatus, display control method, and non-transitory recording medium | |
JP2002297626A (en) | Device, program, and method for presenting information | |
JP5585889B2 (en) | Display data generation apparatus, display control system, and display control program | |
US9471567B2 (en) | Automatic language recognition | |
JP6550111B2 (en) | Display device, display method and program | |
JP6066791B2 (en) | Product information providing system and product information providing program | |
JP2014052770A (en) | Signage terminal and signage system | |
JP2017174090A (en) | Information processing apparatus and program | |
JP6803946B2 (en) | Display device, display method and program | |
CN115186070A (en) | Information processing method, apparatus, device, storage medium, and program product | |
Kangeswaran et al. | A bilingual audio based online shopping mobile application for visually impaired and the elderly people | |
KR20230029158A (en) | method for automatically creating shopping mall banner sentences | |
JP2022020149A (en) | Information processing apparatus and program | |
JP2016095727A (en) | Display device, server, communication support system, communication support method, and control program | |
JP6577126B1 (en) | Avatar display control method | |
JP2022018724A (en) | Information processing device, information processing method, and information processing program | |
JP2018014065A (en) | Method and program for supporting cross-language conversation | |
US20100083130A1 (en) | Computer product, content providing apparatus, and content providing method | |
JP2020052697A (en) | Advertisement-running monitoring and assisting device, advertisement-running monitoring and assisting method and advertisement-running monitoring and assisting program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180713 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180724 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181211 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190201 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20190305 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190531 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20190606 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190625 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190628 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6550111 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |