JP6550111B2 - Display device, display method and program - Google Patents

Display device, display method and program Download PDF

Info

Publication number
JP6550111B2
JP6550111B2 JP2017194646A JP2017194646A JP6550111B2 JP 6550111 B2 JP6550111 B2 JP 6550111B2 JP 2017194646 A JP2017194646 A JP 2017194646A JP 2017194646 A JP2017194646 A JP 2017194646A JP 6550111 B2 JP6550111 B2 JP 6550111B2
Authority
JP
Japan
Prior art keywords
display
information
image
unit
display device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017194646A
Other languages
Japanese (ja)
Other versions
JP2018055689A (en
Inventor
浩章 奥本
浩章 奥本
慶子 蛭川
慶子 蛭川
門脇 幹宏
幹宏 門脇
佳成 澤田
佳成 澤田
紋 中川
紋 中川
直 山口
直 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sharp Corp
Original Assignee
Sharp Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sharp Corp filed Critical Sharp Corp
Priority to JP2017194646A priority Critical patent/JP6550111B2/en
Publication of JP2018055689A publication Critical patent/JP2018055689A/en
Application granted granted Critical
Publication of JP6550111B2 publication Critical patent/JP6550111B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

本発明はサービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置等に関する。   The present invention relates to a display device or the like that displays at least one of a service provider image and a service user image.

経済や文化のグローバル化が進む現在、異なる言語を母語とする人同士がコミュニケーションを図る機会が増えている。そのため、このようなコミュニケーションを支援することを目的とする翻訳装置が開発されている。例えば特許文献1には、日本語を母語とするユーザ(ユーザJ)向けに日本語を表示するディスプレイと、英語を母語とするユーザ(ユーザE)向けに英語を表示するディスプレイとを備えた翻訳装置が記載されている。   As the globalization of economy and culture advances, opportunities for communication between people whose native languages are different languages are increasing. Therefore, a translation device has been developed for the purpose of supporting such communication. For example, Patent Document 1 includes a display for displaying Japanese for a user whose native language is Japanese (user J) and a display for displaying an English language for a user whose native language is English (user E). The device is described.

特許文献2には、異なる母語の利用者同士の音声によるコミュニケーションを支援する音声翻訳装置が記載されている。この音声翻訳装置は、入力された音声信号の認識結果及び当該認識結果に対応する翻訳結果を表示することに加えて、上記認識結果に関連するキーワードを検索するとともに当該キーワードの翻訳結果を表示することによってコミュニケーションを支援する。   Patent Document 2 describes a voice translation device that supports voice communication between users of different native languages. In addition to displaying the recognition result of the input speech signal and the translation result corresponding to the recognition result, the speech translation apparatus searches for a keyword related to the recognition result and displays the translation result of the keyword. Support communication by

また、特許文献3には、(1)入力された音声の認識結果である文字列と、webページに含まれている画像情報を解析することによって得られたキーワードとを比較し、(2)上記文字列と上記キーワードとが一致する場合には、上記文字列を文字画像に変換し、認識された音声に対応する映像と上記文字画像とを合成することによって新たな画像情報を生成する画像処理装置が記載されている。このようにして生成された上記新たな画像情報は、商品を販売するためのホームページやチラシとして利用することができる。   Further, Patent Document 3 compares (1) a character string that is a recognition result of input speech with a keyword obtained by analyzing image information included in a web page, (2) When the character string matches the keyword, the character string is converted to a character image, and an image corresponding to the recognized voice is synthesized with the character image to generate new image information. A processing device is described. The new image information generated in this manner can be used as a home page or a flyer for selling a product.

国際公開第2011/036769号公報(2011年3月31日公開)International Publication No. 2011/036769 (released on March 31, 2011) 特開2009−205579号公報(2009年9月10日公開)JP, 2009-205579, A (Sep. 10, 2009 publication) 特開2007−225952号公報(2007年9月6日公開)Japanese Patent Application Laid-Open No. 2007-225952 (released on September 6, 2007)

特許文献2に記載の音声翻訳装置を利用する場合、異なる母語の利用者同士は、入力された音声信号の認識結果(特許文献2の図5に示された表示エリアA)と、当該認識結果に対応する翻訳結果(同図に示された表示エリアB)と、キーワード(同図に示された表示エリアC)と、翻訳されたキーワード(同図に示された表示エリアD)とが表示された表示部を参照しながらコミュニケーションを図る。換言すれば、異なる言語を用いる各利用者は、表示部にそれぞれの母語で表示された情報であって、同一の内容からなる情報を参照しながらコミュニケーションを図る。   When the speech translation apparatus described in Patent Document 2 is used, users of different native languages can recognize the input speech signal (display area A shown in FIG. 5 of Patent Document 2) and the recognition result. The translation result (display area B shown in the same figure), the keyword (display area C shown in the figure), and the translated keyword (display area D shown in the figure) corresponding to Communicate while referring to the displayed display. In other words, each user who uses a different language communicates with reference to the information which is displayed in the native language on the display unit and which has the same content.

上記音声翻訳装置においては、各表示エリアに表示される上記認識結果、上記翻訳結果、上記キーワード、及び上記翻訳されたキーワードは、軽重のない一様なテキストとして表示される。また、上記音声翻訳装置においては、入力された発話の認識結果が表示エリアAに表示されるため、(1)利用者が発話する言語が日本語である場合には表示エリアAに日本語の認識結果が表示され、表示エリアBに英語の翻訳結果が表示され、(2)利用者が発話する言語が英語である場合には表示エリアAに英語の認識結果が表示され、表示エリアBに日本語の翻訳結果が表示される。換言すれば、上記音声翻訳装置において、利用者の母語を用いて認識結果または翻訳結果を表示する表示エリアは、発話する利用者が代わるたびに表示エリアAから表示エリアBへ、また、表示エリアBから表示エリアAへと変更される。   In the speech translation apparatus, the recognition result, the translation result, the keyword, and the translated keyword displayed in each display area are displayed as a uniform text without heaviness. Further, in the above-described speech translation apparatus, since the recognition result of the input speech is displayed in the display area A, (1) when the language spoken by the user is Japanese, the display area A is Japanese The recognition result is displayed, the translation result of English is displayed in the display area B, and (2) when the language spoken by the user is English, the recognition result of English in the display area A is displayed, and the display area B is displayed The Japanese translation results are displayed. In other words, in the speech translation apparatus, the display area for displaying the recognition result or the translation result using the user's native language changes from the display area A to the display area B and the display area each time the user who speaks changes. B is changed to display area A.

このような上記音声翻訳装置を利用する利用者同士は、軽重のない一様なテキストであって、発話する利用者が代わるたびに異なる表示エリアに表示される上記認識結果及び上記翻訳結果を絶えず注視しながらコミュニケーションを図られることを強いられる。換言すれば、上記音声翻訳装置は、上記表示部に表示された情報のうち注目すべき情報がどれであるのかが利用者にとって分かりにくく、利用者の使い勝手において改善の余地を残している。   Users who use such a speech translation apparatus are uniform texts that are not disappointing, and the recognition result and the translation result are constantly displayed in different display areas each time the speech user changes. You are forced to be able to communicate while watching. In other words, it is difficult for the user to understand which information to be noticed among the information displayed on the display unit, and the speech translation apparatus leaves room for improvement in usability of the user.

また、複数の利用者同士が共通する情報を参照しながらコミュニケーションを図るという状況は、異なる言語を母語とする人同士がコミュニケーションを図る場合に限定されるものではない。例えば、家電製品を販売する量販店において、ユーザ及び店員(利用者)が、量販店が用意している表示装置を参照しながら商談を進める場合においても同様の状況が生じ得る。表示装置の表示部に多くの情報が表示されることは、多くの情報をユーザと店員との間で共有できるというメリットを有する。その反面、それら多くの情報に軽重が付けられていないために、それら多くの情報のうち注目すべき情報がどれであるのかがユーザ及び店員にとって分かりにくいというデメリットを有する。すなわち、このような表示装置は、利用者の使い勝手において改善の余地を残している。   Further, the situation in which communication is attempted while referring to common information among a plurality of users is not limited to the case where persons whose native language is a different language communicate with each other. For example, the same situation may occur in a case where a user and a store clerk (user) proceed with a business negotiation while referring to a display device provided by a mass retailer in a mass retailer selling home appliances. The display of a large amount of information on the display unit of the display device has an advantage that a large amount of information can be shared between the user and the store clerk. On the other hand, there is a disadvantage that it is difficult for the user and the store clerk to know which of the many pieces of information should be noticed, because the large amount of information is not lightly weighted. That is, such a display device leaves room for improvement in the usability of the user.

本発明は、上記の課題を鑑みてなされたものであり、その目的は、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる技術を提供することである。   The present invention has been made in view of the above problems, and an object thereof is to provide a technology capable of improving the usability of a display device and facilitating communication between users.

上述した課題を解決するために、本発明の表示装置は、
サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、
第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有する表示部と、
発話内容を取得する取得部と、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定の
フレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第
2表示領域に表示する制御を行う表示制御部と、
を備え
前記表示制御部は、前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行うことを特徴とする。
In order to solve the problems described above, the display device of the present invention is
A display device for displaying at least one of a service provider image and a service user image, comprising:
A display unit having a display screen which can be divided and displayed in a first display area and a second display area;
An acquisition unit for acquiring utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control unit that performs control to display;
Equipped with
The display control unit displays an object associated with the phrase on the display screen, and when the object is selected, performs control to display image information corresponding to the selected object in the second display area. It is characterized by

本発明の表示方法は、
サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示部を有する表示装置における表示方法であって、
前記表示部は、第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有しており、
発話内容を取得する取得ステップと、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定の
フレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第
2表示領域に表示する制御を行う表示制御ステップと、
を含み、
前記表示制御ステップは、前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行うことを特徴とする。
The display method of the present invention is
A display method on a display device including a display unit that displays at least one of a service provider image and a service user image.
The display unit has a display screen which can be divided and displayed in a first display area and a second display area.
An acquisition step of acquiring an utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control step for performing control to be displayed;
Only including,
The display control step displays an object associated with the phrase on the display screen, and when the object is selected, performs control to display image information corresponding to the selected object in the second display area. It is characterized by

本発明のプログラムは、
サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示部を有するコンピュータに、
前記表示部は、第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有しており、
発話内容を取得する取得機能と、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定の
フレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第
2表示領域に表示する制御を行う表示制御機能と、
を実現させ
前記表示制御機能は、前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行うことを特徴とする。
The program of the present invention is
A computer having a display unit for displaying at least one of a service provider image and a service user image;
The display unit has a display screen which can be divided and displayed in a first display area and a second display area.
An acquisition function for acquiring utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control function that performs control to be displayed;
To achieve,
The display control function displays an object associated with the phrase on the display screen, and when the object is selected, performs control to display image information corresponding to the selected object in the second display area. It is characterized by

本発明の一態様によれば、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。   According to one aspect of the present invention, usability of the display device can be improved and communication between users can be facilitated.

本発明の実施形態1に係るコミュニケーション支援システムを模式的に示す図である。BRIEF DESCRIPTION OF THE DRAWINGS It is a figure which shows typically the communication assistance system which concerns on Embodiment 1 of this invention. 本発明の実施形態1におけるサーバの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the server in Embodiment 1 of this invention. 本発明の実施形態1における表示装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the display apparatus in Embodiment 1 of this invention. 本発明の実施形態1に係るコミュニケーション支援システムにおいて、客の発話内容の翻訳が表示されるまでの処理の流れを示すシークエンス図である。In the communication support system which concerns on Embodiment 1 of this invention, it is a sequence diagram which shows the flow of a process until translation of a customer's utterance content is displayed. 本発明の実施形態1における表示情報の構造を示す図である。It is a figure which shows the structure of the display information in Embodiment 1 of this invention. 本発明の実施形態1における表示装置が表示する画像を示す図である。It is a figure which shows the image which the display apparatus in Embodiment 1 of this invention displays. 本発明の実施形態1に係るコミュニケーション支援システムにおいて、店員の発話内容の翻訳が表示されるまでの処理の流れを示すシークエンス図である。In the communication support system which concerns on Embodiment 1 of this invention, it is a sequence diagram which shows the flow of a process until translation of the content of utterance of a store clerk is displayed. 本発明の実施形態1における表示装置が表示する画像を示す図である。It is a figure which shows the image which the display apparatus in Embodiment 1 of this invention displays. 本発明の実施形態2におけるサーバの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the server in Embodiment 2 of this invention. 本発明の実施形態2におけるキーフレーズ情報が格納されたキーフレーズテーブルである。It is the key phrase table in which the key phrase information in Embodiment 2 of this invention was stored. 本発明の実施形態2に係るコミュニケーション支援システムにおける処理の流れを示すシークエンス図である。It is a sequence diagram which shows the flow of the process in the communication assistance system which concerns on Embodiment 2 of this invention. 本発明の実施形態2における表示装置が表示する表示画像を示す図である。It is a figure which shows the display image which the display apparatus in Embodiment 2 of this invention displays. 本発明の実施形態2における表示装置が表示する他の表示画像を示す図である。It is a figure which shows the other display image which the display apparatus in Embodiment 2 of this invention displays. 本発明の実施形態3におけるサーバの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the server in Embodiment 3 of this invention. 本発明の実施形態3における表示装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the display apparatus in Embodiment 3 of this invention. 本発明の実施形態3におけるキーフレーズ情報が格納されたキーフレーズテーブルである。It is the key phrase table in which the key phrase information in Embodiment 3 of this invention was stored. 本発明の実施形態3における表示装置が表示する表示画像を示す図である。It is a figure which shows the display image which the display apparatus in Embodiment 3 of this invention displays. 本発明の実施形態3に係るコミュニケーション支援システムにおける処理の流れを示すシークエンス図である。It is a sequence diagram which shows the flow of the process in the communication assistance system which concerns on Embodiment 3 of this invention. 本発明の実施形態3における表示装置が表示する他の表示画像を示す図である。It is a figure which shows the other display image which the display apparatus in Embodiment 3 of this invention displays. 本発明の実施形態3における表示装置が表示する更に他の表示画像を示す図である。It is a figure which shows the further another display image which the display apparatus in Embodiment 3 of this invention displays. 本発明の実施形態4における表示装置の要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the display apparatus in Embodiment 4 of this invention. 本発明の実施形態5におけるサーバの要部構成を示すブロック図である。It is a block diagram which shows the principal part structure of the server in Embodiment 5 of this invention. サーバ及び表示装置として利用可能なコンピュータの構成を例示したブロック図である。FIG. 2 is a block diagram illustrating the configuration of a computer usable as a server and a display device.

〔実施形態1〕
以下、本発明の一実施形態について、図1〜図8を用いて詳細に説明する。以下の特定の実施形態で説明する構成以外の構成については、必要に応じて説明を省略する場合があるが、他の実施形態で説明されている場合は、その構成と同じである。また、説明の便宜上、各実施形態に示した部材と同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。
Embodiment 1
Hereinafter, an embodiment of the present invention will be described in detail with reference to FIGS. 1 to 8. Descriptions of configurations other than the configurations described in the following specific embodiments may be omitted as needed. However, in the case of being described in other embodiments, the configuration is the same as the configuration. Moreover, about the member which has the function same as the member shown to each embodiment for convenience of explanation, the same code | symbol is attached | subjected and the description is abbreviate | omitted suitably.

(コミュニケーション支援システム1)
図1は、本発明の実施形態1に係るコミュニケーション支援システム1を模式的に示す図である。コミュニケーション支援システム1は、図1に示すように、サーバ100、表示装置200a、及び表示装置200bによって構成されている。
(Communication support system 1)
FIG. 1 is a view schematically showing a communication support system 1 according to a first embodiment of the present invention. The communication support system 1 includes, as shown in FIG. 1, a server 100, a display device 200a, and a display device 200b.

コミュニケーション支援システム1は、サービス提供者及びサービス利用者がコミュニケーションを円滑にすることができるシステムである。本明細書では、サービス提供者が店員、サービス利用者が客である場合について説明するが、コミュニケーション支援システム1は、タクシー運転手と客、受付と来訪者等にも利用可能である。   The communication support system 1 is a system that enables service providers and service users to facilitate communication. In this specification, the case where the service provider is a store clerk and the service user is a customer will be described. However, the communication support system 1 can be used for taxi drivers and customers, receptionists and visitors, and the like.

コミュニケーション支援システム1では、クラウド上に設置されたサーバ100と、店舗に設置された表示装置200a及び表示装置200bとがそれぞれ通信可能に接続されている。本実施形態では、店員が日本語を話し、客が英語を話し、客が店頭のおでんを購入する場合を例に挙げて説明する。なお、コミュニケーション支援システム1は、店のキャッシュレジスターと連携する構成であってもよい。   In the communication support system 1, the server 100 installed on the cloud and the display device 200a and the display device 200b installed in the store are communicably connected. In this embodiment, a store clerk speaks Japanese, a customer speaks English, and a customer purchases a storefront oden as an example. The communication support system 1 may be configured to cooperate with a cash register of a store.

また、コミュニケーション支援システム1では、表示装置200a及び表示装置200bにはそれぞれ店員向けまたは客向けの設定がされている。本明細書では、表示装置200aには店員向けの設定がされており、表示装置200bには客向けの設定がされているとして説明する。なお、表示装置200a及び表示装置200bは、店員向けまたは客向けの設定がされているという点において区別される。そのため、表示装置200a及び表示装置200bは同じ機能を有し、以下において、表示装置200a及び表示装置200bを表示装置200と総称する。   Further, in the communication support system 1, the display device 200a and the display device 200b are set for the store clerk or the customer, respectively. In the present specification, it is assumed that the display device 200a is set for the store clerk, and the display device 200b is set for the customer. The display device 200a and the display device 200b are distinguished in that they are set for the store clerk or for the customer. Therefore, the display device 200a and the display device 200b have the same function, and hereinafter, the display device 200a and the display device 200b will be collectively referred to as the display device 200.

(サーバ100)
図2は、本発明の実施形態1におけるサーバ100の要部構成を示すブロック図である。サーバ100について、図2を用いて説明する。
(Server 100)
FIG. 2 is a block diagram showing the main configuration of the server 100 according to the first embodiment of the present invention. The server 100 will be described with reference to FIG.

サーバ100は、図2に示すように、サーバ通信部110及びサーバ制御部120を備えている。   The server 100 includes a server communication unit 110 and a server control unit 120 as shown in FIG.

サーバ通信部110は、外部の機器と情報を送受信することができる。   The server communication unit 110 can transmit and receive information to and from an external device.

サーバ制御部120は、サーバ100の各構成を統括的に制御するものである。サーバ制御部120の詳細について、以下に説明する。   The server control unit 120 centrally controls each component of the server 100. Details of the server control unit 120 will be described below.

(サーバ制御部120)
サーバ制御部120は、図2に示すように、音声情報取得部131、音声抽出部132、音声認識部(発話内容情報生成部)133、表示情報生成部134、翻訳部(翻訳内容情報生成部)135、及び表示情報出力部(発話内容情報出力部、翻訳内容情報出力部)136としても機能する。
(Server control unit 120)
As shown in FIG. 2, the server control unit 120 includes a voice information acquisition unit 131, a voice extraction unit 132, a voice recognition unit (utterance content information generation unit) 133, a display information generation unit 134, a translation unit (translation content information generation unit And 135 functions as a display information output unit (speech content information output unit, translation content information output unit) 136.

音声情報取得部131は、サーバ通信部110を制御し、表示装置200から出力された音声情報を取得する。   The audio information acquisition unit 131 controls the server communication unit 110 to acquire the audio information output from the display device 200.

音声抽出部132は、音声情報取得部131が取得した音声情報に含まれている音声から、客または店員が発話した音声を抽出し、抽出した音声を示す抽出音声情報を出力する。   The voice extraction unit 132 extracts the voice uttered by the customer or the store clerk from the voice included in the voice information acquired by the voice information acquisition unit 131, and outputs the extracted voice information indicating the extracted voice.

音声認識部133は、音声抽出部132が出力した抽出音声情報が示す音声を認識し、認識した音声内容を示す発話内容情報を出力する。   The voice recognition unit 133 recognizes the voice indicated by the extracted voice information output from the voice extraction unit 132, and outputs speech content information indicating the recognized voice content.

表示情報生成部134は、表示装置200に表示させるべき情報を含む表示情報を生成する。表示情報生成部134が生成する表示情報の詳細については、後述する。   The display information generation unit 134 generates display information including information to be displayed on the display device 200. Details of the display information generated by the display information generation unit 134 will be described later.

翻訳部135は、発話内容を取得し、当該発話内容を翻訳した翻訳内容を示す翻訳発話内容情報を生成して出力する。   The translation unit 135 acquires the uttered content, and generates and outputs translated uttered content information indicating the translated content obtained by translating the uttered content.

表示情報出力部136は、表示情報生成部134が生成した表示情報を、サーバ通信部110を制御して表示装置200に出力する。   The display information output unit 136 outputs the display information generated by the display information generation unit 134 to the display device 200 by controlling the server communication unit 110.

(表示装置200)
図3は、本発明の実施形態1における表示装置200の要部構成を示すブロック図である。表示装置200について、図3を用いて説明する。
(Display device 200)
FIG. 3 is a block diagram showing the main configuration of the display device 200 in Embodiment 1 of the present invention. The display device 200 will be described with reference to FIG.

表示装置200は、図3に示すように、表示装置通信部210、表示装置制御部220、表示部250、及び音声受付部260を備えている。   As shown in FIG. 3, the display device 200 includes a display device communication unit 210, a display device control unit 220, a display unit 250, and an audio reception unit 260.

表示装置通信部210は、外部の機器と情報を送受信することができる。   The display device communication unit 210 can exchange information with an external device.

表示装置制御部220は、表示装置200の各構成を統括的に制御するものである。表示装置制御部220の詳細については、後述する。   The display device control unit 220 centrally controls each component of the display device 200. Details of the display device control unit 220 will be described later.

表示部250は、表示装置制御部220から出力される画像信号が示す画像を表示する。   The display unit 250 displays an image indicated by the image signal output from the display device control unit 220.

音声受付部260は、表示装置200の周辺の音声を取得し、取得した音声を示す音声情報を出力する。   The voice receiving unit 260 obtains voices around the display device 200, and outputs voice information indicating the obtained voices.

(表示装置制御部220)
表示装置制御部220は、図3に示すように、表示情報取得部(取得部)231、表示画像生成部232、及び音声情報取得部233としても機能する。
(Display device controller 220)
The display device control unit 220 also functions as a display information acquisition unit (acquisition unit) 231, a display image generation unit 232, and an audio information acquisition unit 233, as shown in FIG.

表示情報取得部231は、表示装置通信部210を制御し、サーバ100から出力された表示情報を取得する。   The display information acquisition unit 231 controls the display device communication unit 210 and acquires display information output from the server 100.

表示画像生成部232は、表示情報が示す表示画像であって、表示装置200が店員向けであるか客向けであるのかに応じた表示態様を有する表示画像を生成する。ここで、店員向けであるか客向けであるのかに応じた表示態様を有する表示画像とは、店員向けであるか客向けであるのかに応じた文字の設定によって表されるテキストを含む表示画像である。店員向けであるか客向けであるのかに応じた文字の設定の例として、文字の書体、文字の色、文字の大きさ、文字の飾り(傍点、下線、取り消し線、二重取り消し線、影付き、網掛け、背景色、上付き文字、下付き文字、中抜き、浮きだし、浮彫など)の設定が挙げられる。表示画像生成部232が表示画像を生成する処理の詳細は、後述する。   The display image generation unit 232 generates a display image indicated by the display information and having a display mode according to whether the display device 200 is for a store clerk or a customer. Here, a display image having a display mode according to whether it is for a store clerk or a customer is a display image including text represented by setting of characters according to whether it is for a store clerk or a customer It is. As an example of the setting of the character according to whether it is for the clerk or the customer, the font of the character, the color of the character, the size of the character, the decoration of the character (dot, underline, strikethrough, double strikethrough, shadow Settings such as with, shaded, background color, superscript, subscript, hollow, embossing, relief, etc. can be mentioned. The details of the process of the display image generation unit 232 generating a display image will be described later.

音声情報取得部233は、音声受付部260を介して音声情報を取得する。   The voice information acquisition unit 233 obtains voice information via the voice reception unit 260.

(コミュニケーション支援システム1の処理1)
図4は、本発明の実施形態1に係るコミュニケーション支援システム1において、客の発話内容の翻訳が表示されるまでの処理の流れ(コミュニケーション支援方法)を示すシークエンス図である。また、図5は、本発明の実施形態1における表示情報の構造を示す図である。また、図6は、本発明の実施形態1における表示装置200が表示する画像を示す図である。コミュニケーション支援システム1において、客の発話内容の翻訳が表示されるまでの処理の流れについて、図4〜図6を用いて説明する。
(Process 1 of communication support system 1)
FIG. 4 is a sequence diagram showing a flow of processing (communication support method) until the translation of the uttered content of the customer is displayed in the communication support system 1 according to the first embodiment of the present invention. Moreover, FIG. 5 is a figure which shows the structure of the display information in Embodiment 1 of this invention. Moreover, FIG. 6 is a figure which shows the image which the display apparatus 200 in Embodiment 1 of this invention displays. In the communication support system 1, the flow of processing until the translation of the uttered content of the customer is displayed will be described using FIGS. 4 to 6.

図6の(a)は、表示装置200aの初期画像を示す図であり、図6の(b)は、表示装置200bの初期画像を示す図である。図6の(a)及び図6の(b)に示すように、表示装置200aの表示部250a及び表示装置200bの表示部250bに表示される初期画像にはそれぞれ、発話を促すテキスト800a及び800bを含む画像が表示されている。   (A) of FIG. 6 is a diagram showing an initial image of the display device 200a, and (b) of FIG. 6 is a diagram showing an initial image of the display device 200b. As shown in (a) of FIG. 6 and (b) of FIG. 6, in the initial image displayed on the display unit 250a of the display device 200a and the display unit 250b of the display device 200b, text 800a and 800b prompting for speech respectively An image including is displayed.

なお、図6の(a)及び(b)に示す初期画像を表示している期間において、表示装置200a及び表示装置200bが取得した音声の言語を判定し、後述する翻訳の処理において、当該言語に翻訳する構成であってもよい。例えば、表示装置200aが日本語の音声を取得し、表示装置200bが英語の音声を取得した場合、後述する翻訳処理(ステップS27)では、サーバ100は、表示装置200aから取得した音声に含まれる発話内容を英語に翻訳し、表示装置200bから取得した音声に含まれる発話内容を日本語に翻訳する構成であってもよい。なお、本明細書では、店員が日本語を話し、客が英語を話す場合について、説明する。   In the period during which the initial image shown in (a) and (b) of FIG. 6 is displayed, the language of the voice acquired by the display device 200a and the display device 200b is determined, and in the process of translation described later It may be configured to translate into For example, when the display device 200a acquires Japanese speech and the display device 200b acquires English speech, the server 100 is included in the speech acquired from the display device 200a in a translation process (step S27) described later. The content of the utterance may be translated into English, and the content of the utterance included in the voice acquired from the display device 200b may be translated into Japanese. In the present specification, a store clerk speaks Japanese and a customer speaks English.

(ステップS1)
まず、表示装置200bの音声情報取得部233bは、音声受付部260bを介して客が発話した音声を含む音声情報を取得する。例えば、客が店員におでんを購入する方法を尋ねるため、「How can I buy it?」と発話すると、音声情報取得部233bは、「How can I buy it?」を含む音声情報を取得する。
(Step S1)
First, the voice information acquisition unit 233b of the display device 200b obtains voice information including the voice uttered by the customer via the voice reception unit 260b. For example, when the customer utters "How can I buy it?" To ask the store clerk how to buy the food, the voice information acquiring unit 233b acquires voice information including "How can I buy it?".

(ステップS3)
音声情報取得部233bは、取得した上記音声情報を、表示装置通信部210bを介してサーバ100に出力する。
(Step S3)
The voice information acquisition unit 233 b outputs the acquired voice information to the server 100 via the display device communication unit 210 b.

(ステップS5)
サーバ100の音声情報取得部131は、サーバ通信部110を介して上記音声情報を取得する。そして、音声情報取得部131は、上記音声情報を、音声抽出部132に出力する。
(Step S5)
The voice information acquisition unit 131 of the server 100 acquires the voice information via the server communication unit 110. Then, the voice information acquisition unit 131 outputs the voice information to the voice extraction unit 132.

(ステップS7)
音声抽出部132は、取得した上記音声情報に含まれている音声から客が発話した音声を抽出する。そして、抽出した音声を示す抽出音声情報を音声認識部133に出力する。
(Step S7)
The voice extraction unit 132 extracts the voice uttered by the customer from the voice included in the acquired voice information. Then, extracted voice information indicating the extracted voice is output to the voice recognition unit 133.

(ステップS9)
音声認識部133は、取得した上記抽出音声情報が示す音声を認識し、認識した発話内容を示す発話内容情報を表示情報生成部134に出力する。
(Step S9)
The voice recognition unit 133 recognizes the voice indicated by the acquired extracted voice information, and outputs, to the display information generation unit 134, utterance content information indicating the recognized utterance content.

(ステップS11、発話内容情報取得工程)
表示情報生成部134は、取得した上記発話内容情報含む表示情報を生成する。ここで、表示情報生成部134が生成する表示情報について、図5の(a)を用いて説明する。図5の(a)は、発話内容を表示するための表示情報の一例を示す図である。
(Step S11, utterance content information acquisition process)
The display information generation unit 134 generates display information including the acquired utterance content information. Here, the display information generated by the display information generation unit 134 will be described with reference to FIG. (A) of FIG. 5 is a figure which shows an example of the display information for displaying the content of utterance.

図5の(a)に示すように、発話内容を表示するための表示情報を「communication」と称する。「communication」は、図5の(a)に示すように、項目「cid」、項目「type」、項目「kind」、項目「state」、及び項目「data」によって構成されている。   As shown to (a) of FIG. 5, the display information for displaying the content of utterance is called "communication." As shown in (a) of FIG. 5, “communication” is configured by an item “cid”, an item “type”, an item “kind”, an item “state”, and an item “data”.

項目「cid」には、当該「communication」を他の「communication」と識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。   The item “cid” stores identification information for identifying the “communication” as another “communication”. More specifically, numbers of serial numbers are stored.

項目「type」には、後述する項目「data」に格納されている発話内容を発話した人を示す情報が格納される。より具体的には、客が発話したことを示す「customer」または店員が発話したことを示す「staff」が格納される。   The item “type” stores information indicating a person who has uttered the utterance content stored in the item “data” described later. More specifically, “customer” indicating that a customer uttered or “staff” indicating that a store clerk uttered is stored.

項目「kind」には、後述する項目「data」の種類を示す情報が格納される。より具体的には、発話内容を示す「speech」または発話内容の翻訳である翻訳発話内容を示す「trans」が格納される。   The item “kind” stores information indicating the type of the item “data” described later. More specifically, "speech" indicating the content of the utterance or "trans" indicating the content of the translated utterance that is a translation of the content of the utterance is stored.

項目「state」には、後述する吹き出しを新たに生成するか、または既に生成されている吹き出しを更新するか、を示す情報が格納される。より具体的には、吹き出しを新たに生成することを示す「new」または既に生成されている吹き出しを更新することを示す「update」が格納される。   The item “state” stores information indicating whether to newly generate a balloon to be described later or to update a balloon that has already been generated. More specifically, “new” indicating that a balloon is newly generated or “update” indicating that a balloon that has already been generated is updated is stored.

項目「data」には、発話内容または翻訳発話内容が格納される。   The item "data" stores the utterance content or the translated utterance content.

例えば、ステップS3において、音声情報取得部233bが「How can I buy it?」を含む音声情報を取得すると、ステップS11において表示情報生成部134は、図5の(a)に示すように、項目「cid」に「1」を格納し、項目「type」に「customer」を格納し、項目「kind」に「speech」を格納し、項目「state」に「new」を格納し、項目「data」に「How can I buy it?」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した上記表示情報を表示情報出力部136に出力する。   For example, in step S3, when the audio information acquisition unit 233b acquires audio information including "How can I buy it?", The display information generation unit 134 in step S11, as shown in (a) of FIG. “1” is stored in “cid”, “customer” is stored in item “type”, “speech” is stored in item “kind”, “new” is stored in item “state”, and item “data” Create “communication” in which “How can I buy it?” Is stored. Then, the display information generation unit 134 outputs the generated display information to the display information output unit 136.

(ステップS13、発話内容情報出力工程)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(Step S13, utterance content information output process)
The display information output unit 136 outputs the acquired display information to the display device 200a and the display device 200b via the server communication unit 110.

(ステップS15)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S15)
The display information acquisition unit 231b of the display device 200b acquires the display information via the display device communication unit 210b. Then, the display information acquisition unit 231 b outputs the display information to the display image generation unit 232 b.

(ステップS17)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「1」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「customer」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「How can I buy it?」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S17)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, first, the display image generation unit 232 b refers to the acquired display information, and “new” is stored in the item “state”, so “1” stored in the item “cid” Generate a balloon image associated with the. Subsequently, since “customer” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 b causes the customer to utter the utterance content included in the display information. It can be recognized as the uttered content. Therefore, the display image generation unit 232 b generates an image in which the text “How can I buy it?” Indicating the utterance content stored in the item “data” is enlarged in the above-described balloon. Note that the size of the character in this case indicates that it is larger than the character of the text indicating the uttered content uttered by the store clerk and the text indicating the translated uttered content obtained by translating the uttered content of the customer. Then, the display image generation unit 232 b outputs the generated display image to the display unit 250 b.

(ステップS19)
表示部250bは、取得した上記表示画像を表示する。
(Step S19)
The display unit 250b displays the acquired display image.

(ステップS21)
ステップS13においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S21)
When the server 100 outputs the display information in step S13, the display information acquisition unit 231a of the display device 200a acquires the display information via the display device communication unit 210a. Then, the display information acquisition unit 231a outputs the display information to the display image generation unit 232a.

(ステップS23)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「1」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「customer」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「How can I buy it?」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S23)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, first, the display image generation unit 232a refers to the acquired display information and “new” is stored in the item “state”, so “1” stored in the item “cid” Generate a balloon image associated with the. Subsequently, since “customer” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 a causes the customer to utter the utterance content included in the display information. It can be recognized as the uttered content. Therefore, the display image generation unit 232a generates an image in which the character of the text "How can I buy it?" Indicating the utterance content stored in the item "data" is reduced in the above-described balloon. Note that the size of the character in this case indicates that the text is smaller than the text representing the uttered content uttered by the store clerk and the text representing the translated uttered content obtained by translating the uttered content of the customer. Then, the display image generation unit 232a outputs the generated display image to the display unit 250a.

(ステップS25)
表示部250aは、取得した上記表示画像を表示する。
(Step S25)
The display unit 250a displays the acquired display image.

ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、客の発話内容を含む画像について、図6の(c)及び(d)を用いて説明する。図6の(c)は、店員向けの表示装置200aが表示する画像の例であり、図6の(d)は、客向けの表示装置200bが表示する画像の例である。   Here, an image that is displayed by the display unit 250a and the display unit 250b and that includes the content of the customer's utterance will be described using (c) and (d) of FIG. (C) of FIG. 6 is an example of an image displayed by the display device 200a for the store clerk, and (d) of FIG. 6 is an example of an image displayed by the display device 200b for a customer.

上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、客が発話した発話内容であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、新しく生成した吹き出し300aの中に発話内容を示すテキストの文字を小さくしたテキスト400aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、新しく生成した吹き出し300bの中に発話内容を示すテキストの文字を大きくしたテキスト400bを含ませ、表示する。なお、表示部250a及び250bがそれぞれ、上述した図6の(c)及び(d)に示す表示画像を表示するまでの期間、例えば、(1)「音声認識処理中」のテキストを含むポップアップウィンドウを表示する、(2)音声認識処理中を示すアイコンを表示する、といった、音声認識処理を実行中であることを客または店員に提示する構成であってもよい。   As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information and can recognize that the utterance content included in the display information is the utterance content uttered by the customer . Therefore, the display unit 250a of the display device 200a for the store clerk includes, in the newly generated balloon 300a, the text 400a in which the characters of the text indicating the utterance content are reduced and displayed. On the other hand, the display unit 250b of the display device 200b for customers includes, in the newly generated balloon 300b, the text 400b obtained by enlarging the character of the text indicating the content of the utterance and displays it. In addition, the display windows shown in (c) and (d) of FIG. 6 described above, for example, (1) pop-up window including the text “in speech recognition processing”, until the display units 250 a and 250 b respectively display the display images. (2) displaying an icon indicating that the voice recognition process is in progress, or the like may be displayed to a customer or a store clerk that the voice recognition process is being performed.

(ステップS27、発話内容出力工程)
ステップS13の処理が終わると、サーバ100の表示情報生成部134は、ステップS11において取得した発話内容情報を翻訳部135に出力する。翻訳部135は、取得した上記発話内容情報が示す発話内容の翻訳である翻訳発話内容を示す翻訳発話内容情報を生成する。そして、上記翻訳発話内容情報を表示情報生成部134に出力する。例えば、ステップS11において、表示情報生成部134が「How can I buy it?」を示す発話内容情報を取得している場合、翻訳部135は、「それはどのように購入できますか?」を示す翻訳発話内容情報を表示情報生成部134に出力する。
(Step S27, utterance content output process)
When the process of step S13 ends, the display information generation unit 134 of the server 100 outputs the utterance content information acquired in step S11 to the translation unit 135. The translation unit 135 generates translated utterance content information indicating translated utterance content, which is translation of the utterance content indicated by the acquired utterance content information. Then, the translation utterance content information is output to the display information generation unit 134. For example, in step S11, when the display information generation unit 134 has acquired utterance content information indicating "How can I buy it?", The translation unit 135 indicates "how can it be purchased?" The translation utterance content information is output to the display information generation unit 134.

(ステップS29、翻訳内容情報取得工程)
表示情報生成部134は、取得した上記翻訳発話内容情報を表示するための「communication」を生成する。より具体的には、表示情報生成部134は、項目「cid」に「1」を
格納し、項目「type」に「customer」を格納し、項目「kind」に「trans」を格納し、項
目「state」に「update」を格納し、項目「data」に「それはどのように購入できますか
?」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した上記表示情報を、表示情報出力部136に出力する。
(Step S29, translation content information acquisition process)
The display information generation unit 134 generates “communication” for displaying the acquired translated utterance content information. More specifically, the display information generation unit 134 stores “1” in the item “cid”, stores “customer” in the item “type”, stores “trans” in the item “kind”, and the item Store "update" in "state", and generate "communication" storing "how can I buy it?" In the item "data". Then, the display information generation unit 134 outputs the generated display information to the display information output unit 136.

(ステップS31、翻訳内容情報出力工程)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(Step S31, translation content information output process)
The display information output unit 136 outputs the acquired display information to the display device 200a and the display device 200b via the server communication unit 110.

(ステップS33)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S33)
The display information acquisition unit 231b of the display device 200b acquires the display information via the display device communication unit 210b. Then, the display information acquisition unit 231 b outputs the display information to the display image generation unit 232 b.

(ステップS35)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「1」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「customer」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「それはどのように購入できますか?」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S35)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, first, the display image generation unit 232 b refers to the acquired display information, and “update” is stored in the item “state”, so “1” stored in the item “cid” In the balloon associated with the image, an image further including text indicating the utterance content included in the display information is generated. Here, since “customer” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 b causes the customer to utter the utterance content included in the display information. It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232 b generates an image in which the text “How can it be purchased?” Indicating the utterance content stored in the item “data” is reduced in the above-described balloon. Note that the size of the character in this case indicates that the text is smaller than the text representing the uttered content uttered by the customer and the text representing the translated uttered content obtained by translating the uttered content of the store clerk. Then, the display image generation unit 232 b outputs the generated display image to the display unit 250 b.

(ステップS37)
表示部250bは、取得した上記表示画像を表示する。
(Step S37)
The display unit 250b displays the acquired display image.

(ステップS39)
ステップS31においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S39)
When the server 100 outputs the display information in step S31, the display information acquisition unit 231a of the display device 200a acquires the display information via the display device communication unit 210a. Then, the display information acquisition unit 231a outputs the display information to the display image generation unit 232a.

(ステップS41)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示画像を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「1」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「customer」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「それはどのように購入できますか?」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S41)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, the display image generation unit 232a first refers to the acquired display image, and “update” is stored in the item “state”, so “1” stored in the item “cid”. In the balloon associated with the image, an image further including text indicating the utterance content included in the display information is generated. Here, since “customer” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 a causes the customer to utter the utterance content included in the display information. It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232a generates an image in which the text "How can it be purchased?" Indicating the utterance content stored in the item "data" is enlarged in the above-described balloon. Note that the size of the character in this case indicates that it is larger than the character of the text representing the uttered content uttered by the customer and the text representing the translated uttered content obtained by translating the uttered content of the store clerk. Then, the display image generation unit 232a outputs the generated display image to the display unit 250a.

(ステップS43)
表示部250aは、取得した上記表示画像を表示する。
(Step S43)
The display unit 250a displays the acquired display image.

ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、客の翻訳発話内容を含む画像について、図6の(e)及び(f)を用いて説明する。図6の(e)は、店員向けの表示装置200aが表示する画像の他の例であり、図6の(f)は、客向けの表示装置200bが表示する画像の他の例である。   Here, images that are displayed by the display unit 250a and the display unit 250b, respectively, and that include the translated speech content of the customer will be described using (e) and (f) in FIG. (E) of FIG. 6 is another example of the image displayed by the display device 200a for the store clerk, and (f) of FIG. 6 is another example of the image displayed by the display device 200b for the customer.

上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、客が発話した発話内容の翻訳であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、既に生成していた吹き出し300aの中に翻訳発話内容を示すテキストの文字を大きくしたテキスト402aを含ませ、表示する。換言すると、表示画像生成部232aは、発話内容と当該発話内容の翻訳発話内容とがグループ化された表示画像を生成する。一方、客向けの表示装置200bの表示部250bは、既に生成していた吹き出し300bの中に翻訳発話内容を示すテキストの文字を小さくしたテキスト402bを含ませ、表示する(更新する)。   As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and recognize that the utterance content included in the display information is a translation of the utterance content uttered by the customer Can. Therefore, the display unit 250a of the display device 200a for the store clerk includes, in the balloon 300a already generated, the text 402a obtained by enlarging the character of the text indicating the translation uttered content. In other words, the display image generation unit 232a generates a display image in which the utterance content and the translated utterance content of the utterance content are grouped. On the other hand, the display unit 250b of the display device 200b for customers includes, in the balloon 300b already generated, the text 402b in which the characters of the text indicating the translation utterance content are reduced and displays (updates).

なお、表示部250a及び250bがそれぞれ、上述した図6の(c)及び(d)に示す表示画像を表示した後、図6の(e)及び(f)に示す表示画像を表示するまでの期間、例えば、(1)「翻訳処理中」のテキストを含むポップアップウィンドウを表示する、(2)翻訳処理中を示すアイコンを表示する、といった、翻訳処理を実行中であることを客または店員に提示する構成であってもよい。   After the display units 250a and 250b display the display images shown in (c) and (d) of FIG. 6 described above, respectively, until the display images shown in (e) and (f) of FIG. During the period, for example, (1) displaying a pop-up window containing the text “in translation process”, (2) displaying an icon indicating that the translation process is in progress, etc. It may be a configuration to be presented.

(コミュニケーション支援システム1の処理2)
図7は、本発明の実施形態1に係るコミュニケーション支援システム1において、店員の発話内容の翻訳が表示されるまでの処理の流れを示すシークエンス図である。また、図8は、本発明の実施形態1における表示装置200が表示する画像を示す図である。コミュニケーション支援システム1において、店員の発話内容の翻訳が表示されるまでの処理の流れについて、図7及び図8を用いて説明する。
(Process 2 of communication support system 1)
FIG. 7 is a sequence diagram showing a flow of processing until the translation of the content of the utterance of the store clerk is displayed in the communication support system 1 according to the first embodiment of the present invention. Moreover, FIG. 8 is a figure which shows the image which the display apparatus 200 in Embodiment 1 of this invention displays. The flow of processing until the translation of the contents of the sales clerk is displayed in the communication support system 1 will be described using FIGS. 7 and 8.

(ステップS51)
上述したステップS43において、表示装置200aの表示部250aが客の発話内容の翻訳を含む表示画像を表示すると、音声情報取得部233aは、音声受付部260aを介して店員が発話した音声を含む音声情報を取得する。例えば、店員が客におでんを購入する方法を教えるため、「おでんですか。欲しいものを注文して下さい」と発話すると、音声情報取得部233aは、「おでんですか。欲しいものを注文して下さい」を含む音声情報を取得する。
(Step S51)
In step S43 described above, when the display unit 250a of the display device 200a displays the display image including the translation of the uttered content of the customer, the voice information acquisition unit 233a outputs the voice including the voice uttered by the store clerk via the voice reception unit 260a. Get information. For example, if a clerk speaks "Oden? Please order what you want" to teach customers how to buy Oden, the voice information acquisition unit 233a will ask "Oden. Get voice information including "Please."

(ステップS53)
音声情報取得部233aは、取得した上記音声情報を、表示装置通信部210aを介してサーバ100に出力する。
(Step S53)
The voice information acquisition unit 233a outputs the acquired voice information to the server 100 via the display device communication unit 210a.

サーバ100の音声情報取得部131が音声情報を取得し、音声認識部133が発話内容を表示情報生成部134に出力する処理については、上述したステップS5〜ステップS9と同じであるため、説明は省略する。   The process of the speech information acquisition unit 131 of the server 100 acquiring speech information and the speech recognition unit 133 outputting the utterance content to the display information generation unit 134 is the same as steps S5 to S9 described above, so I omit it.

(ステップS11)
表示情報生成部134は、取得した上記発話内容情報含む表示情報を生成する。例えば、ステップS53において、音声情報取得部233aが「おでんですか。欲しいものを注文して下さい」を含む音声情報を取得すると、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「speech」を格納し、項目「state」に「new」を格納し、項目「data」に「おでんですか。欲しいものを注文して下さい」を格納した「communication」を生成する。そして、表示情報生成部134は、上記表示情報を表示情報出力部136に出力する。
(Step S11)
The display information generation unit 134 generates display information including the acquired utterance content information. For example, in step S53, when the audio information acquisition unit 233a acquires audio information including "Oden? Do you want to order?", The display information generation unit 134 stores "2" in the item "cid". Then, store "staff" in the item "type", store "speech" in the item "kind", store "new" in the item "state", and "Oden" in the item "data". Create a "communication" containing "order". Then, the display information generation unit 134 outputs the display information to the display information output unit 136.

(ステップS13)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(Step S13)
The display information output unit 136 outputs the acquired display information to the display device 200a and the display device 200b via the server communication unit 110.

(ステップS15)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S15)
The display information acquisition unit 231b of the display device 200b acquires the display information via the display device communication unit 210b. Then, the display information acquisition unit 231 b outputs the display information to the display image generation unit 232 b.

(ステップS17)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「2」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S17)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, first, the display image generation unit 232b refers to the acquired display information, and since "new" is stored in the item "state", "2" stored in the item "cid" Generate a balloon image associated with the. Subsequently, since “staff” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 b causes the store clerk to utter the utterance content included in the display information It can be recognized as the uttered content. Therefore, the display image generation unit 232b generates an image in which the text "Oden? Please order what you want." Indicating the utterance content stored in the item "data" is reduced in the above balloon. Do. Note that the size of the character in this case indicates that the text is smaller than the text representing the uttered content uttered by the customer and the text representing the translated uttered content obtained by translating the uttered content of the store clerk. Then, the display image generation unit 232 b outputs the generated display image to the display unit 250 b.

(ステップS19)
表示部250bは、取得した上記表示画像を表示する。
(Step S19)
The display unit 250b displays the acquired display image.

(ステップS21)
ステップS13においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S21)
When the server 100 outputs the display information in step S13, the display information acquisition unit 231a of the display device 200a acquires the display information via the display device communication unit 210a. Then, the display information acquisition unit 231a outputs the display information to the display image generation unit 232a.

(ステップS23)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「new」が格納されているため、項目「cid」に格納されている「2」に関連付けた吹き出しの画像を生成する。続いて、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、客が発話した発話内容を示すテキスト及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S23)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, first, the display image generation unit 232a refers to the acquired display information, and “2” stored in the item “cid” because “new” is stored in the item “state”. Generate a balloon image associated with the. Subsequently, since “staff” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 a causes the store clerk to utter the utterance content included in the display information It can be recognized as the uttered content. Therefore, the display image generation unit 232a generates an image in which the text "Oden? Please order what you want." Indicating the utterance content stored in the item "data" is enlarged in the above balloon. Do. Note that the size of the character in this case indicates that it is larger than the character of the text representing the uttered content uttered by the customer and the text representing the translated uttered content obtained by translating the uttered content of the store clerk. Then, the display image generation unit 232a outputs the generated display image to the display unit 250a.

(ステップS25)
表示部250aは、取得した上記表示画像を表示する。
(Step S25)
The display unit 250a displays the acquired display image.

ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、店員の発話内容を含む画像について、図8の(a)及び(b)を用いて説明する。図8の(a)は、店員向けの表示装置200aが表示する画像の他の例であり、図8の(b)は、客向けの表示装置200bが表示する画像の他の例である。   Here, an image that is displayed by the display unit 250a and the display unit 250b and that includes the content of the utterance of the store clerk will be described using (a) and (b) in FIG. (A) of FIG. 8 is another example of the image which the display apparatus 200a for shop assistants displays, (b) of FIG. 8 is another example of the image which the display apparatus 200b for customers displays.

上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、新しく生成した吹き出し302aの中に発話内容を示すテキストの文字を大きくしたテキスト404aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、新しく生成した吹き出し302bの中に発話内容を示すテキストの文字を小さくしたテキスト404bを含ませ、表示する。   As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and can recognize that the utterance content included in the display information is the utterance content uttered by the store clerk . Therefore, the display unit 250a of the display device 200a for the store clerk includes and displays the text 404a obtained by enlarging the character of the text indicating the uttered content in the newly generated balloon 302a. On the other hand, the display unit 250b of the display device 200b for customers includes, in the newly generated balloon 302b, the text 404b obtained by reducing the size of the text indicating the uttered content and displays it.

(ステップS27)
ステップS13の処理が終わると、サーバ100の表示情報生成部134は、ステップS11において取得した発話内容情報を翻訳部135に出力する。翻訳部135は、取得した上記発話内容情報の翻訳である翻訳内容を示す翻訳発話内容情報を生成する。そして、上記翻訳発話内容情報を表示情報生成部134に出力する。例えば、ステップS11において、表示情報生成部134が「おでんですか。欲しいものを注文して下さい」を示す発話内容情報を取得している場合、翻訳部135は、「Oden? You order what you want.」を示す翻訳発話内容情報を表示情報生成部134に出力する。
(Step S27)
When the process of step S13 ends, the display information generation unit 134 of the server 100 outputs the utterance content information acquired in step S11 to the translation unit 135. The translation unit 135 generates translated utterance content information indicating translation content which is a translation of the acquired utterance content information. Then, the translation utterance content information is output to the display information generation unit 134. For example, in step S11, when the display information generation unit 134 has acquired utterance content information indicating “Oden? Do you want what you want?”, The translation unit 135 “Oden? You order what you want . ”Is output to the display information generation unit 134.

(ステップS29)
表示情報生成部134は、取得した上記翻訳発話内容を表示するための「communication」を生成する。より具体的には、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「trans」を格納し、項目「state」に「update」を格納し、項目「data」に「Oden? You order what you want.」を格納した「communication」を生成する。そして、表示情報生成部134は、上記表示情報を、表示情報出力部136に出力する。
(Step S29)
The display information generation unit 134 generates “communication” for displaying the acquired translated utterance content. More specifically, the display information generation unit 134 stores “2” in the item “cid”, stores “staff” in the item “type”, stores “trans” in the item “kind”, and the item "Update" is stored in "state", and "communication" in which "Oden? You order what you want." Is stored in the item "data" is generated. Then, the display information generation unit 134 outputs the display information to the display information output unit 136.

(ステップS31)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置200a及び表示装置200bに出力する。
(Step S31)
The display information output unit 136 outputs the acquired display information to the display device 200a and the display device 200b via the server communication unit 110.

(ステップS33)
表示装置200bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S33)
The display information acquisition unit 231b of the display device 200b acquires the display information via the display device communication unit 210b. Then, the display information acquisition unit 231 b outputs the display information to the display image generation unit 232 b.

(ステップS35)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「Oden? You order what you want.」の文字を大きくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きいことを指している。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S35)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, first, the display image generation unit 232b refers to the acquired display information, and “2” stored in the item “cid” because “update” is stored in the item “state”. In the balloon associated with the image, an image further including text indicating the utterance content included in the display information is generated. Here, since “staff” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 b causes the store clerk to utter the utterance content included in the display information It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232b generates an image in which the character of the text "Oden? You order what you want." Indicating the utterance content stored in the item "data" is enlarged in the above-mentioned balloon. Note that the size of the character in this case indicates that it is larger than the character of the text indicating the uttered content uttered by the store clerk and the text indicating the translated uttered content obtained by translating the uttered content of the customer. Then, the display image generation unit 232 b outputs the generated display image to the display unit 250 b.

(ステップS37)
表示部250bは、取得した上記表示画像を表示する。
(Step S37)
The display unit 250b displays the acquired display image.

(ステップS39)
ステップS31においてサーバ100が表示情報を出力すると、表示装置200aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S39)
When the server 100 outputs the display information in step S31, the display information acquisition unit 231a of the display device 200a acquires the display information via the display device communication unit 210a. Then, the display information acquisition unit 231a outputs the display information to the display image generation unit 232a.

(ステップS41)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しの中に、項目「data」に格納されている発話内容を示すテキスト「Oden? You order what you want.」の文字を小さくした画像を生成する。なお、この場合の文字の大きさは、店員が発話した発話内容を示すテキスト及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より小さいことを指している。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S41)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, first, the display image generation unit 232a refers to the acquired display information, and “2” stored in the item “cid” because “update” is stored in the item “state”. In the balloon associated with the image, an image further including text indicating the utterance content included in the display information is generated. Here, since “staff” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 a causes the store clerk to utter the utterance content included in the display information. It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232a generates an image in which the characters of the text "Oden? You order what you want." Indicating the utterance content stored in the item "data" are reduced in the above-mentioned balloon. Note that the size of the character in this case indicates that the text is smaller than the text representing the uttered content uttered by the store clerk and the text representing the translated uttered content obtained by translating the uttered content of the customer. Then, the display image generation unit 232a outputs the generated display image to the display unit 250a.

(ステップS43)
表示部250aは、取得した上記表示画像を表示する。
(Step S43)
The display unit 250a displays the acquired display image.

ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、店員の翻訳発話内容を含む画像について、図8の(c)及び(d)を用いて説明する。図8の(c)は、店員向けの表示装置200aが表示する画像の他の例であり、図8の(d)は、客向けの表示装置200bが表示する画像の他の例である。   Here, images that are displayed by the display unit 250a and the display unit 250b, respectively, and that include the translation utterance content of the store clerk will be described using (c) and (d) in FIG. (C) of FIG. 8 is another example of the image which the display apparatus 200a for shop assistants displays, and (d) of FIG. 8 is another example of the image which the display apparatus 200b for customers displays.

上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、店員向けの表示装置200aの表示部250aは、既に生成していた吹き出し302aの中に翻訳発話内容を示すテキストの文字を小さくしたテキスト406aを含ませ、表示する。一方、客向けの表示装置200bの表示部250bは、既に生成していた吹き出し302bの中に翻訳発話内容を示すテキストの文字を大きくしたテキスト406bを含ませ、表示する。   As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and recognize that the utterance content included in the display information is a translation of the utterance content uttered by the store clerk Can. Therefore, the display unit 250a of the display device 200a for the store clerk includes and displays, in the balloon 302a already generated, the text 406a in which the character of the text indicating the translation uttered content is reduced. On the other hand, the display unit 250b of the display device 200b for customers includes, in the balloon 302b already generated, the text 406b obtained by enlarging the character of the text indicating the translation utterance content and displays it.

このように、本実施形態に係るコミュニケーション支援システム1では、店員向け画像及び客向け画像の少なくとも何れかを表示する表示装置200は、表示すべき情報を含む表示情報(communication)を含む表示情報を取得し、表示情報の示す表示画像であって、表示装置200が店員向けであるか客向けであるのかに応じた表示態様を有する表示画像を生成し、当該表示画像を表示する。そのため、店員向けの表示装置200aは、店員が見たいテキストの文字を大きく表示し、店員が見なくてもいいテキストの文字を小さく表示する。一方、客向けの表示装置200bは、客が見たいテキストの文字を大きく表示し、客が見なくてもいいテキストの文字を小さく表示する。   As described above, in the communication support system 1 according to the present embodiment, the display device 200 that displays at least one of the image for the store clerk and the image for the customer displays the display information including the communication including the information to be displayed. The display image is acquired and is a display image indicated by the display information, and a display image having a display mode according to whether the display device 200 is for a store clerk or a customer is generated, and the display image is displayed. Therefore, the display device 200 a for sales clerks displays text characters that the sales clerk wants to see in a large size, and displays small text characters that the sales clerk does not have to look at. On the other hand, the display device 200b for customers displays the characters of the text that the customer wants to see large, and displays the characters of the text that the customer does not need to see small.

また、コミュニケーション支援システム1では、表示装置200a及び表示装置200bがそれぞれ表示する画像は、表示態様は異なるが情報量は同じである。そのため、店員と客とは、例えば、自らが発した発話内容が翻訳されていること、相手が自らの発した発話内容の翻訳を待っていること、などといった情報を互いに共有することができる。   Further, in the communication support system 1, the images displayed by the display device 200a and the display device 200b are different in the display mode but the information amount is the same. Therefore, the store clerk and the customer can share information with each other such as, for example, that the contents of the utterance issued by oneself are translated, and that the other party is waiting for the translation of the contents of the utterance issued by itself.

そのため、コミュニケーション支援システム1では、表示装置200の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。   Therefore, in the communication support system 1, the usability of the display device 200 can be improved and the communication between users can be facilitated.

なお、本実施形態では、店員向けの表示装置200aにおいて、表示画像生成部232aは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より大きい表示画像を生成したが、この構成に限定されない。表示画像生成部232は、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より目立つ表示画像を生成する構成であればよい。   In the present embodiment, in the display device 200a for the store clerk, the display image generation unit 232a stores the character of the text indicating the content of the utterance of the store clerk, and the character of the text indicating the translation uttered content obtained by translating the uttered content of the customer. In the present embodiment, a display image is generated that is larger than the character of the text representing the translated uttered content obtained by translating the uttered content of and the character of the text representing the uttered content of the customer. The display image generation unit 232 is a text character indicating the uttered content of the store clerk, and a text character indicating the translated uttered content obtained by translating the uttered content of the customer is a text character representing the translated uttered content obtained by translating the uttered content of the store clerk Any configuration may be used as long as it generates a display image that is more prominent than the text character indicating the content of the customer's speech.

ここで、「店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より目立つ」とは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字より大きい、太い、色が濃い等が挙げられる。   Here, “the character of the text showing the uttered content of the store clerk and the character of the text showing the translated uttered content obtained by translating the uttered content of the customer are the text of the translated uttered content obtained by translating the uttered content of the store clerk The text of the text showing the content is more prominent than the text of the text of the store clerk, and the text of the text showing the translation uttered contents obtained by translating the uttered contents of the customer translates the translated uttered contents obtained by translating the uttered contents of the store clerk The text may be larger than the text of the text shown and the text of the text indicating the uttered content of the customer, or may be thicker or darker.

また、表示画像生成部232aは、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字を大きくする、太くする、色を濃くする構成であってもよいし、店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字及び客の発話内容を示すテキストの文字を小さくする、細くする、色を薄くする構成であってもよい。   In addition, the display image generation unit 232a is configured to enlarge, thicken, or darken the characters of the text indicating the uttered content of the store clerk and the translated uttered content obtained by translating the uttered content of the customer. It may be configured to reduce the size of, reduce the size of, and reduce the size of the characters of the text representing the translated uttered content obtained by translating the uttered content of the store clerk and the text representing the uttered content of the customer.

また、上記構成は客向けの表示装置200bでも同様であり、表示画像生成部232bは、客の発話内容を示すテキストの文字及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字が、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字より目立つ表示画像を生成する構成であれば良い。また、表示画像生成部232bは、客の発話内容を示すテキストの文字及び店員の発話内容を翻訳した翻訳発話内容を示すテキストの文字を大きくする、太くする、色を濃くする構成であってもよいし、店員の発話内容を示すテキストの文字及び客の発話内容を翻訳した翻訳発話内容を示すテキストの文字を小さくする、細くする、色を薄くする構成であってもよい。   Further, the above configuration is the same as in the display device 200b for customers, and the display image generation unit 232b has the characters of the text indicating the content of the customer's utterance and the characters of the text indicating the translation content of the utterance obtained by translating the content of the clerk It is sufficient that the display image is generated so as to be more prominent than the characters of the text indicating the uttered content of the store clerk and the translated uttered content indicating the translated utterance content of the customer. In addition, the display image generation unit 232b is configured to enlarge, thicken, or darken the characters of the text indicating the uttered content of the customer and the translated uttered content obtained by translating the uttered content of the store clerk. Alternatively, the character of the text indicating the uttered content of the store clerk and the character of the text indicating the translated uttered content obtained by translating the uttered content of the customer may be reduced, thinned, or lightened.

〔実施形態2〕
本発明の他の実施形態に係るコミュニケーション支援システム2について、図9〜図13に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
Second Embodiment
It will be as follows if the communication assistance system 2 which concerns on other embodiment of this invention is demonstrated based on FIGS. 9-13. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended and the description is abbreviate | omitted.

(コミュニケーション支援システム2)
コミュニケーション支援システム2は、サーバ101及び表示装置201によって構成され、サーバ101及び表示装置201は、上述した実施形態におけるコミュニケーション支援システム1におけるサーバ100及び表示装置200が備えている各機能に加えて、サーバ101はキーフレーズを検索し、表示装置201は、キーフレーズを強調表示し、さらにキーフレーズに関連した図を表示する。本実施形態におけるサーバ101について、図9を用いて説明する。なお、表示装置201の構成は、実施形態1における表示装置200と同じであるため、説明を省略する。
(Communication support system 2)
The communication support system 2 is configured by the server 101 and the display device 201. The server 101 and the display device 201 are added to the functions of the server 100 and the display device 200 in the communication support system 1 in the embodiment described above. The server 101 retrieves the key phrase, the display device 201 highlights the key phrase, and further displays the diagram associated with the key phrase. The server 101 in the present embodiment will be described with reference to FIG. In addition, since the structure of the display apparatus 201 is the same as that of the display apparatus 200 in Embodiment 1, description is abbreviate | omitted.

(サーバ101)
図9は、本発明の実施形態2におけるサーバ101の要部構成を示すブロック図である。サーバ101は、図9に示すように、実施形態1におけるサーバ100が備えているサーバ制御部120に替えてサーバ制御部121を備え、キーフレーズデータベース150を更に備えている。
(Server 101)
FIG. 9 is a block diagram showing the main configuration of the server 101 in the second embodiment of the present invention. As shown in FIG. 9, the server 101 includes a server control unit 121 in place of the server control unit 120 included in the server 100 according to the first embodiment, and further includes a key phrase database 150.

(サーバ制御部121)
サーバ制御部121は、サーバ101の各部を統括的に制御するものであり、図9に示すように、サーバ制御部120の機能に加えて、キーフレーズ検索部(フレーズ判定部)137としても機能する。
(Server control unit 121)
The server control unit 121 generally controls each unit of the server 101, and also functions as a key phrase search unit (phrase determination unit) 137 in addition to the function of the server control unit 120 as shown in FIG. Do.

キーフレーズ検索部137は、後述するキーフレーズデータベース150を参照し、取得した発話内容情報及び翻訳発話内容情報の中のキーフレーズを検索する。そして、キーフレーズ検索部137は、キーフレーズを検出した場合、当該キーフレーズに関連付けられたキーフレーズ情報を、キーフレーズデータベース150から取得する。   The key phrase search unit 137 searches for a key phrase in the acquired utterance content information and the translated utterance content information with reference to a key phrase database 150 described later. Then, when the key phrase search unit 137 detects a key phrase, the key phrase search unit 137 acquires key phrase information associated with the key phrase from the key phrase database 150.

(キーフレーズデータベース150)
キーフレーズデータベース150には、キーフレーズに関する情報であるキーフレーズ情報が、キーフレーズに関連付けられたキーフレーズテーブルとして格納されている。キーフレーズデータベース150に格納されているキーフレーズテーブルについて、図10を用いて説明する。図10は、本発明の実施形態2におけるキーフレーズ情報が格納されたキーフレーズテーブルである。
(Key phrase database 150)
The key phrase database 150 stores key phrase information which is information related to the key phrase as a key phrase table associated with the key phrase. The key phrase table stored in the key phrase database 150 will be described with reference to FIG. FIG. 10 is a key phrase table storing key phrase information according to the second embodiment of the present invention.

キーフレーズテーブルは、図10に示すように、項目「ID」、項目「キーフレーズ(日本語)」、項目「キーフレーズ(英語)」、項目「置換文字列」、及び項目「画像No.」を含んでいる。   As shown in FIG. 10, the key phrase table has the item "ID", the item "key phrase (Japanese)", the item "key phrase (English)", the item "replacement character string", and the item "image No." Contains.

項目「ID」には、キーフレーズを他のキーフレーズと識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。   The item “ID” stores identification information for identifying a key phrase as another key phrase. More specifically, numbers of serial numbers are stored.

項目「キーフレーズ(日本語)」には、キーフレーズを日本語で表記したテキストが格納される。   The item "key phrase (Japanese)" stores text in which the key phrase is written in Japanese.

項目「キーフレーズ(英語)」には、キーフレーズを英語で表示したテキストが格納される。   The item “key phrase (English)” stores text in which the key phrase is displayed in English.

項目「置換文字列」は、キーフレーズに置き換えられるテキストが格納される。より具体的には、キーフレーズを強調表示する指示を含むテキストが格納される。   The item "replacement string" stores text to be replaced with a key phrase. More specifically, text is stored that includes instructions to highlight key phrases.

項目「画像No.」は、キーフレーズに関連した画像の番号が格納される。   The item "image No." stores the number of the image associated with the key phrase.

(コミュニケーション支援システム2の処理)
図11は、本発明の実施形態2に係るコミュニケーション支援システム2における処理の流れを示すシークエンス図である。また、図12は、本発明の実施形態2における表示装置201が表示する表示画像を示す図である。また、図13は、本発明の実施形態2における表示装置201が表示する他の表示画像を示す図である。本発明の実施形態2に係るコミュニケーション支援システム2の処理について、図11〜図13を用いて説明する。
(Processing of communication support system 2)
FIG. 11 is a sequence diagram showing a flow of processing in the communication support system 2 according to the second embodiment of the present invention. Moreover, FIG. 12 is a figure which shows the display image which the display apparatus 201 in Embodiment 2 of this invention displays. Moreover, FIG. 13 is a figure which shows the other display image which the display apparatus 201 in Embodiment 2 of this invention displays. The processing of the communication support system 2 according to the second embodiment of the present invention will be described using FIGS. 11 to 13.

まず、表示装置201が客または店員の発話した音声情報を取得し、発話テキスト及び翻訳テキストを表示する処理は、上述した実施形態1における処理と同じであるため、説明を省略する。   First, the process of the display device 201 acquiring the speech information uttered by the customer or the store clerk and displaying the speech text and the translation text is the same as the process in the first embodiment described above, and thus the description is omitted.

(ステップS101)
表示情報生成部134は、発話内容を表示するための表示情報を表示情報出力部136に出力すると、当該発話内容を示す発話内容情報をキーフレーズ検索部137に出力する。キーフレーズ検索部137は、キーフレーズデータベース150に格納されているキーフレーズテーブルを参照し、取得した上記発話内容情報が示す発話内容の中のキーフレーズを検索する。
(Step S101)
When the display information generation unit 134 outputs display information for displaying the utterance content to the display information output unit 136, the display information generation unit 134 outputs utterance content information indicating the utterance content to the key phrase search unit 137. The key phrase search unit 137 refers to the key phrase table stored in the key phrase database 150, and searches for a key phrase in the utterance content indicated by the acquired utterance content information.

(ステップS103)
キーフレーズ検索部137は、上記発話テキスト内にキーフレーズが検出されたか否かを判定する。
(Step S103)
The key phrase search unit 137 determines whether a key phrase is detected in the utterance text.

(ステップS105)
ステップS103において、「キーフレーズが検出された」と判定された場合(ステップS105:YES)、該当するキーレフレーズに関連付けられたキーフレーズ情報を、キーフレーズデータベース150から取得する。例えば、ステップS101において、キーフレーズ検索部137が「おでんですか。欲しいものを注文して下さい」を示す発話内容情報を取得した場合、図10に記載のキーフレーズテーブルを参照し、キーフレーズ「おでん」を検出する。そして、取得したキーフレーズ情報のうち、項目「置換文字列」に格納されているキーフレーズ情報を参照し、キーフレーズ「おでん」を、「<span dlink="1">おでん</span>」に置換し、置換後の発話内容情報を表示情報生成部134に出力する。また、キーフレーズ検索部137は、取得したキーフレーズ情報のうち、項目「画像No.」に格納されている「1」によって特定される画像を示す画像情報を表示情報生成部134に出力する。
(Step S105)
If it is determined in step S103 that "key phrase has been detected" (step S105: YES), key phrase information associated with the relevant key rephrase is acquired from the key phrase database 150. For example, in step S101, when the key phrase search unit 137 acquires utterance content information indicating “Oden? Do you want it?”, The key phrase table shown in FIG. "Oden" is detected. Then, referring to the key phrase information stored in the item “replacement string” among the acquired key phrase information, the key phrase “Oden” is “<span dlink =" 1 "> Oden </ span>" And output the utterance content information after replacement to the display information generation unit 134. Further, the key phrase search unit 137 outputs, to the display information generation unit 134, image information indicating an image specified by “1” stored in the item “image No.” among the acquired key phrase information.

(ステップS107)
表示情報生成部134は、置換後の発話内容情報が示す発話内容を表示するための表示情報を生成する。ここで、置換後の発話テキストには、画像の格納先を含んでいるため、上述した「communication」に加えて、画像を表示するための表示情報を生成する。画像を表示するための表示情報について、図5の(b)を用いて説明する。
(Step S107)
The display information generation unit 134 generates display information for displaying the utterance content indicated by the utterance content information after replacement. Here, since the utterance text after replacement includes the storage destination of the image, display information for displaying the image is generated in addition to the "communication" described above. Display information for displaying an image will be described using (b) of FIG.

図5の(b)は、画像を表示するための表示情報の一例を示す図である。図5の(b)に示すように、画像を表示するための表示情報を「display」と称する。「display」は、図5の(b)に示すように、項目「did」及び項目「data」によって構成されている。   (B) of FIG. 5 is a figure which shows an example of the display information for displaying an image. As shown in (b) of FIG. 5, display information for displaying an image is referred to as “display”. As shown in (b) of FIG. 5, “display” is configured by the item “did” and the item “data”.

項目「did」には、当該「display」を他の「display」と識別するための識別情報が格納される。より具体的には、通し番号の数字が格納される。   The item “did” stores identification information for identifying the “display” as another “display”. More specifically, numbers of serial numbers are stored.

項目「data」には、画像を示す画像情報または格納先を示す格納先情報が格納される。   The item “data” stores image information indicating an image or storage destination information indicating a storage destination.

例えば、表示情報生成部134が取得した画像情報が「ODEN1.png」であった場合、ステップS107において表示情報生成部134が生成する「display」には、図5の(b)に示すように、項目「did」に「1」が格納され、項目「data」に「ODEN1.png」が格納される。また、ステップS107において、表示情報生成部134は、項目「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「speech」を格納し、項目「state」に「update」を格納し、項目「data」に「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」を格納した「communication」を生成する。そして、表示情報生成部134は、生成した「display」及び「communication」を含む表示情報を、表示情報出力部136に出力する。   For example, when the image information acquired by the display information generation unit 134 is “ODEN1.png”, “display” generated by the display information generation unit 134 in step S107 is as shown in FIG. 5B. The item "did" stores "1", and the item "data" stores "ODEN1.png". In step S107, the display information generation unit 134 stores "2" in the item "cid", stores "staff" in the item "type", stores "speech" in the item "kind", and the item Store "update" in "state" and generate "communication" with "<span dlink =" 1 "> Oden? </ Span>? Please order what you want" in the item "data" . Then, the display information generation unit 134 outputs the display information including the generated “display” and “communication” to the display information output unit 136.

(ステップS109)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置201a及び表示装置201bに出力する。
(Step S109)
The display information output unit 136 outputs the acquired display information to the display device 201a and the display device 201b via the server communication unit 110.

(ステップS111)
表示装置201bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S111)
The display information acquisition unit 231b of the display device 201b acquires the display information via the display device communication unit 210b. Then, the display information acquisition unit 231 b outputs the display information to the display image generation unit 232 b.

(ステップS113)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しに含まれるテキストのうち、店員が発話した発話内容を示すテキスト「おでんですか。欲しいものを注文して下さい」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」に更新した上で、当該テキストの文字を小さくした画像を生成する。
(Step S113)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, the display image generation unit 232b first refers to "communication" of the acquired display information, and "update" is stored in the item "state", so the display image generation unit 232b stores it in the item "cid". In the balloon associated with “2”, there is generated an image further including text indicating the utterance content included in the display information. Here, since “staff” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 b causes the store clerk to utter the utterance content included in the display information It can be recognized as the uttered content. Therefore, among the texts included in the above-mentioned balloon, the display image generation unit 232b indicates the text “Oden? Please order what you want,” which is the contents of the utterance uttered by the store clerk, the utterance content included in the display information. Update the text to indicate "<span dlink =" 1 "> Oden </ span>? Order what you want" and then generate an image with the text in small size.

さらに、表示画像生成部232bは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。   Furthermore, the display image generation unit 232b generates a display image further including “ODEN1.png” stored in the item “data” with reference to “display” of the acquired display information. Then, the display image generation unit 232 b outputs the generated display image to the display unit 250 b.

(ステップS115)
表示部250bは、取得した上記表示画像を表示する。
(Step S115)
The display unit 250b displays the acquired display image.

(ステップS117)
ステップS109においてサーバ101が表示情報を出力すると、表示装置201aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S117)
When the server 101 outputs the display information in step S109, the display information acquisition unit 231a of the display device 201a acquires the display information via the display device communication unit 210a. Then, the display information acquisition unit 231a outputs the display information to the display image generation unit 232a.

(ステップS119)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストをさらに含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「speech」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しに含まれるテキストのうち、店員が発話した発話内容を示す「おでんですか。欲しいものを注文して下さい」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">おでん</span>ですか。欲しいものを注文してください」に更新した上で、当該テキストの文字を大きくした画像を生成する。
(Step S119)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, the display image generation unit 232a first refers to "communication" of the acquired display information, and "update" is stored in the item "state", so the display image generation unit 232a stores it in the item "cid". In the balloon associated with “2”, there is generated an image further including text indicating the utterance content included in the display information. Here, since “staff” is stored in the item “type” and “speech” is stored in the item “kind”, the display image generation unit 232 a causes the store clerk to utter the utterance content included in the display information. It can be recognized as the uttered content. Therefore, among the texts included in the above-mentioned balloon, the display image generation unit 232a indicates “Oden? Please order what you want,” which indicates the uttered contents uttered by the store clerk, and the uttered contents contained in the display information. Update the text to indicate "<span dlink =" 1 "> Oden </ span>? Order what you want" and then generate an image with the text in a larger size.

さらに表示画像生成部232aは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。   Further, the display image generation unit 232a refers to the “display” of the acquired display information, and generates a display image further including “ODEN1.png” stored in the item “data”. Then, the display image generation unit 232a outputs the generated display image to the display unit 250a.

(ステップS121)
表示部250aは、取得した上記表示画像を表示する。
(Step S121)
The display unit 250a displays the acquired display image.

ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、キーフレーズ及びキーフレーズに関連した画像を含む画像について、図12の(a)及び(b)を用いて説明する。図12の(a)は、店員向けの表示装置201aが表示する画像の例であり、図12の(b)は、客向けの表示装置201bが表示する画像の例である。   Here, an image that is displayed by the display unit 250 a and the display unit 250 b and that includes a key phrase and an image associated with the key phrase will be described using (a) and (b) in FIG. 12. (A) of FIG. 12 is an example of an image displayed by the display device 201a for the store clerk, and (b) of FIG. 12 is an example of an image displayed by the display device 201b for a customer.

上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれるキーフレーズ及び画像を含む表示画像を生成する。そのため、店員向けの表示装置201aの表示部250aは、吹き出し302aに含まれるテキスト404aに含まれるキーフレーズ(おでん)500aを太字に更新し、おでんの画像600aを含む表示画像を表示する。また、客向けの表示装置201bの表示部250bも同様に、吹き出し302bに含まれるテキスト404bに含まれるキーフレーズ(おでん)500bを太字に更新し、おでんの画像600bを含む表示画像を表示する。なお、強調表示の例として、太字以外にも、色を変える、背景色を変えるなども挙げられる。   As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and generate a display image including a key phrase and an image included in the display information. Therefore, the display unit 250a of the display device 201a for the store clerk updates the key phrase (oden) 500a included in the text 404a included in the balloon 302a to bold and displays a display image including the oden image 600a. Similarly, the display unit 250b of the display device 201b for customers updates the key phrase (oden) 500b included in the text 404b included in the balloon 302b to bold and displays a display image including the oden image 600b. In addition to bold, examples of highlighting may include changing the color, changing the background color, and the like.

続いて、コミュニケーション支援システム2では、翻訳テキストについても、上述したステップS101〜S121と同様の処理を実行する。翻訳テキストでは、検出されるキーフレーズは「Oden」であるため、ステップS105において、キーフレーズ検索部137が「Oden」を検出すると、キーフレーズ「Oden」を「<span dlink="1">Oden</span>」に置換し、置換後の発話内容情報を表示情報生成部134に出力する。また、キーフレーズ検索部137は、取得したキーフレーズ情報のうち、項目「画像No.」に格納されている「1」によって特定される画像を示す画像情報を表示情報生成部134に出力する。   Subsequently, in the communication support system 2, the same processing as the above-described steps S101 to S121 is executed also for the translation text. In the translated text, since the detected key phrase is "Oden", when the key phrase search unit 137 detects "Oden" in step S105, the key phrase "Oden" is "<span dlink =" 1 "> Oden. </ span> is output, and the utterance content information after replacement is output to the display information generation unit 134. Further, the key phrase search unit 137 outputs, to the display information generation unit 134, image information indicating an image specified by “1” stored in the item “image No.” among the acquired key phrase information.

そして、ステップS107において表示情報生成部134が生成する「display」には、項目「did」に「1」が格納され、項目「data」に「ODEN1.png」が格納される。また、ステップS107において、表示情報生成部134は、「cid」に「2」を格納し、項目「type」に「staff」を格納し、項目「kind」に「trans」を格納し、項目「state」に「update」を格納し、項目「data」に「<span dlink="1">Oden</span>? You order what you want.」を格納した「communication」を生成する。   Then, “1” is stored in the item “did” in “display” generated by the display information generation unit 134 in step S107, and “ODEN1.png” is stored in the item “data”. In step S107, the display information generation unit 134 stores "2" in "cid", stores "staff" in the item "type", stores "trans" in the item "kind", and stores the item " "update" is stored in state, and "communication" in which "<span dlink =" 1 "> Oden </ span>? You order what you want." is stored in the item "data" is generated.

続いて、表示装置201bの表示画像生成部232bは、ステップS113において、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232bは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストを更に含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232bは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232bは、上記吹き出しに含まれるテキストのうち、店員の翻訳発話内容を示すテキスト「Oden? You order what you want.」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">Oden</span>? You order what you want.」に更新した上で、当該テキストの文字を大きくした画像を生成する。   Subsequently, in step S113, the display image generation unit 232b of the display device 201b generates a display image having a display mode suitable for the customer. More specifically, the display image generation unit 232b first refers to "communication" of the acquired display information, and "update" is stored in the item "state", so the display image generation unit 232b stores it in the item "cid". In the balloon associated with “2”, there is generated an image further including text indicating the utterance content included in the display information. Here, since “staff” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 b causes the store clerk to utter the utterance content included in the display information It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232b selects the text "Oden? You order what you want." That indicates the content of the translated utterance of the store clerk among the texts included in the balloon and You can update to <span dlink = "1"> Oden </ span>? You order what you want. "and generate an image in which the text is enlarged.

更に、表示画像生成部232bは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。   Furthermore, the display image generation unit 232b generates a display image further including “ODEN1.png” stored in the item “data” with reference to “display” of the acquired display information. Then, the display image generation unit 232 b outputs the generated display image to the display unit 250 b.

また、表示装置201aの表示画像生成部232aは、ステップS119において、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、まず、表示画像生成部232aは、取得した表示情報の「communication」を参照し、項目「state」に「update」が格納されているため、項目「cid」に格納されている「2」に関連付けられた吹き出しに、当該表示情報に含まれる発話内容を示すテキストを更に含めた画像を生成する。ここで、項目「type」に「staff」が格納され、項目「kind」に「trans」が格納されているため、表示画像生成部232aは、当該表示情報に含まれる発話内容は、店員が発話した発話内容の翻訳であると認識することができる。そのため、表示画像生成部232aは、上記吹き出しに含まれるテキストのうち、店員の翻訳発話内容を示すテキスト「Oden? You order what you want.」を、当該表示情報に含まれる発話内容を示すテキスト「<span dlink="1">Oden</span>? You order what you want.」に更新した上で、当該テキストの文字を小さくした画像を生成する。   Further, in step S119, the display image generation unit 232a of the display device 201a generates a display image having a display mode suitable for the store clerk. More specifically, the display image generation unit 232a first refers to "communication" of the acquired display information, and "update" is stored in the item "state", so the display image generation unit 232a stores it in the item "cid". In the balloon associated with “2”, there is generated an image further including text indicating the utterance content included in the display information. Here, since “staff” is stored in the item “type” and “trans” is stored in the item “kind”, the display image generation unit 232 a causes the store clerk to utter the utterance content included in the display information. It can be recognized as a translation of the uttered content. Therefore, the display image generation unit 232a selects the text "Oden? You order what you want." That indicates the content of the translated utterance of the store clerk among the texts included in the above-mentioned balloon and the text "Available of the content included in the display information". You can update to <span dlink = "1"> Oden </ span>? You order what you want. "and generate an image in which the text is made smaller.

更に、表示画像生成部232aは、取得した表示情報の「display」を参照し、項目「data」に格納されている「ODEN1.png」を更に含めた表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。   Furthermore, the display image generation unit 232a generates a display image further including “ODEN1.png” stored in the item “data” with reference to “display” of the acquired display information. Then, the display image generation unit 232a outputs the generated display image to the display unit 250a.

ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、キーフレーズ及びキーフレーズに関連した画像を含む画像について、図13の(a)及び(b)を用いて説明する。図13の(a)は、店員向けの表示装置201aが表示する画像の他の例であり、図13の(b)は、客向けの表示装置201bが表示する画像の他の例である。   Here, an image that is displayed by the display unit 250 a and the display unit 250 b and that includes a key phrase and an image associated with the key phrase will be described using (a) and (b) in FIG. 13. (A) of FIG. 13 is another example of the image displayed by the display device 201a for the store clerk, and (b) of FIG. 13 is another example of the image displayed by the display device 201b for the customer.

上述したように、表示画像生成部232a及び表示画像生成部232bは、取得した表示情報を参照し、当該表示情報に含まれるキーフレーズ及び画像を含む表示画像を生成する。そのため、店員向けの表示装置201aの表示部250aは、吹き出し302aに含まれるテキスト406aに含まれるキーフレーズ(Oden)502aを太字に更新し、おでんの画像600aを含む表示画像を表示する。また、客向けの表示装置201bの表示部250bも同様に、吹き出し302bに含まれるテキスト406bに含まれるキーフレーズ(Oden)502bを太字に更新し、おでんの画像600bを含む表示画像を表示する。   As described above, the display image generation unit 232a and the display image generation unit 232b refer to the acquired display information, and generate a display image including a key phrase and an image included in the display information. Therefore, the display unit 250a of the display device 201a for the store clerk updates the key phrase (Oden) 502a included in the text 406a included in the balloon 302a to bold, and displays the display image including the oden image 600a. Similarly, the display unit 250b of the display device 201b for customers updates the key phrase (Oden) 502b included in the text 406b included in the balloon 302b to bold, and displays a display image including the oden image 600b.

このように、本実施形態に係るコミュニケーション支援システム2では、サーバ101は、発話内容または翻訳内容に所定のフレーズが含まれているか否かを判定し、所定のフレーズが含まれている場合、所定のフレーズを強調表示するよう表示装置201に対して指示する。また、コミュニケーション支援システム2では、表示装置201は、所定のフレーズに関連した画像を表示する。そのため、コミュニケーション支援システム2では、例えば、所定のフレーズとして商品名を設定することにより、当該商品名を客または店員が発話すると表示装置201は商品の画像を表示するので、表示装置201の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。   As described above, in the communication support system 2 according to the present embodiment, the server 101 determines whether the utterance content or the translation content includes the predetermined phrase, and if the predetermined phrase is included, the server 101 determines the predetermined content. The display device 201 is instructed to highlight the phrase Further, in the communication support system 2, the display device 201 displays an image associated with a predetermined phrase. Therefore, in the communication support system 2, for example, by setting the product name as a predetermined phrase, when the customer or the clerk speaks the product name, the display device 201 displays the image of the product, so the usability of the display device 201 is improved. It is possible to improve and facilitate communication between users.

なお、本実施形態では、「display」の「data」に画像情報が格納されている場合について説明したが、上述したように、「display」の「data」には画像の格納先を示す格納先情報が格納されていてもよい。この場合、表示画像生成部232は、当該格納先情報が示す格納先から画像を取得し、当該画像を含む表示画像を生成する。   In the present embodiment, the case where image information is stored in “data” of “display” has been described, but as described above, the storage destination indicating the storage destination of the image in “data” of “display” Information may be stored. In this case, the display image generation unit 232 acquires an image from the storage destination indicated by the storage destination information, and generates a display image including the image.

〔実施形態3〕
本発明の他の実施形態に係るコミュニケーション支援システム3について、図14〜図21に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
Third Embodiment
It will be as follows if the communication assistance system 3 which concerns on other embodiment of this invention is demonstrated based on FIGS. 14-21. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended and the description is abbreviate | omitted.

(コミュニケーション支援システム3)
コミュニケーション支援システム3はサーバ102及び表示装置202によって構成され、サーバ102及び表示装置202は、上述した実施形態におけるコミュニケーション支援システム2におけるサーバ101及び表示装置201が備えている各機能に加えて、客または店員による操作を示す操作情報を取得する。本実施形態におけるサーバ102及び表示装置202について、図14及び図15を用いて説明する。
(Communication support system 3)
The communication support system 3 is configured by the server 102 and the display device 202, and the server 102 and the display device 202 are customers in addition to the functions of the server 101 and the display device 201 in the communication support system 2 in the above-described embodiment. Or acquire operation information indicating the operation by the store clerk. The server 102 and the display device 202 in the present embodiment will be described with reference to FIGS. 14 and 15.

(サーバ102)
図14は、本発明の実施形態3におけるサーバ102の要部構成を示すブロック図である。サーバ102は、図14に示すように、実施形態2におけるサーバ101が備えているサーバ制御部121及びキーフレーズデータベース150に替えて、サーバ制御部122及びキーフレーズデータベース152を備えている。
(Server 102)
FIG. 14 is a block diagram showing the main configuration of the server 102 in the third embodiment of the present invention. As shown in FIG. 14, the server 102 includes a server control unit 122 and a key phrase database 152 instead of the server control unit 121 and the key phrase database 150 provided in the server 101 in the second embodiment.

(サーバ制御部122)
サーバ制御部122は、サーバ102の各部を統括的に制御するものであり、図14に示すように、サーバ制御部121の機能に加えて、操作情報取得部138としても機能する。
(Server control unit 122)
The server control unit 122 integrally controls the respective units of the server 102, and also functions as an operation information acquisition unit 138 in addition to the function of the server control unit 121 as shown in FIG.

操作情報取得部138は、サーバ通信部110を制御し、表示装置202から出力された操作情報を取得する。   The operation information acquisition unit 138 controls the server communication unit 110, and acquires operation information output from the display device 202.

(キーフレーズデータベース152)
キーフレーズデータベース152に格納されているキーフレーズテーブルを、図16に示す。図16は、本発明の実施形態3におけるキーフレーズ情報が格納されたキーフレーズテーブルである。
(Key phrase database 152)
The key phrase table stored in the key phrase database 152 is shown in FIG. FIG. 16 is a key phrase table storing key phrase information according to the third embodiment of the present invention.

キーフレーズテーブルは、図16に示すように、実施形態2におけるキーフレーズデータベース150に格納されていたキーフレーズテーブルに加えて、項目「ポークフラグ」を含んでいる。   The key phrase table, as shown in FIG. 16, includes an item “poke flag” in addition to the key phrase table stored in the key phrase database 150 in the second embodiment.

項目「ポークフラグ」には、関連付けられたキーフレーズがポークと関連しているか否かを示す情報が格納される。より具体的には、関連付けられたキーフレーズがポークと関連していることを示す「1」または関連付けられたキーフレーズがポークと関連していないことを示す「0」が格納される。   The item "poke flag" stores information indicating whether the associated key phrase is associated with the poke. More specifically, “1” indicating that the associated key phrase is associated with the poke or “0” indicating that the associated key phrase is not associated with the poke is stored.

(表示装置202)
図15は、本発明の実施形態3における表示装置202の要部構成を示すブロック図である。表示装置202は、図15に示すように、実施形態2における表示装置200が備えている表示装置制御部220に替えて表示装置制御部222を備え、操作受付部270を更に備えている。
(Display device 202)
FIG. 15 is a block diagram showing the main configuration of the display device 202 in Embodiment 3 of the present invention. As shown in FIG. 15, the display device 202 includes a display device control unit 222 instead of the display device control unit 220 provided in the display device 200 in the second embodiment, and further includes an operation reception unit 270.

操作受付部270は、ユーザの操作を受け付け、当該操作を示す操作情報を出力する。なお、操作受付部270は、表示部250と一体となったタッチパネル式表示部であってもよい。   The operation reception unit 270 receives a user's operation and outputs operation information indicating the operation. Operation accepting unit 270 may be a touch panel display unit integrated with display unit 250.

(表示装置制御部222)
表示装置制御部222は、表示装置202の各部を統括的に制御するものであり、図15に示すように、表示装置制御部220の機能に加えて、操作情報取得部234としても機能する。
(Display device control unit 222)
The display device control unit 222 centrally controls the respective units of the display device 202, and also functions as an operation information acquisition unit 234 in addition to the function of the display device control unit 220, as shown in FIG.

操作情報取得部234は、操作受付部270から出力された操作情報を取得し、表示装置通信部210を制御し、取得した操作情報をサーバ102に出力する。   The operation information acquisition unit 234 acquires the operation information output from the operation reception unit 270, controls the display device communication unit 210, and outputs the acquired operation information to the server 102.

(コミュニケーション支援システム3の処理1)
図17は、本発明の実施形態3における表示装置202が表示する表示画像を示す図である。コミュニケーション支援システム3の処理の内、キーフレーズに関連したオブジェクトであって、客または店員の操作を受け付けるオブジェクトを表示する処理について、上述した図4、図7、図11を用いて説明する。
(Process 1 of communication support system 3)
FIG. 17 is a view showing a display image displayed by the display device 202 according to the third embodiment of the present invention. Among the processes of the communication support system 3, a process of displaying an object related to a key phrase and accepting an operation of a customer or a store clerk will be described using FIGS. 4, 7 and 11 described above.

まず、上述した実施形態2において、図13に示す表示画像を表示装置201が表示した後、おでんの画像に含まれる「つくね」に対して客が「What is this?」と発話し、それに対して店員が「つくねです」と発話した場合、コミュニケーション支援システム3は、上述した図4、図7に示した処理に従い、表示装置201が表示画像を表示する。   First, in the second embodiment described above, after the display device 201 displays the display image shown in FIG. 13, the customer utters “What is this?” To “Tsukine” included in the image of Oden, and the display When the clerk utters "Tsukune", the communication support system 3 causes the display device 201 to display a display image according to the process shown in FIGS. 4 and 7 described above.

続いて、コミュニケーション支援システム3は図11に示した処理に従い、サーバ102は、ステップS101においてキーフレーズを検索する。この場合、発話内容にキーフレーズ「つくね」が含まれているため、キーフレーズ検索部137は、ステップS105において、「つくね」に関連付けられたキーフレーズ情報をキーフレーズデータベース152から取得する。そして、キーフレーズ検索部137は、キーフレーズを置換した発話内容情報と画像情報とを表示情報生成部134に出力する。更に、キーフレーズ検索部137は、ステップS105において、項目「ポークフラグ」に「1」が格納されていることを示すフラグ情報を表示情報生成部134に出力する。   Subsequently, the communication support system 3 searches for a key phrase in step S101 in accordance with the process shown in FIG. In this case, since the key phrase "Tsukune" is included in the utterance content, the key phrase search unit 137 acquires key phrase information associated with "Tsukune" from the key phrase database 152 in step S105. Then, the key phrase search unit 137 outputs, to the display information generation unit 134, the utterance content information in which the key phrase is replaced and the image information. Further, in step S105, the key phrase search unit 137 outputs flag information indicating that "1" is stored in the item "poke flag" to the display information generation unit 134.

表示情報生成部134は、ステップS107において、置換後の発話内容情報が示す発話内容を表示するための表示情報を生成する。ここで、表示情報生成部134は、取得したフラグ情報を参照し、当該フラグ情報が項目「ポークフラグ」に「1」が格納されていることを示す場合、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示すオブジェクト情報を含む表示情報を生成する。そして、ステップS109において、表示情報出力部136は当該表示情報を、サーバ通信部110を介して表示装置201a及び表示装置201bに出力する。   In step S107, the display information generation unit 134 generates display information for displaying the utterance content indicated by the utterance content information after replacement. Here, the display information generation unit 134 refers to the acquired flag information, and when the flag information indicates that “1” is stored in the item “poke flag”, an image that does not include a product that includes pork is included. The display information including the object information indicating the object that receives the operation to display the is generated. Then, in step S109, the display information output unit 136 outputs the display information to the display device 201a and the display device 201b via the server communication unit 110.

表示装置201bの表示画像生成部232bは、ステップS113において、上記表示情報が示す表示画像を生成する。ここで、上述したステップS113の処理に加えて、表示画像生成部232bは、表示情報に含まれているオブジェクト情報を参照する。なお、表示画像生成部232bは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、追加の処理は実行しない。   In step S113, the display image generation unit 232b of the display device 201b generates a display image indicated by the display information. Here, in addition to the process of step S113 described above, the display image generation unit 232b refers to object information included in the display information. The display image generation unit 232b does not execute the additional process when the referred object information indicates an object that receives an operation of displaying an image that does not include a product that includes pork.

続いて、表示装置201aの表示画像生成部232aは、ステップS119において、上記表示情報が示す表示画像を生成する。ここで、上述したステップS119の処理に加えて、表示画像生成部232aは、表示情報に含まれているオブジェクト情報を参照する。そして、表示画像生成部232aは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを含む表示画像を生成する。   Subsequently, in step S119, the display image generation unit 232a of the display device 201a generates a display image indicated by the display information. Here, in addition to the process of step S119 described above, the display image generation unit 232a refers to object information included in the display information. Then, when the referred object information indicates an object that receives an operation for displaying an image that does not include a product that includes pork, the display image generation unit 232a receives an operation that displays an image that does not include a product that includes pork. Generate a display image that contains objects.

ここで、表示部250a及び表示部250bがそれぞれ表示する画像であって、操作を受け付けるオブジェクトを含む画像及び操作を受け付けるオブジェクトを含まない画像について、図17の(a)を用いて説明する。図17の(a)は、店員向けの表示装置202aが表示する画像の例であり、(b)は、客向けの表示装置202bが表示する画像の例である。   Here, an image including an object that receives an operation and an image that does not include an object that receives an operation, which are images displayed by the display unit 250a and the display unit 250b, respectively, will be described with reference to FIG. (A) of FIG. 17 is an example of an image displayed by the display device 202a for the store clerk, and (b) is an example of an image displayed by the display device 202b for a customer.

図17の(a)に示すように、表示部250aは、キーフレーズ(つくね)510a及びキーフレーズ(chicken meatball)512aが強調表示され、キーフレーズに関連した画像602aを含み、更に、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトである「Porkless」ボタン604aを含む表示画像を表示する。一方、図17の(b)に示すように、表示部250bは、キーフレーズ(つくね)510b及びキーフレーズ(chicken meatball)512bが強調表示され、キーフレーズに関連した画像602bを含む画像を表示し、当該画像は操作を受け付けるオブジェクトは含まない。   As shown in (a) of FIG. 17, the display unit 250 a includes a key phrase (tea net) 510 a and a key phrase (chicken meatball) 512 a highlighted, includes an image 602 a related to the key phrase, and further includes pork. A display image including a "Porkless" button 604a, which is an object for receiving an operation to display an image not including the product to be displayed, is displayed. On the other hand, as shown in (b) of FIG. 17, the display unit 250 b displays an image including the image 602 b related to the key phrase with the key phrase (bush net) 510 b and the key phrase (chicken meatball) 512 b highlighted. , The image does not include an object that receives an operation.

なお、本実施形態では、客向けの表示装置202bは、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合であっても、追加の処理は実行しないとしたが、上述した店員向け表示装置202aと同様、「Porkless」ボタン604bを表示する構成であってもよい。また、店員向け表示装置202aも同様に、参照したオブジェクト情報が、豚肉が含まれる商品は含まない画像を表示する操作を受け付けるオブジェクトを示す場合、追加の処理は実行しない構成であってもよい。また、図17の(a)に示すように、表示装置202aは、初期画面に戻る操作を受け付けるオブジェクトである「Top Page」ボタン605aを含む表示画像を表示してもよい。   In the present embodiment, the customer-oriented display device 202b executes the additional process even when the referred object information indicates an object that receives an operation to display an image that does not include a product that includes pork. Although not described, the “Porkless” button 604 b may be displayed as in the case of the display device for a store clerk 202 a described above. Similarly, in the case of the store clerk display device 202a, when the referred object information indicates an object that receives an operation of displaying an image that does not include a product that includes pork, additional processing may not be performed. In addition, as illustrated in (a) of FIG. 17, the display device 202a may display a display image including a “Top Page” button 605a which is an object for receiving an operation to return to the initial screen.

また、本実施形態では、キーフレーズテーブルが「ポーク」と関連しているかを示す項目を含む場合について説明したが、この構成に限定されない。例えば、関連付けられたキーフレーズが他の素材(例えば、「野菜」など)と関連しているかを示す項目、関連付けられたキーフレーズの調理(例えば、「生もの」)の状態を示す項目、関連付けられたキーフレーズの属性を示す項目(例えば、項目「○○円以下」など)を含む構成であってもよい。   Further, in the present embodiment, the case has been described in which the key phrase table includes an item indicating whether the key phrase table is associated with “poke”, but the present invention is not limited to this configuration. For example, an item indicating whether the associated key phrase is associated with another material (eg, "vegetable" etc.), an item indicating the state of cooking of the associated key phrase (eg "raw"), association It may be configured to include an item indicating the attribute of the key phrase (for example, the item “less than or equal to ○ yen and the like”).

(コミュニケーション支援システム3の処理2)
図18は、本発明の実施形態3に係るコミュニケーション支援システム3における処理の流れを示すシークエンス図である。また、図19は、本発明の実施形態3における表示装置202が表示する他の表示画像を示す図である。コミュニケーション支援システム3において、上述した図17の表示画像を表示した後、客または店員の操作を受け付けた場合の処理について、図18及び図19を用いて説明する。
(Process 2 of communication support system 3)
FIG. 18 is a sequence diagram showing a flow of processing in the communication support system 3 according to Embodiment 3 of the present invention. Moreover, FIG. 19 is a figure which shows the other display image which the display apparatus 202 in Embodiment 3 of this invention displays. In the communication support system 3, after the display image of FIG. 17 described above is displayed, processing in the case of receiving an operation of a customer or a store clerk will be described using FIGS.

(ステップS201)
表示装置202aの操作情報取得部234aは、操作受付部270aを介して、「Porkless」ボタン604aが押されたことを示す操作情報を取得する。
(Step S201)
The operation information acquisition unit 234a of the display device 202a acquires, via the operation reception unit 270a, operation information indicating that the “Porkless” button 604a has been pressed.

(ステップS203)
操作情報取得部234aは、表示装置通信部210aを介して、取得した操作情報をサーバ102に出力する。
(Step S203)
The operation information acquisition unit 234a outputs the acquired operation information to the server 102 via the display device communication unit 210a.

(ステップS204)
サーバ102の操作情報取得部138は、サーバ通信部110を介して、上記操作情報を取得する。そして、操作情報取得部138は、取得した上記操作情報を、表示情報生成部134に出力する。
(Step S204)
The operation information acquisition unit 138 of the server 102 acquires the operation information via the server communication unit 110. Then, the operation information acquisition unit 138 outputs the acquired operation information to the display information generation unit 134.

(ステップS205)
表示情報生成部134は、取得した上記操作情報を参照し、表示情報を生成する。ここで、上記操作情報は、「Porkless」ボタン604aが押されたことを示すので、豚肉が含まれる商品は含まない画像を表示するための表示情報を生成する。より具体的には、表示情報生成部134は、項目「did」に「3」を格納し、項目「data」に豚肉が含まれる商品は含まない画像である「ODEN4.png」を格納した「display」を生成する。そして、表示情報生成部134は、生成した「display」を含む表示情報を、表示情報出力部136に出力する。
(Step S205)
The display information generation unit 134 generates display information with reference to the acquired operation information. Here, since the operation information indicates that the "Porkless" button 604a has been pressed, display information for displaying an image that does not include a product that includes pork is generated. More specifically, the display information generation unit 134 stores “ODEN4.png”, which is an image that stores “3” in the item “did” and does not include a product that contains pork in the item “data”. Generate "display". Then, the display information generation unit 134 outputs the display information including the generated “display” to the display information output unit 136.

(ステップS207)
表示情報出力部136は、取得した上記表示情報を、サーバ通信部110を介して表示装置202a及び表示装置202bに出力する。
(Step S207)
The display information output unit 136 outputs the acquired display information to the display device 202a and the display device 202b via the server communication unit 110.

(ステップS209)
表示装置202bの表示情報取得部231bは、表示装置通信部210bを介して上記表示情報を取得する。そして、表示情報取得部231bは、上記表示情報を表示画像生成部232bに出力する。
(Step S209)
The display information acquisition unit 231b of the display device 202b acquires the display information via the display device communication unit 210b. Then, the display information acquisition unit 231 b outputs the display information to the display image generation unit 232 b.

(ステップS211)
表示画像生成部232bは、上記表示情報が示す表示画像であって、客向けに応じた表示態様を有する表示画像を生成する。より具体的には、表示画像生成部232bは、取得した表示情報に含まれている「display」を参照し、表示画像に含まれる画像を項目「data」に格納されている「ODEN4.png」に更新した表示画像を生成する。そして、表示画像生成部232bは、生成した表示画像を表示部250bに出力する。
(Step S211)
The display image generation unit 232 b generates a display image which is a display image indicated by the display information and has a display mode according to the customer. More specifically, the display image generation unit 232b refers to "display" included in the acquired display information, and stores the image included in the display image in the item "data""ODEN4.png" Generate an updated display image. Then, the display image generation unit 232 b outputs the generated display image to the display unit 250 b.

(ステップS213)
表示部250bは、取得した上記表示画像を表示する。
(Step S213)
The display unit 250b displays the acquired display image.

(ステップS215)
ステップS207においてサーバ102が表示情報を出力すると、表示装置202aの表示情報取得部231aは、表示装置通信部210aを介して上記表示情報を取得する。そして、表示情報取得部231aは、上記表示情報を表示画像生成部232aに出力する。
(Step S215)
When the server 102 outputs the display information in step S207, the display information acquisition unit 231a of the display device 202a acquires the display information via the display device communication unit 210a. Then, the display information acquisition unit 231a outputs the display information to the display image generation unit 232a.

(ステップS217)
表示画像生成部232aは、上記表示情報が示す表示画像であって、店員向けに応じた表示態様を有する表示画像を生成する。より具体的には、表示画像生成部232aは、取得した表示情報に含まれている「display」を参照し、表示画像に含まれる画像を項目「data」に格納されている「ODEN4.png」に更新した表示画像を生成する。そして、表示画像生成部232aは、生成した表示画像を表示部250aに出力する。
(Step S217)
The display image generation unit 232a generates a display image which is a display image indicated by the display information and which has a display mode according to the store clerk. More specifically, the display image generation unit 232a refers to "display" included in the acquired display information, and stores the image included in the display image in the item "data""ODEN4.png" Generate an updated display image. Then, the display image generation unit 232a outputs the generated display image to the display unit 250a.

(ステップS219)
表示部250aは、取得した上記表示画像を表示する。
(Step S219)
The display unit 250a displays the acquired display image.

ここで、表示部250a及び表示部250bがそれぞれ表示する画像について、図19を用いて説明する。図19の(a)は、店員向けの表示装置202aが表示する他の表示画像の例であり、(b)は、客向けの表示装置202bが表示する他の表示画像の例である。   Here, images displayed by the display unit 250a and the display unit 250b will be described with reference to FIG. (A) of FIG. 19 is an example of another display image displayed by the display device 202a for the store clerk, and (b) is an example of another display image displayed by the display device 202 b for the customer.

図19の(a)に示すように、表示部250aは、豚肉が含まれる商品は含まない画像で606aを含む表示画像を表示する。また、表示部250bも同様に、豚肉が含まれる商品は含まない画像で606bを含む表示画像を表示する。   As shown in (a) of FIG. 19, the display unit 250a displays a display image including 606a as an image not including a product including pork. Similarly, the display unit 250b displays a display image including 606b as an image not including a product including pork.

また、操作を受け付けるオブジェクトは、テキストであってもよい。テキストを、操作を受け付けるオブジェクトとした場合について、図20を用いて説明する。図20は、本発明の実施形態3における表示装置202が表示する更に他の表示画像を示す図であり、(a)は、店員向けの表示装置202aが表示する更に他の表示画像の例であり、(b)は、客向けの表示装置202bが表示する更に他の表示画像の例である。   Also, an object that receives an operation may be text. The case where the text is an object for receiving an operation will be described with reference to FIG. FIG. 20 is a view showing still another display image displayed by the display device 202 according to the third embodiment of the present invention. FIG. 20A is an example of still another display image displayed by the display device 202a for the store clerk 7B is an example of still another display image displayed by the display device 202b for customers.

例えば、表示画像に含まれるテキスト「おでん」を、おでんの画像を表示する操作を受け付けるオブジェクトとした場合、表示装置202aは、図19の(a)に示す画像に含まれる「おでん」のテキスト500aまたは「Oden」のテキスト502aが押されたことを示す操作情報を取得すると、当該操作情報をサーバ102に出力する。そして、表示装置202aは、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202aは、図20の(a)に示すように、おでんの画像600aを含む表示画像を表示する。また、表示装置202bも同様に、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202bは、図20の(b)に示すように、おでんの画像600bを含む表示画像を表示する。   For example, when the text "oden" included in the display image is an object that receives an operation to display the image of the oden, the display device 202a displays the text 500a of "oden" included in the image illustrated in (a) of FIG. Alternatively, when the operation information indicating that the text 502 a of “Oden” is pressed is acquired, the operation information is output to the server 102. Then, the display device 202a acquires, from the server 102, display information including “display” in which “ODEN1.png” is stored in the item “data”. In this case, as shown in (a) of FIG. 20, the display device 202a displays a display image including the oden image 600a. Similarly, the display device 202 b also acquires, from the server 102, display information including “display” in which “ODEN1.png” is stored in the item “data”. In this case, as shown in (b) of FIG. 20, the display device 202b displays a display image including the oden image 600b.

また、表示装置202bにおいても、表示画像に含まれるテキスト「おでん」を、おでんの画像を表示する操作を受け付けるオブジェクトとした場合、図19の(b)に示す画像に含まれる「おでん」のテキスト500bまたは「Oden」のテキスト502bが押されたことを示す操作情報を取得すると、当該操作情報をサーバ102に出力する。そして、表示装置202bは、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202bは、図20の(b)に示すように、おでんの画像600bを含む表示画像を表示する。また、表示装置202aも同様に、サーバ102から、項目「data」に「ODEN1.png」が格納された「display」を含む表示情報を取得する。この場合、表示装置202aは、図20の(a)に示すように、おでんの画像600aを含む表示画像を表示する。   Further, also in the display device 202b, when the text "Oden" included in the display image is an object that receives an operation to display the image of Oden, the text of "Oden" included in the image shown in (b) of FIG. When the operation information indicating that the text 502 b of 500 b or “Oden” is pressed is acquired, the operation information is output to the server 102. Then, the display device 202b acquires, from the server 102, display information including “display” in which “ODEN1.png” is stored in the item “data”. In this case, as shown in (b) of FIG. 20, the display device 202b displays a display image including the oden image 600b. Similarly, the display device 202 a also acquires from the server 102 display information including “display” in which “ODEN1.png” is stored in the item “data”. In this case, as shown in (a) of FIG. 20, the display device 202a displays a display image including the oden image 600a.

このように、本実施形態に係るコミュニケーション支援システム3では、表示装置202は、キーフレーズに関連したオブジェクトであって、客または店員の操作を受け付けるオブジェクトを含む表示画像を生成する。そのため、コミュニケーション支援システム3では、表示装置202の使い勝手を向上させることができる。また、店員向けの表示装置202a及び客向けの表示装置202bの何れかにおいて操作を受け付けた場合であっても、店員向けの表示装置202a及び客向けの表示装置202bの表示画像が更新されるので、利用者同士のコミュニケーションを円滑にすることができる。   As described above, in the communication support system 3 according to the present embodiment, the display device 202 generates a display image including an object that is an object associated with a key phrase and receives an operation of a customer or a store clerk. Therefore, in the communication support system 3, the usability of the display device 202 can be improved. Further, even when the operation is accepted in any of the display device 202a for the store clerk and the display device 202b for the customer, the display images of the display device 202a for the store clerk and the display device 202b for the customer are updated. Communication between users can be facilitated.

〔実施形態4〕
本発明の他の実施形態に係るコミュニケーション支援システム4について、図21に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
Embodiment 4
The communication support system 4 according to another embodiment of the present invention will be described below with reference to FIG. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended and the description is abbreviate | omitted.

(コミュニケーション支援システム4)
コミュニケーション支援システム4は、サーバ103及び表示装置203によって構成される。上述した実施形態では、表示装置は2台(表示装置200a及び表示装置200bなど)で構成されていたが、コミュニケーション支援システム4では、表示装置が1台(表示装置203)である場合について説明する。なお、サーバ103は、上述したサーバ100と同様の機能を備えているため、説明は省略する。
(Communication support system 4)
The communication support system 4 includes a server 103 and a display device 203. In the embodiment described above, two display devices (the display device 200a and the display device 200b, etc.) are configured, but in the communication support system 4, a case where the display device is one (display device 203) will be described. . In addition, since the server 103 is equipped with the function similar to the server 100 mentioned above, description is abbreviate | omitted.

(表示装置203)
図21は、本発明の実施形態4における表示装置203の要部構成を示すブロック図である。表示装置203は、図21に示すように、表示装置通信部210、表示装置制御部223、表示部251、及び音声受付部260を備えている。なお、表示装置通信部210及び音声受付部260は上述した機能と同様の機能を備えているため、説明は省略する。
(Display device 203)
FIG. 21 is a block diagram showing the main configuration of the display device 203 in the fourth embodiment of the present invention. As shown in FIG. 21, the display device 203 includes a display device communication unit 210, a display device control unit 223, a display unit 251, and an audio reception unit 260. In addition, since the display device communication unit 210 and the voice reception unit 260 have the same functions as the functions described above, the description will be omitted.

表示部251は、上述した表示部250の機能に加えて、店員向け画像を表示する第1の表示領域と、客向け画像を表示する第2の表示領域を備えている。そして、表示部251は、表示装置制御部223が出力する表示画像のうち、店員向けの表示画像である第1の表示画像を上記第1の表示領域に表示し、客向けの表示画像である第2の表示画像を上記第2の表示領域に表示する。   In addition to the functions of the display unit 250 described above, the display unit 251 includes a first display area for displaying an image for a shop clerk and a second display area for displaying an image for a customer. Then, the display unit 251 displays the first display image, which is a display image for the store clerk, among the display images output by the display device control unit 223 in the first display area, and is a display image for the customer. A second display image is displayed in the second display area.

(表示装置制御部223)
表示装置制御部223は、表示装置203の各部を統括的に制御するものであり、図21に示すように、上述した表示装置制御部220における表示画像生成部232に替えて、表示画像生成部240として機能する。
(Display device controller 223)
The display device control unit 223 totally controls the respective units of the display device 203, and as shown in FIG. 21, a display image generation unit instead of the display image generation unit 232 in the display device control unit 220 described above It functions as 240.

表示画像生成部240は、店員向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像と、上記第2の表示領域に表示する表示画像であって、上記第1の表示態様とは異なる第2の表示態様を有する表示画像である第2の表示画像とを生成し、表示部251に出力する。   The display image generation unit 240 is a first display image which is a display image having a first display mode which is a display mode for a store clerk, and a display image to be displayed in the second display area, which is the first display image. And a second display image having a second display mode different from the second display mode is output to the display unit 251.

このように、本実施形態に係るコミュニケーション支援システム4では、店員向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像を、表示部251の第1の表示領域に表示し、客向けの表示態様である第2の表示態様を有する表示画像である第2の表示画像を、表示部251の第2の表示領域に表示する。そのため、上述の実施形態と同様、表示装置203の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。   As described above, in the communication support system 4 according to the present embodiment, the first display image, which is the display image having the first display mode that is the display mode for the store clerk, is displayed in the first display area of the display unit 251. A second display image, which is a display image that is displayed and has a second display mode that is a display mode for customers, is displayed in a second display area of the display unit 251. Therefore, as in the above-described embodiment, the usability of the display device 203 can be improved and communication between users can be facilitated.

〔実施形態5〕
本発明の他の実施形態に係るコミュニケーション支援システム5について、図22に基づいて説明すれば、以下のとおりである。なお、説明の便宜上、前記実施形態にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を省略する。
Fifth Embodiment
The communication support system 5 according to another embodiment of the present invention will be described below with reference to FIG. In addition, about the member which has the same function as the member demonstrated in the said embodiment for convenience of explanation, the same code | symbol is appended and the description is abbreviate | omitted.

(コミュニケーション支援システム5)
コミュニケーション支援システム5は、サーバ104、表示装置204、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740によって構成される。上述の各実施形態におけるサーバ100〜103が有する各機能が、サーバ104、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740にて実現されている。サーバ104、音声抽出サーバ700、音声認識サーバ720、及び翻訳サーバ740について、図22を用いて説明する。図22は、本発明の実施形態5におけるサーバの要部構成を示すブロック図である。なお、表示装置204は、上述した表示装置200〜203と同様の構成を備えるため、説明を省略する。
(Communication support system 5)
The communication support system 5 includes a server 104, a display device 204, a speech extraction server 700, a speech recognition server 720, and a translation server 740. The functions of the servers 100 to 103 in the above-described embodiments are realized by the server 104, the speech extraction server 700, the speech recognition server 720, and the translation server 740. The server 104, the speech extraction server 700, the speech recognition server 720, and the translation server 740 will be described using FIG. FIG. 22 is a block diagram showing the main configuration of the server in the fifth embodiment of the present invention. In addition, since the display device 204 has the same configuration as the display devices 200 to 203 described above, the description will be omitted.

(サーバ104)
サーバ104は、図22に示すように、サーバ通信部110及びサーバ制御部124を備えている。
(Server 104)
The server 104 includes a server communication unit 110 and a server control unit 124 as shown in FIG.

サーバ通信部110は、外部の機器と情報を送受信することができる。   The server communication unit 110 can transmit and receive information to and from an external device.

(サーバ制御部124)
サーバ制御部124は、サーバ104の各構成を統括的に制御するものであり、図22に示すように、表示情報出力部136、音声情報取得部140、発話内容情報取得部(発話内容出力部)141、表示情報生成部(発話内容情報出力部、翻訳内容情報出力部)142、及び翻訳発話内容情報取得部(翻訳内容情報取得部)143としても機能する。
(Server control unit 124)
The server control unit 124 generally controls each component of the server 104, and as shown in FIG. 22, the display information output unit 136, the voice information acquisition unit 140, and the utterance content information acquisition unit (utterance content output unit It also functions as a display information generation unit (speech content information output unit, translation content information output unit) 142, and a translation utterance content information acquisition unit (translation content information acquisition unit) 143.

表示情報出力部136は、表示情報生成部142が生成した表示情報を、サーバ通信部110を制御して表示装置204に出力する。   The display information output unit 136 outputs the display information generated by the display information generation unit 142 to the display device 204 by controlling the server communication unit 110.

音声情報取得部140は、サーバ通信部110を制御して、表示装置204から出力された音声情報を取得し、当該音声情報を音声抽出サーバ700に出力する。また、音声情報取得部140は、音声抽出サーバ700から出力された抽出音声情報を取得し、音声認識サーバ720に出力する。   The voice information acquisition unit 140 controls the server communication unit 110 to obtain voice information output from the display device 204, and outputs the voice information to the voice extraction server 700. Also, the voice information acquisition unit 140 obtains the extracted voice information output from the voice extraction server 700 and outputs the voice information to the voice recognition server 720.

発話内容情報取得部141は、サーバ通信部110を制御して、音声認識サーバ720から出力された発話内容情報を取得する。また、発話内容情報取得部141は、取得した発話内容情報が示す発話内容を、翻訳サーバ740に出力する。   The utterance content information acquisition unit 141 controls the server communication unit 110 to acquire the utterance content information output from the speech recognition server 720. Further, the utterance content information acquisition unit 141 outputs the utterance content indicated by the acquired utterance content information to the translation server 740.

表示情報生成部142は、発話内容情報取得部141が取得した発話内容情報と、翻訳発話内容情報取得部143が取得した翻訳発話内容情報とを関連付け、当該発話内容情報及び翻訳発話内容情報の少なくとも何れかを含む表示情報を表示情報出力部136に出力する。   The display information generation unit 142 associates the utterance content information acquired by the utterance content information acquisition unit 141 with the translated utterance content information acquired by the translated utterance content information acquisition unit 143, and at least the utterance content information and the translated utterance content information. The display information including any one is output to the display information output unit 136.

翻訳発話内容情報取得部143は、サーバ通信部110を制御して、翻訳サーバ740から出力された翻訳内容を示す翻訳内容情報を取得する。   The translation utterance content information acquisition unit 143 controls the server communication unit 110 to acquire translation content information indicating the translation content output from the translation server 740.

(音声抽出サーバ700)
音声抽出サーバ700は、図22に示すように、音声抽出サーバ通信部701及び音声抽出部702を備えている。
(Voice extraction server 700)
The speech extraction server 700 includes a speech extraction server communication unit 701 and a speech extraction unit 702 as shown in FIG.

音声抽出サーバ通信部701は、外部の機器と情報を送受信することができる。   The voice extraction server communication unit 701 can exchange information with an external device.

音声抽出部702は、音声抽出サーバ通信部701を制御し、サーバ104から出力された音声情報に含まれている音声から、客または店員が発話した音声を抽出し、抽出した音声を示す抽出音声情報を、サーバ104に出力する。   The voice extraction unit 702 controls the voice extraction server communication unit 701 to extract the voice uttered by the customer or the store clerk from the voice included in the voice information output from the server 104 and extract the extracted voice. The information is output to the server 104.

(音声認識サーバ720)
音声認識サーバ720は、図22に示すように、音声認識サーバ通信部721及び音声認識部722を備えている。
(Voice recognition server 720)
The speech recognition server 720 includes a speech recognition server communication unit 721 and a speech recognition unit 722, as shown in FIG.

音声認識サーバ通信部721は、外部の機器と情報を送受信することができる。   The voice recognition server communication unit 721 can transmit and receive information to and from an external device.

音声認識部722は、音声認識サーバ通信部721を制御し、サーバ104から出力された抽出音声情報が示す音声を認識し、認識した音声内容を示す発話内容情報を、サーバ104に出力する。   The voice recognition unit 722 controls the voice recognition server communication unit 721, recognizes a voice indicated by the extracted voice information output from the server 104, and outputs utterance content information indicating the recognized voice content to the server 104.

(翻訳サーバ740)
翻訳サーバ740は、図22に示すように、翻訳サーバ通信部741及び翻訳部742を備えている。
(Translation server 740)
The translation server 740 includes a translation server communication unit 741 and a translation unit 742 as shown in FIG.

翻訳サーバ通信部741は、外部の機器と情報を送受信することができる。   The translation server communication unit 741 can transmit and receive information to and from an external device.

翻訳部742は、翻訳サーバ通信部741を制御し、サーバ104から出力された発話内容を取得し、当該発話内容の翻訳内容を示す翻訳内容情報をサーバ104に出力する。   The translation unit 742 controls the translation server communication unit 741, obtains the utterance content output from the server 104, and outputs translation content information indicating the translation content of the utterance content to the server 104.

このように、本実施形態に係るコミュニケーション支援システム5では、上述の各実施形態におけるサーバ100〜103を、サーバ104、音声抽出サーバ700、音声認識サーバ720、翻訳サーバ740によって実現することができる。そのため、各サーバをそれぞれ適した場所(店舗内、クラウド上など)に設置することができる。   As described above, in the communication support system 5 according to the present embodiment, the servers 100 to 103 in the above-described embodiments can be realized by the server 104, the voice extraction server 700, the voice recognition server 720, and the translation server 740. Therefore, each server can be installed in a suitable place (in a store, on the cloud, etc.).

例えば、音声抽出サーバ700を店舗内に設置することにより、各店舗の状況に応じた設定(例えば、ノイズのフィルタリングなど)をすることができる。そのため、音声抽出サーバ700は、店舗内に設置することが好ましい。また、音声抽出サーバ700は、店員の発話した音声を抽出する音声抽出サーバ700aと、客の発話した音声を抽出する音声抽出サーバ700bとによって構成されてもよい。   For example, by installing the speech extraction server 700 in a store, settings (for example, filtering of noise, etc.) can be made according to the situation of each store. Therefore, it is preferable to install the voice extraction server 700 in a store. Further, the voice extraction server 700 may be configured by a voice extraction server 700a that extracts a voice uttered by a store clerk, and a voice extraction server 700b that extracts a voice uttered by a customer.

また、サーバ104はクラウド上に設置することにより、各店舗での発話内容を取得し、各店舗で起こったことを共有することができる。   In addition, by installing the server 104 on the cloud, it is possible to acquire the utterance content in each store and share what happened in each store.

また、各サーバは、同じ事業者によって管理されていてもよいし、異なる事業者によって管理されていてもよい。   Also, each server may be managed by the same operator or may be managed by different operators.

〔実施形態6〕
サーバ100〜104及び表示装置200〜204の各ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、サーバ100〜104及び表示装置200〜204のそれぞれを、図23に示すようなコンピュータ(電子計算機)を用いて構成することができる。
Sixth Embodiment
Each block of the servers 100 to 104 and the display devices 200 to 204 may be realized by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or software using a CPU (central processing unit) It may be realized by In the latter case, each of the servers 100 to 104 and the display devices 200 to 204 can be configured using a computer (electronic computer) as shown in FIG.

図23は、サーバ100〜104及び表示装置200〜204として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、及び補助記憶装置914は、それぞれ、例えばCPU、RAM(random access memory)、ハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、及び、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920及び出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920及び出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。   FIG. 23 is a block diagram illustrating the configuration of a computer 910 that can be used as the servers 100 to 104 and the display devices 200 to 204. The computer 910 includes an arithmetic unit 912 connected to one another via a bus 911, a main storage unit 913, an auxiliary storage unit 914, an input / output interface 915, and a communication interface 916. The arithmetic unit 912, the main storage unit 913, and the auxiliary storage unit 914 may be, for example, a CPU, a random access memory (RAM), and a hard disk drive. To the input / output interface 915, an input device 920 for the user to input various information to the computer 910, and an output device 930 for the computer 910 to output various information to the user are connected. The input device 920 and the output device 930 may be built in the computer 910 or may be connected (externally attached) to the computer 910. For example, the input device 920 may be a keyboard, a mouse, a touch sensor or the like, and the output device 930 may be a display, a printer, a speaker or the like. In addition, a device having both the functions of the input device 920 and the output device 930, such as a touch panel in which a touch sensor and a display are integrated, may be applied. The communication interface 916 is an interface for the computer 910 to communicate with an external device.

補助記憶装置914には、コンピュータ910をサーバ100〜104及び表示装置200〜204として動作させるための各種のプログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記プログラムを主記憶装置913上に展開して該プログラムに含まれる命令を実行することによって、コンピュータ910を、サーバ100〜104及び表示装置200〜204が備える各部として機能させる。なお、補助記憶装置914が備える、プログラム等の情報を記録する記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。   The auxiliary storage device 914 stores various programs for causing the computer 910 to operate as the servers 100 to 104 and the display devices 200 to 204. Then, the arithmetic unit 912 expands the above program stored in the auxiliary storage unit 914 onto the main storage unit 913 and executes an instruction included in the program to execute the computer 910 as the servers 100 to 104 and the display unit. It makes it function as each part with which 200-204 is provided. Note that the recording medium for recording information such as a program included in the auxiliary storage device 914 may be a computer readable “non-temporary tangible medium”, for example, a tape, a disk, a card, a semiconductor memory, a programmable logic It may be a circuit or the like.

また、上記プログラムは、コンピュータ910の外部から取得してもよく、この場合、任意の伝送媒体(通信ネットワークや放送波等)を介して取得してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。   Also, the program may be acquired from the outside of the computer 910, and in this case, it may be acquired via any transmission medium (a communication network, a broadcast wave, etc.). The present invention can also be realized in the form of a data signal embedded in a carrier wave in which the program is embodied by electronic transmission.

〔変形例〕
上述の各実施形態では、コミュニケーション支援システム1〜5が翻訳を行う場合について説明したが、コミュニケーション支援システム1〜5はその構成に限定されない。
[Modification]
Although the above-mentioned each embodiment demonstrated the case where the communication assistance systems 1-5 translated, the communication assistance systems 1-5 are not limited to the structure.

例えば、商品名をキーフレーズで登録し、当該商品に関連したおすすめ商品の画像を表示装置に表示させてもよい。この場合、商品の型番、管理番号、在庫数、商品のマニュアル、取説、及び接客マニュアルなどを、店員向け表示装置にのみ表示させる構成としてもよい。また、当該商品に関連した広告、CMを客向け表示装置にのみ表示させる構成としてもよい。   For example, a product name may be registered using a key phrase, and an image of a recommended product related to the product may be displayed on the display device. In this case, the product model number, the management number, the stock quantity, the product manual, the manual, the customer service manual, and the like may be displayed only on the display unit for sales clerks. In addition, an advertisement related to the product and a CM may be displayed only on the display device for customers.

また、登録したキーフレーズに関連したキーフレーズをSNS(Social Network Service)上にて検索し、登録したキーフレーズに関連したキーフレーズを含むコメントやコメント数を表示する構成であってもよい。   Alternatively, the key phrase associated with the registered key phrase may be retrieved on the SNS (Social Network Service), and the comment including the key phrase associated with the registered key phrase may be displayed or the number of comments.

〔まとめ〕
本発明の態様1に係る表示装置(200〜202)は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、表示すべき情報を含む表示情報を取得する取得部(表示情報取得部231)と、上記取得部が取得した表示情報の示す表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。
[Summary]
The display device (200 to 202) according to aspect 1 of the present invention is a display device that displays at least one of an image for a service provider and an image for a service user, and acquires display information including information to be displayed And a display image showing the display information acquired by the acquisition unit (display information acquisition unit 231), the display corresponding to whether the display device is for a service provider or a service user A display image generation unit (232) that generates a display image having an aspect, and a display unit (250) that displays the display image generated by the display image generation unit.

上記の構成によれば、表示装置の使い勝手を向上させ利用者同士のコミュニケーションを円滑にすることができる。   According to the above configuration, the usability of the display device can be improved and the communication between users can be facilitated.

本発明の態様2に係る表示装置は、上記態様1において、上記表示画像生成部は、上記表示情報の示すテキストであって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた文字の設定によって表されるテキストを含む表示画像を生成してもよい。   In the display device according to aspect 2 of the present invention, in the above aspect 1, the display image generation unit is a text indicated by the display information, and whether the display device is for a service provider or for a service user A display image may be generated that includes text represented by character settings according to the character.

上記の構成によれば、サービス提供者及びサービス利用者がそれぞれ見たいテキストを見やすく表示することができる。   According to the above configuration, it is possible to display the text that the service provider and the service user want to see in an easy-to-see manner.

本発明の態様3に係る表示装置は、上記態様1または2において、上記表示情報は、サービス提供者またはサービス利用者が発話した内容である発話内容を示す発話内容情報を含み、上記表示画像生成部は、上記取得部が取得した発話内容情報を参照し、当該発話内容情報が示す発話内容を含む表示画像を生成してもよい。   In the display device according to aspect 3 of the present invention, in the above aspect 1 or 2, the display information includes utterance content information indicating utterance content which is content uttered by the service provider or the service user, and the display image generation The unit may refer to the utterance content information acquired by the acquisition unit and generate a display image including the utterance content indicated by the utterance content information.

上記の構成によれば、サービス提供者またはサービス利用者が発話した発話内容をサービス提供者及びサービス利用者に提示することができる。   According to the above configuration, it is possible to present the service provider and the service user with the contents of the utterance uttered by the service provider or the service user.

本発明の態様4に係る表示装置は、上記態様3において、上記表示情報は、上記発話内容情報が示す発話内容の翻訳である翻訳発話内容を示す翻訳発話内容情報を含み、上記表示画像生成部は、上記取得部が取得した翻訳発話内容情報を参照し、当該翻訳発話内容情報が示す翻訳発話内容を更に含むよう上記表示画像を更新してもよい。   In the display device according to aspect 4 of the present invention, in the aspect 3, the display information includes translated utterance content information indicating translated utterance content which is translation of utterance content indicated by the utterance content information, and the display image generation unit The display image may be updated so as to further include the translated utterance content indicated by the translated utterance content information, with reference to the translated utterance content information acquired by the acquisition unit.

上記の構成によれば、発話内容の後に、当該発話内容の翻訳をサービス提供者及びサービス利用者に提示することができる。   According to the above configuration, the translation of the utterance content can be presented to the service provider and the service user after the utterance content.

本発明の態様5に係る表示装置は、上記態様4において、上記表示画像生成部は、ある発話内容と、当該ある発話内容の翻訳である翻訳発話内容とがグループ化された表示画像を生成してもよい。   In the display device according to aspect 5 of the present invention, in the above aspect 4, the display image generation unit generates a display image in which a certain utterance content and a translated utterance content that is a translation of the certain utterance content are grouped. May be

上記の構成によれば、対応している発話内容と翻訳内容とをサービス提供者及びサービス利用者に提示することができる。   According to the above configuration, it is possible to present the corresponding utterance content and translation content to the service provider and the service user.

本発明の態様6に係る表示装置は、上記態様4または5において、上記表示画像生成部は、当該表示装置がサービス提供者向け画像を表示する場合、サービス提供者の発話内容を示すテキストの文字及びサービス利用者の発話内容を翻訳した翻訳発話内容を示すテキストの文字を、当該サービス利用者の発話内容を示すテキストの文字及び当該サービス提供者の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きくした表示画像を生成し、当該表示装置がサービス利用者向け画像を表示する場合、サービス利用者の発話内容を示すテキストの文字及びサービス提供者の発話内容を翻訳した翻訳発話内容を示すテキストの文字を、当該サービス提供者の発話内容を示すテキストの文字及び当該サービス利用者の発話内容を翻訳した翻訳発話内容を示すテキストの文字より大きくした表示画像を生成してもよい。   In the display device according to aspect 6 of the present invention, in the above aspect 4 or 5, when the display device displays an image for a service provider, the display image generation unit is a character of text indicating the content of an utterance of the service provider And the character of the text representing the translated uttered content obtained by translating the uttered content of the service user, the text representing the uttered content of the service user, and the translated uttered content obtained by translating the uttered content of the service provider When a display image larger than a character is generated and the display device displays an image for a service user, the character of the text indicating the utterance content of the service user and the translated utterance content obtained by translating the utterance content of the service provider Translated the text of the text, the text of the text showing the uttered content of the service provider and the uttered content of the service user It may generate the display image that is larger than the character of the text that indicates the reason the speech content.

上記の構成によれば、サービス提供者及びサービス利用者に対して、それぞれの発言内容の文字を大きくして提示することができる。また、サービス提供者及びサービス利用者に対して、相手の発言内容の翻訳の文字を大きくして提示することができる。   According to the above configuration, it is possible to present the service provider and the service user with the characters of the respective utterance contents enlarged. In addition, it is possible to present the service provider and the service user by enlarging the characters of the translation contents of the other party.

本発明の態様7に係る表示装置は、上記態様1〜6の何れかにおいて、上記表示画像生成部は、上記表示画像に含まれるフレーズのうち、所定のフレーズを強調表示してもよい。   In the display device according to aspect 7 of the present invention, in any of the above aspects 1 to 6, the display image generation unit may highlight a predetermined phrase among the phrases included in the display image.

上記の構成によれば、所定のフレーズを強調してサービス提供者及びサービス利用者に提示することができる。   According to the above configuration, the predetermined phrase can be emphasized and presented to the service provider and the service user.

本発明の態様8に係る表示装置は、上記態様7において、上記表示情報は、上記所定のフレーズに関連した画像を示す画像情報または当該画像の格納先を示す格納先情報を含み、上記表示画像生成部は、上記画像情報または上記格納先情報を参照し、上記所定のフレーズに関連した画像を含む表示画像を生成してもよい。   In the display device according to aspect 8 of the present invention, in the above aspect 7, the display information includes image information indicating an image associated with the predetermined phrase or storage destination information indicating a storage destination of the image; The generation unit may generate a display image including an image associated with the predetermined phrase with reference to the image information or the storage destination information.

上記の構成によれば、所定のフレーズに関連した画像をサービス提供者及びサービス利用者に提示することができる。   According to the above configuration, an image associated with a predetermined phrase can be presented to the service provider and the service user.

本発明の態様9に係る表示装置は、上記態様7または8において、上記表示情報は、上記所定のフレーズに関連したオブジェクトであって、サービス利用者またはサービス提供者の操作を受け付けるオブジェクトを示すオブジェクト情報を含み、上記表示画像生成部は、上記オブジェクト情報を参照し、上記オブジェクトを含む表示画像を生成してもよい。   In the display device according to aspect 9 of the present invention, in the above aspect 7 or 8, the display information is an object associated with the predetermined phrase, and is an object indicating an object that receives an operation of a service user or a service provider The display image generation unit may include information, and may generate a display image including the object with reference to the object information.

上記の構成によれば、所定のフレーズに関連する情報の表示を受け付けることができる。   According to the above configuration, the display of the information related to the predetermined phrase can be received.

本発明の態様10に係る表示装置(203)は、サービス提供者向け画像を表示する第1の表示領域と、サービス利用者向け画像を表示する第2の表示領域とを有する表示装置であって、表示すべき情報を含む表示情報を取得する取得部(表示情報取得部231)と、上記取得部が取得した表示情報の示す表示画像であって、上記第1の表示領域に表示する表示画像であって、サービス提供者向けの表示態様である第1の表示態様を有する表示画像である第1の表示画像と、上記第2の表示領域に表示する表示画像であって、上記第1の表示態様とは異なる第2の表示態様を有する表示画像である第2の表示画像とを生成する表示画像生成部(240)と、上記表示画像生成部が生成した第1の表示画像を上記第1の表示領域に表示し、上記表示画像生成部が生成した第2の表示画像を上記第2の表示領域に表示する表示部(251)と、を備えている。   A display device (203) according to aspect 10 of the present invention is a display device having a first display area for displaying an image for a service provider and a second display area for displaying an image for a service user. An acquisition unit (display information acquisition unit 231) for acquiring display information including information to be displayed, and a display image indicated by the display information acquired by the acquisition unit and displayed in the first display area A first display image which is a display image having a first display mode which is a display mode for a service provider, and a display image to be displayed in the second display area, A display image generation unit (240) that generates a second display image that is a display image having a second display mode different from the display mode, and the first display image generated by the display image generation unit; Displayed in display area 1 above Display unit for displaying the second display image shows the image generating unit has generated on the second display area and (251), and a.

上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。   According to the above configuration, the same effect as the display device in the above aspect 1 can be obtained.

本発明の態様11に係るサーバ(104)は、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部(141)と、上記発話内容情報取得部が取得した発話内容情報を表示装置に出力する発話内容情報出力部(表示情報生成部142、表示情報出力部136)と、上記発話内容情報が示す発話内容を出力する発話内容出力部(発話内容情報取得部141)と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部(翻訳発話内容情報取得部143)と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部142、表示情報出力部136)と、を備えている。   The server (104) according to aspect 11 of the present invention acquires an utterance content information acquisition unit (141) that acquires utterance content information indicating utterance content that is uttered content, and the utterance content information acquired by the utterance content information acquisition unit An utterance content information output unit (display information generation unit 142, display information output unit 136) for outputting the information to the display device, and an utterance content output unit (utterance content information acquisition unit 141) for outputting the utterance content indicated by the utterance content information A translation content information acquisition unit (translation utterance content information acquisition unit 143) for acquiring translation content information indicating translation content of the utterance content, and translation content information acquired by the translation content information acquisition unit with the utterance content information And a translation content information output unit (display information generation unit 142, display information output unit 136) to be output in association with the display device.

上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。   According to the above configuration, the same effect as the display device in the above aspect 1 can be obtained.

本発明の態様12に係るサーバ(101、102)は、上記態様11において、上記発話内容情報が示す発話内容または上記翻訳内容情報が示す翻訳内容に、所定のフレーズが含まれているか否かを判定するフレーズ判定部(キーフレーズ検索部137)と、上記フレーズ判定部が、上記発話内容に上記所定のフレーズが含まれていると判定した場合、上記発話内容情報出力部は更に、上記所定のフレーズを強調表示するよう上記表示装置に対して指示し、上記フレーズ判定部が、上記翻訳内容に上記所定のフレーズが含まれていると判定した場合、上記翻訳内容情報出力部は更に、上記所定のフレーズを強調表示するよう上記表示装置に対して指示してもよい。   The server (101, 102) according to aspect 12 of the present invention, in the aspect 11, whether or not a predetermined phrase is included in the utterance content indicated by the utterance content information or the translation content indicated by the translation content information. When the phrase determination unit (key phrase search unit 137) to be determined and the phrase determination unit determine that the predetermined phrase is included in the utterance content, the utterance content information output unit further determines the predetermined phrase. If the display device is instructed to highlight a phrase, and the phrase determination unit determines that the translation content includes the predetermined phrase, the translation content information output unit further determines the predetermined content. The display device may be instructed to highlight the phrase.

上記の構成によれば、所定のフレーズを強調してサービス提供者及びサービス利用者に提示することができる。   According to the above configuration, the predetermined phrase can be emphasized and presented to the service provider and the service user.

本発明の態様13に係るサーバは(100)、上記態様11または12において、発話した音声を示す音声情報を取得する音声情報取得部(131)と、上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、上記発話内容情報を生成する発話内容情報生成部(音声認識部133)と、をさらに備え、上記発話内容情報出力部は、上記発話内容情報生成部が生成した発話内容情報を、上記表示装置に出力してもよい。   In the server according to aspect 13 of the present invention (100), according to the aspect 11 or 12, an audio information acquisition unit (131) for acquiring audio information indicating a uttered speech, and audio information acquired by the audio information acquisition unit And a speech content information generation unit (speech recognition unit 133) that recognizes the content indicated by the speech information as speech content and generates the speech content information, and the speech content information output unit further includes: The utterance content information generated by the content information generation unit may be output to the display device.

上記の構成によれば、サーバが発話内容を認識することができる。   According to the above configuration, the server can recognize the utterance content.

本発明の態様14に係るサーバは、上記態様11〜13の何れかにおいて、上記発話内容情報が示す発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部(翻訳部135)をさらに備え、上記翻訳内容情報出力部は、上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力してもよい。   In the server according to aspect 14 of the present invention, in any of the above aspects 11 to 13, a translation content information generation unit (translation unit 135) that generates translation content information indicating translation content obtained by translating the utterance content indicated by the utterance content information. The translation content information output unit may output the translation content information generated by the translation content information generation unit to the display device in association with the utterance content information.

上記の構成によれば、サーバが発話内容を翻訳することができる。   According to the above configuration, the server can translate the utterance content.

本発明の態様15に係るコミュニケーション支援システム(5)は、サーバ(104)と表示装置(204)とを備えるコミュニケーション支援システムであって、上記サーバは、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得部(141)と、上記発話内容情報取得部が取得した発話内容情報を上記表示装置に出力する発話内容情報出力部(表示情報生成部142、表示情報出力部136)と、上記発話内容情報が示す発話内容を出力する発話内容出力部(発話内容情報取得部141)と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得部(翻訳発話内容情報取得部143)と、上記翻訳内容情報取得部が取得した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部142、表示情報出力部136)と、を備え、上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部(表示情報取得部231)と、上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。   A communication support system (5) according to aspect 15 of the present invention is a communication support system including a server (104) and a display device (204), wherein the server is an uttered content indicating an uttered content which is a uttered content An utterance content information acquisition unit (141) for acquiring information, and an utterance content information output unit (display information generation unit 142, display information output unit 136) for outputting the utterance content information acquired by the utterance content information acquisition unit to the display device. And an utterance content output unit (utterance content information acquisition unit 141) that outputs the utterance content indicated by the utterance content information, and a translation content information acquisition unit (translation utterance that acquires translation content information indicating the translation content of the utterance content). Content information acquisition unit 143) and the translation content information acquired by the translation content information acquisition unit are associated with the utterance content information and output to the display device A translation content information output unit (display information generation unit 142, display information output unit 136), and the display device is a display device for displaying at least one of an image for a service provider and an image for a service user. An acquisition unit (display information acquisition unit 231) for acquiring at least one of the utterance content information and the translation content information from the server, and the utterance content indicated by the utterance content information acquired by the acquisition unit A display image including at least one of the translation content indicated by the translation content information, and a display image having a display mode according to whether the display device is for a service provider or a service user An image generation unit (232) and a display unit (250) for displaying the display image generated by the display image generation unit.

上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。   According to the above configuration, the same effect as the display device in the above aspect 1 can be obtained.

本発明の態様16に係るコミュニケーション支援システム(1〜3)は、サーバ(100〜102)と表示装置(200〜202)とを備えるコミュニケーション支援システムであって、上記サーバは、発話した音声を示す音声情報を取得する音声情報取得部(231)と、上記音声情報取得部が取得した音声情報を参照し、当該音声情報が示す内容を発話内容として認識し、発話内容情報を生成する発話内容情報生成部(音声認識部133)と、上記発話内容情報生成部が生成した発話内容情報を上記表示装置に出力する発話内容情報出力部(表示情報出力部136)と、上記発話内容を翻訳した翻訳内容を示す翻訳内容情報を生成する翻訳内容情報生成部(翻訳部135)と、上記翻訳内容情報生成部が生成した翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力部(表示情報生成部134、表示情報出力部136)と、を備え、上記表示装置は、サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、上記サーバから、上記発話内容情報及び上記翻訳内容情報の少なくとも何れかを取得する取得部(表示情報取得部231)と、上記取得部が取得した上記発話内容情報が示す発話内容及び上記翻訳内容情報が示す翻訳内容の少なくとも何れかを含む表示画像であって、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様を有する表示画像を生成する表示画像生成部(232)と、上記表示画像生成部が生成した表示画像を表示する表示部(250)と、を備えている。   A communication support system (1-3) according to a sixteenth aspect of the present invention is a communication support system including servers (100-102) and display devices (200-202), wherein the server indicates a voice uttered Utterance content information that refers to the voice information acquired by the voice information acquisition unit (231) for acquiring voice information and the voice information acquired by the voice information acquisition unit, recognizes the content indicated by the voice information as speech content, and generates speech content information A generation unit (voice recognition unit 133), an utterance content information output unit (display information output unit 136) for outputting the utterance content information generated by the utterance content information generation unit to the display device, and a translation in which the utterance content is translated The translation content information generation unit (translation unit 135) for generating translation content information indicating the content, and the translation content information generated by the translation content information generation unit A translation content information output unit (display information generation unit 134, display information output unit 136) to be output to the display device in association with content information, and the display device is an image for a service provider and an image for a service user An acquisition unit (display information acquisition unit 231) for acquiring at least one of the utterance content information and the translation content information from the server; and the acquisition unit acquires It is a display image including at least one of the utterance content indicated by the above-mentioned utterance content information and the translation content indicated by the above-mentioned translation content information, according to whether the display device is for a service provider or for a service user. A display image generation unit (232) for generating a display image having a display mode, and a display unit (25 for displaying the display image generated by the display image generation unit ), And it is equipped with a.

上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。   According to the above configuration, the same effect as the display device in the above aspect 1 can be obtained.

本発明の態様17に係るコミュニケーション支援方法は、発話した内容である発話内容を示す発話内容情報を取得する発話内容情報取得工程と、上記発話内容情報取得工程において取得された発話内容情報を表示装置に出力する発話内容情報出力工程と、上記発話内容情報が示す発話内容を出力する発話内容出力工程と、上記発話内容の翻訳内容を示す翻訳内容情報を取得する翻訳内容情報取得工程と、上記翻訳内容情報取得工程において取得された翻訳内容情報を、上記発話内容情報と関連付けて上記表示装置に出力する翻訳内容情報出力工程と、を含む。   A communication support method according to a seventeenth aspect of the present invention includes an utterance content information acquisition step of acquiring utterance content information indicating utterance content that is uttered content, and displaying the utterance content information acquired in the utterance content information acquisition step. A speech content information output process for outputting the speech content, a speech content output process for outputting the speech content indicated by the speech content information, a translation content information acquisition process for acquiring translation content information indicating the translation contents of the speech content, and the translation And a translation content information output step of associating the translation content information acquired in the content information acquisition step with the utterance content information and outputting the result to the display device.

上記の構成によれば、上記態様1における表示装置と同様の効果を奏する。   According to the above configuration, the same effect as the display device in the above aspect 1 can be obtained.

本発明の各態様に係る表示装置及びサーバは、コンピュータによって実現してもよく、この場合には、コンピュータを上記表示装置及びサーバが備える各部(ソフトウェア要素に限る)として動作させることにより上記表示装置及びサーバをコンピュータにて実現させる表示装置及びサーバの制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。   The display device and the server according to each aspect of the present invention may be realized by a computer, and in this case, the display device is operated by operating the computer as each unit (limited to software elements) included in the display device and the server. And, a display device and a control program of a server that realize a server by a computer, and a computer readable recording medium recording the same also fall within the scope of the present invention.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。さらに、各実施形態にそれぞれ開示された技術的手段を組み合わせることにより、新しい技術的特徴を形成することができる。   The present invention is not limited to the above-described embodiments, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining the technical means disclosed in the different embodiments. Is also included in the technical scope of the present invention. Furthermore, new technical features can be formed by combining the technical means disclosed in each embodiment.

本発明は、店舗において店員と客とのコミュニケーションを支援するシステムに利用することができる。   The present invention can be used in a system for supporting communication between a store clerk and a customer in a store.

1、2、3、4、5 コミュニケーション支援システム
100、101、102、103、104 サーバ
110 サーバ通信部
120、121、122、124 サーバ制御部
131、140 音声情報取得部
132 音声抽出部
133 音声認識部(発話内容情報生成部)
134 表示情報生成部
135 翻訳部(翻訳内容情報生成部)
136 表示情報出力部(発話内容情報出力部、翻訳内容情報出力部)
137 キーフレーズ検索部(フレーズ判定部)
138 操作情報取得部
141 発話内容情報取得部(発話内容出力部)
142 表示情報生成部(発話内容情報出力部、翻訳内容情報出力部)
143 翻訳発話内容情報取得部(翻訳内容情報取得部)
150、152 キーフレーズデータベース
200、201、202、203、204 表示装置
210 表示装置通信部
220、222、223 表示装置制御部
231 表示情報取得部(取得部)
232、240 表示画像生成部
233 音声情報取得部
234 操作情報取得部
250、251 表示部
260 音声受付部
270、270a 操作受付部
300a、300b、302a、302b、304a、304b 吹き出し
400a、400b、402a、402b、404a、404b、406a、406b、410a、410b、412a、412b、414a、414b、416a、416b、500a、500b、502a、502b、510a、510b、512a、512b テキスト
600a、600b、602a、602b、606a、606b 画像
604a、604b、605a ボタン
700、700a、700b 音声抽出サーバ
701 音声抽出サーバ通信部
702 音声抽出部
720 音声認識サーバ
721 音声認識サーバ通信部
722 音声認識部
740 翻訳サーバ
741 翻訳サーバ通信部
742 翻訳部
800a、800b テキスト
910 コンピュータ
911 バス
912 演算装置
913 主記憶装置
914 補助記憶装置
915 入出力インターフェース
916 通信インターフェース
920 入力装置
930 出力装置
1, 2, 3, 4, 5 communication support system 100, 101, 102, 103, 104 server 110 server communication unit 120, 121, 122, 124 server control unit 131, 140 voice information acquisition unit 132 voice extraction unit 133 voice recognition Part (utterance content information generation unit)
134 display information generation unit 135 translation unit (translation content information generation unit)
136 Display information output unit (utterance content information output unit, translation content information output unit)
137 Key phrase search unit (phrase judgment unit)
138 Operation information acquisition unit 141 Utterance content information acquisition unit (utterance content output unit)
142 Display information generation unit (utterance content information output unit, translation content information output unit)
143 Translation Utterance Content Information Acquisition Unit (Translation Content Information Acquisition Unit)
150, 152 Key Phrase Database 200, 201, 202, 203, 204 Display Device 210 Display Device Communication Unit 220, 222, 223 Display Device Control Unit 231 Display Information Acquisition Unit (Acquisition Unit)
232, 240 display image generation unit 233 voice information acquisition unit 234 operation information acquisition unit 250, 251 display unit 260 voice reception unit 270, 270a operation reception unit 300a, 300b, 302a, 302b, 304a, 304b speech balloon 400a, 400b, 402a, 402b, 404a, 404b, 406a, 406b, 410a, 410b, 412a, 412b, 414a, 414b, 416a, 416b, 500a, 500b, 502a, 502b, 510a, 510b, 512a, 512b text 600a, 600b, 602a, 602b, 606a, 606b images 604a, 604b, 605a buttons 700, 700a, 700b voice extraction server 701 voice extraction server communication unit 702 voice extraction unit 720 voice recognition server 721 voice recognition server Ba communication unit 722 voice recognition unit 740 translation server 741 translation server communication unit 742 translation unit 800a, 800b text 910 computer 911 bus 912 computing device 913 main storage unit 914 an auxiliary storage device 915 input-output interface 916 communication interface 920 Input device 930 Output device

Claims (9)

サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示装置であって、
第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有する表示部と、
発話内容を取得する取得部と、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定のフレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第2表示領域に表示する制御を行う表示制御部と、
を備え、
前記表示制御部は、
前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行い、
前記オブジェクトに対応した画像情報として、前記フレーズに関連する情報と同一の情報に関連するフレーズに対応する商品を含まない画像を示す画像情報を前記第2表示領域に表示する制御を行う
ことを特徴とする表示装置。
A display device for displaying at least one of a service provider image and a service user image, comprising:
A display unit having a display screen which can be divided and displayed in a first display area and a second display area;
An acquisition unit for acquiring utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control unit that performs control to display;
Equipped with
The display control unit
Display object associated with the phrase on the display screen, when the object is selected, have row control to display the image information corresponding to the selected object in the second display area,
Control is performed to display image information indicating an image not including a product corresponding to a phrase related to the same information as the information related to the phrase as the image information corresponding to the object in the second display area .
A display device characterized by
前記表示制御部は、前記発話内容情報及び/又は前記画像情報の表示を更新する場合であっても、前記第1表示領域及び第2表示領域の領域を維持しつつ、表示を更新することを特徴とする請求項1に記載の表示装置。   The display control unit updates the display while maintaining the areas of the first display area and the second display area even when the display of the utterance content information and / or the image information is updated. The display device according to claim 1, characterized in that: 前記発話内容情報は、前記取得部が取得した発話内容の翻訳である翻訳発話内容を示す翻訳発話内容情報を含み、
前記表示制御部は、前記第1表示領域に当該翻訳発話内容情報を発話内容情報と併せて表示することを特徴とする請求項1又は2に記載の表示装置。
The uttered content information includes translated uttered content information indicating translated uttered content which is a translation of the uttered content acquired by the acquisition unit.
The display device according to claim 1 or 2 , wherein the display control unit displays the translated utterance content information together with the utterance content information in the first display area.
前記表示装置は、前記商品に関連する付加情報を付加する情報付加部を更に備え、
前記表示制御部は、前記第2表示領域に当該付加情報を前記商品の画像と併せて表示することを特徴とする請求項1からの何れか一項に記載の表示装置。
The display device further includes an information addition unit that adds additional information related to the product,
The display device according to any one of claims 1 to 3 , wherein the display control unit displays the additional information and the image of the product in the second display area.
前記表示制御部は、サービス提供者向けであるかサービス利用者向けであるのかに応じた表示態様で前記発話内容を表示することを特徴とする請求項1からの何れか一項に記載の表示装置。 The display controller, according to claims 1, characterized in that displaying the speech content in a display mode according to whether the a's or service user is for the service provider to any one of 4 Display device. 前記第1表示領域に表示される発話内容情報は、当該発話内容情報の示すテキストであって、
前記表示制御部は、当該表示装置がサービス提供者向けであるかサービス利用者向けであるのかに応じた文字の設定によって表されるテキストを含む画像を表示することを特徴とする請求項に記載の表示装置。
The utterance content information displayed in the first display area is a text indicated by the utterance content information, and
The display controller, to claim 5, characterized in that for displaying an image including a text in which the display device is represented by the character set of corresponding to whether a friendly or service users is for the service provider Display device as described.
前記表示制御部は、ある発話内容と、当該ある発話内容の翻訳である翻訳発話内容とをグループ化して表示することを特徴とする請求項に記載の表示装置。 7. The display device according to claim 6 , wherein the display control unit displays a certain utterance content and a translated utterance content which is a translation of the certain utterance content in a grouped manner. サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示部を有する表示装置における表示方法であって、
前記表示部は、第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有しており、
発話内容を取得する取得ステップと、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定のフレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第2表示領域に表示する制御を行う表示制御ステップと、
を含み、
前記表示制御ステップは、
前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行い、
前記オブジェクトに対応した画像情報として、前記フレーズに関連する情報と同一の情報に関連するフレーズに対応する商品を含まない画像を示す画像情報を前記第2表示領域に表示する制御を行う、
ことを特徴とする表示方法。
A display method on a display device including a display unit that displays at least one of a service provider image and a service user image.
The display unit has a display screen which can be divided and displayed in a first display area and a second display area.
An acquisition step of acquiring an utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control step for performing control to be displayed;
Including
The display control step is
Display object associated with the phrase on the display screen, when the object is selected, have row control to display the image information corresponding to the selected object in the second display area,
Control is performed to display image information indicating an image not including a product corresponding to a phrase related to the same information as the information related to the phrase as the image information corresponding to the object in the second display area.
A display method characterized by
サービス提供者向け画像及びサービス利用者向け画像の少なくとも何れかを表示する表示部を有するコンピュータに、
前記表示部は、第1表示領域と、第2表示領域とに分割して表示可能な表示画面を有しており、
発話内容を取得する取得機能と、
前記発話内容を示す発話内容情報を前記第1表示領域に表示し、前記発話内容に所定のフレーズが含まれる場合は、前記フレーズに対応した商品の画像を示す画像情報を前記第2表示領域に表示する制御を行う表示制御機能と、
を実現させ、
前記表示制御機能は、
前記フレーズに関連したオブジェクトを前記表示画面に表示し、前記オブジェクトが選択された場合、前記選択されたオブジェクトに対応した画像情報を前記第2表示領域に表示する制御を行い、
前記オブジェクトに対応した画像情報として、前記フレーズに関連する情報と同一の情報に関連するフレーズに対応する商品を含まない画像を示す画像情報を前記第2表示領域に表示する制御を行う、
ことを特徴とするプログラム。
A computer having a display unit for displaying at least one of a service provider image and a service user image;
The display unit has a display screen which can be divided and displayed in a first display area and a second display area.
An acquisition function for acquiring utterance content;
When the utterance content information indicating the utterance content is displayed in the first display area, and the utterance content includes a predetermined phrase, image information indicating an image of a product corresponding to the phrase is displayed in the second display region A display control function that performs control to be displayed;
To achieve
The display control function is
Display object associated with the phrase on the display screen, when the object is selected, have row control to display the image information corresponding to the selected object in the second display area,
Control is performed to display image information indicating an image not including a product corresponding to a phrase related to the same information as the information related to the phrase as the image information corresponding to the object in the second display area.
A program characterized by
JP2017194646A 2017-10-04 2017-10-04 Display device, display method and program Active JP6550111B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017194646A JP6550111B2 (en) 2017-10-04 2017-10-04 Display device, display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017194646A JP6550111B2 (en) 2017-10-04 2017-10-04 Display device, display method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2014232154A Division JP2016095727A (en) 2014-11-14 2014-11-14 Display device, server, communication support system, communication support method, and control program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019102658A Division JP6803946B2 (en) 2019-05-31 2019-05-31 Display device, display method and program

Publications (2)

Publication Number Publication Date
JP2018055689A JP2018055689A (en) 2018-04-05
JP6550111B2 true JP6550111B2 (en) 2019-07-24

Family

ID=61836846

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017194646A Active JP6550111B2 (en) 2017-10-04 2017-10-04 Display device, display method and program

Country Status (1)

Country Link
JP (1) JP6550111B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020071764A (en) * 2018-11-01 2020-05-07 東芝テック株式会社 Instruction management apparatus and control program thereof
JP2020190625A (en) * 2019-05-22 2020-11-26 株式会社日本レカム Automatic translation device by speech recognition, and information system

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01103774A (en) * 1987-07-08 1989-04-20 Ricoh Co Ltd Translation display device
JPH08278972A (en) * 1995-04-06 1996-10-22 Sony Corp Speech input translation device
JP3422596B2 (en) * 1995-07-07 2003-06-30 インターナショナル・ビジネス・マシーンズ・コーポレーション How to display objects
JPH113348A (en) * 1997-06-11 1999-01-06 Sharp Corp Advertizing device for electronic interaction
JP2000148756A (en) * 1998-11-12 2000-05-30 Matsushita Electric Ind Co Ltd Translation error detecting device
US7530023B2 (en) * 2001-11-13 2009-05-05 International Business Machines Corporation System and method for selecting electronic documents from a physical document and for displaying said electronic documents over said physical document
JP2005222316A (en) * 2004-02-05 2005-08-18 Toshiba Corp Conversation support device, conference support system, reception work support system, and program
JP5242726B2 (en) * 2011-03-28 2013-07-24 株式会社東芝 Foreign language customer support device, foreign language customer service method and program
JP5684082B2 (en) * 2011-09-27 2015-03-11 株式会社東芝 Dialog support apparatus, method, and program

Also Published As

Publication number Publication date
JP2018055689A (en) 2018-04-05

Similar Documents

Publication Publication Date Title
US9424838B2 (en) Pattern processing system specific to a user group
CN111538900B (en) Information recommendation method and related equipment
JP6061729B2 (en) Product information providing system and product information providing program
US20060277044A1 (en) Client-based speech enabled web content
CN107864301A (en) Client&#39;s label management method, system, computer equipment and storage medium
US20180373705A1 (en) User device and computer program for translating recognized speech
US11262977B2 (en) Display control apparatus, display control method, and non-transitory recording medium
JP2002297626A (en) Device, program, and method for presenting information
JP5585889B2 (en) Display data generation apparatus, display control system, and display control program
US9471567B2 (en) Automatic language recognition
JP6550111B2 (en) Display device, display method and program
JP6066791B2 (en) Product information providing system and product information providing program
JP2014052770A (en) Signage terminal and signage system
JP2017174090A (en) Information processing apparatus and program
JP6803946B2 (en) Display device, display method and program
CN115186070A (en) Information processing method, apparatus, device, storage medium, and program product
Kangeswaran et al. A bilingual audio based online shopping mobile application for visually impaired and the elderly people
KR20230029158A (en) method for automatically creating shopping mall banner sentences
JP2022020149A (en) Information processing apparatus and program
JP2016095727A (en) Display device, server, communication support system, communication support method, and control program
JP6577126B1 (en) Avatar display control method
JP2022018724A (en) Information processing device, information processing method, and information processing program
JP2018014065A (en) Method and program for supporting cross-language conversation
US20100083130A1 (en) Computer product, content providing apparatus, and content providing method
JP2020052697A (en) Advertisement-running monitoring and assisting device, advertisement-running monitoring and assisting method and advertisement-running monitoring and assisting program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180713

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180724

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181211

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190305

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190531

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190625

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190628

R150 Certificate of patent or registration of utility model

Ref document number: 6550111

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150