JP2019175188A - Evaluation acquisition system - Google Patents

Evaluation acquisition system Download PDF

Info

Publication number
JP2019175188A
JP2019175188A JP2018063345A JP2018063345A JP2019175188A JP 2019175188 A JP2019175188 A JP 2019175188A JP 2018063345 A JP2018063345 A JP 2018063345A JP 2018063345 A JP2018063345 A JP 2018063345A JP 2019175188 A JP2019175188 A JP 2019175188A
Authority
JP
Japan
Prior art keywords
user
unit
evaluation
product
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018063345A
Other languages
Japanese (ja)
Other versions
JP6964549B2 (en
Inventor
友貴 島貫
Tomoki Shimanuki
友貴 島貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Gas Co Ltd
Original Assignee
Tokyo Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Gas Co Ltd filed Critical Tokyo Gas Co Ltd
Priority to JP2018063345A priority Critical patent/JP6964549B2/en
Publication of JP2019175188A publication Critical patent/JP2019175188A/en
Application granted granted Critical
Publication of JP6964549B2 publication Critical patent/JP6964549B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Cash Registers Or Receiving Machines (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

To provide an evaluation acquisition system capable of acquiring highly reliable evaluation-related information.SOLUTION: An evaluation acquisition system is provided, comprising: reception means for receiving a connection request from a user terminal of a user visiting a restaurant; display control means for displaying a list of products (dishes) offered by the restaurant on the user terminal; order reception means for receiving orders for products from the user terminal; and grasping means configured to grasp product evaluation-related information from behavior of the user.SELECTED DRAWING: Figure 3

Description

本発明は、評価取得システムに関する。   The present invention relates to an evaluation acquisition system.

近年、飲食店の評価情報を提供するシステムが提案されている。
特許文献1に記載された情報提供システムは、飲食店の評価情報をユーザから口コミ情報として受け付け、受け付けた口コミ情報を他のユーザに公開するシステムである。この情報提供システムにおいては、単に口コミ情報を公開するだけでなく、各投稿者から得意地域や得意ジャンルの登録を受け付け、各投稿者が自分の得意地域や得意ジャンルに該当する飲食店に対して投稿した口コミ情報を各投稿者に共通する得意地域や得意ジャンルごとに集計することにより、飲食店をランク付けした地域やジャンルごとの評価ランキングに係る情報を生成することとしている。
In recent years, a system for providing restaurant evaluation information has been proposed.
The information providing system described in Patent Literature 1 is a system that accepts restaurant evaluation information from a user as word-of-mouth information and opens the accepted word-of-mouth information to other users. In this information provision system, not only publishing word-of-mouth information, but also accepting registration of specialty areas and genres from each contributor, and each contributor to restaurants corresponding to his / her favorite areas and genres. By summing up posted word-of-mouth information for each of the specialty areas and genres that are common to each contributor, information related to the ranking of restaurants and the evaluation ranking for each genre is generated.

特開2007−193427号公報JP 2007-193427 A

飲食店においては、顧客が美味しいと感じる商品を提供することが望ましい。それゆえ、顧客から、飲食した商品の評価に関する情報を取得し、取得した情報を、その後に調理する際に参考にすることが考えられる。そして、取得する情報は、確度が高いことが望ましい。
本発明は、確度が高い評価に関する情報を取得することができる評価取得システムを提供することを目的とする。
In restaurants, it is desirable to provide products that customers feel delicious. Therefore, it is conceivable that information related to the evaluation of a product that has been eaten or consumed is acquired from a customer, and the acquired information is used as a reference when cooking. And it is desirable that the acquired information has high accuracy.
An object of this invention is to provide the evaluation acquisition system which can acquire the information regarding evaluation with high accuracy.

かかる目的のもと完成させた本発明は、飲食店に来訪したユーザのユーザ端末からの接続要求を受け付ける受付手段と、前記飲食店にて提供する商品の一覧を前記ユーザ端末に表示させる表示制御手段と、前記ユーザ端末から前記商品の注文を受ける受注手段と、前記商品の評価に関する情報を、前記ユーザの挙動から把握する把握手段と、を備えることを特徴とする評価取得システムである。
ここで、前記把握手段は、前記ユーザの発話を録音する録音手段が録音した発話内容に基づいて前記商品の評価に関する情報を把握しても良い。
また、前記把握手段は、前記ユーザの表情を撮像する撮像手段が撮影した前記商品を飲食した後の当該ユーザの表情に基づいて当該商品の評価に関する情報を把握しても良い。
また、前記把握手段は、前記受注手段が受けた注文に基づいて前記ユーザが飲食した商品を特定しても良い。
また、前記把握手段は、録音手段が録音した前記ユーザの発話内容と、撮像手段が撮影した画像とに基づいて前記商品の評価に関する情報を把握しても良い。
また、前記把握手段は、前記撮像手段が撮影した画像に基づいて前記ユーザが飲食した商品を特定し、前記録音手段が録音した発話内容に基づいて当該商品の評価を把握しても良い。
また、前記把握手段は、前記受注手段が注文を受けた複数の商品の中から選択することで前記ユーザが飲食した商品を特定しても良い。
The present invention completed for this purpose includes a reception means for receiving a connection request from a user terminal of a user who has visited a restaurant, and a display control for displaying a list of products provided at the restaurant on the user terminal. An evaluation acquisition system comprising: means; order receiving means for receiving an order for the product from the user terminal; and grasping means for grasping information related to the evaluation of the product from the behavior of the user.
Here, the grasping means may grasp information relating to the evaluation of the product based on the utterance content recorded by the recording means for recording the user's utterance.
In addition, the grasping unit may grasp information related to the evaluation of the product based on the user's facial expression after eating and drinking the product captured by the imaging unit that captures the user's facial expression.
In addition, the grasping unit may specify a product eaten or consumed by the user based on an order received by the order receiving unit.
The grasping means may grasp information related to the evaluation of the product based on the user's utterance content recorded by the recording means and an image taken by the imaging means.
Further, the grasping means may identify a product eaten or consumed by the user based on an image taken by the imaging means, and grasp an evaluation of the product based on the utterance content recorded by the recording means.
In addition, the grasping unit may specify a product eaten or consumed by the user by selecting from a plurality of products for which the order receiving unit has received an order.

本発明によれば、確度が高い評価に関する情報を取得することができる評価取得システムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the evaluation acquisition system which can acquire the information regarding evaluation with high accuracy can be provided.

実施の形態に係るキャッシュレスシステムの概略構成を例示した図である。It is the figure which illustrated schematic structure of the cashless system concerning an embodiment. ユーザ端末の概略構成を例示した図である。It is the figure which illustrated schematic structure of the user terminal. サーバの機能構成を例示したブロック図である。It is the block diagram which illustrated the functional composition of the server. ユーザ端末に表示されるアクセス画面の一例を示す図である。It is a figure which shows an example of the access screen displayed on a user terminal. ユーザ端末に表示されるメニュー画面の一例を示す図である。It is a figure which shows an example of the menu screen displayed on a user terminal. 記憶部が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which a memory | storage part memorize | stores. ユーザ端末に表示される会計画面の一例を示す図である。It is a figure which shows an example of the accounting screen displayed on a user terminal. ユーザ端末に表示されるまとめ会計画面の一例を示す図である。It is a figure which shows an example of the summary accounting screen displayed on a user terminal. ユーザ端末に表示されるまとめ会計時の支払い画面の一例を示す図である。It is a figure which shows an example of the payment screen at the time of the summary accounting displayed on a user terminal. ユーザ端末に表示される端末毎会計時の支払い画面の一例を示す図である。It is a figure which shows an example of the payment screen at the time of the accounting for every terminal displayed on a user terminal. ユーザ端末に表示される同等割会計時の支払い画面の一例を示す図である。It is a figure which shows an example of the payment screen at the time of the equivalent percent accounting displayed on a user terminal. ユーザ端末に表示される特殊割会計画面の一例を示す図である。It is a figure which shows an example of the special discount accounting screen displayed on a user terminal. ユーザ端末に表示される特殊割会計時の支払い画面の一例を示す図である。It is a figure which shows an example of the payment screen at the time of the special discount accounting displayed on a user terminal. 評価把握部の機能構成を例示したブロック図である。It is the block diagram which illustrated the functional composition of the evaluation grasping part. 評価把握部が行う評価把握処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the evaluation recognition process which an evaluation recognition part performs. 店舗端末の機能構成を例示したブロック図である。It is the block diagram which illustrated the functional composition of the store terminal. 本実施の形態に係るキャッシュレスシステムにおける動作例を示したシーケンス図である。It is the sequence diagram which showed the operation example in the cashless system which concerns on this Embodiment. 本実施の形態に係るキャッシュレスシステムにおける動作例を示したシーケンス図である。It is the sequence diagram which showed the operation example in the cashless system which concerns on this Embodiment.

以下、添付図面を参照して、実施の形態について詳細に説明する。
図1は、本実施の形態に係るキャッシュレスシステム1の概略構成を例示した図である。
キャッシュレスシステム1は、ユーザが所有するユーザ端末10と、飲食店等の店舗にて提供可能なメニューの管理等を行うサーバ20と、店舗が所有する店舗端末30と、周知のプリンタ40とを備えている。また、キャッシュレスシステム1は、マイク61と、カメラ62と、通信サーバ63とを有し、店舗にて提供された商品の評価に関する情報を取得する取得システム60を備えている。
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
FIG. 1 is a diagram illustrating a schematic configuration of a cashless system 1 according to the present embodiment.
The cashless system 1 includes a user terminal 10 owned by a user, a server 20 that manages a menu that can be provided at a store such as a restaurant, a store terminal 30 owned by the store, and a known printer 40. I have. The cashless system 1 includes a microphone 61, a camera 62, and a communication server 63, and includes an acquisition system 60 that acquires information related to evaluation of products provided at a store.

ユーザ端末10、サーバ20、店舗端末30及び取得システム60は、装置間を通信可能に接続するネットワーク50に接続されており、ネットワーク50を介して互いに通信を行うことが可能となっている。ネットワーク50は、各システム及び装置の間のデータ通信に用いられる通信ネットワークであれば特に限定されず、例えばLAN(Local Area Network)、WAN(Wide Area Network)、インターネットであることを例示することができる。データ通信に用いられる通信回線は、有線か無線かを問わず、これらを併用しても良い。また、ゲートウェイ装置やルータ等の中継装置を用い、複数のネットワークや通信回線を介して各装置を接続するように構成しても良い。店舗端末30とプリンタ40とは、LAN、bluetooth(登録商標)や赤外線通信等の無線通信又は有線通信にて、互いに通信可能となっている。また、店舗端末30とプリンタ40とは、WAN、インターネットにて、互いに通信可能であっても良い。   The user terminal 10, the server 20, the store terminal 30, and the acquisition system 60 are connected to a network 50 that connects the apparatuses so that they can communicate with each other, and can communicate with each other via the network 50. The network 50 is not particularly limited as long as it is a communication network used for data communication between each system and device. For example, the network 50 may be a LAN (Local Area Network), a WAN (Wide Area Network), or the Internet. it can. A communication line used for data communication may be used in combination regardless of whether it is wired or wireless. Further, a relay device such as a gateway device or a router may be used to connect each device via a plurality of networks or communication lines. The shop terminal 30 and the printer 40 can communicate with each other by wireless communication such as LAN, bluetooth (registered trademark), infrared communication, or wired communication. Further, the shop terminal 30 and the printer 40 may be able to communicate with each other via a WAN or the Internet.

<ユーザ端末10>
図2は、ユーザ端末10の概略構成を例示した図である。
ユーザ端末10は、装置全体を制御する制御部11と、データ等の記憶に用いられる記憶部12と、操作受付画面や画像の表示に使用される表示部13と、ユーザの入力操作を受け付ける操作部14と、外部装置との通信に用いられる通信部15とを備えている。また、ユーザ端末10は、カメラ16と、スピーカ17と、マイク18とを備えている。
<User terminal 10>
FIG. 2 is a diagram illustrating a schematic configuration of the user terminal 10.
The user terminal 10 includes a control unit 11 that controls the entire apparatus, a storage unit 12 that is used to store data, a display unit 13 that is used to display an operation reception screen and an image, and an operation that receives user input operations. Unit 14 and a communication unit 15 used for communication with an external device. The user terminal 10 includes a camera 16, a speaker 17, and a microphone 18.

制御部11は、CPU(Central Processing Unit)11a、ROM(Read Only Memory)11b、RAM(Random Access Memory)11cにより構成される。ROM11bには、CPU11aにより実行される基本プログラム(オペレーションシステム)や各種の設定等が記憶されている。CPU11aは、RAM11cを作業エリアに使用し、ROM11bや記憶部12から読み出したアプリケーションプログラムを実行する。CPU11aがプログラムを実行することにより、ユーザ端末10の各部が制御される。   The control unit 11 includes a CPU (Central Processing Unit) 11a, a ROM (Read Only Memory) 11b, and a RAM (Random Access Memory) 11c. The ROM 11b stores a basic program (operation system) executed by the CPU 11a, various settings, and the like. The CPU 11a uses the RAM 11c as a work area and executes an application program read from the ROM 11b or the storage unit 12. Each part of the user terminal 10 is controlled by the CPU 11a executing the program.

記憶部12は、半導体メモリなどの記憶装置であることを例示することができる。
表示部13は、静止画像や動画像等を表示するディスプレイ装置である。表示部13は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイであることを例示することができる。
操作部14は、ユーザからの操作を受け付ける入力装置である。操作部14は、ボタン、スイッチ、タッチパネルであることを例示することができる。
通信部15は、通信インターフェースであることを例示することができる。
カメラ16は、静止画又は動画を撮像することができるデジタルカメラであることを例示することができる。
スピーカ17は、制御部11からの電気的な音信号を音に変換して出力する装置であることを例示することができる。
マイク18は、ユーザ端末10の外部から入力される音を電気的な音信号に変換して制御部11に出力する装置であることを例示することができる。
It can be exemplified that the storage unit 12 is a storage device such as a semiconductor memory.
The display unit 13 is a display device that displays still images, moving images, and the like. The display unit 13 can be exemplified as a liquid crystal display or an organic EL (Electro Luminescence) display.
The operation unit 14 is an input device that receives an operation from a user. The operation part 14 can illustrate that it is a button, a switch, and a touch panel.
It can be exemplified that the communication unit 15 is a communication interface.
It can be exemplified that the camera 16 is a digital camera capable of capturing a still image or a moving image.
The speaker 17 can be exemplified as a device that converts an electrical sound signal from the control unit 11 into sound and outputs the sound.
The microphone 18 can be exemplified as a device that converts sound input from the outside of the user terminal 10 into an electrical sound signal and outputs the electrical sound signal to the control unit 11.

以上のように構成されたユーザ端末10は、多機能携帯電話(所謂「スマートフォン」)、携帯電話(所謂「フィーチャーフォン」)、携帯情報端末(PDA)、タブレット端末、タブレットPC、ノートPC等であることを例示することができる。   The user terminal 10 configured as described above is a multi-function mobile phone (so-called “smart phone”), a mobile phone (so-called “feature phone”), a personal digital assistant (PDA), a tablet terminal, a tablet PC, a notebook PC, or the like. It can be exemplified.

ユーザ端末10は、カメラ16にて、QRコード(登録商標)等のコード情報を読み取ることができる機能を備えている。
また、ユーザ端末10は、商品又はサービスの対価としてお金を支払う場合に、電子データをやり取りすることで支払いを行う電子決済機能を備えている。電子決済としては、クレジットカード情報を予め登録しておくと、暗証番号の入力等の認証手続きをすることなく、決済可能な、アップルペイ(登録商標)やグーグルウォレット(登録商標)等の電子決済サービス(電子支払いシステム)を利用するものであることを例示することができる(ただし、例えばアップルペイ(登録商標)のように、指紋認証や顔認証は必要であっても良い)。また、電子決済としては、クレジットカード決済サービスや、商品代金を携帯電話の利用料金とまとめて支払うキャリア決済サービスを利用するものであることを例示することができる。
The user terminal 10 has a function that allows the camera 16 to read code information such as QR code (registered trademark).
In addition, the user terminal 10 has an electronic settlement function that performs payment by exchanging electronic data when paying money as a price for goods or services. Electronic payments such as Apple Pay (registered trademark) and Google Wallet (registered trademark) that can be settled without performing authentication procedures such as entering a PIN if credit card information is registered in advance. It can be exemplified that the service (electronic payment system) is used (however, fingerprint authentication and face authentication may be necessary as in Apple Pay (registered trademark), for example). Examples of the electronic payment include use of a credit card payment service or a carrier payment service that pays a product price together with a mobile phone usage fee.

<サーバ20>
図3は、サーバ20の機能構成を例示したブロック図である。
サーバ20は、ユーザ端末10が備える、制御部11、記憶部12、表示部13、操作部14、通信部15と同様に、制御部21、記憶部22、表示部(不図示)、操作部(不図示)、通信部(不図示)を備えている。記憶部22は、HDD(Hard Disk Drive)であっても良い。
<Server 20>
FIG. 3 is a block diagram illustrating a functional configuration of the server 20.
Similarly to the control unit 11, the storage unit 12, the display unit 13, the operation unit 14, and the communication unit 15 included in the user terminal 10, the server 20 includes a control unit 21, a storage unit 22, a display unit (not shown), and an operation unit. (Not shown) and a communication unit (not shown). The storage unit 22 may be an HDD (Hard Disk Drive).

制御部21は、CPU(不図示)、ROM(不図示)、RAM(不図示)等を有しており、CPUがプログラムを実行することにより、以下の機能を実現する。
すなわち、制御部21は、店舗に来訪した一のグループを構成する複数のユーザ(客)が有する複数のユーザ端末10の各々のユーザ端末10からの接続要求を受け付ける受付手段の一例としての受信部211を有している。また、制御部21は、受信部211が受け付けた接続要求から、各々のユーザ端末10を一意に特定して識別する識別手段の一例としての識別部212を有している。また、制御部21は、ユーザ端末10に対して、商品に関する各種情報を有するウェブページを公開するHTML(HyperText Markup Language)文書を生成する生成部213を有している。また、制御部21は、ユーザ端末10から、店舗にて提供可能な商品の注文を受け付ける受注部214と、ユーザ端末10からなされた注文に対して料金を課す課金手段の一例としての課金部215とを有している。また、制御部21は、コード情報を作成する作成部216と、生成部213が生成したHTML文書や作成部216が作成したコード情報を送信する送信部217とを有している。また、制御部21は、商品の評価に関する情報を把握する評価把握部220を有している。
The control unit 21 includes a CPU (not shown), a ROM (not shown), a RAM (not shown), and the like, and the following functions are realized when the CPU executes a program.
That is, the control unit 21 is a receiving unit as an example of a receiving unit that receives a connection request from each of the user terminals 10 of the plurality of user terminals 10 included in a plurality of users (customers) that form one group that has visited the store. 211. In addition, the control unit 21 includes an identification unit 212 as an example of an identification unit that uniquely identifies and identifies each user terminal 10 from the connection request received by the reception unit 211. In addition, the control unit 21 includes a generation unit 213 that generates, for the user terminal 10, an HTML (HyperText Markup Language) document that publishes a web page having various pieces of information about products. In addition, the control unit 21 receives from the user terminal 10 an order receiving unit 214 that accepts orders for products that can be provided in the store, and a charging unit 215 as an example of a charging unit that charges a fee for orders placed from the user terminal 10. And have. In addition, the control unit 21 includes a creation unit 216 that creates code information, and a transmission unit 217 that transmits the HTML document created by the creation unit 213 and the code information created by the creation unit 216. Moreover, the control part 21 has the evaluation grasping part 220 which grasps | ascertains the information regarding evaluation of goods.

(受信部)
受信部211は、ネットワーク50を介して、ユーザ端末10から送信されてきた情報を受信する。
ここで、受信部211がユーザ端末10から最初に受信する情報について例示する。
図4は、ユーザ端末10に表示されるアクセス画面70の一例を示す図である。
図4に示したアクセス画面70は、予め発行された後述するコード情報をユーザ端末10のカメラ16が読み取った後にユーザ端末10の表示部13に表示される画面である。図4に示すように、アクセス画面70には、予め定められたアドレス70aが表示される。
ユーザ端末10を所有するユーザがアドレス70aを押下すると、サーバ20の受信部211は、ユーザ端末10が予め発行しておいたコード情報を読み取った旨の情報と、ユーザ端末10の情報とを受信する。
(Receiver)
The receiving unit 211 receives information transmitted from the user terminal 10 via the network 50.
Here, information received first from the user terminal 10 by the receiving unit 211 is illustrated.
FIG. 4 is a diagram illustrating an example of the access screen 70 displayed on the user terminal 10.
The access screen 70 illustrated in FIG. 4 is a screen displayed on the display unit 13 of the user terminal 10 after the camera 16 of the user terminal 10 reads code information, which will be described later, issued in advance. As shown in FIG. 4, a predetermined address 70 a is displayed on the access screen 70.
When the user who owns the user terminal 10 presses the address 70a, the reception unit 211 of the server 20 receives information indicating that the code information issued in advance by the user terminal 10 and the information of the user terminal 10 are received. To do.

(識別部)
識別部212は、受信部211が受け付けたユーザ端末10からの情報に基づいて、ユーザ端末10を一意に特定して識別する。
上述したようにして、ユーザ端末10から、予め発行された後述するコード情報を読み取った後に表示されるアドレスにアクセスされると、受信部211が、このユーザ端末10から送信された情報を受信し、識別部212が、受信部211が受信した情報を解析する。識別部212は、ユーザ端末10から送信された情報に基づいて、ユーザ端末10は、店舗内のどのエリアに付与しておいたコード情報を読み込んだかを把握する。言い換えれば、識別部212は、店舗内の所定のエリアにて、ユーザ端末10を所有するユーザが飲食することを把握する。なお、エリアは、テーブル毎に、又は、部屋毎に区画された領域であることを例示することができる。
(Identification part)
The identification unit 212 uniquely identifies and identifies the user terminal 10 based on the information from the user terminal 10 received by the reception unit 211.
As described above, when the user terminal 10 accesses an address displayed after reading pre-issued code information to be described later, the receiving unit 211 receives the information transmitted from the user terminal 10. The identification unit 212 analyzes the information received by the reception unit 211. Based on the information transmitted from the user terminal 10, the identification unit 212 knows which area in the store the code information assigned to the store has been read. In other words, the identification unit 212 grasps that the user who owns the user terminal 10 eats and drinks in a predetermined area in the store. The area can be exemplified as an area divided for each table or for each room.

識別部212は、エリアの識別番号であるエリア番号と、ユーザ端末10の識別番号であるユーザ番号とを関連付けて記憶部22に記憶する。識別部212は、一のエリアに関連付けられたコード情報を読み取ることで表示されるアドレスにアクセスしてきたユーザ端末10がN番目である場合には、当該ユーザ端末10のユーザ番号をNとする。例えば、識別部212は、エリア番号が1であるエリアに関連付けられたコード情報を読み取ることで表示されるアドレスにアクセスしてきたユーザ端末10が1番目である場合には、当該ユーザ端末10のユーザ番号を1とする。   The identification unit 212 associates the area number that is the identification number of the area and the user number that is the identification number of the user terminal 10 and stores them in the storage unit 22. When the user terminal 10 that has accessed the address displayed by reading the code information associated with one area is the Nth, the identification unit 212 sets the user number of the user terminal 10 to N. For example, when the user terminal 10 that has accessed the address displayed by reading the code information associated with the area having the area number 1 is the first, the identification unit 212 is the user of the user terminal 10. The number is 1.

また、識別部212は、同じエリア(同じエリア番号)に関連付けられたコード情報を読み取ることで表示されるアドレスにアクセスしてきたユーザ端末10が複数ある場合には、これらのユーザ端末10を、一のグループを構成する複数のユーザが有する複数のユーザ端末10であると把握する。
このように、エリア番号に基づくことで、一のエリアにて飲食するグループと、他のエリアにて飲食するグループとを区別することが可能となる。また、識別部212がユーザ番号を付与することで、同じエリアにて飲食する複数のユーザを区別することが可能となる。
In addition, when there are a plurality of user terminals 10 that have accessed the address displayed by reading the code information associated with the same area (the same area number), the identification unit 212 identifies these user terminals 10 as one. It is grasped that it is a plurality of user terminals 10 possessed by a plurality of users constituting the group.
Thus, based on the area number, it is possible to distinguish between a group eating and drinking in one area and a group eating and drinking in another area. Moreover, it becomes possible to distinguish the some user who eats and drinks in the same area because the identification part 212 gives a user number.

(生成部)
生成部213は、ユーザ端末10からのアクセスに応じて、店舗にて提供されている商品に関する各種情報を有するウェブページを公開するHTML文書を生成する。
例えば、生成部213は、受信部211がユーザ端末10から最初のアクセス(コード情報を読み込んだ後に表示されるアドレス70aへのアクセス)を受信した場合に、店舗にて提供可能な商品を表示した画面を表示させるためのHTML文書を生成する。
(Generator)
In response to access from the user terminal 10, the generation unit 213 generates an HTML document that publishes a web page having various information related to products provided at a store.
For example, when the reception unit 211 receives the first access from the user terminal 10 (access to the address 70a displayed after reading the code information), the generation unit 213 displays a product that can be provided at the store. An HTML document for displaying a screen is generated.

図5は、ユーザ端末10に表示されるメニュー画面71の一例を示す図である。
生成部213が生成したメニュー画面71を表示させるためのHTML文書は、送信部217を介してユーザ端末10に送信される。サーバ20から送信されたHTML文書を受信したユーザ端末10においては、制御部11が、表示部13の表示画面13aにHTML文書に基づく、図5に示したメニュー画面71を表示させる。
メニュー画面71には、店舗にて提供される商品毎に、商品名71a、商品画像71b、商品説明71c及び「注文」と記載された注文ボタン71d等が表示される。また、メニュー画面71には、商品一覧とともに、エリア番号と、ユーザ番号とが表示される。また、メニュー画面71には、「会計」と記載された会計ボタン71eが表示される。
なお、図5に例示したメニュー画面71においては、揚げ物、焼物等のカテゴリー毎に、そのカテゴリーに含まれる商品が表示される画面となるように構成されているが、全ての商品を一の画面で表示しても良い。また、一の画面にそのカテゴリーに含まれる全ての商品を表示すると見難くなる場合には、複数の画面にて構成しても良い。
生成部213は、メニュー画面71に表示された会計ボタン71eが押下された場合に、後述する会計画面72(図7参照)を表示させるためのHTML文書を生成する。
FIG. 5 is a diagram illustrating an example of the menu screen 71 displayed on the user terminal 10.
The HTML document for displaying the menu screen 71 generated by the generation unit 213 is transmitted to the user terminal 10 via the transmission unit 217. In the user terminal 10 that has received the HTML document transmitted from the server 20, the control unit 11 causes the display screen 13 a of the display unit 13 to display the menu screen 71 shown in FIG. 5 based on the HTML document.
On the menu screen 71, for each product provided in the store, a product name 71a, a product image 71b, a product description 71c, an order button 71d with “Order”, and the like are displayed. In addition, the menu screen 71 displays an area number and a user number together with a list of products. On the menu screen 71, an accounting button 71e described as “accounting” is displayed.
The menu screen 71 illustrated in FIG. 5 is configured to be a screen on which products included in the category are displayed for each category such as fried food and grilled food, but all the products are displayed on one screen. May be displayed. Further, when it is difficult to view all the products included in the category on one screen, the screen may be configured with a plurality of screens.
The generation unit 213 generates an HTML document for displaying an accounting screen 72 (see FIG. 7) described later when the accounting button 71e displayed on the menu screen 71 is pressed.

(受注部)
図6は、記憶部22が記憶する情報の一例を示す図である。
受注部214は、ユーザ端末10からの注文を受け付ける。
受注部214は、ユーザ端末10の表示部13に表示されたメニュー画面71において、注文ボタン71dが押下された旨の情報を受信部211が受信した場合に、ユーザ端末10から注文があったことを把握する。
受注部214は、注文を受けた商品及びその金額と、注文を行ってきたユーザ端末10のユーザ番号及びエリア番号とを関連付けて記憶部22に記憶する。
なお、図6に示すように、エリア番号が1であるエリアに関連付けられたコード情報を読み取ることで表示されるアドレスに、1番目にアクセスしてきたユーザ端末10をユーザ端末10A、2番目にアクセスしてきたユーザ端末10をユーザ端末10B、3番目にアクセスしてきたユーザ端末10をユーザ端末10Cと称す。
また、受注部214は、注文を受けた商品、注文を行ったユーザ端末10のユーザ番号及びエリア番号等の情報を、送信部217を介して店舗端末30に送信する。
(Order Department)
FIG. 6 is a diagram illustrating an example of information stored in the storage unit 22.
The order receiving unit 214 receives an order from the user terminal 10.
The order receiving unit 214 has received an order from the user terminal 10 when the receiving unit 211 receives information indicating that the order button 71d has been pressed on the menu screen 71 displayed on the display unit 13 of the user terminal 10. To figure out.
The order receiving unit 214 stores in the storage unit 22 an associated product and its amount, and the user number and area number of the user terminal 10 that has placed the order in association with each other.
As shown in FIG. 6, the user terminal 10 that has accessed the address first by accessing the address displayed by reading the code information associated with the area having the area number 1 is accessed second by the user terminal 10 </ b> A. The user terminal 10 that has been accessed is referred to as a user terminal 10B, and the user terminal 10 that has accessed third is referred to as a user terminal 10C.
Further, the order receiving unit 214 transmits information such as the ordered product and the user number and area number of the user terminal 10 that has placed the order to the store terminal 30 via the transmission unit 217.

(課金部)
課金部215は、予め定められた複数の課金方法の中から、ユーザ端末10において選択された会計方法に応じた課金方法にて、ユーザ端末10に課金する。また、課金部215は、ユーザ端末10を用いて支払うべき金額を、送信部217を介して、当該ユーザ端末10に対して送信する。
(Billing Department)
The charging unit 215 charges the user terminal 10 by a charging method corresponding to the accounting method selected by the user terminal 10 from among a plurality of predetermined charging methods. In addition, the charging unit 215 transmits the amount to be paid using the user terminal 10 to the user terminal 10 via the transmission unit 217.

複数の課金方法の中には、一のエリアで飲食された全商品(全ユーザ端末10を介して注文された商品の全て)の合計金額を、一のユーザ端末10に対して課金するまとめ課金方法がある。
また、複数の課金方法の中には、ユーザ端末10を介して注文された商品のみの合計金額を、当該ユーザ端末10に対して課金する端末毎課金方法がある。
また、複数の課金方法の中には、一のエリアで飲食された全商品(全ユーザ端末10を介して注文された商品の全て)の合計金額を、当該一のエリアに関連付けて記憶されているユーザ端末10の数にて同等割した金額を、各ユーザ端末10に対して課金する同等割課金方法がある。
また、複数の課金方法の中には、一のエリアで飲食された全商品(全ユーザ端末10を介して注文された商品の全て)の合計金額を、ユーザが入力した割合で分割した金額を、各ユーザ端末10に対して課金する特殊割課金方法がある。
Among the plurality of billing methods, collective billing that charges the total amount of all products eaten and eaten in one area (all products ordered through all user terminals 10) to one user terminal 10 There is a way.
Among the plurality of billing methods, there is a per-terminal billing method that charges the user terminal 10 for the total price of only the products ordered through the user terminal 10.
In addition, among the plurality of billing methods, the total amount of all the products eaten and consumed in one area (all the products ordered through all the user terminals 10) is stored in association with the one area. There is an equivalent billing method of charging each user terminal 10 with an amount that is equally divided by the number of user terminals 10 that are present.
In addition, among a plurality of billing methods, an amount obtained by dividing the total amount of all products eaten and eaten in one area (all products ordered through all user terminals 10) at a rate input by the user There is a special billing method for charging each user terminal 10.

言い換えれば、ユーザ端末10を有するユーザは、予め定められた複数の会計方法の中から、一の会計方法を選択可能である。複数の会計方法の中には、一のエリアで飲食した全商品(全ユーザ端末10を介して注文した商品の全て)の合計金額を、一のユーザ端末10を用いて支払うまとめ会計方法がある。また、複数の会計方法の中には、ユーザ端末10を介して注文した商品のみの合計金額を、当該ユーザ端末10を用いて支払う端末毎会計方法がある。ユーザが、まとめ会計方法、端末毎会計方法を選択した場合には、サーバ20は、それぞれ、まとめ課金方法、端末毎課金方法にて課金する。   In other words, the user having the user terminal 10 can select one accounting method from a plurality of predetermined accounting methods. Among the plurality of accounting methods, there is a collective accounting method in which the total amount of all the products eaten and eaten in one area (all the products ordered through all user terminals 10) is paid using one user terminal 10. . In addition, among the plurality of accounting methods, there is a per-terminal accounting method in which the total price of only the products ordered through the user terminal 10 is paid using the user terminal 10. When the user selects the summary accounting method and the terminal accounting method, the server 20 charges by the summary accounting method and the terminal accounting method, respectively.

また、複数の会計方法の中には、一のエリアで飲食した全商品の合計金額を、当該一のエリアに関連付けて記憶されているユーザ端末10の数にて同等割した金額を、各ユーザ端末10を用いて支払う同等割会計方法がある。
また、複数の会計方法の中には、一のエリアで飲食した全商品の合計金額を、ユーザが入力した割合で分割した金額を、各ユーザ端末10を用いて支払う特殊割会計方法がある。ユーザが、同等割会計方法、特殊割会計方法を選択した場合には、サーバ20は、それぞれ、同等割課金方法、特殊割課金方法にて課金する。
In addition, in a plurality of accounting methods, each user has an amount obtained by equally dividing the total amount of all products eaten and consumed in one area by the number of user terminals 10 stored in association with the one area. There is an equivalent percent accounting method that pays using the terminal 10.
In addition, among the plurality of accounting methods, there is a special accounting method that pays, using each user terminal 10, an amount obtained by dividing the total amount of all products eaten and consumed in one area by a ratio input by the user. When the user selects the equivalent percent accounting method or the special percent accounting method, the server 20 charges using the equivalent percent accounting method or the special percent accounting method, respectively.

図7は、ユーザ端末10に表示される会計画面72の一例を示す図である。
会計画面72は、図5に示したメニュー画面71に表示された会計ボタン71eが押下された場合に表示される。会計画面72には、「まとめ会計」と記載されたまとめ会計ボタン72aと、「端末毎会計」と記載された端末毎会計ボタン72bと、「同等割会計」と記載された同等割会計ボタン72cと、「特殊割会計」と記載された特殊割会計ボタン72dとが表示される。
FIG. 7 is a diagram illustrating an example of a transaction screen 72 displayed on the user terminal 10.
The accounting screen 72 is displayed when the accounting button 71e displayed on the menu screen 71 shown in FIG. 5 is pressed. On the accounting screen 72, a summary accounting button 72a described as "Summary accounting", a terminal accounting button 72b described as "Terminal accounting", and an equivalent accounting button 72c described as "Equivalent accounting" And a special percent accounting button 72d with “Special percent accounting” written therein.

図8は、ユーザ端末10に表示されるまとめ会計画面73の一例を示す図である。
まとめ会計画面73は、まとめ会計ボタン72aが押下された場合に表示される。まとめ会計画面73には、どのユーザ端末10を用いて支払うかを選択するためのボタンとして、ユーザ番号が記載されたボタンがユーザ端末10の数の分だけ表示される。例えば、エリア番号が1であるエリアにて登録されたユーザ端末10が3個である場合には、図8に示すように、「ユーザ番号:1」、「ユーザ番号:2」、「ユーザ番号:3」と記載された3つのユーザ番号ボタン73aが表示される。
FIG. 8 is a diagram illustrating an example of the summary accounting screen 73 displayed on the user terminal 10.
The summary accounting screen 73 is displayed when the summary accounting button 72a is pressed. On the summary accounting screen 73, as many buttons as the buttons for selecting which user terminal 10 is used for payment, buttons corresponding to the number of user terminals 10 are displayed. For example, when there are three user terminals 10 registered in the area having the area number 1, as shown in FIG. 8, “user number: 1”, “user number: 2”, “user number” : 3 ”is displayed. Three user number buttons 73a are displayed.

図9は、ユーザ端末10に表示されるまとめ会計時の支払い画面74の一例を示す図である。
支払い画面74は、まとめ会計画面73にていずれかのユーザ番号ボタン73aが押下された場合に表示される。
図8に示したまとめ会計画面73において、例えば「ユーザ番号:2」と記載されたユーザ番号ボタン73aが押下された場合には、サーバ20の課金部215は、ユーザ番号が2であるユーザ端末10を用いてまとめ会計が行われると判断する。そして、課金部215は、ユーザ番号が2であるユーザ端末10に対して、合計金額等の情報を含んだHTML文書を、送信部217を介して送信する。その結果、ユーザ端末10の表示部13には、図9に示した支払い画面74が表示される。支払い画面74には、当該ユーザ端末10を用いて支払うべき金額(例えば12,000円)が請求金額として表示されるとともに、「確認」と記載された確認ボタン74aが表示される。ユーザが、支払い画面74に表示された確認ボタン74aを押下することにより、上述した電子決済サービスを利用して支払いが完了する。つまり、課金部215は、確認ボタン74aが押下された旨の情報を取得した場合には、ユーザ端末10において選択された電子決済サービスに応じた所定の決済処理を実行する。そして、課金部215は、所定の決済処理を実行した場合には、支払いが完了した旨の通知をユーザ端末10に対して送信しても良い。なお、ユーザ端末10が例えばクレジットカード決済サービスやキャリア決済サービスを利用する場合であって、認証手続きが必要なサービスを利用する場合には、課金部215は、ユーザ端末10において所定の認証手続きが行われた後に決済処理を実行する。
FIG. 9 is a diagram illustrating an example of a payment screen 74 displayed at the time of summary accounting displayed on the user terminal 10.
The payment screen 74 is displayed when any user number button 73 a is pressed on the summary accounting screen 73.
In the summary accounting screen 73 shown in FIG. 8, for example, when the user number button 73 a described as “user number: 2” is pressed, the charging unit 215 of the server 20 displays the user terminal whose user number is 2 10 is used to determine that summary accounting is performed. Then, the billing unit 215 transmits an HTML document including information such as the total amount to the user terminal 10 with the user number 2 via the transmission unit 217. As a result, the payment screen 74 shown in FIG. 9 is displayed on the display unit 13 of the user terminal 10. On the payment screen 74, an amount to be paid using the user terminal 10 (for example, 12,000 yen) is displayed as a billing amount, and a confirmation button 74 a with “confirm” is displayed. When the user presses the confirmation button 74a displayed on the payment screen 74, the payment is completed using the electronic payment service described above. That is, when the charging unit 215 acquires information indicating that the confirmation button 74a has been pressed, the charging unit 215 performs a predetermined payment process according to the electronic payment service selected on the user terminal 10. Then, the billing unit 215 may transmit a notification that the payment is completed to the user terminal 10 when a predetermined settlement process is executed. When the user terminal 10 uses a credit card payment service or a carrier payment service, for example, and uses a service that requires an authentication procedure, the charging unit 215 performs a predetermined authentication procedure in the user terminal 10. After the payment is made, the settlement process is executed.

図10は、ユーザ端末10に表示される端末毎会計時の支払い画面75の一例を示す図である。図10(a)には、ユーザ端末10Aの表示部13に表示される支払い画面75を例示し、図10(b)には、ユーザ端末10Bの表示部13に表示される支払い画面75を例示し、図10(c)には、ユーザ端末10Cの表示部13に表示される支払い画面75を例示している。
図7に示した会計画面72において、端末毎会計ボタン72bが押下された場合には、サーバ20の課金部215は、各ユーザ端末10を介して注文された商品のみの合計金額等の情報を含んだHTML文書を、送信部217を介して送信する。その結果、各ユーザ端末10の表示部13には、図10に例示したように、当該ユーザ端末10を用いて支払うべき金額(当該ユーザ端末10を介して注文された商品のみの合計金額(図10においては、ユーザ端末10Aが3,000円、ユーザ端末10Bが4,000円、ユーザ端末10Cが5,000円)が請求金額として表示されるとともに、「確認」と記載された確認ボタン74aが表示される。ユーザが、表示部13に表示された確認ボタン74aを押下することにより支払いが完了する。確認ボタン74aが押下された後の課金部215の処理は、上述した通りである。
FIG. 10 is a diagram showing an example of a payment screen 75 displayed at the user terminal 10 at the time of accounting for each terminal. 10A illustrates the payment screen 75 displayed on the display unit 13 of the user terminal 10A, and FIG. 10B illustrates the payment screen 75 displayed on the display unit 13 of the user terminal 10B. FIG. 10C illustrates a payment screen 75 displayed on the display unit 13 of the user terminal 10C.
In the accounting screen 72 shown in FIG. 7, when the terminal accounting button 72 b is pressed, the accounting unit 215 of the server 20 displays information such as the total price of only the products ordered through each user terminal 10. The included HTML document is transmitted via the transmission unit 217. As a result, as illustrated in FIG. 10, the display unit 13 of each user terminal 10 has an amount to be paid using the user terminal 10 (a total amount of only products ordered through the user terminal 10 (FIG. 10, the user terminal 10 </ b> A is 3,000 yen, the user terminal 10 </ b> B is 4,000 yen, and the user terminal 10 </ b> C is 5,000 yen) as a billing amount, and a confirmation button 74 a with “Confirm” is displayed. However, the payment is completed by pressing the confirmation button 74a displayed on the display unit 13. The processing of the charging unit 215 after the confirmation button 74a is pressed is as described above.

図11は、ユーザ端末10に表示される同等割会計時の支払い画面76の一例を示す図である。図11(a)には、ユーザ端末10Aの表示部13に表示される支払い画面76を例示し、図11(b)には、ユーザ端末10Bの表示部13に表示される支払い画面76を例示し、図11(c)には、ユーザ端末10Cの表示部13に表示される支払い画面76を例示している。
図7に示した会計画面72において、同等割会計ボタン72cが押下された場合には、サーバ20の課金部215は、一のエリアで飲食された全商品(全ユーザ端末10を介して注文された商品の全て)の合計金額を、ユーザ端末10の数にて同等割した金額等の情報を含んだHTML文書を、送信部217を介して全ユーザ端末10に送信する。その結果、各ユーザ端末10の表示部13には、図11に例示したように、当該ユーザ端末10を用いて支払うべき金額(合計金額を同等割した金額(所謂、割り勘した金額))が請求金額として表示されるとともに、「確認」と記載された確認ボタン74aが表示される。ユーザが、表示部13に表示された確認ボタン74aを押下することにより支払いが完了する。確認ボタン74aが押下された後の課金部215の処理は、上述した通りである。
FIG. 11 is a diagram showing an example of a payment screen 76 displayed at the user terminal 10 at the time of equivalent billing. FIG. 11A illustrates a payment screen 76 displayed on the display unit 13 of the user terminal 10A, and FIG. 11B illustrates a payment screen 76 displayed on the display unit 13 of the user terminal 10B. FIG. 11C illustrates a payment screen 76 displayed on the display unit 13 of the user terminal 10C.
In the accounting screen 72 shown in FIG. 7, when the equivalence accounting button 72 c is pressed, the accounting unit 215 of the server 20 orders all the products eaten and eaten in one area (all user terminals 10 are ordered). The HTML document including information such as an amount obtained by equally dividing the total amount of all the products) by the number of user terminals 10 is transmitted to all user terminals 10 via the transmission unit 217. As a result, as illustrated in FIG. 11, the display unit 13 of each user terminal 10 is charged with an amount to be paid using the user terminal 10 (an amount obtained by equally dividing the total amount (so-called split amount)). In addition to being displayed as a monetary amount, a confirmation button 74a with "confirmation" is displayed. The payment is completed when the user presses the confirmation button 74 a displayed on the display unit 13. The processing of the accounting unit 215 after the confirmation button 74a is pressed is as described above.

図12は、ユーザ端末10に表示される特殊割会計画面77の一例を示す図である。
特殊割会計画面77は、図7に示した会計画面72にて特殊割会計ボタン72dが押下された場合に表示される。特殊割会計画面77には、全てのユーザ番号が表示されるとともに、各ユーザ番号の横に、当該ユーザ番号のユーザ端末10の割合を入力する入力欄77aと、当該入力欄77aに入力する数字を増加させる増加ボタン77bと、当該入力欄77aに入力する数字を減少させる減少ボタン77cとがユーザ端末10の数の分だけ表示される。また、特殊割会計画面77には、全ての入力欄77aに入力する数字の合計が10となるように入力することを促すために、「合計が10となるように入力してください。」と表示される。また、特殊割会計画面77には、「決定」と記載された決定ボタン77dが表示される。
図12に示した特殊割会計画面77は、ユーザ番号1に対する割合を5、ユーザ番号2に対する割合を3、ユーザ番号2に対する割合を2とする場合の入力例である。
FIG. 12 is a diagram illustrating an example of the special discount accounting screen 77 displayed on the user terminal 10.
The special discount accounting screen 77 is displayed when the special discount accounting button 72d is pressed on the accounting screen 72 shown in FIG. The special account accounting screen 77 displays all user numbers, an input field 77a for inputting the ratio of the user terminal 10 of the user number beside each user number, and a number to be input to the input field 77a An increase button 77b for increasing the number and a decrease button 77c for decreasing the number input in the input field 77a are displayed for the number of user terminals 10. In addition, in order to urge the special discount accounting screen 77 to input so that the total of the numbers entered in all the input fields 77a is 10, “Please input so that the total is 10.” Is displayed. In addition, on the special discount accounting screen 77, a determination button 77d described as “decision” is displayed.
The special discount accounting screen 77 shown in FIG. 12 is an input example when the ratio to the user number 1 is 5, the ratio to the user number 2 is 3, and the ratio to the user number 2 is 2.

図13は、ユーザ端末10に表示される特殊割会計時の支払い画面78の一例を示す図である。
特殊割会計画面77において、全ユーザ端末10の割合が入力され、決定ボタン77dが押下された場合には、サーバ20の課金部215は、一のエリアで飲食した全商品(全ユーザ端末10を介して注文した商品の全て)の合計金額を、ユーザが入力した割合で分割した金額等の情報を含んだHTML文書を、送信部217を介して全ユーザ端末10に送信する。例えば、課金部215は、図12の特殊割会計画面77に例示したように、ユーザ番号1の割合が5、ユーザ番号2の割合が3、ユーザ番号3の割合が2である場合には、合計金額に5/10を乗算した金額等の情報を含んだHTML文書を、送信部217を介してユーザ番号1のユーザ端末10Aに対して送信する。また、課金部215は、合計金額に3/10を乗算した金額等の情報を含んだHTML文書を、ユーザ番号2のユーザ端末10Bに対して送信する。また、課金部215は、合計金額に2/10を乗算した金額等の情報を含んだHTML文書を、ユーザ番号3のユーザ端末10Cに対して送信する。
FIG. 13 is a diagram illustrating an example of the payment screen 78 for special discount accounting displayed on the user terminal 10.
When the ratio of all the user terminals 10 is input on the special discount accounting screen 77 and the determination button 77d is pressed, the charging unit 215 of the server 20 displays all the products eaten and consumed in one area (all the user terminals 10). An HTML document including information such as an amount obtained by dividing the total price of all the products ordered via the ratio entered by the user is transmitted to all user terminals 10 via the transmission unit 217. For example, as illustrated in the special discount accounting screen 77 of FIG. 12, the charging unit 215 has a ratio of user number 1 of 5, a ratio of user number 2 of 3, and a ratio of user number 3 of 2. An HTML document including information such as an amount obtained by multiplying the total amount by 5/10 is transmitted to the user terminal 10A having the user number 1 via the transmission unit 217. The accounting unit 215 transmits an HTML document including information such as an amount obtained by multiplying the total amount by 3/10 to the user terminal 10B having the user number 2. The accounting unit 215 transmits an HTML document including information such as an amount obtained by multiplying the total amount by 2/10 to the user terminal 10C having the user number 3.

その結果、各ユーザ端末10の表示部13には、図13に示した支払い画面78が表示される。支払い画面78には、各ユーザ端末10を用いて支払うべき金額が請求金額として表示される(金額は入力された割合に応じた値となる)とともに、「確認」と記載された確認ボタン74aが表示される。ユーザが、支払い画面78に表示された確認ボタン74aを押下することにより支払いが完了する。確認ボタン74aが押下された後の課金部215の処理は、上述した通りである。   As a result, the payment screen 78 shown in FIG. 13 is displayed on the display unit 13 of each user terminal 10. On the payment screen 78, the amount to be paid using each user terminal 10 is displayed as the amount to be charged (the amount is a value corresponding to the input ratio), and a confirmation button 74a described as “confirm” is displayed. Is displayed. The payment is completed when the user presses the confirmation button 74 a displayed on the payment screen 78. The processing of the accounting unit 215 after the confirmation button 74a is pressed is as described above.

(作成部)
作成部216は、店舗に予め定められたエリア毎に、当該エリアのエリア番号を含むコード情報を作成する。ユーザ端末10が、作成部216が作成したコード情報を読み取った後に表示されるアドレスにアクセスすることで、識別部212はどのエリアに配置されたコード情報を読み込んでアクセスしてきたかを把握することができる。
作成部216は、あるエリアにて飲食し終え、支払いが完了したことを把握した後に、当該エリアのコード情報を新たに作成する。支払いが完了したことは、例えば、課金部215が決済処理を実行した旨の情報を取得することにより把握することができる。また、作成部216は、店舗の従業員の指示に従ってコード情報を作成しても良い。従業員は、あるエリアにて飲食し終えたグループが店舗を出たことを確認した後にコード情報を作成しても良いし、営業が始まる前に当日必要と考えられる数のコード情報を作成しても良い。
作成部216は、作成したコード情報を含む情報を、送信部217を介して店舗端末30に送信する。店舗端末30からの指示に基づいて、プリンタ40が、例えば用紙にコード情報を含む画像を形成し、出力する(プリントアウトする)。
なお、エリアは、テーブル毎に、又は、部屋毎に区画されていることを例示することができる。ただし、テーブル又は部屋毎にコード情報を含む画像が形成された用紙を配置しておいたとしても、一のグループを構成する人数が、テーブル又は部屋毎に許容される人数を超える場合には、複数のエリアを利用する複数人で一のコード情報を共有させても良い。
(Creation Department)
The creation unit 216 creates code information including an area number of the area for each area predetermined in the store. By accessing the address displayed after the user terminal 10 reads the code information created by the creation unit 216, the identification unit 212 can grasp the code information arranged in which area has been read and accessed. it can.
The creation unit 216 finishes eating and drinking in a certain area and grasps that the payment is completed, and then newly creates code information of the area. Completion of payment can be grasped, for example, by acquiring information indicating that the billing unit 215 has executed payment processing. The creation unit 216 may create code information in accordance with instructions from store employees. Employees may create code information after confirming that a group that has finished eating and drinking in a certain area has left the store, or create the number of code information considered necessary on the day before the business starts. May be.
The creation unit 216 transmits information including the created code information to the store terminal 30 via the transmission unit 217. Based on an instruction from the store terminal 30, the printer 40 forms and outputs (prints out) an image including code information on, for example, paper.
In addition, it can be illustrated that the area is divided for each table or for each room. However, even if a sheet on which an image including code information is formed is arranged for each table or room, if the number of people constituting one group exceeds the number allowed for each table or room, One code information may be shared by a plurality of people using a plurality of areas.

(送信部)
送信部217は、生成部213が生成したHTML文書をユーザ端末10に送信する。例えば、送信部217は、メニュー画面71を表示させるためのHTML文書をユーザ端末10に送信する。
また、送信部217は、ユーザ端末10から注文を受けた商品、注文を行ったユーザ端末10のユーザ番号及びエリア番号等の情報を、店舗端末30に送信する。
また、送信部217は、作成部216が作成したコード情報を含む情報を、店舗端末30に送信する。
また、送信部217は、評価把握部220が把握した、一の商品に対する評価を、店舗端末30に送信する。
(Transmitter)
The transmission unit 217 transmits the HTML document generated by the generation unit 213 to the user terminal 10. For example, the transmission unit 217 transmits an HTML document for displaying the menu screen 71 to the user terminal 10.
Further, the transmission unit 217 transmits information such as the product for which an order has been received from the user terminal 10 and the user number and area number of the user terminal 10 that has placed the order, to the store terminal 30.
In addition, the transmission unit 217 transmits information including the code information created by the creation unit 216 to the store terminal 30.
In addition, the transmission unit 217 transmits the evaluation for the one product grasped by the evaluation grasping unit 220 to the store terminal 30.

(評価把握部)
図14は、評価把握部220の機能構成を例示したブロック図である。
評価把握部220は、取得システム60のマイク61により収録された人の音声を解析する音声解析部221と、取得システム60のカメラ62により撮影された撮影画像を解析する画像解析部222とを有している。また、評価把握部220は、音声解析部221が解析した音声及び画像解析部222が解析した画像の少なくともいずれかに基づいて、商品の評価に関する情報を導出する評価導出部223を有している。
(Evaluation grasping department)
FIG. 14 is a block diagram illustrating a functional configuration of the evaluation grasping unit 220.
The evaluation grasping unit 220 includes a voice analysis unit 221 that analyzes a human voice recorded by the microphone 61 of the acquisition system 60 and an image analysis unit 222 that analyzes a captured image captured by the camera 62 of the acquisition system 60. is doing. In addition, the evaluation grasping unit 220 includes an evaluation deriving unit 223 that derives information related to product evaluation based on at least one of the sound analyzed by the sound analyzing unit 221 and the image analyzed by the image analyzing unit 222. .

≪音声解析部≫
音声解析部221は、取得システム60から取得された情報のうち、マイク61により収録された音響情報を解析する。音声解析部221は、収録された音響情報を解析し、人の音声を識別する。そして、音声解析部221は、人の音声を解析して発話内容を認識し、テキスト化する。より具体的には、音声解析部221は、先ず、マイク61により収録された音響情報から一続きの音声に相当する発話の内容及び発話区間(開始時刻と終了時刻)を検出し、次に各発話の内容をテキスト化する。音声解析部221は、「美味しい」、「美味しくない」、「まずい」、「味が濃い」、「味が薄い」、「冷えている」、「ぬるい」等の評価に関する情報と、商品に関する情報のみを認識し、テキスト化しても良い。
音声解析部221は、どのエリアのどの位置に設置されたマイク61が収録した発話内容であるかも認識する。また、音声解析部221は、一のエリアのどのユーザが発生した音声であるかも認識する。
≪Speech analysis department≫
The voice analysis unit 221 analyzes the acoustic information recorded by the microphone 61 among the information acquired from the acquisition system 60. The voice analysis unit 221 analyzes the recorded acoustic information and identifies a human voice. Then, the voice analysis unit 221 recognizes the utterance content by analyzing a person's voice and converts it into text. More specifically, the voice analysis unit 221 first detects the content and utterance section (start time and end time) corresponding to a series of voices from the acoustic information recorded by the microphone 61, and then Text the utterance content. The voice analysis unit 221 includes information related to evaluations such as “delicious”, “not delicious”, “bad”, “savory”, “slightly tasted”, “cold”, “warm”, and information related to products. It may be recognized and converted into text.
The voice analysis unit 221 also recognizes the utterance content recorded by the microphone 61 installed at which position in which area. The voice analysis unit 221 also recognizes which user in one area the voice is generated.

≪画像解析部≫
画像解析部222は、取得システム60から取得された情報のうち、カメラ62により撮影された撮影画像を解析する。画像解析部222は、撮影画像を解析し、撮影された領域を3次元空間として認識する。また、画像解析部222は、撮影された対象物のうち人物と人物以外の物とを識別する。画像解析による人物やその他の物の識別は、画像認識に係る既存技術を用いて行うことができる。また、画像解析部222は、どのエリアを撮影した画像であるかも認識する。また、画像解析部222は、一のエリアのどのユーザを撮影した画像であるかも認識する。
≪Image analysis department≫
The image analysis unit 222 analyzes a captured image captured by the camera 62 among the information acquired from the acquisition system 60. The image analysis unit 222 analyzes the captured image and recognizes the captured region as a three-dimensional space. In addition, the image analysis unit 222 identifies a person and a non-person object among the captured objects. Identification of a person or other object by image analysis can be performed using an existing technique related to image recognition. The image analysis unit 222 also recognizes which area is the captured image. The image analysis unit 222 also recognizes which user in one area is captured.

また、画像解析部222は、人物の撮影画像から輪郭検出などを行うことによって、ユーザの顔を検出し、目、鼻、口等の顔の各部の特徴量を抽出する。そして、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている、笑顔時の目、鼻、口等の顔の各部の特徴量とを比較し、一致度が閾値以上である場合、ユーザの表情が笑顔であると認識する。他方、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている特徴量とを比較し、一致度が閾値未満である場合、ユーザの表情が笑顔ではないと認識する。つまり、画像解析部222において認識される笑顔は、撮影画像から抽出された顔の各部の特徴が、笑顔の認識機能の開発時等に笑顔が写っている画像として選択された画像から抽出された顔の特徴と閾値以上一致する表情である。また、画像解析部222は、認識した笑顔が撮影された時刻を認識する。   Further, the image analysis unit 222 detects the user's face by performing contour detection or the like from the photographed image of the person, and extracts feature amounts of each part of the face such as eyes, nose, and mouth. Then, the image analysis unit 222 compares the feature amount extracted from the photographed image with the feature amount of each part of the face such as eyes, nose, mouth, etc. given as recognition data, and the degree of coincidence is compared. If it is equal to or greater than the threshold, the user's facial expression is recognized as a smile. On the other hand, the image analysis unit 222 compares the feature amount extracted from the captured image with the feature amount given as recognition data, and recognizes that the facial expression of the user is not a smile when the degree of matching is less than the threshold value. To do. In other words, the smile recognized by the image analysis unit 222 is extracted from an image in which the features of each part of the face extracted from the photographed image are selected as an image showing a smile when developing a smile recognition function or the like. The facial expression matches the facial feature by a threshold or more. Further, the image analysis unit 222 recognizes the time when the recognized smile was photographed.

また、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている、怒り顔時の目、鼻、口等の顔の各部の特徴量とを比較し、一致度が閾値以上である場合、ユーザの表情が怒り顔であると認識する。他方、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている特徴量とを比較し、一致度が閾値未満である場合、ユーザの表情が怒り顔ではないと認識する。つまり、画像解析部222において認識される怒り顔は、撮影画像から抽出された顔の各部の特徴が、怒り顔の認識機能の開発時等に怒り顔が写っている画像として選択された画像から抽出された顔の特徴と閾値以上一致する表情である。また、画像解析部222は、認識した怒り顔が撮影された時刻を認識する。   Further, the image analysis unit 222 compares the feature amount extracted from the photographed image with the feature amount of each part of the face such as eyes, nose, mouth, etc. at the time of an angry face given as recognition data, and the degree of coincidence Is greater than or equal to the threshold, the user's facial expression is recognized as an angry face. On the other hand, the image analysis unit 222 compares the feature amount extracted from the captured image with the feature amount given as recognition data, and if the matching degree is less than the threshold value, the user's facial expression is not an angry face. recognize. In other words, the angry face recognized by the image analysis unit 222 is obtained from an image selected as an image in which the features of each part of the face extracted from the photographed image are shown when the angry face recognition function is developed. The facial expression is equal to or more than a threshold value with the extracted facial feature. Further, the image analysis unit 222 recognizes the time when the recognized angry face is photographed.

また、画像解析部222は、人物以外の物の撮影画像から商品を検出し、商品の特徴量を抽出する。そして、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている各商品の特徴量とを比較し、一致度が閾値以上であるか否かで商品を特定する。つまり、画像解析部222において認識される商品は、撮影画像から抽出された商品の特徴が、商品の認識機能の開発時等に商品が写っている画像として選択された画像から抽出された商品の特徴と閾値以上一致する商品である。また、画像解析部222は、認識した商品が撮影された時刻を認識する。   Further, the image analysis unit 222 detects a product from a photographed image of an object other than a person, and extracts a feature amount of the product. Then, the image analysis unit 222 compares the feature amount extracted from the photographed image with the feature amount of each product given as recognition data, and identifies the product based on whether or not the degree of coincidence is equal to or greater than a threshold value. . In other words, the product recognized by the image analysis unit 222 is the product extracted from the image selected as the image in which the product is extracted when the product recognition function is developed. It is a product that matches the feature with a threshold or more. Further, the image analysis unit 222 recognizes the time when the recognized product is photographed.

画像解析部222は、撮影画像から商品を特定する際に、受注部214が注文を受けていた商品に基づいても良い。画像解析部222は、例えば、撮影画像から商品を特定するときに、受注部214が一のグループから注文を受けていた商品が1つである場合には、撮影画像から抽出した特徴量と、受注部214が注文を受けていた1つの商品の特徴量とを最初に比較すると良い。撮影画像から商品を特定するときに、受注部214が一のグループから注文を受けていた商品が複数ある場合には、撮影画像から抽出した特徴量と、受注部214が注文を受けていた複数の商品の特徴量を、注文を受けていない商品の特徴量よりも先に比較すると良い。受注部214が注文を受けていた商品を考慮することで、受注部214が注文を受けていた商品を考慮しない場合よりも、迅速かつ精度高く商品を特定することが可能となる。
また、画像解析部222は、表情を特定した場合には、その商品を飲食したユーザを特定する。
The image analysis unit 222 may be based on the product for which the order receiving unit 214 has received an order when specifying the product from the captured image. For example, when the product analysis unit 222 specifies a product from a captured image and the order receiving unit 214 has received one order from one group, the feature amount extracted from the captured image, The order receiving unit 214 may compare the feature quantity of one product that has been ordered first. When there are a plurality of products for which the order receiving unit 214 has received an order from one group when specifying the product from the photographed image, the feature amount extracted from the photographed image and the plurality of items for which the order receiving unit 214 has received the order It is better to compare the feature quantity of the product before the feature quantity of the product that has not been ordered. By considering the product for which the order receiving unit 214 has received the order, it is possible to specify the product more quickly and with higher accuracy than when the order receiving unit 214 does not consider the product for which the order has been received.
In addition, when the facial expression is specified, the image analysis unit 222 specifies a user who eats or drinks the product.

≪評価導出部≫
評価導出部223は、音声解析部221が解析した音声及び画像解析部222が解析した画像の少なくともいずれかに基づいて、商品の評価に関する情報を導出する。
評価導出部223は、音声解析部221が認識し、テキスト化している一のユーザの発話内容から、一の商品に対する評価に関する情報を導出可能である場合には、音声解析部221による解析結果を用いて一の商品に対する評価に関する情報を導出する。例えば、評価導出部223は、音声解析部221が、「この揚げ出し豆腐、美味しい。」との、「揚げ出し豆腐」と「美味しい」とが連続した発話内容を認識し、テキスト化している場合には、「揚げ出し豆腐」に対する評価が「美味しい」ことを導出する。また、評価導出部223は、音声解析部221が、「この生ビール、ぬるい」との発話内容を認識し、テキスト化している場合には、「生ビール」に対する評価が「ぬるい」であることを導出する。
≪Evaluation derivation part≫
The evaluation deriving unit 223 derives information related to product evaluation based on at least one of the sound analyzed by the sound analyzing unit 221 and the image analyzed by the image analyzing unit 222.
The evaluation deriving unit 223 recognizes the analysis result of the voice analysis unit 221 when information about the evaluation for one product can be derived from the utterance contents of one user recognized and converted into text by the voice analysis unit 221. Use to derive information about the evaluation of one product. For example, the evaluation deriving unit 223 recognizes the utterance content in which “the fried tofu is delicious” and “delicious tofu” and “delicious” are continuously written, and the text is converted into text. In other words, it is derived that the evaluation for “fried tofu” is “delicious”. In addition, the evaluation deriving unit 223 derives that the evaluation for “draft beer” is “slimy” when the speech analysis unit 221 recognizes the utterance content “this draft beer, lukewarm” and converts it into text. To do.

評価導出部223は、画像解析部222が認識した一のユーザの表情及び当該一のユーザが飲食した商品から、一の商品に対する評価に関する情報を導出可能である場合には、画像解析部222による解析結果を用いて一の商品に対する評価に関する情報を導出する。例えば、評価導出部223は、画像解析部222がユーザの笑顔を認識するとともに笑顔になった商品が「揚げ出し豆腐」であることを特定している場合には、「揚げ出し豆腐」に対する評価が「笑顔」であることを導出する。「笑顔」は、「良い」意味であるとして、「揚げ出し豆腐」に対する評価が「良い」ことを導出しても良い。また、評価導出部223は、画像解析部222がユーザの怒り顔を認識するとともに怒り顔になった商品が「ビール」であることを特定している場合には、「ビール」に対する評価が「怒り顔」であることを導出する。「怒り顔」は、「悪い」意味であるとして、「ビール」に対する評価が「悪い」ことを導出しても良い。   The evaluation deriving unit 223 uses the image analyzing unit 222 when the information about the evaluation for one product can be derived from the facial expression of the one user recognized by the image analyzing unit 222 and the product eaten or consumed by the one user. Information about evaluation for one product is derived using the analysis result. For example, when the image analysis unit 222 recognizes the smile of the user and specifies that the product that has become a smile is “fried tofu”, the evaluation deriving unit 223 evaluates “fried tofu”. Is derived from “smile”. “Smile” may mean that “good” means “good” as an evaluation of “fried tofu”. In addition, when the image analysis unit 222 recognizes the user's angry face and specifies that the product with the angry face is “beer”, the evaluation deriving unit 223 evaluates “beer” as “ It is derived that it is an angry face. It may be derived that “bad” means “bad” and “bad” evaluation for “beer”.

評価導出部223は、音声解析部221が認識している一のユーザの発話内容から、ある商品に対する評価に関する情報を導出可能であるが、その評価の対象の商品を特定できない場合には、他の人物の発話内容を用いて対象商品を特定する。例えば、評価導出部223は、音声解析部221が、「これ美味しい」との発話内容を認識している場合には、ある商品に対する評価が「美味しい」ことを導出する。そして、音声解析部221が認識している一のユーザの発話内容では「美味しい」との評価の対象商品を特定できない場合には、一のユーザが「美味しい」と発声した前後の他の人物の発話内容を用いて商品を特定する。例えば、当該一のユーザが「美味しい」と発声する直前に、他のユーザが「揚げ出し豆腐の味どう?」と発声していることを音声解析部221が認識した場合には、評価導出部223は、「揚げ出し豆腐」に対する評価が「美味しい」ことを導出する。また、当該一のユーザが「美味しい」と発声する直前に、配膳人が例えば「揚げ出し豆腐です。」と発声したことを音声解析部221が認識した場合には、評価導出部223は、「揚げ出し豆腐」に対する評価が「美味しい」ことを導出する。一のユーザが「美味しい」と発声した時刻と、他のユーザが「揚げ出し豆腐の味どう?」と発声した時刻又は配膳人が「揚げ出し豆腐です。」と発声した時刻とを参照することで、「美味しい」との評価の対象商品が「揚げ出し豆腐」であることを特定することができる。   The evaluation deriving unit 223 can derive information related to an evaluation for a certain product from the content of one user's utterance recognized by the voice analysis unit 221. If the product for the evaluation cannot be identified, The target product is specified using the utterance content of the person. For example, the evaluation deriving unit 223 derives that the evaluation for a certain product is “delicious” when the speech analysis unit 221 recognizes the utterance content “this is delicious”. Then, when it is not possible to identify the product to be evaluated as “delicious” from the utterance content of one user recognized by the voice analysis unit 221, the other users before and after the one user uttered “delicious” Identify products using utterance content. For example, when the voice analysis unit 221 recognizes that another user is saying “How is the taste of fried tofu?” Just before the one user says “delicious”, the evaluation deriving unit 223 derives that the evaluation for “fried tofu” is “delicious”. When the voice analysis unit 221 recognizes that the serving person has spoken, for example, “It is fried tofu,” immediately before the one user says “delicious”, the evaluation deriving unit 223 “ It is derived that the evaluation for “fried tofu” is “delicious”. Refers to the time when one user says “delicious” and the time when another user says “How does the taste of fried tofu?” Or the time when the caterer says “It ’s fried tofu.” Thus, it is possible to specify that the product to be evaluated as “delicious” is “fried tofu”.

また、評価導出部223は、音声解析部221が認識している一のユーザの発話内容から、ある商品に対する評価に関する情報を導出可能であるが、その評価の対象の商品を特定できない場合には、画像解析部222が認識した商品を用いて商品を特定する。例えば、評価導出部223は、音声解析部221が、「美味しい」との発話内容を認識している場合には、ある商品に対する評価が「美味しい」ことを導出する。そして、音声解析部221が認識している発話内容では「美味しい」との評価の対象商品を特定できない場合には、「美味しい」と発声したユーザが「美味しい」と発声する直前に飲食した商品を画像解析部222が認識した商品を用いて商品を特定する。「美味しい」と発声した時刻と商品を飲食した時刻とを参照することで、「美味しい」との評価の対象商品を特定することができる。   In addition, the evaluation deriving unit 223 can derive information related to an evaluation for a certain product from the utterance content of one user recognized by the voice analysis unit 221, but when the product to be evaluated cannot be identified. The product is identified using the product recognized by the image analysis unit 222. For example, when the voice analysis unit 221 recognizes the utterance content “delicious”, the evaluation deriving unit 223 derives that the evaluation for a certain product is “delicious”. If the speech analysis unit 221 recognizes the utterance content that cannot be identified as a product that is evaluated as “delicious”, the user who has spoken “delicious” The product is identified using the product recognized by the image analysis unit 222. By referring to the time at which “delicious” is spoken and the time at which the product is eaten or consumed, it is possible to identify the target product to be evaluated as “delicious”.

また、評価導出部223は、画像解析部222が認識した一のユーザの表情から、商品に対する評価に関する情報を導出可能であるが、画像解析部222が解析した画像からはその評価の対象の商品を特定できない場合には、発話内容を用いて対象商品を特定する。例えば、一のユーザが評価に関連する表情となった直後に、他のユーザが「揚げ出し豆腐の味どう?」と発声していることを音声解析部221が認識した場合には、評価導出部223は、評価の対象の商品が「揚げ出し豆腐」であると特定する。また、一のユーザが評価に関連する表情となった直前に、配膳人が例えば「揚げ出し豆腐です。」と発声したことを音声解析部221が認識した場合には、評価導出部223は、評価の対象の商品が「揚げ出し豆腐」であると特定する。また、一のユーザが評価に関連する表情となった直前に、当該一のユーザが例えば「揚げ出し豆腐を頂きます。」と発声したことを音声解析部221が認識した場合には、評価導出部223は、評価の対象の商品が「揚げ出し豆腐」であると特定する。一のユーザが評価に関連する表情(例えば笑顔)となった時刻と、他のユーザが「揚げ出し豆腐の味どう?」と発声した時刻、配膳人が「揚げ出し豆腐です。」と発声した時刻又は一のユーザが「揚げ出し豆腐を頂きます。」と発声した時刻とを参照することで、評価の対象商品が「揚げ出し豆腐」であることを特定することができる。   Further, the evaluation deriving unit 223 can derive information related to the evaluation of the product from the facial expression of one user recognized by the image analysis unit 222, but the evaluation target product is based on the image analyzed by the image analysis unit 222. If the product cannot be specified, the target product is specified using the utterance content. For example, when the voice analysis unit 221 recognizes that another user is saying “How is the taste of fried tofu?” Immediately after one user has an expression related to evaluation, the evaluation derivation is performed. The part 223 specifies that the product to be evaluated is “fried tofu”. In addition, when the voice analysis unit 221 recognizes that the serving person uttered, for example, “It is fried tofu” immediately before one user has an expression related to evaluation, the evaluation deriving unit 223 The product to be evaluated is identified as “fried tofu”. In addition, when the voice analysis unit 221 recognizes that the one user has spoken, for example, “Get a fried tofu” immediately before the one user has an expression related to the evaluation, the evaluation derivation is performed. The part 223 specifies that the product to be evaluated is “fried tofu”. The time when one user had a facial expression related to the evaluation (for example, a smile), the time when another user uttered "How does the taste of fried tofu?" By referring to the time of day or the time when one user uttered “Get fried tofu”, it is possible to specify that the product to be evaluated is “fried tofu”.

また、評価導出部223は、発話内容や撮影画像から商品を特定する際に、受注部214が注文を受けていた商品に基づいても良い。評価導出部223は、例えば、「ステーキ美味しい。」と発声していることを音声解析部221が認識したとしても、受注部214がこのグループからステーキの注文を受けていない場合には、店舗にて提供した商品に対する評価ではないと判断し、評価を導出しないようにしても良い。   Further, the evaluation deriving unit 223 may be based on the product for which the order receiving unit 214 has received an order when specifying the product from the utterance content or the captured image. Even if the voice analysis unit 221 recognizes that the evaluation derivation unit 223 utters, for example, “steak is delicious.”, If the order receiving unit 214 has not received an order for steak from this group, It may be determined that the evaluation is not for the product provided and the evaluation may not be derived.

評価導出部223は、一の商品に対する評価を導出した場合には、商品名と評価に関する情報とを関連付けて記憶部22に記憶する。上述した例では、評価導出部223は、「揚げ出し豆腐」と、「美味しい」とを関連付けて記憶部22に記憶する。また、評価導出部223は、「揚げ出し豆腐」と、「笑顔」又は「良い」とを関連付けて記憶部22に記憶する。また、評価導出部223は、「ビール」と、「怒り顔」又は「悪い」とを関連付けて記憶部22に記憶する。
また、評価導出部223は、一の商品に対する評価を導出した場合には、商品名と評価に関する情報とを関連付けて送信部217を介して店舗端末30に送信する。
When the evaluation for one product is derived, the evaluation deriving unit 223 stores the product name and information related to the evaluation in the storage unit 22 in association with each other. In the example described above, the evaluation deriving unit 223 stores “fried tofu” and “delicious” in the storage unit 22 in association with each other. In addition, the evaluation deriving unit 223 stores “fried tofu” and “smile” or “good” in the storage unit 22 in association with each other. The evaluation deriving unit 223 stores “beer” and “angry face” or “bad” in the storage unit 22 in association with each other.
When the evaluation deriving unit 223 derives an evaluation for one product, the evaluation deriving unit 223 associates the product name and information related to the evaluation and transmits the information to the store terminal 30 via the transmission unit 217.

次に、フローチャートを用いて、評価把握部220が行う評価把握処理の手順の一例について説明する。
図15は、評価把握部220が行う評価把握処理の手順の一例を示すフローチャートである。
評価把握部220は、この評価把握処理を、予め定めた期間(例えば1ミリ秒)毎に繰り返し実行する。
Next, an example of the procedure of the evaluation grasping process performed by the evaluation grasping unit 220 will be described using a flowchart.
FIG. 15 is a flowchart illustrating an example of the procedure of the evaluation grasping process performed by the evaluation grasping unit 220.
The evaluation grasping unit 220 repeatedly executes this evaluation grasping process every predetermined period (for example, 1 millisecond).

評価把握部220は、ユーザの発話内容に評価に関する情報が含まれているか否かを判別する(ステップ(以下「S」と称する場合もある。)1501)。これは、評価導出部223が、音声解析部221が認識したユーザの発話内容に基づいて判別する処理であり、発話内容の中に、例えば「美味しい」や「美味しくない」等の評価に関する情報が含まれているか否かを判別する処理である。そして、評価に関する情報が含まれている場合(S1501でYes)、その評価の対象の商品を、一のユーザの発話内容から特定可能であるか否かを判別する(S1502)。例えば、音声解析部221が認識した一のユーザの発話内容が、「この揚げ出し豆腐、美味しい。」等、S1501で含まれていると判断した評価に関する情報と商品名とが連続した一文である場合には、評価の対象の商品を特定可能であると判定する。そして、評価の対象の商品を特定可能である場合(S1502でYes)、商品名と評価に関する情報とを関連付けて記憶部22に記憶する(S1503)。また、評価把握部220は、記憶部22に記憶するとともに、商品名と評価に関する情報とを関連付けて送信部217を介して店舗端末30に送信しても良い。   The evaluation grasping unit 220 determines whether or not information related to the evaluation is included in the user's utterance content (step (hereinafter also referred to as “S”) 1501). This is a process in which the evaluation deriving unit 223 determines based on the user's utterance content recognized by the voice analysis unit 221. In the utterance content, for example, information regarding evaluation such as “delicious” or “not delicious” is included. This is a process for determining whether or not it is included. If information related to the evaluation is included (Yes in S1501), it is determined whether or not the evaluation target product can be specified from the utterance content of one user (S1502). For example, the utterance content of one user recognized by the voice analysis unit 221 is a single sentence in which the information regarding the evaluation determined to be included in S1501 and the product name, such as “This fried tofu, delicious.” In this case, it is determined that the product to be evaluated can be specified. Then, if it is possible to identify the product to be evaluated (Yes in S1502), the product name and the information related to the evaluation are associated and stored in the storage unit 22 (S1503). Further, the evaluation grasping unit 220 may store the product name in the storage unit 22 and transmit the product name and information related to the evaluation to the store terminal 30 via the transmission unit 217.

他方、評価の対象の商品を特定可能ではない場合(S1502でNo)、評価把握部220は、他のユーザの発話内容から商品を特定可能であるか又は画像解析部222が認識した画像に基づいて商品を特定可能であるか等、他の手段により商品を特定可能であるか否かを判別する(S1504)。そして、評価の対象の商品を特定可能である場合(S1504でYes)、評価把握部220は、記憶部22に記憶するとともに、商品名と評価に関する情報とを関連付けて記憶部22に記憶する(S1503)。   On the other hand, if it is not possible to identify the product to be evaluated (No in S1502), the evaluation grasping unit 220 can identify the product from the utterance contents of other users or based on the image recognized by the image analysis unit 222. It is determined whether or not the product can be specified by other means, such as whether or not the product can be specified (S1504). When the evaluation target product can be specified (Yes in S1504), the evaluation grasping unit 220 stores the information in the storage unit 22 and associates the product name and information related to the evaluation in the storage unit 22 ( S1503).

一方、評価に関する情報が含まれていない場合(S1501でNo)、画像解析部222が認識した画像を用いて評価に関する情報を取得可能であるか否かを判別する(ステップ(S1505)。これは、評価導出部223が、画像解析部222が認識したユーザの表情に基づいて判別する処理であり、例えば、商品を飲食した直後のユーザの表情が「笑顔」や「怒り顔」であるか否かを判別する処理である。そして、評価に関する情報が含まれている場合(S1505でYes)、その評価の対象の商品を、評価に関する情報を取得した画像に映っているユーザ(例えば「笑顔」であったユーザ)が飲食する前後の画像から特定可能であるか否かを判別する(S1506)。そして、評価の対象の商品を特定可能である場合(S1506でYes)、評価把握部220は、記憶部22に記憶するとともに、商品名と評価に関する情報とを関連付けて記憶部22に記憶する(S1503)。   On the other hand, if the information related to the evaluation is not included (No in S1501), it is determined whether or not the information related to the evaluation can be acquired using the image recognized by the image analysis unit 222 (step (S1505)). The evaluation deriving unit 223 is a process for determining based on the facial expression of the user recognized by the image analysis unit 222. For example, whether the facial expression of the user immediately after eating or drinking the product is “smile” or “angry face”. If the information related to the evaluation is included (Yes in S1505), a user (for example, “smile”) showing the evaluation target product in the image obtained by acquiring the information related to the evaluation. It is discriminated whether or not it is possible to specify from the images before and after eating and drinking (S1506), and the product to be evaluated can be specified (in S1506). es), evaluation recognition unit 220 stores in the storage unit 22, the storage unit 22 in association with the information on the evaluation and trade name (S1503).

他方、評価の対象の商品を特定可能ではない場合(S1506でNo)、評価把握部220は、評価に関する情報を取得した画像に映っているユーザ(例えば「笑顔」であったユーザ)又は他のユーザの発話内容から商品を特定可能であるか否かを判別する(S1507)。そして、評価の対象の商品を特定可能である場合(S1507でYes)、評価把握部220は、記憶部22に記憶するとともに、商品名と評価に関する情報とを関連付けて記憶部22に記憶する(S1503)。   On the other hand, when it is not possible to specify the product to be evaluated (No in S1506), the evaluation grasping unit 220 is a user (for example, a user who was “smiling”) reflected in the acquired image or other information. It is determined whether or not the product can be specified from the user's utterance content (S1507). If the evaluation target product can be specified (Yes in S1507), the evaluation grasping unit 220 stores the product name and information related to the evaluation in the storage unit 22 while storing them in the storage unit 22 ( S1503).

<店舗端末30>
図16は、店舗端末30の機能構成を例示したブロック図である。
店舗端末30は、ユーザ端末10が備える、制御部11、記憶部12、表示部13、操作部14、通信部15、スピーカ17に相当する、制御部31、記憶部(不図示)、表示部33、操作部(不図示)、通信部(不図示)、スピーカ37を備えている。
店舗端末30は、携帯情報端末(PDA)、タブレット端末、タブレットPC、ノートPC、デスクトップPC等であることを例示することができる。
店舗端末30は、例えば、店舗の厨房に配置されていることを例示することができる。
<Store terminal 30>
FIG. 16 is a block diagram illustrating a functional configuration of the store terminal 30.
The store terminal 30 includes a control unit 31, a storage unit (not shown), and a display unit corresponding to the control unit 11, the storage unit 12, the display unit 13, the operation unit 14, the communication unit 15, and the speaker 17 included in the user terminal 10. 33, an operation unit (not shown), a communication unit (not shown), and a speaker 37 are provided.
The store terminal 30 can be exemplified as a personal digital assistant (PDA), a tablet terminal, a tablet PC, a notebook PC, a desktop PC, or the like.
For example, the store terminal 30 can be exemplified as being located in a store kitchen.

制御部31は、CPU(不図示)、ROM(不図示)、RAM(不図示)等を有しており、CPUがプログラムを実行することにより、以下の機能を実現する。
すなわち、制御部31は、サーバ20から、商品の注文を受け付けた旨の情報等を取得する取得部311を有している。また、制御部31は、表示部33を制御する表示制御部312と、スピーカ37を制御する音響制御部313と、プリンタ40に画像を出力させる出力部314とを備えている。
The control unit 31 includes a CPU (not shown), a ROM (not shown), a RAM (not shown), and the like, and the following functions are realized when the CPU executes a program.
That is, the control unit 31 includes an acquisition unit 311 that acquires information indicating that an order for a product has been received from the server 20. The control unit 31 includes a display control unit 312 that controls the display unit 33, an acoustic control unit 313 that controls the speaker 37, and an output unit 314 that causes the printer 40 to output an image.

取得部311は、サーバ20から、商品の注文に関する情報である、注文を受けた商品、注文を行ったユーザ端末10のユーザ番号及びエリア番号等を取得する。
表示制御部312は、取得部311が取得した注文に関する情報を表示部33の表示画面に表示させるように表示部33を制御する。例えば、表示制御部312は、注文を受けた商品名や商品番号、当該注文を行ったユーザ番号及びエリア番号を、表示部33の表示画面に表示させる。
The acquisition unit 311 acquires, from the server 20, information related to product order, such as an ordered product, a user number and an area number of the user terminal 10 that made the order, and the like.
The display control unit 312 controls the display unit 33 to display information related to the order acquired by the acquisition unit 311 on the display screen of the display unit 33. For example, the display control unit 312 displays on the display screen of the display unit 33 the product name and product number for which the order has been received, and the user number and area number that made the order.

音響制御部313は、取得部311が取得した注文に関する情報についての音を出力させるようにスピーカ37を制御する。例えば、音響制御部313は、注文を受けた商品名や商品番号、当該注文を行ったユーザ番号及びエリア番号を、スピーカ37から音声出力させる。
出力部314は、取得部311が取得した注文に関する情報である、注文を受けた商品名や商品番号、当該注文を行ったユーザ番号及びエリア番号の画像をプリンタ40に出力させる。また、出力部314は、サーバ20の作成部216が作成したコード情報と、当該コード情報に関連付けられているエリア番号の画像をプリンタ40に出力させる。
The acoustic control unit 313 controls the speaker 37 so as to output a sound regarding information regarding the order acquired by the acquisition unit 311. For example, the sound control unit 313 outputs, from the speaker 37, the product name and product number for which the order has been received, and the user number and area number that made the order, from the speaker 37.
The output unit 314 causes the printer 40 to output an image of the ordered product name and product number, and the user number and area number that made the order, which are information related to the order acquired by the acquiring unit 311. Further, the output unit 314 causes the printer 40 to output the code information created by the creation unit 216 of the server 20 and the image of the area number associated with the code information.

商品名、商品番号、ユーザ番号、エリア番号等が、表示部33の表示画面に表示されることにより、又は、スピーカ37から音声が出力されることにより、調理人は、商品の注文を受けたことを把握することが可能となり、配膳人は、当該商品を、注文を行ったエリアに届けることが可能となる。また、プリンタ40により出力された、商品名、商品番号、ユーザ番号、エリア番号等が記載された紙を見ることにより、調理人は、商品の注文を受けたことを把握することが可能となり、配膳人は、当該商品を、注文を行ったエリアに届けることが可能となる。
なお、コード情報等が記載された紙は、店舗の従業員(例えば配膳人)にて、該当するエリアに配置される。
When the product name, product number, user number, area number, or the like is displayed on the display screen of the display unit 33 or the sound is output from the speaker 37, the cook receives an order for the product. It becomes possible to grasp this, and the distributor can deliver the product to the area where the order has been placed. Also, by looking at the paper output by the printer 40 on which the product name, product number, user number, area number, etc. are written, the cook can grasp that the product has been ordered, The distributor can deliver the product to the area where the order has been placed.
Note that the paper on which the code information or the like is written is arranged in a corresponding area by an employee of the store (for example, a distributor).

また、取得部311は、サーバ20から、商品の評価に関する情報等を取得する。
表示制御部312は、取得部311が取得した商品の評価に関する情報を表示部33の表示画面に表示させるように表示部33を制御しても良い。
音響制御部313は、取得部311が取得した評価に関する情報についての音を出力させるようにスピーカ37を制御しても良い。
出力部314は、取得部311が取得した評価に関する情報の画像をプリンタ40に出力させてもよい。
In addition, the acquisition unit 311 acquires information related to product evaluation from the server 20.
The display control unit 312 may control the display unit 33 so that information related to the evaluation of the product acquired by the acquisition unit 311 is displayed on the display screen of the display unit 33.
The acoustic control unit 313 may control the speaker 37 so as to output a sound regarding the information regarding the evaluation acquired by the acquisition unit 311.
The output unit 314 may cause the printer 40 to output an image of information related to the evaluation acquired by the acquisition unit 311.

商品名と、その商品の評価に関する情報等が、表示部33の表示画面に表示されることにより、又は、スピーカ37から音声が出力されることにより、店舗の従業員は、商品の評価を把握することが可能となる。また、プリンタ40により出力された、商品名と、その商品の評価に関する情報等が記載された紙を見ることにより、店舗の従業員は、商品の評価を把握することが可能となる。
商品名と、その商品の評価に関する情報等を、表示制御部312が表示部33に表示させること、音響制御部313がスピーカ37から音声を出力させること、及び、出力部314がプリンタ40に出力させることは、店舗の従業員からの要求に応じて行っても良い。
By displaying the product name and information related to the evaluation of the product on the display screen of the display unit 33 or outputting sound from the speaker 37, the store employee grasps the evaluation of the product. It becomes possible to do. Further, by looking at the paper output by the printer 40 on which the product name and information about the evaluation of the product are described, the store employee can grasp the evaluation of the product.
The display control unit 312 causes the display unit 33 to display the product name and information related to the evaluation of the product, the acoustic control unit 313 outputs sound from the speaker 37, and the output unit 314 outputs to the printer 40. You may perform it according to the request | requirement from the employee of a store.

<取得システム60>
取得システム60は、マイク61と、カメラ62と、通信サーバ63とを備える。マイク61及びカメラ62は、通信サーバ63に接続されている。通信サーバ63は、さらにネットワーク50を介してサーバ20と接続される。マイク61及びカメラ62と通信サーバ63、及び、通信サーバ63とサーバ20は、LAN、bluetooth(登録商標)や赤外線通信等の無線通信又は有線通信にて、互いに通信可能となっていても良い。
<Acquisition system 60>
The acquisition system 60 includes a microphone 61, a camera 62, and a communication server 63. The microphone 61 and the camera 62 are connected to the communication server 63. The communication server 63 is further connected to the server 20 via the network 50. The microphone 61 and the camera 62 and the communication server 63, and the communication server 63 and the server 20 may be able to communicate with each other by wireless communication such as LAN, bluetooth (registered trademark), infrared communication, or wired communication.

マイク61は、情報としての音(音響情報)を収録する録音装置である。マイク61としては、収録しようとする場所や音響情報の種類等に応じて種々の特性や構成を有するものを用いて良い。マイク61により収録された音響情報は、デジタル・データとして通信サーバ63へ送られる。マイク61は、店舗に設けられた全てのエリアの発話を録音可能なように複数設けられていることを例示することができる。また、マイク61は、一のエリアにて飲食する複数のユーザ全ての発話を録音可能なように複数設けられていることを例示することができる。   The microphone 61 is a recording device that records sound (acoustic information) as information. As the microphone 61, a microphone having various characteristics and configurations may be used depending on the location where recording is to be performed, the type of acoustic information, and the like. The acoustic information recorded by the microphone 61 is sent to the communication server 63 as digital data. It can be exemplified that a plurality of microphones 61 are provided so that utterances of all the areas provided in the store can be recorded. Moreover, it can be illustrated that a plurality of microphones 61 are provided so that the utterances of all the plurality of users who eat and drink in one area can be recorded.

カメラ62は、店舗内の画像を取得する撮像装置である。カメラ62により取得された画像は、デジタル・データとして通信サーバ63へ送られる。カメラ62により取得される画像は、動画および静止画のいずれであっても良い。カメラ62としては、使用環境に応じて種々の構成のものを用いて良い。例えば、可搬型のカメラであっても良いし、固定カメラであっても良い。また、周囲の広い空間の画像を取得する広角カメラや全周カメラ、特定の対象物や場所を様々な角度で撮影する複数のカメラ群等を用いても良い。カメラ62は、一のエリアにて飲食する複数のユーザや、一のエリアに設置されたテーブルに置かれた商品を全て撮影可能なように複数設けられていることを例示することができる。   The camera 62 is an imaging device that acquires an in-store image. The image acquired by the camera 62 is sent to the communication server 63 as digital data. The image acquired by the camera 62 may be either a moving image or a still image. As the camera 62, cameras having various configurations may be used depending on the use environment. For example, a portable camera or a fixed camera may be used. Further, a wide-angle camera or an all-around camera that acquires an image of a wide surrounding space, a plurality of camera groups that capture a specific object or place at various angles, and the like may be used. It can be exemplified that a plurality of cameras 62 are provided so that a plurality of users who eat and drink in one area and a plurality of products placed on a table installed in one area can be photographed.

通信サーバ63は、マイク61及びカメラ62により取得した情報をサーバ20へ送信する通信制御装置である。通信サーバ63は、例えば、携帯情報端末(PDA)、タブレット端末、タブレットPC、ノートPC、デスクトップPC等であることを例示することができる。また、マイク61及びカメラ62(以下、これらをまとめて「情報取得デバイス」と称する場合がある。)が接続されたLANを構成するルータに情報処理機能および通信制御機能を持たせたものを用いても良い。さらに、ネットワーク50に接続する機能及び情報処理機能を備えた各種の情報機器(テレビ受像機やファクシミリ装置等)を用いても良い。   The communication server 63 is a communication control device that transmits information acquired by the microphone 61 and the camera 62 to the server 20. Examples of the communication server 63 include a personal digital assistant (PDA), a tablet terminal, a tablet PC, a notebook PC, and a desktop PC. In addition, a router that constitutes a LAN to which a microphone 61 and a camera 62 (hereinafter may be collectively referred to as an “information acquisition device”) is connected is provided with an information processing function and a communication control function. May be. Furthermore, various information devices (such as a television receiver and a facsimile machine) having a function of connecting to the network 50 and an information processing function may be used.

通信サーバ63は、設定に応じて、各情報取得デバイスから情報を収集する。具体的には、常時連続的に情報を取得しても良いし、一定の時間間隔で断続的に情報を取得しても良いし、予め定められた事象(イベント)が発生したことを契機(トリガー)として情報を取得しても良い。情報取得デバイスからプッシュ型通信で情報を送っても良いし、通信サーバ63から情報取得デバイスへ問い合わせるプル型通信で情報を取得しても良い。通信が衝突(コリジョン)しない範囲において、個々の情報取得デバイスごとに異なる方式や態様で通信サーバ63へ情報を送るように構成しても良い。予め定められた事象(イベント)としては、各情報取得デバイスが取得対象のエリアを利用して飲食するユーザによりサーバ20の受注部214が注文を受けたことを例示することができる。そして、通信サーバ63は、各情報取得デバイスが取得対象のエリアを利用して飲食するユーザが店舗を退出したときに取得を終了しても良い。   The communication server 63 collects information from each information acquisition device according to the setting. Specifically, information may be acquired continuously at all times, information may be acquired intermittently at regular time intervals, or when a predetermined event (event) occurs ( Information may be acquired as a trigger). Information may be sent from the information acquisition device by push-type communication, or information may be acquired by pull-type communication inquiring from the communication server 63 to the information acquisition device. In a range where communication does not collide (collision), information may be sent to the communication server 63 by a different method or mode for each individual information acquisition device. As a predetermined event (event), it can be illustrated that the order receiving unit 214 of the server 20 has received an order from a user who eats and drinks using the area to be acquired by each information acquisition device. And the communication server 63 may complete | finish acquisition, when the user who eats and drinks using the area for which each information acquisition device obtains leaves a store.

また、通信サーバ63は、設定に応じて、取得した情報をサーバ20へ送信する。具体的には、常時サーバ20と接続して連続的に情報を送信しても良いし、一定の時間間隔で断続的にサーバ20と接続して情報を送信しても良い。また、予め定められた事象(イベント)が発生したことを契機(トリガー)としてサーバ20と接続して情報を送信しても良い。予め定められた事象(イベント)としては、各情報取得デバイスが取得対象のエリアを利用して飲食するユーザが店舗を退出したことを例示することができる。   Further, the communication server 63 transmits the acquired information to the server 20 according to the setting. Specifically, the information may be transmitted continuously by connecting to the server 20 constantly, or may be transmitted by connecting to the server 20 intermittently at regular time intervals. Further, information may be transmitted by connecting to the server 20 triggered by occurrence of a predetermined event. As a predetermined event (event), it can be illustrated that a user who eats and drinks using an area to be acquired by each information acquisition device leaves the store.

図17−1及び図17−2は、本実施の形態に係るキャッシュレスシステム1における動作例を示したシーケンス図である。図17−1及び図17−2に示した動作例は、ユーザA、ユーザB、ユーザCの3人を含んで一のグループが構成され、ユーザAが所有するユーザ端末10A、ユーザBが所有するユーザ端末10B、ユーザCが所有するユーザ端末10Cにて注文や会計が行われる場合の動作例を示している。   FIGS. 17A and 17B are sequence diagrams illustrating an operation example in the cashless system 1 according to the present embodiment. In the operation example shown in FIG. 17A and FIG. 17B, one group is configured including three users A, B, and C, and the user terminal 10A and user B owned by the user A own. The operation example in the case where an order and accounting are performed at the user terminal 10C owned by the user terminal 10B and the user terminal C owned by the user C is shown.

先ず、ユーザAが、案内されたエリア(エリア番号は1とする)に予め置かれていたコード情報を、自身が所有するユーザ端末10Aにて読み取るとともに、読み込んだ後に表示されるアドレスにアクセスする(S1701)。
サーバ20は、エリア番号とユーザ端末10Aとを関連付けて記憶する(S1702)。より具体的には、エリア番号が1であるエリアに配置されていたコード情報を読み取ることで表示されるアドレスに基づいて最初にアクセスしてきたのがユーザ端末10Aであることから、ユーザ端末10Aの識別番号であるユーザ番号を1として、エリア番号に関連付けて記憶部22に記憶する。これは、識別部212が行う処理である。そして、サーバ20においては、生成部213がメニュー画面を表示させるためのHTML文書を生成して、ユーザ端末10Aに送信する(S1703)。ユーザ端末10Aは、表示部13にメニュー画面を表示する(S1704)。
First, the user A reads the code information previously placed in the guided area (the area number is 1) by the user terminal 10A owned by the user A and accesses the address displayed after the reading. (S1701).
The server 20 stores the area number and the user terminal 10A in association with each other (S1702). More specifically, since the user terminal 10A first accessed based on the address displayed by reading the code information arranged in the area having the area number 1, the user terminal 10A The user number, which is the identification number, is set to 1, and stored in the storage unit 22 in association with the area number. This is a process performed by the identification unit 212. In the server 20, the generation unit 213 generates an HTML document for displaying the menu screen, and transmits the HTML document to the user terminal 10A (S1703). The user terminal 10A displays a menu screen on the display unit 13 (S1704).

ユーザBが、案内されたエリア(エリア番号:1)に予め置かれていたコード情報を、自身が所有するユーザ端末10Bにて読み取るとともに、読み込んだ後に表示されるアドレスにアクセスする(S1705)。
サーバ20は、エリア番号とユーザ端末10Bとを関連付けて記憶する(S1706)。より具体的には、エリア番号が1であるエリアに配置されていたコード情報を読み取ることで表示されるアドレスに基づいて、ユーザ端末10Aの次にアクセスしてきたのがユーザ端末10Bであることから、ユーザ端末10Bの識別番号であるユーザ番号を2として、エリア番号に関連付けて記憶部22に記憶する。そして、サーバ20は、メニュー画面を表示させるためのHTML文書を生成して、ユーザ端末10Bに送信する(S1707)。ユーザ端末10Bは、表示部13にメニュー画面を表示する(S1708)。
The user B reads the code information previously placed in the guided area (area number: 1) at the user terminal 10B owned by the user B and accesses the address displayed after the reading (S1705).
The server 20 stores the area number and the user terminal 10B in association with each other (S1706). More specifically, based on the address displayed by reading the code information arranged in the area whose area number is 1, the user terminal 10B has accessed after the user terminal 10A. The user number, which is the identification number of the user terminal 10B, is set to 2 and stored in the storage unit 22 in association with the area number. Then, the server 20 generates an HTML document for displaying the menu screen, and transmits it to the user terminal 10B (S1707). The user terminal 10B displays a menu screen on the display unit 13 (S1708).

ユーザCが、案内されたエリアに予め置かれていたコード情報を、自身が所有するユーザ端末10Cにて読み取るとともに、読み込んだ後に表示されるアドレスにアクセスする(S1709)。
サーバ20は、エリア番号とユーザ端末10Cとを関連付けて記憶する(S1710)。より具体的には、エリア番号が1であるエリアに配置されていたコード情報を読み取ることで表示されるアドレスに基づいて、ユーザ端末10Bの次にアクセスしてきたのがユーザ端末10Cであることから、ユーザ端末10Cの識別番号であるユーザ番号を3として、エリア番号に関連付けて記憶部22に記憶する。そして、サーバ20は、メニュー画面を表示させるためのHTML文書を生成して、ユーザ端末10Cに送信する(S1711)。ユーザ端末10Cは、表示部13にメニュー画面を表示する(S1712)。
The user C reads the code information previously placed in the guided area at the user terminal 10C owned by the user C and accesses the address displayed after the reading (S1709).
The server 20 stores the area number and the user terminal 10C in association with each other (S1710). More specifically, based on the address displayed by reading the code information arranged in the area whose area number is 1, it is the user terminal 10C that has accessed the user terminal 10B next, so that The user number, which is the identification number of the user terminal 10C, is set to 3, and stored in the storage unit 22 in association with the area number. Then, the server 20 generates an HTML document for displaying the menu screen, and transmits it to the user terminal 10C (S1711). The user terminal 10C displays a menu screen on the display unit 13 (S1712).

その後、ユーザAが、ユーザ端末10Aの表示部13に表示されているメニュー画面に表示されている商品群の中から一の商品(例えばビール)を選択して、その商品の注文ボタン71dを押下したとする(S1713)。サーバ20は、その商品の注文を受け付け、注文を受けた商品と、注文を行ってきたユーザ端末10のユーザ番号及びエリア番号とを関連付けて記憶部22に記憶する(S1714)。そして、サーバ20は、注文を受けた商品、注文を行ったユーザ端末10のユーザ番号及びエリア番号等の情報を、店舗端末30に送信する(S1715)。これらは、受注部214が行う処理である。   Thereafter, the user A selects one product (for example, beer) from the product group displayed on the menu screen displayed on the display unit 13 of the user terminal 10A, and presses the order button 71d for the product. Suppose that (S1713). The server 20 accepts the order for the product, and stores the received product in the storage unit 22 in association with the user number and area number of the user terminal 10 that has placed the order (S1714). Then, the server 20 transmits information such as the ordered product and the user number and area number of the user terminal 10 that made the order to the store terminal 30 (S1715). These are processes performed by the order receiving unit 214.

店舗端末30においては、サーバ20からの商品の注文に関する情報を取得し、取得した情報である、注文を受けた商品(例えばビール)、注文を行ったユーザ端末10Aのユーザ番号(ユーザ番号:1)及びエリア番号(エリア番号:1)を報知する(S1716)。報知手法としては、上述した、表示部33の表示画面に表示させること、スピーカ37から音声出力させること、プリンタ40に出力させることの少なくともいずれかであることを例示することができる。
そして、店舗の従業員(例えば配膳人)が、注文を受けた商品(例えばビール)をユーザAに届けることで、ユーザAは、注文した商品を受け取る(S1717)。
上記S1713〜S1717の処理が、ユーザA、ユーザB、ユーザCの全てのユーザからの注文が終了するまで注文毎に繰り返される。
In the store terminal 30, information related to the order of the product from the server 20 is acquired, the acquired product (for example, beer), which is the acquired information, and the user number (user number: 1) of the user terminal 10A that made the order. ) And the area number (area number: 1) are notified (S1716). Examples of the notification method include at least one of the above-described display on the display screen of the display unit 33, audio output from the speaker 37, and output to the printer 40.
Then, an employee of the store (for example, a distributor) delivers the ordered product (for example, beer) to the user A, and the user A receives the ordered product (S1717).
The processes of S1713 to S1717 are repeated for each order until the orders from all the users A, B, and C are completed.

サーバ20の評価把握部220は、音声解析部221が解析した音声及び画像解析部222が解析した画像の少なくともいずれかに基づいて、商品の評価に関する情報を把握する評価把握処理を行う(S1718)。この評価把握処理において、評価把握部220は、一の商品に対する評価を把握した場合には、商品名と評価に関する情報とを関連付けて記憶部22に記憶する。また、評価把握部220は、商品名と評価に関する情報とを店舗端末30に送信しても良い。このようにして、サーバ20は、ユーザが飲食した直後に商品に対する評価を把握することができる。それゆえ、サーバ20は、例えばユーザが店舗を退出した後に評価を入力する等に比べて、確度が高い評価に関する情報を把握することができる。   The evaluation grasping unit 220 of the server 20 performs an evaluation grasping process for grasping information related to product evaluation based on at least one of the sound analyzed by the sound analyzing unit 221 and the image analyzed by the image analyzing unit 222 (S1718). . In this evaluation grasping process, when the evaluation grasping unit 220 grasps the evaluation for one product, the product name and information related to the evaluation are associated with each other and stored in the storage unit 22. Further, the evaluation grasping unit 220 may transmit the product name and information regarding the evaluation to the store terminal 30. In this way, the server 20 can grasp the evaluation for the product immediately after the user eats or drinks. Therefore, the server 20 can grasp information related to evaluation with higher accuracy than, for example, inputting the evaluation after the user leaves the store.

一のグループを構成するいずれかのユーザが、ユーザ端末10(図17−2においてはユーザ端末10A)の表示部13に表示されているメニュー画面71に表示されている会計ボタン71eを押下したとする(S1719)。サーバ20においては、生成部213が会計画面72を表示させるためのHTML文書を生成し(S1720)、送信部217がHTML文書をユーザ端末10Aに送信する(S1721)。ユーザ端末10Aは、表示部13に会計画面72を表示する(S1722)。   When any user who constitutes one group presses the accounting button 71e displayed on the menu screen 71 displayed on the display unit 13 of the user terminal 10 (the user terminal 10A in FIG. 17-2). (S1719). In the server 20, the generation unit 213 generates an HTML document for displaying the accounting screen 72 (S1720), and the transmission unit 217 transmits the HTML document to the user terminal 10A (S1721). The user terminal 10A displays the accounting screen 72 on the display unit 13 (S1722).

その後、ユーザAが、ユーザ端末10Aの表示部13に表示されている会計画面72に表示されている同等割会計ボタン72cを押下したとする(S1723)。サーバ20においては、課金部215が、エリア番号が1であるエリアで飲食された全商品の合計金額を、ユーザ端末10の数である3にて同等割した金額を算出し(S1724)、その金額等の情報を含んだHTML文書を、送信部217を介して全ユーザ端末10(ユーザ端末10A、ユーザ端末10B、ユーザ端末10C)に送信する(S1725)。全ユーザ端末10(ユーザ端末10A、ユーザ端末10B、ユーザ端末10C)は、表示部13に、同等割した金額と、確認ボタン74aを表示する(S1726)。   Thereafter, it is assumed that the user A presses the equivalence accounting button 72c displayed on the accounting screen 72 displayed on the display unit 13 of the user terminal 10A (S1723). In the server 20, the billing unit 215 calculates an amount obtained by equally dividing the total amount of all products eaten and consumed in the area having the area number 1 by 3 which is the number of user terminals 10 (S1724). An HTML document including information such as the amount of money is transmitted to all user terminals 10 (user terminal 10A, user terminal 10B, user terminal 10C) via the transmission unit 217 (S1725). All the user terminals 10 (user terminal 10A, user terminal 10B, user terminal 10C) display the equally divided amount and the confirmation button 74a on the display unit 13 (S1726).

その後、ユーザAが、ユーザ端末10Aの表示部13に表示されている確認ボタン74aを押下した場合には(S1727)、サーバ20は、決済処理を行う(S1728)。これにより、ユーザ端末10Aを用いた支払いが終了する。また、ユーザBが、ユーザ端末10Bの表示部13に表示されている確認ボタン74aを押下した場合には(S1729)、サーバ20は、決済処理を行う(S1730)。これにより、ユーザ端末10Bを用いた支払いが終了する。また、ユーザCが、ユーザ端末10Cの表示部13に表示されている確認ボタン74aを押下した場合には(S1731)、サーバ20は、決済処理を行う(S1732)。これにより、ユーザ端末10Cを用いた支払いが終了する。   Thereafter, when the user A presses the confirmation button 74a displayed on the display unit 13 of the user terminal 10A (S1727), the server 20 performs a settlement process (S1728). Thereby, the payment using the user terminal 10A is completed. When the user B presses the confirmation button 74a displayed on the display unit 13 of the user terminal 10B (S1729), the server 20 performs a settlement process (S1730). Thereby, the payment using the user terminal 10B is completed. When the user C presses the confirmation button 74a displayed on the display unit 13 of the user terminal 10C (S1731), the server 20 performs a settlement process (S1732). Thereby, the payment using the user terminal 10C is completed.

以上のように構成された本実施の形態に係るキャッシュレスシステム1は、飲食店に来訪したユーザのユーザ端末10からの接続要求を受け付ける受付手段の一例としての受信部211と、飲食店にて提供する料理の一覧をユーザ端末10に表示させる表示制御手段の一例としての生成部213と、を備える評価取得システムの一例である。そして、本実施の形態に係るキャッシュレスシステム1は、ユーザ端末10から商品の注文を受ける受注手段の一例としての受注部214と、商品の評価に関する情報を、ユーザの挙動から把握する把握手段の一例としての評価把握部220と、を備える。
本実施の形態に係るキャッシュレスシステム1によれば、評価把握部220がユーザの挙動から商品の評価に関する情報を把握するので、ユーザの挙動以外から商品の評価に関する情報を把握する場合よりも、確度高い評価に関する情報を把握することができる。
The cashless system 1 according to the present embodiment configured as described above includes a reception unit 211 as an example of a reception unit that receives a connection request from a user terminal 10 of a user who has visited a restaurant, and a restaurant. It is an example of an evaluation acquisition system provided with the production | generation part 213 as an example of the display control means to display the list of the food to provide on the user terminal 10. FIG. The cashless system 1 according to the present embodiment includes an order receiving unit 214 as an example of an order receiving unit that receives an order for a product from the user terminal 10, and a grasping unit that grasps information related to product evaluation from a user's behavior. And an evaluation grasping unit 220 as an example.
According to the cashless system 1 according to the present embodiment, since the evaluation grasping unit 220 grasps information related to product evaluation from the user's behavior, than when grasping information related to product evaluation from other than the user's behavior, Information about highly accurate evaluation can be grasped.

評価把握部220は、ユーザの発話を録音する録音手段の一例としてのマイク61が録音した発話内容に基づいて商品の評価に関する情報を把握しても良い。音声解析部221は、マイク61により収録された音響情報を解析することによりユーザの発話内容を認識する。そして、評価導出部223は、音声解析部221が認識した発話内容から、一の商品に対する評価を把握可能である場合には、音声解析部221による解析結果を用いて一の商品に対する評価を把握する。本実施の形態に係るキャッシュレスシステム1によれば、例えば、ユーザの飲食直後の生の声を基に商品の評価に関する情報を把握することで、確度高い評価に関する情報を把握することができる。   The evaluation grasping unit 220 may grasp information related to the evaluation of the product based on the utterance content recorded by the microphone 61 as an example of a recording unit that records the user's utterance. The voice analysis unit 221 recognizes the user's utterance content by analyzing the acoustic information recorded by the microphone 61. Then, the evaluation deriving unit 223 grasps the evaluation for the one product using the analysis result by the voice analysis unit 221 when the evaluation for the one product can be grasped from the utterance content recognized by the voice analysis unit 221. To do. According to the cashless system 1 according to the present embodiment, for example, it is possible to grasp information relating to highly accurate evaluation by grasping information relating to product evaluation based on a user's live voice immediately after eating and drinking.

評価把握部220は、ユーザの表情を撮像する撮像手段の一例としてのカメラ62が撮影した商品を食べた後のユーザの表情に基づいて商品の評価に関する情報を把握しても良い。画像解析部222は、カメラ62により撮影された撮影画像を解析することによりユーザの表情を認識する。画像解析部222は、カメラ62により撮影された撮影画像を解析することによりユーザが飲食した商品を特定する。そして、評価導出部223は、画像解析部222が認識したユーザの表情及びユーザが飲食した商品から、一の商品に対する評価を把握可能である場合には、画像解析部222による解析結果を用いて一の商品に対する評価を把握する。本実施の形態に係るキャッシュレスシステム1によれば、例えば、ユーザの飲食直後の表情を基に商品の評価に関する情報を把握することで、確度高い評価に関する情報を把握することができる。   The evaluation grasping unit 220 may grasp information relating to the evaluation of the product based on the facial expression of the user after eating the product captured by the camera 62 as an example of an imaging unit that captures the facial expression of the user. The image analysis unit 222 recognizes the user's facial expression by analyzing the captured image captured by the camera 62. The image analysis unit 222 identifies a product eaten or consumed by the user by analyzing a photographed image photographed by the camera 62. The evaluation deriving unit 223 uses the analysis result of the image analysis unit 222 when the evaluation of one product can be grasped from the facial expression of the user recognized by the image analysis unit 222 and the product eaten or consumed by the user. Understand the evaluation of one product. According to the cashless system 1 according to the present embodiment, for example, it is possible to grasp information related to evaluation with high accuracy by grasping information related to product evaluation based on a facial expression of a user immediately after eating and drinking.

評価把握部220は、受注部214が受けた注文に基づいてユーザが食べた商品を特定しても良い。画像解析部222は、例えば、撮影画像から商品を特定するときに、受注部214が一のグループから複数の注文を受けていた場合には、撮影画像から抽出した特徴量と、受注部214が注文を受けていた複数の商品の特徴量を、注文を受けていない商品の特徴量よりも先に比較すると良い。受注部214が注文を受けていた商品を考慮することで、受注部214が注文を受けていた商品を考慮しない場合よりも、迅速かつ精度高く商品を特定することが可能となる。   The evaluation grasping unit 220 may specify the product eaten by the user based on the order received by the order receiving unit 214. For example, when the order receiving unit 214 receives a plurality of orders from one group when specifying a product from the captured image, the image analyzing unit 222 uses the feature amount extracted from the captured image and the order receiving unit 214 The feature quantities of a plurality of products that have been ordered may be compared before the feature quantities of the products that have not been ordered. By considering the product for which the order receiving unit 214 has received the order, it is possible to specify the product more quickly and with higher accuracy than when the order receiving unit 214 does not consider the product for which the order has been received.

評価把握部220は、マイク61が録音した発話内容と、カメラ62が撮影した画像とに基づいて商品の評価に関する情報を把握しても良い。つまり、マイク61が商品に関する情報と評価に関する情報とをともに収録できない場合や、カメラ62が商品とユーザの表情とをともに撮影できない場合等には、マイク61が録音した発話内容とカメラ62が撮影した撮影画像とを用いて商品に関する情報と評価に関する情報とを把握しても良い。
例えば、評価把握部220は、カメラ62が撮影した画像に基づいてユーザが飲食した商品を特定し、マイク61が録音した発話内容に基づいて商品の評価を把握しても良い。又は、評価把握部220は、カメラ62が撮影したユーザの表情を基に商品の評価を把握し、マイク61が録音した発話内容を基にユーザが飲食した商品を特定しても良い。
The evaluation grasping unit 220 may grasp information related to product evaluation based on the utterance content recorded by the microphone 61 and the image taken by the camera 62. That is, when the microphone 61 cannot record both information related to the product and information related to the evaluation, or when the camera 62 cannot capture both the product and the user's facial expression, the utterance content recorded by the microphone 61 and the camera 62 capture the image. You may grasp | ascertain the information regarding goods, and the information regarding evaluation using the taken image.
For example, the evaluation grasping unit 220 may identify a product eaten or consumed by the user based on an image captured by the camera 62 and may grasp the evaluation of the product based on the utterance content recorded by the microphone 61. Alternatively, the evaluation grasping unit 220 may grasp the evaluation of the product based on the facial expression of the user photographed by the camera 62 and specify the product eaten and consumed by the user based on the utterance content recorded by the microphone 61.

評価把握部220は、受注部214が注文を受けた複数の商品の中から選択することでユーザが食べた商品を特定しても良い。マイク61が録音した発話内容、又は、カメラ62が撮影した画像を基にユーザが飲食した商品を特定する際に、受注部214が注文を受けていた商品を考慮することで、受注部214が注文を受けていた商品を考慮しない場合よりも、迅速かつ精度高く商品を特定することが可能となる。   The evaluation grasping unit 220 may specify a product eaten by the user by selecting from a plurality of products for which the order receiving unit 214 has received an order. When the product ordered by the user is identified based on the utterance content recorded by the microphone 61 or the image taken by the camera 62, the order receiving unit 214 considers the product for which the order has been received. It is possible to specify a product quickly and with higher accuracy than when the product for which an order has been received is not taken into consideration.

なお、上述した実施の形態に係るキャッシュレスシステム1においては、商品の評価に関する情報として、画像解析部222は、ユーザの顔の表情である笑顔や怒り顔を認識し、評価導出部223は、「笑顔」は「良い」、「怒り顔」は「悪い」ことを示す評価であると把握するが特にかかる態様に限定されない。例えば、画像解析部222は、ユーザの顔の表情が驚嘆した顔や渋い顔であることを認識し、評価導出部223は、「驚嘆した顔」は「良い」、「渋い顔」は「悪い」ことを示す評価であると把握しても良い。
また、画像解析部222は、評価に関する情報を得るために、ユーザの顔の表情以外を認識しても良い。例えば、画像解析部222は、親指を立てるジェスチャーや親指を下げるジェスチャーを認識しても良い。そして、評価導出部223は、「親指を立てるジェスチャー」は「良い」、「親指を下げるジェスチャー」は「悪い」ことを示す評価であると把握しても良い。
In the cashless system 1 according to the above-described embodiment, as information related to product evaluation, the image analysis unit 222 recognizes a smile or angry face that is a facial expression of the user, and the evaluation deriving unit 223 Although it is understood that “smile” is an evaluation indicating “good” and “angry face” is “bad”, the present invention is not particularly limited to such an aspect. For example, the image analysis unit 222 recognizes that the facial expression of the user is a surprised or astringent face, and the evaluation deriving unit 223 determines that the “amazed face” is “good” and the “astringent face” is “bad”. You may grasp that it is the evaluation which shows.
Further, the image analysis unit 222 may recognize information other than the facial expression of the user in order to obtain information related to the evaluation. For example, the image analysis unit 222 may recognize a gesture for raising a thumb or a gesture for lowering a thumb. Then, the evaluation deriving unit 223 may grasp that the “gesture for raising the thumb” is “good” and the “gesture for lowering the thumb” is “bad”.

また、本実施の形態に係るキャッシュレスシステム1において、サーバ20は、飲食店にて提供する料理の一覧とともに、評価把握部220が把握した個々の商品の評価を、口コミとしてインターネットで閲覧可能にしても良い。これにより、飲食店が、特定の料理に強みを有する場合には、その料理をアピールすることが可能となる。例えば、接客態度が悪いために飲食店全体の評価が低くても、特定の料理に強みを持ち、その特定の料理の評価が高い場合には、その特定の料理を目的とする顧客を獲得することができる。その結果、飲食店の経営を向上させることが可能となる。また、ユーザは、特定の料理の評価が高い店舗に訪れることで、好みの料理を美味しく食べたいという要求を満たすことが可能となる。
なお、料理の評価をインターネットで閲覧可能にする際には、サーバ20は、飲食店にて提供する料理を、評価が高い順に外部端末に表示させても良い。これにより、外部端末を所有する者は、料理をチェックする際に、簡便に評価が高い料理をチェックすることが可能となる。また、サーバ20は、把握した評価がネガティブである場合には、公表しないようにしても良い。
Further, in the cashless system 1 according to the present embodiment, the server 20 makes it possible to browse the evaluation of each product grasped by the evaluation grasping unit 220 as a word of mouth along with a list of dishes provided at the restaurant. May be. Thereby, when a restaurant has strength in a specific dish, it becomes possible to appeal that dish. For example, even if the overall rating of a restaurant is low due to poor customer service, if a particular dish has strength and the rating of that particular dish is high, acquire customers for that particular dish be able to. As a result, the restaurant management can be improved. In addition, the user can satisfy a request to eat a favorite dish deliciously by visiting a store having a high evaluation of a specific dish.
In addition, when making evaluation of cooking possible on the Internet, the server 20 may display the food provided at the restaurant on the external terminal in descending order of evaluation. Thereby, the person who owns the external terminal can easily check a dish having a high evaluation when checking the dish. Further, the server 20 may not make it public when the grasped evaluation is negative.

なお、上述した実施の形態に係るキャッシュレスシステム1においては、飲食店にて飲食をし終えた後に会計処理を行う態様であるが、ユーザ端末10にて注文を行う度に支払いを行えるようにしても良い。例えば、サーバ20は、ユーザ端末10の表示部13に表示されたメニュー画面71の注文ボタン71dが押下された旨を受信した場合に、図7に例示した会計画面72をユーザ端末10の表示部13に表示させても良い。そして、注文した個々の商品の代金を、一のグループを構成する複数のユーザの内のいずれかのユーザのユーザ端末10にて支払うのか、同等割にするのか、特殊割にするのかを選択可能にすると良い。   In addition, in the cashless system 1 which concerns on embodiment mentioned above, although it is the aspect which performs an accounting process after having finished eating and drinking in a restaurant, it enables it to pay each time an order is made in the user terminal 10. May be. For example, when the server 20 receives a notification that the order button 71d of the menu screen 71 displayed on the display unit 13 of the user terminal 10 is pressed, the server 20 displays the accounting screen 72 illustrated in FIG. 13 may be displayed. And, you can choose whether to pay for each ordered product at the user terminal 10 of one of multiple users who make up one group, or to make an equivalent or special discount It is good to make it.

また、上述した実施の形態に係るキャッシュレスシステム1においては、一のグループを構成する複数のユーザが所有する複数のユーザ端末10の全ての表示部13に表示されるメニュー画面71に、会計ボタン71eを表示させているが、特にかかる態様に限定されない。例えば、一のグループを構成する複数のユーザの内の一人を会計権限者として設定し、当該会計権限者が所有するユーザ端末10(会計権限者端末)の表示部13にのみ、メニュー画面71に会計ボタン71eを表示させるようにしても良い。そして、当該会計権限者端末においてのみ会計画面72を表示させ、まとめ会計、端末毎会計、同等割会計、特殊割会計を選択可能にしても良い。なお、会計権限者は、一のグループを構成する複数のユーザが決定可能にしても良いし、コード情報を読み取ることで表示されるアドレスに最初にアクセスしてきたユーザ端末10を所有する者を会計権限者(当該ユーザ端末10を会計権限者端末)として決定しても良い。   In the cashless system 1 according to the above-described embodiment, the accounting button is displayed on the menu screen 71 displayed on all the display units 13 of the plurality of user terminals 10 owned by the plurality of users constituting one group. Although 71e is displayed, it is not particularly limited to such a mode. For example, one of a plurality of users constituting one group is set as an accounting authority, and the menu screen 71 is displayed only on the display unit 13 of the user terminal 10 (accounting authority terminal) owned by the accounting authority. The accounting button 71e may be displayed. Then, the accounting screen 72 may be displayed only at the accounting authority terminal, and summary accounting, terminal accounting, equivalent accounting, and special accounting can be selected. The accounting authority may make it possible for a plurality of users who make up one group to make a decision, or may determine who owns the user terminal 10 that has first accessed the address displayed by reading the code information. You may determine as an authorized person (the said user terminal 10 is an accounting authorized person terminal).

また、上述した実施の形態に係るキャッシュレスシステム1においては、店舗の配膳人が注文された商品(料理や飲み物など)を配膳する態様であるが特にかかる態様に限定されない。商品の準備が整ったら、注文を行ったユーザ端末10に対して電話をするかメッセージを送るなどして報知し、ユーザが商品を取りに来る態様であっても良い。かかる態様である場合、店舗端末30に、ユーザ端末10に対して電話やメッセージを送る機能を持たせても良い。   In addition, in the cashless system 1 according to the above-described embodiment, the store distributor distributes the ordered products (such as dishes and drinks), but is not particularly limited thereto. When the product is ready, a notification may be issued by calling or sending a message to the user terminal 10 that has placed the order, and the user may pick up the product. In such an aspect, the store terminal 30 may have a function of sending a phone call or a message to the user terminal 10.

また、上述した実施の形態に係るキャッシュレスシステム1において、店舗端末30は、厨房等の店舗内に配置されていることが好ましいが、サーバ20は、店舗内に配置されていても良いし、店舗外に配置されていても良い。サーバ20が店舗内に配置される場合には、サーバ20と店舗端末30とは一体であって良い。また、店舗端末30とプリンタ40とは一体であっても良いし、サーバ20、店舗端末30及びプリンタ40が一体であっても良い。これらが一体となった装置と、取得システム60とは、LAN、bluetooth(登録商標)や赤外線通信等の無線通信又は有線通信にて、互いに通信可能となっていても良い。
また、プリンタ40にてコード情報を含む画像が形成された用紙をエリアに配置する態様に限定されない。例えば、エリアに設置された、液晶パネルなどの表示装置にコード情報を表示させ、表示装置に表示されたコード情報を、ユーザ端末10にて読み取らせるようにしても良い。
Further, in the cashless system 1 according to the above-described embodiment, the store terminal 30 is preferably arranged in a store such as a kitchen, but the server 20 may be arranged in the store, It may be arranged outside the store. When the server 20 is disposed in the store, the server 20 and the store terminal 30 may be integrated. Further, the store terminal 30 and the printer 40 may be integrated, or the server 20, the store terminal 30 and the printer 40 may be integrated. The device in which these are integrated and the acquisition system 60 may be able to communicate with each other by wireless communication such as LAN, bluetooth (registered trademark), infrared communication, or wired communication.
Further, the present invention is not limited to a mode in which a sheet on which an image including code information is formed by the printer 40 is arranged in an area. For example, code information may be displayed on a display device such as a liquid crystal panel installed in the area, and the code information displayed on the display device may be read by the user terminal 10.

また、上述した実施の形態に係るキャッシュレスシステム1においては、ユーザ端末10を用いて商品の注文及び会計を行うことを実現可能なサーバ20が、商品の評価に関する情報をユーザの挙動から把握する機能を有するが特にかかる態様に限定されない。例えば、ユーザ端末10を用いて商品の注文及び会計を行い得ないサーバが、評価把握部220を有し、店舗内に配置された取得システム60から取得した音声や画像に基づいて商品の評価に関する情報をユーザの挙動から把握する機能を有しても良い。かかる場合、評価把握部220を備えるサーバを、商品の評価に関する情報をユーザの挙動から把握する把握手段の一例としての評価把握部220を備える評価取得システムとして捉えることができる。   In addition, in the cashless system 1 according to the above-described embodiment, the server 20 that can implement ordering and accounting for the product using the user terminal 10 grasps information related to product evaluation from the user's behavior. Although it has a function, it is not limited to such an aspect. For example, a server that cannot perform ordering and accounting for a product using the user terminal 10 has an evaluation grasping unit 220 and relates to the evaluation of the product based on voice and images acquired from the acquisition system 60 arranged in the store. You may have the function to grasp | ascertain information from a user's behavior. In this case, the server including the evaluation grasping unit 220 can be regarded as an evaluation acquisition system including the evaluation grasping unit 220 as an example of grasping means for grasping information related to product evaluation from the user's behavior.

また、上述の実施形態に係るキャッシュレスシステム1では、ユーザ端末10が、サーバ20から取得するHTML文書を解釈することでメニュー画面71等を表示部13に表示させる、いわゆるブラウザ形式によって本発明が実現される場合について説明したが、特にかかる態様に限定されない。ユーザ端末10がダウンロードしたプログラムを実行することでメニュー画面71等を表示させる、いわゆるネイティブアプリケーション形式によって実現しても良い。   Further, in the cashless system 1 according to the above-described embodiment, the present invention is based on a so-called browser format in which the user terminal 10 displays a menu screen 71 or the like on the display unit 13 by interpreting an HTML document acquired from the server 20. Although the case where it implement | achieves was demonstrated, it is not limited to this aspect in particular. You may implement | achieve by what is called a native application format which displays the menu screen 71 grade | etc., By running the program which the user terminal 10 downloaded.

1…キャッシュレスシステム、10…ユーザ端末、20…サーバ、21…制御部、30…店舗端末、40…プリンタ、60…取得システム、211…受信部、212…識別部、213…生成部、214…受注部、215…課金部、216…作成部、217…送信部、220…評価把握部、221…音声解析部、222…画像解析部、223…評価導出部 DESCRIPTION OF SYMBOLS 1 ... Cashless system, 10 ... User terminal, 20 ... Server, 21 ... Control part, 30 ... Store terminal, 40 ... Printer, 60 ... Acquisition system, 211 ... Reception part, 212 ... Identification part, 213 ... Generation part, 214 ... order receiving part, 215 ... charging part, 216 ... creating part, 217 ... transmitting part, 220 ... evaluation grasping part, 221 ... voice analyzing part, 222 ... image analyzing part, 223 ... evaluation deriving part

Claims (7)

飲食店に来訪したユーザのユーザ端末からの接続要求を受け付ける受付手段と、
前記飲食店にて提供する商品の一覧を前記ユーザ端末に表示させる表示制御手段と、
前記ユーザ端末から前記商品の注文を受ける受注手段と、
前記商品の評価に関する情報を、前記ユーザの挙動から把握する把握手段と、
を備えることを特徴とする評価取得システム。
Accepting means for accepting a connection request from a user terminal of a user who has visited a restaurant;
Display control means for displaying a list of products provided at the restaurant on the user terminal;
Order receiving means for receiving an order for the product from the user terminal;
Grasping means for grasping information on evaluation of the product from the behavior of the user;
An evaluation acquisition system comprising:
前記把握手段は、前記ユーザの発話を録音する録音手段が録音した発話内容に基づいて前記商品の評価に関する情報を把握する
請求項1に記載の評価取得システム。
The evaluation acquisition system according to claim 1, wherein the grasping means grasps information related to the evaluation of the product based on the utterance content recorded by the recording means for recording the user's utterance.
前記把握手段は、前記ユーザの表情を撮像する撮像手段が撮影した前記商品を飲食した後の当該ユーザの表情に基づいて当該商品の評価に関する情報を把握する
請求項1に記載の評価取得システム。
The evaluation acquisition system according to claim 1, wherein the grasping unit grasps information related to the evaluation of the product based on the facial expression of the user after eating and drinking the product captured by the imaging unit that captures the facial expression of the user.
前記把握手段は、前記受注手段が受けた注文に基づいて前記ユーザが飲食した商品を特定する
請求項3に記載の評価取得システム。
The evaluation acquisition system according to claim 3, wherein the grasping unit specifies a product eaten or consumed by the user based on an order received by the order receiving unit.
前記把握手段は、録音手段が録音した前記ユーザの発話内容と、撮像手段が撮影した画像とに基づいて前記商品の評価に関する情報を把握する
請求項1に記載の評価取得システム。
The evaluation acquisition system according to claim 1, wherein the grasping unit grasps information related to the evaluation of the product based on the user's utterance content recorded by the recording unit and an image captured by the imaging unit.
前記把握手段は、前記撮像手段が撮影した画像に基づいて前記ユーザが飲食した商品を特定し、前記録音手段が録音した発話内容に基づいて当該商品の評価を把握する
請求項5に記載の評価取得システム。
6. The evaluation according to claim 5, wherein the grasping means identifies a product eaten and consumed by the user based on an image taken by the imaging means, and grasps the evaluation of the product based on the utterance content recorded by the recording means. Acquisition system.
前記把握手段は、前記受注手段が注文を受けた複数の商品の中から選択することで前記ユーザが飲食した商品を特定する
請求項6に記載の評価取得システム。
The evaluation acquisition system according to claim 6, wherein the grasping unit specifies a product eaten or consumed by the user by selecting from among a plurality of products for which the order receiving unit has received an order.
JP2018063345A 2018-03-28 2018-03-28 Evaluation acquisition system Active JP6964549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018063345A JP6964549B2 (en) 2018-03-28 2018-03-28 Evaluation acquisition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018063345A JP6964549B2 (en) 2018-03-28 2018-03-28 Evaluation acquisition system

Publications (2)

Publication Number Publication Date
JP2019175188A true JP2019175188A (en) 2019-10-10
JP6964549B2 JP6964549B2 (en) 2021-11-10

Family

ID=68167028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018063345A Active JP6964549B2 (en) 2018-03-28 2018-03-28 Evaluation acquisition system

Country Status (1)

Country Link
JP (1) JP6964549B2 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111383138A (en) * 2020-03-06 2020-07-07 腾讯科技(深圳)有限公司 Catering data processing method and device, computer equipment and storage medium
JP2020106906A (en) * 2018-12-26 2020-07-09 Kddi株式会社 Evaluation system and evaluation method
JP2022170625A (en) * 2021-04-28 2022-11-10 ベア ロボティクス インク Method, system, and non-transitory computer-readable recording medium for controlling serving robot

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001616A1 (en) * 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
JP2005222191A (en) * 2004-02-04 2005-08-18 Fujitsu Ltd Menu order selection support system, data center and store system
JP2014146264A (en) * 2013-01-30 2014-08-14 Nikon Corp Restaurant evaluation system and restaurant evaluation program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001616A1 (en) * 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
JP2005222191A (en) * 2004-02-04 2005-08-18 Fujitsu Ltd Menu order selection support system, data center and store system
JP2014146264A (en) * 2013-01-30 2014-08-14 Nikon Corp Restaurant evaluation system and restaurant evaluation program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020106906A (en) * 2018-12-26 2020-07-09 Kddi株式会社 Evaluation system and evaluation method
CN111383138A (en) * 2020-03-06 2020-07-07 腾讯科技(深圳)有限公司 Catering data processing method and device, computer equipment and storage medium
JP2022170625A (en) * 2021-04-28 2022-11-10 ベア ロボティクス インク Method, system, and non-transitory computer-readable recording medium for controlling serving robot
JP7261833B2 (en) 2021-04-28 2023-04-20 ベア ロボティクス インク Method, system and non-transitory computer readable recording medium for controlling a serving robot
US11919146B2 (en) 2021-04-28 2024-03-05 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot

Also Published As

Publication number Publication date
JP6964549B2 (en) 2021-11-10

Similar Documents

Publication Publication Date Title
JP7214237B2 (en) Program, information processing method and information processing device
US11238655B2 (en) Offline shopping guide method and apparatus
CN108335177A (en) Shopping recommendation method, user terminal, server-side, equipment and storage medium
JP6964549B2 (en) Evaluation acquisition system
US20160180423A1 (en) System and method for queueing video calls
US11727454B2 (en) Method of providing un-contact commerce service and commerce server performing the same
US20150310561A1 (en) Asset management server, asset managing method, and asset management server program
WO2017038935A1 (en) Order processing system and order processing method
JP2014081888A (en) Order support device, order support method and order support program
JP2019023779A (en) Order system
KR20060010684A (en) System and method for providing a reverse auction
KR20120025322A (en) Ordering system using smart phone
KR20210003639A (en) Customer management device and customer management method
KR20150076407A (en) System, apparatus and method for providing cosmetic sample based on user&#39;s skin condition
JP2018072978A (en) Use details/store information link device, program and method
JP2017182201A (en) Relay server, system, method, and program for Web site using SNS
WO2014007567A1 (en) Server providing on/offline trading service, terminal for product trading, and method for providing trading service thereby
WO2021210660A1 (en) Commodity/service ordering system, commodity/service ordering method, and program for same
JP6959673B2 (en) Store reservation device, program, store reservation system
JP6980593B2 (en) Product evaluation system
JP2016177539A (en) Information gathering system, information processing system, and program
KR102479745B1 (en) In-stadium delivery service districution system and method
US20220405868A1 (en) Automatic Restaurant Ordering System
KR102081353B1 (en) Apparatus of providing remote ordering service
CN111435513B (en) Content processing method, device and system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211019

R150 Certificate of patent or registration of utility model

Ref document number: 6964549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150