JP6964549B2 - Evaluation acquisition system - Google Patents

Evaluation acquisition system Download PDF

Info

Publication number
JP6964549B2
JP6964549B2 JP2018063345A JP2018063345A JP6964549B2 JP 6964549 B2 JP6964549 B2 JP 6964549B2 JP 2018063345 A JP2018063345 A JP 2018063345A JP 2018063345 A JP2018063345 A JP 2018063345A JP 6964549 B2 JP6964549 B2 JP 6964549B2
Authority
JP
Japan
Prior art keywords
user
product
unit
evaluation
user terminal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018063345A
Other languages
Japanese (ja)
Other versions
JP2019175188A (en
Inventor
友貴 島貫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tokyo Gas Co Ltd
Original Assignee
Tokyo Gas Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tokyo Gas Co Ltd filed Critical Tokyo Gas Co Ltd
Priority to JP2018063345A priority Critical patent/JP6964549B2/en
Publication of JP2019175188A publication Critical patent/JP2019175188A/en
Application granted granted Critical
Publication of JP6964549B2 publication Critical patent/JP6964549B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、評価取得システムに関する。 The present invention relates to an evaluation acquisition system.

近年、飲食店の評価情報を提供するシステムが提案されている。
特許文献1に記載された情報提供システムは、飲食店の評価情報をユーザから口コミ情報として受け付け、受け付けた口コミ情報を他のユーザに公開するシステムである。この情報提供システムにおいては、単に口コミ情報を公開するだけでなく、各投稿者から得意地域や得意ジャンルの登録を受け付け、各投稿者が自分の得意地域や得意ジャンルに該当する飲食店に対して投稿した口コミ情報を各投稿者に共通する得意地域や得意ジャンルごとに集計することにより、飲食店をランク付けした地域やジャンルごとの評価ランキングに係る情報を生成することとしている。
In recent years, a system for providing evaluation information of restaurants has been proposed.
The information providing system described in Patent Document 1 is a system that receives evaluation information of a restaurant as word-of-mouth information from a user and discloses the received word-of-mouth information to other users. In this information provision system, not only the word-of-mouth information is disclosed, but also the registration of the specialty area and the specialty genre is accepted from each poster, and each poster responds to the restaurant corresponding to his / her specialty area or the specialty genre. By aggregating the posted word-of-mouth information for each region or genre that is common to each contributor, information related to the evaluation ranking for each region or genre in which restaurants are ranked is generated.

特開2007−193427号公報JP-A-2007-193427

飲食店においては、顧客が美味しいと感じる商品を提供することが望ましい。それゆえ、顧客から、飲食した商品の評価に関する情報を取得し、取得した情報を、その後に調理する際に参考にすることが考えられる。そして、取得する情報は、確度が高いことが望ましい。
本発明は、確度が高い評価に関する情報を取得することができる評価取得システムを提供することを目的とする。
At restaurants, it is desirable to provide products that customers find delicious. Therefore, it is conceivable to acquire information on the evaluation of the food and drink from the customer and refer to the acquired information when cooking thereafter. It is desirable that the information to be acquired has high accuracy.
An object of the present invention is to provide an evaluation acquisition system capable of acquiring information on evaluation with high accuracy.

かかる目的のもと完成させた本発明は、飲食店に来訪したユーザのユーザ端末からの接続要求を受け付ける受付手段と、前記飲食店にて提供する商品の一覧を前記ユーザ端末に表示させる表示制御手段と、前記ユーザ端末から前記商品の注文を受ける受注手段と、前記商品の評価に関する情報を、前記ユーザの挙動から把握する把握手段と、を備え、前記把握手段は、前記ユーザの発話を録音する録音手段が録音した発話内容及び撮像手段が撮影した画像の少なくともいずれかに基づいて、前記飲食店にて提供される複数の商品の中から前記ユーザが飲食した一の商品を特定するとともに、当該発話内容及び当該画像の少なくともいずれかに基づいて、当該一の商品の評価に関する情報を把握することを特徴とする評価取得システムである。
ここで、前記把握手段は、前記ユーザの表情を撮像する撮像手段が撮影した前記一の商品を飲食した後の当該ユーザの表情に基づいて当該一の商品の評価に関する情報を把握しても良い。
また、前記把握手段は、前記撮像手段が撮影した画像に基づいて前記一の商品を特定し、前記録音手段が録音した発話内容に基づいて当該一の商品の評価を把握しても良い。
また、前記把握手段は、前記撮像手段が撮影した画像から抽出した特徴量と、認識用データとして与えられている各商品の特徴量とを比較し、一致度が閾値以上であるか否かで商品を特定する際に、前記受注手段が注文を受けていた商品の特徴量と、当該画像から抽出した特徴量とを最初に比較しても良い。
The present invention completed for this purpose is a reception means for receiving a connection request from a user terminal of a user who visits a restaurant, and a display control for displaying a list of products provided at the restaurant on the user terminal. The means, an ordering means for receiving an order for the product from the user terminal, and a grasping means for grasping information on the evaluation of the product from the behavior of the user, the grasping means records the speech of the user. Based on at least one of the utterance content recorded by the recording means and the image taken by the imaging means, one product that the user has eaten or eaten is specified from the plurality of products provided at the restaurant, and one product is specified. It is an evaluation acquisition system characterized by grasping information on the evaluation of the one product based on at least one of the utterance content and the image.
Here, before Symbol grasping means, even to understand the information on the evaluation of the one of the product based on the facial expression of the user after eating the said one of the product by the imaging means has captured for imaging a facial expression of the user good.
Further, the grasping means may identify the one product based on the image taken by the imaging means, and grasp the evaluation of the one product based on the utterance content recorded by the recording means.
Further, the grasping means compares the feature amount extracted from the image taken by the imaging means with the feature amount of each product given as recognition data, and determines whether the degree of matching is equal to or higher than the threshold value. When specifying the product, the feature amount of the product ordered by the ordering means may be first compared with the feature amount extracted from the image.

本発明によれば、確度が高い評価に関する情報を取得することができる評価取得システムを提供することができる。 According to the present invention, it is possible to provide an evaluation acquisition system capable of acquiring information on evaluation with high accuracy.

実施の形態に係るキャッシュレスシステムの概略構成を例示した図である。It is a figure which illustrated the schematic structure of the cashless system which concerns on embodiment. ユーザ端末の概略構成を例示した図である。It is a figure which illustrated the schematic structure of the user terminal. サーバの機能構成を例示したブロック図である。It is a block diagram which illustrated the functional structure of a server. ユーザ端末に表示されるアクセス画面の一例を示す図である。It is a figure which shows an example of the access screen displayed on a user terminal. ユーザ端末に表示されるメニュー画面の一例を示す図である。It is a figure which shows an example of the menu screen displayed on a user terminal. 記憶部が記憶する情報の一例を示す図である。It is a figure which shows an example of the information which a storage part stores. ユーザ端末に表示される会計画面の一例を示す図である。It is a figure which shows an example of the accounting screen displayed on a user terminal. ユーザ端末に表示されるまとめ会計画面の一例を示す図である。It is a figure which shows an example of the summary accounting screen displayed on a user terminal. ユーザ端末に表示されるまとめ会計時の支払い画面の一例を示す図である。It is a figure which shows an example of the payment screen at the time of summary accounting displayed on a user terminal. ユーザ端末に表示される端末毎会計時の支払い画面の一例を示す図である。It is a figure which shows an example of the payment screen at the time of accounting for each terminal displayed on a user terminal. ユーザ端末に表示される同等割会計時の支払い画面の一例を示す図である。It is a figure which shows an example of the payment screen at the time of the equivalent rate accounting displayed on a user terminal. ユーザ端末に表示される特殊割会計画面の一例を示す図である。It is a figure which shows an example of the special discount accounting screen displayed on a user terminal. ユーザ端末に表示される特殊割会計時の支払い画面の一例を示す図である。It is a figure which shows an example of the payment screen at the time of special discount accounting displayed on a user terminal. 評価把握部の機能構成を例示したブロック図である。It is a block diagram which illustrated the functional structure of the evaluation grasping part. 評価把握部が行う評価把握処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the evaluation grasping process performed by the evaluation grasping part. 店舗端末の機能構成を例示したブロック図である。It is a block diagram which illustrated the functional structure of a store terminal. 本実施の形態に係るキャッシュレスシステムにおける動作例を示したシーケンス図である。It is a sequence diagram which showed the operation example in the cashless system which concerns on this embodiment. 本実施の形態に係るキャッシュレスシステムにおける動作例を示したシーケンス図である。It is a sequence diagram which showed the operation example in the cashless system which concerns on this embodiment.

以下、添付図面を参照して、実施の形態について詳細に説明する。
図1は、本実施の形態に係るキャッシュレスシステム1の概略構成を例示した図である。
キャッシュレスシステム1は、ユーザが所有するユーザ端末10と、飲食店等の店舗にて提供可能なメニューの管理等を行うサーバ20と、店舗が所有する店舗端末30と、周知のプリンタ40とを備えている。また、キャッシュレスシステム1は、マイク61と、カメラ62と、通信サーバ63とを有し、店舗にて提供された商品の評価に関する情報を取得する取得システム60を備えている。
Hereinafter, embodiments will be described in detail with reference to the accompanying drawings.
FIG. 1 is a diagram illustrating a schematic configuration of a cashless system 1 according to the present embodiment.
The cashless system 1 includes a user terminal 10 owned by a user, a server 20 that manages menus that can be provided at a store such as a restaurant, a store terminal 30 owned by the store, and a well-known printer 40. I have. Further, the cashless system 1 includes a microphone 61, a camera 62, and a communication server 63, and includes an acquisition system 60 for acquiring information on evaluation of products provided at a store.

ユーザ端末10、サーバ20、店舗端末30及び取得システム60は、装置間を通信可能に接続するネットワーク50に接続されており、ネットワーク50を介して互いに通信を行うことが可能となっている。ネットワーク50は、各システム及び装置の間のデータ通信に用いられる通信ネットワークであれば特に限定されず、例えばLAN(Local Area Network)、WAN(Wide Area Network)、インターネットであることを例示することができる。データ通信に用いられる通信回線は、有線か無線かを問わず、これらを併用しても良い。また、ゲートウェイ装置やルータ等の中継装置を用い、複数のネットワークや通信回線を介して各装置を接続するように構成しても良い。店舗端末30とプリンタ40とは、LAN、bluetooth(登録商標)や赤外線通信等の無線通信又は有線通信にて、互いに通信可能となっている。また、店舗端末30とプリンタ40とは、WAN、インターネットにて、互いに通信可能であっても良い。 The user terminal 10, the server 20, the store terminal 30, and the acquisition system 60 are connected to a network 50 that connects the devices so that they can communicate with each other, and can communicate with each other via the network 50. The network 50 is not particularly limited as long as it is a communication network used for data communication between each system and device, and examples thereof include LAN (Local Area Network), WAN (Wide Area Network), and the Internet. can. The communication line used for data communication may be a combination of these, regardless of whether it is wired or wireless. Further, a relay device such as a gateway device or a router may be used to connect each device via a plurality of networks or communication lines. The store terminal 30 and the printer 40 can communicate with each other by wireless communication such as LAN, bluetooth (registered trademark) or infrared communication, or wired communication. Further, the store terminal 30 and the printer 40 may be able to communicate with each other via WAN and the Internet.

<ユーザ端末10>
図2は、ユーザ端末10の概略構成を例示した図である。
ユーザ端末10は、装置全体を制御する制御部11と、データ等の記憶に用いられる記憶部12と、操作受付画面や画像の表示に使用される表示部13と、ユーザの入力操作を受け付ける操作部14と、外部装置との通信に用いられる通信部15とを備えている。また、ユーザ端末10は、カメラ16と、スピーカ17と、マイク18とを備えている。
<User terminal 10>
FIG. 2 is a diagram illustrating a schematic configuration of the user terminal 10.
The user terminal 10 has a control unit 11 that controls the entire device, a storage unit 12 that is used for storing data and the like, a display unit 13 that is used for displaying an operation reception screen and an image, and an operation that accepts a user's input operation. A unit 14 and a communication unit 15 used for communication with an external device are provided. Further, the user terminal 10 includes a camera 16, a speaker 17, and a microphone 18.

制御部11は、CPU(Central Processing Unit)11a、ROM(Read Only Memory)11b、RAM(Random Access Memory)11cにより構成される。ROM11bには、CPU11aにより実行される基本プログラム(オペレーションシステム)や各種の設定等が記憶されている。CPU11aは、RAM11cを作業エリアに使用し、ROM11bや記憶部12から読み出したアプリケーションプログラムを実行する。CPU11aがプログラムを実行することにより、ユーザ端末10の各部が制御される。 The control unit 11 is composed of a CPU (Central Processing Unit) 11a, a ROM (Read Only Memory) 11b, and a RAM (Random Access Memory) 11c. The ROM 11b stores a basic program (operating system) executed by the CPU 11a, various settings, and the like. The CPU 11a uses the RAM 11c as a work area and executes an application program read from the ROM 11b and the storage unit 12. Each part of the user terminal 10 is controlled by the CPU 11a executing the program.

記憶部12は、半導体メモリなどの記憶装置であることを例示することができる。
表示部13は、静止画像や動画像等を表示するディスプレイ装置である。表示部13は、液晶ディスプレイや有機EL(Electro Luminescence)ディスプレイであることを例示することができる。
操作部14は、ユーザからの操作を受け付ける入力装置である。操作部14は、ボタン、スイッチ、タッチパネルであることを例示することができる。
通信部15は、通信インターフェースであることを例示することができる。
カメラ16は、静止画又は動画を撮像することができるデジタルカメラであることを例示することができる。
スピーカ17は、制御部11からの電気的な音信号を音に変換して出力する装置であることを例示することができる。
マイク18は、ユーザ端末10の外部から入力される音を電気的な音信号に変換して制御部11に出力する装置であることを例示することができる。
It can be exemplified that the storage unit 12 is a storage device such as a semiconductor memory.
The display unit 13 is a display device that displays a still image, a moving image, or the like. The display unit 13 can be exemplified as a liquid crystal display or an organic EL (Electro Luminescence) display.
The operation unit 14 is an input device that receives an operation from the user. It can be exemplified that the operation unit 14 is a button, a switch, and a touch panel.
The communication unit 15 can be exemplified as a communication interface.
It can be exemplified that the camera 16 is a digital camera capable of capturing a still image or a moving image.
It can be exemplified that the speaker 17 is a device that converts an electrical sound signal from the control unit 11 into sound and outputs it.
It can be exemplified that the microphone 18 is a device that converts a sound input from the outside of the user terminal 10 into an electric sound signal and outputs the sound to the control unit 11.

以上のように構成されたユーザ端末10は、多機能携帯電話(所謂「スマートフォン」)、携帯電話(所謂「フィーチャーフォン」)、携帯情報端末(PDA)、タブレット端末、タブレットPC、ノートPC等であることを例示することができる。 The user terminal 10 configured as described above is a multifunctional mobile phone (so-called "smartphone"), a mobile phone (so-called "feature phone"), a personal digital assistant (PDA), a tablet terminal, a tablet PC, a notebook PC, or the like. It can be exemplified that there is.

ユーザ端末10は、カメラ16にて、QRコード(登録商標)等のコード情報を読み取ることができる機能を備えている。
また、ユーザ端末10は、商品又はサービスの対価としてお金を支払う場合に、電子データをやり取りすることで支払いを行う電子決済機能を備えている。電子決済としては、クレジットカード情報を予め登録しておくと、暗証番号の入力等の認証手続きをすることなく、決済可能な、アップルペイ(登録商標)やグーグルウォレット(登録商標)等の電子決済サービス(電子支払いシステム)を利用するものであることを例示することができる(ただし、例えばアップルペイ(登録商標)のように、指紋認証や顔認証は必要であっても良い)。また、電子決済としては、クレジットカード決済サービスや、商品代金を携帯電話の利用料金とまとめて支払うキャリア決済サービスを利用するものであることを例示することができる。
The user terminal 10 has a function of reading code information such as a QR code (registered trademark) with the camera 16.
In addition, the user terminal 10 is provided with an electronic payment function for making payments by exchanging electronic data when paying for goods or services. For electronic payment, if credit card information is registered in advance, payment can be made without performing authentication procedures such as entering a PIN, such as Apple Pay (registered trademark) and Google Wallet (registered trademark). It can be exemplified that the service (electronic payment system) is used (however, fingerprint authentication or face authentication may be required as in Apple Pay (registered trademark)). Further, as the electronic payment, it can be exemplified that a credit card payment service or a carrier payment service in which the product price is paid together with the mobile phone usage fee is used.

<サーバ20>
図3は、サーバ20の機能構成を例示したブロック図である。
サーバ20は、ユーザ端末10が備える、制御部11、記憶部12、表示部13、操作部14、通信部15と同様に、制御部21、記憶部22、表示部(不図示)、操作部(不図示)、通信部(不図示)を備えている。記憶部22は、HDD(Hard Disk Drive)であっても良い。
<Server 20>
FIG. 3 is a block diagram illustrating the functional configuration of the server 20.
The server 20 includes a control unit 11, a storage unit 12, a display unit 13, an operation unit 14, a communication unit 15, a control unit 21, a storage unit 22, a display unit (not shown), and an operation unit, which are included in the user terminal 10. It is equipped with a communication unit (not shown) and a communication unit (not shown). The storage unit 22 may be an HDD (Hard Disk Drive).

制御部21は、CPU(不図示)、ROM(不図示)、RAM(不図示)等を有しており、CPUがプログラムを実行することにより、以下の機能を実現する。
すなわち、制御部21は、店舗に来訪した一のグループを構成する複数のユーザ(客)が有する複数のユーザ端末10の各々のユーザ端末10からの接続要求を受け付ける受付手段の一例としての受信部211を有している。また、制御部21は、受信部211が受け付けた接続要求から、各々のユーザ端末10を一意に特定して識別する識別手段の一例としての識別部212を有している。また、制御部21は、ユーザ端末10に対して、商品に関する各種情報を有するウェブページを公開するHTML(HyperText Markup Language)文書を生成する生成部213を有している。また、制御部21は、ユーザ端末10から、店舗にて提供可能な商品の注文を受け付ける受注部214と、ユーザ端末10からなされた注文に対して料金を課す課金手段の一例としての課金部215とを有している。また、制御部21は、コード情報を作成する作成部216と、生成部213が生成したHTML文書や作成部216が作成したコード情報を送信する送信部217とを有している。また、制御部21は、商品の評価に関する情報を把握する評価把握部220を有している。
The control unit 21 has a CPU (not shown), a ROM (not shown), a RAM (not shown), and the like, and the CPU executes a program to realize the following functions.
That is, the control unit 21 is a receiving unit as an example of a receiving means for receiving a connection request from each user terminal 10 of a plurality of user terminals 10 owned by a plurality of users (customers) constituting one group who visited the store. It has 211. Further, the control unit 21 has an identification unit 212 as an example of identification means for uniquely identifying and identifying each user terminal 10 from the connection request received by the reception unit 211. Further, the control unit 21 has a generation unit 213 that generates an HTML (HyperText Markup Language) document that publishes a web page having various information about the product to the user terminal 10. Further, the control unit 21 has an ordering unit 214 that receives an order for a product that can be provided at a store from the user terminal 10, and a charging unit 215 as an example of a charging means that charges a fee for an order made from the user terminal 10. And have. Further, the control unit 21 has a creation unit 216 for creating code information and a transmission unit 217 for transmitting the HTML document generated by the generation unit 213 and the code information created by the creation unit 216. Further, the control unit 21 has an evaluation grasping unit 220 for grasping information related to the evaluation of the product.

(受信部)
受信部211は、ネットワーク50を介して、ユーザ端末10から送信されてきた情報を受信する。
ここで、受信部211がユーザ端末10から最初に受信する情報について例示する。
図4は、ユーザ端末10に表示されるアクセス画面70の一例を示す図である。
図4に示したアクセス画面70は、予め発行された後述するコード情報をユーザ端末10のカメラ16が読み取った後にユーザ端末10の表示部13に表示される画面である。図4に示すように、アクセス画面70には、予め定められたアドレス70aが表示される。
ユーザ端末10を所有するユーザがアドレス70aを押下すると、サーバ20の受信部211は、ユーザ端末10が予め発行しておいたコード情報を読み取った旨の情報と、ユーザ端末10の情報とを受信する。
(Receiver)
The receiving unit 211 receives the information transmitted from the user terminal 10 via the network 50.
Here, the information that the receiving unit 211 first receives from the user terminal 10 will be illustrated.
FIG. 4 is a diagram showing an example of the access screen 70 displayed on the user terminal 10.
The access screen 70 shown in FIG. 4 is a screen displayed on the display unit 13 of the user terminal 10 after the camera 16 of the user terminal 10 reads the code information issued in advance and will be described later. As shown in FIG. 4, a predetermined address 70a is displayed on the access screen 70.
When the user who owns the user terminal 10 presses the address 70a, the receiving unit 211 of the server 20 receives the information that the code information issued in advance by the user terminal 10 has been read and the information of the user terminal 10. do.

(識別部)
識別部212は、受信部211が受け付けたユーザ端末10からの情報に基づいて、ユーザ端末10を一意に特定して識別する。
上述したようにして、ユーザ端末10から、予め発行された後述するコード情報を読み取った後に表示されるアドレスにアクセスされると、受信部211が、このユーザ端末10から送信された情報を受信し、識別部212が、受信部211が受信した情報を解析する。識別部212は、ユーザ端末10から送信された情報に基づいて、ユーザ端末10は、店舗内のどのエリアに付与しておいたコード情報を読み込んだかを把握する。言い換えれば、識別部212は、店舗内の所定のエリアにて、ユーザ端末10を所有するユーザが飲食することを把握する。なお、エリアは、テーブル毎に、又は、部屋毎に区画された領域であることを例示することができる。
(Identification section)
The identification unit 212 uniquely identifies and identifies the user terminal 10 based on the information from the user terminal 10 received by the reception unit 211.
As described above, when the user terminal 10 accesses the address displayed after reading the code information issued in advance to be described later, the receiving unit 211 receives the information transmitted from the user terminal 10. , The identification unit 212 analyzes the information received by the reception unit 211. Based on the information transmitted from the user terminal 10, the identification unit 212 grasps which area in the store the user terminal 10 has read the code information assigned to. In other words, the identification unit 212 grasps that the user who owns the user terminal 10 eats and drinks in a predetermined area in the store. It should be noted that the area can be exemplified as an area divided for each table or each room.

識別部212は、エリアの識別番号であるエリア番号と、ユーザ端末10の識別番号であるユーザ番号とを関連付けて記憶部22に記憶する。識別部212は、一のエリアに関連付けられたコード情報を読み取ることで表示されるアドレスにアクセスしてきたユーザ端末10がN番目である場合には、当該ユーザ端末10のユーザ番号をNとする。例えば、識別部212は、エリア番号が1であるエリアに関連付けられたコード情報を読み取ることで表示されるアドレスにアクセスしてきたユーザ端末10が1番目である場合には、当該ユーザ端末10のユーザ番号を1とする。 The identification unit 212 stores the area number, which is the identification number of the area, and the user number, which is the identification number of the user terminal 10, in the storage unit 22 in association with each other. When the user terminal 10 that has accessed the address displayed by reading the code information associated with one area is the Nth, the identification unit 212 sets the user number of the user terminal 10 to N. For example, when the user terminal 10 that has accessed the address displayed by reading the code information associated with the area having the area number 1 is the first, the identification unit 212 is the user of the user terminal 10. The number is 1.

また、識別部212は、同じエリア(同じエリア番号)に関連付けられたコード情報を読み取ることで表示されるアドレスにアクセスしてきたユーザ端末10が複数ある場合には、これらのユーザ端末10を、一のグループを構成する複数のユーザが有する複数のユーザ端末10であると把握する。
このように、エリア番号に基づくことで、一のエリアにて飲食するグループと、他のエリアにて飲食するグループとを区別することが可能となる。また、識別部212がユーザ番号を付与することで、同じエリアにて飲食する複数のユーザを区別することが可能となる。
Further, when there are a plurality of user terminals 10 that have accessed the address displayed by reading the code information associated with the same area (same area number), the identification unit 212 uses one of these user terminals 10. It is grasped that it is a plurality of user terminals 10 possessed by a plurality of users constituting the group of.
In this way, based on the area number, it is possible to distinguish between a group that eats and drinks in one area and a group that eats and drinks in another area. Further, by assigning a user number to the identification unit 212, it is possible to distinguish a plurality of users who eat and drink in the same area.

(生成部)
生成部213は、ユーザ端末10からのアクセスに応じて、店舗にて提供されている商品に関する各種情報を有するウェブページを公開するHTML文書を生成する。
例えば、生成部213は、受信部211がユーザ端末10から最初のアクセス(コード情報を読み込んだ後に表示されるアドレス70aへのアクセス)を受信した場合に、店舗にて提供可能な商品を表示した画面を表示させるためのHTML文書を生成する。
(Generator)
The generation unit 213 generates an HTML document that publishes a web page having various information about the products provided in the store in response to the access from the user terminal 10.
For example, the generation unit 213 displays products that can be provided at the store when the reception unit 211 receives the first access (access to the address 70a displayed after reading the code information) from the user terminal 10. Generate an HTML document to display the screen.

図5は、ユーザ端末10に表示されるメニュー画面71の一例を示す図である。
生成部213が生成したメニュー画面71を表示させるためのHTML文書は、送信部217を介してユーザ端末10に送信される。サーバ20から送信されたHTML文書を受信したユーザ端末10においては、制御部11が、表示部13の表示画面13aにHTML文書に基づく、図5に示したメニュー画面71を表示させる。
メニュー画面71には、店舗にて提供される商品毎に、商品名71a、商品画像71b、商品説明71c及び「注文」と記載された注文ボタン71d等が表示される。また、メニュー画面71には、商品一覧とともに、エリア番号と、ユーザ番号とが表示される。また、メニュー画面71には、「会計」と記載された会計ボタン71eが表示される。
なお、図5に例示したメニュー画面71においては、揚げ物、焼物等のカテゴリー毎に、そのカテゴリーに含まれる商品が表示される画面となるように構成されているが、全ての商品を一の画面で表示しても良い。また、一の画面にそのカテゴリーに含まれる全ての商品を表示すると見難くなる場合には、複数の画面にて構成しても良い。
生成部213は、メニュー画面71に表示された会計ボタン71eが押下された場合に、後述する会計画面72(図7参照)を表示させるためのHTML文書を生成する。
FIG. 5 is a diagram showing an example of the menu screen 71 displayed on the user terminal 10.
The HTML document for displaying the menu screen 71 generated by the generation unit 213 is transmitted to the user terminal 10 via the transmission unit 217. In the user terminal 10 that has received the HTML document transmitted from the server 20, the control unit 11 causes the display screen 13a of the display unit 13 to display the menu screen 71 shown in FIG. 5 based on the HTML document.
On the menu screen 71, a product name 71a, a product image 71b, a product description 71c, an order button 71d described as "order", and the like are displayed for each product provided at the store. Further, on the menu screen 71, the area number and the user number are displayed together with the product list. Further, on the menu screen 71, the accounting button 71e described as "accounting" is displayed.
The menu screen 71 illustrated in FIG. 5 is configured so that the products included in the category are displayed for each category such as fried food and pottery, but all the products are displayed on one screen. It may be displayed with. Further, if it is difficult to see all the products included in the category on one screen, it may be configured on a plurality of screens.
The generation unit 213 generates an HTML document for displaying the accounting screen 72 (see FIG. 7) described later when the accounting button 71e displayed on the menu screen 71 is pressed.

(受注部)
図6は、記憶部22が記憶する情報の一例を示す図である。
受注部214は、ユーザ端末10からの注文を受け付ける。
受注部214は、ユーザ端末10の表示部13に表示されたメニュー画面71において、注文ボタン71dが押下された旨の情報を受信部211が受信した場合に、ユーザ端末10から注文があったことを把握する。
受注部214は、注文を受けた商品及びその金額と、注文を行ってきたユーザ端末10のユーザ番号及びエリア番号とを関連付けて記憶部22に記憶する。
なお、図6に示すように、エリア番号が1であるエリアに関連付けられたコード情報を読み取ることで表示されるアドレスに、1番目にアクセスしてきたユーザ端末10をユーザ端末10A、2番目にアクセスしてきたユーザ端末10をユーザ端末10B、3番目にアクセスしてきたユーザ端末10をユーザ端末10Cと称す。
また、受注部214は、注文を受けた商品、注文を行ったユーザ端末10のユーザ番号及びエリア番号等の情報を、送信部217を介して店舗端末30に送信する。
(Order Department)
FIG. 6 is a diagram showing an example of information stored in the storage unit 22.
The order receiving unit 214 receives an order from the user terminal 10.
The ordering unit 214 has received an order from the user terminal 10 when the receiving unit 211 receives information that the order button 71d has been pressed on the menu screen 71 displayed on the display unit 13 of the user terminal 10. To grasp.
The order receiving unit 214 stores the ordered product and its amount in the storage unit 22 in association with the user number and area number of the user terminal 10 that has placed the order.
As shown in FIG. 6, the user terminal 10 that has first accessed the address displayed by reading the code information associated with the area whose area number is 1, is accessed second by the user terminal 10A. The user terminal 10 that has been accessed is referred to as a user terminal 10B, and the user terminal 10 that has accessed third is referred to as a user terminal 10C.
In addition, the order receiving unit 214 transmits information such as the ordered product, the user number of the user terminal 10 that placed the order, and the area number to the store terminal 30 via the transmitting unit 217.

(課金部)
課金部215は、予め定められた複数の課金方法の中から、ユーザ端末10において選択された会計方法に応じた課金方法にて、ユーザ端末10に課金する。また、課金部215は、ユーザ端末10を用いて支払うべき金額を、送信部217を介して、当該ユーザ端末10に対して送信する。
(Billing department)
The billing unit 215 charges the user terminal 10 by a billing method according to the accounting method selected by the user terminal 10 from a plurality of predetermined billing methods. In addition, the billing unit 215 transmits the amount to be paid using the user terminal 10 to the user terminal 10 via the transmission unit 217.

複数の課金方法の中には、一のエリアで飲食された全商品(全ユーザ端末10を介して注文された商品の全て)の合計金額を、一のユーザ端末10に対して課金するまとめ課金方法がある。
また、複数の課金方法の中には、ユーザ端末10を介して注文された商品のみの合計金額を、当該ユーザ端末10に対して課金する端末毎課金方法がある。
また、複数の課金方法の中には、一のエリアで飲食された全商品(全ユーザ端末10を介して注文された商品の全て)の合計金額を、当該一のエリアに関連付けて記憶されているユーザ端末10の数にて同等割した金額を、各ユーザ端末10に対して課金する同等割課金方法がある。
また、複数の課金方法の中には、一のエリアで飲食された全商品(全ユーザ端末10を介して注文された商品の全て)の合計金額を、ユーザが入力した割合で分割した金額を、各ユーザ端末10に対して課金する特殊割課金方法がある。
Among the plurality of billing methods, a collective billing method in which the total amount of all products eaten and eaten in one area (all products ordered via all user terminals 10) is charged to one user terminal 10. There is a way.
Further, among the plurality of billing methods, there is a terminal-by-terminal billing method in which the total amount of only the products ordered through the user terminal 10 is charged to the user terminal 10.
Further, in the plurality of billing methods, the total amount of all products eaten and eaten in one area (all products ordered via all user terminals 10) is stored in association with the one area. There is an equivalent discount billing method in which the amount of money equally divided by the number of user terminals 10 is charged to each user terminal 10.
In addition, among the plurality of billing methods, the total amount of all products eaten and eaten in one area (all products ordered via all user terminals 10) is divided by the ratio input by the user. , There is a special discount billing method for charging each user terminal 10.

言い換えれば、ユーザ端末10を有するユーザは、予め定められた複数の会計方法の中から、一の会計方法を選択可能である。複数の会計方法の中には、一のエリアで飲食した全商品(全ユーザ端末10を介して注文した商品の全て)の合計金額を、一のユーザ端末10を用いて支払うまとめ会計方法がある。また、複数の会計方法の中には、ユーザ端末10を介して注文した商品のみの合計金額を、当該ユーザ端末10を用いて支払う端末毎会計方法がある。ユーザが、まとめ会計方法、端末毎会計方法を選択した場合には、サーバ20は、それぞれ、まとめ課金方法、端末毎課金方法にて課金する。 In other words, the user having the user terminal 10 can select one accounting method from a plurality of predetermined accounting methods. Among the plurality of accounting methods, there is a collective accounting method in which the total amount of all products eaten and eaten in one area (all products ordered through all user terminals 10) is paid using one user terminal 10. .. Further, among the plurality of accounting methods, there is a terminal-by-terminal accounting method in which the total amount of only the products ordered through the user terminal 10 is paid by using the user terminal 10. When the user selects the collective accounting method and the terminal-based accounting method, the server 20 charges by the collective billing method and the terminal-based billing method, respectively.

また、複数の会計方法の中には、一のエリアで飲食した全商品の合計金額を、当該一のエリアに関連付けて記憶されているユーザ端末10の数にて同等割した金額を、各ユーザ端末10を用いて支払う同等割会計方法がある。
また、複数の会計方法の中には、一のエリアで飲食した全商品の合計金額を、ユーザが入力した割合で分割した金額を、各ユーザ端末10を用いて支払う特殊割会計方法がある。ユーザが、同等割会計方法、特殊割会計方法を選択した場合には、サーバ20は、それぞれ、同等割課金方法、特殊割課金方法にて課金する。
In addition, among the plurality of accounting methods, each user divides the total amount of all products eaten and eaten in one area by the number of user terminals 10 stored in association with the one area. There is an equivalent discount accounting method for paying using the terminal 10.
Further, among the plurality of accounting methods, there is a special discount accounting method in which the total amount of all the products eaten and eaten in one area is divided by the ratio input by the user, and the amount is paid by using each user terminal 10. When the user selects the equal discount accounting method and the special discount accounting method, the server 20 charges by the equal discount billing method and the special discount billing method, respectively.

図7は、ユーザ端末10に表示される会計画面72の一例を示す図である。
会計画面72は、図5に示したメニュー画面71に表示された会計ボタン71eが押下された場合に表示される。会計画面72には、「まとめ会計」と記載されたまとめ会計ボタン72aと、「端末毎会計」と記載された端末毎会計ボタン72bと、「同等割会計」と記載された同等割会計ボタン72cと、「特殊割会計」と記載された特殊割会計ボタン72dとが表示される。
FIG. 7 is a diagram showing an example of the accounting screen 72 displayed on the user terminal 10.
The accounting screen 72 is displayed when the accounting button 71e displayed on the menu screen 71 shown in FIG. 5 is pressed. On the accounting screen 72, a summary accounting button 72a described as "summary accounting", a terminal accounting button 72b described as "terminal accounting", and an equivalent accounting button 72c described as "equivalent accounting" are displayed. And the special discount accounting button 72d described as "special discount accounting" are displayed.

図8は、ユーザ端末10に表示されるまとめ会計画面73の一例を示す図である。
まとめ会計画面73は、まとめ会計ボタン72aが押下された場合に表示される。まとめ会計画面73には、どのユーザ端末10を用いて支払うかを選択するためのボタンとして、ユーザ番号が記載されたボタンがユーザ端末10の数の分だけ表示される。例えば、エリア番号が1であるエリアにて登録されたユーザ端末10が3個である場合には、図8に示すように、「ユーザ番号:1」、「ユーザ番号:2」、「ユーザ番号:3」と記載された3つのユーザ番号ボタン73aが表示される。
FIG. 8 is a diagram showing an example of the summary accounting screen 73 displayed on the user terminal 10.
The summary accounting screen 73 is displayed when the summary accounting button 72a is pressed. On the summary accounting screen 73, as many buttons with user numbers as the number of user terminals 10 are displayed as buttons for selecting which user terminal 10 to use for payment. For example, when there are three user terminals 10 registered in the area where the area number is 1, "user number: 1", "user number: 2", and "user number", as shown in FIG. : 3 ”is displayed with three user number buttons 73a.

図9は、ユーザ端末10に表示されるまとめ会計時の支払い画面74の一例を示す図である。
支払い画面74は、まとめ会計画面73にていずれかのユーザ番号ボタン73aが押下された場合に表示される。
図8に示したまとめ会計画面73において、例えば「ユーザ番号:2」と記載されたユーザ番号ボタン73aが押下された場合には、サーバ20の課金部215は、ユーザ番号が2であるユーザ端末10を用いてまとめ会計が行われると判断する。そして、課金部215は、ユーザ番号が2であるユーザ端末10に対して、合計金額等の情報を含んだHTML文書を、送信部217を介して送信する。その結果、ユーザ端末10の表示部13には、図9に示した支払い画面74が表示される。支払い画面74には、当該ユーザ端末10を用いて支払うべき金額(例えば12,000円)が請求金額として表示されるとともに、「確認」と記載された確認ボタン74aが表示される。ユーザが、支払い画面74に表示された確認ボタン74aを押下することにより、上述した電子決済サービスを利用して支払いが完了する。つまり、課金部215は、確認ボタン74aが押下された旨の情報を取得した場合には、ユーザ端末10において選択された電子決済サービスに応じた所定の決済処理を実行する。そして、課金部215は、所定の決済処理を実行した場合には、支払いが完了した旨の通知をユーザ端末10に対して送信しても良い。なお、ユーザ端末10が例えばクレジットカード決済サービスやキャリア決済サービスを利用する場合であって、認証手続きが必要なサービスを利用する場合には、課金部215は、ユーザ端末10において所定の認証手続きが行われた後に決済処理を実行する。
FIG. 9 is a diagram showing an example of a payment screen 74 at the time of summary accounting displayed on the user terminal 10.
The payment screen 74 is displayed when any user number button 73a is pressed on the summary accounting screen 73.
On the summary accounting screen 73 shown in FIG. 8, for example, when the user number button 73a described as "user number: 2" is pressed, the billing unit 215 of the server 20 is the user terminal having the user number 2. It is determined that the summary accounting is performed using 10. Then, the billing unit 215 transmits an HTML document including information such as the total amount to the user terminal 10 having the user number 2 via the transmission unit 217. As a result, the payment screen 74 shown in FIG. 9 is displayed on the display unit 13 of the user terminal 10. On the payment screen 74, the amount to be paid using the user terminal 10 (for example, 12,000 yen) is displayed as the billing amount, and the confirmation button 74a described as "confirmation" is displayed. When the user presses the confirmation button 74a displayed on the payment screen 74, the payment is completed using the electronic payment service described above. That is, when the billing unit 215 acquires the information that the confirmation button 74a is pressed, the billing unit 215 executes a predetermined payment process according to the electronic payment service selected on the user terminal 10. Then, when the billing unit 215 executes the predetermined payment process, the billing unit 215 may send a notification to the user terminal 10 that the payment has been completed. When the user terminal 10 uses, for example, a credit card payment service or a carrier payment service, and uses a service that requires an authentication procedure, the billing unit 215 performs a predetermined authentication procedure on the user terminal 10. After that, the payment process is executed.

図10は、ユーザ端末10に表示される端末毎会計時の支払い画面75の一例を示す図である。図10(a)には、ユーザ端末10Aの表示部13に表示される支払い画面75を例示し、図10(b)には、ユーザ端末10Bの表示部13に表示される支払い画面75を例示し、図10(c)には、ユーザ端末10Cの表示部13に表示される支払い画面75を例示している。
図7に示した会計画面72において、端末毎会計ボタン72bが押下された場合には、サーバ20の課金部215は、各ユーザ端末10を介して注文された商品のみの合計金額等の情報を含んだHTML文書を、送信部217を介して送信する。その結果、各ユーザ端末10の表示部13には、図10に例示したように、当該ユーザ端末10を用いて支払うべき金額(当該ユーザ端末10を介して注文された商品のみの合計金額(図10においては、ユーザ端末10Aが3,000円、ユーザ端末10Bが4,000円、ユーザ端末10Cが5,000円)が請求金額として表示されるとともに、「確認」と記載された確認ボタン74aが表示される。ユーザが、表示部13に表示された確認ボタン74aを押下することにより支払いが完了する。確認ボタン74aが押下された後の課金部215の処理は、上述した通りである。
FIG. 10 is a diagram showing an example of a payment screen 75 at the time of accounting for each terminal displayed on the user terminal 10. FIG. 10A illustrates the payment screen 75 displayed on the display unit 13 of the user terminal 10A, and FIG. 10B illustrates the payment screen 75 displayed on the display unit 13 of the user terminal 10B. However, FIG. 10C illustrates a payment screen 75 displayed on the display unit 13 of the user terminal 10C.
On the accounting screen 72 shown in FIG. 7, when the accounting button 72b for each terminal is pressed, the billing unit 215 of the server 20 provides information such as the total amount of only the products ordered via each user terminal 10. The included HTML document is transmitted via the transmission unit 217. As a result, as illustrated in FIG. 10, the display unit 13 of each user terminal 10 shows the amount to be paid using the user terminal 10 (the total amount of only the products ordered through the user terminal 10 (FIG. 10). In 10, the user terminal 10A is 3,000 yen, the user terminal 10B is 4,000 yen, and the user terminal 10C is 5,000 yen) is displayed as the billing amount, and the confirmation button 74a described as "confirmation" is displayed. However, the payment is completed by pressing the confirmation button 74a displayed on the display unit 13. The processing of the billing unit 215 after the confirmation button 74a is pressed is as described above.

図11は、ユーザ端末10に表示される同等割会計時の支払い画面76の一例を示す図である。図11(a)には、ユーザ端末10Aの表示部13に表示される支払い画面76を例示し、図11(b)には、ユーザ端末10Bの表示部13に表示される支払い画面76を例示し、図11(c)には、ユーザ端末10Cの表示部13に表示される支払い画面76を例示している。
図7に示した会計画面72において、同等割会計ボタン72cが押下された場合には、サーバ20の課金部215は、一のエリアで飲食された全商品(全ユーザ端末10を介して注文された商品の全て)の合計金額を、ユーザ端末10の数にて同等割した金額等の情報を含んだHTML文書を、送信部217を介して全ユーザ端末10に送信する。その結果、各ユーザ端末10の表示部13には、図11に例示したように、当該ユーザ端末10を用いて支払うべき金額(合計金額を同等割した金額(所謂、割り勘した金額))が請求金額として表示されるとともに、「確認」と記載された確認ボタン74aが表示される。ユーザが、表示部13に表示された確認ボタン74aを押下することにより支払いが完了する。確認ボタン74aが押下された後の課金部215の処理は、上述した通りである。
FIG. 11 is a diagram showing an example of a payment screen 76 at the time of equivalent split accounting displayed on the user terminal 10. FIG. 11A illustrates the payment screen 76 displayed on the display unit 13 of the user terminal 10A, and FIG. 11B illustrates the payment screen 76 displayed on the display unit 13 of the user terminal 10B. However, FIG. 11C illustrates a payment screen 76 displayed on the display unit 13 of the user terminal 10C.
When the equivalent accounting button 72c is pressed on the accounting screen 72 shown in FIG. 7, the billing unit 215 of the server 20 is ordered for all products eaten and eaten in one area (via all user terminals 10). An HTML document containing information such as an amount obtained by dividing the total amount of the total amount of the products) by the number of the user terminals 10 is transmitted to all the user terminals 10 via the transmission unit 217. As a result, as illustrated in FIG. 11, the display unit 13 of each user terminal 10 is charged the amount to be paid using the user terminal 10 (the amount obtained by dividing the total amount by the same amount (so-called split amount)). Along with being displayed as an amount of money, a confirmation button 74a described as "confirmation" is displayed. The payment is completed when the user presses the confirmation button 74a displayed on the display unit 13. The processing of the billing unit 215 after the confirmation button 74a is pressed is as described above.

図12は、ユーザ端末10に表示される特殊割会計画面77の一例を示す図である。
特殊割会計画面77は、図7に示した会計画面72にて特殊割会計ボタン72dが押下された場合に表示される。特殊割会計画面77には、全てのユーザ番号が表示されるとともに、各ユーザ番号の横に、当該ユーザ番号のユーザ端末10の割合を入力する入力欄77aと、当該入力欄77aに入力する数字を増加させる増加ボタン77bと、当該入力欄77aに入力する数字を減少させる減少ボタン77cとがユーザ端末10の数の分だけ表示される。また、特殊割会計画面77には、全ての入力欄77aに入力する数字の合計が10となるように入力することを促すために、「合計が10となるように入力してください。」と表示される。また、特殊割会計画面77には、「決定」と記載された決定ボタン77dが表示される。
図12に示した特殊割会計画面77は、ユーザ番号1に対する割合を5、ユーザ番号2に対する割合を3、ユーザ番号2に対する割合を2とする場合の入力例である。
FIG. 12 is a diagram showing an example of the special discount accounting screen 77 displayed on the user terminal 10.
The special discount accounting screen 77 is displayed when the special discount accounting button 72d is pressed on the accounting screen 72 shown in FIG. 7. On the special discount accounting screen 77, all user numbers are displayed, and next to each user number, an input field 77a for inputting the ratio of the user terminal 10 of the user number and a number to be input in the input field 77a. The increase button 77b for increasing the number and the decrease button 77c for decreasing the number to be input in the input field 77a are displayed for the number of user terminals 10. In addition, on the special discount accounting screen 77, in order to prompt the input so that the total of the numbers to be input in all the input fields 77a is 10, "Please input so that the total is 10." Is displayed. Further, on the special discount accounting screen 77, a decision button 77d described as "decision" is displayed.
The special discount accounting screen 77 shown in FIG. 12 is an input example in which the ratio to the user number 1 is 5, the ratio to the user number 2 is 3, and the ratio to the user number 2 is 2.

図13は、ユーザ端末10に表示される特殊割会計時の支払い画面78の一例を示す図である。
特殊割会計画面77において、全ユーザ端末10の割合が入力され、決定ボタン77dが押下された場合には、サーバ20の課金部215は、一のエリアで飲食した全商品(全ユーザ端末10を介して注文した商品の全て)の合計金額を、ユーザが入力した割合で分割した金額等の情報を含んだHTML文書を、送信部217を介して全ユーザ端末10に送信する。例えば、課金部215は、図12の特殊割会計画面77に例示したように、ユーザ番号1の割合が5、ユーザ番号2の割合が3、ユーザ番号3の割合が2である場合には、合計金額に5/10を乗算した金額等の情報を含んだHTML文書を、送信部217を介してユーザ番号1のユーザ端末10Aに対して送信する。また、課金部215は、合計金額に3/10を乗算した金額等の情報を含んだHTML文書を、ユーザ番号2のユーザ端末10Bに対して送信する。また、課金部215は、合計金額に2/10を乗算した金額等の情報を含んだHTML文書を、ユーザ番号3のユーザ端末10Cに対して送信する。
FIG. 13 is a diagram showing an example of the payment screen 78 at the time of special discount accounting displayed on the user terminal 10.
When the ratio of all user terminals 10 is input on the special discount accounting screen 77 and the enter button 77d is pressed, the billing unit 215 of the server 20 eats and drinks all products in one area (all user terminals 10). An HTML document containing information such as an amount obtained by dividing the total amount of all the products ordered through the user at a ratio input by the user is transmitted to all user terminals 10 via the transmission unit 217. For example, in the billing unit 215, as illustrated on the special discount accounting screen 77 of FIG. 12, when the ratio of the user number 1 is 5, the ratio of the user number 2 is 3, and the ratio of the user number 3 is 2. An HTML document containing information such as the total amount multiplied by 5/10 is transmitted to the user terminal 10A of user number 1 via the transmission unit 217. Further, the billing unit 215 transmits an HTML document including information such as an amount obtained by multiplying the total amount by 3/10 to the user terminal 10B having the user number 2. Further, the billing unit 215 transmits an HTML document including information such as an amount obtained by multiplying the total amount by 2/10 to the user terminal 10C having the user number 3.

その結果、各ユーザ端末10の表示部13には、図13に示した支払い画面78が表示される。支払い画面78には、各ユーザ端末10を用いて支払うべき金額が請求金額として表示される(金額は入力された割合に応じた値となる)とともに、「確認」と記載された確認ボタン74aが表示される。ユーザが、支払い画面78に表示された確認ボタン74aを押下することにより支払いが完了する。確認ボタン74aが押下された後の課金部215の処理は、上述した通りである。 As a result, the payment screen 78 shown in FIG. 13 is displayed on the display unit 13 of each user terminal 10. On the payment screen 78, the amount to be paid using each user terminal 10 is displayed as the billing amount (the amount is a value according to the input ratio), and the confirmation button 74a described as "confirmation" is displayed. Is displayed. The payment is completed when the user presses the confirmation button 74a displayed on the payment screen 78. The processing of the billing unit 215 after the confirmation button 74a is pressed is as described above.

(作成部)
作成部216は、店舗に予め定められたエリア毎に、当該エリアのエリア番号を含むコード情報を作成する。ユーザ端末10が、作成部216が作成したコード情報を読み取った後に表示されるアドレスにアクセスすることで、識別部212はどのエリアに配置されたコード情報を読み込んでアクセスしてきたかを把握することができる。
作成部216は、あるエリアにて飲食し終え、支払いが完了したことを把握した後に、当該エリアのコード情報を新たに作成する。支払いが完了したことは、例えば、課金部215が決済処理を実行した旨の情報を取得することにより把握することができる。また、作成部216は、店舗の従業員の指示に従ってコード情報を作成しても良い。従業員は、あるエリアにて飲食し終えたグループが店舗を出たことを確認した後にコード情報を作成しても良いし、営業が始まる前に当日必要と考えられる数のコード情報を作成しても良い。
作成部216は、作成したコード情報を含む情報を、送信部217を介して店舗端末30に送信する。店舗端末30からの指示に基づいて、プリンタ40が、例えば用紙にコード情報を含む画像を形成し、出力する(プリントアウトする)。
なお、エリアは、テーブル毎に、又は、部屋毎に区画されていることを例示することができる。ただし、テーブル又は部屋毎にコード情報を含む画像が形成された用紙を配置しておいたとしても、一のグループを構成する人数が、テーブル又は部屋毎に許容される人数を超える場合には、複数のエリアを利用する複数人で一のコード情報を共有させても良い。
(Creation department)
The creation unit 216 creates code information including the area number of the area for each area predetermined in the store. By accessing the address displayed after the user terminal 10 reads the code information created by the creation unit 216, the identification unit 212 can grasp which area the code information is read and accessed. can.
The creation unit 216 newly creates code information for the area after eating and drinking in a certain area and grasping that the payment has been completed. The completion of payment can be grasped, for example, by acquiring information that the billing unit 215 has executed the payment process. In addition, the creation unit 216 may create code information according to the instructions of the store employee. Employees may create code information after confirming that a group that has finished eating and drinking in a certain area has left the store, or create as many code information as necessary on the day before business starts. You may.
The creation unit 216 transmits information including the created code information to the store terminal 30 via the transmission unit 217. Based on the instruction from the store terminal 30, the printer 40 forms, for example, an image including code information on paper, and outputs (prints out) it.
In addition, it can be exemplified that the area is divided for each table or each room. However, even if the paper on which the image containing the code information is formed is arranged for each table or room, if the number of people forming one group exceeds the number of people allowed for each table or room, One code information may be shared by a plurality of people who use a plurality of areas.

(送信部)
送信部217は、生成部213が生成したHTML文書をユーザ端末10に送信する。例えば、送信部217は、メニュー画面71を表示させるためのHTML文書をユーザ端末10に送信する。
また、送信部217は、ユーザ端末10から注文を受けた商品、注文を行ったユーザ端末10のユーザ番号及びエリア番号等の情報を、店舗端末30に送信する。
また、送信部217は、作成部216が作成したコード情報を含む情報を、店舗端末30に送信する。
また、送信部217は、評価把握部220が把握した、一の商品に対する評価を、店舗端末30に送信する。
(Transmitter)
The transmission unit 217 transmits the HTML document generated by the generation unit 213 to the user terminal 10. For example, the transmission unit 217 transmits an HTML document for displaying the menu screen 71 to the user terminal 10.
In addition, the transmission unit 217 transmits information such as a product ordered from the user terminal 10 and a user number and area number of the user terminal 10 that placed the order to the store terminal 30.
In addition, the transmission unit 217 transmits information including the code information created by the creation unit 216 to the store terminal 30.
Further, the transmission unit 217 transmits the evaluation for one product grasped by the evaluation grasping unit 220 to the store terminal 30.

(評価把握部)
図14は、評価把握部220の機能構成を例示したブロック図である。
評価把握部220は、取得システム60のマイク61により収録された人の音声を解析する音声解析部221と、取得システム60のカメラ62により撮影された撮影画像を解析する画像解析部222とを有している。また、評価把握部220は、音声解析部221が解析した音声及び画像解析部222が解析した画像の少なくともいずれかに基づいて、商品の評価に関する情報を導出する評価導出部223を有している。
(Evaluation grasping department)
FIG. 14 is a block diagram illustrating the functional configuration of the evaluation grasping unit 220.
The evaluation grasping unit 220 includes a voice analysis unit 221 that analyzes the human voice recorded by the microphone 61 of the acquisition system 60, and an image analysis unit 222 that analyzes the captured image captured by the camera 62 of the acquisition system 60. doing. Further, the evaluation grasping unit 220 has an evaluation deriving unit 223 that derives information on product evaluation based on at least one of the voice analyzed by the voice analysis unit 221 and the image analyzed by the image analysis unit 222. ..

≪音声解析部≫
音声解析部221は、取得システム60から取得された情報のうち、マイク61により収録された音響情報を解析する。音声解析部221は、収録された音響情報を解析し、人の音声を識別する。そして、音声解析部221は、人の音声を解析して発話内容を認識し、テキスト化する。より具体的には、音声解析部221は、先ず、マイク61により収録された音響情報から一続きの音声に相当する発話の内容及び発話区間(開始時刻と終了時刻)を検出し、次に各発話の内容をテキスト化する。音声解析部221は、「美味しい」、「美味しくない」、「まずい」、「味が濃い」、「味が薄い」、「冷えている」、「ぬるい」等の評価に関する情報と、商品に関する情報のみを認識し、テキスト化しても良い。
音声解析部221は、どのエリアのどの位置に設置されたマイク61が収録した発話内容であるかも認識する。また、音声解析部221は、一のエリアのどのユーザが発生した音声であるかも認識する。
≪Voice analysis department≫
The voice analysis unit 221 analyzes the acoustic information recorded by the microphone 61 among the information acquired from the acquisition system 60. The voice analysis unit 221 analyzes the recorded acoustic information and identifies a human voice. Then, the voice analysis unit 221 analyzes the human voice, recognizes the utterance content, and converts it into a text. More specifically, the voice analysis unit 221 first detects the content of the utterance and the utterance section (start time and end time) corresponding to the continuous voice from the acoustic information recorded by the microphone 61, and then each of them. Convert the content of the utterance into text. The voice analysis unit 221 provides information on evaluations such as "delicious", "not delicious", "bad", "strong taste", "light taste", "cold", "slimy", and information on products. Only can be recognized and converted into text.
The voice analysis unit 221 also recognizes the utterance content recorded by the microphone 61 installed at which position in which area. In addition, the voice analysis unit 221 also recognizes which user in one area has generated the voice.

≪画像解析部≫
画像解析部222は、取得システム60から取得された情報のうち、カメラ62により撮影された撮影画像を解析する。画像解析部222は、撮影画像を解析し、撮影された領域を3次元空間として認識する。また、画像解析部222は、撮影された対象物のうち人物と人物以外の物とを識別する。画像解析による人物やその他の物の識別は、画像認識に係る既存技術を用いて行うことができる。また、画像解析部222は、どのエリアを撮影した画像であるかも認識する。また、画像解析部222は、一のエリアのどのユーザを撮影した画像であるかも認識する。
≪Image analysis department≫
The image analysis unit 222 analyzes the captured image captured by the camera 62 among the information acquired from the acquisition system 60. The image analysis unit 222 analyzes the captured image and recognizes the captured area as a three-dimensional space. In addition, the image analysis unit 222 identifies a person and a non-person object among the photographed objects. Identification of a person or other object by image analysis can be performed using existing technology related to image recognition. The image analysis unit 222 also recognizes which area the image was taken. In addition, the image analysis unit 222 also recognizes which user in one area is the photographed image.

また、画像解析部222は、人物の撮影画像から輪郭検出などを行うことによって、ユーザの顔を検出し、目、鼻、口等の顔の各部の特徴量を抽出する。そして、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている、笑顔時の目、鼻、口等の顔の各部の特徴量とを比較し、一致度が閾値以上である場合、ユーザの表情が笑顔であると認識する。他方、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている特徴量とを比較し、一致度が閾値未満である場合、ユーザの表情が笑顔ではないと認識する。つまり、画像解析部222において認識される笑顔は、撮影画像から抽出された顔の各部の特徴が、笑顔の認識機能の開発時等に笑顔が写っている画像として選択された画像から抽出された顔の特徴と閾値以上一致する表情である。また、画像解析部222は、認識した笑顔が撮影された時刻を認識する。 Further, the image analysis unit 222 detects the user's face by performing contour detection or the like from the captured image of the person, and extracts the feature amount of each part of the face such as eyes, nose, and mouth. Then, the image analysis unit 222 compares the feature amount extracted from the captured image with the feature amount of each part of the face such as eyes, nose, and mouth when smiling, which is given as recognition data, and the degree of matching is obtained. When it is equal to or more than the threshold value, the user's facial expression is recognized as a smile. On the other hand, the image analysis unit 222 compares the feature amount extracted from the captured image with the feature amount given as recognition data, and recognizes that the user's facial expression is not a smile when the degree of matching is less than the threshold value. do. That is, the smile recognized by the image analysis unit 222 is extracted from the image in which the features of each part of the face extracted from the captured image are selected as the image in which the smile is reflected at the time of development of the smile recognition function or the like. It is a facial expression that matches the facial features by a threshold or more. Further, the image analysis unit 222 recognizes the time when the recognized smile is taken.

また、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている、怒り顔時の目、鼻、口等の顔の各部の特徴量とを比較し、一致度が閾値以上である場合、ユーザの表情が怒り顔であると認識する。他方、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている特徴量とを比較し、一致度が閾値未満である場合、ユーザの表情が怒り顔ではないと認識する。つまり、画像解析部222において認識される怒り顔は、撮影画像から抽出された顔の各部の特徴が、怒り顔の認識機能の開発時等に怒り顔が写っている画像として選択された画像から抽出された顔の特徴と閾値以上一致する表情である。また、画像解析部222は、認識した怒り顔が撮影された時刻を認識する。 In addition, the image analysis unit 222 compares the feature amount extracted from the captured image with the feature amount of each part of the face such as eyes, nose, and mouth at the time of an angry face, which is given as recognition data, and the degree of agreement. When is equal to or greater than the threshold value, the user's facial expression is recognized as an angry face. On the other hand, the image analysis unit 222 compares the feature amount extracted from the captured image with the feature amount given as the recognition data, and if the degree of matching is less than the threshold value, the user's facial expression is not an angry face. recognize. That is, the angry face recognized by the image analysis unit 222 is an image in which the features of each part of the face extracted from the captured image are selected as an image in which the angry face is reflected at the time of development of the angry face recognition function or the like. It is a facial expression that matches the extracted facial features by a threshold or more. In addition, the image analysis unit 222 recognizes the time when the recognized angry face was photographed.

また、画像解析部222は、人物以外の物の撮影画像から商品を検出し、商品の特徴量を抽出する。そして、画像解析部222は、撮影画像から抽出した特徴量と、認識用データとして与えられている各商品の特徴量とを比較し、一致度が閾値以上であるか否かで商品を特定する。つまり、画像解析部222において認識される商品は、撮影画像から抽出された商品の特徴が、商品の認識機能の開発時等に商品が写っている画像として選択された画像から抽出された商品の特徴と閾値以上一致する商品である。また、画像解析部222は、認識した商品が撮影された時刻を認識する。 Further, the image analysis unit 222 detects a product from a photographed image of an object other than a person and extracts a feature amount of the product. Then, the image analysis unit 222 compares the feature amount extracted from the captured image with the feature amount of each product given as recognition data, and identifies the product based on whether or not the degree of matching is equal to or greater than the threshold value. .. That is, the product recognized by the image analysis unit 222 is a product whose characteristics extracted from the photographed image are extracted from the image selected as the image in which the product is shown at the time of development of the product recognition function or the like. It is a product that matches the characteristics and the threshold or more. In addition, the image analysis unit 222 recognizes the time when the recognized product was photographed.

画像解析部222は、撮影画像から商品を特定する際に、受注部214が注文を受けていた商品に基づいても良い。画像解析部222は、例えば、撮影画像から商品を特定するときに、受注部214が一のグループから注文を受けていた商品が1つである場合には、撮影画像から抽出した特徴量と、受注部214が注文を受けていた1つの商品の特徴量とを最初に比較すると良い。撮影画像から商品を特定するときに、受注部214が一のグループから注文を受けていた商品が複数ある場合には、撮影画像から抽出した特徴量と、受注部214が注文を受けていた複数の商品の特徴量を、注文を受けていない商品の特徴量よりも先に比較すると良い。受注部214が注文を受けていた商品を考慮することで、受注部214が注文を受けていた商品を考慮しない場合よりも、迅速かつ精度高く商品を特定することが可能となる。
また、画像解析部222は、表情を特定した場合には、その商品を飲食したユーザを特定する。
The image analysis unit 222 may be based on the product for which the order receiving unit 214 has received an order when identifying the product from the captured image. For example, when the image analysis unit 222 identifies a product from a photographed image, if the ordering unit 214 receives an order from one group for one product, the image analysis unit 222 sets the feature amount extracted from the photographed image and the feature amount. It is advisable to first compare the feature quantity of one product for which the order receiving unit 214 has received an order. When identifying products from the captured image, if there are multiple products for which the ordering unit 214 has received an order from one group, the feature quantity extracted from the captured image and the plurality of products for which the ordering unit 214 has received an order. It is advisable to compare the feature quantity of the product of the above product before the feature quantity of the product for which the order has not been received. By considering the product for which the order receiving unit 214 has received the order, it is possible to identify the product more quickly and accurately than when the ordering unit 214 does not consider the product for which the order has been received.
Further, when the facial expression is specified, the image analysis unit 222 identifies the user who eats or drinks the product.

≪評価導出部≫
評価導出部223は、音声解析部221が解析した音声及び画像解析部222が解析した画像の少なくともいずれかに基づいて、商品の評価に関する情報を導出する。
評価導出部223は、音声解析部221が認識し、テキスト化している一のユーザの発話内容から、一の商品に対する評価に関する情報を導出可能である場合には、音声解析部221による解析結果を用いて一の商品に対する評価に関する情報を導出する。例えば、評価導出部223は、音声解析部221が、「この揚げ出し豆腐、美味しい。」との、「揚げ出し豆腐」と「美味しい」とが連続した発話内容を認識し、テキスト化している場合には、「揚げ出し豆腐」に対する評価が「美味しい」ことを導出する。また、評価導出部223は、音声解析部221が、「この生ビール、ぬるい」との発話内容を認識し、テキスト化している場合には、「生ビール」に対する評価が「ぬるい」であることを導出する。
≪Evaluation derivation part≫
The evaluation derivation unit 223 derives information on product evaluation based on at least one of the voice analyzed by the voice analysis unit 221 and the image analyzed by the image analysis unit 222.
When the evaluation derivation unit 223 can derive information on the evaluation of one product from the utterance content of one user recognized by the voice analysis unit 221 and converted into text, the evaluation derivation unit 223 obtains the analysis result by the voice analysis unit 221. Use to derive information about the evaluation of one product. For example, in the evaluation derivation unit 223, when the voice analysis unit 221 recognizes the utterance content of "this fried tofu is delicious" and "fried tofu" and "delicious" are continuous, and converts it into a text. Derives that the evaluation of "fried tofu" is "delicious". In addition, the evaluation derivation unit 223 derives that the evaluation of "draft beer" is "slimy" when the voice analysis unit 221 recognizes the utterance content of "this draft beer, lukewarm" and converts it into a text. do.

評価導出部223は、画像解析部222が認識した一のユーザの表情及び当該一のユーザが飲食した商品から、一の商品に対する評価に関する情報を導出可能である場合には、画像解析部222による解析結果を用いて一の商品に対する評価に関する情報を導出する。例えば、評価導出部223は、画像解析部222がユーザの笑顔を認識するとともに笑顔になった商品が「揚げ出し豆腐」であることを特定している場合には、「揚げ出し豆腐」に対する評価が「笑顔」であることを導出する。「笑顔」は、「良い」意味であるとして、「揚げ出し豆腐」に対する評価が「良い」ことを導出しても良い。また、評価導出部223は、画像解析部222がユーザの怒り顔を認識するとともに怒り顔になった商品が「ビール」であることを特定している場合には、「ビール」に対する評価が「怒り顔」であることを導出する。「怒り顔」は、「悪い」意味であるとして、「ビール」に対する評価が「悪い」ことを導出しても良い。 The evaluation derivation unit 223 uses the image analysis unit 222 when it is possible to derive information on the evaluation of one product from the facial expression of one user recognized by the image analysis unit 222 and the product eaten or eaten by the one user. Information on the evaluation of one product is derived using the analysis results. For example, when the image analysis unit 222 recognizes the smile of the user and specifies that the product with a smile is "fried tofu", the evaluation derivation unit 223 evaluates the "fried tofu". Derives that is a "smile". Assuming that "smile" means "good", it may be derived that the evaluation of "fried tofu" is "good". Further, when the image analysis unit 222 recognizes the user's angry face and specifies that the product with the angry face is "beer", the evaluation derivation unit 223 evaluates the "beer" to "beer". Derive that it is an angry face. Assuming that "angry face" means "bad", it may be derived that the evaluation of "beer" is "bad".

評価導出部223は、音声解析部221が認識している一のユーザの発話内容から、ある商品に対する評価に関する情報を導出可能であるが、その評価の対象の商品を特定できない場合には、他の人物の発話内容を用いて対象商品を特定する。例えば、評価導出部223は、音声解析部221が、「これ美味しい」との発話内容を認識している場合には、ある商品に対する評価が「美味しい」ことを導出する。そして、音声解析部221が認識している一のユーザの発話内容では「美味しい」との評価の対象商品を特定できない場合には、一のユーザが「美味しい」と発声した前後の他の人物の発話内容を用いて商品を特定する。例えば、当該一のユーザが「美味しい」と発声する直前に、他のユーザが「揚げ出し豆腐の味どう?」と発声していることを音声解析部221が認識した場合には、評価導出部223は、「揚げ出し豆腐」に対する評価が「美味しい」ことを導出する。また、当該一のユーザが「美味しい」と発声する直前に、配膳人が例えば「揚げ出し豆腐です。」と発声したことを音声解析部221が認識した場合には、評価導出部223は、「揚げ出し豆腐」に対する評価が「美味しい」ことを導出する。一のユーザが「美味しい」と発声した時刻と、他のユーザが「揚げ出し豆腐の味どう?」と発声した時刻又は配膳人が「揚げ出し豆腐です。」と発声した時刻とを参照することで、「美味しい」との評価の対象商品が「揚げ出し豆腐」であることを特定することができる。 The evaluation derivation unit 223 can derive information on the evaluation of a certain product from the utterance content of one user recognized by the voice analysis unit 221, but if the product to be evaluated cannot be specified, the other Identify the target product using the utterance content of the person. For example, the evaluation derivation unit 223 derives that the evaluation of a certain product is "delicious" when the voice analysis unit 221 recognizes the content of the utterance "this is delicious". Then, when the target product for evaluation as "delicious" cannot be specified from the utterance content of one user recognized by the voice analysis unit 221, another person before and after one user utters "delicious". Identify the product using the utterance content. For example, if the voice analysis unit 221 recognizes that the other user is uttering "How about the taste of fried tofu?" Just before the one user utters "delicious", the evaluation derivation unit 223 derives that the evaluation of "fried tofu" is "delicious". In addition, when the voice analysis unit 221 recognizes that the caterer utters, for example, "Agedashi tofu" immediately before the one user utters "delicious", the evaluation derivation unit 223 changes to ". It is derived that the evaluation of "fried tofu" is "delicious". Refer to the time when one user utters "delicious" and the time when another user utters "How about the taste of fried tofu?" Or the time when the caterer utters "It is fried tofu." Therefore, it is possible to identify that the target product evaluated as "delicious" is "fried tofu".

また、評価導出部223は、音声解析部221が認識している一のユーザの発話内容から、ある商品に対する評価に関する情報を導出可能であるが、その評価の対象の商品を特定できない場合には、画像解析部222が認識した商品を用いて商品を特定する。例えば、評価導出部223は、音声解析部221が、「美味しい」との発話内容を認識している場合には、ある商品に対する評価が「美味しい」ことを導出する。そして、音声解析部221が認識している発話内容では「美味しい」との評価の対象商品を特定できない場合には、「美味しい」と発声したユーザが「美味しい」と発声する直前に飲食した商品を画像解析部222が認識した商品を用いて商品を特定する。「美味しい」と発声した時刻と商品を飲食した時刻とを参照することで、「美味しい」との評価の対象商品を特定することができる。 Further, the evaluation derivation unit 223 can derive information on the evaluation of a certain product from the utterance content of one user recognized by the voice analysis unit 221, but when the product to be evaluated cannot be specified, the evaluation derivation unit 223 can derive the information. , The product is specified using the product recognized by the image analysis unit 222. For example, the evaluation derivation unit 223 derives that the evaluation of a certain product is "delicious" when the voice analysis unit 221 recognizes the content of the utterance "delicious". Then, when the target product for evaluation as "delicious" cannot be specified from the utterance content recognized by the voice analysis unit 221, the product eaten or eaten immediately before the user who utters "delicious" utters "delicious" is eaten. The product is specified using the product recognized by the image analysis unit 222. By referring to the time when the product is said to be "delicious" and the time when the product is eaten or eaten, the product to be evaluated as "delicious" can be specified.

また、評価導出部223は、画像解析部222が認識した一のユーザの表情から、商品に対する評価に関する情報を導出可能であるが、画像解析部222が解析した画像からはその評価の対象の商品を特定できない場合には、発話内容を用いて対象商品を特定する。例えば、一のユーザが評価に関連する表情となった直後に、他のユーザが「揚げ出し豆腐の味どう?」と発声していることを音声解析部221が認識した場合には、評価導出部223は、評価の対象の商品が「揚げ出し豆腐」であると特定する。また、一のユーザが評価に関連する表情となった直前に、配膳人が例えば「揚げ出し豆腐です。」と発声したことを音声解析部221が認識した場合には、評価導出部223は、評価の対象の商品が「揚げ出し豆腐」であると特定する。また、一のユーザが評価に関連する表情となった直前に、当該一のユーザが例えば「揚げ出し豆腐を頂きます。」と発声したことを音声解析部221が認識した場合には、評価導出部223は、評価の対象の商品が「揚げ出し豆腐」であると特定する。一のユーザが評価に関連する表情(例えば笑顔)となった時刻と、他のユーザが「揚げ出し豆腐の味どう?」と発声した時刻、配膳人が「揚げ出し豆腐です。」と発声した時刻又は一のユーザが「揚げ出し豆腐を頂きます。」と発声した時刻とを参照することで、評価の対象商品が「揚げ出し豆腐」であることを特定することができる。 Further, the evaluation derivation unit 223 can derive information on the evaluation of the product from the facial expression of one user recognized by the image analysis unit 222, but the product to be evaluated from the image analyzed by the image analysis unit 222. If it cannot be specified, the target product is specified using the utterance content. For example, if the voice analysis unit 221 recognizes that another user is uttering "How about the taste of fried tofu?" Immediately after one user has a facial expression related to the evaluation, the evaluation is derived. Department 223 identifies that the product to be evaluated is "fried tofu". In addition, when the voice analysis unit 221 recognizes that the caterer utters, for example, "It is fried tofu" immediately before one user has a facial expression related to the evaluation, the evaluation derivation unit 223 Identify that the product to be evaluated is "fried tofu". In addition, when the voice analysis unit 221 recognizes that the one user has uttered, for example, "I will have fried tofu" immediately before the one user has a facial expression related to the evaluation, the evaluation is derived. Department 223 identifies that the product to be evaluated is "fried tofu". The time when one user had a facial expression (for example, a smile) related to the evaluation, the time when the other user said "How about the taste of fried tofu?", And the caterer said "It's fried tofu." By referring to the time or the time when one user says "I will have fried tofu", it is possible to identify that the product to be evaluated is "fried tofu".

また、評価導出部223は、発話内容や撮影画像から商品を特定する際に、受注部214が注文を受けていた商品に基づいても良い。評価導出部223は、例えば、「ステーキ美味しい。」と発声していることを音声解析部221が認識したとしても、受注部214がこのグループからステーキの注文を受けていない場合には、店舗にて提供した商品に対する評価ではないと判断し、評価を導出しないようにしても良い。 Further, the evaluation derivation unit 223 may be based on the product for which the order receiving unit 214 has received an order when specifying the product from the utterance content or the photographed image. For example, even if the voice analysis unit 221 recognizes that the evaluation derivation unit 223 is uttering "Steak is delicious", if the ordering unit 214 has not received an order for steak from this group, the store is informed. It may be judged that the evaluation is not the evaluation of the provided product, and the evaluation may not be derived.

評価導出部223は、一の商品に対する評価を導出した場合には、商品名と評価に関する情報とを関連付けて記憶部22に記憶する。上述した例では、評価導出部223は、「揚げ出し豆腐」と、「美味しい」とを関連付けて記憶部22に記憶する。また、評価導出部223は、「揚げ出し豆腐」と、「笑顔」又は「良い」とを関連付けて記憶部22に記憶する。また、評価導出部223は、「ビール」と、「怒り顔」又は「悪い」とを関連付けて記憶部22に記憶する。
また、評価導出部223は、一の商品に対する評価を導出した場合には、商品名と評価に関する情報とを関連付けて送信部217を介して店舗端末30に送信する。
When the evaluation derivation unit 223 derives the evaluation for one product, the evaluation derivation unit 223 stores the product name and the information related to the evaluation in the storage unit 22 in association with each other. In the above-mentioned example, the evaluation derivation unit 223 stores the “fried tofu” and the “delicious” in the storage unit 22 in association with each other. Further, the evaluation derivation unit 223 stores the “fried tofu” and the “smile” or “good” in the storage unit 22 in association with each other. Further, the evaluation derivation unit 223 stores "beer" in the storage unit 22 in association with "angry face" or "bad".
When the evaluation derivation unit 223 derives the evaluation for one product, the evaluation derivation unit 223 associates the product name with the information related to the evaluation and transmits the product name to the store terminal 30 via the transmission unit 217.

次に、フローチャートを用いて、評価把握部220が行う評価把握処理の手順の一例について説明する。
図15は、評価把握部220が行う評価把握処理の手順の一例を示すフローチャートである。
評価把握部220は、この評価把握処理を、予め定めた期間(例えば1ミリ秒)毎に繰り返し実行する。
Next, an example of the procedure of the evaluation grasping process performed by the evaluation grasping unit 220 will be described with reference to the flowchart.
FIG. 15 is a flowchart showing an example of the procedure of the evaluation grasping process performed by the evaluation grasping unit 220.
The evaluation grasping unit 220 repeatedly executes this evaluation grasping process every predetermined period (for example, 1 millisecond).

評価把握部220は、ユーザの発話内容に評価に関する情報が含まれているか否かを判別する(ステップ(以下「S」と称する場合もある。)1501)。これは、評価導出部223が、音声解析部221が認識したユーザの発話内容に基づいて判別する処理であり、発話内容の中に、例えば「美味しい」や「美味しくない」等の評価に関する情報が含まれているか否かを判別する処理である。そして、評価に関する情報が含まれている場合(S1501でYes)、その評価の対象の商品を、一のユーザの発話内容から特定可能であるか否かを判別する(S1502)。例えば、音声解析部221が認識した一のユーザの発話内容が、「この揚げ出し豆腐、美味しい。」等、S1501で含まれていると判断した評価に関する情報と商品名とが連続した一文である場合には、評価の対象の商品を特定可能であると判定する。そして、評価の対象の商品を特定可能である場合(S1502でYes)、商品名と評価に関する情報とを関連付けて記憶部22に記憶する(S1503)。また、評価把握部220は、記憶部22に記憶するとともに、商品名と評価に関する情報とを関連付けて送信部217を介して店舗端末30に送信しても良い。 The evaluation grasping unit 220 determines whether or not the user's utterance content includes information related to the evaluation (step (hereinafter, may be referred to as “S”) 1501). This is a process in which the evaluation derivation unit 223 determines based on the user's utterance content recognized by the voice analysis unit 221, and the utterance content includes information on evaluation such as "delicious" or "not delicious". It is a process of determining whether or not it is included. Then, when the information regarding the evaluation is included (Yes in S1501), it is determined whether or not the product to be evaluated can be specified from the utterance content of one user (S1502). For example, the utterance content of one user recognized by the voice analysis unit 221 is a sentence in which the information related to the evaluation determined to be included in S1501 such as "This fried tofu is delicious" and the product name are continuous. In that case, it is determined that the product to be evaluated can be specified. Then, when the product to be evaluated can be specified (Yes in S1502), the product name and the information related to the evaluation are associated and stored in the storage unit 22 (S1503). Further, the evaluation grasping unit 220 may store the product name in the storage unit 22 and may associate the product name with the information related to the evaluation and transmit the product name to the store terminal 30 via the transmitting unit 217.

他方、評価の対象の商品を特定可能ではない場合(S1502でNo)、評価把握部220は、他のユーザの発話内容から商品を特定可能であるか又は画像解析部222が認識した画像に基づいて商品を特定可能であるか等、他の手段により商品を特定可能であるか否かを判別する(S1504)。そして、評価の対象の商品を特定可能である場合(S1504でYes)、評価把握部220は、記憶部22に記憶するとともに、商品名と評価に関する情報とを関連付けて記憶部22に記憶する(S1503)。 On the other hand, when the product to be evaluated cannot be specified (No in S1502), the evaluation grasping unit 220 can identify the product from the utterance content of another user or is based on the image recognized by the image analysis unit 222. It is determined whether or not the product can be specified by other means such as whether or not the product can be specified (S1504). When the product to be evaluated can be specified (Yes in S1504), the evaluation grasping unit 220 stores the product name in the storage unit 22 and stores the product name and the information related to the evaluation in the storage unit 22 (Yes). S1503).

一方、評価に関する情報が含まれていない場合(S1501でNo)、画像解析部222が認識した画像を用いて評価に関する情報を取得可能であるか否かを判別する(ステップ(S1505)。これは、評価導出部223が、画像解析部222が認識したユーザの表情に基づいて判別する処理であり、例えば、商品を飲食した直後のユーザの表情が「笑顔」や「怒り顔」であるか否かを判別する処理である。そして、評価に関する情報が含まれている場合(S1505でYes)、その評価の対象の商品を、評価に関する情報を取得した画像に映っているユーザ(例えば「笑顔」であったユーザ)が飲食する前後の画像から特定可能であるか否かを判別する(S1506)。そして、評価の対象の商品を特定可能である場合(S1506でYes)、評価把握部220は、記憶部22に記憶するとともに、商品名と評価に関する情報とを関連付けて記憶部22に記憶する(S1503)。 On the other hand, when the evaluation-related information is not included (No in S1501), it is determined whether or not the evaluation-related information can be acquired using the image recognized by the image analysis unit 222 (step (S1505). , The evaluation derivation unit 223 is a process of determining based on the user's facial expression recognized by the image analysis unit 222. For example, whether or not the user's facial expression immediately after eating or drinking the product is a "smile" or an "angry face". This is a process of determining whether or not the product is evaluated. If the evaluation information is included (Yes in S1505), the user (for example, "smile") whose evaluation target product is shown in the image obtained from the evaluation information. (S1506), and when the product to be evaluated can be identified (Yes in S1506), the evaluation grasping unit 220 determines whether or not it can be identified from the images before and after the user) eats and drinks. , The product name and the information related to the evaluation are associated with each other and stored in the storage unit 22 (S1503).

他方、評価の対象の商品を特定可能ではない場合(S1506でNo)、評価把握部220は、評価に関する情報を取得した画像に映っているユーザ(例えば「笑顔」であったユーザ)又は他のユーザの発話内容から商品を特定可能であるか否かを判別する(S1507)。そして、評価の対象の商品を特定可能である場合(S1507でYes)、評価把握部220は、記憶部22に記憶するとともに、商品名と評価に関する情報とを関連付けて記憶部22に記憶する(S1503)。 On the other hand, when the product to be evaluated cannot be specified (No in S1506), the evaluation grasping unit 220 is the user (for example, the user who was "smiling") or another user who is reflected in the image from which the evaluation information is acquired. It is determined whether or not the product can be specified from the content of the user's utterance (S1507). When the product to be evaluated can be specified (Yes in S1507), the evaluation grasping unit 220 stores the product name in the storage unit 22 and stores the product name and the information related to the evaluation in the storage unit 22 (Yes). S1503).

<店舗端末30>
図16は、店舗端末30の機能構成を例示したブロック図である。
店舗端末30は、ユーザ端末10が備える、制御部11、記憶部12、表示部13、操作部14、通信部15、スピーカ17に相当する、制御部31、記憶部(不図示)、表示部33、操作部(不図示)、通信部(不図示)、スピーカ37を備えている。
店舗端末30は、携帯情報端末(PDA)、タブレット端末、タブレットPC、ノートPC、デスクトップPC等であることを例示することができる。
店舗端末30は、例えば、店舗の厨房に配置されていることを例示することができる。
<Store terminal 30>
FIG. 16 is a block diagram illustrating the functional configuration of the store terminal 30.
The store terminal 30 includes a control unit 11, a storage unit 12, a display unit 13, an operation unit 14, a communication unit 15, a speaker 17, and a control unit 31, a storage unit (not shown), and a display unit, which are included in the user terminal 10. 33, an operation unit (not shown), a communication unit (not shown), and a speaker 37 are provided.
It can be exemplified that the store terminal 30 is a personal digital assistant (PDA), a tablet terminal, a tablet PC, a notebook PC, a desktop PC, or the like.
It can be exemplified that the store terminal 30 is arranged in the kitchen of the store, for example.

制御部31は、CPU(不図示)、ROM(不図示)、RAM(不図示)等を有しており、CPUがプログラムを実行することにより、以下の機能を実現する。
すなわち、制御部31は、サーバ20から、商品の注文を受け付けた旨の情報等を取得する取得部311を有している。また、制御部31は、表示部33を制御する表示制御部312と、スピーカ37を制御する音響制御部313と、プリンタ40に画像を出力させる出力部314とを備えている。
The control unit 31 has a CPU (not shown), a ROM (not shown), a RAM (not shown), and the like, and the CPU executes a program to realize the following functions.
That is, the control unit 31 has an acquisition unit 311 that acquires information or the like that the order for the product has been accepted from the server 20. Further, the control unit 31 includes a display control unit 312 that controls the display unit 33, an acoustic control unit 313 that controls the speaker 37, and an output unit 314 that causes the printer 40 to output an image.

取得部311は、サーバ20から、商品の注文に関する情報である、注文を受けた商品、注文を行ったユーザ端末10のユーザ番号及びエリア番号等を取得する。
表示制御部312は、取得部311が取得した注文に関する情報を表示部33の表示画面に表示させるように表示部33を制御する。例えば、表示制御部312は、注文を受けた商品名や商品番号、当該注文を行ったユーザ番号及びエリア番号を、表示部33の表示画面に表示させる。
The acquisition unit 311 acquires the ordered product, the user number of the user terminal 10 that placed the order, the area number, and the like, which are information related to the order of the product, from the server 20.
The display control unit 312 controls the display unit 33 so that the information regarding the order acquired by the acquisition unit 311 is displayed on the display screen of the display unit 33. For example, the display control unit 312 displays the product name and product number for which the order has been received, the user number and area number for which the order has been placed, on the display screen of the display unit 33.

音響制御部313は、取得部311が取得した注文に関する情報についての音を出力させるようにスピーカ37を制御する。例えば、音響制御部313は、注文を受けた商品名や商品番号、当該注文を行ったユーザ番号及びエリア番号を、スピーカ37から音声出力させる。
出力部314は、取得部311が取得した注文に関する情報である、注文を受けた商品名や商品番号、当該注文を行ったユーザ番号及びエリア番号の画像をプリンタ40に出力させる。また、出力部314は、サーバ20の作成部216が作成したコード情報と、当該コード情報に関連付けられているエリア番号の画像をプリンタ40に出力させる。
The acoustic control unit 313 controls the speaker 37 so as to output a sound about the information regarding the order acquired by the acquisition unit 311. For example, the acoustic control unit 313 causes the speaker 37 to output the product name and product number for which the order has been received, the user number and area number for which the order has been placed, by voice.
The output unit 314 causes the printer 40 to output an image of the product name and product number that received the order, the user number that placed the order, and the area number, which is information about the order acquired by the acquisition unit 311. Further, the output unit 314 causes the printer 40 to output the code information created by the creation unit 216 of the server 20 and the image of the area number associated with the code information.

商品名、商品番号、ユーザ番号、エリア番号等が、表示部33の表示画面に表示されることにより、又は、スピーカ37から音声が出力されることにより、調理人は、商品の注文を受けたことを把握することが可能となり、配膳人は、当該商品を、注文を行ったエリアに届けることが可能となる。また、プリンタ40により出力された、商品名、商品番号、ユーザ番号、エリア番号等が記載された紙を見ることにより、調理人は、商品の注文を受けたことを把握することが可能となり、配膳人は、当該商品を、注文を行ったエリアに届けることが可能となる。
なお、コード情報等が記載された紙は、店舗の従業員(例えば配膳人)にて、該当するエリアに配置される。
The cook received the order for the product by displaying the product name, product number, user number, area number, etc. on the display screen of the display unit 33 or by outputting the sound from the speaker 37. It becomes possible to grasp that, and the caterer can deliver the product to the area where the order is placed. Further, by looking at the paper on which the product name, product number, user number, area number, etc. are written, which is output by the printer 40, the cook can grasp that the product has been ordered. The caterer will be able to deliver the product to the area where the order was placed.
The paper on which the code information and the like are written is placed in the corresponding area by an employee of the store (for example, a caterer).

また、取得部311は、サーバ20から、商品の評価に関する情報等を取得する。
表示制御部312は、取得部311が取得した商品の評価に関する情報を表示部33の表示画面に表示させるように表示部33を制御しても良い。
音響制御部313は、取得部311が取得した評価に関する情報についての音を出力させるようにスピーカ37を制御しても良い。
出力部314は、取得部311が取得した評価に関する情報の画像をプリンタ40に出力させてもよい。
In addition, the acquisition unit 311 acquires information and the like related to product evaluation from the server 20.
The display control unit 312 may control the display unit 33 so that the information regarding the evaluation of the product acquired by the acquisition unit 311 is displayed on the display screen of the display unit 33.
The acoustic control unit 313 may control the speaker 37 so as to output a sound about the information regarding the evaluation acquired by the acquisition unit 311.
The output unit 314 may output an image of the evaluation-related information acquired by the acquisition unit 311 to the printer 40.

商品名と、その商品の評価に関する情報等が、表示部33の表示画面に表示されることにより、又は、スピーカ37から音声が出力されることにより、店舗の従業員は、商品の評価を把握することが可能となる。また、プリンタ40により出力された、商品名と、その商品の評価に関する情報等が記載された紙を見ることにより、店舗の従業員は、商品の評価を把握することが可能となる。
商品名と、その商品の評価に関する情報等を、表示制御部312が表示部33に表示させること、音響制御部313がスピーカ37から音声を出力させること、及び、出力部314がプリンタ40に出力させることは、店舗の従業員からの要求に応じて行っても良い。
The store employee grasps the evaluation of the product by displaying the product name and information related to the evaluation of the product on the display screen of the display unit 33 or by outputting the sound from the speaker 37. It becomes possible to do. Further, by looking at the paper on which the product name and the information related to the evaluation of the product are described, which is output by the printer 40, the store employee can grasp the evaluation of the product.
The display control unit 312 displays the product name and information related to the evaluation of the product on the display unit 33, the acoustic control unit 313 outputs sound from the speaker 37, and the output unit 314 outputs the product to the printer 40. It may be done at the request of the employee of the store.

<取得システム60>
取得システム60は、マイク61と、カメラ62と、通信サーバ63とを備える。マイク61及びカメラ62は、通信サーバ63に接続されている。通信サーバ63は、さらにネットワーク50を介してサーバ20と接続される。マイク61及びカメラ62と通信サーバ63、及び、通信サーバ63とサーバ20は、LAN、bluetooth(登録商標)や赤外線通信等の無線通信又は有線通信にて、互いに通信可能となっていても良い。
<Acquisition system 60>
The acquisition system 60 includes a microphone 61, a camera 62, and a communication server 63. The microphone 61 and the camera 62 are connected to the communication server 63. The communication server 63 is further connected to the server 20 via the network 50. The microphone 61, the camera 62, the communication server 63, and the communication server 63 and the server 20 may be able to communicate with each other by wireless communication such as LAN, bluetooth (registered trademark) or infrared communication, or wired communication.

マイク61は、情報としての音(音響情報)を収録する録音装置である。マイク61としては、収録しようとする場所や音響情報の種類等に応じて種々の特性や構成を有するものを用いて良い。マイク61により収録された音響情報は、デジタル・データとして通信サーバ63へ送られる。マイク61は、店舗に設けられた全てのエリアの発話を録音可能なように複数設けられていることを例示することができる。また、マイク61は、一のエリアにて飲食する複数のユーザ全ての発話を録音可能なように複数設けられていることを例示することができる。 The microphone 61 is a recording device that records sound (acoustic information) as information. As the microphone 61, a microphone having various characteristics and configurations may be used depending on the place to be recorded, the type of acoustic information, and the like. The acoustic information recorded by the microphone 61 is sent to the communication server 63 as digital data. It can be exemplified that a plurality of microphones 61 are provided so as to be able to record utterances in all areas provided in the store. Further, it can be exemplified that a plurality of microphones 61 are provided so as to be able to record the utterances of all the plurality of users who eat and drink in one area.

カメラ62は、店舗内の画像を取得する撮像装置である。カメラ62により取得された画像は、デジタル・データとして通信サーバ63へ送られる。カメラ62により取得される画像は、動画および静止画のいずれであっても良い。カメラ62としては、使用環境に応じて種々の構成のものを用いて良い。例えば、可搬型のカメラであっても良いし、固定カメラであっても良い。また、周囲の広い空間の画像を取得する広角カメラや全周カメラ、特定の対象物や場所を様々な角度で撮影する複数のカメラ群等を用いても良い。カメラ62は、一のエリアにて飲食する複数のユーザや、一のエリアに設置されたテーブルに置かれた商品を全て撮影可能なように複数設けられていることを例示することができる。 The camera 62 is an imaging device that acquires an image of the inside of the store. The image acquired by the camera 62 is sent to the communication server 63 as digital data. The image acquired by the camera 62 may be either a moving image or a still image. As the camera 62, those having various configurations may be used depending on the usage environment. For example, it may be a portable camera or a fixed camera. Further, a wide-angle camera or an all-around camera that acquires an image of a wide surrounding space, a plurality of camera groups that capture a specific object or place at various angles, or the like may be used. It can be exemplified that a plurality of users who eat and drink in one area and a plurality of cameras 62 are provided so as to be able to photograph all the products placed on the table installed in one area.

通信サーバ63は、マイク61及びカメラ62により取得した情報をサーバ20へ送信する通信制御装置である。通信サーバ63は、例えば、携帯情報端末(PDA)、タブレット端末、タブレットPC、ノートPC、デスクトップPC等であることを例示することができる。また、マイク61及びカメラ62(以下、これらをまとめて「情報取得デバイス」と称する場合がある。)が接続されたLANを構成するルータに情報処理機能および通信制御機能を持たせたものを用いても良い。さらに、ネットワーク50に接続する機能及び情報処理機能を備えた各種の情報機器(テレビ受像機やファクシミリ装置等)を用いても良い。 The communication server 63 is a communication control device that transmits information acquired by the microphone 61 and the camera 62 to the server 20. It can be exemplified that the communication server 63 is, for example, a personal digital assistant (PDA), a tablet terminal, a tablet PC, a notebook PC, a desktop PC, or the like. Further, a router constituting a LAN to which a microphone 61 and a camera 62 (hereinafter, these may be collectively referred to as an “information acquisition device”) is connected to have an information processing function and a communication control function is used. You may. Further, various information devices (television receiver, facsimile machine, etc.) having a function of connecting to the network 50 and an information processing function may be used.

通信サーバ63は、設定に応じて、各情報取得デバイスから情報を収集する。具体的には、常時連続的に情報を取得しても良いし、一定の時間間隔で断続的に情報を取得しても良いし、予め定められた事象(イベント)が発生したことを契機(トリガー)として情報を取得しても良い。情報取得デバイスからプッシュ型通信で情報を送っても良いし、通信サーバ63から情報取得デバイスへ問い合わせるプル型通信で情報を取得しても良い。通信が衝突(コリジョン)しない範囲において、個々の情報取得デバイスごとに異なる方式や態様で通信サーバ63へ情報を送るように構成しても良い。予め定められた事象(イベント)としては、各情報取得デバイスが取得対象のエリアを利用して飲食するユーザによりサーバ20の受注部214が注文を受けたことを例示することができる。そして、通信サーバ63は、各情報取得デバイスが取得対象のエリアを利用して飲食するユーザが店舗を退出したときに取得を終了しても良い。 The communication server 63 collects information from each information acquisition device according to the setting. Specifically, information may be acquired continuously at all times, information may be acquired intermittently at regular time intervals, or when a predetermined event occurs (event). Information may be acquired as a trigger). Information may be sent from the information acquisition device by push-type communication, or information may be acquired by pull-type communication in which the communication server 63 inquires of the information acquisition device. As long as the communication does not collide, the information may be sent to the communication server 63 by a different method or mode for each information acquisition device. As a predetermined event, it can be exemplified that the order receiving unit 214 of the server 20 receives an order by a user who eats and drinks using the area to be acquired by each information acquisition device. Then, the communication server 63 may end the acquisition when the user who eats and drinks using the area to be acquired by each information acquisition device leaves the store.

また、通信サーバ63は、設定に応じて、取得した情報をサーバ20へ送信する。具体的には、常時サーバ20と接続して連続的に情報を送信しても良いし、一定の時間間隔で断続的にサーバ20と接続して情報を送信しても良い。また、予め定められた事象(イベント)が発生したことを契機(トリガー)としてサーバ20と接続して情報を送信しても良い。予め定められた事象(イベント)としては、各情報取得デバイスが取得対象のエリアを利用して飲食するユーザが店舗を退出したことを例示することができる。 Further, the communication server 63 transmits the acquired information to the server 20 according to the setting. Specifically, it may be connected to the server 20 at all times to continuously transmit information, or may be intermittently connected to the server 20 at regular time intervals to transmit information. Further, information may be transmitted by connecting to the server 20 when a predetermined event (event) occurs as a trigger. As a predetermined event, it can be exemplified that a user who eats and drinks using the area to be acquired by each information acquisition device leaves the store.

図17−1及び図17−2は、本実施の形態に係るキャッシュレスシステム1における動作例を示したシーケンス図である。図17−1及び図17−2に示した動作例は、ユーザA、ユーザB、ユーザCの3人を含んで一のグループが構成され、ユーザAが所有するユーザ端末10A、ユーザBが所有するユーザ端末10B、ユーザCが所有するユーザ端末10Cにて注文や会計が行われる場合の動作例を示している。 17-1 and 17-2 are sequence diagrams showing an operation example in the cashless system 1 according to the present embodiment. In the operation example shown in FIGS. 17-1 and 17-2, one group including three users A, B, and C is formed, and the user terminal 10A owned by the user A and the user B own the operation example. An operation example is shown when an order or an accounting is performed on the user terminal 10B and the user terminal 10C owned by the user C.

先ず、ユーザAが、案内されたエリア(エリア番号は1とする)に予め置かれていたコード情報を、自身が所有するユーザ端末10Aにて読み取るとともに、読み込んだ後に表示されるアドレスにアクセスする(S1701)。
サーバ20は、エリア番号とユーザ端末10Aとを関連付けて記憶する(S1702)。より具体的には、エリア番号が1であるエリアに配置されていたコード情報を読み取ることで表示されるアドレスに基づいて最初にアクセスしてきたのがユーザ端末10Aであることから、ユーザ端末10Aの識別番号であるユーザ番号を1として、エリア番号に関連付けて記憶部22に記憶する。これは、識別部212が行う処理である。そして、サーバ20においては、生成部213がメニュー画面を表示させるためのHTML文書を生成して、ユーザ端末10Aに送信する(S1703)。ユーザ端末10Aは、表示部13にメニュー画面を表示する(S1704)。
First, the user A reads the code information previously placed in the guided area (the area number is 1) by the user terminal 10A owned by the user A, and accesses the address displayed after the reading. (S1701).
The server 20 stores the area number and the user terminal 10A in association with each other (S1702). More specifically, since it is the user terminal 10A that first accesses based on the address displayed by reading the code information arranged in the area where the area number is 1, the user terminal 10A The user number, which is the identification number, is set to 1, and is stored in the storage unit 22 in association with the area number. This is a process performed by the identification unit 212. Then, in the server 20, the generation unit 213 generates an HTML document for displaying the menu screen and transmits it to the user terminal 10A (S1703). The user terminal 10A displays a menu screen on the display unit 13 (S1704).

ユーザBが、案内されたエリア(エリア番号:1)に予め置かれていたコード情報を、自身が所有するユーザ端末10Bにて読み取るとともに、読み込んだ後に表示されるアドレスにアクセスする(S1705)。
サーバ20は、エリア番号とユーザ端末10Bとを関連付けて記憶する(S1706)。より具体的には、エリア番号が1であるエリアに配置されていたコード情報を読み取ることで表示されるアドレスに基づいて、ユーザ端末10Aの次にアクセスしてきたのがユーザ端末10Bであることから、ユーザ端末10Bの識別番号であるユーザ番号を2として、エリア番号に関連付けて記憶部22に記憶する。そして、サーバ20は、メニュー画面を表示させるためのHTML文書を生成して、ユーザ端末10Bに送信する(S1707)。ユーザ端末10Bは、表示部13にメニュー画面を表示する(S1708)。
The user B reads the code information previously placed in the guided area (area number: 1) by the user terminal 10B owned by the user B, and accesses the address displayed after the reading (S1705).
The server 20 stores the area number and the user terminal 10B in association with each other (S1706). More specifically, since it is the user terminal 10B that has accessed next to the user terminal 10A based on the address displayed by reading the code information arranged in the area where the area number is 1. , The user number, which is the identification number of the user terminal 10B, is set to 2, and is stored in the storage unit 22 in association with the area number. Then, the server 20 generates an HTML document for displaying the menu screen and transmits it to the user terminal 10B (S1707). The user terminal 10B displays a menu screen on the display unit 13 (S1708).

ユーザCが、案内されたエリアに予め置かれていたコード情報を、自身が所有するユーザ端末10Cにて読み取るとともに、読み込んだ後に表示されるアドレスにアクセスする(S1709)。
サーバ20は、エリア番号とユーザ端末10Cとを関連付けて記憶する(S1710)。より具体的には、エリア番号が1であるエリアに配置されていたコード情報を読み取ることで表示されるアドレスに基づいて、ユーザ端末10Bの次にアクセスしてきたのがユーザ端末10Cであることから、ユーザ端末10Cの識別番号であるユーザ番号を3として、エリア番号に関連付けて記憶部22に記憶する。そして、サーバ20は、メニュー画面を表示させるためのHTML文書を生成して、ユーザ端末10Cに送信する(S1711)。ユーザ端末10Cは、表示部13にメニュー画面を表示する(S1712)。
The user C reads the code information previously placed in the guided area by the user terminal 10C owned by the user C, and accesses the address displayed after reading the code information (S1709).
The server 20 stores the area number and the user terminal 10C in association with each other (S1710). More specifically, since it is the user terminal 10C that has accessed next to the user terminal 10B based on the address displayed by reading the code information arranged in the area where the area number is 1. , The user number, which is the identification number of the user terminal 10C, is set to 3, and is stored in the storage unit 22 in association with the area number. Then, the server 20 generates an HTML document for displaying the menu screen and transmits it to the user terminal 10C (S1711). The user terminal 10C displays a menu screen on the display unit 13 (S1712).

その後、ユーザAが、ユーザ端末10Aの表示部13に表示されているメニュー画面に表示されている商品群の中から一の商品(例えばビール)を選択して、その商品の注文ボタン71dを押下したとする(S1713)。サーバ20は、その商品の注文を受け付け、注文を受けた商品と、注文を行ってきたユーザ端末10のユーザ番号及びエリア番号とを関連付けて記憶部22に記憶する(S1714)。そして、サーバ20は、注文を受けた商品、注文を行ったユーザ端末10のユーザ番号及びエリア番号等の情報を、店舗端末30に送信する(S1715)。これらは、受注部214が行う処理である。 After that, the user A selects one product (for example, beer) from the product group displayed on the menu screen displayed on the display unit 13 of the user terminal 10A, and presses the order button 71d for that product. (S1713). The server 20 receives an order for the product, and stores the ordered product in the storage unit 22 in association with the user number and area number of the user terminal 10 that has placed the order (S1714). Then, the server 20 transmits information such as the ordered product, the user number of the user terminal 10 that placed the order, and the area number to the store terminal 30 (S1715). These are the processes performed by the order receiving unit 214.

店舗端末30においては、サーバ20からの商品の注文に関する情報を取得し、取得した情報である、注文を受けた商品(例えばビール)、注文を行ったユーザ端末10Aのユーザ番号(ユーザ番号:1)及びエリア番号(エリア番号:1)を報知する(S1716)。報知手法としては、上述した、表示部33の表示画面に表示させること、スピーカ37から音声出力させること、プリンタ40に出力させることの少なくともいずれかであることを例示することができる。
そして、店舗の従業員(例えば配膳人)が、注文を受けた商品(例えばビール)をユーザAに届けることで、ユーザAは、注文した商品を受け取る(S1717)。
上記S1713〜S1717の処理が、ユーザA、ユーザB、ユーザCの全てのユーザからの注文が終了するまで注文毎に繰り返される。
In the store terminal 30, information on the order of the product from the server 20 is acquired, and the acquired information, the ordered product (for example, beer), and the user number (user number: 1) of the user terminal 10A that placed the order. ) And the area number (area number: 1) are notified (S1716). As the notification method, at least one of the above-mentioned display on the display screen of the display unit 33, sound output from the speaker 37, and output to the printer 40 can be exemplified.
Then, the employee of the store (for example, the caterer) delivers the ordered product (for example, beer) to the user A, and the user A receives the ordered product (S1717).
The processing of S1713 to S1717 is repeated for each order until the orders from all the users of user A, user B, and user C are completed.

サーバ20の評価把握部220は、音声解析部221が解析した音声及び画像解析部222が解析した画像の少なくともいずれかに基づいて、商品の評価に関する情報を把握する評価把握処理を行う(S1718)。この評価把握処理において、評価把握部220は、一の商品に対する評価を把握した場合には、商品名と評価に関する情報とを関連付けて記憶部22に記憶する。また、評価把握部220は、商品名と評価に関する情報とを店舗端末30に送信しても良い。このようにして、サーバ20は、ユーザが飲食した直後に商品に対する評価を把握することができる。それゆえ、サーバ20は、例えばユーザが店舗を退出した後に評価を入力する等に比べて、確度が高い評価に関する情報を把握することができる。 The evaluation grasping unit 220 of the server 20 performs an evaluation grasping process for grasping information related to product evaluation based on at least one of the voice analyzed by the voice analysis unit 221 and the image analyzed by the image analysis unit 222 (S1718). .. In this evaluation grasping process, when the evaluation grasping unit 220 grasps the evaluation for one product, the product name and the information related to the evaluation are associated and stored in the storage unit 22. Further, the evaluation grasping unit 220 may transmit the product name and the information related to the evaluation to the store terminal 30. In this way, the server 20 can grasp the evaluation of the product immediately after the user eats and drinks. Therefore, the server 20 can grasp the information regarding the evaluation with higher accuracy than, for example, inputting the evaluation after the user leaves the store.

一のグループを構成するいずれかのユーザが、ユーザ端末10(図17−2においてはユーザ端末10A)の表示部13に表示されているメニュー画面71に表示されている会計ボタン71eを押下したとする(S1719)。サーバ20においては、生成部213が会計画面72を表示させるためのHTML文書を生成し(S1720)、送信部217がHTML文書をユーザ端末10Aに送信する(S1721)。ユーザ端末10Aは、表示部13に会計画面72を表示する(S1722)。 When any user constituting one group presses the accounting button 71e displayed on the menu screen 71 displayed on the display unit 13 of the user terminal 10 (user terminal 10A in FIG. 17-2). (S1719). In the server 20, the generation unit 213 generates an HTML document for displaying the accounting screen 72 (S1720), and the transmission unit 217 transmits the HTML document to the user terminal 10A (S1721). The user terminal 10A displays the accounting screen 72 on the display unit 13 (S1722).

その後、ユーザAが、ユーザ端末10Aの表示部13に表示されている会計画面72に表示されている同等割会計ボタン72cを押下したとする(S1723)。サーバ20においては、課金部215が、エリア番号が1であるエリアで飲食された全商品の合計金額を、ユーザ端末10の数である3にて同等割した金額を算出し(S1724)、その金額等の情報を含んだHTML文書を、送信部217を介して全ユーザ端末10(ユーザ端末10A、ユーザ端末10B、ユーザ端末10C)に送信する(S1725)。全ユーザ端末10(ユーザ端末10A、ユーザ端末10B、ユーザ端末10C)は、表示部13に、同等割した金額と、確認ボタン74aを表示する(S1726)。 After that, it is assumed that the user A presses the equivalent accounting button 72c displayed on the accounting screen 72 displayed on the display unit 13 of the user terminal 10A (S1723). In the server 20, the billing unit 215 calculates the total amount of all the products eaten and eaten in the area where the area number is 1, divided by 3 which is the number of user terminals 10 (S1724). An HTML document containing information such as an amount of money is transmitted to all user terminals 10 (user terminal 10A, user terminal 10B, user terminal 10C) via the transmission unit 217 (S1725). All user terminals 10 (user terminals 10A, user terminals 10B, user terminals 10C) display the same divided amount and the confirmation button 74a on the display unit 13 (S1726).

その後、ユーザAが、ユーザ端末10Aの表示部13に表示されている確認ボタン74aを押下した場合には(S1727)、サーバ20は、決済処理を行う(S1728)。これにより、ユーザ端末10Aを用いた支払いが終了する。また、ユーザBが、ユーザ端末10Bの表示部13に表示されている確認ボタン74aを押下した場合には(S1729)、サーバ20は、決済処理を行う(S1730)。これにより、ユーザ端末10Bを用いた支払いが終了する。また、ユーザCが、ユーザ端末10Cの表示部13に表示されている確認ボタン74aを押下した場合には(S1731)、サーバ20は、決済処理を行う(S1732)。これにより、ユーザ端末10Cを用いた支払いが終了する。 After that, when the user A presses the confirmation button 74a displayed on the display unit 13 of the user terminal 10A (S1727), the server 20 performs the payment process (S1728). As a result, payment using the user terminal 10A is completed. Further, when the user B presses the confirmation button 74a displayed on the display unit 13 of the user terminal 10B (S1729), the server 20 performs the payment process (S1730). As a result, payment using the user terminal 10B is completed. Further, when the user C presses the confirmation button 74a displayed on the display unit 13 of the user terminal 10C (S1731), the server 20 performs the payment process (S1732). As a result, payment using the user terminal 10C is completed.

以上のように構成された本実施の形態に係るキャッシュレスシステム1は、飲食店に来訪したユーザのユーザ端末10からの接続要求を受け付ける受付手段の一例としての受信部211と、飲食店にて提供する料理の一覧をユーザ端末10に表示させる表示制御手段の一例としての生成部213と、を備える評価取得システムの一例である。そして、本実施の形態に係るキャッシュレスシステム1は、ユーザ端末10から商品の注文を受ける受注手段の一例としての受注部214と、商品の評価に関する情報を、ユーザの挙動から把握する把握手段の一例としての評価把握部220と、を備える。
本実施の形態に係るキャッシュレスシステム1によれば、評価把握部220がユーザの挙動から商品の評価に関する情報を把握するので、ユーザの挙動以外から商品の評価に関する情報を把握する場合よりも、確度高い評価に関する情報を把握することができる。
The cashless system 1 according to the present embodiment configured as described above includes a receiving unit 211 as an example of a receiving means for receiving a connection request from a user terminal 10 of a user who visits a restaurant, and a restaurant. This is an example of an evaluation acquisition system including a generation unit 213 as an example of display control means for displaying a list of dishes to be provided on the user terminal 10. The cashless system 1 according to the present embodiment is an ordering unit 214 as an example of an ordering means for receiving an order for a product from the user terminal 10, and a grasping means for grasping information on product evaluation from the behavior of the user. An evaluation grasping unit 220 is provided as an example.
According to the cashless system 1 according to the present embodiment, since the evaluation grasping unit 220 grasps the information related to the evaluation of the product from the behavior of the user, it is more than the case where the information related to the evaluation of the product is grasped from other than the behavior of the user. It is possible to grasp information on highly accurate evaluation.

評価把握部220は、ユーザの発話を録音する録音手段の一例としてのマイク61が録音した発話内容に基づいて商品の評価に関する情報を把握しても良い。音声解析部221は、マイク61により収録された音響情報を解析することによりユーザの発話内容を認識する。そして、評価導出部223は、音声解析部221が認識した発話内容から、一の商品に対する評価を把握可能である場合には、音声解析部221による解析結果を用いて一の商品に対する評価を把握する。本実施の形態に係るキャッシュレスシステム1によれば、例えば、ユーザの飲食直後の生の声を基に商品の評価に関する情報を把握することで、確度高い評価に関する情報を把握することができる。 The evaluation grasping unit 220 may grasp the information regarding the evaluation of the product based on the utterance content recorded by the microphone 61 as an example of the recording means for recording the user's utterance. The voice analysis unit 221 recognizes the user's utterance content by analyzing the acoustic information recorded by the microphone 61. Then, when the evaluation derivation unit 223 can grasp the evaluation for one product from the utterance content recognized by the voice analysis unit 221, the evaluation derivation unit 223 grasps the evaluation for one product by using the analysis result by the voice analysis unit 221. do. According to the cashless system 1 according to the present embodiment, for example, by grasping the information regarding the evaluation of the product based on the raw voice immediately after eating and drinking of the user, it is possible to grasp the information regarding the highly accurate evaluation.

評価把握部220は、ユーザの表情を撮像する撮像手段の一例としてのカメラ62が撮影した商品を食べた後のユーザの表情に基づいて商品の評価に関する情報を把握しても良い。画像解析部222は、カメラ62により撮影された撮影画像を解析することによりユーザの表情を認識する。画像解析部222は、カメラ62により撮影された撮影画像を解析することによりユーザが飲食した商品を特定する。そして、評価導出部223は、画像解析部222が認識したユーザの表情及びユーザが飲食した商品から、一の商品に対する評価を把握可能である場合には、画像解析部222による解析結果を用いて一の商品に対する評価を把握する。本実施の形態に係るキャッシュレスシステム1によれば、例えば、ユーザの飲食直後の表情を基に商品の評価に関する情報を把握することで、確度高い評価に関する情報を把握することができる。 The evaluation grasping unit 220 may grasp the information regarding the evaluation of the product based on the facial expression of the user after eating the product taken by the camera 62 as an example of the imaging means for capturing the facial expression of the user. The image analysis unit 222 recognizes the facial expression of the user by analyzing the captured image captured by the camera 62. The image analysis unit 222 identifies the products eaten and eaten by the user by analyzing the captured image captured by the camera 62. Then, the evaluation derivation unit 223 uses the analysis result by the image analysis unit 222 when the evaluation for one product can be grasped from the user's facial expression recognized by the image analysis unit 222 and the product that the user eats and drinks. Grasp the evaluation of one product. According to the cashless system 1 according to the present embodiment, for example, by grasping the information regarding the evaluation of the product based on the facial expression of the user immediately after eating and drinking, it is possible to grasp the information regarding the highly accurate evaluation.

評価把握部220は、受注部214が受けた注文に基づいてユーザが食べた商品を特定しても良い。画像解析部222は、例えば、撮影画像から商品を特定するときに、受注部214が一のグループから複数の注文を受けていた場合には、撮影画像から抽出した特徴量と、受注部214が注文を受けていた複数の商品の特徴量を、注文を受けていない商品の特徴量よりも先に比較すると良い。受注部214が注文を受けていた商品を考慮することで、受注部214が注文を受けていた商品を考慮しない場合よりも、迅速かつ精度高く商品を特定することが可能となる。 The evaluation grasping unit 220 may specify the product eaten by the user based on the order received by the order receiving unit 214. For example, when the image analysis unit 222 specifies a product from a captured image, if the ordering unit 214 receives a plurality of orders from one group, the feature amount extracted from the captured image and the ordering unit 214 It is advisable to compare the feature quantities of a plurality of ordered products before the feature quantities of the products that have not received an order. By considering the product for which the order receiving unit 214 has received the order, it is possible to identify the product more quickly and accurately than when the ordering unit 214 does not consider the product for which the order has been received.

評価把握部220は、マイク61が録音した発話内容と、カメラ62が撮影した画像とに基づいて商品の評価に関する情報を把握しても良い。つまり、マイク61が商品に関する情報と評価に関する情報とをともに収録できない場合や、カメラ62が商品とユーザの表情とをともに撮影できない場合等には、マイク61が録音した発話内容とカメラ62が撮影した撮影画像とを用いて商品に関する情報と評価に関する情報とを把握しても良い。
例えば、評価把握部220は、カメラ62が撮影した画像に基づいてユーザが飲食した商品を特定し、マイク61が録音した発話内容に基づいて商品の評価を把握しても良い。又は、評価把握部220は、カメラ62が撮影したユーザの表情を基に商品の評価を把握し、マイク61が録音した発話内容を基にユーザが飲食した商品を特定しても良い。
The evaluation grasping unit 220 may grasp the information regarding the evaluation of the product based on the utterance content recorded by the microphone 61 and the image taken by the camera 62. That is, when the microphone 61 cannot record both the product information and the evaluation information, or when the camera 62 cannot capture both the product and the user's facial expression, the utterance content recorded by the microphone 61 and the camera 62 capture the image. Information on the product and information on the evaluation may be grasped by using the captured image.
For example, the evaluation grasping unit 220 may specify the product that the user has eaten or drink based on the image taken by the camera 62, and grasp the evaluation of the product based on the utterance content recorded by the microphone 61. Alternatively, the evaluation grasping unit 220 may grasp the evaluation of the product based on the facial expression of the user photographed by the camera 62, and specify the product eaten or eaten by the user based on the utterance content recorded by the microphone 61.

評価把握部220は、受注部214が注文を受けた複数の商品の中から選択することでユーザが食べた商品を特定しても良い。マイク61が録音した発話内容、又は、カメラ62が撮影した画像を基にユーザが飲食した商品を特定する際に、受注部214が注文を受けていた商品を考慮することで、受注部214が注文を受けていた商品を考慮しない場合よりも、迅速かつ精度高く商品を特定することが可能となる。 The evaluation grasping unit 220 may specify the product eaten by the user by selecting from a plurality of products for which the order receiving unit 214 has received the order. When the user identifies the product that the user has eaten or eaten based on the utterance content recorded by the microphone 61 or the image taken by the camera 62, the order unit 214 considers the product for which the order has been received, so that the order unit 214 It is possible to identify the product more quickly and accurately than when the ordered product is not taken into consideration.

なお、上述した実施の形態に係るキャッシュレスシステム1においては、商品の評価に関する情報として、画像解析部222は、ユーザの顔の表情である笑顔や怒り顔を認識し、評価導出部223は、「笑顔」は「良い」、「怒り顔」は「悪い」ことを示す評価であると把握するが特にかかる態様に限定されない。例えば、画像解析部222は、ユーザの顔の表情が驚嘆した顔や渋い顔であることを認識し、評価導出部223は、「驚嘆した顔」は「良い」、「渋い顔」は「悪い」ことを示す評価であると把握しても良い。
また、画像解析部222は、評価に関する情報を得るために、ユーザの顔の表情以外を認識しても良い。例えば、画像解析部222は、親指を立てるジェスチャーや親指を下げるジェスチャーを認識しても良い。そして、評価導出部223は、「親指を立てるジェスチャー」は「良い」、「親指を下げるジェスチャー」は「悪い」ことを示す評価であると把握しても良い。
In the cashless system 1 according to the above-described embodiment, the image analysis unit 222 recognizes a smiling face or an angry face, which is a facial expression of the user, as information regarding the evaluation of the product, and the evaluation derivation unit 223 receives the evaluation derivation unit 223. It is understood that "smile" is an evaluation indicating "good" and "angry face" is an evaluation indicating "bad", but it is not particularly limited to such an aspect. For example, the image analysis unit 222 recognizes that the facial expression of the user is a marvelous face or an astringent face, and the evaluation derivation unit 223 recognizes that the "amazing face" is "good" and the "astringent face" is "bad". It may be understood that it is an evaluation indicating that.
Further, the image analysis unit 222 may recognize other than the facial expression of the user in order to obtain information on the evaluation. For example, the image analysis unit 222 may recognize a gesture of raising the thumb or a gesture of lowering the thumb. Then, the evaluation derivation unit 223 may grasp that the "thumb-up gesture" is an evaluation indicating "good" and the "thumb-down gesture" is an evaluation indicating "bad".

また、本実施の形態に係るキャッシュレスシステム1において、サーバ20は、飲食店にて提供する料理の一覧とともに、評価把握部220が把握した個々の商品の評価を、口コミとしてインターネットで閲覧可能にしても良い。これにより、飲食店が、特定の料理に強みを有する場合には、その料理をアピールすることが可能となる。例えば、接客態度が悪いために飲食店全体の評価が低くても、特定の料理に強みを持ち、その特定の料理の評価が高い場合には、その特定の料理を目的とする顧客を獲得することができる。その結果、飲食店の経営を向上させることが可能となる。また、ユーザは、特定の料理の評価が高い店舗に訪れることで、好みの料理を美味しく食べたいという要求を満たすことが可能となる。
なお、料理の評価をインターネットで閲覧可能にする際には、サーバ20は、飲食店にて提供する料理を、評価が高い順に外部端末に表示させても良い。これにより、外部端末を所有する者は、料理をチェックする際に、簡便に評価が高い料理をチェックすることが可能となる。また、サーバ20は、把握した評価がネガティブである場合には、公表しないようにしても良い。
Further, in the cashless system 1 according to the present embodiment, the server 20 makes it possible to browse the evaluation of each product grasped by the evaluation grasping unit 220 as word-of-mouth on the Internet together with the list of dishes provided at the restaurant. You may. This makes it possible for a restaurant to appeal to a particular dish if it has strengths. For example, even if the overall rating of a restaurant is low due to poor customer service, if the restaurant has strengths in a particular dish and the rating of that particular dish is high, it will acquire customers for that particular dish. be able to. As a result, it becomes possible to improve the management of the restaurant. In addition, the user can satisfy the demand for deliciously eating a favorite dish by visiting a store where a specific dish is highly evaluated.
When making the evaluation of food available on the Internet, the server 20 may display the food provided at the restaurant on the external terminal in descending order of evaluation. As a result, the person who owns the external terminal can easily check the food with a high evaluation when checking the food. Further, the server 20 may not publish the grasped evaluation when it is negative.

なお、上述した実施の形態に係るキャッシュレスシステム1においては、飲食店にて飲食をし終えた後に会計処理を行う態様であるが、ユーザ端末10にて注文を行う度に支払いを行えるようにしても良い。例えば、サーバ20は、ユーザ端末10の表示部13に表示されたメニュー画面71の注文ボタン71dが押下された旨を受信した場合に、図7に例示した会計画面72をユーザ端末10の表示部13に表示させても良い。そして、注文した個々の商品の代金を、一のグループを構成する複数のユーザの内のいずれかのユーザのユーザ端末10にて支払うのか、同等割にするのか、特殊割にするのかを選択可能にすると良い。 In the cashless system 1 according to the above-described embodiment, accounting processing is performed after eating and drinking at a restaurant, but payment can be made each time an order is placed on the user terminal 10. You may. For example, when the server 20 receives the fact that the order button 71d of the menu screen 71 displayed on the display unit 13 of the user terminal 10 is pressed, the server 20 displays the accounting screen 72 illustrated in FIG. 7 on the display unit of the user terminal 10. It may be displayed on 13. Then, it is possible to select whether to pay the price of each ordered product at the user terminal 10 of any of the plurality of users constituting one group, the equal discount, or the special discount. It is good to set it to.

また、上述した実施の形態に係るキャッシュレスシステム1においては、一のグループを構成する複数のユーザが所有する複数のユーザ端末10の全ての表示部13に表示されるメニュー画面71に、会計ボタン71eを表示させているが、特にかかる態様に限定されない。例えば、一のグループを構成する複数のユーザの内の一人を会計権限者として設定し、当該会計権限者が所有するユーザ端末10(会計権限者端末)の表示部13にのみ、メニュー画面71に会計ボタン71eを表示させるようにしても良い。そして、当該会計権限者端末においてのみ会計画面72を表示させ、まとめ会計、端末毎会計、同等割会計、特殊割会計を選択可能にしても良い。なお、会計権限者は、一のグループを構成する複数のユーザが決定可能にしても良いし、コード情報を読み取ることで表示されるアドレスに最初にアクセスしてきたユーザ端末10を所有する者を会計権限者(当該ユーザ端末10を会計権限者端末)として決定しても良い。 Further, in the cashless system 1 according to the above-described embodiment, the checkout button is displayed on the menu screen 71 displayed on all the display units 13 of the plurality of user terminals 10 owned by the plurality of users constituting one group. Although 71e is displayed, the present invention is not particularly limited to this mode. For example, one of a plurality of users constituting one group is set as an accounting authority, and the menu screen 71 is displayed only on the display unit 13 of the user terminal 10 (accounting authority terminal) owned by the accounting authority. The checkout button 71e may be displayed. Then, the accounting screen 72 may be displayed only on the terminal of the accounting authority, and summary accounting, terminal-by-terminal accounting, equivalent discount accounting, and special discount accounting may be selected. The accounting authority may be able to determine by a plurality of users constituting one group, and accounts for the person who owns the user terminal 10 who first accesses the address displayed by reading the code information. It may be determined as an authorized person (the user terminal 10 is the accounting authorized person terminal).

また、上述した実施の形態に係るキャッシュレスシステム1においては、店舗の配膳人が注文された商品(料理や飲み物など)を配膳する態様であるが特にかかる態様に限定されない。商品の準備が整ったら、注文を行ったユーザ端末10に対して電話をするかメッセージを送るなどして報知し、ユーザが商品を取りに来る態様であっても良い。かかる態様である場合、店舗端末30に、ユーザ端末10に対して電話やメッセージを送る機能を持たせても良い。 Further, in the cashless system 1 according to the above-described embodiment, the mode in which the caterer of the store serves the ordered product (food, drink, etc.) is not particularly limited to such a mode. When the product is ready, the user terminal 10 may be notified by calling or sending a message to the user terminal 10 who placed the order, and the user may come to pick up the product. In such an embodiment, the store terminal 30 may be provided with a function of sending a telephone call or a message to the user terminal 10.

また、上述した実施の形態に係るキャッシュレスシステム1において、店舗端末30は、厨房等の店舗内に配置されていることが好ましいが、サーバ20は、店舗内に配置されていても良いし、店舗外に配置されていても良い。サーバ20が店舗内に配置される場合には、サーバ20と店舗端末30とは一体であって良い。また、店舗端末30とプリンタ40とは一体であっても良いし、サーバ20、店舗端末30及びプリンタ40が一体であっても良い。これらが一体となった装置と、取得システム60とは、LAN、bluetooth(登録商標)や赤外線通信等の無線通信又は有線通信にて、互いに通信可能となっていても良い。
また、プリンタ40にてコード情報を含む画像が形成された用紙をエリアに配置する態様に限定されない。例えば、エリアに設置された、液晶パネルなどの表示装置にコード情報を表示させ、表示装置に表示されたコード情報を、ユーザ端末10にて読み取らせるようにしても良い。
Further, in the cashless system 1 according to the above-described embodiment, the store terminal 30 is preferably arranged in a store such as a kitchen, but the server 20 may be arranged in the store. It may be located outside the store. When the server 20 is arranged in the store, the server 20 and the store terminal 30 may be integrated. Further, the store terminal 30 and the printer 40 may be integrated, or the server 20, the store terminal 30 and the printer 40 may be integrated. The device in which these are integrated and the acquisition system 60 may be able to communicate with each other by wireless communication such as LAN, bluetooth (registered trademark) or infrared communication, or wired communication.
Further, the printer 40 is not limited to the mode in which the paper on which the image including the code information is formed is arranged in the area. For example, the code information may be displayed on a display device such as a liquid crystal panel installed in the area, and the code information displayed on the display device may be read by the user terminal 10.

また、上述した実施の形態に係るキャッシュレスシステム1においては、ユーザ端末10を用いて商品の注文及び会計を行うことを実現可能なサーバ20が、商品の評価に関する情報をユーザの挙動から把握する機能を有するが特にかかる態様に限定されない。例えば、ユーザ端末10を用いて商品の注文及び会計を行い得ないサーバが、評価把握部220を有し、店舗内に配置された取得システム60から取得した音声や画像に基づいて商品の評価に関する情報をユーザの挙動から把握する機能を有しても良い。かかる場合、評価把握部220を備えるサーバを、商品の評価に関する情報をユーザの挙動から把握する把握手段の一例としての評価把握部220を備える評価取得システムとして捉えることができる。 Further, in the cashless system 1 according to the above-described embodiment, the server 20 capable of ordering and accounting for the product using the user terminal 10 grasps the information regarding the evaluation of the product from the behavior of the user. It has a function, but is not particularly limited to such an embodiment. For example, a server that cannot order and account for products using the user terminal 10 has an evaluation grasping unit 220, and is related to product evaluation based on voices and images acquired from an acquisition system 60 arranged in the store. It may have a function of grasping information from the behavior of the user. In such a case, the server provided with the evaluation grasping unit 220 can be regarded as an evaluation acquisition system including the evaluation grasping unit 220 as an example of the grasping means for grasping the information regarding the evaluation of the product from the behavior of the user.

また、上述の実施形態に係るキャッシュレスシステム1では、ユーザ端末10が、サーバ20から取得するHTML文書を解釈することでメニュー画面71等を表示部13に表示させる、いわゆるブラウザ形式によって本発明が実現される場合について説明したが、特にかかる態様に限定されない。ユーザ端末10がダウンロードしたプログラムを実行することでメニュー画面71等を表示させる、いわゆるネイティブアプリケーション形式によって実現しても良い。 Further, in the cashless system 1 according to the above-described embodiment, the present invention is based on a so-called browser format in which the user terminal 10 displays the menu screen 71 or the like on the display unit 13 by interpreting the HTML document acquired from the server 20. Although the case where it is realized has been described, the present invention is not particularly limited to such a mode. It may be realized by a so-called native application format in which the menu screen 71 or the like is displayed by executing the program downloaded by the user terminal 10.

1…キャッシュレスシステム、10…ユーザ端末、20…サーバ、21…制御部、30…店舗端末、40…プリンタ、60…取得システム、211…受信部、212…識別部、213…生成部、214…受注部、215…課金部、216…作成部、217…送信部、220…評価把握部、221…音声解析部、222…画像解析部、223…評価導出部 1 ... Cashless system, 10 ... User terminal, 20 ... Server, 21 ... Control unit, 30 ... Store terminal, 40 ... Printer, 60 ... Acquisition system, 211 ... Receiver unit, 212 ... Identification unit, 213 ... Generation unit, 214 ... Ordering unit, 215 ... Billing unit, 216 ... Creating unit, 217 ... Transmitting unit, 220 ... Evaluation grasping unit, 221 ... Voice analysis unit, 222 ... Image analysis unit, 223 ... Evaluation derivation unit

Claims (4)

飲食店に来訪したユーザのユーザ端末からの接続要求を受け付ける受付手段と、
前記飲食店にて提供する商品の一覧を前記ユーザ端末に表示させる表示制御手段と、
前記ユーザ端末から前記商品の注文を受ける受注手段と、
前記商品の評価に関する情報を、前記ユーザの挙動から把握する把握手段と、
を備え
前記把握手段は、前記ユーザの発話を録音する録音手段が録音した発話内容及び撮像手段が撮影した画像の少なくともいずれかに基づいて、前記飲食店にて提供される複数の商品の中から前記ユーザが飲食した一の商品を特定するとともに、当該発話内容及び当該画像の少なくともいずれかに基づいて、当該一の商品の評価に関する情報を把握することを特徴とする評価取得システム。
A reception means for accepting connection requests from user terminals of users who visit restaurants,
A display control means for displaying a list of products provided at the restaurant on the user terminal, and
An ordering means for receiving an order for the product from the user terminal,
A grasping means for grasping information related to the evaluation of the product from the behavior of the user, and
Equipped with a,
The grasping means is based on at least one of the utterance content recorded by the recording means for recording the user's utterance and the image taken by the imaging means, and the user is selected from a plurality of products provided at the restaurant. An evaluation acquisition system characterized in that one product that has been eaten or eaten by the person is identified, and information regarding the evaluation of the one product is grasped based on at least one of the utterance content and the image.
前記把握手段は、前記ユーザの表情を撮像する撮像手段が撮影した前記一の商品を飲食した後の当該ユーザの表情に基づいて当該一の商品の評価に関する情報を把握する
請求項1に記載の評価取得システム。
The grasping means according to claim 1, wherein the grasping means grasps information regarding the evaluation of the one product based on the facial expression of the user after eating and drinking the one product taken by the imaging means that captures the facial expression of the user. Evaluation acquisition system.
前記把握手段は、前記撮像手段が撮影した画像に基づいて前記一の商品を特定し、前記録音手段が録音した発話内容に基づいて当該一の商品の評価を把握する
請求項1又は2に記載の評価取得システム。
The grasping means according to claim 1 or 2 , wherein the grasping means identifies the one product based on an image taken by the imaging means, and grasps the evaluation of the one product based on the utterance content recorded by the recording means. Evaluation acquisition system.
前記把握手段は、前記撮像手段が撮影した画像から抽出した特徴量と、認識用データとして与えられている各商品の特徴量とを比較し、一致度が閾値以上であるか否かで商品を特定する際に、前記受注手段が注文を受けていた商品の特徴量と、当該画像から抽出した特徴量とを最初に比較する The grasping means compares the feature amount extracted from the image taken by the imaging means with the feature amount of each product given as recognition data, and determines the product depending on whether the degree of matching is equal to or greater than the threshold value. At the time of identification, the feature amount of the product for which the ordering means has received an order is first compared with the feature amount extracted from the image.
請求項3に記載の評価取得システム。The evaluation acquisition system according to claim 3.
JP2018063345A 2018-03-28 2018-03-28 Evaluation acquisition system Active JP6964549B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018063345A JP6964549B2 (en) 2018-03-28 2018-03-28 Evaluation acquisition system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018063345A JP6964549B2 (en) 2018-03-28 2018-03-28 Evaluation acquisition system

Publications (2)

Publication Number Publication Date
JP2019175188A JP2019175188A (en) 2019-10-10
JP6964549B2 true JP6964549B2 (en) 2021-11-10

Family

ID=68167028

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018063345A Active JP6964549B2 (en) 2018-03-28 2018-03-28 Evaluation acquisition system

Country Status (1)

Country Link
JP (1) JP6964549B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6903629B2 (en) * 2018-12-26 2021-07-14 Kddi株式会社 Evaluation system, evaluation method and program
CN111383138B (en) * 2020-03-06 2023-06-02 腾讯科技(深圳)有限公司 Restaurant data processing method, device, computer equipment and storage medium
US11919146B2 (en) 2021-04-28 2024-03-05 Bear Robotics, Inc. Method, system, and non-transitory computer-readable recording medium for controlling a serving robot

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040001616A1 (en) * 2002-06-27 2004-01-01 Srinivas Gutta Measurement of content ratings through vision and speech recognition
JP2005222191A (en) * 2004-02-04 2005-08-18 Fujitsu Ltd Menu order selection support system, data center and store system
JP2014146264A (en) * 2013-01-30 2014-08-14 Nikon Corp Restaurant evaluation system and restaurant evaluation program

Also Published As

Publication number Publication date
JP2019175188A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP7214237B2 (en) Program, information processing method and information processing device
CN104169794B (en) Guided photography and video on mobile device
JP6964549B2 (en) Evaluation acquisition system
JP6120467B1 (en) Server device, terminal device, information processing method, and program
US20140214622A1 (en) Product information providing system, product information providing device, and product information outputting device
WO2014089686A1 (en) System and method for live interactive video connections
WO2018066102A1 (en) Information providing system, information providing device, information providing method, and program
US11727454B2 (en) Method of providing un-contact commerce service and commerce server performing the same
JP5142306B1 (en) Product information providing system, product information providing device, and product information output device
JP2010134492A (en) Household account book automatic preparation system
JP2014081888A (en) Order support device, order support method and order support program
JP5220953B1 (en) Product information providing system, product information providing device, and product information output device
JP7057583B2 (en) Order system
KR101272658B1 (en) Order system and method using qr code
JP7206741B2 (en) HEALTH CONDITION DETERMINATION SYSTEM, HEALTH CONDITION DETERMINATION DEVICE, SERVER, HEALTH CONDITION DETERMINATION METHOD, AND PROGRAM
CN104901993B (en) A kind of information transferring method and its system, application server
US10586264B2 (en) Systems for electronic exchange of information about available items
JP6980593B2 (en) Product evaluation system
US10803443B2 (en) Method and system for designating a primary interactive device
KR102479745B1 (en) In-stadium delivery service districution system and method
US20220405868A1 (en) Automatic Restaurant Ordering System
CN111435513B (en) Content processing method, device and system
JP6868063B2 (en) Server device, terminal device, terminal device program, information processing system, and operation method
JP2019160321A (en) Information collection system, information processing device, information processing device program and communication terminal program
JP2021002344A (en) Information processor

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200827

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210706

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210827

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20211005

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211019

R150 Certificate of patent or registration of utility model

Ref document number: 6964549

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150