JP7168110B1 - Information processing system, information processing method and program - Google Patents

Information processing system, information processing method and program Download PDF

Info

Publication number
JP7168110B1
JP7168110B1 JP2022010784A JP2022010784A JP7168110B1 JP 7168110 B1 JP7168110 B1 JP 7168110B1 JP 2022010784 A JP2022010784 A JP 2022010784A JP 2022010784 A JP2022010784 A JP 2022010784A JP 7168110 B1 JP7168110 B1 JP 7168110B1
Authority
JP
Japan
Prior art keywords
user
restaurant
information processing
camera
captured image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022010784A
Other languages
Japanese (ja)
Other versions
JP2023109335A (en
Inventor
俊一 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Gourmet Navigator Inc
Original Assignee
Gourmet Navigator Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Gourmet Navigator Inc filed Critical Gourmet Navigator Inc
Priority to JP2022010784A priority Critical patent/JP7168110B1/en
Application granted granted Critical
Publication of JP7168110B1 publication Critical patent/JP7168110B1/en
Publication of JP2023109335A publication Critical patent/JP2023109335A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】飲食店に来店した客と当該客が利用したテーブルとを紐付ける。【解決手段】情報処理システムは、制御部を有する。当該制御部は、飲食店の入口に設置され来店したユーザの顔をほぼ正面から撮像可能な第1カメラによって撮像された第1撮像画像と、予め記憶された複数のユーザの顔に関する登録データとを基に、上記来店したユーザを特定する。また制御部は、上記飲食店内に設置され当該飲食店内のテーブルが配置されたフロアを撮像可能な第2カメラによって撮像された第2撮像画像と、上記特定されたユーザの上記登録データとを基に、上記特定されたユーザが着いたテーブルを特定する。そして制御部は、上記特定されたユーザを識別するユーザ識別情報と上記特定されたテーブルを識別するテーブル識別情報とを対応付けて記憶する。【選択図】図4A customer visiting a restaurant is associated with a table used by the customer. An information processing system has a control unit. The control unit captures a first image captured by a first camera that is installed at the entrance of the restaurant and is capable of capturing the faces of users visiting the restaurant from almost the front, and registered data about the faces of a plurality of users stored in advance. to identify the user who has visited the store. Further, the control unit is based on a second captured image captured by a second camera installed in the restaurant and capable of capturing an image of the floor on which the tables in the restaurant are arranged, and the registration data of the specified user. Next, identify the table where the identified user has arrived. Then, the control unit associates and stores the user identification information for identifying the specified user and the table identification information for identifying the specified table. [Selection drawing] Fig. 4

Description

本発明は、飲食店に来店したユーザの認証処理を実行可能な情報処理システム、情報処理方法及びプログラムに関する。 The present invention relates to an information processing system, an information processing method, and a program capable of executing authentication processing of a user visiting a restaurant.

従来から、店舗内の混雑状況をカメラ等のセンサを用いて認識する技術が知られている。例えば下記特許文献1には、店舗内の床に目印を予め配置し、店舗内の床をCCDカメラで撮影し、撮影した画像中の床の画像部分において認識される目印の数をカウントし、カウントした目印の数を用いて店舗内の混雑度を算出することが記載されている。 Conventionally, there has been known a technique of recognizing congestion in a store using a sensor such as a camera. For example, in Patent Document 1 below, marks are placed in advance on the floor in the store, the floor in the store is photographed with a CCD camera, the number of marks recognized in the image portion of the floor in the photographed image is counted, It describes calculating the degree of congestion in the store using the counted number of marks.

特許第5354697号公報Japanese Patent No. 5354697

しかしながら、上記のような従来技術において店内に設置されているカメラは、店内を俯瞰して撮影するように設置されている場合が多いため、来店ユーザやその他の物体の存在自体は判別できるものの、それぞれのテーブルを利用するユーザを特定するには精度が足りない場合が多い。 However, in the conventional technology described above, the cameras installed in the store are often installed so as to capture a bird's-eye view of the store. Accuracy is often insufficient to identify the users of each table.

以上のような事情に鑑み、本発明の目的は、飲食店に来店したユーザと当該ユーザが利用したテーブルとを紐付けることが可能な情報処理システム、情報処理方法及びプログラムを提供することにある。 In view of the circumstances as described above, an object of the present invention is to provide an information processing system, an information processing method, and a program capable of associating a user visiting a restaurant with a table used by the user. .

上述の課題を解決するため、本発明の一形態に係る情報処理システムは、制御部を有する。当該制御部は、飲食店の入口に設置され来店したユーザの顔をほぼ正面から撮像可能な第1カメラによって撮像された第1撮像画像と、予め記憶された複数のユーザの顔に関する登録データとを基に、上記来店したユーザを特定する。また制御部は、上記飲食店内に設置され当該飲食店内のテーブルが配置されたフロアを撮像可能な第2カメラによって撮像された第2撮像画像と、上記特定されたユーザの上記登録データとを基に、上記特定されたユーザが着いたテーブルを特定する。そして制御部は、上記特定されたユーザを識別するユーザ識別情報と上記特定されたテーブルを識別するテーブル識別情報とを対応付けて記憶する。 In order to solve the above problems, an information processing system according to one aspect of the present invention has a control unit. The control unit receives a first captured image captured by a first camera that is installed at the entrance of the restaurant and is capable of capturing the faces of users visiting the restaurant from almost the front, and registered data regarding the faces of a plurality of users stored in advance. to identify the user who has visited the store. Further, the control unit is based on a second captured image captured by a second camera installed in the restaurant and capable of capturing an image of the floor on which the tables in the restaurant are arranged, and the registration data of the specified user. Next, identify the table where the identified user has arrived. Then, the control unit associates and stores the user identification information for identifying the specified user and the table identification information for identifying the specified table.

これにより情報処理システムは、認証精度の高い入口のカメラの撮像画像で来店ユーザを特定し、その特定情報を店内のカメラに引き継ぐことで、認証精度の比較的低い店内のカメラの撮像画像からでも当該ユーザを検出し当該ユーザと当該ユーザが利用したテーブルとを紐付けることができる。当該情報処理システムは1または複数の情報処理装置から構成される。 As a result, the information processing system identifies the visitor from the captured image of the camera at the entrance with high authentication accuracy, and transfers the specified information to the camera inside the store, so that even from the captured image of the camera inside the store with relatively low authentication accuracy The user can be detected and the user and the table used by the user can be linked. The information processing system is composed of one or more information processing devices.

上記制御部は、上記特定されたユーザのユーザ識別情報と、上記特定されたテーブルのPOSデータとを対応付けて記憶してもよい。 The control unit may associate and store the user identification information of the specified user and the POS data of the specified table.

これにより情報処理システムは、どのユーザが来店してどのようなメニューを注文したか、どのくらいの金額を使ったかといったユーザの属性情報を収集することができる。 As a result, the information processing system can collect user attribute information such as which user visited the store, what menu they ordered, and how much they spent.

上記制御部は、上記特定されたユーザが特定されてから退店するまでの間、上記第1撮像画像によるユーザの特定対象または上記第2撮像画像によるユーザの特定対象から上記特定されたユーザを除外してもよい。 The control unit selects the identified user from the user identification target by the first captured image or the user identification target by the second captured image from the time when the specified user is specified until the user leaves the store. may be excluded.

これにより情報処理システムは、一度特定されたユーザについてはそのユーザが退店するまでは入口のカメラによる特定処理から除外することで無駄な処理を省き負荷を軽減することができる。 As a result, the information processing system can reduce the load by omitting useless processing by excluding the identified user from identification processing by the camera at the entrance until the user leaves the store.

上記制御部は、上記第1撮像画像を基に複数のユーザが特定され、上記第2撮像画像と、当該特定された複数のユーザの上記登録データとを基に、当該複数のユーザが着いた上記テーブルをそれぞれ特定する際に、当該複数のユーザのうちいずれかのユーザの着いたテーブルが特定できた場合には、当該ユーザが退店するまでの間、上記第2撮像画像によるテーブルの特定処理の対象から当該ユーザを除外してもよい。 The control unit determines that a plurality of users are identified based on the first captured image, and that the plurality of users arrive based on the second captured image and the registration data of the identified plurality of users. When specifying each of the tables, if the table at which one of the plurality of users has arrived can be specified, the table is specified by the second captured image until the user leaves the store. The user may be excluded from the target of processing.

これにより情報処理システムは、第1撮像画像で特定されたユーザに関する第2撮像画像によるテーブル特定処理が複数ユーザ分蓄積されている場合でも、第2撮像画像からそれらの複数のユーザのうちいずれかのユーザが検出された場合にはそのユーザの登録データについてはその後の特定処理の照合対象から除外することで、無駄な処理を省き負荷を軽減することができる。 As a result, even when table identification processing by the second captured image for the user identified by the first captured image is accumulated for a plurality of users, the information processing system can select one of the plurality of users from the second captured image. is detected, the registration data of that user is excluded from the verification target of the subsequent specific processing, so that unnecessary processing can be eliminated and the load can be reduced.

具体的には上記制御部は、上記飲食店の出口に設置され退店するユーザの顔をほぼ正面から撮像可能な第3カメラによって撮像された第3撮像画像を基に上記特定されたユーザが退店したか否かを判定してもよい。 Specifically, the control unit determines whether the specified user is detected based on a third captured image captured by a third camera installed at the exit of the restaurant and capable of capturing the face of the user leaving the restaurant from substantially the front. It may be determined whether or not the customer has left the store.

またこれに代えて上記制御部は、上記特定されたユーザと対応付けられたテーブルのPOSデータを基に上記特定されたユーザが退店したか否かを判定してもよい。 Alternatively, the control unit may determine whether the specified user has left the store based on POS data in a table associated with the specified user.

上記第1カメラの撮像範囲と前記第2カメラの撮像範囲は重複しなくてもよい。 The imaging range of the first camera and the imaging range of the second camera may not overlap.

これにより情報処理システムは、第1カメラと第2カメラの撮像範囲は重複していなくても、第1撮像画像と第2撮像画像を基にした認証情報を紐付けることでユーザが利用したテーブルを特定することができる。 As a result, even if the imaging ranges of the first camera and the second camera do not overlap, the information processing system can link the authentication information based on the first captured image and the second captured image to create a table used by the user. can be specified.

上記第1カメラは、上記ユーザの顔を近距離から撮像し、上記第2カメラは、上記飲食店内を俯瞰して撮像するものであってもよい。 The first camera may capture an image of the user's face from a short distance, and the second camera may capture an image of the inside of the restaurant from a bird's-eye view.

これにより、第1カメラと第2カメラが同一の性能を備えるカメラであっても、ユーザの顔認証の精度が異なることになる。したがって第1カメラの撮像画像は第2カメラによる撮像画像を基にした顔認証処理を補助する機能を果たす。 As a result, even if the first camera and the second camera have the same performance, the user's face recognition accuracy differs. Therefore, the image captured by the first camera has a function of assisting face authentication processing based on the image captured by the second camera.

上記制御部は、上記第2撮像画像と、上記特定されたユーザの上記登録データとを照合するとともに、上記第1撮像画像に含まれる上記ユーザの顔以外の画像と、上記第2撮像画像に含まれる上記ユーザの顔以外の画像と照合することで、上記特定されたユーザが着いたテーブルを特定してもよい。 The control unit compares the second captured image with the registered data of the specified user, and compares the image other than the face of the user included in the first captured image with the second captured image. The table at which the identified user has arrived may be identified by matching with the included image other than the user's face.

これにより情報処理システムは、店内のカメラの撮像画像からユーザの顔を検出できない場合でも、ユーザの体の顔以外の部分(髪型等)やユーザの衣服、持ち物(バッグ等)からユーザを検出することが可能となる。 As a result, even if the user's face cannot be detected from the image captured by the camera in the store, the information processing system can detect the user from parts other than the user's face (hairstyle, etc.), the user's clothes, and belongings (bag, etc.). becomes possible.

上記制御部は、上記複数の第2カメラのうち、上記入口から上記テーブルの間の領域を撮像可能な第2カメラの第2撮像画像から上記特定されたユーザを検出し上記特定されたユーザが着いたテーブルを特定してもよい。 The control unit detects the specified user from a second captured image of a second camera capable of capturing an area between the table and the entrance, among the plurality of second cameras, and detects the specified user. You may specify the table you arrived at.

これにより情報処理システムは、複数の店内カメラのうち特定されたユーザが検出される可能性の高いカメラに使用を限定することで、無駄な処理を省き負荷を軽減することができる。 As a result, the information processing system can reduce the load by omitting unnecessary processing by limiting the use of cameras among the plurality of in-store cameras that are highly likely to detect the specified user.

本発明の他の形態に係る情報処理方法は、
飲食店の入口に設置され来店したユーザの顔をほぼ正面から撮像可能な第1カメラによって撮像された第1撮像画像と、予め記憶された複数のユーザの顔に関する登録データとを基に、上記来店したユーザを特定し、
上記飲食店内に設置され当該飲食店内のテーブルが配置されたフロアを撮像可能な第2カメラによって撮像された第2撮像画像と、上記特定されたユーザの上記登録データとを基に、上記特定されたユーザが着いたテーブルを特定し、
上記特定されたユーザを識別するユーザ識別情報と上記特定されたテーブルを識別するテーブル識別情報とを対応付けて記憶する、ことを含む。
An information processing method according to another aspect of the present invention comprises:
Based on the first captured image captured by a first camera installed at the entrance of the restaurant and capable of capturing the faces of the users visiting the restaurant almost from the front, and the pre-stored registration data regarding the faces of a plurality of users, the above Identify users who have visited the store,
Based on the second captured image captured by a second camera installed in the restaurant and capable of capturing the floor on which the tables in the restaurant are arranged, and the registered data of the identified user identify the table the user arrived at,
and storing the user identification information for identifying the specified user and the table identification information for identifying the specified table in association with each other.

本発明の他の形態に係るプログラムは、情報処理装置に、
飲食店の入口に設置され来店したユーザの顔をほぼ正面から撮像可能な第1カメラによって撮像された第1撮像画像と、予め記憶された複数のユーザの顔に関する登録データとを基に、上記来店したユーザを特定するステップと、
上記飲食店内に設置され当該飲食店内のテーブルが配置されたフロアを撮像可能な第2カメラによって撮像された第2撮像画像と、上記特定されたユーザの上記登録データとを基に、上記特定されたユーザが着いたテーブルを特定するステップと、
上記特定されたユーザを識別するユーザ識別情報と上記特定されたテーブルを識別するテーブル識別情報とを対応付けて記憶するステップと、を実行させる。
A program according to another aspect of the present invention is provided in an information processing device,
Based on the first captured image captured by a first camera installed at the entrance of the restaurant and capable of capturing the faces of the users visiting the restaurant almost from the front, and the pre-stored registration data regarding the faces of a plurality of users, the above identifying a user who has visited the store;
Based on the second captured image captured by a second camera installed in the restaurant and capable of capturing the floor on which the tables in the restaurant are arranged, and the registered data of the identified user identifying the table at which the user has landed;
a step of correlating and storing user identification information for identifying the identified user and table identification information for identifying the identified table.

以上説明したように、本発明によれば、飲食店に来店した客と当該客が利用したテーブルとを紐付けることができる。しかし、当該効果は本発明を限定するものではない。 As described above, according to the present invention, it is possible to associate a customer visiting a restaurant with a table used by the customer. However, this effect does not limit the invention.

本発明の一実施形態に係る飲食店情報提供システムの構成を示した図である。It is a figure showing composition of a restaurant information offer system concerning one embodiment of the present invention. 本発明の一実施形態に係る飲食店情報提供サーバのハードウェア構成を示した図である。It is a figure showing hardware constitutions of a restaurant information offer server concerning one embodiment of the present invention. 本発明の一実施形態に係る飲食店情報提供サーバが有するデータベースの構成を示した図である。4 is a diagram showing the structure of a database of a restaurant information providing server according to one embodiment of the present invention; FIG. 本発明の一実施形態に係る飲食店情報提供サーバによる、ユーザ・テーブル紐付け処理の流れを示したフローチャートである。10 is a flow chart showing the flow of user-table linking processing by the restaurant information providing server according to one embodiment of the present invention.

以下、図面を参照しながら、本発明の実施形態を説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.

[システムの構成]
図1は、本実施形態に係る飲食店情報提供システムの構成を示した図である。
[System configuration]
FIG. 1 is a diagram showing the configuration of a restaurant information providing system according to this embodiment.

同図に示すように、このシステムは、インターネット50上の飲食店情報提供サーバ100と、複数のユーザ端末200と、飲食店端末300とを含む。 As shown in the figure, this system includes a restaurant information providing server 100 on the Internet 50 , a plurality of user terminals 200 and a restaurant terminal 300 .

飲食店情報提供サーバ100は、飲食店に関する情報を掲載したポータルサイト(飲食店情報提供サイト)を運営するウェブサーバである。飲食店情報提供サーバ100は、複数のユーザ端末200、飲食店の飲食店端末300及びデジタルサイネージ端末400とインターネット50を介して接続されている。 The restaurant information providing server 100 is a web server that operates a portal site (restaurant information providing site) on which information on restaurants is posted. The restaurant information providing server 100 is connected to a plurality of user terminals 200 , restaurant terminals 300 of restaurants, and digital signage terminals 400 via the Internet 50 .

飲食店情報提供サーバ100は、上記ポータルサイトにおいて、ユーザ端末200のユーザ向けに飲食店情報提供システムを提供する。具体的には、飲食店情報提供サーバ100は、ユーザ端末200からの検索要求に基づいて検索条件に合致する飲食店情報を検索し、検索結果を掲載したウェブページを生成してユーザ端末200へ送信する。また飲食店情報提供サーバ100は、当該飲食店情報を閲覧したユーザのユーザ端末200からの、いずれかの飲食店に対する予約受付処理を代行する。 The restaurant information providing server 100 provides a restaurant information providing system for users of the user terminals 200 on the portal site. Specifically, the restaurant information providing server 100 searches for restaurant information that matches the search conditions based on a search request from the user terminal 200, generates a web page on which the search results are posted, and sends it to the user terminal 200. Send. Also, the restaurant information providing server 100 acts as a proxy for accepting reservations for any restaurant from the user terminal 200 of the user who browses the restaurant information.

ユーザ端末200(200A,200B,200C...)は、ユーザにより使用される端末であり、例えばスマートフォン、携帯電話、タブレットPC(Personal Computer)、ノートブックPC、デスクトップPC等である。ユーザ端末200は、飲食店情報提供サーバ100へアクセスし、上記ウェブページを受信してブラウザ等により画面に表示する。 User terminals 200 (200A, 200B, 200C, . . . ) are terminals used by users, such as smartphones, mobile phones, tablet PCs (Personal Computers), notebook PCs, desktop PCs, and the like. The user terminal 200 accesses the restaurant information providing server 100, receives the web page, and displays it on the screen using a browser or the like.

ユーザ端末200は、ユーザの操作に基づいて飲食店の検索条件を決定し、当該検索条件に基づく飲食店検索要求を飲食店情報提供サーバ100へ送信する。そしてユーザ端末200は、ユーザの操作に基づいて、上記検索結果として表示されたいずれかの飲食店に対する予約要求を飲食店情報提供サーバ100へ送信可能である。 The user terminal 200 determines search conditions for restaurants based on the user's operation, and transmits a restaurant search request based on the search conditions to the restaurant information providing server 100 . Then, the user terminal 200 can transmit a reservation request for one of the restaurants displayed as the search results to the restaurant information providing server 100 based on the user's operation.

また一方で飲食店情報提供サーバ100は、上記ポータルサイトに掲載される飲食店(加盟店)向けに、飲食店情報の管理画面(ウェブページ)を提供している。飲食店端末300のユーザは、当該管理画面を介して、上記検索結果として一般ユーザに提供されるウェブページ上の飲食店情報(コンテンツ)を編集・更新し、当該ウェブページを上記ポータルサイト上にアップロードすることができる。 On the other hand, the restaurant information providing server 100 provides restaurant information management screens (web pages) for restaurants (affiliated restaurants) posted on the portal site. The user of the restaurant terminal 300 edits and updates the restaurant information (contents) on the web page provided to general users as the search result via the management screen, and uploads the web page to the portal site. can be uploaded.

飲食店端末300は、各飲食店に設置されている端末であり、タブレットPC、ノートブックPC、デスクトップPC等である。飲食店端末300は、管理者の操作に基づいて、上記飲食店情報の編集・更新等、自身の飲食店情報に関する処理を飲食店情報提供サーバ100との通信により実行することが可能である。同図では1つの飲食店及び1つの飲食店端末300のみが示されているが、飲食店は複数存在し、各飲食店に飲食店端末300が存在する。 The restaurant terminal 300 is a terminal installed in each restaurant, and is a tablet PC, a notebook PC, a desktop PC, or the like. The restaurant terminal 300 can execute processing related to its own restaurant information, such as editing and updating of the restaurant information, through communication with the restaurant information providing server 100 based on the operation of the administrator. Although only one restaurant and one restaurant terminal 300 are shown in the figure, there are a plurality of restaurants, and each restaurant has a restaurant terminal 300 .

また同図に示すように、飲食店の入口には入口カメラ(第1カメラ)Cdが設置され、飲食店内には店内カメラ(第2カメラ)Ciが設置されている。入口カメラCdは、飲食店の入口に設置され、来店したユーザの顔をほぼ正面から撮像可能である。店内カメラCiは、飲食店内に1台または複数設置され、当該飲食店内のテーブルTが配置されたフロアを広角で撮像可能である。店内カメラCiは、飲食店内の天井や壁の上部に設置されることで、飲食店内を俯瞰するように複数のテーブルTをまとめて撮像する。本実施形態では、店内カメラCiの撮像画像に入口カメラCdの撮像する範囲が含まれていることを想定する。しかし、本発明では、入口カメラCdおよび店内カメラCiの撮像画像がそれぞれ重なり合っていなくてもよい。各テーブルTの例えば上面端部には、それらの識別用の番号その他の文字や記号が例えばパネルや刻印により付加されていてもよい。入口カメラCdは、ユーザの顔を近距離から撮像し、店内カメラCiは、ユーザの顔を遠距離から撮像するため、同一の性能を備えるカメラであっても、ユーザの顔認証の精度が異なる。 As shown in the figure, an entrance camera (first camera) Cd is installed at the entrance of the restaurant, and an in-store camera (second camera) Ci is installed inside the restaurant. The entrance camera Cd is installed at the entrance of the restaurant, and can image the face of the user visiting the restaurant almost from the front. One or a plurality of in-store cameras Ci are installed in the restaurant, and can take a wide-angle image of the floor on which the tables T are arranged in the restaurant. The in-store camera Ci is installed on the ceiling or the upper part of the wall inside the restaurant, and collectively images a plurality of tables T so as to overlook the inside of the restaurant. In this embodiment, it is assumed that the image captured by the in-store camera Ci includes the range captured by the entrance camera Cd. However, in the present invention, the captured images of the entrance camera Cd and the in-store camera Ci do not have to overlap each other. Each table T may have, for example, an identification number or other characters or symbols attached to it, for example, by means of a panel or engraving. The entrance camera Cd captures the user's face from a short distance, and the in-store camera Ci captures the user's face from a long distance. Therefore, even if the cameras have the same performance, the accuracy of the user's face authentication differs. .

入口カメラCd及び店内カメラCiの撮像画像は、例えば店内に設置された無線中継端末Wを介して飲食店端末300へ送信され、当該飲食店端末300から飲食店情報提供サーバ100に送信される。または、当該撮像画像は飲食店端末300を介さずに飲食店情報提供サーバ100へ送信されてもよい。 Images captured by the entrance camera Cd and the in-store camera Ci are transmitted to the restaurant terminal 300 via, for example, a wireless relay terminal W installed in the store, and then transmitted from the restaurant terminal 300 to the restaurant information providing server 100 . Alternatively, the captured image may be transmitted to the restaurant information providing server 100 without going through the restaurant terminal 300 .

同図では飲食店は1つのみ示されているが、飲食店は複数存在しそれぞれに飲食店端末300、入口カメラCd及び店内カメラCiが設けられていてもよい。 Although only one restaurant is shown in the figure, there may be a plurality of restaurants, each of which is provided with the restaurant terminal 300, the entrance camera Cd, and the in-store camera Ci.

飲食店情報提供サーバ100は、入口カメラCdの撮像画像(第1撮像画像)を受信すると、それを予め記憶された複数のユーザの顔に関する登録データ(特徴データ)と照合することで、飲食店に来店したユーザを特定する。さらに飲食店情報提供サーバ100は、店内カメラCiの撮像画像(第2撮像画像)を受信すると、当該撮像画像と上記特定されたユーザの登録データとを照合することで、当該ユーザが着いたテーブルTを特定する。そして飲食店情報提供サーバ100は、特定されたユーザを識別するユーザ識別情報(ユーザID)と、特定されたテーブルTを識別するテーブル識別情報(テーブルID)とを対応付けて記憶する。さらに飲食店情報提供サーバ100は、上記特定されたユーザのユーザ識別情報と、上記特定されたテーブルTのPOSデータとを対応付けて記憶する。当該ユーザ・テーブル紐付け処理の詳細については後述する。 When the restaurant information providing server 100 receives the captured image (first captured image) of the entrance camera Cd, it compares it with registered data (feature data) relating to the faces of a plurality of users stored in advance, thereby identifying the restaurant. Identify users who have visited the store. Further, when the restaurant information providing server 100 receives the captured image (second captured image) of the in-store camera Ci, it compares the captured image with the registered data of the specified user to obtain the table where the user has arrived. Identify T. The restaurant information providing server 100 stores the user identification information (user ID) identifying the specified user and the table identification information (table ID) identifying the specified table T in association with each other. Furthermore, the restaurant information providing server 100 stores the user identification information of the specified user and the POS data of the specified table T in association with each other. The details of the user-table linking process will be described later.

[飲食店情報提供サーバのハードウェア構成]
図2は、上記飲食店情報提供サーバ100のハードウェア構成を示した図である。同図に示すように、飲食店情報提供サーバ100は、CPU(Central Processing Unit)11、ROM(Read Only Memory)12、RAM(Random Access Memory)13、入出力インタフェース15、及び、これらを互いに接続するバス14を備える。
[Hardware configuration of restaurant information providing server]
FIG. 2 is a diagram showing the hardware configuration of the restaurant information providing server 100. As shown in FIG. As shown in the figure, the restaurant information providing server 100 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, a RAM (Random Access Memory) 13, an input/output interface 15, and these are connected to each other. A bus 14 is provided.

CPU11は、必要に応じてRAM13等に適宜アクセスし、各種演算処理を行いながら飲食店情報提供サーバ100の各ブロック全体を統括的に制御する。ROM12は、CPU11に実行させるOS、プログラムや各種パラメータ等のファームウェアが固定的に記憶されている不揮発性のメモリである。RAM13は、CPU11の作業用領域等として用いられ、OS、実行中の各種アプリケーション、処理中の各種データを一時的に保持する。 The CPU 11 appropriately accesses the RAM 13 or the like as necessary, and performs overall control of each block of the restaurant information providing server 100 while performing various kinds of arithmetic processing. The ROM 12 is a non-volatile memory that permanently stores firmware such as an OS, programs, and various parameters to be executed by the CPU 11 . The RAM 13 is used as a work area for the CPU 11, and temporarily holds the OS, various applications being executed, and various data being processed.

入出力インタフェース15には、表示部16、操作受付部17、記憶部18、通信部19等が接続される。 The input/output interface 15 is connected to a display unit 16, an operation reception unit 17, a storage unit 18, a communication unit 19, and the like.

表示部16は、例えばLCD(Liquid Crystal Display)、OELD(Organic ElectroLuminescence Display)、CRT(Cathode Ray Tube)等を用いた表示デバイスである。 The display unit 16 is a display device using, for example, an LCD (Liquid Crystal Display), an OELD (Organic ElectroLuminescence Display), a CRT (Cathode Ray Tube), or the like.

操作受付部17は、例えばマウス等のポインティングデバイス、キーボード、タッチパネル、その他の入力装置である。操作受付部17がタッチパネルである場合、そのタッチパネルは表示部16と一体となり得る。 The operation reception unit 17 is, for example, a pointing device such as a mouse, a keyboard, a touch panel, or other input devices. When the operation reception unit 17 is a touch panel, the touch panel can be integrated with the display unit 16 .

記憶部18は、例えばHDD(Hard Disk Drive)や、フラッシュメモリ(SSD;Solid State Drive)、その他の固体メモリ等の不揮発性メモリである。当該記憶部18には、上記OSや各種アプリケーション、各種データが記憶される。 The storage unit 18 is, for example, a non-volatile memory such as an HDD (Hard Disk Drive), a flash memory (SSD; Solid State Drive), or other solid state memory. The storage unit 18 stores the OS, various applications, and various data.

後述するが、特に本実施形態において、記憶部18は、後述する飲食店の混雑状況及び予約状況に基づくユーザ・テーブル紐付け処理に必要なアプリケーション等のプログラムの他、飲食店情報データベース、ユーザ情報データベース、及び来店履歴情報データベースを有している。 As will be described later, particularly in this embodiment, the storage unit 18 stores programs such as applications necessary for user-table linking processing based on the congestion situation and reservation status of restaurants, which will be described later, as well as a restaurant information database and user information. It has a database and a visit history information database.

通信部19は、例えばEthernet用のNIC(Network Interface Card)や無線LAN等の無線通信用の各種モジュールであり、上記ユーザ端末200、飲食店端末300及びデジタルサイネージ端末400との間の通信処理を担う。 The communication unit 19 is, for example, a NIC (Network Interface Card) for Ethernet, various modules for wireless communication such as a wireless LAN, and performs communication processing between the user terminal 200, the restaurant terminal 300, and the digital signage terminal 400. bear.

なお、図示しないが、ユーザ端末200及び飲食店端末300の基本的なハードウェア構成も上記飲食店情報提供サーバ100のハードウェア構成と略同様である。 Although not shown, the basic hardware configurations of the user terminal 200 and the restaurant terminal 300 are substantially the same as the hardware configuration of the restaurant information providing server 100 .

[飲食店情報提供サーバのデータベース構成]
図3は、上記飲食店情報提供サーバ100が有するデータベースの構成を示した図である。
[Database configuration of restaurant information providing server]
FIG. 3 is a diagram showing the structure of the database of the restaurant information providing server 100. As shown in FIG.

同図に示すように、飲食店情報提供サーバ100は、記憶部18に、飲食店情報データベース31、ユーザ情報データベース32、来店履歴情報データベース33を有している。 As shown in the figure, the restaurant information providing server 100 has a restaurant information database 31 , a user information database 32 and a visit history information database 33 in the storage unit 18 .

飲食店情報データベース31は、飲食店毎に、その飲食店の店名、所在位置(住所または緯度経度)情報、エリア情報、アクセス情報(最寄り駅情報、最寄り駅からの徒歩距離情報)電話番号、その飲食店を識別するID(店舗ID)、その飲食店の業態・サービスのカテゴリ情報、その飲食店を紹介する情報(店舗のPR文等の店舗の特徴を示す情報、飲食店が行うイベント情報等)、飲食店に関する(飲食店を紹介する)画像データ、飲食店が提供するメニューに関するメニュー情報、平均予算情報、営業時間、ウェブサイトURL等の情報等を記憶している。これらの情報は、各飲食店の飲食店端末300から、飲食店情報提供サーバ100が提供する管理画面を介して入力されたものである。また飲食店情報データベース31には、各飲食店における予約台帳情報が記憶されている。 The restaurant information database 31 stores, for each restaurant, the name of the restaurant, location (address or latitude and longitude) information, area information, access information (nearest station information, walking distance information from the nearest station), telephone number, ID that identifies the restaurant (store ID), category information of the restaurant's business type and service, information introducing the restaurant (information indicating the characteristics of the restaurant such as PR text of the restaurant, event information held by the restaurant, etc.) ), image data relating to restaurants (introducing restaurants), menu information relating to menus provided by restaurants, average budget information, business hours, website URLs, and other information. These pieces of information are input from the restaurant terminal 300 of each restaurant through the management screen provided by the restaurant information providing server 100 . The restaurant information database 31 also stores reservation ledger information for each restaurant.

上記メニュー情報は、上記ポータルサイト上の各飲食店のサイトに掲載されるメニューに対応する情報であり、各飲食店が提供可能な複数のメニューのメニュー名を、飲食店毎に記憶している。当該メニュー情報は、例えば前菜/メイン、ランチ/ディナー/コース等のメニューカテゴリ毎に記憶されてもよい。またメニュー情報としては、メニュー名や値段、説明等を示す文字情報の他、当該メニューを撮影した写真等の画像情報も対応付けて記憶される。 The menu information is information corresponding to the menu posted on the site of each restaurant on the portal site, and stores the menu names of a plurality of menus that each restaurant can provide for each restaurant. . The menu information may be stored for each menu category such as appetizer/main dish and lunch/dinner/course. As the menu information, in addition to character information indicating menu names, prices, explanations, etc., image information such as photographs taken of the menu is also stored in association with the menu information.

上記エリア情報としては、広さ単位の異なる複数のエリアに関する情報が含まれる。広いエリアとしては例えば都道府県や市区町村、狭いエリアとしては例えば駅から数百m以内(例えば、「銀座エリア」)、それらの間の広さのエリアとして、例えば駅から1km以内のエリアや、複数の駅周辺エリアがまとまったエリア(例えば、「銀座・新橋・有楽町エリア」)等が挙げられるが、これらに限られない。これにより、同じ飲食店でも、その広さによって複数のエリアに紐付けられていることになる。 The area information includes information on a plurality of areas with different size units. A wide area is, for example, a prefecture or municipality, a narrow area is, for example, within several hundred meters from a station (for example, the "Ginza area"), and an area between them is, for example, an area within 1 km from a station. , an area where a plurality of station surrounding areas are grouped together (for example, “Ginza/Shimbashi/Yurakucho area”), etc., but not limited to these. As a result, even the same restaurant is linked to multiple areas depending on its size.

また、当該エリア(例えば複数のエリアのうち最も狭いエリア)には、当該エリアに設置される上記デジタルサイネージ端末400に関する情報(端末ID等)が対応付けられており、当該エリアを介してデジタルサイネージ端末400と各飲食店は対応付けられることになる。しかし、エリア情報とは別に、デジタルサイネージ端末400の端末IDと飲食店の店舗IDが直接対応付けられてもよい。 Further, information (terminal ID, etc.) related to the digital signage terminal 400 installed in the area is associated with the area (for example, the narrowest area among a plurality of areas), and the digital signage is connected via the area. The terminal 400 and each restaurant are associated with each other. However, apart from the area information, the terminal ID of the digital signage terminal 400 and the store ID of the restaurant may be directly associated.

上記カテゴリ情報は、例えば和食、中華、イタリアン、フレンチ、焼肉等のメインカテゴリの他、和食における焼き鳥・天ぷら等、イタリアンにおけるパスタ・ピザ等のより詳細なサブカテゴリを含んでいてもよい。 The category information may include, for example, main categories such as Japanese food, Chinese food, Italian food, French food, and yakiniku meat, and more detailed sub-categories such as yakitori/tempura in Japanese food and pasta/pizza in Italian food.

上記予約台帳情報は、上記飲食店情報提供サイトを介してユーザ端末200から(または電話にて)受け付けた予約情報であり、例えば、各飲食店について、予約日時、予約ユーザ名、予約人数、予約テーブル、予約コース等の情報を有している。当該予約台帳情報としては、これから来客するユーザの予約情報のみならず、過去の予約実績情報も少なくとも数カ月分程度は記憶されている。当該予約台帳情報には上記飲食店端末300からもアクセス可能である。 The reservation ledger information is reservation information received from the user terminal 200 (or by telephone) via the restaurant information providing site. It has information such as tables and reserved courses. As the reservation ledger information, not only the reservation information of the user who will visit the customer but also the past reservation record information for at least several months are stored. The reservation ledger information can also be accessed from the restaurant terminal 300 .

ユーザ情報データベース32は、ユーザ端末200を所有する、上記飲食店情報提供サーバ100が提供する上記ポータルサイトを介した飲食店情報サービスの利用者(会員)であるユーザに関する情報を記憶する。具体的には、ユーザ情報データベース32は、ユーザID、パスワード、氏名、メールアドレス(その他のメッセージの宛先となる情報)、電話番号、住所、年齢(層)、性別、誕生日等の情報をユーザ毎に記憶している。 The user information database 32 stores information about users who own the user terminals 200 and are users (members) of the restaurant information service through the portal site provided by the restaurant information providing server 100 . Specifically, the user information database 32 stores information such as a user ID, password, name, e-mail address (other message destination information), telephone number, address, age (group), gender, birthday, etc. I remember each time.

さらにユーザ情報データベース32は、ユーザから入手できたもの(ユーザから提供があったもの)について、各ユーザの顔画像データ及び当該顔画像データを分析して得られた、顔認証用の特徴データ(登録データ)を記憶している。これに加えて、マスクを装着した状態の顔画像データやユーザの髪型に関するデータが記憶されていてもよい。 Furthermore, the user information database 32 stores face image data of each user and feature data for face authentication ( registration data). In addition to this, face image data with the mask on and data on the hairstyle of the user may be stored.

来店履歴情報データベース33は、飲食店に来店し上記入口カメラCdの撮像画像及び店内カメラCiの撮像画像を基に特定されたユーザ及び当該ユーザが着いたテーブルTにおける注文情報(POSデータ)に関する来店履歴情報を記憶している。具体的には、来店履歴情報データベース33は、飲食店ごとに、来店日時(時間帯)、ユーザID、テーブルID、POSデータ(例えば利用金額、注文メニュー、特典利用状況に関する情報等)、滞在時間、来店頻度等のデータを対応付けて記憶している。 The store visit history information database 33 stores information about users who have visited restaurants and are identified based on the image captured by the entrance camera Cd and the image captured by the in-store camera Ci, and the order information (POS data) on the table T at which the user has arrived. Stores historical information. Specifically, the store visit history information database 33 includes, for each restaurant, visit date and time (time zone), user ID, table ID, POS data (for example, usage amount, order menu, information on privilege usage status, etc.), stay time, and so on. , frequency of visits, etc. are associated with each other and stored.

これら各データベースは、後述する飲食店情報提供サーバ100によるユーザ・テーブル紐付け処理において、必要に応じて相互に参照されて用いられる。 These databases are mutually referenced and used as necessary in the user-table linking process by the restaurant information providing server 100, which will be described later.

[飲食店情報提供サーバの動作]
次に、以上のように構成された飲食店情報提供サーバ100の動作について説明する。当該動作は、飲食店情報提供サーバ100のCPU11及び通信部19等のハードウェアと、記憶部18に記憶されたソフトウェアとの協働により実行される。以下の説明では、便宜上、CPU11を動作主体とする。
[Operation of restaurant information providing server]
Next, the operation of the restaurant information providing server 100 configured as above will be described. The operation is executed by cooperation between hardware such as the CPU 11 and the communication unit 19 of the restaurant information providing server 100 and software stored in the storage unit 18 . In the following description, for convenience, the CPU 11 is assumed to be the operating entity.

図4は、飲食店情報提供サーバ100による、ユーザ・テーブル紐付け処理の流れを示したフローチャートである。 FIG. 4 is a flow chart showing the flow of user-table linking processing by the restaurant information providing server 100 .

同図に示すように、飲食店情報提供サーバ100のCPU11は、まず、入口カメラCdからその撮像画像を受信する(ステップ41)。 As shown in the figure, the CPU 11 of the restaurant information providing server 100 first receives the captured image from the entrance camera Cd (step 41).

続いてCPU11は、当該入口カメラCdの撮像画像中から人物の顔を検出したか否かを判断する(ステップ42)。 Subsequently, the CPU 11 determines whether or not a person's face has been detected in the image captured by the entrance camera Cd (step 42).

撮像画像中から顔を検出していないと判断した場合(ステップ42のNo)、CPU11は、上記ステップ41に戻り入口カメラCdから新たな撮像画像を受信する。 If it is determined that no face has been detected in the captured image (No in step 42), the CPU 11 returns to step 41 to receive a new captured image from the entrance camera Cd.

撮像画像中から顔を検出したと判断した場合(ステップ42のYes)、CPU11は、撮像画像中の顔の領域を、上記ユーザ情報データベース32に登録されている登録データ(各ユーザの顔画像の特徴データ)と照合する(ステップ43)。 If it is determined that a face has been detected in the captured image (Yes in step 42), the CPU 11 extracts the face area in the captured image from the registration data registered in the user information database 32 (face image of each user). feature data) (step 43).

続いてCPU11は、上記照合により上記撮像画像中のユーザを特定できたか否かを判断する(ステップ44)。 Subsequently, the CPU 11 determines whether or not the user in the captured image has been specified by the collation (step 44).

上記撮像画像中のユーザを特定できなかったと判断した場合(ステップ44のNo)、CPU11は、当該ユーザ・テーブル紐付け処理を終了する。この場合CPU11は、顔画像が登録されていないユーザが来店したことを記録してもよい。 When determining that the user in the captured image could not be specified (No in step 44), the CPU 11 terminates the user/table linking process. In this case, the CPU 11 may record that a user whose face image is not registered has visited the store.

上記撮像画像中のユーザを特定できたと判断した場合(ステップ44のYes)、CPU11は、特定したユーザのユーザIDを上記来店履歴情報データベース33に記憶するとともに、上記入口カメラCdの撮像画像による認証対象から、当該ユーザIDのユーザを除外する(ステップ45)。すなわちCPU11は、これ以降の入口カメラCdの撮像画像と複数のユーザの顔画像に関する登録データとを照合する際に、登録データから上記特定済みのユーザの登録データを除外する。これにより特定済みのユーザの顔画像を照合する無駄な処理が省略され負荷が軽減される。 If it is determined that the user in the captured image has been identified (Yes in step 44), the CPU 11 stores the user ID of the identified user in the store visit history information database 33, and authenticates the user based on the captured image of the entrance camera Cd. The user with the user ID is excluded from the targets (step 45). That is, the CPU 11 excludes the registration data of the specified user from the registration data when matching the captured image of the entrance camera Cd with the registration data regarding the face images of the plurality of users. As a result, wasteful processing for matching the specified user's face image is omitted, and the load is reduced.

続いてCPU11は、上記複数の店内カメラCiからそれらの撮像画像を受信する(ステップ46)。 Subsequently, the CPU 11 receives the captured images from the plurality of in-store cameras Ci (step 46).

続いてCPU11は、店内カメラCiの撮像画像中の顔領域を、上記特定したユーザの登録データと照合する(ステップ47)。 Subsequently, the CPU 11 collates the face area in the captured image of the in-store camera Ci with the registered data of the identified user (step 47).

続いてCPU11は、上記照合により上記特定したユーザが店内カメラCiの撮像画像中から検出できたか否かを判断する(ステップ48)。 Subsequently, the CPU 11 determines whether or not the specified user can be detected from the image captured by the in-store camera Ci (step 48).

店内カメラCiの撮像画像中から、特定したユーザを検出できなかったと判断した場合(ステップ48のNo)、CPU11は、上記ステップ46に戻り店内カメラCiから新たな撮像画像を受信する。 If it is determined that the specified user could not be detected from the image captured by the in-store camera Ci (No in step 48), the CPU 11 returns to step 46 and receives a new image captured by the in-store camera Ci.

店内カメラCiの撮像画像中から、特定したユーザを検出できたと判断した場合(ステップ48のYes)、CPU11は、当該ユーザが着いている(または着こうとしている)テーブルTを特定する(ステップ49)。具体的にはCPU11は、各テーブルTに付された、各テーブルを識別する番号や文字のうち、検出されたユーザが着いている(または着こうとしている)テーブルTの番号や文字を撮像画像中から認識することで当該テーブルTを特定する。あるいはCPU11は、予め各店内カメラCiの画角に収まるテーブルTの撮像画像中の位置に応じて撮像画像中の各テーブルTを特定する情報を記憶しておき、撮像画像中のユーザが検出された位置を基にテーブルTを特定してもよい。 When it is determined that the specified user has been detected from the image captured by the in-store camera Ci (Yes in step 48), the CPU 11 specifies the table T where the user has arrived (or is about to arrive) (step 49). ). Specifically, the CPU 11 selects the number and characters of the table T at which the detected user is arriving (or about to arrive) from among the numbers and characters attached to each table T for identifying each table. The table T is specified by recognizing it from inside. Alternatively, the CPU 11 stores in advance information specifying each table T in the captured image according to the position in the captured image of the table T within the angle of view of each in-store camera Ci, and the user in the captured image is detected. The table T may be specified based on the position obtained.

当該テーブルTの特定処理に際しては、ユーザが出入口から最終的に着くテーブルTまでの途中に存在するテーブルTの近傍を単に通り過ぎた場合に誤ってその通過したテーブルTがユーザが着いたテーブルTと特定されてしまうのを防ぐために、CPU11は、検出されたユーザが所定時間(例えば5秒、10秒等)以上同一の場所に留まっていることをテーブルTの特定処理の条件としてもよい。 In the process of specifying the table T, when the user simply passes by the vicinity of the table T existing on the way from the entrance to the table T at which the user finally arrives, the table T that the user has passed is the table T at which the user has arrived. In order to prevent the user from being identified, the CPU 11 may set a condition for the identification processing of the table T that the detected user remains in the same place for a predetermined time (eg, 5 seconds, 10 seconds, etc.).

続いてCPU11は、上記特定したユーザのユーザIDと特定したテーブルTのテーブルID、及びそのテーブルTのPOSデータを対応付けて上記来店履歴情報データベース33に記憶する(ステップ50)。CPU11は、当該記憶処理を、ユーザから当該テーブルTで最初の注文がなされたことをトリガに開始してもよい。POSデータはユーザから注文があるたびに更新される。ここで、ユーザID及びテーブルIDとPOSデータとの紐付け処理は必須ではなく省略されてもよい。すなわちCPU11は、少なくとも特定したユーザのユーザIDと当該ユーザが着いたテーブルTのテーブルIDとの紐付け処理を実行すればよい。 Subsequently, the CPU 11 associates the user ID of the specified user, the table ID of the specified table T, and the POS data of the table T, and stores them in the visit history information database 33 (step 50). The CPU 11 may start the memory processing when the user places the first order in the table T as a trigger. POS data is updated each time an order is placed by a user. Here, the process of associating the user ID and table ID with the POS data is not essential and may be omitted. In other words, the CPU 11 may at least execute the process of associating the user ID of the specified user with the table ID of the table T at which the user has arrived.

続いてCPU11は、上記特定したユーザが退店したか否かを判定する(ステップ51)。具体的にはCPU11は、飲食店の出口に設置され退店するユーザの顔をほぼ正面から撮像可能な出口カメラ(第3カメラ;図示せず)によって撮像された撮像画像(第3撮像画像)において上記ユーザが検出された場合に、当該ユーザが退店したと判定してもよい。また当該出口カメラは上記入口カメラCdと兼用であってもよい。またこれに代えてCPU11は、上記特定されたユーザと対応付けられたテーブルTのPOSデータにおいて会計が完了していると判定した場合に上記ユーザが退店したと判定してもよい。 Subsequently, the CPU 11 determines whether or not the specified user has left the store (step 51). Specifically, the CPU 11 captures a captured image (third captured image) by an exit camera (third camera; not shown) that is installed at the exit of the restaurant and is capable of capturing the face of the user leaving the restaurant substantially from the front. When the user is detected in , it may be determined that the user has left the store. The exit camera may also be used as the entrance camera Cd. Alternatively, the CPU 11 may determine that the user has left the store when it determines that the payment is completed in the POS data of the table T associated with the specified user.

上記ユーザが退店したと判定した場合(ステップ51のYes)、CPU11は、当該退店したユーザを上記入口カメラCdの撮像画像による認証対象に再び含める(ステップ52)。すなわちCPU11は、これ以降の入口カメラCdの撮像画像と複数のユーザの顔画像に関する登録データとを照合する際に、登録データに上記退店したユーザの登録データを加える。ユーザが退店していないと判定した場合(ステップ51のNo)、退店したか否かの判定を繰り返す。 When it is determined that the user has left the store (Yes in step 51), the CPU 11 includes the user who has left the store again in the authentication target by the captured image of the entrance camera Cd (step 52). That is, the CPU 11 adds the registration data of the user who has left the store to the registration data when matching the image captured by the entrance camera Cd with the registration data regarding the face images of the plurality of users. If it is determined that the user has not left the store (No in step 51), the determination of whether or not the user has left the store is repeated.

CPU11は、以上の処理を、入口カメラCdの撮像画像から(新たな)顔を検出するたびに繰り返す。 The CPU 11 repeats the above processing each time a (new) face is detected from the image captured by the entrance camera Cd.

[まとめ]
以上説明したように、本実施形態によれば、飲食店情報提供サーバ100は、認証精度の高い入口カメラCdの撮像画像を基に来店ユーザを特定し、その特定情報を店内カメラCiに引き継ぐことで、設置位置等の関係で単独でユーザを特定するには認証精度の低い店内のカメラCiの撮像画像からでも当該ユーザを検出し、当該ユーザが利用したテーブルTを特定して両者を紐付けることができる。また、本実施形態によれば、飲食店情報提供サーバ100は、入口カメラCdおよび店内カメラCiの撮像画像がそれぞれ重なり合っていなくても、それぞれのカメラの認証情報を紐付けることでユーザが利用したテーブルTを特定することができる。これにより、当該テーブルTに対応するPOSデータとユーザとを紐付けることが可能となり、飲食店は、どのユーザが来店してどのようなメニューを注文したか、どのくらいの金額を使ったかといったユーザの属性情報を収集し、それを基に販売促進活動や商品/システム開発等を行うことができる。
[summary]
As described above, according to the present embodiment, the restaurant information providing server 100 identifies the user based on the captured image of the entrance camera Cd with high authentication accuracy, and transfers the identified information to the in-store camera Ci. Therefore, in order to identify the user alone in relation to the installation position, etc., the user is detected even from the captured image of the camera Ci in the store with low authentication accuracy, the table T used by the user is identified, and both are linked. be able to. Further, according to the present embodiment, the restaurant information providing server 100 links the authentication information of each camera, even if the captured images of the entrance camera Cd and the in-store camera Ci do not overlap each other. A table T can be specified. As a result, it is possible to link the POS data corresponding to the table T with the user, and the restaurant can provide information such as which user visited the store, what kind of menu they ordered, and how much money they spent. Attribute information can be collected and used for sales promotion activities and product/system development.

[変形例]
本発明は上述の実施形態にのみ限定されるものではなく、本開示の要旨を逸脱しない範囲内において種々変更され得る。
[Modification]
The present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the gist of the present disclosure.

上述の実施形態において、飲食店情報提供サーバ100は、ユーザが特定されてから退店するまでの間、入口カメラCdの撮像画像によるユーザの特定対象から上記特定されたユーザを除外していた。これに加えて、または代えて、飲食店情報提供サーバ100は、上記特定されたユーザが退店してから、当該ユーザの来店日における飲食店の営業終了までの間、入口カメラCdの撮像画像によるユーザの特定対象から上記特定されたユーザを除外してもよい。これにより飲食店情報提供サーバ100は、一度来店したユーザは通常は退店後再び当日中に来店することは無いため、当該ユーザについてはその日の営業終了までの間は入口カメラCdによる特定処理から除外することで、無駄な処理を省き負荷を軽減することができる。 In the above-described embodiment, the restaurant information providing server 100 excludes the specified user from the user specified by the image captured by the entrance camera Cd from the time the user is specified until the time the user leaves the restaurant. In addition to or instead of this, the restaurant information providing server 100 displays images captured by the entrance camera Cd from the time the specified user leaves the restaurant until the restaurant closes on the day the user visits the restaurant. The specified user may be excluded from the user specified by. As a result, the restaurant information providing server 100 prevents the user from specifying processing by the entrance camera Cd until the end of the day's business, because the user who has visited the restaurant once does not usually return to the restaurant on the same day after leaving the restaurant. By excluding it, wasteful processing can be omitted and the load can be reduced.

さらに上述の実施形態において飲食店情報提供サーバ100は、上記特定されたユーザが特定されてから退店するまでの間、当該ユーザが来店した飲食店以外の飲食店における入口カメラCdの撮像画像によるユーザの特定対象から、上記特定されたユーザを除外してもよい。これにより飲食店情報提供サーバ100は、ある店に来店したユーザが同時刻に別の店に来店することは無いため、当該ユーザについてはユーザについてはそのユーザが退店するまでは別の店における入口カメラCdによる特定処理から除外することで、無駄な処理を省き負荷を軽減することができる。 Furthermore, in the above-described embodiment, the restaurant information providing server 100, during the period from when the identified user is identified until he/she leaves the restaurant, The specified users may be excluded from the specified users. As a result, the restaurant information providing server 100 does not allow a user who visits a certain restaurant to visit another restaurant at the same time. By excluding it from the specific processing by the entrance camera Cd, unnecessary processing can be omitted and the load can be reduced.

上述の実施形態において、飲食店情報提供サーバ100は、店内カメラCiの撮像画像と、上記入口カメラCdの撮像画像から特定されたユーザの顔画像の登録データとを照合することで当該ユーザが着いたテーブルTを特定していた。しかし、店内カメラCiの撮像画像に写るユーザの角度等によっては、ユーザの顔が検出できない場合もあり得る。そこで飲食店情報提供サーバ100は、店内カメラCiの撮像画像とユーザの顔画像の登録データとを照合するのに加えて、入口カメラCdの撮像画像に含まれるユーザの顔以外の画像と、店内カメラCiの撮像画像に含まれるユーザの顔以外の画像とを照合することで、上記特定されたユーザが着いたテーブルTを特定してもよい。これにより飲食店情報提供サーバ100は、店内カメラCiの撮像画像からユーザの顔を検出できない場合でも、ユーザの体の顔以外の部分(髪型等)やユーザの衣服、持ち物(バッグ等)、身長等からユーザを検出することが可能となる。 In the above-described embodiment, the restaurant information providing server 100 compares the image captured by the in-store camera Ci with the registration data of the face image of the user identified from the image captured by the entrance camera Cd, thereby confirming that the user has arrived. The table T that was located was specified. However, the user's face may not be detected depending on the angle of the user captured in the captured image of the in-store camera Ci. Therefore, the restaurant information providing server 100 compares the image captured by the in-store camera Ci with the registration data of the user's face image, and also compares the image other than the user's face included in the image captured by the entrance camera Cd with the image captured by the entrance camera Cd. The table T at which the identified user has arrived may be identified by collating images other than the user's face included in the captured image of the camera Ci. As a result, even if the restaurant information providing server 100 cannot detect the user's face from the image captured by the in-store camera Ci, the user's body parts other than the face (hairstyle, etc.), the user's clothes, belongings (bag, etc.), height, etc. It becomes possible to detect the user from such as.

上述の実施形態において、飲食店情報提供サーバ100は、複数の店内カメラCiのうち、飲食店の入口からテーブルTの間の領域(通路等)を撮像可能な店内カメラの撮像画像から上記特定されたユーザを検出し、さらに当該ユーザがテーブルTに着いたことを検出することで、当該ユーザが着いたテーブルTを特定してもよい。より具体的には、飲食店情報提供サーバ100は、入口カメラCdの撮像画像からユーザが特定された直後は、ユーザは入口から店内のテーブルTが設けられたフロアに向かっていると考えられるため、少なくともユーザの特定から所定期間(例えば30秒等)は、店内におけるユーザの検出に用いる店内カメラCiを入口からテーブルTが設けられた領域との間に設置された店内カメラCiに限定する。そして、例えば入口からテーブルTの間の通路に設けられた店内カメラCiでユーザが検出された場合、その後は店内のより奥に設けられた複数の店内カメラCiの撮像画像により順を追って当該ユーザを追尾してもよい。これにより飲食店情報提供サーバ100は、複数の店内カメラCiのうち、特定されたユーザが検出される可能性の高いカメラに使用を限定することで、店内でユーザを素早く検出できるとともに、無駄な処理を省き負荷を軽減することができる。 In the above-described embodiment, the restaurant information providing server 100 selects from the image captured by the in-store camera, which is capable of capturing the area (passage, etc.) between the entrance of the restaurant and the table T, among the plurality of in-store cameras Ci. The table T at which the user has arrived may be specified by detecting the user who has arrived at the table and further detecting that the user has arrived at the table T. FIG. More specifically, immediately after the user is identified from the captured image of the entrance camera Cd, the restaurant information providing server 100 considers that the user is heading from the entrance toward the floor where the table T is provided in the store. At least for a predetermined period of time (for example, 30 seconds) from the identification of the user, the in-store camera Ci used for detecting the user in the store is limited to the in-store camera Ci installed between the entrance and the area where the table T is provided. Then, for example, when a user is detected by an in-store camera Ci provided in the aisle between the entrance and the table T, after that, the captured image of a plurality of in-store cameras Ci provided further inside the store sequentially detects the user. may be tracked. As a result, the restaurant information providing server 100 can quickly detect the user inside the restaurant by limiting the use of those cameras, among the plurality of in-store cameras Ci, that are highly likely to detect the specified user. Processing can be omitted and the load can be reduced.

上述の実施形態においては、入口カメラCdの撮像画像から特定された1人のユーザについて店内カメラCiの撮像画像に基づくテーブル特定処理が実行される例が示された。しかし、入口カメラCdの撮像画像に複数のユーザが写っていた場合や短時間に複数のユーザが来店した場合等、入口カメラCdの撮像画像から複数のユーザが特定され、1人のユーザに関するテーブル特定処理が完了する前に、他のユーザに関するテーブル特定処理が必要になる場合も考えられる。そこで飲食店情報提供サーバ100は、入口カメラCdの撮像画像を基に複数のユーザが特定され、店内カメラCiの撮像画像と、当該特定された複数のユーザの上記登録データとを基に、当該複数のユーザが着いたテーブルTをそれぞれ特定する際に、当該複数のユーザのうちいずれかのユーザの着いたテーブルTが特定できた場合には、当該ユーザが退店するまでの間、店内カメラCiの撮像画像によるテーブルTの特定処理の対象から当該ユーザを除外(すなわち、照合対象の複数のユーザの登録データからテーブル特定済みのユーザの登録データを除外)してもよい。これにより飲食店情報提供サーバ100は、入口カメラCdの撮像画像で特定されたユーザに関する、店内カメラCiの撮像画像によるテーブル特定処理が複数ユーザ分蓄積されている場合でも、店内カメラCiの撮像画像からそれらの複数のユーザのうちいずれかのユーザが検出された場合にはそのユーザの登録データについてはその後の特定処理の照合対象から除外することで、無駄な処理を省き負荷を軽減することができる。 In the above-described embodiment, an example is shown in which the table identification process based on the image captured by the in-store camera Ci is executed for one user identified from the image captured by the entrance camera Cd. However, when a plurality of users are captured in the captured image of the entrance camera Cd, or when a plurality of users visit the store in a short period of time, a plurality of users are identified from the captured image of the entrance camera Cd, and the table for one user is displayed. It is conceivable that table identification processing for other users may be required before the identification processing is completed. Therefore, the restaurant information providing server 100 identifies a plurality of users based on the captured image of the entrance camera Cd, and based on the captured image of the in-store camera Ci and the registration data of the identified users, When specifying the table T at which a plurality of users are seated, if the table T at which one of the plurality of users is seated can be specified, the in-store camera is used until the user leaves the store. The user may be excluded from the target of identification processing of the table T by the captured image of Ci (that is, the registration data of a user whose table has already been identified may be excluded from the registration data of a plurality of users to be collated). As a result, the restaurant information providing server 100, even when table identification processing based on the image captured by the in-store camera Ci is accumulated for a plurality of users regarding the user identified by the image captured by the entrance camera Cd, can be used to identify the image captured by the in-store camera Ci. If one of these users is detected, the registration data of that user is excluded from the verification target of the subsequent specific processing, thereby omitting unnecessary processing and reducing the load. can.

上述の実施形態では、上記飲食店情報提供サーバ100は1台のみ示したが、上記飲食店情報提供サーバ100が実行する処理は、複数のサーバで分散して実行されても構わない。例えば入口カメラCd及び店内カメラCiの撮像画像と登録データとの照合処理のみ別のサーバが担ってもよい。 In the above embodiment, only one restaurant information providing server 100 is shown, but the processing executed by the restaurant information providing server 100 may be distributed and executed by a plurality of servers. For example, a separate server may be responsible only for matching the images captured by the entrance camera Cd and the in-store camera Ci with the registration data.

また上述の実施形態では、クラウド上の飲食店情報提供サーバ100が各飲食店における撮像画像を用いたユーザとテーブルの紐付け処理を実行したが、各飲食店端末300またはそれと別個に設けられた飲食店のサーバが当該紐付け処理を実行してもよい。 Further, in the above-described embodiment, the restaurant information providing server 100 on the cloud executes the linking process between the user and the table using the captured image in each restaurant, but each restaurant terminal 300 or provided separately from it The server of the restaurant may execute the linking process.

本願の特許請求の範囲に記載された発明のうち、「情報処理方法」と記載された発明は、その各ステップを、ソフトウェアによる情報処理によりコンピュータ等の少なくとも1つの装置が自動的に行うものであり、人間がコンピュータ等の装置を用いて行うものではない。すなわち、当該「情報処理方法」は、コンピュータ・ソフトウェアによる情報処理方法であって、コンピュータという計算道具を人間が操作する方法ではない。 Among the inventions described in the claims of the present application, the invention described as "information processing method" automatically performs each step by at least one device such as a computer by information processing by software. It is not performed by humans using devices such as computers. That is, the "information processing method" is an information processing method using computer software, and is not a method of manipulating a computing tool such as a computer.

11…CPU
18…記憶部
19…通信部
31…飲食店情報データベース
32…ユーザ情報データベース
33…来店履歴情報データベース
100…飲食店情報提供サーバ
200…ユーザ端末
300…飲食店端末
Cd…入口カメラ
Ci…店内カメラ
11 CPU
18... Storage unit 19... Communication unit 31... Restaurant information database 32... User information database 33... Visit history information database 100... Restaurant information providing server 200... User terminal 300... Restaurant terminal Cd... Entrance camera Ci... In-store camera

Claims (11)

飲食店の入口に設置され来店したユーザの顔をほぼ正面かつ近距離から撮像可能な第1カメラによって撮像された第1撮像画像と、予め記憶された複数のユーザの顔に関する登録データとを基に、前記来店したユーザを特定し、
前記飲食店内に設置され当該飲食店内の複数のテーブルが配置されたフロアを俯瞰して撮像可能な第2カメラによって撮像された第2撮像画像から、前記特定されたユーザの前記登録データを基に、前記特定されたユーザを検出し、当該検出されたユーザが着いたテーブルを前記複数のテーブルの中から特定し、
前記特定されたユーザを識別するユーザ識別情報と前記特定されたテーブルを識別するテーブル識別情報とを対応付けて記憶する、
制御部
を具備する情報処理システム。
Based on a first captured image captured by a first camera installed at the entrance of a restaurant and capable of capturing the faces of users visiting the restaurant from almost the front and from a short distance , and registered data on the faces of a plurality of users stored in advance. to identify the user who visited the store,
Based on the registered data of the specified user from a second captured image captured by a second camera that is installed in the restaurant and capable of capturing a bird's -eye view of the floor on which a plurality of tables are arranged in the restaurant , detecting the identified user, identifying the table at which the detected user has arrived from among the plurality of tables ,
storing user identification information identifying the identified user and table identification information identifying the identified table in association with each other;
An information processing system comprising a controller.
請求項1に記載の情報処理システムであって、
前記制御部は、前記特定されたユーザのユーザ識別情報と、前記特定されたテーブルのPOSデータとを対応付けて記憶する
情報処理システム。
The information processing system according to claim 1,
The information processing system, wherein the control unit associates and stores the user identification information of the specified user and the POS data of the specified table.
請求項1または2に記載の情報処理システムであって、
前記制御部は、前記特定されたユーザが特定されてから退店するまでの間、前記第1撮像画像によるユーザの特定対象から前記特定されたユーザを除外する
情報処理システム。
The information processing system according to claim 1 or 2,
The information processing system, wherein the control unit excludes the identified user from the identification target of the user based on the first captured image from when the identified user is identified until he/she leaves the store.
請求項1乃至3に記載の情報処理システムであって、
前記制御部は、前記第1撮像画像を基に複数のユーザが特定され、前記第2撮像画像と、当該特定された複数のユーザの前記登録データとを基に、当該複数のユーザが着いた前記テーブルをそれぞれ特定する際に、当該複数のユーザのうちいずれかのユーザの着いたテーブルが特定できた場合には、当該ユーザが退店するまでの間、前記第2撮像画像によるテーブルの特定処理の対象から当該ユーザを除外する
情報処理システム。
The information processing system according to claims 1 to 3,
The control unit identifies a plurality of users based on the first captured image, and determines that the plurality of users arrive based on the second captured image and the registration data of the identified plurality of users. When specifying each of the tables, if the table at which one of the users has arrived can be specified, the table is specified by the second captured image until the user leaves the store. An information processing system that excludes the user from the target of processing.
請求項3または4に記載の情報処理システムであって、
前記制御部は、前記飲食店の出口に設置され退店するユーザの顔をほぼ正面から撮像可能な第3カメラによって撮像された第3撮像画像を基に前記特定されたユーザが退店したか否かを判定する
情報処理システム。
The information processing system according to claim 3 or 4,
The control unit determines whether the specified user has left the restaurant based on a third captured image captured by a third camera that is installed at the exit of the restaurant and capable of capturing the face of the user leaving the restaurant from substantially the front. An information processing system that determines whether or not
請求項3または4に記載の情報処理システムであって、
前記制御部は、前記特定されたユーザと対応付けられたテーブルのPOSデータを基に前記特定されたユーザが退店したか否かを判定する
情報処理システム。
The information processing system according to claim 3 or 4,
The information processing system, wherein the control unit determines whether the specified user has left the store based on POS data in a table associated with the specified user.
請求項1乃至6のいずれかに記載の情報処理システムであって、
前記第1カメラの撮像範囲と前記第2カメラの撮像範囲は重複しない
情報処理システム。
The information processing system according to any one of claims 1 to 6,
An information processing system in which an imaging range of the first camera and an imaging range of the second camera do not overlap.
請求項1乃至のいずれかに記載の情報処理システムであって、
前記制御部は、前記第2撮像画像と、前記特定されたユーザの前記登録データとを照合するとともに、前記第1撮像画像に含まれる前記ユーザの顔以外の画像と、前記第2撮像画像に含まれる前記ユーザの顔以外の画像と照合することで、前記特定されたユーザが着いたテーブルを特定する
情報処理システム。
The information processing system according to any one of claims 1 to 7 ,
The control unit compares the second captured image with the registered data of the specified user, and compares an image other than the face of the user included in the first captured image with the second captured image. An information processing system that identifies the table at which the identified user is seated by collating with included images other than the face of the user.
請求項1乃至のいずれかに記載の情報処理システムであって、
前記制御部は、前記入口から前記テーブルの間の領域を撮像可能な第2カメラの第2撮像画像から前記特定されたユーザを検出し前記特定されたユーザが着いたテーブルを特定する
情報処理システム。
The information processing system according to any one of claims 1 to 8 ,
The control unit detects the specified user from a second captured image of a second camera capable of capturing an area between the table and the entrance, and specifies the table at which the specified user has arrived. Information processing system .
飲食店の入口に設置され来店したユーザの顔をほぼ正面かつ近距離から撮像可能な第1カメラによって撮像された第1撮像画像と、予め記憶された複数のユーザの顔に関する登録データとを基に、前記来店したユーザを特定し、
前記飲食店内に設置され当該飲食店内の複数のテーブルが配置されたフロアを俯瞰して撮像可能な第2カメラによって撮像された第2撮像画像から、前記特定されたユーザの前記登録データを基に、前記特定されたユーザを検出し、当該検出されたユーザが着いたテーブルを前記複数のテーブルの中から特定し、
前記特定されたユーザを識別するユーザ識別情報と前記特定されたテーブルを識別するテーブル識別情報とを対応付けて記憶する
情報処理方法。
Based on a first captured image captured by a first camera installed at the entrance of a restaurant and capable of capturing the faces of users visiting the restaurant from almost the front and from a short distance , and registered data on the faces of a plurality of users stored in advance. to identify the user who visited the store,
Based on the registered data of the specified user from a second captured image captured by a second camera that is installed in the restaurant and capable of capturing a bird's -eye view of the floor on which a plurality of tables are arranged in the restaurant , detecting the identified user, identifying the table at which the detected user has arrived from among the plurality of tables ,
An information processing method, wherein user identification information for identifying the identified user and table identification information for identifying the identified table are stored in association with each other.
情報処理装置に、
飲食店の入口に設置され来店したユーザの顔をほぼ正面かつ近距離から撮像可能な第1カメラによって撮像された第1撮像画像と、予め記憶された複数のユーザの顔に関する登録データとを基に、前記来店したユーザを特定するステップと、
前記飲食店内に設置され当該飲食店内の複数のテーブルが配置されたフロアを俯瞰して撮像可能な第2カメラによって撮像された第2撮像画像から、前記特定されたユーザの前記登録データを基に、前記特定されたユーザを検出し、当該検出されたユーザが着いたテーブルを前記複数のテーブルの中から特定するステップと、
前記特定されたユーザを識別するユーザ識別情報と前記特定されたテーブルを識別するテーブル識別情報とを対応付けて記憶するステップと
を実行させるプログラム。
information processing equipment,
Based on a first captured image captured by a first camera installed at the entrance of a restaurant and capable of capturing the faces of users visiting the restaurant from almost the front and from a short distance , and registered data on the faces of a plurality of users stored in advance. a step of identifying the user who visited the store;
Based on the registered data of the specified user from a second captured image captured by a second camera that is installed in the restaurant and capable of capturing a bird's -eye view of the floor on which a plurality of tables are arranged in the restaurant , detecting the identified user and identifying a table at which the detected user has arrived from among the plurality of tables ;
and storing the user identification information identifying the identified user and the table identification information identifying the identified table in association with each other.
JP2022010784A 2022-01-27 2022-01-27 Information processing system, information processing method and program Active JP7168110B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022010784A JP7168110B1 (en) 2022-01-27 2022-01-27 Information processing system, information processing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2022010784A JP7168110B1 (en) 2022-01-27 2022-01-27 Information processing system, information processing method and program

Publications (2)

Publication Number Publication Date
JP7168110B1 true JP7168110B1 (en) 2022-11-09
JP2023109335A JP2023109335A (en) 2023-08-08

Family

ID=83977447

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022010784A Active JP7168110B1 (en) 2022-01-27 2022-01-27 Information processing system, information processing method and program

Country Status (1)

Country Link
JP (1) JP7168110B1 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040150520A1 (en) 2003-02-04 2004-08-05 Barrie Robert P Mobile object monitoring system
US20120287281A1 (en) 2011-03-22 2012-11-15 Restaurant Application Development International LLC Personalized and dynamic restaurant interfaces and systems
JP2014232495A (en) 2013-05-30 2014-12-11 パナソニック株式会社 Customer group analyzing apparatus, customer group analyzing system and customer group analyzing method
JP2015011712A (en) 2013-06-28 2015-01-19 アザパ アールアンドディー アメリカズ インク Digital information gathering and analyzing method and apparatus
JP2016181101A (en) 2015-03-24 2016-10-13 日本電気株式会社 Information processing system, order reception device, adjustment device, information processing method, and program
JP2017191481A (en) 2016-04-14 2017-10-19 富士電機機器制御株式会社 Support system, support device, support method, and program
JP2019133437A (en) 2018-01-31 2019-08-08 キヤノン株式会社 Information processing device, system, information processing device control method, and program
US20210027185A1 (en) 2019-07-22 2021-01-28 Chronicle Llc Parsing unlabeled computer security data logs
WO2022003888A1 (en) 2020-07-02 2022-01-06 日本電気株式会社 Warning apparatus, system, method, and non-transitory computer-readable medium having program stored therein

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5193648A (en) * 1991-05-24 1993-03-16 Yuter Seymour C Restaurant construction system
US10311475B2 (en) * 2014-06-20 2019-06-04 Go Yuasa Digital information gathering and analyzing method and apparatus
WO2018097262A1 (en) * 2016-11-25 2018-05-31 株式会社ぐるなび Information processing apparatus, control method for information processing apparatus, and program
JP6589076B1 (en) * 2019-01-31 2019-10-09 株式会社Epark Information management apparatus, information management method and program
JP2020190860A (en) * 2019-05-21 2020-11-26 大日本印刷株式会社 Ordering terminal, ordering system, order accepting method, order processing apparatus, and program
JP6874112B1 (en) * 2019-12-24 2021-05-19 Necプラットフォームズ株式会社 Pre-order reception system and pre-order reception method

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040150520A1 (en) 2003-02-04 2004-08-05 Barrie Robert P Mobile object monitoring system
US20120287281A1 (en) 2011-03-22 2012-11-15 Restaurant Application Development International LLC Personalized and dynamic restaurant interfaces and systems
JP2014232495A (en) 2013-05-30 2014-12-11 パナソニック株式会社 Customer group analyzing apparatus, customer group analyzing system and customer group analyzing method
JP2015011712A (en) 2013-06-28 2015-01-19 アザパ アールアンドディー アメリカズ インク Digital information gathering and analyzing method and apparatus
JP2016181101A (en) 2015-03-24 2016-10-13 日本電気株式会社 Information processing system, order reception device, adjustment device, information processing method, and program
JP2017191481A (en) 2016-04-14 2017-10-19 富士電機機器制御株式会社 Support system, support device, support method, and program
JP2019133437A (en) 2018-01-31 2019-08-08 キヤノン株式会社 Information processing device, system, information processing device control method, and program
US20210027185A1 (en) 2019-07-22 2021-01-28 Chronicle Llc Parsing unlabeled computer security data logs
WO2022003888A1 (en) 2020-07-02 2022-01-06 日本電気株式会社 Warning apparatus, system, method, and non-transitory computer-readable medium having program stored therein

Also Published As

Publication number Publication date
JP2023109335A (en) 2023-08-08

Similar Documents

Publication Publication Date Title
JP6868387B2 (en) Delivery service system, server equipment and programs
US20200098041A1 (en) Determining attribution for an electronic credit application
JP2015090654A (en) Customer management device, customer management system and customer management method
KR20180129693A (en) System and method for providing of price service of real-estate
US20200143465A1 (en) Out-of-band verification for an electronic application
US10290037B2 (en) List presentation device, list presentation method, and program
EP1517261A2 (en) Work-flow system and work-flow system management method
US20210090135A1 (en) Commodity information notifying system, commodity information notifying method, and program
JP7168110B1 (en) Information processing system, information processing method and program
TW202103023A (en) Information processing apparatus, information processing method, and program
JP2023113859A (en) Information processing device, user terminal, information processing method, and program
US10460405B2 (en) Server and method for timely adjusting price of a plan voucher
JP6943619B2 (en) Information processing equipment, user terminals, information processing methods and programs
JP7215622B1 (en) Information processing system, information processing method and program
JP2022103188A (en) Peripheral information display device, method therefor, and program
JP2023072138A (en) Information processing system, information processing method, and program
JP2021096695A (en) Information processing system, method for controlling information processing system, and program
JP7201114B1 (en) Information processing system, information processing method and program
JP2020003962A (en) Inquiry probability presentation apparatus, inquiry probability presentation program, inquiry probability presentation method, and information providing system
US20230214897A1 (en) Information processing system, information processing method, program, and recording medium
JP7192898B2 (en) Information processing device, information processing method and program
US20230214908A1 (en) Information processing system, information processing method, program, and recording medium
JP6946736B2 (en) Information processing equipment, information processing methods and programs
KR101585873B1 (en) Method for sharing information with user orientation
JP2023004823A (en) Payment support system, payment support method, and payment support program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220422

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20220422

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220719

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220908

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221010

R150 Certificate of patent or registration of utility model

Ref document number: 7168110

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R360 Written notification for declining of transfer of rights

Free format text: JAPANESE INTERMEDIATE CODE: R360

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371