JP2005044170A - Preference data processing device and program - Google Patents

Preference data processing device and program Download PDF

Info

Publication number
JP2005044170A
JP2005044170A JP2003278207A JP2003278207A JP2005044170A JP 2005044170 A JP2005044170 A JP 2005044170A JP 2003278207 A JP2003278207 A JP 2003278207A JP 2003278207 A JP2003278207 A JP 2003278207A JP 2005044170 A JP2005044170 A JP 2005044170A
Authority
JP
Japan
Prior art keywords
image
customer
tableware
determination
food
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Abandoned
Application number
JP2003278207A
Other languages
Japanese (ja)
Inventor
Yumika Sato
由美香 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2003278207A priority Critical patent/JP2005044170A/en
Publication of JP2005044170A publication Critical patent/JP2005044170A/en
Abandoned legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To easily determine a customer's preference. <P>SOLUTION: A preference data processing device 10 uses cameras 1a, 1b-1n, nb to take images of dishes arranged on a table and a customer sitting at the table. From the images of dishes, meals in the dishes and leftovers are determined and stored in a customer table 162 as preference data. The customer's attributes are determined from the customer's image and the attribute data are stored in the customer table 162. The customer's attribute data and the preference data including the names of the meals which the customer ate and the names of the meals left over are printed and outputted as a report. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

客が飲食する飲食物が収容されている食器画像及びその客を撮影し、当該撮影された画像から客の嗜好データを収集する嗜好データ処理装置及びプログラムに関する。   The present invention relates to a tableware image in which food and drink to be eaten by a customer are stored, and a preference data processing device and program for collecting the customer's preference data from the captured image.

従来から、客の趣味、嗜好等の嗜好データをデータベース化しておき、客に商品を紹介する際には、嗜好データに基づいて客の嗜好に応じた商品を紹介するシステムが開発されている(例えば、特許文献1参照)。
特開2001−229224号公報
Conventionally, a system has been developed in which preference data such as customer's hobbies and preferences are stored in a database, and when introducing products to customers, products are introduced according to customer preferences based on the preference data ( For example, see Patent Document 1).
JP 2001-229224 A

しかしながら、上述したような方法では、予め嗜好データを入力しておかなければならず、客数が膨大である場合、その入力作業は煩雑である。また、固定客が多い場合は、上記システムは有効であるが、レストラン等の不特定多数の客が来店することが多い飲食店では、上記システムは利用することができない。   However, in the method as described above, preference data must be input in advance, and when the number of customers is enormous, the input operation is complicated. In addition, the system is effective when there are many fixed customers, but the system cannot be used at restaurants where many unspecified customers such as restaurants often visit.

本発明の課題は、客の嗜好性を容易に把握することができる嗜好性データ処理装置を提供することである。   The subject of this invention is providing the preference data processing apparatus which can grasp | ascertain a customer's preference easily.

請求項1に記載の発明は、
食器内の飲食物及びその残量を判定するための判定用画像を記憶する画像記憶手段と、
客が飲食する飲食物が収容された食器画像を撮影する撮影手段と、
前記撮影された飲食物の食器画像と、前記記憶された判定用画像とを照合し、食器内の飲食物及びその残量を判定する判定手段と、
前記判定された飲食物及びその残量に応じたデータを客の嗜好データとして記憶する嗜好記憶手段と、
前記記憶された嗜好データを出力する出力手段と、
を備えることを特徴とする嗜好データ処理装置。
The invention described in claim 1
Image storage means for storing a determination image for determining food and drink in the tableware and the remaining amount thereof;
Photographing means for photographing tableware images containing food and drinks for customers to eat and drink;
A determination means for comparing the photographed tableware image of the food and drink with the stored determination image, and determining the food and drink in the tableware and the remaining amount thereof,
Preference storage means for storing data corresponding to the determined food and drink and its remaining amount as customer preference data;
Output means for outputting the stored preference data;
A preference data processing apparatus comprising:

請求項3項5に記載の発明は、
コンピュータに、
食器内の飲食物及びその残量を判定するための判定用画像を画像記憶手段に記憶させる機能と、
客が飲食する飲食物が収容された食器画像を撮影手段に撮影させる機能と、
前記撮影された飲食物の食器画像と、前記記憶された判定用画像とを照合し、食器内の飲食物及びその残量を判定する機能と、
前記判定された飲食物及びその残量に応じたデータを客の嗜好データとして嗜好記憶手段に記憶させる機能と、
前記記憶された嗜好データを出力手段に出力させる機能と、
を実現させるためのプログラムであることを特徴とする。
The invention according to claim 3 is as follows.
On the computer,
A function for storing a determination image for determining food and drink in the tableware and its remaining amount in the image storage means;
A function that causes the photographing means to photograph the tableware image containing the food and drink that the customer eats and drinks,
A function of comparing the photographed tableware image of the food and drink with the stored determination image, and determining the food and drink in the tableware and the remaining amount thereof,
A function of storing data according to the determined food and drink and its remaining amount in the taste storage means as customer preference data;
A function of causing the output means to output the stored preference data;
It is a program for realizing.

請求項1、35に記載の発明によれば、食器画像を撮影し、その食器画像と判定用画像との照合により、食器内の飲食物及びその残量を判定し、判定結果を嗜好データとして記憶、出力するので、どの飲食物が食べ残されたのか、客の嗜好性を容易に把握することができる。   According to invention of Claim 1, 35, a tableware image is image | photographed, the food / beverage in tableware and its remaining amount are determined by collation with the tableware image and the image for determination, and a determination result is used as preference data. Since it is memorized and output, it is possible to easily grasp the palatability of the customer, which food or drink is left uneaten.

請求項2に記載の発明によれば、飲食物を飲食する客の属性を判定し、その属性データを嗜好データに対応付けて記憶、出力するので、どのような客がどの飲食物を好んで飲食するのか、客の属性と嗜好性との相関関係を容易に把握することができる。   According to invention of Claim 2, since the attribute of the customer who eats and drinks food / drink is determined and the attribute data is stored and output in association with the preference data, what kind of customer prefers which food / drink Whether to eat or drink, the correlation between customer attributes and palatability can be easily grasped.

請求項3に記載の発明によれば、飲食が終了した指示があると、撮影及び判定が行われるので、適切なタイミングで飲食物の残量を判定することができる。   According to the third aspect of the present invention, when there is an instruction to finish eating and drinking, photographing and determination are performed, so that the remaining amount of food and drink can be determined at an appropriate timing.

請求項4に記載の発明によれば、同一食器に盛られている複数の飲食物のそれぞれについて飲食物の種類及びその残量が判定されるので、1つの料理の中でもどの飲食物が好まれているのか、より詳細な嗜好性を把握することができる。   According to invention of Claim 4, since the kind of food and drink and its residual amount are determined about each of several food and drink currently piled up in the same tableware, which food and drink are liked among one dish It is possible to grasp the more detailed palatability.

本実施の形態では、テーブル上に配膳された食器及びテーブルに着いている客の画像を撮影し、食器内の料理の種類及び食べ残された料理を判定するとともに客の属性を判定し、客の属性、その客が飲食した料理名称及び食べ残された料理名称を客の嗜好データとして記憶及び印刷出力する例を説明する。   In this embodiment, the tableware served on the table and the image of the customer who has arrived at the table are photographed, the type of dish in the tableware and the uneaten dish are determined, the attributes of the customer are determined, An example of storing and printing out the attribute of the customer, the name of the food that the customer has eaten and eaten, and the name of the leftover food as customer preference data will be described.

まず、構成を説明する。
図1に、嗜好データ処理装置10の構成を示す。
図1に示すように、嗜好データ処理装置10は、本体部10aと、撮影手段であるカメラ1a、1b〜na、nbとから構成され、本体部10aとカメラ1a、1b〜na、nbとは本体部10aのI/F14を介して接続される。
First, the configuration will be described.
FIG. 1 shows the configuration of the preference data processing apparatus 10.
As shown in FIG. 1, the preference data processing apparatus 10 includes a main body 10a and cameras 1a, 1b to na, nb which are photographing means. The main body 10a and the cameras 1a, 1b to na, nb It is connected via the I / F 14 of the main body 10a.

まず、カメラ1a、1b〜na、nbについて説明する。
カメラ1a、1b〜na、nbは、飲食店内の客用の各テーブルに設置される撮影装置である。各テーブルには、テーブルを識別するためのテーブル番号Tが付与されており、1台のテーブルに対して2台のカメラが設置される。この2台のカメラには同一のカメラ番号Cが付与され、このカメラ番号Cにより同一テーブルを撮影したカメラとして識別される。
First, the cameras 1a, 1b to na, nb will be described.
Camera 1a, 1b-na, nb is an imaging device installed in each table for customers in a restaurant. Each table is given a table number T for identifying the table, and two cameras are installed for one table. The two cameras are assigned the same camera number C, and are identified by the camera number C as cameras that photographed the same table.

カメラ1a〜naは、食器の立体的な画像や客の画像を撮影するために、テーブル番号Tのテーブルをその上斜め方向から撮影するよう設置される。カメラ1b〜nbは、テーブル上に配膳された食器の座標位置や客の着席位置を特定するために、テーブル番号Tのテーブルをその真上から撮影するよう設置される。カメラ1a、1b〜na、nbは、撮影により取得されたテーブル画像の画像データを本体部10aに出力する。   The cameras 1a to na are installed so as to take a table with a table number T from an oblique direction in order to take a three-dimensional image of tableware or a customer image. The cameras 1b to nb are installed so as to photograph the table of the table number T from directly above in order to specify the coordinate position of the tableware arranged on the table and the seating position of the customer. The cameras 1a, 1b to na, nb output the image data of the table image acquired by photographing to the main body 10a.

また、各テーブルには、飲食が終了した食器を下げてもらう場合に店員を呼び出すのためのスイッチSWが設けられており、当該スイッチSWが押下されると、スイッチSWが設けられているテーブルのテーブル番号の情報とともにその押下信号が本体部10aに出力される。すなわち、スイッチSWにより、料理が終了したことを通知するための指示手段を実現することができる。   In addition, each table is provided with a switch SW for calling a store clerk when the tableware that has finished eating and drinking is lowered, and when the switch SW is pressed, the table of the table provided with the switch SW is provided. The pressing signal together with the table number information is output to the main body 10a. In other words, the switch SW can realize an instruction means for notifying that the cooking has been completed.

次に、本体部10aについて説明する。
本体部10aは、CPU(Central Processing Unit)11、入力部12、表示部13、I/F(InterFace)14、通信部15、RAM(Random Access Memory)16、記憶部17、印刷部18から構成され、各部はバス19により接続される。
Next, the main body 10a will be described.
The main unit 10a includes a CPU (Central Processing Unit) 11, an input unit 12, a display unit 13, an I / F (InterFace) 14, a communication unit 15, a RAM (Random Access Memory) 16, a storage unit 17, and a printing unit 18. Each part is connected by a bus 19.

CPU11は、記憶部17に格納されているシステムプログラムの他、本発明に係る嗜好データ処理プログラム(図6参照)、その嗜好データ処理プログラム内の各処理プログラム、即ち客の属性判定処理プログラム(図7参照)、料理引下処理プログラム(図8参照)、配膳料理判定処理プログラム(図10参照)をRAM16に展開し、当該プログラムとの協働により処理動作を統括的に制御する。   In addition to the system program stored in the storage unit 17, the CPU 11 includes a preference data processing program according to the present invention (see FIG. 6), each processing program in the preference data processing program, that is, a customer attribute determination processing program (FIG. 7), a dish-drawing processing program (see FIG. 8), and a serving dish determination processing program (see FIG. 10) are developed in the RAM 16, and the processing operation is comprehensively controlled in cooperation with the program.

CPU11は、客の属性判定処理において、客の撮影画像を画像解析して人物特徴量を抽出し、当該人物特徴量に基づいて客の属性を判定する。また、配膳料理判定処理では、テーブル上に配膳された食器の撮影画像と判定用画像である詳細料理画像とを照合して、その食器内の料理を判定するとともに、食器画像の位置と客の位置とから、客とその客が飲食している料理の組み合わせを判定する。さらに、料理引下処理では、撮影された食器画像と、判定用画像である空食器画像及び詳細料理画像とを照合してその食器内の料理の残量を判定する。すなわち、各処理プログラムに従ってCPU11が動作することにより、判定手段を実現することができる。   In the customer attribute determination process, the CPU 11 analyzes a photographed image of the customer to extract a person feature amount, and determines the customer attribute based on the person feature amount. In addition, in the serving dish determination process, the dished image of the tableware arranged on the table is compared with the detailed dish image as the determination image to determine the dish in the tableware, and the position of the tableware image and the customer's position are determined. From the position, the combination of the customer and the food that the customer is eating and drinking is determined. Furthermore, in the dish withdrawal process, the photographed tableware image is compared with the empty tableware image and the detailed dish image, which are determination images, to determine the remaining amount of dish in the tableware. That is, the determination unit can be realized by the CPU 11 operating according to each processing program.

入力部12は、文字キー、数字キー、各種機能キーからなるキーボードを備えて構成され、押下されたキーに対応する押下信号をCPU11に出力する。なお、マウスやタッチパネル等のポインティングディバイスを含むこととしてもよい。   The input unit 12 includes a keyboard including character keys, numeric keys, and various function keys, and outputs a press signal corresponding to the pressed key to the CPU 11. Note that a pointing device such as a mouse or a touch panel may be included.

表示部13は、LCD(Liquid Crystal Display)等の表示ディスプレイを備えて構成され、メニュー画面等の操作画面や、CPU11の処理結果等の各種表示情報を表示出力する。   The display unit 13 includes a display such as an LCD (Liquid Crystal Display), and displays and outputs an operation screen such as a menu screen and various display information such as a processing result of the CPU 11.

I/F14は、本体部10aと、各カメラ1a、1b〜na、nb、テーブルに設置されたスイッチSWとを接続するためのインターフェイスであり、データの転送速度の調整やデータ形式の変換等を行って、データのやり取りを仲介する。   The I / F 14 is an interface for connecting the main body 10a to each camera 1a, 1b to na, nb, and a switch SW installed on the table, and adjusts the data transfer speed, converts the data format, and the like. Go and mediate the exchange of data.

通信部15は、ネットワークインターフェイスカード、モデム、ターミナルアダプタ等の通信用インターフェイスから構成され、通信ネットワーク上の外部機器と各種情報の送受信を行う。例えば、料金データを処理して精算処理を行う精算システムや、厨房内の注文管理システムに接続することが可能である。   The communication unit 15 includes a communication interface such as a network interface card, a modem, and a terminal adapter, and transmits / receives various information to / from an external device on the communication network. For example, it is possible to connect to a payment system that processes fee data and performs a payment process, or an order management system in the kitchen.

RAM16は、CPU11によって実行される各種プログラムやこれら各種プログラムによって処理されたデータ等を一時的に記憶するワークエリアを形成する。   The RAM 16 forms a work area for temporarily storing various programs executed by the CPU 11 and data processed by these various programs.

また、RAM16は、カメラ1b〜nbによって撮影されたテーブル画像に含まれる各種食器画像の位置情報を管理するため位置テーブル161と、客の属性及び嗜好データを管理するための客テーブル162とを格納する嗜好記憶手段である。   Further, the RAM 16 stores a position table 161 for managing position information of various tableware images included in the table images taken by the cameras 1b to nb, and a customer table 162 for managing customer attributes and preference data. Preference storage means.

例えば、撮影により取得されたテーブル画像が図2に示すような画像であった場合、テーブル上の各食器に対し、テーブル基準位置(図2では、テーブル上の点Pで示す位置)に近い食器から時計回りの順に、各食器を識別するための器番号Dが付与される。同時に、各食器の画像領域がその食器を含む矩形領域で認識され、各食器画像の位置情報として、その矩形領域を特定する2点の座標値Z1[Dn](x1、y1)、Z2[Dn](x2、y2)が検出される。また、テーブル周りに着席する客の画像領域が認識され、テーブル基準位置に近い客から順に客番号Aが付与される。   For example, when the table image obtained by photographing is an image as shown in FIG. 2, the tableware close to the table reference position (the position indicated by the point P on the table in FIG. 2) for each tableware on the table. A device number D for identifying each tableware is given in the clockwise order. At the same time, the image area of each tableware is recognized as a rectangular area including the tableware, and as coordinate information of each tableware image, two coordinate values Z1 [Dn] (x1, y1), Z2 [Dn ] (X2, y2) is detected. In addition, the image area of the customer sitting around the table is recognized, and the customer number A is assigned in order from the customer closest to the table reference position.

位置テーブル161には、図3に示すように、撮影されたテーブルのテーブル番号Tの項目a1、そのテーブルを撮影したカメラのカメラ番号Cの項目a2、テーブル画像に含まれる各食器画像を特定する器番号Dの項目a3、その食器画像の位置情報である座標Z1[Dn]、Z2[Dn]の座標値データを格納する項目a4、a5、その食器内の飲食物を飲食していると判定された客の客番号Aを格納する項目a6の各項目情報が対応付けて格納されている。   In the position table 161, as shown in FIG. 3, the item a1 of the table number T of the photographed table, the item a2 of the camera number C of the camera that photographed the table, and each tableware image included in the table image are specified. It is determined that the item a3 of the device number D, items a4 and a5 storing coordinate value data of coordinates Z1 [Dn] and Z2 [Dn] which are position information of the tableware image, and eating and drinking food and drink in the tableware Each item information of the item a6 for storing the customer number A of the customer is stored in association with each other.

客テーブル162には、図4に示すように、テーブル番号Tの項目b1、そのテーブルに着席している客の客番号Aの項目b2、客の属性を示す項目b3(例えば、"大人、男性"等)の各項目情報が客の属性データとして格納され、その客が飲食していると判定された料理の食器の器番号Dを格納する項目b4、その客が飲食している料理名称の項目b5(例えば、"コロッケ定食"等)、食べ残されたと判定された料理の名称を示す項目b6(例えば、食器が空状態であれば"完食"、食べ残されたと判定されればその料理名称"サラダ"が格納される。)の各項目情報が嗜好データとして格納されている。   In the customer table 162, as shown in FIG. 4, the item b1 of the table number T, the item b2 of the customer number A of the customer sitting on the table, and the item b3 indicating the attribute of the customer (for example, “adult, male Each item information of “etc.” is stored as attribute data of the customer, item b4 that stores the table number D of the tableware of the dish that the customer is determined to be eating and drinking, and the name of the dish that the customer is eating and drinking Item b5 (for example, “croquette set meal”, etc.), item b6 indicating the name of the dish determined to be left over (for example, “completely eaten” if the tableware is empty, and if determined to have left over) Each item information of the dish name “salad” is stored as preference data.

記憶部17は、プログラムやデータが予め記憶されている記憶媒体(図示せず)を有しており、この記憶媒体にシステムプログラム、本発明に係る嗜好データ処理プログラム、その嗜好データ処理プログラム内の各処理プログラム、即ち客の属性判定処理プログラム、料理引下処理プログラム、配膳料理判定処理プログラム及びこれらプログラムで処理されたデータ等を記憶する。この記憶媒体は、磁気的、光学的記憶媒体、若しくは半導体メモリで構成されており、記憶部17に固定的に設けられるもの、若しくは着脱自在に装着するものである。   The storage unit 17 has a storage medium (not shown) in which programs and data are stored in advance, and the system program, the preference data processing program according to the present invention, and the preference data processing program are stored in the storage medium. Each processing program, that is, a customer attribute determination processing program, a food withdrawal processing program, a cooked food determination processing program, data processed by these programs, and the like are stored. This storage medium is composed of a magnetic or optical storage medium or a semiconductor memory, and is fixedly provided in the storage unit 17 or detachably mounted.

記憶部17は、各種判定に用いる基準画像の画像データ群及び基準画像を管理するための判定テーブル171を記憶する画像記憶手段である。この判定用の基準画像としては、食器が空の状態か否かを判定するための空食器画像と、1つの食器内に盛られた各種飲食物を判定するための詳細料理画像とが予め撮影されて準備されている。   The storage unit 17 is an image storage unit that stores an image data group of reference images used for various determinations and a determination table 171 for managing the reference images. As the reference image for this determination, an empty tableware image for determining whether or not the tableware is empty and a detailed dish image for determining various foods and drinks placed in one tableware are taken in advance. Being prepared.

判定テーブル171には、図5に示すように、料理名称の項目c1(例えば、"ビール"等)、その料理を盛る食器の空食器画像のファイル名を格納する項目c2(例えば、ビールを入れるジョッキが空状態の画像ファイル名"jug.gif")、その食器にともに盛られる各種料理毎の画像のファイル名を格納する項目c3(例えば、ハンバーグ定食で1つの食器に盛られるハンバーグ、サラダの料理の画像ファイル名"ham.gif"、"sarada.gif")の各項目情報が格納される。   As shown in FIG. 5, the determination table 171 includes a dish name item c1 (for example, “beer”) and an item c2 for storing the file name of an empty tableware image of the dish serving the dish (for example, beer). An image file name “jug.gif” in which the mug is empty, and an item c3 (for example, a hamburger set for one dish with a hamburger set meal, salad) Each item information of the dish image file name “ham.gif” and “sarada.gif”) is stored.

印刷部18は、電子写真方式、熱転写方式、インクジェット方式等の各種印刷方式により紙などの印刷記録媒体に印刷を行う。印刷部18は、CPU11からの指示に応じて各テーブル画像から判定された客の属性、その客が飲食した料理名称及び食べ残された料理名称をまとめたレポートを印刷出力する。すなわち、印刷部18により出力手段を実現することができる。   The printing unit 18 performs printing on a print recording medium such as paper by various printing methods such as an electrophotographic method, a thermal transfer method, and an ink jet method. The printing unit 18 prints out a report that summarizes the attributes of the customers determined from each table image in response to an instruction from the CPU 11, the names of dishes eaten and eaten by the customers, and the names of leftover dishes. That is, an output unit can be realized by the printing unit 18.

次に、本実施の形態における動作を説明する。
図6は、嗜好データ処理装置10により実行される嗜好データ処理を説明するフローチャートである。
Next, the operation in the present embodiment will be described.
FIG. 6 is a flowchart illustrating the preference data processing executed by the preference data processing device 10.

図6に示す嗜好データ処理では、まずカメラ番号C(テーブル番号と一致することとする)に1が代入され、C=1に設定される(ステップS1)。次いで、何れかのテーブルにおいてスイッチSWが押下され、その押下信号が入力されたか否かが判別される(ステップS2)。例えば注文が行われたばかりで何れのテーブルからもスイッチSWの押下信号が入力されない場合は(ステップS2;N)、ステップS3の客属性判定処理に移行し、注文された料理の飲食を終えて何れかのテーブルからスイッチSWの押下信号が入力された場合は、そのスイッチSW毎にテーブル番号と対応する信号が出力され(ステップS2;Y)、ステップS7の料理引下処理に移行する。つまり、スイッチSWの押下により割り込み処理として料理引下処理が開始される。   In the preference data processing shown in FIG. 6, first, 1 is assigned to the camera number C (which matches the table number), and C = 1 is set (step S1). Next, in any table, it is determined whether or not the switch SW is pressed and the pressing signal is input (step S2). For example, if an order has just been placed and no switch SW pressing signal is input from any table (step S2; N), the process proceeds to the customer attribute determination process of step S3, and after the eating and drinking of the ordered food is finished, When a switch SW pressing signal is input from the table, a signal corresponding to the table number is output for each switch SW (step S2; Y), and the process proceeds to the dish withdrawal process in step S7. That is, when the switch SW is pressed, the dish withdrawal process is started as an interrupt process.

まず、注文されたばかりでスイッチSWの押下信号が入力されない客の全員がテーブルに着いている可能性の高い場合、例えば、注文入力端末(図示せず)から最初の注文データが入力された場合に開始される客属性判定処理について説明する。
図7は、ステップS3の客の属性を判定する客属性判定処理を説明するフローチャートである。この客の属性判定処理は、テーブルに着いている客の性別、大人/子供の区別等の属性を判定する処理である。
図7に示す客の属性判定処理では、カメラ番号Cのカメラによりテーブル上の撮影が行われ、図2に示したようなテーブル画像が取得される(ステップM1)。次いで、取得されたテーブル画像からテーブルに着いている客の画像領域が認識され、テーブル基準位置に近い客から時計回りの順に客番号Aが付与される(ステップM2)。
First, when it is highly likely that all customers who have just been ordered and the switch SW depression signal is not input have arrived at the table, for example, when the first order data is input from an order input terminal (not shown). The customer attribute determination process to be started will be described.
FIG. 7 is a flowchart for explaining the customer attribute determination process for determining the customer attribute in step S3. This customer attribute determination process is a process for determining attributes such as the sex of a customer who has arrived at the table, and adult / child distinction.
In the customer attribute determination process shown in FIG. 7, photographing on the table is performed by the camera of camera number C, and a table image as shown in FIG. 2 is acquired (step M1). Next, the image area of the customer who has arrived at the table is recognized from the acquired table image, and customer numbers A are assigned in the clockwise order from the customer close to the table reference position (step M2).

次いで、客番号Aに1の数値が代入され、A=1に設定される(ステップM3)。客番号Aが設定されると、その客番号Aの客画像の画像解析が行われ、眉、目、鼻、口等の顔を構成する各パーツや、肩の輪郭等が認識され、例えば顔のサイズ、目と眉の距離間隔、目の円形度、髭の有無、髪の長さ、肩幅等の人物特徴量が抽出される(ステップM4)。   Next, a numerical value of 1 is substituted into customer number A, and A = 1 is set (step M3). When the customer number A is set, image analysis of the customer image of the customer number A is performed, and each part constituting the face such as eyebrows, eyes, nose, mouth, and the contour of the shoulder are recognized. Character feature amounts such as the size of the eye, the distance between the eyes and the eyebrows, the circularity of the eyes, the presence or absence of wrinkles, the length of the hair, and the shoulder width are extracted (step M4).

次いで、ステップM5では、抽出された人物特徴量と、予め客の属性判定用に準備されている閾値との比較により、客の年齢層(大人か子供か)、性別(男性か女性か)の判定が行われる。例えば、子供と大人の判定時には、顔のサイズが閾値より小さければ子供、大きければ大人に判定され、髭が無ければ子供、有れば大人に判定されるといったように、各人物特徴量について順次判定が行われる。そして、人物特徴量の項目毎に子供と大人のどちらに判定されたかがカウントされる。例えば、顔のサイズ、肩幅の特徴量からは大人と判定され、目の円形度からは子供と判定された場合には、「大人:2」、「子供:1」とカウントされる。同様に、抽出された人物特徴量から男女の判定が行われ、人物特徴量の項目毎に女性と男性のどちらに判定されたのか、その判定回数がカウントされる。例えば、髭が有れば男性、口紅を塗っていれば女性、また、体型によって男性あるいは、女性に判定されるといったように、各人物特徴量について順次性別も判定が行われる。   Next, in step M5, the customer's age group (adult or child) and gender (male or female) are compared by comparing the extracted person feature quantity with a threshold value prepared in advance for customer attribute determination. A determination is made. For example, when determining a child and an adult, each person feature amount is sequentially determined such that a child is determined if the face size is smaller than a threshold, an adult is determined if the face size is larger, a child is determined if there is no wrinkle, and an adult is determined if present. A determination is made. Then, for each item of the person feature amount, it is counted whether it is determined to be a child or an adult. For example, if the face size and shoulder width are determined to be an adult and the eye circularity is determined to be a child, “adult: 2” and “child: 1” are counted. Similarly, determination of gender is performed from the extracted person feature amount, and the number of times of determination is counted as to whether it is determined to be female or male for each item of the person feature amount. For example, gender is also sequentially determined for each person feature amount, such as male being determined to have wrinkles, female being applied with lipstick, and male or female depending on body shape.

最終的には、子供より大人と判定された回数が多い場合には年齢層は大人と判定され、女性より男性と判定された回数が多い場合には客の性別は男性であると判定されるといったように、判定されたカウント数が多い方に属性が判定される。なお、判定方法はこれに限らず、例えば大人と子供の区別をする場合には、顔のサイズが大きければ5ポイント、小さければ1ポイント、髭が有れば5ポイント、無ければ1ポイントと、ポイント換算し、ポイントが大きければ大人、小さければ子供といったように重み付けを行って客の属性を判定することとしてもよい。   Eventually, the age group is determined to be an adult when the number of times determined to be an adult is higher than that of a child, and the sex of the customer is determined to be a male if the number of times determined to be a male is higher than that of a woman As described above, the attribute is determined in the direction where the determined count number is larger. Note that the determination method is not limited to this. For example, when distinguishing between an adult and a child, 5 points if the face size is large, 1 point if the face is small, 5 points if there is a wrinkle, 1 point if there is none, It is also possible to convert the points and determine the attributes of the customers by weighting them as adults if the points are large and children if the points are small.

客の属性が判定されると、客テーブル162の現在指定されているカメラ番号Cの数値のテーブル番号のエリアにおいて、属性が判定された客の客番号Aに対応付けてその属性のデータが記憶される(ステップM6)。属性データの記憶が終了すると、撮影されたテーブル画像から認識された全ての客について属性の判定が行われたか否かが判別される(ステップM7)。全ての客について属性の判定が終了していない場合は(ステップM7;N)、客番号Aに、現在設定されているAの値を1だけインクリメントした値が代入され(ステップM8)、ステップM4の処理に戻って次の客番号A+1の客について属性の判定が繰り返し行われる。一方、全ての客について属性の判定が終了した場合は(ステップM7;Y)、次の処理、つまり図6に示すステップS4の配膳料理判定処理に移行する。   When the attribute of the customer is determined, in the table number area of the numerical value of the camera number C currently designated in the customer table 162, the data of the attribute is stored in association with the customer number A of the customer whose attribute is determined. (Step M6). When the storage of the attribute data is completed, it is determined whether or not the attributes have been determined for all customers recognized from the photographed table image (step M7). If the attribute determination has not been completed for all customers (step M7; N), a value obtained by incrementing the currently set value of A by 1 is substituted for customer number A (step M8), and step M4. Returning to the process, the attribute determination is repeated for the customer of the next customer number A + 1. On the other hand, when the attribute determination is completed for all customers (step M7; Y), the process proceeds to the next process, that is, the serving dish determination process in step S4 shown in FIG.

ステップS4の配膳料理判定処理について、図8を参照して説明する。この配膳料理判定処理は、客に配膳された料理を判定するとともに、客とその客が飲食している料理の組み合わせを判定する処理である。   The serving dish determination process in step S4 will be described with reference to FIG. This cooked dish determination process is a process of determining a dish served by a customer and determining a combination of the customer and the dish that the customer is eating and drinking.

図8に示す配膳料理処理では、カメラ番号Cのカメラの撮影により取得されたテーブル画像からテーブル上の各食器の画像領域がその食器を含む矩形領域で認識され、テーブル基準位置に近い食器から時計回りの順に器番号Dが付与される(ステップR1)。次いで、各食器画像の矩形領域を特定する2点の座標がZ1[Dn](x1、y1)、Z2[Dn](x2、y2)がその食器の位置情報として器番号Dと対応付けて位置テーブル161に記憶される(ステップR2)。   In the serving dish process shown in FIG. 8, the image area of each tableware on the table is recognized from the table image acquired by the camera of camera number C, and the rectangular area including the tableware is used. A device number D is assigned in the order of rotation (step R1). Next, the coordinates of two points specifying the rectangular area of each tableware image are Z1 [Dn] (x1, y1) and Z2 [Dn] (x2, y2) are associated with the unit number D as the table position information. It is stored in the table 161 (step R2).

各食器の位置情報が記憶されると、器番号Dに1の値が代入され、D=1に設定される(ステップR3)。器番号Dが設定されると、記憶部17から判定用の詳細料理画像が読み出され、器番号Dの食器画像と詳細料理画像とが照合されて、相似する詳細料理画像の有無が判別される(ステップR4)。器番号Dの食器画像と相似する詳細料理画像が無い場合は(ステップR4;N)、ステップR9に移行し、相似する詳細料理画像が有る場合は(ステップR4;Y)、器番号Dの料理が判定される(ステップR5)。   When the position information of each tableware is stored, a value of 1 is assigned to the device number D, and D = 1 is set (step R3). When the device number D is set, the detailed cooking image for determination is read from the storage unit 17, the tableware image of the device number D is compared with the detailed cooking image, and the presence or absence of a similar detailed cooking image is determined. (Step R4). When there is no detailed dish image similar to the dish image with the unit number D (step R4; N), the process proceeds to step R9, and when there is a similar detailed dish image (step R4; Y), the dish with the unit number D is displayed. Is determined (step R5).

料理の具体的な判定例について、図9を参照して説明する。
例えばハンバーグ定食の料理に卵、サラダ、ハンバーグの3種の料理が含まれている場合、ハンバーグ定食の料理に対して卵の詳細料理画像、サラダの詳細料理画像、ハンバーグの詳細料理画像が準備されて記憶部17に格納されている。
図9に示すように、撮影された食器画像中に、ハンバーグ定食の詳細料理画像と相似する料理画像が含まれている場合は、器番号Dの食器内の料理はハンバーグ定食であると判定される。
A specific determination example of cooking will be described with reference to FIG.
For example, if the hamburger set includes three types of dishes: egg, salad, and hamburger, a detailed image of the egg, a detailed image of the salad, and a detailed image of the hamburger are prepared for the hamburger set. And stored in the storage unit 17.
As shown in FIG. 9, when the dish image taken is similar to the detailed dish image of the hamburger set meal, it is determined that the dish in the tableware with the dish number D is a hamburger set meal. The

料理が判定されると、判定された料理とその料理を飲食する客の組み合わせが判定される(ステップR6)。具体的には、位置テーブル161に基づいて器番号Dの位置に最も近い客がその器番号Dの食器の料理を飲食している客として判定される。   When the dish is determined, a combination of the determined dish and a customer who eats and drinks the dish is determined (step R6). Specifically, based on the position table 161, the customer closest to the position of the device number D is determined as a customer who is eating and drinking the dish of the device number D.

次いで、判定された客と料理の組み合わせで、既に客テーブル162において客に対応する料理名称が記憶されているか否かが判別される(ステップR7)。客に対応する料理名称が記憶されていると判別された場合は(ステップR7;Y)、ステップR9の処理へ移行する一方、客に対応する料理名称が記憶されていないと判別された場合は(ステップR7;N)、客テーブル162においてその客番号Aに対応付けて相似する詳細料理画像の料理名称が記憶される(ステップR8)。   Next, it is determined whether or not a dish name corresponding to the customer has already been stored in the customer table 162 based on the determined combination of the customer and the dish (step R7). When it is determined that the dish name corresponding to the customer is stored (step R7; Y), the process proceeds to step R9, while when it is determined that the dish name corresponding to the customer is not stored. (Step R7; N), the dish name of the detailed dish image similar to the customer number A in the customer table 162 is stored (Step R8).

ステップR9では、全ての食器画像について判定が行われたか否かが判別される。全ての食器画像について判定が終了していない場合(ステップR9;N)、器番号Dに、現在設定されているDの値を1だけインクリメントした値が代入され(ステップR10)、ステップR4の処理に戻って次の器番号D+1の食器画像について料理及び料理と客の組み合わせの判定が繰り返し行われる。一方、全ての食器画像について判定が行われた場合は(ステップR9;Y)、次の処理、つまり図6に示すステップS5に移行する。   In step R9, it is determined whether or not determination has been made for all tableware images. If the determination has not been completed for all the tableware images (step R9; N), a value obtained by incrementing the currently set value of D by 1 is substituted for the device number D (step R10), and the process of step R4 is performed. Returning to FIG. 4, the determination of the dish and the combination of the dish and the customer is repeatedly performed for the next tableware number D + 1. On the other hand, if all tableware images have been determined (step R9; Y), the process proceeds to the next process, that is, step S5 shown in FIG.

図6に示すステップS5では、全てのテーブルについて客の属性の判定及び配膳された食器内の料理の判定が終了したか否かが判別される。全てのテーブルについて判定が終了していない場合は(ステップS5;N)、カメラ番号Cに、現在設定されているCの値を1だけインクリメントした値を代入してステップS2の処理に戻り、カメラ番号C+1のカメラにより撮影された画像から客の属性の判定及び料理の判定が繰り返し行われる。一方、全てのテーブルについて判定が終了した場合は(ステップS5;Y)、ステップS1に戻り、カメラ番号1から順に再度、各判定が繰り返される。   In step S5 shown in FIG. 6, it is determined whether or not the determination of the customer attributes and the determination of the dishes in the arranged tableware have been completed for all the tables. If the determination is not completed for all the tables (step S5; N), the camera number C is substituted with a value obtained by incrementing the currently set C value by 1, and the process returns to step S2. The determination of the customer's attribute and the determination of the dish are repeatedly performed from the image taken by the camera of number C + 1. On the other hand, when the determination is completed for all the tables (step S5; Y), the process returns to step S1, and each determination is repeated again in order from camera number 1.

次に、嗜好データ処理中にテーブルに設置されたスイッチSWが押下され、図6に示すステップS2においてスイッチSWの押下信号が入力されたと判別されて料理引下処理に移行した場合について説明する。   Next, a case will be described in which the switch SW installed in the table is pressed during the preference data processing, and it is determined that the switch SW pressing signal is input in step S2 shown in FIG.

図10は、料理引下処理を説明するフローチャートである。
図10に示す料理引下処理では、スイッチSW毎に出力される信号と対応したテーブル番号まずカメラ番号Cのカメラによりテーブル上の撮影が行われ、図2に示したようなテーブル画像が取得される(ステップQ1)。次いで、撮影により取得されたテーブル画像からテーブル上の各食器の画像領域がその食器を含む矩形領域で認識され、テーブル基準位置に近い食器から時計回りの順に器番号Dが付与される(ステップQ2)。
FIG. 10 is a flowchart for explaining the dish withdrawal process.
In the dish withdrawal process shown in FIG. 10, the table number corresponding to the signal output for each switch SW is first photographed on the table by the camera with the camera number C, and the table image as shown in FIG. 2 is acquired. (Step Q1). Next, the image area of each tableware on the table is recognized from the table image acquired by photographing in the rectangular area including the tableware, and the unit number D is given in the clockwise order from the tableware near the table reference position (step Q2). ).

器番号Dが付与されると、各食器画像の矩形領域を特定する2点の座標がZ1[Dn](x1、y1)、Z2[Dn](x2、y2)がその食器の位置情報として器番号Dと対応付けて位置テーブル161に記憶される(ステップQ3)。   When the device number D is given, the coordinates of the two points specifying the rectangular area of each tableware image are Z1 [Dn] (x1, y1), and Z2 [Dn] (x2, y2) are used as the position information of the tableware. It is stored in the position table 161 in association with the number D (step Q3).

各食器の位置情報が記憶されると、器番号Dに1の値が代入され、D=1に設定される(ステップQ4)。次いで、客テーブル162に基づいて配膳料理判定処理で判定された器番号Dに対応する料理の空食器画像及び詳細料理画像が判定テーブル171から読み出されて(ステップQ5)、撮影で得られた器番号Dの食器画像と、読み出された空食器画像及び詳細料理画像とが照合される(ステップQ6)。そして、その照合結果から器番号Dの食器は空の状態であるか否かが判別される(ステップQ7)。   When the position information of each tableware is stored, a value of 1 is assigned to the device number D, and D = 1 is set (step Q4). Next, an empty dish image and a detailed dish image of the dish corresponding to the device number D determined by the serving dish determination process based on the customer table 162 are read from the determination table 171 (step Q5) and obtained by photographing. The tableware image of the device number D is collated with the read empty tableware image and the detailed dish image (step Q6). And it is discriminate | determined from the collation result whether the tableware of the device number D is an empty state (step Q7).

食器が空状態か否かの判別は、撮影された食器画像と空食器画像とが照合され、相似している場合は空状態であると判別され、逆に非相似である場合は料理が食器に残っていると判別される。例えば、空食器画像が図11(a)に示すような画像であり、撮影された食器画像が図11(b)に示すような画像である場合、各画像は相似ではないので、料理が残っていると判別される。   Whether the tableware is empty or not is checked by comparing the photographed tableware image with the empty tableware image. If they are similar, it is determined that the table is empty, and vice versa. It is determined that it remains in For example, if the empty tableware image is an image as shown in FIG. 11 (a) and the photographed tableware image is an image as shown in FIG. 11 (b), each image is not similar, so the dish remains. It is determined that

食器が空状態であると判別された場合は(ステップQ7;Y)、客により料理が全て食べられたとして、客テーブル162において、残量の項目に"完食"のデータが書き込まれ(ステップQ8)、ステップQ10の処理へ移行する。   If it is determined that the tableware is empty (step Q7; Y), it is assumed that all the dishes have been eaten by the customer, and data of “complete meal” is written in the remaining amount item in the customer table 162 (step S7). Q8), the process proceeds to step Q10.

一方、食器が空状態ではないと判別された場合には(ステップQ7;N)、その食器の中で食べ残された料理の特定が行われる。まず撮影された食器画像と詳細料理画像とが照合され、食器画像中に詳細料理画像と相似する画像が含まれるか否かが判別される。そして、詳細料理画像と相似する画像が含まれる場合は、その詳細料理が残っているとして、詳細料理の名称が客テーブル162に書き込まれる(ステップQ9)。図11(b)に示す例では、撮影された食器画像中にサラダの詳細料理画像と相似する画像領域が含まれるので、食べ残された料理はサラダであると判定される。食べ残された料理が判定されると、ステップQ10の処理へ移行する。   On the other hand, when it is determined that the tableware is not empty (step Q7; N), the dish left uneaten in the tableware is specified. First, the photographed tableware image and the detailed dish image are collated, and it is determined whether or not the tableware image includes an image similar to the detailed dish image. If an image similar to the detailed dish image is included, the detailed dish name is written in the customer table 162, assuming that the detailed dish remains (step Q9). In the example shown in FIG. 11B, since the image area similar to the detailed dish image of the salad is included in the photographed tableware image, it is determined that the uneaten dish is a salad. When the leftover food is determined, the process proceeds to step Q10.

ステップQ10では、全ての食器について食べ残された料理の判定が行われたか否かが判別される。全ての食器について判定が終了していない場合は(ステップQ10;N)、器番号Dに、現在設定されているDの値に1だけインクリメントされた値が代入され(ステップQ11)、ステップQ5に戻って器番号D+1の食器について食べ残された料理の判定が行われる。   In step Q10, it is determined whether or not the determination of leftover food for all tableware has been performed. If the determination has not been completed for all tableware (step Q10; N), a value incremented by 1 is assigned to the currently set value of D for the device number D (step Q11), and step Q5 is entered. Returning to the table, the dish left over for the tableware with the unit number D + 1 is determined.

一方、全ての食器について判定が終了した場合には(ステップQ10;Y)、客テーブル162に基づいて、テーブルにおける客の属性、飲食された料理名称及び食べ残された料理名称を示したレポートが印刷部18により図12のように印刷出力され(ステップQ12)、料理引下処理を終了する。料理引下処理終了後は、図6に示すステップS4の嗜好データ配膳料理判定処理のステップS4に移行する。なお、嗜好データ処理装置10がPOS端末装置などの売上げデータ処理装置であった場合、客の属性別、且つ料理別に完食数、食べ残し数を累計加算して、点検モードや精算モードに設定されると、その各データを点検モードや精算モードにすることでレポートとして出力するような構成にしてもよい。   On the other hand, when the determination has been completed for all tableware (step Q10; Y), based on the customer table 162, a report showing the attributes of customers in the table, the names of foods eaten and eaten, and the names of leftover foods is displayed. The printing unit 18 prints out the print as shown in FIG. 12 (step Q12), and the dish-drawing process is terminated. After completion of the dish withdrawal process, the process proceeds to step S4 of the preference data serving dish determination process of step S4 shown in FIG. If the preference data processing device 10 is a sales data processing device such as a POS terminal device, the total number of completed meals and the number of leftovers are added for each customer attribute and for each dish, and set to the check mode or the checkout mode. Then, the configuration may be such that each data is output as a report by setting the check mode or the checkout mode.

以上のように、配膳された食器画像を撮影し、その食器内の料理を判定するとともに、料理を下げる際に再度食器画像を撮影し、食べ残された料理を判定して、その判定結果をレポートとして出力するので、どの料理が食べ残されたのかを容易に把握することができ、客の嗜好性を判断することが可能となる。   As described above, the arranged tableware image is taken, the dish in the tableware is determined, the tableware image is photographed again when lowering the dish, the uneaten dish is determined, and the determination result is obtained. Since it is output as a report, it is possible to easily grasp which dishes have been left uneaten, and it is possible to determine the palatability of customers.

また、客の画像を撮影し、当該撮影画像から客の属性を判定するとともに、客とその客が飲食している料理を判定してその判定結果をレポートとして出力するので、どのような客がどの料理を飲食するのかを容易に把握することができ、客の属性と嗜好性との相関性を判断することが可能となる。   In addition, the customer's image is photographed, the customer's attributes are determined from the photographed image, the customer and the food that the customer is eating and drinking are determined, and the determination result is output as a report. It is possible to easily grasp which dish to eat and drink, and it is possible to determine the correlation between customer attributes and palatability.

なお、本実施の形態における記述内容は、本発明を適用した嗜好データ処理装置10の好適な一例であり、これに限定されるものではない。   In addition, the description content in this Embodiment is a suitable example of the preference data processing apparatus 10 to which this invention is applied, It is not limited to this.

例えば、上述した説明では、テーブル上に配膳された食器画像を撮影し、その食器内の料理及び料理の残量を判定することとしたが、これに限らず、バイキング等で用意された料理の器を定期的に撮影することにより、バイキング料理の残量を定期的に判定して客の嗜好性を把握できるようにしてもよい。   For example, in the above description, the tableware image arranged on the table is photographed, and the dish in the tableware and the remaining amount of the dish are determined. However, the present invention is not limited to this. By periodically photographing the vessel, it may be possible to periodically determine the remaining amount of the Viking food and grasp the palatability of the customer.

また、上述した客の属性の判定方法もその一例であり、これに限らない。例えば、客の属性としてグループ構成を判定することとしてもよい。例えば、撮影されたテーブル画像から1テーブルに1人の客だけ検出された場合は「1人」、1テーブルに大人の男性と女性が1人づつ検出された場合は「カップル」、1テーブルに大人が数人と子供が数人検出された場合は「家族連れ」と判定し、客の属性として客テーブル162に記憶する。これにより、さらに詳細な客の嗜好性を把握することができる。   The above-described method for determining customer attributes is also an example, and is not limited thereto. For example, the group configuration may be determined as a customer attribute. For example, if only one customer is detected in one table from the photographed table image, “one person” is detected. If adult men and women are detected one by one in the table, “couple” is displayed in one table. When several adults and several children are detected, it is determined to be “with family” and stored in the customer table 162 as customer attributes. Thereby, it is possible to grasp a more detailed palatability of customers.

また、客の属性として、年齢を判定することとしてもよい。例えば、撮影された客の画像から、しわ、たるみ、肌色、髪色等の人物特徴量を抽出し、この人物特徴量に基づいて、しわやたるみが多ければ60歳以上、中程度であれば40〜50歳代、少なければ20〜30歳代といったように、年齢を判定する。これにより、さらに詳細な客の嗜好性を把握することができる。   Further, the age may be determined as the customer attribute. For example, human feature amounts such as wrinkles, sagging, skin color, hair color, etc. are extracted from the photographed customer image, and if there are many wrinkles and saggings based on this person feature amount, it is over 60 years old and if it is moderate Age is determined such as 40 to 50 years old and 20 to 30 years old if it is small. Thereby, it is possible to grasp a more detailed palatability of customers.

また、上述した説明では、客の属性、客が飲食した料理の名称及び食べ残された料理名称等の嗜好データをレポートとして印刷出力する例を示したが、これに限らず、例えば大人の女性ではハンバーグ定食が一番多く飲食され、サラダが一番多く食べ残された客の属性毎に飲食された等のように、料理名称及び食べ残された料理名称の統計をとり、当該統計結果を嗜好データとして印刷出力することとしてもよい。また、その出力形態も印刷出力ではなく表示部13に表示出力することとしてもよい。   In addition, in the above description, an example is shown in which preference data such as customer attributes, names of foods eaten and eaten by customers and names of leftover foods are printed and output as reports. Then, take statistics on the names of dishes and leftovers, such as eating and drinking for each attribute of customers who have eaten the most hamburger meals and the most leftovers of salads. It may be printed out as preference data. Further, the output form may be output on the display unit 13 instead of the print output.

その他、本実施の形態における嗜好データ処理装置10の細部構成及び細部動作に関しても、本発明の趣旨を逸脱することのない範囲で適宜変更可能である。   In addition, the detailed configuration and detailed operation of the preference data processing apparatus 10 according to the present embodiment can be changed as appropriate without departing from the spirit of the present invention.

本発明を適用した実施の形態における嗜好データ処理10の内部構成を示す図である。It is a figure which shows the internal structure of the preference data processing 10 in embodiment to which this invention is applied. カメラ1b〜nbにより真上から撮影されたテーブル画像を示す図である。It is a figure which shows the table image image | photographed from right above with the cameras 1b-nb. 位置テーブル161のデータ構成例を示す図である。It is a figure which shows the data structural example of the position table 161. FIG. 客テーブル162のデータ構成例を示す図である。It is a figure which shows the data structural example of the customer table 162. FIG. 判定テーブル171のデータ構成例を示す図である。It is a figure which shows the example of a data structure of the determination table. 嗜好データ処理装置10により実行される嗜好データ処理を説明するフローチャートである。4 is a flowchart illustrating preference data processing executed by the preference data processing device 10. 嗜好データ処理装置10により実行される客の属性判定処理を説明するフローチャートである。It is a flowchart explaining the customer attribute determination process performed by the preference data processing apparatus. 嗜好データ処理装置10により実行される配膳料理判定処理を説明するフローチャートである。It is a flowchart explaining the serving dish determination process performed by the preference data processing apparatus. 詳細料理画像について説明する図である。It is a figure explaining a detailed cooking image. 嗜好データ処理装置10により実行される料理引下処理を説明するフローチャートである。It is a flowchart explaining the dish withdrawal process performed by the preference data processing apparatus. 食器が空状態であるか否かの判定例を示す図である。It is a figure which shows the example of determination whether a tableware is empty. 客毎にその客層及び飲食された料理について出力されたレポート例を示す図である。It is a figure which shows the example of a report output about the customer layer and the food / drinks which were eaten for every customer.

符号の説明Explanation of symbols

10 嗜好データ処理装置
11 CPU
12 入力部
13 表示部
14 I/F
15 通信部
16 RAM
161 位置テーブル
162 客テーブル
17 記憶部
171 判定テーブル
18 印刷部
1a、1b〜na、nb カメラ
SW スイッチ
10 Preference data processing device 11 CPU
12 Input unit 13 Display unit 14 I / F
15 Communication unit 16 RAM
161 Position table 162 Customer table 17 Storage unit 171 Determination table 18 Printing unit 1a, 1b to na, nb Camera SW switch

Claims (5)

食器内の飲食物及びその残量を判定するための判定用画像を記憶する画像記憶手段と、
客が飲食する飲食物が収容された食器画像を撮影する撮影手段と、
前記撮影された飲食物の食器画像と、前記記憶された判定用画像とを照合し、食器内の飲食物及びその残量を判定する判定手段と、
前記判定された飲食物及びその残量に応じたデータを客の嗜好データとして記憶する嗜好記憶手段と、
前記記憶された嗜好データを出力する出力手段と、
を備えることを特徴とする嗜好データ処理装置。
Image storage means for storing a determination image for determining food and drink in the tableware and the remaining amount thereof;
Photographing means for photographing tableware images containing food and drinks for customers to eat and drink;
A determination means for comparing the photographed tableware image of the food and drink with the stored determination image, and determining the food and drink in the tableware and the remaining amount thereof,
Preference storage means for storing data corresponding to the determined food and drink and its remaining amount as customer preference data;
Output means for outputting the stored preference data;
A preference data processing apparatus comprising:
前記撮影手段は、客の画像を撮影し、
前記判定手段は、前記撮影された客の画像に基づいて客の属性を判定し、
前記嗜好記憶手段は、前記判定された客の属性のデータと嗜好データとを対応付けて記憶し、
前記出力手段は、前記記憶された客の属性データ及び嗜好データを出力することを特徴とする請求項1に記載の嗜好データ処理装置。
The photographing means photographs a customer image,
The determination means determines a customer attribute based on the photographed customer image,
The preference storage means stores the determined attribute data of the customer and preference data in association with each other,
The preference data processing apparatus according to claim 1, wherein the output unit outputs the stored customer attribute data and preference data.
飲食が終了したことを通知するための指示手段を備え、
前記指示手段からの指示に応じて前記撮影手段による撮影及び前記判定手段による判定が開始されることを特徴とする請求項1又は2に記載の嗜好データ処理装置。
An instruction means for notifying that eating and drinking has ended is provided.
3. The preference data processing apparatus according to claim 1, wherein photographing by the photographing unit and determination by the determining unit are started in response to an instruction from the instruction unit.
前記判定手段は、前記撮影手段により撮影された食器画像と、前記画像記憶手段に記憶された判定用画像とを照合し、食器内にともに収容されている複数の飲食物のそれぞれについて、飲食物の種類及びその残量を判定することを特徴とする請求項1〜3の何れか一項に記載の嗜好データ処理装置。   The determination unit collates the tableware image captured by the imaging unit with the determination image stored in the image storage unit, and for each of the plurality of foods and drinks housed in the tableware, The preference data processing device according to any one of claims 1 to 3, wherein the type and the remaining amount thereof are determined. コンピュータに、
食器内の飲食物及びその残量を判定するための判定用画像を画像記憶手段に記憶させる機能と、
客が飲食する飲食物が収容された食器画像を撮影手段に撮影させる機能と、
前記撮影された飲食物の食器画像と、前記記憶された判定用画像とを照合し、食器内の飲食物及びその残量を判定する機能と、
前記判定された飲食物及びその残量に応じたデータを客の嗜好データとして嗜好記憶手段に記憶させる機能と、
前記記憶された嗜好データを出力手段に出力させる機能と、
を実現させるためのプログラム。
On the computer,
A function for storing an image for determination in the image storage means for determining food and drink in the tableware and the remaining amount thereof;
A function that causes the photographing means to photograph the tableware image containing the food and drink that the customer eats and drinks;
A function of comparing the photographed food and drink tableware image with the stored determination image, and determining the food and drink in the tableware and the remaining amount thereof,
A function of storing data according to the determined food and drink and its remaining amount in the taste storage means as customer preference data;
A function of causing the output means to output the stored preference data;
A program to realize
JP2003278207A 2003-07-23 2003-07-23 Preference data processing device and program Abandoned JP2005044170A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2003278207A JP2005044170A (en) 2003-07-23 2003-07-23 Preference data processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2003278207A JP2005044170A (en) 2003-07-23 2003-07-23 Preference data processing device and program

Publications (1)

Publication Number Publication Date
JP2005044170A true JP2005044170A (en) 2005-02-17

Family

ID=34264690

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003278207A Abandoned JP2005044170A (en) 2003-07-23 2003-07-23 Preference data processing device and program

Country Status (1)

Country Link
JP (1) JP2005044170A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100911646B1 (en) 2005-11-09 2009-08-10 삼성전자주식회사 Method and System For Unification Management in Dining Room
JP2010039742A (en) * 2008-08-05 2010-02-18 Mitsubishi Electric Information Systems Corp Eating/drinking managing/analyzing system for customer in restaurant
JP2016110161A (en) * 2014-12-01 2016-06-20 カシオ計算機株式会社 Sales processor and sales processing method
JP2018106580A (en) * 2016-12-28 2018-07-05 キヤノンマーケティングジャパン株式会社 Information processing apparatus, system, control method thereof, and program therefor
JP2021026452A (en) * 2019-08-02 2021-02-22 東京瓦斯株式会社 Customer management system, program, device and method
JP7188848B1 (en) 2022-03-29 2022-12-13 マミヤ・オーピー株式会社 Information processing device, information processing method and information processing program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR100911646B1 (en) 2005-11-09 2009-08-10 삼성전자주식회사 Method and System For Unification Management in Dining Room
JP2010039742A (en) * 2008-08-05 2010-02-18 Mitsubishi Electric Information Systems Corp Eating/drinking managing/analyzing system for customer in restaurant
JP4691146B2 (en) * 2008-08-05 2011-06-01 三菱電機インフォメーションシステムズ株式会社 Customer eating and drinking management analysis system in restaurants
JP2016110161A (en) * 2014-12-01 2016-06-20 カシオ計算機株式会社 Sales processor and sales processing method
JP2018106580A (en) * 2016-12-28 2018-07-05 キヤノンマーケティングジャパン株式会社 Information processing apparatus, system, control method thereof, and program therefor
JP2021026452A (en) * 2019-08-02 2021-02-22 東京瓦斯株式会社 Customer management system, program, device and method
JP7376272B2 (en) 2019-08-02 2023-11-08 東京瓦斯株式会社 Customer management systems, programs, devices and methods
JP7188848B1 (en) 2022-03-29 2022-12-13 マミヤ・オーピー株式会社 Information processing device, information processing method and information processing program
JP2023146500A (en) * 2022-03-29 2023-10-12 マミヤ・オーピー株式会社 Information processing device, information processing method, and information processing program

Similar Documents

Publication Publication Date Title
US20220359058A1 (en) Meal service management system and operating method therefor
US20050139660A1 (en) Transaction device
KR102561844B1 (en) Menu display method, menu display device, and menu display program
KR20200072444A (en) Cafeteria management system
JP2007249919A (en) Self-ordering type electronic menu device equipped with calorie management function
CN109658291A (en) Information processing method, device, system, storage medium and electronic equipment
JP5020505B2 (en) Food order reception system that handles unlimited quantity services
JP2019175193A (en) Order system, information processing device, and program
JP6369319B2 (en) Sales processing apparatus and product popularity analysis method by customer group
JP6904102B2 (en) Image search method and server
US20170344973A1 (en) Sales data processing apparatus and method for easily finding customer
JP2015191576A (en) Information output apparatus, information output method, information output system, terminal and program
JP6459447B2 (en) Product ordering device, product ordering method, product price output device, product price output method and program
JP2005044170A (en) Preference data processing device and program
JP2004206393A (en) Image data processor and program
JP6439415B2 (en) Sales processing apparatus and sales processing method
US11562338B2 (en) Automated point of sale systems and methods
JP7167520B2 (en) Menu generation system and menu generation method
JP6554257B2 (en) Support system for providing custom dishes
JP2001101157A (en) Device and system for diet management and recording medium
JP4589754B2 (en) Catering support method, catering support system, and catering support apparatus
JP2007287082A (en) Pos system for presenting recommendation list for banquet using banquet history
JPH1166170A (en) Recipe providing system
JP7269760B2 (en) Order controller and program
US20080270244A1 (en) Method, system and program to present food and beverege menu by digital portable touch screen display device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060526

A762 Written abandonment of application

Free format text: JAPANESE INTERMEDIATE CODE: A762

Effective date: 20070914