JP2004213319A - Image data processing system and image data processing program - Google Patents

Image data processing system and image data processing program Download PDF

Info

Publication number
JP2004213319A
JP2004213319A JP2002382033A JP2002382033A JP2004213319A JP 2004213319 A JP2004213319 A JP 2004213319A JP 2002382033 A JP2002382033 A JP 2002382033A JP 2002382033 A JP2002382033 A JP 2002382033A JP 2004213319 A JP2004213319 A JP 2004213319A
Authority
JP
Japan
Prior art keywords
customer
image data
order
unit
dish
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002382033A
Other languages
Japanese (ja)
Other versions
JP4228696B2 (en
Inventor
Kazuyoshi Toma
和義 當摩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2002382033A priority Critical patent/JP4228696B2/en
Publication of JP2004213319A publication Critical patent/JP2004213319A/en
Application granted granted Critical
Publication of JP4228696B2 publication Critical patent/JP4228696B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To reduce manual works related to the order of food to the payment therefor. <P>SOLUTION: The food cooked and laid out by a cook in charge is placed on a table h, and the food is imaged by cameras f and g to acquire layout image data. The layout image data are compared with food reference image data that are the reference of a proper layout of food stored in a storage part 15. Whether this layout of food is proper or not is automatically determined by a comparison part 111 according to the matching degree. The determination result of the layout of food is displayed on a display part 14 by a control part 112. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、画像データを用いて各種作業を補助する画像データ処理システム及び画像データ処理プログラムに関する。
【0002】
【従来の技術】
従来、レストランや食堂等において人が行う作業としては、客からの料理の注文の受付け、その注文された料理の調理及び盛付け、その調理された料理の配膳、食事を終えた客の料理の精算等があった。
【0003】
また、前記作業の中には、コンピュータを用いた自動化が考えられているものもある。例えば、食事を終えた客の料理の精算について、料理の種類(値段)によって盛り付けるべき食器が予め決められており、料理の精算時に、料理が盛付けられていた食器にスリット光を照射し、その照射された食器をカメラで撮影して画像データを取得し、その画像データ中のスリット光を解析して、撮影された食器の形状及び数を算出し、その食器の形状及び数に基づいて料理の精算を行う装置が考えられている(例えば、特許文献1参照)。
【0004】
【特許文献1】
特開平10−069579号公報(第3〜4頁、図1、図2)
【0005】
【発明が解決しようとする課題】
しかし、上記各作業の軽減が図られていない部分はたくさんあり、それらの作業が適正になされていない場合があった。例えば、上記注文された料理の盛付けにおいては、担当調理人により個性があり、料理の量を含む盛付け結果が客観的に見て必ずしも一致しない場合があり、同じ料理を注文した客に不公平が生じてしまうことがあった。ひどい場合には、担当調理人が盛付けるべき料理の盛付けを忘れてしまうこともあった。これらの料理の盛付けチェックは、調理人、ウエイター若しくはウエイトレス等が目視により行う。しかし、調理人の料理の盛付けのチェックの負担は大きく、人による作業のためチェックミスも発生していた。特に店が混んでいて忙しいときに盛付けチェックの負担は更に大きくなり、チェックミスの頻度も負増えていた。
【0006】
また、客がカウンタで注文し、注文した料理が完成した後、再びその客がその料理を受取る方式においては、ウエイター若しくはウエイトレス等が客の顔と客の注文した料理とその順番を把握する作業は大きな負担となっていた。例えば、ウエイター若しくはウエイトレス等が客の顔を忘れてしまったり、注文していない客や、注文したが受取るべき順番でない客に誤って料理を受渡してしまうことがあった。
【0007】
また、食事を終えた客の料理の精算について、ウエイター若しくはウエイトレスが伝票を見て料金を入力する作業又はその客の伝票からテーブル番号を入力する作業等が必要であった。このため、精算時に入力作業の負担があった。
【0008】
本発明の課題は、料理の注文から精算における人が行う作業を軽減できるようにすることである。
【0009】
【課題を解決するための手段】
本発明は、
適正な料理の盛り付けの基準となる料理基準画像データを記憶する記憶部と、
調理された料理を撮影して盛付け画像データを出力する撮影部と、
前記記憶部に記憶された料理基準画像データと前記撮影部に撮影された盛付け画像データとを比較して、その一致の度合いを算出する比較部と、
前記比較部により算出された一致の度合いに基づいて料理の盛り付けの評価を出力する制御部とを備える。
【0010】
本発明によれば、料理基準画像データと盛付け画像データとの一致の度合いが算出され、その一致の度合いに基づいた料理の盛付けの評価が出力されるので、目視による料理の盛付けの評価作業の実行負担を軽減することができる。また、料理の盛付けを正確に評価するので、料理の盛付けの精度の向上を調理人に図らしめることができる。
【0011】
また、例えば、前記記憶部は、料理の調理人を識別する識別データを記憶し、前記制御部は、前記料理の盛り付けの評価を、前記識別データに対応して出力するとともに前記記憶手段に記憶するとして構成してもよい。
【0012】
また、例えば、前記制御部は、前記記憶部に記憶された前記識別データ及び前記料理の盛り付けの評価に基づいて各調理人を評価する評価データを算出し、前記識別データに対応して前記評価データを出力するとして構成してもよい。
【0013】
また、本発明は、
料理を注文した注文客を撮影して注文客画像データを出力する第1の撮影部と、
料理を受取りに来た受取り客を撮影して受取り客画像データを出力する第2の撮影部と、
前記第1の撮影部により撮影された注文客画像データと前記第2の撮影部により撮影された受取り客画像データとを比較し、その一致の度合いにより、前記注文客と前記受取り客とが一致するか否かを判別する比較部と、
前記比較部により前記注文客と前記受取り客とが一致すると判別された場合に、前記受取り客への料理の受渡し実行を指示する制御部とを備える。
【0014】
本発明によれば、注文客画像データと受取り客画像データとの比較により、注文客と受取り客とが一致するか否かが判別され、注文客と受取り客とが一致すると判別された場合に、受取り客への料理の受渡し実行を指示するので、目視による適正な受取り客の確認作業の実行負担を軽減することができる。また、適正な受取り客を正確に判別するので、料理の受渡しの間違いを防ぐことができる。
【0015】
また、本発明は、
料理を注文した注文客を撮影して注文客画像データを出力する第1の撮影部と、
前記第1の撮影部により撮影された注文客画像データと前記注文客に応じた精算のための精算データとを記憶する記憶部と、
料理の精算をする精算客を撮影して精算客画像データを出力する第2の撮影部と、
前記記憶部に記憶された注文客画像データと前記第2の撮影部により撮影された精算客画像データとを比較し、その一致の度合いにより、前記注文客と前記精算客とが一致するか否かを判別する比較部と、
前記比較部により前記注文客と前記精算客とが一致すると判別された場合に、前記記憶部から前記精算客に対応する精算データを読み出し、前記精算客への料理の精算実行指示及び前記精算客に対応する精算データを出力する制御部とを備える。
【0016】
本発明によれば、注文客画像データと精算客画像データとの比較により、注文客と精算客とが一致するか否かが判別され、注文客と精算客とが一致すると判別された場合に、精算客への料理の精算実行指示及びその精算データを出力するので、精算客に対応する精算データの取得のための情報の入力作業の実行負担を軽減することができる。また、精算客に対応する適正な精算データを正確に出力するので、精算の間違いを防ぐことができる。
【0017】
【発明の実施の形態】
以下、添付図面を参照して、本発明に係る第1及び第2の実施の形態を順に説明する。
【0018】
(第1の実施の形態)
図1〜図11を参照して、本発明に係る第1の実施の形態を説明する。先ず、図1及び図2を参照して本実施の形態における装置の特徴を説明する。図1は、本実施の形態における画像データ処理システムαの構成を示す図である。図2は、注文端末20の内部構成を示す図である。
【0019】
図1に示すように、本実施の形態の画像データ処理システムαは、レストラン、食堂等に設けられる。画像データ処理システムαは、各種処理及び料理の精算を行うECR(Electronic Cash Register)10と、ウエイター又はウエイトレスが携帯し注文の受付け等に使用する携帯の注文端末20と、厨房に設けられ各種処理を行う厨房端末30と、ECR10での精算時の客の顔を撮影する撮影部としてのカメラa,bと、客がつくテーブルe1〜eN(但し、Nは任意の自然数)毎に設けられ注文する客の顔を撮影する撮影部としてのカメラc1〜cN,d1〜dNと、厨房又は配膳のためのカウンター等に設けられ、調理済みで配膳前の料理を撮影する撮影部としてのカメラf,gとを備える。カメラa,b,c1〜cN,d1〜dNはECR10に接続され、カメラf,gは厨房端末30に接続される。また、注文端末20及び厨房端末30は、ECR10と無線LAN(Local Area Network)接続されている。
【0020】
カメラは、それぞれ2対となって被写体を撮影する。カメラa,c1〜cN,fは、被写体を横方向から撮影する。カメラb,d1〜dN,gは、被写体を上方向から撮影する。この横方向からの画像データと、上方向からの画像データとを組合わせることにより、被写体の立体的な画像データを撮影する事ができる。また、カメラはDCE(デジタルスチルカメラ)又はデジタルビデオカメラ等であり、静止画又は動画の画像データを撮影することができる。
【0021】
ECR10は、各部を中央制御するCPU(Central Processing Unit)11と、ユーザから情報の入力を受付ける入力部12と、一時的に情報を格納するRAM(Random Access Memory)13と、情報をユーザに対して表示する表示部14と、情報を記憶する記憶部15と、カメラa,b,c1〜cN,d1〜dNに接続するカメラ接続部16と、外部機器と情報を送受信する通信部17と、現在日時を出力する計時部18とから構成され、各部がバス19により通信接続される。
【0022】
CPU11は、記憶装置15内に記憶されているシステムプログラム及び各種アプリケーションプログラムの中から指定されたアプリケーションプログラムをRAM13内に展開し、入力部12から入力される各種指示又はそれに応じた各種データをRAM13内に一時的に格納し、この入力指示及び入力データに応じて記憶部15内に格納されたアプリケーションプログラムに従って各種処理を実行し、その処理結果をRAM13内に格納すると共に、表示部14に表示する。
【0023】
記憶部15には、第1の注文受付処理を実行するための第1の注文受付プログラムと、盛付け配膳処理を実行するための盛付け配膳プログラムと、精算処理を実行するための精算プログラムと、調理人管理処理を実行するための調理人管理プログラムと、後述する各種データとが記憶される。ECR10において、CPU11が記憶部15に記憶された第1の注文受付プログラムを読み出してRAM13に展開して実行することにより、第1の注文受付処理が実行される。また、ECR10において、CPU11が記憶部15に記憶された盛付け配膳プログラムを読み出してRAM13に展開して実行することにより、盛付け配膳処理が実行される。また、ECR10において、CPU11が記憶部15に記憶された精算プログラムを読み出してRAM13に展開して実行することにより、精算処理が実行される。また、ECR10において、CPU11が記憶部15に記憶された調理人管理プログラムを読み出してRAM13に展開して実行することにより、調理人管理処理が実行される。これらの実行構成において、図1に示すように、各種判別を行う比較部111と、各種制御を行う制御部112とが、ECR10に構成されているものとして説明する。なお、比較部111と、制御部112は、ソフトウェア的に実現される構成であるが、ハードウェアとして搭載される構成でもよい。
【0024】
入力部12は、カーソルキー、数字入力キー及び各種機能キー等を備えたキーボードを備え、操作者によりキーボードで押下された押下信号をCPU11に出力する。また、入力部12は、マウス等のポインティングデバイス等を含み、そのポインティングデバイスの位置信号をCPU11に出力する構成としてもよい。
【0025】
RAM13は、各種プログラム、入力データ及び処理結果等の各種データを、ランダムアクセス展開可能に格納するワーク領域を有して、各種情報を一時的に記憶するメモリである。
【0026】
表示部14は、CRT(Cathode Ray Tube)、LCD(Liquid Crystal Display)、PDP(Plasma Display Panel)又はEL(Electro Luminescence)ディスプレイ等を備え、CPU11から入力される表示指示に従って各種表示データの画面表示を行う。
【0027】
記憶部15は、各種プログラム、各種データなどが予め記憶されまたは書込み可能な記録媒体(図示せず)を有し、当該記録媒体は、磁気的、光学的記録媒体若しくは半導体等の不揮発性メモリ等のCPU11読取り可能な記録媒体で構成されている。当該記録媒体は、固定ハードディスク等の固定的に設けたものに限らず、CD−RW、DVD±RW、DVD−RAM、メモリカード、携帯ハードディスク等の着脱自在に装着する可搬型のものを含む。
【0028】
RAM13及び記憶部15は、CPU11の制御により内部データの読込み及び書換えが可能な構成である。なお、前記記録媒体としては、他にも、読書き可能なフレキシブルディスク、光磁気ディスク、フラッシュメモリを採用する構成でもよい。また、プログラムを記録する記録媒体としては、読込み専用のCD−ROM、DVD、ROM等を採用する構成でもよい。
【0029】
また、記憶部15に記憶されたプログラム、データ等は、その一部若しくは全部を外部機器から通信ネットワーク及び通信部17を介して受信して格納する構成にしてもよい。また、記憶部15は前記通信ネットワーク上に構築された外部機器の記憶装置であってもよい。更に、前記各種プログラムを前記通信ネットワークを介して外部機器へ送信及びインストールする構成にしてもよい。
【0030】
通信部17は、注文端末20及び厨房端末30と無線LAN通信を行う無線LANカード、アクセスポイント等から構成されるが、上記の通信ネットワークに接続する構成でもよい。その場合、通信ネットワークは、無線LANだけでなく、有線LAN、WANを含めてもよく、電話回線網、ISDN回線網、広帯域通信回線網、専用線、移動体通信網、通信衛星回線、CATV回線、光通信回線、無線通信回線と、それらを接続するインターネットサービスプロバイダ等を含む構成でもよい。また、通信部17は、注文端末20及び厨房端末30と有線LAN通信等を行う構成でもよい。
【0031】
カメラ接続部16は、CPU11の撮影命令をカメラa,b,c1〜cN,d1〜dNに送信し、その撮影された画像データをそのカメラから受信してCPU11に出力する。計時部18は、CPU11の要求により現在日時データをCPU11に出力する。
【0032】
なお、ECR10は、本実施の形態において、1台の情報処理装置で構成している。しかし、例えば通信ネットワークを介した複数の機器を設置すること等により、各種機能を複数の機器で分散して実行する構成でもよい。この場合、各種機能を実行する負荷が分散される。
【0033】
図2を参照して、注文端末20の内部構成を説明する。注文端末20は、CPU21と、RAM23と、表示部24と、記憶部25と、通信部26とから構成され、各部はバス27により通信接続されている。CPU21、RAM23、表示部24、記憶部25、通信部26は、ECR10のCPU11、RAM13、表示部14、記憶部15、通信部17と同様の構成であり、異なる点を説明する。
【0034】
入力部24は、携帯機器用のキーパッド等を備える。表示部24は、LCD又はELディスプレイ等の携帯機器用ディスプレイ等を備える。記憶部25は、ROM、フラッシュROM等を備える。通信部26は、ECR10と無線LAN通信を行う。
【0035】
記憶部25は、注文入力処理を行う注文入力プログラムを記憶する。CPU21は、記憶部25に記憶された注文入力プログラムを読み出しRAM23に格納して注文入力処理を実行する。
【0036】
厨房端末30は、図示しないが、CPU、RAM、入力部、表示部、記憶部と、カメラf,gと接続するカメラ接続部と、ECR10と無線LAN通信を行う通信部を備える。そのCPUは、調理人等の入力部の入力によりカメラ接続部を介してカメラf,gにテーブルh上の料理を撮影し、その撮影画像データをカメラ接続部を介して取得する。
【0037】
図3〜図5を参照して記憶部15に記憶するデータを説明する。図3は、注文テーブル50の構成を示す図である。図4は、盛付け得点テーブル60の構成を示す図である。図5は、料金テーブル70の構成を示す図である。
【0038】
ECR10の記憶部15には、注文テーブル50と、盛付け得点テーブル60と、料金テーブル70と、料理基準画像データとが記憶される。図3に示すように、注文テーブル50は、注文に関するデータを有するテーブルであり、テーブルe1〜eNそれぞれに付された番号であるテーブル番号51と、客が注文した料理の料理名である注文料理名52と、料理の注文を受付けた時刻である注文時刻53と、注文された料理が配膳されたか否かを示す配膳済みフラグ54と、料理を注文した客(注文客とする)の画像データ55とを含む。
【0039】
テーブル番号51の01〜0Nは、テーブルe1〜eNに対応する。また、配膳済みフラグ54は、料理が配膳済の場合に1と設定され、料理が配膳されていない場合に0と設定される。画像データ55は、テーブル毎に注文を行った客1人の顔の立体画像データとなるが、その画像データは、表情の変化等により、一人につき複数パターンが撮影及び記憶されるものとしてもよい。また、画像データ55は、テーブルについた客の複数人又は全員の画像データとしてもよい。複数人からなるグループが1つのテーブルについた場合に、注文客と精算客が異なる場合があるからである。
【0040】
図4に示すように、盛付け得点テーブル60は、レストラン、食堂等に所属する調理人毎の料理の盛付け得点を示すテーブルであり、各調理人を識別する文字コードである調理人コード61と、各調理人の料理の盛付けのトータル点数である盛付け得点62と、各調理人の基本給63とを含む。盛付け得点62は、各調理人の給料に反映されるデータであり、料理の盛付けが悪いとその都度減点される。
【0041】
各調理人を識別するデータとしては、調理人コードに限るものではなく、調理人名、調理人番号等でもよい。また、盛付け得点62は、本実施の形態では、基本給63が月給の基本給である場合の月毎のデータであるものとするが、これに限るものではなく、日毎、週毎、各週毎、年毎の任意の期間のデータとしてもよい。
【0042】
図5に示すように、料金テーブル60は、注文された料理の料理名である注文料理名71と、各料理名に対応する料理の料金72とを含む。また、図示しないが、記憶部15に記憶される料理基準画像データは、各料理の量及び盛付けの基準となる適正な料理の画像データである。この料理基準画像データも立体的な画像データである。
【0043】
次に、図6〜図11を参照して画像データ処理システムαの動作を説明する。図6は、注文端末20で実行する注文入力処理を示すフローチャートである。図7は、ECR10で実行する第1の注文受付処理を示すフローチャートである。図8は、ECR10で実行する盛付け配膳処理を示すフローチャートである。図9は、厨房端末30又は注文端末20で表示する表示画面を示す図であり、(I)は厨房端末30で表示する表示画面3Aを示す図であり、(II)は厨房端末30で表示する表示画面3Bを示す図であり、(III)は注文端末20で表示する表示画面2Aを示す図である。図10は、ECR10で実行する精算処理を示すフローチャートである。図11は、ECR10で実行する調理人管理処理を示すフローチャートである。
【0044】
最初に、画像データ処理システムαが設置されているレストラン等に入ってきてテーブルについた客又は既にテーブルについている客が注文を要求して、ウエイター又はウエイトレス等の接客人が注文を聞きに注文端末20を持ってその客の座ったテーブルへ向かう。そして、接客人により注文端末20の入力部22から注文入力処理の実行を入力されたことをトリガとして、CPU21は、記憶部25から注文入力プログラムを読み出してRAM23に格納して注文入力処理を実行する。
【0045】
図6に示すように、先ず、接客人によりその客が座ったテーブルのテーブル番号が入力部22を介して入力され、そのテーブル番号が通信部26を介してECR10へ送信され、ECR10からそのテーブル番号に対応する注文データが受信される(ステップS11)。注文データとは、テーブル番号、注文料理名、その注文時刻及び配膳済フラグである。ECR10側では、注文端末20から通信部17を介してテーブル番号が受信され、記憶部15内の注文テーブル50において、受信されたテーブル番号と、これに対応する注文料理名52、注文時刻53及び配膳済フラグ54が注文データとして読み出され、その注文データが通信部17を介して注文端末20に送信される。その注文データは、注文入力処理の実行前に既に注文されてECR10に記憶されているデータであり、新規の客の場合等にはNULLとなる。
【0046】
そして、記憶部25に記憶されている入力フラグのうち、ステップS11で入力されたテーブル番号に対応する入力フラグがオン(=1)であるか否かが判別される(ステップS12)。入力フラグがオンであることは、現在使用している注文端末20で注文入力が途中で一時終了している状態にあることを示す。入力フラグがオンである場合(ステップS12;YES)、記憶部25に記憶されている一時終了状態の注文料理名が読み出される(ステップS13)。
【0047】
そして、配膳者により入力部22を介して注文料理名が入力される(ステップS13)。入力フラグがオフである場合(ステップS12;NO)、ステップS14に移行される。そして、ステップS14における注文料理名入力が終了されたか否か又は一時終了されたかが判別される(ステップS15)。注文料理名入力が終了されていない場合(ステップS15;NO)、ステップS14に移行される。注文料理名入力が終了された場合(ステップS15;YES)、記憶部25に記憶された、ステップS11において取得されたテーブル番号に対応する入力フラグがオフされ、ステップS14において入力された注文料理名と、ステップS11において取得されたテーブル番号とが注文データとして、通信部26を介してECR10に送信され(ステップS16)、注文入力処理が終了される。
【0048】
注文データ入力が一時終了された場合(ステップS15;一時終了)、記憶部25に記憶された、ステップS11において入力されたテーブル番号に対応する入力フラグがオンされ、記憶部25にステップS14において入力された注文料理名が記憶され(ステップS17)、注文入力処理が終了される。
【0049】
次に、注文端末20からECR10の通信部17を介して注文データが受信開始されたことをトリガとして、CPU11は、記憶部15から第1の注文受付プログラムを読み出してRAM13に格納して第1の注文受付処理を実行する。
【0050】
図7に示すように、先ず、注文端末20から通信部17を介して注文データが受信される(ステップS21)。そして、計時部18から現在時刻が取得され、ステップS21において受信された注文データとともに、その現在時刻が記憶部15内の注文テーブル50に記憶される(ステップS22)。具体的には、注文データ中のテーブル番号、注文料理名が、テーブル番号51、注文料理名52に記憶され、現在時刻が注文時刻53に格納される。また、配膳済フラグ54は、オフ(=0)に記憶される。
【0051】
そして、カメラ接続部16を介して、テーブルe1〜eNのうちの注文客がついているテーブルに対応するカメラに注文客の顔の撮影指示が送信され、そのカメラでその撮影指示に応じて注文客の顔が撮影され、撮影された注文客の画像データがカメラ接続部16を介してそのカメラから受信されて、その注文客画像データが記憶部15内の注文テーブル50に記憶される(ステップS23)。具体的には、注文客画像データが、注文テーブル50内のステップS22において記憶されたレコードの画像データ55に記憶される。
【0052】
そして、ステップS21において受信された注文料理名が通信部17を介して厨房端末30へ送信され(ステップS24)、第1の注文受付処理が終了される。
厨房端末30においては、ECR10から注文料理名が受信され、その注文料理名が図示しない表示部に表示される。調理人はその表示された注文料理名を見て、注文された料理の調理を実行する。ここで、その料理の調理を担当した調理人を担当調理人とする。
【0053】
次に、担当調理人により注文された料理の調理が終了し、その盛付けが完成した場合に、テーブルhの上に盛付けが完成した料理が載せられる。担当調理人により厨房端末30の図示しない入力部を介して料理の盛付けが完成した旨及びその担当調理人の調理人コードが入力される。そして、厨房端末30によりカメラf,gに撮影指示が送信され、カメラf,gにおいてテーブルhの上の料理が撮影され盛付け画像データとして厨房端末30に送信される。そして、厨房端末30により、その料理の盛付けが完成した旨及び調理人コードがECR10に送信される。
【0054】
そして、ECR10の通信部17を介して厨房端末30から料理の盛付けが完成した旨及び調理人コードが受信されたことをトリガとして、CPU11は、記憶部15から盛付け配膳プログラムを読み出してRAM13に格納して盛付け配膳処理を実行する。
【0055】
図8に示すように、先ず、通信部17を介して厨房端末30から盛付け画像データが受信される(ステップS31)。そして、ステップS31において盛付け画像データが受信されたか否かが判別される(ステップS32)。盛付け画像データが受信されていない場合(ステップS32)、ステップS32に移行される。盛付け画像データが受信された場合(ステップS32;YES)、記憶部15に記憶されている料理基準画像データのうち、盛付けが完成した料理に対応するものが読み出される(ステップS33)。
【0056】
そして、比較部111により、ステップS31において受信された盛付け画像データと、ステップS33において受信された盛付け画像データとの構成が比較される(ステップS34)。画像データの構成の比較は、例えば、明るさの分布、色の分布等に基づいて行う。また、画像データは立体的であるので、平面の画像データ比べてより正確に比較することができる。また、例えば、画像データの一致の度合いを算出し、その一致の度合いが所定値以上である場合に同じ構成であるとし、所定値より低い場合に同じ構成でないと判別する。構成が同じである場合は、完成した料理の盛付けが問題ないことを意味する。構成が同じでない場合は、完成した料理の盛付けに問題があることを意味する。
【0057】
そして、比較部111により、ステップS34の比較結果に基づいて、ステップS31において受信された盛付け画像データと、ステップS33において受信された盛付け画像データとが同じ構成であるか否かが判別される(ステップS35)。構成が同じ場合(ステップS35;YES)、注文テーブル50のレコードのうち、構成が同じであった料理の注文料理名と注文料理名52とが一致し、配膳済フラグ54が0で且つ注文時刻53が一番早いテーブル番号51が取得される(ステップS36)。
【0058】
そして、制御部112により、通信部17を介して、完成した料理の盛付けが問題ない(OKである)旨のデータと、ステップS36で取得したテーブル番号とが厨房端末30に送信される(ステップS37)。そして、制御部112により、通信部17を介して、注文料理の配膳指示の旨のデータと、ステップS36で取得したテーブル番号と、このテーブル番号51に対応する注文テーブル50の画像データ55とが注文端末20に送信される(ステップS38)。そして、注文テーブル50内の、配膳指示された注文料理に対応する配膳済フラグ53がオン(=1)され(ステップS39)、盛り付け配膳処理が終了される。
【0059】
構成が異なる場合(ステップS35;NO)、制御部112により、通信部17を介して、完成した料理の盛付けに問題がある(NGである)旨のデータが厨房端末30に送信される(ステップS40)。そして、記憶部15内の盛付け得点テーブル60において、ステップS31の前に受信した調理人コードに対応する盛付け得点62が所定点数減点され(ステップS41)、盛り付け配膳処理が終了される。
【0060】
ステップS37の後、厨房端末30において、完成した料理の盛付けがOKである旨のデータと、テーブル番号とがECR10から受信され、その完成した料理の盛付けがOKである旨のデータと、そのテーブル番号と、調理人コードに対応する調理人名とが、厨房端末30の図示しない表示部に表示される。例えば、図9(II)に示すような表示画面3Bとして表示される。このため、表示画面3Bにより、担当調理人に料理の盛り付けが問題ないことを確認させることができる。
【0061】
また、ステップS38の後、注文端末20において、注文料理の配膳指示の旨のデータと、そのテーブル番号と、その注文客画像データとがECR10から受信され、その注文料理の配膳指示の旨のデータと、そのテーブル番号と、その注文客画像データとが、注文端末20の表示部24に表示される。例えば、図9(III)に示すような表示画面2Aとして表示される。このため、表示画面2Aにより、配膳先のテーブル番号及び注文客画像データを接客人に確認させ、容易に注文料理を配膳させることができる。
【0062】
また、ステップS40の後、厨房端末30において、完成した料理の盛付けがNGである旨のデータがECR10から受信され、その完成した料理の盛付けがNGである旨のデータと、調理人コードに対応する調理人名とが、厨房端末30の図示しない表示部に表示される。例えば、図9(I)に示すような表示画面3Aとして表示される。このため、表示画面3Aにより、担当調理人に料理の盛り付けに問題があることを確認させ、料理の盛付けのやり直しを実行させることができる。
【0063】
次に、注文客が注文料理を食べ終わり、料理の精算をするために、ECR10の設置されている精算所へその客(精算客とする)が移動する。その精算所には、カメラa,bが設置されている。そして、接客人によりECR10の入力部12を介して精算処理の実行開始が入力されたことをトリガとして、CPU11は、記憶部15から精算プログラムを読み出してRAM13に格納して精算処理を実行する。
【0064】
図10に示すように、先ず、記憶部15内の注文テーブル50の画像データ55(注文客画像データ)が全て読み出される(ステップS51)。そして、カメラ接続部16を介して、カメラa,bに精算客の顔の撮影指示が送信され、そのカメラa,bでその撮影指示に応じて精算客の顔が撮影され、撮影された精算客の画像データがカメラ接続部16を介してカメラa,bから受信されて、その精算客画像データがRAM13に格納される(ステップS52)。精算客画像データも立体的な画像データである。
【0065】
そして、比較部111により、ステップS51において読み出された注文客画像データと、ステップS52において撮影された精算客画像データとが比較される(ステップS53)。この画像データの比較は、ステップS34における画像データの比較と同様である。そして、比較部111により、ステップS53の比較結果に基づいて、注文客画像データと精算客画像データとの被写体の客が同一人物であるか否かが判別される(ステップS54)。
【0066】
同一人物であると判別された場合(ステップS54;YES)、記憶部15内の注文テーブル50から、その注文客画像データに対応する(精算客画像データにも対応する)テーブル番号51及び注文料理名52が読み出され、記憶部15内の料金テーブル70から、読み出された注文料理名52に対応する料金72が読み出され、その合計が算出される(ステップS55)。そして、制御部112により、ステップS55において算出された合計料金が、読み出されたテーブル番号とともに表示部14に表示され、精算指示が表示部14に表示され(ステップS56)、精算処理が終了される。接客人は、その合計料金及び精算指示に基づいて、精算を実行する
【0067】
同一人物であると判別されない場合(ステップS54;NO)、接客人により入力部12を介して精算客のテーブル番号が入力され(ステップS57)、ステップS55に移行される。この場合、ステップS55においては、記憶部15内の注文テーブル50から、ステップS57において読み出されたテーブル番号に対応する注文料理名52が読み出され、記憶部15内の料金テーブル70から、読み出された注文料理名52に対応する料金72が読み出され、その合計が算出される。
【0068】
なお、本実施の形態では省略されているが、ECR10にはレシート等をプリント出力するプリント出力部が設けられ、精算実行後、注文料理名、テーブル名等を含むレシートがプリント部から出力されて、そのレシートが接客人から精算客へ手渡される。
【0069】
次に、調理人の料理盛付けの評価を行う調理人管理処理を説明する。調理人管理処理は、毎日の営業終了後に自動的に実行される。この実行間隔は、日毎に限るものではなく、週毎等、他の間隔でもよい。また、予め、給料の締め日が決められている。店長等の管理人によりECR10の入力部12を介して調理人管理処理の実行が入力されたことをトリガとして、CPU11は、記憶部15から調理人管理プログラムを読み出してRAM13に格納して調理人管理処理を実行する。また、調理人管理処理は、所定期間毎の所定時刻になったことをトリガとして自動的に実行される構成でもよい。
【0070】
図11に示すように、先ず、計時部18から現在日時が取得され、その現在日時が調理人の給料締め日か否か判別される(ステップS61)。給料締め日である場合(ステップS61;YES)、全調理人のうちの未選択の(新規又は次の)調理人が選択され、記憶部15内の盛付け得点テーブル60から、選択された調理人の調理人コード61に対応する盛付け得点62及び基本給63が読み出される(ステップS62)。
【0071】
そして、ステップS62において読み出された盛付け得点及び基本給に基づいて給料データが算出され、その給料データが記憶部15に記憶される(ステップS63)。具体的には、例えば、減点方式で盛付け得点が付けられている場合、基本給*(現在の盛付け得点/最初の盛付け得点)の式により算出される。例えば、図4の調理人コード001の調理人の給料データは、250000*(1000/1000)=250000となり、調理人コード002の調理人の給料データは、200000*(900/1000)=180000となる。
【0072】
そして、盛付け得点テーブル60の、選択された調理人に対応する盛付け得点62が最初の数値にリセットされ記憶される(ステップS64)。そして、ステップS62において全ての調理人が選択されたか否かが判別される(ステップS65)。全ての調理人が選択されていない場合(ステップS65;NO)、ステップS62に移行される。全ての調理人が選択された場合(ステップS65;YES)、調理人管理処理が終了される。
【0073】
給料締め日でない場合(ステップS61;NO)、記憶部15内の盛付け得点テーブル60が読み出され、盛付け得点テーブル60がレポートとして表示部14に表示され(ステップS66)、調理人管理処理が終了される。盛付け得点テーブル60の表示により、管理人にその盛付け得点テーブル60を確認させることができる。管理人は盛付け得点テーブル60の盛付け得点62に基づいて、適宜調理人に盛り付けの改善等の指導を行うことができる。また、ECR10に図示しないプリント出力部が設けられている場合には、給料データ及びレポートがプリント出力される構成でもよい。また、盛付け配膳処理において、盛付けNGとなった盛付け画像データが記憶部15に記憶される構成でもよく、その場合には、そのNGとなった盛付け画像データを表示部14に表示(又はプリント出力部からプリント出力)して、そのNGとなった盛付け画像データを調理人に見せて盛付けを指導することも可能である。
【0074】
以上、本実施の形態によれば、料理の盛付け及び配膳において、担当調理人により調理及び盛付けされた料理をカメラf,gにより撮影して盛付け画像データを取得し、その盛付け画像データと料理基準画像データとが比較されて問題あるか否かが判別され、その判別結果が表示部14に表示される。このため、人の目視による料理の盛付けのチェックの負担が軽減され且つ料理の盛付けのチェックを正確に行うことができる。また、担当調理人にその判別結果を知らせることができ、調理人に料理の盛付けの精度の向上を図らしめることができる。
【0075】
また、本実施の形態によれば、料理の盛付けに問題がある場合に、担当調理人の盛付け得点を減点し、その盛付け得点に基づいて各調理人の評価としての給料が決定される。このため、人の目視にでなく画像データの比較により行う料理の盛付けのチェックにより公正に調理人を評価することができ、管理人によるその評価実行の負担を軽減することができる。また、その評価結果(給料)により、調理人に料理の盛付けの精度の更なる向上を図らしめることができる。
【0076】
また、本実施の形態によれば、料理の精算において、注文時に撮影された注文客画像データと、精算時に撮影された精算客画像データとが比較され、被写体が同一人物であると判別された場合に、精算客に対応する合計料金を算出して精算の指示がなされる。このため、接客人による精算時の精算客のテーブル番号の確認及び入力を行う負担を軽減することができ、正確に合計料金を算出して精算することができる。
【0077】
なお、本実施の形態では、料理の盛付けがNGとなった際に、盛付け得点を所定点数だけ減点していく構成であったが、これに限るものではなく、盛付け画像データと料理基準画像データとの一致の度合いに応じて、減点する点数を段階的に変化させていく構成でもよい。また、一致の度合いが高く盛付けが優秀である場合、盛付け得点に所定点数を加算する構成でもよく、一致の度合いに応じてその加算点数を段階的に変化させる構成でもよい。また、盛付けのNG回数が所定回数に達した段階で盛付け得点を減点する構成でもよく、盛付けのOK回数が所定回数に達した段階で盛付け得点を加点する構成でもよい。
【0078】
また、盛付け配膳処理において、注文端末20及び厨房端末30にそれぞれプリント出力部が設けられ、図9(I)に示す表示画面3A、(II)に示す表示画面3Bのそれぞれに対応するデータを厨房端末30においてプリント出力し、図9(III)に示す表示画面2Aに対応するデータを注文端末20においてプリント出力する構成でもよい。
【0079】
(第2の実施の形態)
次に、図12〜図15を参照して、本発明に係る第2の実施の形態を説明する。本実施の形態は、第1の実施の形態のように、接客人がテーブルに注文を取りにいく方式ではなく、客がカウンタで料理を注文し、その後、注文料理が完成した際に、客が再びそのカウンタまで注文料理を取りにいく方式のレストラン等に適用される。先ず、図12を参照して、本実施の形態の装置の特徴を説明する。図12は、本実施の形態における画像データ処理システムβの構成を示す図である。
【0080】
図12に示すように、本実施の形態の画像データ処理システムβは、カウンタに設置されるECR80と、同じくカウンタに設置され注文客及び料理の受取り客とを撮影する撮影部としてのカメラi,jと、厨房に設けられECR80と無線又は有線LANにより接続された厨房端末90とを備える。横方向から撮影するカメラiと上方向から撮影するカメラjとにより、被写体である注文客及び受け渡し客の立体的な画像データが撮影される。
【0081】
厨房端末90は、第1の実施の形態における厨房端末30と同様の構成である。また、ECR80は、CPU81と、入力部82と、RAM83と、表示部84と、記憶部85と、カメラi,jと接続するカメラ接続部86と、厨房端末90と無線LAN通信を行う通信部87と、計時部88とから構成され、各部はバス89に通信接続される。CPU81、入力部82、RAM83、表示部84、記憶部85、カメラ接続部86、通信部87、計時部88は、それぞれ順に、CPU11、入力部12、RAM13、表示部14、記憶部15、カメラ接続部16、通信部17、計時部18と同様の構成である。よって、第1の実施の形態のECR10及び厨房端末30と異なる部分を主として説明する。
【0082】
記憶部85には、第2の注文受付処理を実行するための第2の注文受付プログラムと、料理の受渡し処理を実行するための受渡しプログラムと、後述する各種データが記憶される。また、ECR80において、CPU81が記憶部85に記憶された第2の注文受付処理プログラムを読み出してRAM83に展開して実行することにより、第2の注文受付処理が実行される。また、ECR80において、CPU81が記憶部85に記憶された受渡しプログラムを読み出してRAM83に展開して実行することにより、受渡し処理が実行される。この実行構成において、図12に示すように、各種判別を行う比較部811と、各種制御を行う制御部812とが、ECR80に構成されているものとして説明する。なお、比較部811と、制御部812は、ソフトウェア的に実現される構成であるが、ハードウェアとして搭載される構成でもよい。
【0083】
次に、図13を参照して、記憶部85に記憶されるデータ構成を説明する。図13は、注文テーブル100の構成を示す図である。記憶部85には、図13に示す注文テーブル100が記憶される。注文テーブル100は、注文に関するデータを有するテーブルであり、注文料理名101と、注文時刻102と、料理の受渡しが済んでいるか否かを示す受渡し済フラグ103と、画像データ104とを含む。注文料理名101、注文時刻102、受渡し済フラグ103、画像データ104は、それぞれ順に、第1の実施の形態の注文テーブル50の注文料理名51、注文時刻52、配膳済フラグ53、画像データ54と同様である。
【0084】
次に、図14及び図15を参照して、画像データ処理システムβの動作を説明する。図14は、ECR80で実行する第2の注文受付処理を示すフローチャートである。図15は、ECR80で実行する受渡し処理を示すフローチャートである。
【0085】
最初に、料理を注文しようとする注文客が、料理の注文を行うためにECR80が設置されたカウンタに来る。そのカウンタにいるウエイター又はウエイトレス等の接客人によりECR80の入力部82を介して第2の注文受付処理の実行が入力されたことをトリガとして、CPU81は、記憶部85から第2の注文受付プログラムを読み出してRAM83に格納して第2の注文受付処理を実行する。
【0086】
図14に示すように、先ず、接客人により、注文客から注文された料理の注文料理名が入力部82を介して入力される(ステップS71)。そして、ステップS71における注文料理名の入力が終了したか否かが判別される(ステップS72)。注文料理名の入力が終了していない場合(ステップS72;NO)、ステップS71に移行される。
【0087】
注文料理名の入力が終了した場合(ステップS72;YES)、計時部88から現在時刻が取得され、ステップS71において入力された注文料理名とともにその現在時刻が記憶部85内に注文テーブル100として記憶される(ステップS73)。具体的には、入力された注文料理名が注文料理名101として、現在時刻が注文時刻102として記憶される。また、受渡し済フラグ103はオフに設定される。
【0088】
そして、カメラ接続部86を介して、カメラi,jに注文客の顔の撮影指示が送信され、そのカメラi,jでその撮影指示に応じて注文客の顔が撮影され、撮影された注文客の画像データがカメラ接続部86を介してカメラi,jから受信されて、その注文客画像データが注文テーブル100の画像データ104に記憶される(ステップS75)。注文客画像データは立体的な画像データである。
【0089】
そして、通信部87を介して、注文料理名を含む注文データが厨房端末90に送信され(ステップS75)、第2の注文受付け処理が終了される。厨房端末90は、注文データをECR80から受信して、図示しない表示部に注文料理名を表示する。このため、厨房の調理人に調理すべき料理名を確認させることができる。担当調理人は、注文料理名の調理を実行する。
【0090】
次に、担当料理人による料理の調理及び盛付けが完成し、担当調理人により厨房端末90の図示しない入力部を介してその料理の完成の旨が入力され、図示しない通信部を介してECR80にその完成の旨が送信される。そして、ECR80の通信部80を介して料理の完成の旨が厨房端末90から受信される。その後、注文料理を受取りに客(受取り客とする)がカウンタに現れる。そこで、接客人によりECR80の入力部82から受け渡し処理の実行を入力されたことをトリガとして、CPU81は、記憶部85から料理の受渡しプログラムを読み出してRAM83に格納して受渡し処理を実行する。
【0091】
図15に示すように、記憶部85内の注文テーブル100において、完成した注文料理名と注文料理名101とが一致し、受渡し済フラグ103がオフ(=0)であり且つ注文時刻102が一番早い画像データ104が読み出される(ステップS81)。そして、カメラ接続部86を介して、カメラi,jに受取り客の顔の撮影指示が送信され、そのカメラi,jによりその撮影指示に応じて受取り客の顔が撮影され、撮影された受取り客の画像データがカメラ接続部86を介してカメラi,jから受信されて、その受取り客画像データがRAM83に記憶される(ステップS82)。受取り客画像データは立体的な画像データである。
【0092】
そして、比較部811により、ステップS81において読み出された注文客画像データと、ステップS82において撮影された受取り客画像データとが比較される(ステップS83)。この画像データの比較は、第1の実施の形態のステップS34における画像データの比較と同様である。そして、比較部811により、ステップS83の比較結果に基づいて、注文客画像データと受取り客画像データとの被写体としての客が同一人物であるか否かが判別される(ステップS84)。
【0093】
同一人物であると判別された場合(ステップS84;YES)、制御部812により、受取り客に完成された注文料理を受渡す旨の指示データが表示部84に表示される(ステップS85)。そして、ステップS81において読み出された注文客画像データに対応する、記憶部85内の注文テーブル100の受渡し済フラグ103がオンに設定され(ステップS86)、受渡し処理が終了される。接客人は、表示された注文料理を受渡す旨の指示データに基づいて、完成した注文料理を受取り客に受渡す。
【0094】
同一人物でないと判別された場合(ステップS84;NO)、注文料理名に対応する全ての注文客画像データが、注文テーブル100の画像データ104から注文時刻102とともに検索される(ステップS87)。そして、制御部812により、料理を受渡すべき注文客と受取り客とが異なっている旨のデータと、ステップS87において検索された注文客画像データ及びその注文時刻とが、表示部82に表示され(ステップS88)、受渡し処理が終了される。接客人は客が異なっている旨のデータ表示に基づいて、受取り客の注文客画像データを特定して、その注文時刻を確認し、現在の待ち人数、予想完成時刻等を受取り客に案内できる。
【0095】
以上、本実施の形態によれば、カウンタにおいて、カメラi,jにより、料理の注文時に注文客が撮影されて注文客画像データが取得され、完成した料理の受渡し時に受取り客が撮影されて受取り客画像データが取得され、料理を受渡すべき注文客画像データと受取り客画像データとが比較され被写体が同一人物であるか否かが判別され、同一人物である場合に料理の受渡し指示が表示部84に表示される。このため、接客人による料理を受渡すべき受取り客の確認作業の負担を軽減することができる。また、料理を受渡すべき受取り客の確認を正確に行うことができ、料理を間違った受取り客に受渡すことを防ぐことができる。
【0096】
また、料理を受渡すべき注文客画像データと受取り客画像データとの被写体が同一人物でない場合にも、その料理を注文した注文客画像データを注文時刻とともに表示部84に表示する。このため、料理を受け渡すべきでない受取り客に対して、接客人に現在の状況等を説明させることができる。
【0097】
なお、第1及び第2の実施の形態においては、2台のカメラにより被写体を撮影して立体的な画像データを取得する構成であったが、これに限るものではなく、1台のカメラにより被写体を撮影して平面的な画像データを取得する構成でもよい。また、第1及び第2の実施の形態においては、ECRで各種処理を行う構成であるが、これに限るものではなく、ECRとは独立した情報処理装置において、前記各種処理を行う構成でもよい。
【0098】
以上、本発明の実施の形態につき説明したが、本発明は、必ずしも上述した手段及び手法にのみ限定されるものではなく、本発明にいう目的を達成し、本発明にいう効果を有する範囲内において適宜に変更実施が可能なものである。
【0099】
【発明の効果】
本発明によれば、料理基準画像データと盛付け画像データとの一致の度合いが算出され、その一致の度合いに基づいた料理の盛付けの評価が出力されるので、目視による料理の盛付けの評価作業の実行負担を軽減することができる。また、料理の盛付けを正確に評価するので、料理の盛付けの精度の向上を調理人に図らしめることができる。
【0100】
また、本発明によれば、注文客画像データと受取り客画像データとの比較により、注文客と受取り客とが一致するか否かが判別され、注文客と受取り客とが一致すると判別された場合に、受取り客への料理の受渡し実行を指示するので、目視による適正な受取り客の確認作業の実行負担を軽減することができる。また、適正な受取り客を正確に判別するので、料理の受渡しの間違いを防ぐことができる。
【0101】
また、本発明によれば、注文客画像データと精算客画像データとの比較により、注文客と精算客とが一致するか否かが判別され、注文客と精算客とが一致すると判別された場合に、精算客への料理の精算実行指示及びその精算データを出力するので、精算客に対応する精算データの取得のための情報の入力作業の実行負担を軽減することができる。また、精算客に対応する適正な精算データを正確に出力するので、精算の間違いを防ぐことができる。
【図面の簡単な説明】
【図1】本発明に係る第1の実施の形態における画像データ処理システムαの構成を示す図である。
【図2】注文端末20の内部構成を示す図である。
【図3】注文テーブル50の構成を示す図である。
【図4】盛付け得点テーブル60の構成を示す図である。
【図5】料金テーブル70の構成を示す図である。
【図6】注文端末20で実行する注文入力処理を示すフローチャートである。
【図7】ECR10で実行する第1の注文受付処理を示すフローチャートである。
【図8】ECR10で実行する盛付け配膳処理を示すフローチャートである。
【図9】厨房端末30又は注文端末20で表示する表示画面を示す図であり、(I)は厨房端末30で表示する表示画面3Aを示す図であり、(II)は厨房端末30で表示する表示画面3Bを示す図であり、(III)は注文端末20で表示する表示画面2Aを示す図である。
【図10】ECR10で実行する精算処理を示すフローチャートである。
【図11】ECR10で実行する調理人管理処理を示すフローチャートである。
【図12】本発明に係る第2の実施形態における画像データ処理システムβの構成を示す図である。
【図13】注文テーブル100の構成を示す図である。
【図14】ECR80で実行する第2の注文受付処理を示すフローチャートである。
【図15】ECR80で実行する受渡し処理を示すフローチャートである。
【符号の説明】
α,β…画像データ処理システム
10,80…ECR
20…注文端末
11,21,81…CPU
111,811…比較部
112,812…制御部
12,22,82…入力部
13,23,83…RAM
14,24,84…表示部
15,25,85…記憶部
16,86…カメラ接続部
17,26,87…通信部
18,88…計時部
30,90…厨房端末
a,b,c1〜cN,d1〜dN,f,g,i,j…カメラ
e1〜eN,h…テーブル
19,29,89…バス
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image data processing system and an image data processing program for assisting various operations using image data.
[0002]
[Prior art]
Conventionally, human work performed in restaurants, cafeterias, etc. includes accepting orders for dishes from customers, cooking and serving the ordered dishes, serving cooked dishes, and serving dishes prepared by customers. There was a settlement.
[0003]
In addition, some of the above operations are considered to be automated using a computer. For example, for the settlement of the dishes of customers who have finished meals, the dishes to be served are determined in advance according to the type (price) of the dishes, and when the dishes are settled, the dishes on which the dishes were arranged are irradiated with slit light, The irradiated tableware is photographed with a camera to acquire image data, the slit light in the image data is analyzed, the shape and number of the tableware photographed are calculated, and the shape and number of the tableware are calculated. An apparatus for adjusting the price of a dish has been considered (see, for example, Patent Document 1).
[0004]
[Patent Document 1]
Japanese Patent Laid-Open No. 10-069579 (pages 3 to 4, FIGS. 1 and 2)
[0005]
[Problems to be solved by the invention]
However, there are many parts where the above work is not alleviated, and the work may not be properly performed. For example, in the ordering of ordered dishes, there is a personality depending on the cook in charge, and the result of the ordering including the amount of dishes may not always match objectively, which is not good for customers who ordered the same dish. There was a case where fairness occurred. In terrible cases, the cook in charge sometimes forgot the arrangement of dishes to be arranged. A cooking person, a waiter or a waitress visually checks the arrangement of these dishes. However, the burden of checking the cooking arrangement of the cook was heavy, and a check error occurred because of the work by the person. In particular, when the store was busy and busy, the burden of checking the placement became even larger, and the frequency of check mistakes also increased negatively.
[0006]
In addition, when a customer places an order at the counter and the ordered food is completed, and the customer receives the food again, the waiter or waitress grasps the customer's face, the food ordered by the customer, and the order. Was a big burden. For example, a waiter or waitress may forget the customer's face, or mistakenly deliver a dish to a customer who has not ordered or a customer who has ordered but not in the order to receive it.
[0007]
Further, for the settlement of the food of the customer who finished the meal, the work of the waiter or waitress viewing the slip and entering the fee, or the work of inputting the table number from the slip of the customer was necessary. For this reason, there was a burden of input work at the time of payment.
[0008]
The subject of this invention is enabling it to reduce the operation | work which the person in a check-out performs from the order of a dish.
[0009]
[Means for Solving the Problems]
The present invention
A storage unit for storing dish reference image data serving as a reference for proper dish arrangement;
A shooting unit that shoots cooked dishes and outputs the arranged image data;
A comparison unit that compares the cooking reference image data stored in the storage unit with the arranged image data photographed in the photographing unit, and calculates the degree of coincidence;
A controller that outputs an evaluation of cooking arrangement based on the degree of coincidence calculated by the comparison unit.
[0010]
According to the present invention, the degree of coincidence between the dish reference image data and the arrangement image data is calculated, and the evaluation of dish arrangement based on the degree of coincidence is output. The burden of executing the evaluation work can be reduced. Moreover, since the cooking arrangement is accurately evaluated, it is possible to make the cook improve the cooking arrangement accuracy.
[0011]
Further, for example, the storage unit stores identification data for identifying a cook of cooking, and the control unit outputs an evaluation of the cooking arrangement corresponding to the identification data and stores it in the storage unit. You may comprise.
[0012]
Further, for example, the control unit calculates evaluation data for evaluating each cook based on the identification data stored in the storage unit and the evaluation of the cooking arrangement, and the evaluation corresponding to the identification data You may comprise as outputting data.
[0013]
The present invention also provides:
A first photographing unit for photographing an ordering customer who ordered food and outputting ordering customer image data;
A second photographing unit for photographing a customer who has received the dish and outputting the customer image data;
The ordered customer image data photographed by the first photographing unit is compared with the receiving customer image data photographed by the second photographing unit, and the ordering customer and the receiving customer match according to the degree of coincidence. A comparison unit for determining whether or not to perform,
A controller that instructs the receiving customer to execute the delivery of the dish when the comparing unit determines that the ordering customer and the receiving customer match.
[0014]
According to the present invention, it is determined whether or not the ordering customer and the receiving customer match by comparing the ordering customer image data and the receiving customer image data, and when it is determined that the ordering customer and the receiving customer match. Since the delivery instruction of the dish to the receiving customer is instructed, it is possible to reduce the burden of executing an appropriate checking operation of the receiving customer visually. In addition, since an appropriate customer is accurately identified, it is possible to prevent an error in delivery of the dish.
[0015]
The present invention also provides:
A first photographing unit for photographing an ordering customer who ordered food and outputting ordering customer image data;
A storage unit for storing the order customer image data photographed by the first photographing unit and the settlement data for settlement according to the order customer;
A second imaging unit that shoots a customer who checks out the food and outputs the customer image data;
The order customer image data stored in the storage unit is compared with the settlement customer image data photographed by the second photographing unit, and whether or not the order customer and the settlement customer match according to the degree of coincidence. A comparison unit for determining whether or not
When the comparison unit determines that the ordering customer and the checkout customer match, the checkout data corresponding to the checkout customer is read from the storage unit, and the checkout execution instruction of the dish to the checkout customer and the checkout customer And a control unit for outputting the settlement data corresponding to.
[0016]
According to the present invention, by comparing the order customer image data and the checkout customer image data, it is determined whether or not the order customer and the checkout customer match, and when it is determined that the order customer and the checkout customer match. Since the cooking customer is instructed to perform the cooking payment and the payment data is output, it is possible to reduce the burden of executing the information input operation for obtaining the payment data corresponding to the customer. In addition, since the correct settlement data corresponding to the settlement customer is output accurately, the settlement error can be prevented.
[0017]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, first and second embodiments of the present invention will be described in order with reference to the accompanying drawings.
[0018]
(First embodiment)
A first embodiment according to the present invention will be described with reference to FIGS. First, the features of the apparatus according to the present embodiment will be described with reference to FIGS. FIG. 1 is a diagram showing a configuration of an image data processing system α in the present embodiment. FIG. 2 is a diagram illustrating an internal configuration of the order terminal 20.
[0019]
As shown in FIG. 1, the image data processing system α according to the present embodiment is provided in a restaurant, a restaurant, or the like. The image data processing system α includes an ECR (Electronic Cash Register) 10 that performs various processes and settlement of dishes, a portable ordering terminal 20 that is carried by a waiter or waitress and that accepts orders, and various processes that are provided in the kitchen. Are provided for each of the kitchen terminals 30 for performing the above, cameras a and b as photographing units for photographing the face of the customer at the time of payment at the ECR 10, and tables e1 to eN (where N is an arbitrary natural number) attached to the customer. Cameras c1 to cN and d1 to dN as photographing units for photographing the face of a customer who is to be photographed, and a camera f as a photographing unit that is provided in a kitchen or a counter for serving and is used for photographing cooked food before serving g. The cameras a, b, c1 to cN, d1 to dN are connected to the ECR 10, and the cameras f and g are connected to the kitchen terminal 30. The order terminal 20 and the kitchen terminal 30 are connected to the ECR 10 and a wireless LAN (Local Area Network).
[0020]
Two cameras each shoot a subject. Cameras a, c1 to cN, f photograph the subject from the lateral direction. Cameras b, d1 to dN, g photograph the subject from above. By combining the image data from the lateral direction and the image data from the upward direction, stereoscopic image data of the subject can be photographed. The camera is a DCE (digital still camera), a digital video camera, or the like, and can capture still image data or moving image data.
[0021]
The ECR 10 includes a CPU (Central Processing Unit) 11 that centrally controls each unit, an input unit 12 that receives input of information from the user, a RAM (Random Access Memory) 13 that temporarily stores information, and information to the user. A display unit 14 for displaying information, a storage unit 15 for storing information, a camera connection unit 16 connected to the cameras a, b, c1 to cN and d1 to dN, a communication unit 17 for transmitting / receiving information to / from an external device, The timer unit 18 outputs the current date and time, and each unit is communicably connected by a bus 19.
[0022]
The CPU 11 expands in the RAM 13 an application program designated from the system programs and various application programs stored in the storage device 15, and stores various instructions input from the input unit 12 or various data corresponding thereto in the RAM 13. In accordance with the input instruction and input data, various processes are executed according to the application program stored in the storage unit 15, and the processing results are stored in the RAM 13 and displayed on the display unit 14. To do.
[0023]
The storage unit 15 includes a first order reception program for executing the first order reception process, a placement and distribution program for executing the placement and distribution process, and a payment program for executing the payment process. The cook management program for executing the cook management process and various data to be described later are stored. In the ECR 10, the CPU 11 reads the first order receiving program stored in the storage unit 15, develops it in the RAM 13, and executes it, thereby executing the first order receiving process. In the ECR 10, the CPU 11 reads the serving / laying program stored in the storage unit 15, develops it in the RAM 13, and executes it, thereby executing the serving / laying process. In the ECR 10, the CPU 11 reads the settlement program stored in the storage unit 15, develops it in the RAM 13, and executes it to execute the settlement process. In the ECR 10, the CPU 11 reads the cook management program stored in the storage unit 15, develops it in the RAM 13, and executes it, whereby the cook management process is executed. In these execution configurations, as illustrated in FIG. 1, it is assumed that the comparison unit 111 that performs various determinations and the control unit 112 that performs various controls are configured in the ECR 10. In addition, although the comparison part 111 and the control part 112 are the structures implement | achieved by software, the structure mounted as a hardware may be sufficient.
[0024]
The input unit 12 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and outputs a pressing signal pressed by the operator using the keyboard to the CPU 11. Further, the input unit 12 may include a pointing device such as a mouse, and may output a position signal of the pointing device to the CPU 11.
[0025]
The RAM 13 is a memory having a work area for storing various programs, input data, and various data such as processing results so that they can be randomly accessed and temporarily storing various information.
[0026]
The display unit 14 includes a CRT (Cathode Ray Tube), an LCD (Liquid Crystal Display), a PDP (Plasma Display Panel), or an EL (Electro Luminescence) display, and displays various display data according to display instructions input from the CPU 11. I do.
[0027]
The storage unit 15 includes a recording medium (not shown) in which various programs, various data, and the like are stored or writable in advance, and the recording medium is a magnetic or optical recording medium or a nonvolatile memory such as a semiconductor. The CPU 11 is a readable recording medium. The recording medium is not limited to a fixed hard disk or the like, but includes a removable medium such as a CD-RW, a DVD ± RW, a DVD-RAM, a memory card, and a portable hard disk.
[0028]
The RAM 13 and the storage unit 15 are configured to be able to read and rewrite internal data under the control of the CPU 11. As the recording medium, a readable / writable flexible disk, a magneto-optical disk, and a flash memory may be employed. In addition, as a recording medium for recording the program, a read-only CD-ROM, DVD, ROM or the like may be adopted.
[0029]
Moreover, you may make it the structure which receives and stores the program, data, etc. which were memorize | stored in the memory | storage part 15 from the external device via a communication network and the communication part 17. FIG. The storage unit 15 may be a storage device of an external device built on the communication network. Further, the various programs may be transmitted and installed to an external device via the communication network.
[0030]
The communication unit 17 includes a wireless LAN card, an access point, and the like that perform wireless LAN communication with the order terminal 20 and the kitchen terminal 30, but may be configured to connect to the communication network. In that case, the communication network may include not only a wireless LAN but also a wired LAN and a WAN, such as a telephone line network, an ISDN line network, a broadband communication line network, a dedicated line, a mobile communication network, a communication satellite line, and a CATV line. A configuration including an optical communication line, a wireless communication line, and an Internet service provider for connecting them may be used. The communication unit 17 may be configured to perform wired LAN communication or the like with the order terminal 20 and the kitchen terminal 30.
[0031]
The camera connection unit 16 transmits the shooting command of the CPU 11 to the cameras a, b, c1 to cN and d1 to dN, receives the captured image data from the camera, and outputs the received image data to the CPU 11. The timer unit 18 outputs the current date and time data to the CPU 11 in response to a request from the CPU 11.
[0032]
Note that the ECR 10 is configured by one information processing apparatus in the present embodiment. However, for example, a configuration in which various functions are distributed and executed by a plurality of devices by installing a plurality of devices via a communication network may be used. In this case, the load for executing various functions is distributed.
[0033]
With reference to FIG. 2, the internal structure of the order terminal 20 will be described. The order terminal 20 includes a CPU 21, a RAM 23, a display unit 24, a storage unit 25, and a communication unit 26, and each unit is connected by communication via a bus 27. The CPU 21, RAM 23, display unit 24, storage unit 25, and communication unit 26 have the same configuration as the CPU 11, RAM 13, display unit 14, storage unit 15, and communication unit 17 of the ECR 10, and different points will be described.
[0034]
The input unit 24 includes a keypad for a portable device. The display unit 24 includes a mobile device display such as an LCD or an EL display. The storage unit 25 includes a ROM, a flash ROM, and the like. The communication unit 26 performs wireless LAN communication with the ECR 10.
[0035]
The storage unit 25 stores an order input program for performing an order input process. The CPU 21 reads out the order input program stored in the storage unit 25 and stores it in the RAM 23 to execute the order input process.
[0036]
Although not shown, the kitchen terminal 30 includes a CPU, a RAM, an input unit, a display unit, a storage unit, a camera connection unit that connects to the cameras f and g, and a communication unit that performs wireless LAN communication with the ECR 10. The CPU photographs the dish on the table h on the cameras f and g via the camera connection unit by the input of the input unit such as a cook, and acquires the captured image data via the camera connection unit.
[0037]
Data stored in the storage unit 15 will be described with reference to FIGS. FIG. 3 is a diagram illustrating a configuration of the order table 50. FIG. 4 is a diagram showing the configuration of the rating score table 60. FIG. 5 is a diagram showing the configuration of the fee table 70.
[0038]
The storage unit 15 of the ECR 10 stores an order table 50, a serving score table 60, a fee table 70, and dish reference image data. As shown in FIG. 3, the order table 50 is a table having data related to orders. The table number 51 that is a number assigned to each of the tables e1 to eN and the order dish that is the name of the dish ordered by the customer. Name 52, order time 53, which is the time when the food order was received, a distributed flag 54 indicating whether or not the ordered food has been distributed, and image data of the customer who ordered the food (referred to as the ordering customer) 55.
[0039]
Table numbers 51 to 0N correspond to tables e1 to eN. In addition, the served flag 54 is set to 1 when the dish has been served, and is set to 0 when the dish is not served. The image data 55 is stereoscopic image data of the face of one customer who has made an order for each table, but the image data may be obtained by storing and storing a plurality of patterns for each person due to changes in facial expressions. . Further, the image data 55 may be image data of a plurality or all of customers on the table. This is because the ordering customer and the checkout customer may be different when a group of a plurality of people is attached to one table.
[0040]
As shown in FIG. 4, the scoring score table 60 is a table showing the scoring score of dishes for each cook belonging to a restaurant, canteen, etc., and a cook code 61 that is a character code for identifying each cook. And a score 62 that is the total score of each cook's dishes, and a basic salary 63 for each cook. The rating score 62 is data reflected in each cook's salary. If the cooking is poor, the score is reduced each time.
[0041]
The data for identifying each cook is not limited to the cook code, and may be a cook name, cook number, or the like. Further, in the present embodiment, the ranking score 62 is assumed to be data for each month when the basic salary 63 is a basic salary, but is not limited to this, and is not limited to this, but every day, every week, every week, It is good also as data of the arbitrary period every year.
[0042]
As shown in FIG. 5, the price table 60 includes an ordered dish name 71 that is the name of the ordered dish, and a dish price 72 corresponding to each dish name. In addition, although not shown, the dish reference image data stored in the storage unit 15 is image data of appropriate dishes that serve as a reference for the amount and arrangement of each dish. This dish reference image data is also three-dimensional image data.
[0043]
Next, the operation of the image data processing system α will be described with reference to FIGS. FIG. 6 is a flowchart showing an order input process executed by the order terminal 20. FIG. 7 is a flowchart showing a first order receiving process executed by the ECR 10. FIG. 8 is a flowchart showing the arrangement / laying process executed by the ECR 10. FIG. 9 is a diagram showing a display screen displayed on the kitchen terminal 30 or the order terminal 20, (I) is a diagram showing a display screen 3A displayed on the kitchen terminal 30, and (II) is a display on the kitchen terminal 30. (III) is a diagram showing a display screen 2A displayed on the ordering terminal 20. FIG. FIG. 10 is a flowchart showing the settlement process executed by the ECR 10. FIG. 11 is a flowchart showing the cook management process executed by the ECR 10.
[0044]
First, a customer who enters the restaurant where the image data processing system α is installed and attaches to the table or a customer who is already on the table requests an order, and a customer such as a waiter or waitress listens to the order. Take 20 and head to the table where the customer is sitting. Then, triggered by the input of execution of the order input process from the input unit 22 of the order terminal 20 by the customer, the CPU 21 reads the order input program from the storage unit 25 and stores it in the RAM 23 to execute the order input process. To do.
[0045]
As shown in FIG. 6, first, the table number of the table on which the customer is seated is input by the customer service via the input unit 22, and the table number is transmitted to the ECR 10 via the communication unit 26. Order data corresponding to the number is received (step S11). The order data includes a table number, an order dish name, an order time, and a distributed flag. On the ECR 10 side, a table number is received from the order terminal 20 via the communication unit 17. In the order table 50 in the storage unit 15, the received table number, the corresponding order dish name 52, the order time 53, and The distributed flag 54 is read as order data, and the order data is transmitted to the order terminal 20 via the communication unit 17. The order data is data that has already been ordered and stored in the ECR 10 before execution of the order input process, and is NULL in the case of a new customer.
[0046]
And it is discriminate | determined whether the input flag corresponding to the table number input by step S11 is ON (= 1) among the input flags memorize | stored in the memory | storage part 25 (step S12). The fact that the input flag is ON indicates that the order input at the currently used ordering terminal 20 is temporarily stopped halfway. When the input flag is ON (step S12; YES), the temporarily completed order dish name stored in the storage unit 25 is read (step S13).
[0047]
Then, the order dish name is input via the input unit 22 by the distributor (step S13). When the input flag is off (step S12; NO), the process proceeds to step S14. And it is discriminate | determined whether the order dish name input in step S14 was complete | finished, or it was temporarily terminated (step S15). If the order dish name input has not been completed (step S15; NO), the process proceeds to step S14. When the order dish name input is completed (step S15; YES), the input flag corresponding to the table number acquired in step S11 stored in the storage unit 25 is turned off, and the order dish name input in step S14. Then, the table number acquired in step S11 is transmitted as order data to the ECR 10 via the communication unit 26 (step S16), and the order input process is terminated.
[0048]
When the order data input is temporarily terminated (step S15; temporary termination), the input flag stored in the storage unit 25 and corresponding to the table number input in step S11 is turned on, and input to the storage unit 25 in step S14. The ordered dish name is stored (step S17), and the order input process is terminated.
[0049]
Next, triggered by the start of order data reception from the order terminal 20 via the communication unit 17 of the ECR 10, the CPU 11 reads the first order acceptance program from the storage unit 15, stores it in the RAM 13, and stores it in the first RAM. The order reception process is executed.
[0050]
As shown in FIG. 7, first, order data is received from the order terminal 20 via the communication unit 17 (step S21). Then, the current time is acquired from the time measuring unit 18, and the current time is stored in the order table 50 in the storage unit 15 together with the order data received in step S21 (step S22). Specifically, the table number and the order dish name in the order data are stored in the table number 51 and the order dish name 52, and the current time is stored in the order time 53. In addition, the arranged flag 54 is stored as off (= 0).
[0051]
Then, the ordering customer's face photographing instruction is transmitted to the camera corresponding to the table to which the ordering customer is attached from among the tables e1 to eN via the camera connection unit 16, and the ordering customer is responded by the camera according to the photographing instruction. The photographed customer's image data is received from the camera via the camera connection unit 16, and the customer image data is stored in the order table 50 in the storage unit 15 (step S23). ). Specifically, the order customer image data is stored in the image data 55 of the record stored in step S22 in the order table 50.
[0052]
Then, the order dish name received in step S21 is transmitted to the kitchen terminal 30 via the communication unit 17 (step S24), and the first order receiving process is ended.
In the kitchen terminal 30, the order dish name is received from the ECR 10, and the order dish name is displayed on a display unit (not shown). The cook looks at the displayed order dish name and performs cooking of the ordered dish. Here, the cook in charge of cooking the dish is the responsible cook.
[0053]
Next, when cooking of the dish ordered by the cook in charge is completed and the arrangement is completed, the dish on which the arrangement has been completed is placed on the table h. The person in charge of cooking inputs the fact that cooking of the dishes has been completed and the cook code of the person in charge of the person in charge through the input unit (not shown) of the kitchen terminal 30. Then, the kitchen terminal 30 transmits a photographing instruction to the cameras f and g, and the dishes on the table h are photographed by the cameras f and g and transmitted to the kitchen terminal 30 as arranged image data. Then, the kitchen terminal 30 transmits to the ECR 10 the completion of the dish arrangement and the cook code.
[0054]
Then, triggered by the fact that cooking has been completed from the kitchen terminal 30 and the cook code received from the kitchen terminal 30 via the communication unit 17 of the ECR 10, the CPU 11 reads out the arrangement and distribution program from the storage unit 15 and reads the RAM 13 And store and serve.
[0055]
As shown in FIG. 8, first, the arranged image data is received from the kitchen terminal 30 via the communication unit 17 (step S31). Then, it is determined whether or not the arrangement image data is received in step S31 (step S32). When the arranged image data has not been received (step S32), the process proceeds to step S32. When the arrangement image data is received (step S32; YES), the dish reference image data stored in the storage unit 15 corresponding to the dish for which the arrangement has been completed is read (step S33).
[0056]
Then, the comparison unit 111 compares the configuration of the arranged image data received in step S31 and the arranged image data received in step S33 (step S34). The comparison of image data configurations is performed based on, for example, brightness distribution, color distribution, and the like. In addition, since the image data is three-dimensional, it can be compared more accurately than planar image data. Further, for example, the degree of coincidence of image data is calculated, and when the degree of coincidence is equal to or greater than a predetermined value, the same configuration is determined. When the degree of coincidence is lower than the predetermined value, it is determined that the configuration is not the same. If the composition is the same, it means that there is no problem in arranging finished dishes. If the composition is not the same, it means that there is a problem with the arrangement of the finished dish.
[0057]
Then, based on the comparison result in step S34, the comparison unit 111 determines whether the arrangement image data received in step S31 and the arrangement image data received in step S33 have the same configuration. (Step S35). If the structure is the same (step S35; YES), the order dish name and the order dish name 52 of the dish having the same structure in the records of the order table 50 match, the serving flag 54 is 0, and the order time is reached. The table number 51 having the earliest 53 is acquired (step S36).
[0058]
Then, the control unit 112 transmits, via the communication unit 17, data indicating that there is no problem in arranging the completed dish (OK) and the table number acquired in step S36 to the kitchen terminal 30 ( Step S37). Then, the control unit 112 sends the data indicating the ordering instruction for the ordered food, the table number acquired in step S 36, and the image data 55 of the order table 50 corresponding to the table number 51 via the communication unit 17. It is transmitted to the order terminal 20 (step S38). Then, the distribution completed flag 53 corresponding to the ordered dish instructed for distribution in the order table 50 is turned on (= 1) (step S39), and the arrangement distribution process is ended.
[0059]
When the configuration is different (step S35; NO), the control unit 112 transmits data indicating that there is a problem (NG) to the finished dish arrangement to the kitchen terminal 30 via the communication unit 17 ( Step S40). And in the arrangement | positioning score table 60 in the memory | storage part 15, the arrangement | positioning score 62 corresponding to the cook code received before step S31 is deducted a predetermined number of points (step S41), and arrangement | positioning distribution process is complete | finished.
[0060]
After step S37, in the kitchen terminal 30, the data indicating that the completed dish arrangement is OK and the table number are received from the ECR 10, and the data indicating that the completed dish arrangement is OK; The table number and the cook name corresponding to the cook code are displayed on a display unit (not shown) of the kitchen terminal 30. For example, it is displayed as a display screen 3B as shown in FIG. For this reason, it can be made to confirm that the cook in charge does not have any problem with the cooking by the display screen 3B.
[0061]
Further, after step S38, the order terminal 20 receives the data indicating the ordering of the ordered dish, the table number thereof, and the order customer image data from the ECR 10, and the data indicating the ordering instruction of the ordered dish. The table number and the order customer image data are displayed on the display unit 24 of the order terminal 20. For example, it is displayed as a display screen 2A as shown in FIG. For this reason, the customer can check the table number of the serving destination and the order customer image data on the display screen 2A, and the ordered dishes can be easily served.
[0062]
In addition, after step S40, the kitchen terminal 30 receives data indicating that the completed dish is NG from the ECR 10, data indicating that the completed dish is NG, and the cook code The name of the cook corresponding to is displayed on a display unit (not shown) of the kitchen terminal 30. For example, it is displayed as a display screen 3A as shown in FIG. For this reason, it is possible to cause the cook in charge to confirm that there is a problem with the cooking arrangement and to perform the cooking arrangement re-execution on the display screen 3A.
[0063]
Next, in order for the ordering customer to finish eating the ordered food and to settle the food, the customer (referred to as the “accounting customer”) moves to the checkout office where the ECR 10 is installed. Cameras a and b are installed at the checkout office. Then, triggered by the start of the settlement process input by the customer via the input unit 12 of the ECR 10, the CPU 11 reads the settlement program from the storage unit 15, stores it in the RAM 13, and executes the settlement process.
[0064]
As shown in FIG. 10, first, all the image data 55 (order customer image data) of the order table 50 in the storage unit 15 is read (step S51). Then, an instruction for photographing the customer's face is transmitted to the cameras a and b via the camera connection unit 16, and the face of the customer is photographed according to the photographing instruction by the cameras a and b. Customer image data is received from the cameras a and b via the camera connection unit 16, and the customer image data is stored in the RAM 13 (step S52). The checkout customer image data is also three-dimensional image data.
[0065]
Then, the ordering customer image data read in step S51 is compared with the adjusted customer image data photographed in step S52 by the comparison unit 111 (step S53). This image data comparison is the same as the image data comparison in step S34. Then, based on the comparison result of step S53, the comparison unit 111 determines whether or not the subject customers of the order customer image data and the checkout customer image data are the same person (step S54).
[0066]
When it is determined that they are the same person (step S54; YES), the table number 51 corresponding to the order customer image data (corresponding to the checkout customer image data) and the order food from the order table 50 in the storage unit 15 are also obtained. The name 52 is read, and the charge 72 corresponding to the read ordered dish name 52 is read from the charge table 70 in the storage unit 15, and the total is calculated (step S55). Then, the total charge calculated in step S55 is displayed on the display unit 14 by the control unit 112 together with the read table number, a settlement instruction is displayed on the display unit 14 (step S56), and the settlement process is terminated. The The customer performs checkout based on the total fee and checkout instructions.
[0067]
If it is not determined that they are the same person (step S54; NO), the customer number is input by the customer service via the input unit 12 (step S57), and the process proceeds to step S55. In this case, in step S55, the order dish name 52 corresponding to the table number read in step S57 is read from the order table 50 in the storage unit 15, and read from the charge table 70 in the storage unit 15. A fee 72 corresponding to the order name 52 is read and the sum is calculated.
[0068]
Although omitted in the present embodiment, the ECR 10 is provided with a print output unit for printing receipts and the like. After the settlement is performed, a receipt including the name of the order dish, table name, etc. is output from the print unit. , The receipt is handed over from the customer to the checkout customer.
[0069]
Next, the cook management process which evaluates the cooking arrangement of the cook will be described. The cook management process is automatically executed after the end of the daily business. This execution interval is not limited to every day, but may be other intervals such as every week. In addition, the salary closing date is determined in advance. Triggered by the execution of the cook management process by the manager such as the store manager via the input unit 12 of the ECR 10, the CPU 11 reads the cook management program from the storage unit 15 and stores it in the RAM 13 to store the cook. Execute management processing. In addition, the cook management process may be automatically executed with a trigger at a predetermined time for each predetermined period.
[0070]
As shown in FIG. 11, first, the current date and time is acquired from the time measuring unit 18, and it is determined whether or not the current date and time is the cook's salary closing date (step S61). If it is the salary closing date (step S61; YES), an unselected (new or next) cook among all cooks is selected, and the selected cook is selected from the rating score table 60 in the storage unit 15. The serving score 62 and the basic salary 63 corresponding to the cook code 61 are read out (step S62).
[0071]
Then, salary data is calculated based on the rating score and basic salary read in step S62, and the salary data is stored in the storage unit 15 (step S63). Specifically, for example, when a rating score is given by the deduction method, it is calculated by the formula of basic salary * (current rating score / first rating score). For example, the salary data of the cook with the cook code 001 in FIG. 4 is 250,000 * (1000/1000) = 250,000, and the salary data of the cook with the cook code 002 is 200000 * (900/1000) = 18000. Become.
[0072]
Then, the rating score 62 corresponding to the selected cook in the rating score table 60 is reset to the first numerical value and stored (step S64). And it is discriminate | determined whether all the cooks were selected in step S62 (step S65). When all the cooks are not selected (step S65; NO), the process proceeds to step S62. When all the cooks are selected (step S65; YES), the cook management process is terminated.
[0073]
When it is not the salary closing date (step S61; NO), the rating score table 60 in the storage unit 15 is read, the rating score table 60 is displayed on the display unit 14 as a report (step S66), and the cook management process is performed. Is terminated. By displaying the rating score table 60, an administrator can confirm the rating score table 60. Based on the rating score 62 of the rating score table 60, the manager can appropriately instruct the cook to improve the rating. Further, when the ECR 10 is provided with a print output unit (not shown), the salary data and the report may be printed out. Further, in the arrangement / laying process, the arrangement image data that has been arranged as NG may be stored in the storage unit 15, and in that case, the arrangement image data that has been decided as NG is displayed on the display unit 14. (Or print output from the print output unit) to show the NG arrangement image data to the cook and instruct the arrangement.
[0074]
As described above, according to the present embodiment, in cooking arrangement and serving, the dishes cooked and arranged by the responsible chef are photographed by the cameras f and g to obtain the arrangement image data, and the arrangement image is obtained. The data and the cooking reference image data are compared to determine whether there is a problem, and the determination result is displayed on the display unit 14. For this reason, the burden of the check of the dish arrangement | positioning by human visual observation is reduced, and the check of the dish arrangement | positioning can be performed correctly. In addition, the determination result can be notified to the cook in charge, and the cook can be improved in the accuracy of cooking.
[0075]
Further, according to the present embodiment, when there is a problem in the dishing of the dish, the serving chef's serving score is deducted, and the salary as the evaluation of each cook is determined based on the serving score. The For this reason, the cook can be evaluated fairly by checking the cooking arrangement by comparing the image data, not by human eyes, and the burden of the execution of the evaluation by the manager can be reduced. In addition, the evaluation result (salary) can allow the cook to further improve the accuracy of cooking.
[0076]
Further, according to the present embodiment, in the settlement of dishes, the order customer image data photographed at the time of ordering is compared with the settlement customer image data photographed at the time of settlement, and it is determined that the subject is the same person. In such a case, a total charge corresponding to the checkout customer is calculated and the checkout is instructed. For this reason, it is possible to reduce the burden of checking and inputting the table number of the customer at the time of payment by the customer, and it is possible to accurately calculate and settle the total fee.
[0077]
In the present embodiment, the arrangement score is deducted by a predetermined number when the dish arrangement becomes NG. However, the present invention is not limited to this. A configuration may be used in which the number of points to be deducted is changed stepwise in accordance with the degree of coincidence with the reference image data. Further, when the degree of matching is high and the rating is excellent, a configuration may be used in which a predetermined score is added to the rating score, or the number of added points may be changed stepwise in accordance with the level of matching. Moreover, the structure which deducts a score at the stage where the number of NGs of arrangement | positioning reaches predetermined number may be sufficient, and the structure which adds a score for the stage when the number of OK times of arrangement | positioning reaches predetermined number may be sufficient.
[0078]
Further, in the arrangement and distribution process, the order terminal 20 and the kitchen terminal 30 are each provided with a print output unit, and data corresponding to each of the display screen 3A shown in FIG. 9I and the display screen 3B shown in FIG. A configuration may be adopted in which printing is performed at the kitchen terminal 30 and data corresponding to the display screen 2A shown in FIG.
[0079]
(Second Embodiment)
Next, a second embodiment according to the present invention will be described with reference to FIGS. This embodiment is not a method in which a customer visits a table to take an order as in the first embodiment, but when a customer orders food at the counter and then the ordered food is completed, Is applied again to restaurants, etc. that take custom dishes to the counter again. First, the features of the apparatus according to the present embodiment will be described with reference to FIG. FIG. 12 is a diagram showing a configuration of the image data processing system β in the present embodiment.
[0080]
As shown in FIG. 12, the image data processing system β according to the present embodiment includes a camera i as a photographing unit that photographs an ECR 80 installed in a counter and an ordering customer and a dish receiving customer that are also installed in the counter. j and a kitchen terminal 90 provided in the kitchen and connected to the ECR 80 by a wireless or wired LAN. Three-dimensional image data of an ordering customer and a delivery customer as subjects are photographed by a camera i photographing from the horizontal direction and a camera j photographing from the upward direction.
[0081]
The kitchen terminal 90 has the same configuration as the kitchen terminal 30 in the first embodiment. The ECR 80 includes a CPU 81, an input unit 82, a RAM 83, a display unit 84, a storage unit 85, a camera connection unit 86 connected to the cameras i and j, and a communication unit that performs wireless LAN communication with the kitchen terminal 90. 87 and a time measuring unit 88, and each unit is communicatively connected to a bus 89. The CPU 81, the input unit 82, the RAM 83, the display unit 84, the storage unit 85, the camera connection unit 86, the communication unit 87, and the time measuring unit 88 are respectively the CPU 11, the input unit 12, the RAM 13, the display unit 14, the storage unit 15, and the camera. The configuration is the same as that of the connection unit 16, the communication unit 17, and the time measuring unit 18. Therefore, a different part from ECR10 and the kitchen terminal 30 of 1st Embodiment is mainly demonstrated.
[0082]
The storage unit 85 stores a second order receiving program for executing the second order receiving process, a delivery program for executing the dish delivery process, and various data to be described later. In the ECR 80, the CPU 81 reads out the second order reception processing program stored in the storage unit 85, develops it in the RAM 83, and executes it to execute the second order reception processing. Further, in the ECR 80, the CPU 81 reads out the delivery program stored in the storage unit 85, develops it in the RAM 83, and executes it to execute delivery processing. In this execution configuration, as shown in FIG. 12, the comparison unit 811 that performs various determinations and the control unit 812 that performs various controls will be described as being configured in the ECR 80. In addition, although the comparison part 811 and the control part 812 are the structures implement | achieved by software, the structure mounted as a hardware may be sufficient.
[0083]
Next, a data configuration stored in the storage unit 85 will be described with reference to FIG. FIG. 13 is a diagram showing the configuration of the order table 100. The storage unit 85 stores an order table 100 shown in FIG. The order table 100 is a table having data related to orders, and includes an order dish name 101, an order time 102, a delivery completion flag 103 indicating whether or not a dish has been delivered, and image data 104. The order dish name 101, the order time 102, the delivered flag 103, and the image data 104 are respectively the order dish name 51, the order time 52, the served flag 53, and the image data 54 of the order table 50 of the first embodiment. It is the same.
[0084]
Next, the operation of the image data processing system β will be described with reference to FIGS. 14 and 15. FIG. 14 is a flowchart showing a second order receiving process executed by the ECR 80. FIG. 15 is a flowchart showing a delivery process executed by the ECR 80.
[0085]
First, an ordering customer who wants to order food comes to the counter where the ECR 80 is installed to order food. The CPU 81 uses the second order receiving program from the storage unit 85 as a trigger when the execution of the second order receiving process is input via the input unit 82 of the ECR 80 by a waiter or waitress at the counter. Is stored in the RAM 83 and the second order receiving process is executed.
[0086]
As shown in FIG. 14, first, the customer name of the dish ordered by the ordering customer is input via the input unit 82 by the customer service (step S71). And it is discriminate | determined whether the input of the order dish name in step S71 was complete | finished (step S72). When the input of the order dish name is not completed (step S72; NO), the process proceeds to step S71.
[0087]
When the input of the order food name is completed (step S72; YES), the current time is acquired from the time measuring unit 88, and the current time is stored in the storage unit 85 as the order table 100 together with the order food name input in step S71. (Step S73). Specifically, the inputted order dish name is stored as the order dish name 101 and the current time is stored as the order time 102. In addition, the delivery completion flag 103 is set to off.
[0088]
Then, an ordering customer's face photographing instruction is transmitted to the cameras i and j via the camera connection unit 86, and the ordering customer's face is photographed and photographed in accordance with the photographing instruction by the cameras i and j. The customer image data is received from the cameras i and j via the camera connection unit 86, and the ordered customer image data is stored in the image data 104 of the order table 100 (step S75). The order customer image data is stereoscopic image data.
[0089]
Then, order data including the order dish name is transmitted to the kitchen terminal 90 via the communication unit 87 (step S75), and the second order acceptance process is ended. The kitchen terminal 90 receives the order data from the ECR 80 and displays the order dish name on a display unit (not shown). For this reason, the cook name of the kitchen can be confirmed. The cook in charge performs the cooking of the custom dish name.
[0090]
Next, cooking and arrangement of the dish by the cook in charge are completed, and the cook instructor inputs the completion of the dish through the input unit (not shown) of the kitchen terminal 90, and the ECR 80 through the communication unit (not shown). Is sent to that effect. Then, the completion of cooking is received from the kitchen terminal 90 via the communication unit 80 of the ECR 80. After that, a customer (received customer) appears on the counter to receive the ordered food. Therefore, triggered by the customer input from the input unit 82 of the ECR 80 as a trigger, the CPU 81 reads the dish delivery program from the storage unit 85, stores it in the RAM 83, and executes the delivery process.
[0091]
As shown in FIG. 15, in the order table 100 in the storage unit 85, the completed order dish name matches the order dish name 101, the delivery flag 103 is off (= 0), and the order time 102 is one. The earliest image data 104 is read (step S81). Then, an instruction for photographing the recipient's face is transmitted to the cameras i and j via the camera connection unit 86, and the receiver's face is photographed according to the photographing instruction by the cameras i and j, and the photographed receipt is received. The customer image data is received from the cameras i and j through the camera connection unit 86, and the received customer image data is stored in the RAM 83 (step S82). The customer image data is stereoscopic image data.
[0092]
Then, the ordering customer image data read in step S81 is compared with the customer image data taken in step S82 by the comparison unit 811 (step S83). This image data comparison is the same as the image data comparison in step S34 of the first embodiment. Then, based on the comparison result of step S83, the comparison unit 811 determines whether or not the customers as subjects of the ordered customer image data and the received customer image data are the same person (step S84).
[0093]
When it is determined that they are the same person (step S84; YES), the control unit 812 displays instruction data indicating delivery of the completed custom dish to the receiver on the display unit 84 (step S85). Then, the delivery completion flag 103 of the order table 100 in the storage unit 85 corresponding to the order customer image data read in step S81 is set to ON (step S86), and the delivery process is ended. The customer service delivers the completed custom dish to the customer based on the instruction data for delivering the displayed custom dish.
[0094]
When it is determined that they are not the same person (step S84; NO), all the order customer image data corresponding to the order dish name are searched from the image data 104 of the order table 100 together with the order time 102 (step S87). Then, the control unit 812 displays on the display unit 82 data indicating that the ordering customer to whom the food is to be delivered is different from the receiving customer, the ordering customer image data retrieved in step S87, and the ordering time. (Step S88), the delivery process is terminated. Based on the data display to indicate that the customer is different, the customer can identify the customer's ordered customer image data, check the order time, and inform the customer of the current waiting number, expected completion time, etc. .
[0095]
As described above, according to the present embodiment, in the counter, the ordering customer image data is acquired by the cameras i and j when the dish is ordered and the ordering customer image data is acquired, and the receiving customer is captured and received when the completed dish is delivered. The customer image data is acquired, the order customer image data to be delivered and the received customer image data are compared to determine whether or not the subject is the same person, and if the subject is the same person, a dish delivery instruction is displayed. Displayed on the portion 84. For this reason, the burden of the confirmation work of the customer who should deliver the dish by the customer can be reduced. In addition, it is possible to accurately confirm the customer who should deliver the food, and it is possible to prevent the food from being delivered to the wrong customer.
[0096]
Further, even when the subject of the order customer image data to which the dish is to be delivered and the customer image data are not the same person, the order customer image data for which the dish has been ordered is displayed on the display unit 84 together with the order time. For this reason, the customer can be made to explain the current situation to the customer who should not deliver the dish.
[0097]
In the first and second embodiments, the configuration is such that the subject is photographed by two cameras and stereoscopic image data is acquired. However, the present invention is not limited to this, and one camera is used. A configuration in which a subject is photographed to obtain planar image data may be used. In the first and second embodiments, the various processes are performed by the ECR. However, the present invention is not limited to this, and the various processes may be performed in an information processing apparatus independent of the ECR. .
[0098]
As described above, the embodiments of the present invention have been described. However, the present invention is not necessarily limited only to the above-described means and methods, and within the scope of achieving the object of the present invention and having the effects of the present invention. It is possible to make changes as appropriate.
[0099]
【The invention's effect】
According to the present invention, the degree of coincidence between the dish reference image data and the arrangement image data is calculated, and the evaluation of dish arrangement based on the degree of coincidence is output. The burden of executing the evaluation work can be reduced. Moreover, since the cooking arrangement is accurately evaluated, it is possible to make the cook improve the cooking arrangement accuracy.
[0100]
Further, according to the present invention, it is determined whether or not the ordering customer and the receiving customer match by comparing the ordering customer image data and the receiving customer image data, and it is determined that the ordering customer and the receiving customer match. In this case, since the delivery instruction of the dish to the receiving customer is instructed, it is possible to reduce the burden of executing an appropriate checking operation of the receiving customer visually. In addition, since an appropriate customer is accurately identified, it is possible to prevent an error in delivery of the dish.
[0101]
Further, according to the present invention, by comparing the order customer image data and the checkout customer image data, it is determined whether or not the order customer and the checkout customer match, and it is determined that the order customer and the checkout customer match. In this case, since the payment adjustment instruction and the payment data of the food to the payment customer are output, it is possible to reduce the burden of executing the information input operation for obtaining the payment data corresponding to the payment customer. In addition, since the correct settlement data corresponding to the settlement customer is output accurately, the settlement error can be prevented.
[Brief description of the drawings]
FIG. 1 is a diagram showing a configuration of an image data processing system α in a first embodiment according to the present invention.
FIG. 2 is a diagram showing an internal configuration of the order terminal 20;
3 is a diagram showing a configuration of an order table 50. FIG.
FIG. 4 is a diagram showing a configuration of a rating score table 60;
FIG. 5 is a diagram showing a configuration of a charge table 70;
6 is a flowchart showing an order input process executed by the order terminal 20. FIG.
FIG. 7 is a flowchart showing a first order receiving process executed by the ECR 10;
FIG. 8 is a flowchart showing the arrangement / laying process executed by the ECR 10;
9 is a diagram showing a display screen displayed on the kitchen terminal 30 or the order terminal 20, FIG. 9 (I) is a diagram showing a display screen 3A displayed on the kitchen terminal 30, and (II) is a display on the kitchen terminal 30. (III) is a diagram showing a display screen 2A displayed on the ordering terminal 20. FIG.
FIG. 10 is a flowchart showing a checkout process executed by the ECR10.
FIG. 11 is a flowchart showing a cook management process executed by the ECR 10;
FIG. 12 is a diagram showing a configuration of an image data processing system β in the second embodiment according to the present invention.
13 is a diagram showing a configuration of an order table 100. FIG.
FIG. 14 is a flowchart showing a second order receiving process executed by ECR80.
15 is a flowchart showing a delivery process executed by the ECR 80. FIG.
[Explanation of symbols]
α, β ... Image data processing system
10, 80 ... ECR
20 ... Order terminal
11, 21, 81 ... CPU
111, 811 ... comparison unit
112, 812 ... control unit
12, 22, 82 ... input section
13, 23, 83 ... RAM
14, 24, 84 ... display section
15, 25, 85 ... storage unit
16, 86 ... Camera connection part
17, 26, 87 ... communication section
18, 88 ... Timekeeping section
30, 90 ... Kitchen terminal
a, b, c1 to cN, d1 to dN, f, g, i, j ... camera
e1-eN, h ... table
19, 29, 89 ... bus

Claims (8)

適正な料理の盛り付けの基準となる料理基準画像データを記憶する記憶部と、
調理された料理を撮影して盛付け画像データを出力する撮影部と、
前記記憶部に記憶された料理基準画像データと前記撮影部に撮影された盛付け画像データとを比較して、その一致の度合いを算出する比較部と、
前記比較部により算出された一致の度合いに基づいて料理の盛り付けの評価を出力する制御部とを備え、
画像データを用いて適正な料理の盛り付けを補助することを特徴とする画像データ処理システム。
A storage unit for storing dish reference image data serving as a reference for proper dish arrangement;
A shooting unit that shoots cooked dishes and outputs the arranged image data;
A comparison unit that compares the cooking reference image data stored in the storage unit with the arranged image data photographed in the photographing unit, and calculates the degree of coincidence;
A control unit that outputs an evaluation of cooking arrangement based on the degree of coincidence calculated by the comparison unit;
An image data processing system that assists in arranging appropriate dishes using image data.
前記記憶部は、料理の調理人を識別する識別データを記憶し、
前記制御部は、前記料理の盛り付けの評価を、前記識別データに対応して出力するとともに前記記憶手段に記憶することを特徴とする請求項1に記載の画像データ処理システム。
The storage unit stores identification data for identifying a cook of cooking,
The image data processing system according to claim 1, wherein the control unit outputs an evaluation of the dish arrangement in correspondence with the identification data and stores the evaluation in the storage unit.
前記制御部は、前記記憶部に記憶された前記識別データ及び前記料理の盛り付けの評価に基づいて各調理人を評価する評価データを算出し、前記識別データに対応して前記評価データを出力することを特徴とする請求項2に記載の画像データ処理システム。The control unit calculates evaluation data for evaluating each cook based on the identification data stored in the storage unit and the evaluation of the cooking arrangement, and outputs the evaluation data corresponding to the identification data. The image data processing system according to claim 2. 料理を注文した注文客を撮影して注文客画像データを出力する第1の撮影部と、
料理を受取りに来た受取り客を撮影して受取り客画像データを出力する第2の撮影部と、
前記第1の撮影部により撮影された注文客画像データと前記第2の撮影部により撮影された受取り客画像データとを比較し、その一致の度合いにより、前記注文客と前記受取り客とが一致するか否かを判別する比較部と、
前記比較部により前記注文客と前記受取り客とが一致すると判別された場合に、前記受取り客への料理の受渡し実行を指示する制御部とを備え、
画像データを用いて適正な料理の受渡しを補助することを特徴とする画像データ処理システム。
A first photographing unit for photographing an ordering customer who ordered food and outputting ordering customer image data;
A second photographing unit for photographing a customer who has received the dish and outputting the customer image data;
The ordered customer image data photographed by the first photographing unit is compared with the receiving customer image data photographed by the second photographing unit, and the ordering customer and the receiving customer match according to the degree of coincidence. A comparison unit for determining whether or not to perform,
A controller for instructing delivery of the dish to the receiving customer when the comparing unit determines that the ordering customer and the receiving customer match;
An image data processing system that assists in the delivery of an appropriate dish using image data.
料理を注文した注文客を撮影して注文客画像データを出力する第1の撮影部と、
前記第1の撮影部により撮影された注文客画像データと前記注文客に応じた精算のための精算データとを記憶する記憶部と、
料理の精算をする精算客を撮影して精算客画像データを出力する第2の撮影部と、
前記記憶部に記憶された注文客画像データと前記第2の撮影部により撮影された精算客画像データとを比較し、その一致の度合いにより、前記注文客と前記精算客とが一致するか否かを判別する比較部と、
前記比較部により前記注文客と前記精算客とが一致すると判別された場合に、前記記憶部から前記精算客に対応する精算データを読み出し、前記精算客への料理の精算実行指示及び前記精算客に対応する精算データを出力する制御部とを備え、
画像データを用いて適正な料理の精算を補助することを特徴とする画像データ処理システム。
A first photographing unit for photographing an ordering customer who ordered food and outputting ordering customer image data;
A storage unit for storing the order customer image data photographed by the first photographing unit and the settlement data for settlement according to the order customer;
A second imaging unit that shoots a customer who checks out the food and outputs the customer image data;
The order customer image data stored in the storage unit is compared with the settlement customer image data photographed by the second photographing unit, and whether or not the order customer and the settlement customer match according to the degree of coincidence. A comparison unit for determining whether or not
When the comparison unit determines that the ordering customer and the checkout customer match, the checkout data corresponding to the checkout customer is read from the storage unit, and the checkout execution instruction of the dish to the checkout customer and the checkout customer And a control unit that outputs settlement data corresponding to
An image data processing system that assists in the settlement of appropriate dishes using image data.
コンピュータに、
調理された料理を撮影して盛付け画像データを出力する機能と、
適正な料理の盛り付けの基準となる料理基準画像データを記憶する記憶部に記憶された料理基準画像データと前記撮影された盛付け画像データとを比較して、その一致の度合いを算出する機能と、
前記算出された一致の度合いに基づいて料理の盛付けの評価を出力する機能とを実現させるため画像データ処理プログラム。
On the computer,
A function of shooting cooked dishes and outputting arranged image data,
A function for comparing dish reference image data stored in a storage unit for storing dish reference image data serving as a reference for proper dish arrangement and the photographed serving image data, and calculating a degree of coincidence thereof; ,
An image data processing program for realizing a function of outputting an evaluation of cooking arrangement based on the calculated degree of coincidence.
コンピュータに、
料理を注文した注文客を撮影して注文客画像データを出力する機能と、
料理を受取りに来た受取り客を撮影して受取り客画像データを出力する機能と、
前記撮影された注文客画像データと前記撮影された受取り客画像データとを比較し、その一致の度合いにより、前記注文客と前記受取り客とが一致するか否かを判別する機能と、
前記注文客と前記受取り客とが一致すると判別された場合に、前記受取り客への料理の受渡し実行を指示する機能とを実現させるための画像データ処理プログラム。
On the computer,
A function for photographing the customer who ordered the food and outputting the customer image data,
A function to capture the customer who came to receive the food and output the customer image data,
A function of comparing the photographed order customer image data with the photographed customer image data, and determining whether the order customer and the customer are in accordance with the degree of matching;
An image data processing program for realizing a function of instructing delivery of a dish to the receiving customer when it is determined that the ordering customer and the receiving customer match.
コンピュータに、
料理を注文した注文客を撮影して注文客画像データを出力する機能と、
前記撮影された注文客画像データと前記注文客に応じた精算のための精算データとを記憶部に記憶する機能と、
料理の精算をする精算客を撮影して精算客画像データを出力する機能と、
前記記憶部に記憶された注文客画像データと前記撮影された精算客画像データとを比較し、その一致の度合いにより、前記注文客と前記精算客とが一致するか否かを判別する機能と、
前記注文客と前記精算客とが一致すると判別された場合に、前記記憶部から前記精算客に対応する精算データを読み出し、前記精算客への料理の精算実行指示及び前記精算客に対応する精算データを出力する機能とを実現させるための画像データ処理プログラム。
On the computer,
A function for photographing the customer who ordered the food and outputting the customer image data,
A function of storing the photographed order customer image data and settlement data for settlement according to the order customer in a storage unit;
The function of photographing the customer who is paying for the food and outputting the customer image data,
A function of comparing the order customer image data stored in the storage unit with the photographed customer image data and determining whether or not the order customer and the customer are matched according to the degree of matching; ,
When it is determined that the order customer and the checkout customer coincide with each other, the checkout data corresponding to the checkout customer is read from the storage unit, the cooking checkout execution instruction to the checkout customer, and the checkout corresponding to the checkout customer An image data processing program for realizing a function of outputting data.
JP2002382033A 2002-12-27 2002-12-27 Image data processing system and program Expired - Fee Related JP4228696B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002382033A JP4228696B2 (en) 2002-12-27 2002-12-27 Image data processing system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002382033A JP4228696B2 (en) 2002-12-27 2002-12-27 Image data processing system and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2008257130A Division JP4973634B2 (en) 2008-10-02 2008-10-02 Order data processing system and program

Publications (2)

Publication Number Publication Date
JP2004213319A true JP2004213319A (en) 2004-07-29
JP4228696B2 JP4228696B2 (en) 2009-02-25

Family

ID=32817772

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002382033A Expired - Fee Related JP4228696B2 (en) 2002-12-27 2002-12-27 Image data processing system and program

Country Status (1)

Country Link
JP (1) JP4228696B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076323A (en) * 2009-09-30 2011-04-14 Toshiba Tec Corp Ordering management device, ordering management system and control program
JP2012252396A (en) * 2011-05-31 2012-12-20 Toshiba Tec Corp Visual inspection device, visual inspection program and visual inspection system
JP2013218732A (en) * 2013-07-04 2013-10-24 Toshiba Tec Corp Article recognition device, article recognition program, and article recognition system
JP6932229B1 (en) * 2020-09-30 2021-09-08 PayPay株式会社 Calculation device, calculation method and calculation program
JP7012187B1 (en) 2020-09-30 2022-01-27 PayPay株式会社 Calculation device, calculation method and calculation program
JP7227423B1 (en) 2022-06-10 2023-02-21 セーフィー株式会社 Information processing system, information processing method and program

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011076323A (en) * 2009-09-30 2011-04-14 Toshiba Tec Corp Ordering management device, ordering management system and control program
JP2012252396A (en) * 2011-05-31 2012-12-20 Toshiba Tec Corp Visual inspection device, visual inspection program and visual inspection system
JP2013218732A (en) * 2013-07-04 2013-10-24 Toshiba Tec Corp Article recognition device, article recognition program, and article recognition system
JP6932229B1 (en) * 2020-09-30 2021-09-08 PayPay株式会社 Calculation device, calculation method and calculation program
JP7012187B1 (en) 2020-09-30 2022-01-27 PayPay株式会社 Calculation device, calculation method and calculation program
JP2022058185A (en) * 2020-09-30 2022-04-11 PayPay株式会社 Calculation device, calculation method, and calculation program
JP2022057996A (en) * 2020-09-30 2022-04-11 PayPay株式会社 Calculation device, calculation method and calculation program
JP7227423B1 (en) 2022-06-10 2023-02-21 セーフィー株式会社 Information processing system, information processing method and program
JP2023181050A (en) * 2022-06-10 2023-12-21 セーフィー株式会社 Information processing system, information processing method, and program

Also Published As

Publication number Publication date
JP4228696B2 (en) 2009-02-25

Similar Documents

Publication Publication Date Title
JP4973634B2 (en) Order data processing system and program
JP2010238118A (en) Ordering system
US20060085265A1 (en) System and method for restaurant electronic menu
JP4928592B2 (en) Image processing apparatus and program
CN110188903B (en) Method and device for processing order pre-ordering information
WO2019128908A1 (en) Data object information processing method, apparatus, and system, and electronic device
CN108305414A (en) Dining room automatic settlement method and system, intelligent restaurant
JP4228696B2 (en) Image data processing system and program
JP2012198707A (en) Information processor, information processing system, information processing method, and information processing program
JP2016045693A (en) Information processing device, menu determination method, and program
JP4202536B2 (en) Print ordering system and method
JP2019139723A (en) Self-order payment service system and method
CN111144864A (en) Catering settlement method, catering settlement device and storage medium
JP2023090940A (en) Information processing system, information processing method, and information processing program
JP6554257B2 (en) Support system for providing custom dishes
JP2021033891A (en) Business terminal device and sales management system
KR20200069559A (en) Automatic order system using smart device
JP2003303375A (en) Order input terminal and order data management system
US20210192477A1 (en) App-less restaurant processing system using mobile devices and offering check splitting
CN209590989U (en) A kind of hotel self-service moves in device
JP6692790B2 (en) Payment support system, payment support device, and payment support method
JP2007148642A (en) Order system by finger vein authentication system
JP2001209675A (en) Ordering system
JP2021111215A (en) Program and ordering system
JP6963196B2 (en) Payment support system, payment support device, and payment support method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050920

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080805

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081002

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081111

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081124

R150 Certificate of patent or registration of utility model

Ref document number: 4228696

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111212

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121212

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131212

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees